Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Los presentes apuntes fueron confeccionados en base a los apuntes del curso Probabilidades y Estadstica del profesor Roberto Cortez Milan. Estos han sido creados con la exclusiva finalidad de ser
usados como apoyo docente para estudiantes y profesores de la Escuela de Verano bajo la expresa
autorizaci
on de su autor. Todos los derechos de edicion, reproduccion, difusion y uso de este material
fuera del se
nalado anteriormente se reservan a su autor.
Autores:
Roberto Cortez Mil
an
Editor:
Benjamn Ruiz Mu
noz
Coordinador:
Felipe Cel`ery Cespedes
Ilustraciones:
GeoGebra, software libre.
http://www.geogebra.org/cms/es/
Fecha de edici
on:
Diciembre del 2013.
Indice general
Captulo 1. Inducci
on y sumatorias
1.1. Principio de Inducci
on y Sumatorias
1.1.1. Principio de inducci
on
1.1.2. Sumatorias
1.1.3. Binomio de Newton
1.1.4. Series
Serie Geometrica
Serie Exponencial
1
1
1
4
8
10
11
12
15
15
17
18
19
21
23
25
25
27
31
31
33
35
38
38
40
42
42
44
45
46
Bibliografa
49
MODULO
Inducci
on y sumatorias
1.1
SECCION
Principio de Inducci
on y Sumatorias
1.1.1.
Principio de inducci
on
Induccion y sumatorias
n(n + 1)
2
n(n + 1)
1 + 2 + 3 + ... + n + (n + 1) =
+ (n + 1)
2
n
1 + 2 + 3 + ... + n + (n + 1) = (n + 1) [ + 1]
2
n+2
1 + 2 + 3 + ... + n + (n + 1) = (n + 1) [
]
2
(n + 2)(n + 1)
p(n + 1)
1 + 2 + 3 + ... + n + (n + 1) =
2
se cumple que
n.
Demostracio
n 1 p(n) 1 + 2 + 3 + ... + n =
n(n + 1)
2
Inducci
on y sumatorias
, , ,
1
...
,
... (n 1)
,
n
(n + 1)
, , ,
...
, ,
1
2
3 ... (n 1) n
M ISM O SEXO
Por hip
otesis de inducci
on las n primeras personas tienen el mismo sexo, de aqu se
concluye que la primera persona tiene el mismo sexo que la segunda. Analogamente si
separamos las n u
ltimas personas de la primera:
, , ,
...
, ,
2
3 ... (n 1) n (n + 1)
M ISM O SEXO
Induccion y sumatorias
a1 + a2 + a3 + ... + an = ai
i=1
n
1 + 2 + 3 + ... + n = i
Ejemplo 1.4.
i=1
0 + 2 + 4 + ... + 2n = 2i
i=0
1 + 2 + 4 + 8 + ... + 2 = 2i
n
i=0
De esta forma podremos simplificar la notacion cuando tratamos con sumas de grandes cantidades de
n
umeros, y m
as a
un nos permitir
a estudiar propiedades en las sumas.
Observaci
on 1.1. Es importante notar estas dos propiedades inductivas de las sumatorias:
n0
ai = an0
i=n0
n+1
i=n0
i=n0
ai = ai + an+1
Proposici
on 1.3 (Propiedades en las sumatorias).
1. Suma de la secuencia constante igual a 1.
q
1 = q p+1
i=p
ai = ai
i=p
i=p
ii. Separaci
on de sumas.
1Qu
e pasa cuando n+1=2?
Inducci
on y sumatorias
(ai + bi ) = ai + bi
i=p
i=p
i=p
3. Traslaci
on de indices, dado k N.
q
q+k
ai = aik
i=p
i=p+k
i=p
i=k+1
ai = ai + ai
i=p
5. Propiedad telesc
opica.
q
ai ai+1 = ap aq+1
i=p
Hip
otesis inductiva: Suponemos que para q = n p se cumple que ai ai+1 = ap an+1
i=p
ai ai+1 = ap an+2
i=p
ai ai+1 = ap an+1
i=p
as queda que
n+1
ai ai+1 = ap an+2
i=p
Definici
on 1.4 (Progresi
on Aritmetica). Una progresi
on aritm
etica es una suma de la forma
n
Sn = (a + kd)
k=0
Con a, d R
n
Proposici
on 1.5 (Propiedades de las progresiones aritmeticas). Si Sn = (a + kd), ak = a + kd
k=0
1. (n N) an+1 an = d
5
Induccion y sumatorias
n(n + 1)
2
n. Probaremos la propiedad 1., para esto ocuparemos las propiedades de las sumaDemostracio
torias, con esto
n
k=0
k=0
Sn = a + kd
Sn
Sn
=
=
(a + kd)
k=0
n
a + kd
k=0
n
Sn
k=0
n
= a1+dk
k=0
k=0
n
Sn
= a(n 0 + 1) + d k
k=0
como 1 + 2 + 3 + ... + n = k =
k=0
n(n + 1)
2
Sn = a(n + 1) + d
n(n + 1)
2
Definici
on 1.6 (Progresi
on Geometrica). Una progresi
on geom
etrica es una suma de la forma
n
Sn = ark
k=0
Con a, r R
n
Proposici
on 1.7 (Propiedades de las progresiones geometricas). Si Sn = ark , ak = ark
k=0
an+1
=r
1. (n N)
an
2. Si r 1, entonces Sn = a
1 rn+1
1r
n. Probaremos la propiedad 1., para esto ocuparemos las propiedades de las sumaDemostracio
torias, con esto
n
k=0
k=0
Sn = ark = a rk
calculemos ahora la siguiente suma
Inducci
on y sumatorias
S = rk
k=0
k=0
n
rS
rS S
rS S
(r 1)S
S
= r rk = rk + 1
=
=
k=0
n
k+1
r
k=0
n
k=0
n
rk
k=0
k+1
k=0
n+1
= r
r0 con r 1
n+1
r
1
=
r1
Por lo tanto
n
Sn = ark = a
k=0
1 rn+1
1r
Nuestra pr
oxima aplicaci
on de las sumatorias sera el Teorema del Binomio de Newton, para esto
definamos algunas cosas previas.
Definici
on 1.8 (Factorial de un n
umero). Dado una n
umero natural n se define el factorial de
n que denotamos como n!, seg
un la siguiente recurrencia:
0! = 1
n! = n (n 1)!
o equivalentemente n! = {
1
1 2 3 ... n
si n = 0
si n 1
Definici
on 1.9 (Combinatorio). Dados n, k N tales que n k se define el n
umero combinatorio
n
o coeficiente binomial que denotamos como ( ), seg
un la siguiente formula:
k
n
n!
( )=
k
k! (n k)!
Observaci
on 1.2. Los n
umeros combinatorios tienen muchas propiedades, algunas de ellas que nos
ser
an u
tiles son:
n
n
( )=1 y ( )=n
0
1
Induccion y sumatorias
n
n
( )=(
)
k
nk
n
n
n+1
( )+(
)=(
)
k
k+1
k+1
Estas propiedades se pueden probar directamente de la definicion.
Observaci
on 1.3. Esta u
ltima propiedad permite construir un metodo iterativo para calcular los
n
umeros combinatorios:
Iniciamos primero con k = 0 y k = n
n=3
k=0
n=0
n=1
n=2
n=3
n=4
n=5
1
1
1
1
1
1
k=1
k=2
k=3
k=4
k=5
1
1
1
1
1
En esta tabla el termino (nk) es que que se encuentra en la fila n y columna k, luego gracias a la formula
n
n
n+1
anterior ( ) + (
)=(
) podemos completar la tabla de manera que cada termino es la suma
k
k+1
k+1
de el que est
a sobre el con el que se encuentra en su diagonal superior-izquierda:
n=3
k=0
k=1
k=2
k=3
k=4
k=5
n=0
n=1
n=2
n=3
n=4
n=5
1
1
1
1
1
1
1
2
3
4
5
1
3
6
10
1
4
10
1
5
Inducci
on y sumatorias
n
n
n
n
n
(a + b)n = ( )an + ( )an1 b + ( )an2 b2 + ... + (
)abn1 + ( )bn
0
1
2
n1
n
Que escrito en notaci
on de sumatoria:
Teorema 1.10 (Binomio de Newton).
n
n
(a, b R)(n N ) (a + b)n = ( )ank bk
k=0 k
(a + b)(a + b)n
n
n
(a + b) ( )ank bk
k=0 k
entra a la suma el t
ermino (a+b)
(a + b)n+1
n
n
nk k
( )(a + b)a b
k=0 k
(a + b)n+1
n
n nk+1 k
b + ank bk+1
( )a
k=0 k
(a + b)n+1
n
n (n+1)k k n n nk k+1
b + ( )a b
( )a
k=0 k
k=0 k
sacamos 1o t
ermino
(a + b)n+1
cambio de ndice
n
n+1
n
n
n
= ( )a(n+1) + ( )a(n+1)k bk + (
)an(k1) bk
0
k=1 k
k=1 k 1
sacamos u
ltimo t
ermino
(a + b)n+1
n
n
n
n
n
n
= ( )a(n+1) + ( )b(n+1) + ( )a(n+1)k bk + (
)a(n+1)k bk
0
n
k=1 k 1
k=1 k
sumando estas expresiones
(a + b)n+1
n
n
n
n
= ( )a(n+1) + ( )b(n+1) + [( )a(n+1)k bk + (
)a(n+1)k bk ]
k
k
1
0
n
k=1
Por la f
ormula anterior para suma de combinatorios:
9
Induccion y sumatorias
n
n
n+1
( )+(
)=(
)
k
k1
k
(a + b)n+1
n
n
n
n + 1 (n+1)k k
= ( )a(n+1) + ( )b(n+1) + [(
)a
b ]
0
n
k
k=1
(a + b)n+1
= (
(a + b)n+1
n + 1 (n+1)
n + 1 (n+1) n
n + 1 (n+1)k k
)a
+(
)b
+ [(
)a
b ]
0
n+1
k
k=1
n + 1 (n+1)k k
)a
b
(
k
k=0
n+1
1.1.4.
Series
Ejemplo 1.5.
Un ejemplo importante es el de sucesion geometrica xn = rn , es decir:
10
Inducci
on y sumatorias
0,
si r < 1.
si r = 1.
lm r = 1,
n
, si r > 1.
n
en el caso en que r > 1, r diverge a infinito.
n
Definici
on 1.12. Dada una sucesi
on infinita de n
umeros reales {a1 , ..., ak , ...}, definimos la serie
de los terminos ak como el lmite de las sumas parciales, es decir
ak = lm ak .
n
k=1
k=1
n
k=1 ak
n0 1
n=1
n=1
an = an
que es una suma de finitos terminos, entonces converge.
Para an = 1 constante, nk=1 an = n, luego
an = lm an = lm n =
n
n=1
k=1
Serie Geom
etrica
Si consideramos ak = rk , la suma parcial hasta n se calcula seg
un 1.7 como
n
k
r =
k=0
1 rn+1
1r
11
Induccion y sumatorias
1 rn+1
= ,
n 1 r
k
r = lm
k=0
la serie diverge.
Si r < 1 lm rn = 0, luego
n
1 rn+1
1
=
,
n 1 r
1r
k
r = lm
k=0
la serie converge.
Serie Exponencial
En esta ocasi
on nos interesa ahora estudiar la convergencia de la siguiente serie
xk
k=0 k!
buscaremos para que valores de x esta serie tiene sentido, es decir, para que valores la serie converge.
Consideremos x > 0, y notemos que para la sucesion ak =
xk
k!
se tiene que
an+1
x
an+1
=
lm
=0
n an
an
(n + 1)
de la definici
on de lmite tenemos que n0 N tal que n n0 aan+1
<r<1
n
Entonces se tiene que
an0
an0 +1
an0 +2
an0 +m
=
an0
< ran0
< ran0 +1
< rm an0
< r2 an0
k=0
k=0
k=n0
n0 1
k=0
k=0
k=n0
n0 1
k=0
k=0
ak = ak + ak
nn
ak < ak + r 0 an0
n
ak < ak + an0 r
Luego como r < 1, entonces la serie es acotada por una suma finita mas una serie convergente, esto es
independiente del valor de x > 0, tambien se puede probar que se tiene el mismo resultado para x < 0,
adem
as podemos ver que en x = 0 la serie vale 1. Esto nos permite definir una funcion f R R tal
que
xk
k=0 k!
f (x) =
12
Inducci
on y sumatorias
Es m
as! esta funci
on es exactamente la reconocida funcion ex , donde e = 2,71828182846... es el n
umero
de Euler, por eso recibe el nombre de serie exponencial.
A continuaci
on se muestra una simulacion realizada en computador que calcula una aproximaci
on
e = e1 , mediante las sumas parciales (sn ) de la serie exponencial evaluada en x = 1.
s0 = 1,00000000000000
s1 = 2,00000000000000
s2 = 2,50000000000000
s3 = 2,66666666666667
s4 = 2,70833333333333
s5 = 2,71666666666667
s6 = 2,71805555555556
s7 = 2,71825396825397
s8 = 2,71827876984127
s9 = 2,71828152557319
s10 = 2,71828180114638
s11 = 2,71828182619849
s12 = 2,71828182828617
s13 = 2,71828182844676
s14 = 2,71828182845823
s15 = 2,71828182845899
13
MODULO
Combinatoria y axiom
atica de probabilidades
2.1
SECCION
15
Ejemplo 2.1. En el experimento aleatorio consistente en lanzar una moneda, el espacio muestral
corresponde a
= {c, s},
donde c y s denotan cara y sello, respectivamente. El evento que representa el resultado en
que se obtiene cara es
E = {c} .
Ejemplo 2.4. Si el experimento consiste en la cantidad de automoviles que pasan por una determinada calle durante un da, un buen espacio muestral sera
= {0, 1, 2, . . .} = N.
Notemos que en principio no existe una cantidad maxima de automoviles, razon por la cual el
espacio debe consistir de todos los n
umeros naturales.
Ejemplo 2.5. Cuando el experimento consiste en medir el tiempo que tarda el autob
us en llegar
al paradero, este tiempo puede tomar cualquier n
umero real no negativo, por lo cual
= [0, ).
Ejemplo 2.6. Consideremos el experimento de lanzar una moneda n veces. En tal caso, el espacio
muestral debe dar cuenta de todos las posibles secuencias de caras y sellos de largo n, es decir,
= {0, 1}n ,
16
Combinatoria y axiom
atica de probabilidades
2.2 Combinatoria
donde esta vez hemos codificado con 0 y 1 a los resultados sello y cara, respectivamente.
En otras palabras, los elementos son secuencias de la forma = (1 , . . . , n ) tales que
i {0, 1} corresponde al resultado que se obtuvo en el i-esimo lanzamiento. Si nos interesa saber
si la cantidad de caras obtenidas fue un cierto n
umero k fijo, el evento que representa esto es
E = { i = k}.
i
Hemos definido el espacio muestral como el conjunto de todos los posibles resultados, lo cual pone a
nuestra disposici
on toda la operatoria conocida de conjuntos. En particular, si es un espacio muestral
y E, F son eventos, entonces:
E F es un nuevo evento que ocurre si y solo si ocurre E o bien ocurre F .
E F es el evento que ocurre si y solo si ocurren E y F simultaneamente. En el contexto de probabilidades es est
andar omitir el smbolo , anotando simplemente EF . Tambien utilizaremos
E, F .
E c = E es el evento en que no ocurre E.
Adem
as, com
unmente realizaremos operaciones con colecciones infinitas. Por ejemplo, si (En )nN es
una colecci
on numerable de eventos, entonces la union de todos ellos es el evento
En ,
nN
conformado por todos los elementos que pertenecen a alguno de los En , y la interseccion es el
evento
En ,
nN
Combinatoria
Muchas veces se dispone de un experimento aleatorio con una cantidad finita de posibles resultados, y
de manera tal que no hay motivo para suponer que alguno de los resultados ocurre con mayor frecuencia
que otros. Por ejemplo, cuando se lanza un dado equilibrado uno espera que cada una de las caras del
dado sea igualmente probable; o si se extraen al azar 5 cartas de un mazo ingles, no hay razon para
que una combinaci
on de cartas extradas sea mas esperable que otras. Esto motiva:
Definici
on 2.2. Decimos que un espacio de probabilidad (, P) es equiprobable si es finito y
, , P({}) = P({ }).
17
es decir, P({}) = 1/ . Por lo tanto, en un espacio equiprobable todos los singletons tienen probabilidad igual a 1/n, donde n es la cantidad de elementos de . Mas a
un: si E es un evento cualquiera,
entonces, tenemos que
2
1
E
,
1=
E
es decir, la probabilidad de cualquier evento corresponde a la cantidad de elementos del evento sobre
el total de elementos del espacio muestral. Por lo tanto, en un espacio equiprobable basta con contar
los elementos del evento para poder calcular su probabilidad. Esto suele escribirse como
casos favorables
.
P(E) =
casos posibles
Sin embargo, determinar la cantidad de elementos de un conjunto puede llegar a ser extremadamente
difcil en determinadas situaciones. Por supuesto, si el espacio muestral posee pocos elementos, entonces
es posible escribir por extensi
on el evento de interes y contar sus elementos uno por uno, pero en general
este no ser
a el caso. A modo de ejemplo: de cuantas formas se pueden lanzar n monedas de manera
que se obtengan exactamente k caras?, de cuantas formas puede escogerse un comite de m personas
de un total de n?, cu
antos des
ordenes de los n
umeros 1, . . . , n dejan exactamente 1 n
umero en su
posici
on original?
En este captulo veremos tecnicas u
tiles de conteo y ejemplos emblematicos, los que nos serviran como
herramientas b
asicas para determinar la cantidad de elementos en conjuntos de todo tipo. El estudio
de estructuras finitas, incluyendo tecnicas de conteo, se conoce como combinatoria.
2.3
SECCION
Principios de conteo
A continuaci
on enunciamos los principios elementales de conteo que utilizaremos en el resto del captulo.
Proposici
on 2.3 (Principio aditivo). Si se dispone de dos conjuntos disjuntos A y B con n y m
elementos respectivamente, el experimento de escoger un elemento de A o bien de B, tiene n + m
posibles resultados.
Proposici
on 2.4 (Principio multiplicativo). Si se dispone de dos conjuntos A y B con n y m elementos
respectivamente, el experimento de escoger un primer elemento de A y ademas un segundo elemento
de B, tiene n m posibles resultados.
En el principio multiplicativo los elementos extrados han sido explcitamente llamados primer y
segundo elemento, para resaltar el hecho que se trata de un par ordenado, de modo que no es lo
mismo extraer (x, y) que (y, x). Esta distincion es importante cuando los conjuntos A y B comparten
elementos, como ser
a com
unmente el caso.
2En n
umero de elementos de un conjunto A se denota por A, y se dice que es la cardinalidad de A.
18
Combinatoria y axiom
atica de probabilidades
Naturalmente, estos principios pueden generalizarse para colecciones finitas: si A1 , . . . , Ak son conjuntos
disjuntos con n1 , . . . , nk elementos respectivamente, entonces el experimento de escoger un elemento de
uno de ellos tiene n1 + + nk posibles resultados. Similarmente, el experimento de extraer un elemento
de cada uno de ellos tiene n1 nk posibles resultados.
Ejemplo 2.7. Una persona tiene 5 camisas, 2 pantalones y 3 corbatas. Entonces puede vestirse
de 5 2 3 = 30 formas distintas.
Ejemplo 2.8. Se lanza un dado equilibrado n veces. Calculemos la probabilidad de que salgan
s
olo n
umeros pares. El espacio muestral corresponde a = {1, . . . , 6}n , con P equiprobable. El
evento en consideraci
on corresponde a que en cada lanzamiento se obtenga un n
umero par, es
decir, E = {2, 4, 6}n . Claramente = 6n y E = 3n , por lo cual
P(E) =
E 3n
=
= (1/2)n .
6n
Supongamos que se dispone de un conjunto A con cardinal n, y que cada vez que se extrae un elemento,
este se anota en una lista ordenada y se devuelve al conjunto. Si este procedimiento se repita k veces,
cu
antas posibles listas resultantes hay?
Notemos que este experimento corresponde a escoger un elemento de cada conjunto A1 , . . . , Ak , donde
todos los Ai son iguales a A. Luego, por el principio multiplicativo, hay
n n = nk
posibles listas resultantes.
Este ejemplo se conoce como muestreo con orden y reposici
on, pues cada elemento extrado es devuelto
al conjunto, y se distingue en que orden fueron apareciendo los elementos. Para poder determinar
cu
antos posibles resultados hay en los otros tipos de muestreo (en que no se distingue el orden o bien
los elementos extrados no son devueltos), necesitaremos una herramienta de conteo mas general.
Proposici
on 2.5 (Principio generalizado de conteo). Sea A un conjunto con n elementos, y por cada
ai A, sea Ai un conjunto con mi elementos. Si se escoge un primer elemento de A, y luego se escoge
un segundo elemento del conjunto Ai correspondiente al ai extrado, entonces hay ni=1 mi posibles
resultados. En particular, si Ai = m para todo i = 1, . . . , n, entonces hay n m posibles resultados.
n. Si se escoge ai de A, hay mi posibilidades para el segundo elemento, lo cual
Demostracio
significa que la cantidad de pares de la forma (ai , b) es mi . Como debe escogerse un u
nico elemento
de A (lo cual fija la primera coordenada del par), por principio aditivo corresponde sumar los posibles
resultados, obteniendo ni=1 mi .
19
2.4 Permutaciones
2.4
SECCION
Permutaciones
Consideremos el muestreo con orden y sin reposici
on, es decir, supongamos que se dispone de un
conjunto A con n elementos, los cuales se van seleccionando de forma ordenada sin devolverlos al
conjunto, hasta completar una lista de k n elementos. Cuantos resultados posibles hay?
Por cada ai Ai , definimos Ai = A {ai }, es decir, Ai corresponde a los elementos que quedan
disponibles en caso que el primer elemento seleccionado sea ai . Claramente Ai = n1, y por el principio
generalizado de conteo, se tiene que hay n(n 1) formas de extraer los dos primeros elementos.
Adicionalmente, por cada par (ai , aj ) de elementos distintos, definimos Ai,j = A{ai , aj }, de modo que
Ai,j = n 2. Nuevamente por principio generalizado de conteo, se tiene que la cantidad de formas de
seleccionar los tres primeros elementos es la cantidad de formas de escoger los dos primeros multiplicado
por n 2, es decir, n(n 1)(n 2).
As sucesivamente, por inducci
on se obtiene facilmente que la cantidad de listas ordenadas de tama
no
k de elementos distintos extrados de un conjunto con n elementos es
n(n 1) (n k + 1).
Cuando k = n, es decir, cuando se extraen todos los elementos, la lista obtenida corresponde a una
permutaci
on o desorden de A, y la expresion anterior se conoce como el factorial de n: simb]n!:
factorial
n! = n(n 1)(n 2) 1.
Notemos que con esta notaci
on, n(n 1) (n k + 1) = n!/(n k)!. Hemos demostrado:
Proposici
on 2.6. Existen n!/(nk)! formas de extraer k elementos de forma ordenada de un conjunto
de tama
no n. En particular, existen n! permutaciones distintas de un conjunto de tama
no n.
Ejemplo 2.9. Existen 3! = 3 2 1 = 6 permutaciones de las letras a, b y c. Explcitamente, estas
son
abc, acb, bac, cab, bca, cba.
Ejemplo 2.10. De un mazo ingles con 52 cartas se extraen 5 al azar. Cual es la probabilidad
de que sean las 5 de la misma pinta?
Veamos: nuestro espacio muestral consiste de todas las formas posibles de extraer las 5 cartas del
mazo de manera ordenada, el cual tiene 52!/47! elementos. El evento de interes esta conformado
por aquellas formas en las que las cartas extradas son de la misma pinta. Como hay 13 cartas
de cada pinta, para una pinta fija hay 13!/8! formas de que las 5 cartas extradas sean de dicha
pinta. Como son 4 pintas y los casos son excluyentes, se tiene que la probabilidad buscada es
4 13!/8! 4 13 12 11 10 9
=
0,2 %.
52!/47!
52 51 50 49 48
20
Combinatoria y axiom
atica de probabilidades
2.4 Permutaciones
P(E)
0.8
0.6
0.4
0.2
0
10
20
30
40
k
50
60
70
80
365k
Ocurre que la fracci
on de la derecha, a pesar de ser cercana a 1 para valores peque
nos de k
(digamos, menor que 10), r
apidamente se acerca a 0 a medida que k crece. Por lo tanto, para k
moderado, se vuelve extremadamente probable que haya dos personas de cumplea
nos el mismo
da. Por ejemplo, para k = 41 la probabilidad anterior ya es de un 90 %, y para k = 57 es de un
99 %. El comportamiento de P(E) en funcion de k se aprecia en la figura 2.1.
P(E) = 1 P(E c ) = 1
Aunque no se trate de una real paradoja, este ejemplo se conoce como la paradoja de los cumplea
nos debido a que, a primera vista, resulta poco intuitivo que la probabilidad de que haya
dos personas de cumplea
nos el mismo da sea tan alta a
un cuando se trate de un grupo peque
no.
21
2.5 Subconjuntos
2.5
SECCION
Subconjuntos
Veamos ahora el muestreo sin orden ni reposici
on: se dispone de un conjunto con n elementos, y se
extraen k n sin devolverlos al conjunto. Si no se distingue el orden en que aparecieron los elementos
extrados, cu
antos posibles resultados hay? O dicho de otra forma: cuantos subconjuntos con k
elementos pueden extraerse de un conjunto de tama
no n?
Consideremos el caso en que s se distingue el orden de aparicion de los elementos extrados, y contemos
de dos formas distintas la cantidad de posibles resultados. Por un lado, ya sabemos que esta cantidad
corresponde a n(n 1)(n k + 1). Por otro lado, cada subconjunto de k elementos puede haberse
extrado de k! formas distintas, una por cada permutacion de sus elementos. Igualando estas dos formas
de conteo, concluimos que
(cantidad subconjuntos de tama
no k) k! = n(n 1)(n k + 1),
es decir, la cantidad buscada es
n(n 1)(n k + 1)
n!
n
=
= ( ),
k!
k!(n k)!
k
lo cual se conoce como coeficiente binomial. simb](nk): coeficiente binomial Obtenemos entonces:
Proposici
on 2.7. Existen (nk) subconjuntos de tama
no k de un conjunto con n elementos.
Ejemplo 2.12. En un grupo de 5 personas se debe escoger un comite con 2 integrantes. Esto
puede hacerse de
54
5
5!
=
= 10
( )=
2! 3!
2
2
formas distintas. Si las personas son a, b, c, d y e, la lista de posibles comites es
ab, ac, ad, ae, bc, bd, be, cd, ce, de.
22
Combinatoria y axiom
atica de probabilidades
2.5 Subconjuntos
Si repartimos las bolitas negras de manera que cada una queda ubicada en uno de estos espacios,
nos aseguramos que siempre habr
a al menos una bolita blanca entre cada par de negras. Luego,
basta escoger m espacios para las bolitas negras entre los n + 1 disponibles, lo cual puede hacerse
) formas distintas.
de (n+1
m
=
n1 !(n n1 )! n2 !(n n1 n2 )!
nm !(n m
n
)!
n
!n
1
m!
i=1 i
n
= (
),
n1 , . . . , n m
n
): coeficiente multinomial Notemos que
lo cual se conoce como coeficiente multinomial. simb](n1 ,...,n
m
cuando m = 2, necesariamente n2 = n n1 , y por lo tanto se tiene (n1n,n2 ) = (nn1 ). Luego, hemos
demostrado una generalizaci
on de la Proposicion 2.7:
n
) formas de separar n elementos en m grupos distinguibles de
Proposici
on 2.8. Existen (n1 ,...,n
m
m
tama
nos n1 , . . . , nm , donde i=1 ni = n.
23
H
Figura 2.2. Esquema del problema de repartir m bolitas indisinguibles en n urnas
distinguibles.
2.6
SECCION
Bolitas en urnas
Por u
ltimo, consideremos el muestreo sin orden y con reposici
on: se extraen m elementos de un conjunto
de tama
no n, de modo tal que despues de cada extraccion se devuelve el elemento al conjunto, y sin
tomar en cuenta el orden de aparici
on de los elementos (es decir, solo interesa saber la cantidad de
veces apareci
o cada uno). De cu
antas formas puede hacerse esto?
Una forma equivalente de ver el problema es considerando m bolitas indistinguibles, las cuales deben
repartirse en n urnas distinguibles, como se ilustra en la figura 2.2. Cada urna representa uno de los
elementos del conjunto, y escoger una urna para una bolita corresponde a extraer el elemento asociado
a dicha urna.
Para determinar la cantidad de formas de repartir las bolitas en las urnas, consideremos n 1 objetos
adicionales, que representan las separaciones entre las urnas. Ubicaremos las m bolitas y las n 1
separaciones en una fila con m + n 1 posiciones disponibles, de manera que las bolitas que quedan
entre la separaci
on i 1 y la i representan las bolitas que quedan en la urna i-esima:
24
Combinatoria y axiom
atica de probabilidades
urna 1
urna 2
urna 3
urna n
Como ya dijimos, en el muestreo con reposicion y sin orden solamente interesa saber cuantas veces
aparece el elemento i-esimo, para todo i = 1, . . . , n. Si llamamos ki , i = 1, . . . , n a estas cantidades,
entonces ellas conforman una soluci
on a valores enteros no negativos de la ecuacion
k1 + + kn = m.
Por lo tanto, la Proposici
on 2.9 se expresa equivalentemente diciendo que la ecuacion anterior posee
(m+n1
)
soluciones
enteras
no negativas.
n1
Ejemplo 2.17. La ecuaci
on u + v + w + x + y + z = 3 posee
3+61
8
876
(
)=( )=
= 56
61
32
5
soluciones enteras no negativas. Ve
amoslo explcitamente: hay 3 tipos de soluciones: las que asignan
el valor 3 a una variable y 0 al resto, las que asignan 2 y 1 a dos variables y 0 al resto, y las que
asignan 1 a tres variables y 0 al resto. Del primer tipo, hay 6 soluciones, una por cada variable; del
segundo tipo, hay 6 5 soluciones, pues debe escogerse una variable para asignar el valor 2 y otra
para asignar el valor 1; del u
ltimo tipo, hay (63) soluciones, pues deben escogerse las 3 variables a
las que se les asignar
a el valor 1. En total, son
6
654
6 + 6 5 + ( ) = 6 + 30 +
= 36 + 20 = 56.
3
32
25
2.7 Axiom
atica de probabilidades
2.7
SECCION
Axiom
atica de probabilidades
Todos poseemos cierta noci
on intuitiva acerca de los fenomenos aleatorios que ocurren en la cotidianeidad y sobre que significan sus probabilidades asociadas. Para nosotros, un fenomeno aleatorio es tal
que es imposible predecir su resultado con exactitud. El ejemplo mas sencillo corresponde a lanzar una
moneda y observar si sale cara o sello: la gran cantidad de variables involucradas en el experimento,
como la fuerza y el
angulo con que se lanza la moneda, la densidad del aire, las rugosidades del suelo,
etc., hacen imposible predecir su resultado. Otros ejemplos sencillos son: el tiempo que tarda en pasar
el autob
us en el paradero, la temperatura maxima diaria en una ciudad, la cantidad de personas que
asisten a un espect
aculo deportivo, etc.
Nuestro objetivo en este captulo es presentar las bases de una teora matematica de probabilidades
que nos sirva para modelar, comprender y analizar fenomenos aleatorios concretos. Estas bases se
desarrollan a partir de los axiomas de probabilidad.
Por que utilizar axiomas abstractos para modelar fenomenos de la vida real? Volvamos al ejemplo del
lanzamiento de la moneda. Supongamos que esta se lanza n veces, y denotemos c(n) a la cantidad de
caras que se observan. Intuitivamente, si la moneda no esta cargada, uno espera que la cantidad c(n)/n
se parezca a 1/2. Sin embargo, es de esperar que haya diferencias entre estas cantidades, en particular
cuando n es peque
no: si se lanza la moneda 10 veces es perfectamente razonable que se observen 6 caras
y 4 sellos; si se lanza 100 veces a
un es aceptable que haya 60 caras y 40 sellos. Pero cuando se lanza
1000 veces ya parece sospechoso que se observen 600 caras y 400 sellos. En otras palabras, la intuici
on
sugiere que c(n)/n debe parecerse a 1/2 cuando n es grande, es decir, se espera que c(n)/n 1/2
cuando n .
En general, si se dispone de un experimento aleatorio que se repite n veces, y E es un resultado posible
del experimento, si denotamos e(n) a la cantidad de veces que ocurre el resultado E en las primeras
n repeticiones, lo que la intuici
on sugiere es que
e(n)
= Probabilidad(E).
(2.1)
lm
n n
Esto parece indicar que la forma correcta de definir la probabilidad del resultado E es mediante el
lmite de la ecuaci
on anterior. Sin embargo, este enfoque presenta serios problemas: como asegurarse
que el lmite existe?, a
un suponiendo que existe, como saber que al volver a repetir el experimento
muchas veces el lmite sigue siendo el mismo?, como extraer propiedades u
tiles?
La idea de construir una teora axiom
atica de probabilidades busca justamente evitar estos inconvenientes tecnicos, para lo cual se definen las propiedades teoricas basicas (axiomas) que debiera cumplir
cualquier funci
on que represente una probabilidad. A partir de estas propiedades basicas iremos obteniendo otras m
as sofisticadas, hasta eventualmente concluir que (2.1) se satisface (bajo ciertas condiciones) como un teorema y no como una definicion. De todas formas, dicha ecuacion sigue representando
nuestra noci
on intuitiva de probabilidad, as que conviene siempre tenerla en consideracion.
26
Combinatoria y axiom
atica de probabilidades
2.8
SECCION
Axiomas de probabilidad
Dado un espacio muestral , queremos asignarle un n
umero a cualquier evento E, (que llamaremos
probabilidad de E), que capture las nociones intuitivas que uno tiene acerca de la probabilidad. Una
de estas nociones es que si se dispone de dos eventos disjuntos, entonces la probabilidad de que ocurra
cualquiera de ellos debe ser la suma de las probabilidades individuales, como se muestra en el siguiente
ejemplo.
Ejemplo 2.18. Consideremos el experimento de lanzar un dado equilibrado, cuyo espacio muestral es = {1, 2, 3, 4, 5, 6}, y los eventos E = {2, 4, 6}, F = {1, 3} y G = {3, 4}. Como el dado
est
a equilibrado, intuitivamente debera cumplirse que la probabilidad de un evento fuese la proporci
on de elementos del evento sobre el total de posibles resultados, es decir
3
2
Probabilidad(E) = , Probabilidad(F ) = = Probabilidad(G).
6
6
Notemos adem
as que como E F = {1, 2, 3, 4, 6}, se cumple
5
Probabilidad(E F ) = = Probabilidad(E) + Probabilidad(F ),
6
es decir, para los eventos E y F se cumple que la probabilidad de su union es la suma de sus
probabilidades. Sin embargo, esto no se cumple para los eventos E y G, pues E G = {2, 3, 4, 6},
y entonces
4 5
Probabilidad(E G) = = Probabilidad(E) + Probabilidad(G).
6 6
Obviamente, la diferencia fundamental entre ambos casos es que E y G tienen un elemento en
com
un, mientras que E y F no.
A diferencia del ejemplo anterior, los axiomas de probabilidad, que enunciaremos a continuacion, no
nos dir
an que valores particulares debe tomar esta funcion, sino que especificaran que reglas basicas
debe cumplir. Recordemos que P() denota la coleccion de todos los subconjuntos de , es decir, la
colecci
on de todos los posibles eventos.
Definici
on 2.10. Dado un espacio muestral , una probabilidad es una funcion P P() R
que satisface las siguientes tres propiedades:
Axioma 1:: 0 P(E) 1, E .
Axioma 2:: P() = 1.
Axioma 3:: Para toda colecci
on numerable de eventos (Ei )iN disjuntos de a pares, es decir,
Ei Ej = , i j, se cumple que
(2.2)
P ( Ei ) = P(Ei ).
iN
iN
Ejemplo 2.20. Se dispone de una urna con 20 bolitas numeradas del 1 al 20, de la cual se
extrae una bolita al azar. El conjunto de todos los posibles resultados de este experimento es
= {1, . . . , 20}. Definimos una probabilidad P sobre este espacio muestral como
E
, E ,
Observaci
on 2.1. Hemos definido una probabilidad como una funcion de P() en R que cumple
ciertos axiomas. Esta definici
on funciona bien cuando es un conjunto finito o numerable, pero
ciertos problemas tecnicos aparecen cuando se considera un espacio muestral con una cantidad infinito
no-numerable de elementos. Por esta razon, se trabaja con una coleccion F P()
llamada -
algebra (que ser
a estrictamente mas peque
na que P() cuando sea infinito no-numerable),
y se pide que P sea una funci
on de F en R cumpliendo los axiomas (los eventos seran los elementos
de F). Sin embargo, para efectos de nuestra presentacion, la -algebra agrega complicaciones tecnicas
innecesarias, por lo cual trabajaremos sin ella.
28
Combinatoria y axiom
atica de probabilidades
2.9
SECCION
Propiedades b
asicas
Utilizaremos el smbolo para denotar la union disjunta de eventos. Notemos que le estamos dando
un uso doble: es a la vez un operador de conjuntos y una afirmacion. Veamos una primera propiedad:
Proposici
on 2.11. Sea (, P) espacio de probabilidad. Entonces P() = 0.
n. Por axioma 1, sabemos que 0 P() 1. Tomando Ei = i N y aplicando
Demostracio
el axioma 3, tenemos entonces:
1 P() = P ( ) = P().
iN
iN
(Ei )ni=1
una colecci
on finita de eventos disjuntos de a pares. Entonces
n
i=1
i=1
P ( Ei ) = Ei .
n. Definir Ei = para i > n y aplicar el axioma 3 y el hecho que P() = 0.
Demostracio
La proposici
on anterior es la versi
on finita del axioma 3, y es la que se ocupa usualmente en los
problemas pr
acticos y propiedades b
asicas, como en la proposicion 2.13. Seguiremos ocupando la
expresi
on axioma 3, ya sea para referirnos a la version finita o a la version numerable.
En el ejemplo 2.19 hemos definido explcitamente P(E) para cada evento E por separado. En general,
dado un espacio muestral finito con n elementos, la cantidad de eventos es 2n , lo cual es demasiado
grande como para definir P(E) caso por caso. Sin embargo, esto no es necesario. En efecto, sea espacio
de probabilidad (, P) con finito o numerable, digamos = {1 , 2 , . . .}. Se tiene que todo evento E
es la uni
on disjunta de sus singletons, que son una cantidad finita o numerable, y aplicando el axioma
3, obtenemos que
(2.3)
i E
Es decir, la probabilidad de cualquier evento queda definida por las probabilidades de los singletons. En
otras palabras, basta definir P({wi }) = pi para todo i (con pi 0 tales que i pi = 1) y automaticamente
queda definida P(E) para todo evento E. Notemos que este procedimiento no puede replicarse cuando
es infinito no-numerable, pues como la union de los singletons ya no sera finita ni numerable, no
podremos aplicar el axioma 3 para concluir (2.3).
Ejemplo 2.21. (Difcil) En el experimento de lanzar una moneda n veces, con espacio muestral
= {0, 1}n , donde 1 y 0 representan cara y sello respectivamente, se desea definir una
probabilidad de manera tal que cada lanzamiento posea probabilidad p de cara y probabilidad
1 p de sello. Para tal efecto definimos la probabilidad de los singletons como
n
29
2.9 Propiedades b
asicas
= pi (1 p)1i
k =1 i=1
= p pi (1 p)1i
k =1 ik
= p,
donde hemos utilizado que la u
ltima suma vale 1, lo cual puede probarse facilmente por induccion
en n. An
alogamente se prueba que la probabilidad de que el lanzamiento k-esimo salga sello es
1 p, como dese
abamos.
La siguiente proposici
on nos entrega propiedades basicas u
tiles de una probabilidad.
Proposici
on 2.13. Sea (, P) espacio de probabilidad, sean E, F eventos. Entonces:
1. P(E c ) = 1 P(E).
2. Si E F entonces P(E) P(F ), es decir, P() es una funci
on creciente de conjuntos.
3. P(E F ) = P(E) + P(F ) P(EF ).
n.
Demostracio
Hay ocasiones en que para calcular la probabilidad de un cierto evento, resulta mas facil calcular la
probabilidad de su complemento, y luego utilizar la parte 1 de la proposicion anterior.
En la proposici
on 2.13 se prob
o que para cualquier par de eventos E y F , se tiene que P(E F ) =
P(E) + P(F ) P(EF ), lo cual implica que P(E F ) P(E) + P(F ). A partir de esto, por induccion se
prueba f
acilmente que para cualquier coleccion finita E1 , . . . , En de eventos se cumple
n
i=1
i=1
P ( Ei ) P(Ei ).
Esta propiedad se conoce como la desigualdad de Boole, incluso se puede generalizar esto al caso
de una colecci
on numerable de eventos.
30
MODULO
Hay ocasiones en que se desea calcular la probabilidad de un determinado evento cuando se dispone
de cierta informaci
on parcial acerca del resultado del experimento aleatorio.
Ejemplo 3.1. Se lanzan dos dados equilibrados. Cual es la probabilidad de que aparezca al
menos un 6? Supongamos adicionalmente que se sabe que la suma de los dados es 9 o mas.
Cu
anto vale ahora la probabilidad anterior?
Veamos: el espacio muestral equiprobable es = {1, . . . , 6}2 , donde = (1 , 2 ) es tal que i
denota el resultado del dado i. Sea E el evento en que aparece al menos un 6. Tenemos:
E c
25 11
P(E) = 1 P(E c ) = 1
=1
= ,
36 36
donde hemos usado que E c = 5 5 ya que ambos dados deben ser distintos de 6, lo cual tiene 5
formas de ocurrir.
Por otro lado, llamemos F al evento en que la suma de los dados es 9 o mas. Como sabemos que
el resultado del experimento es un elemento de F , ahora el conjunto de los posibles resultados
queda reducido a este conjunto. Calculando probabilidades en este nuevo contexto contando casos
favorables y dividiendo por los casos posibles, tenemos que la nueva probabilidad de E es
P(E dado que resultado esta en F )
casos favorables de E en F
casos totales de F
EF
=
F
{(3, 6), (6, 3), (4, 6), (6, 4), (5, 6), (6, 5), (6, 6)}
=
{(3, 6), (4, 5), (5, 4), (6, 3), (4, 6), (5, 5), (6, 4), (5, 6), (6, 5), (6, 6)}
7
= .
10
=
Como se muestra en el ejemplo anterior, la probabilidad del evento cambio al considerar informaci
on
adicional sobre el resultado del experimento, lo cual nos indica que tiene sentido estudiar que pasa en
general en situaciones similares. En este captulo le daremos sentido a la probabilidad de un evento
dada cierta informaci
on parcial, y veremos propiedades u
tiles al respecto.
31
3.1
SECCION
Probabilidad condicional
En el ejemplo 3.1 el espacio era equiprobable, lo cual permitio calcular la probabilidad de E dado que
el resultado del experimento est
a en F utilizando los casos favorables sobre casos posibles relativos a
F , es decir
EF EF P(EF )
(3.1)
=
=
.
F
F
P(F )
En general, consideremos dos eventos E y F de un espacio de probabilidad (, P) cualquiera. Queremos
definir la probabilidad de E dado que el resultado esta en F en este contexto general. Como el espacio
no necesariamente es equiprobable, no tiene sentido volver a utilizar los casos favorables sobre casos
posibles relativos a F , pero s podemos ocupar la expresion de la derecha de (3.1). Esto motiva:
Definici
on 3.1. Sean E y F dos eventos tales que P(F ) > 0. Definimos la probabilidad condicional
simb]P(E F ): probabilidad condicional de E dado F como
P(E F ) =
P(EF )
.
P(F )
La definici
on anterior corresponde a calcular la probabilidad del evento E considerando solo la parte
que est
a en el evento F sobre el cual se esta condicionando, y normalizando por la probabilidad de F .
Ejemplo 3.2. En un jardn infantil hay 5 ni
nos y 10 ni
nas en el curso A y hay 9 ni
nos y 6 ni
nas
en el curso B. Se juntan ambos cursos y se escoge un alumno al azar. Cual es la probabilidad de
que el alumno sea del curso A si se sabe que es una ni
na?
Veamos: si llamamos E al evento en que el alumno proviene del curso A y F al evento en que
el alumno escogido es una ni
na, queremos calcular P(E F ). Por definicion de probabilidad
condicional, obtenemos:
P(EF ) 10/30 5
P(E F ) =
=
= .
P(F )
16/30 8
Con la definici
on de probabilidad condicional podemos evitar caer en errores producto de una mala
intuici
on.
Ejemplo 3.3. Un matrimonio tiene 2 hijos, de modo que cada hijo es varon o mujer con igual
probabilidad. Se sabe que al menos uno de ellos es varon, y alguien afirma que la probabilidad de
que ambos sean varones es de 1/2, pues debe ocurrir que el otro hijo tambien lo sea. Que puede
decirse al respecto?
Llamemos A al evento en que al menos uno de los hijos es varon y B al evento en que ambos lo
son. Notemos que P(A) = 3/4, pues el complemento corresponde a que ambos hijos sean mujer, lo
32
La principal propiedad de la probabilidad condicional se obtiene facilmente sabiendo que P() es una
funci
on de probabilidad:
Proposici
on 3.2. Sea (, P) un espacio de probabilidad y F un evento fijo tal que P(F ) > 0. Entonces
= P( F ) es tal que (, P)
es un espacio de probabilidad.
la funci
on P()
cumple los axiomas. Los dos primeros se obtienen di n. Debemos probar que P
Demostracio
rectamente del hecho que P es una funcion de probabilidad. Para ver el tercer axioma, consideremos
eventos disjuntos de a pares (En )nN :
n ),
( En ) = P (F nN En ) = P (nN En F ) = P(En F ) = P(E
P
P(F )
P(F )
nN
nN P(F )
nN
donde hemos utilizado el hecho que los eventos (En F )nN son disjuntos de a pares, y que P() cumple
el tercer axioma.
3.2
SECCION
P(A B)P(B)
.
P(A)
33
P(A) = P(AB AB c )
= P(AB) + P(AB c )
P(AB)P(B) P(AB c )P(B c )
+
P(B)
P(B c )
= P(A B)P(B) + P(A B c )P(B c )
=
(3.2)
= 90 % 2,5 % + 5 % 97,5 %
= 7,125 %,
donde ahora hemos utilizado adicionalmente que la probabilidad de que el test de positivo cuando
el jugador no consume es de un 5 %. Finalmente, obtenemos:
90 % 2,5 %
P(B A) =
31,6 %.
7,125 %
Notemos que en principio uno espera que cuando el test da positivo, sea altamente probable que
el jugador consuma drogas. Sin embargo el resultado obtenido nos dice que esto no es as.
i=1
i=1
P(Ei ) n
= P(A Ei )P(Ei ).
P(Ei ) i=1
Observaci
on 3.1. La propiedad anterior se extiende analogamente al caso de una coleccion numerable
(Ei )iN de eventos, siempre que ellos formen una particion de .
Con las reglas de Bayes y de probabilidades totales puede resolverse una gran variedad de problemas
pr
acticos.
34
Ejemplo 3.5. Un ratoncito escoge al azar uno de tres posibles laberintos. Si escoge el primero, la
probabilidad de que encuentre su queso de premio es de 1/2, si escoge el segundo la probabilidad es
de 1/4, y si escoge el tercero la probabilidad es de 1/8. Cual es la probabilidad de que encuentre
su queso? Si se sabe que lo encontro, cual es la probabilidad de que haya escogido el primer
laberinto?
Consideremos los eventos
Q el ratoncito encuentra su queso
Li escogio el laberinto i, para i = 1, 2, 3.
Primero, calculemos P(Q), para lo cual utilizamos la regla de probabilidades totales:
P(Q) = P(Q L1 )P(L1 ) + P(Q L2 )P(L2 ) + P(Q L3 )P(L3 )
1 1 1 1 1 1
= + +
2 3 4 3 8 3
7
= .
24
Ahora debemos calcular P(L1 Q), para lo cual nos sirve la regla de Bayes:
P(L1 Q) =
3.3
SECCION
Independencia de eventos
Como hemos visto en los ejemplos, la probabilidad de un evento E puede cambiar (y usualmente as es)
cuando se condiciona en la ocurrencia de otro evento F . En otras palabras, en muchos casos P(E) es
distinto de P(E F ), lo cual nos dice hay una cierta dependencia entre los eventos. Sin embargo, hay
casos en que P(E F ) coincide con P(E), y entonces interpretamos que no existe tal dependencia.
Notemos que esto ocurre si y s
olo si
P(EF )
P(E) = P(E F ) =
,
P(F )
lo cual motiva lo siguiente:
Definici
on 3.5. Dados dos eventos E y F , decimos que ellos son independientes, anotado E F ,
si
P(EF ) = P(E)P(F ).
Notemos que esta noci
on es simetrica, es decir, decir E F equivale a F E. Se cumple una propiedad
sencilla:
Proposici
on 3.6. Si E F , entonces E F c .
35
La independencia de eventos se utiliza usualmente como una forma de comprender la manera en que
se realiza un experimento, y no tanto como una propiedad que deba demostrarse.
Ejemplo 3.6. Se dispone de una moneda con probabilidad p de cara, y se lanza n veces de manera
independiente. Cu
al es la probabilidad de que todos los lanzamientos resulten en cara?
Veamos: si llamamos Ci al evento en que se obtiene cara en el lanzamiento i-esimo, de los datos
del problema se deduce que estos eventos son independientes, de modo que la probabilidad de la
ocurrencia simult
anea de todos ellos es el producto de sus probabilidades:
n
i=1
i=1
i=1
En el ejemplo anterior hemos utilizado una nocion mas general de independencia, que es valida para
colecciones arbitrarias de eventos.
Definici
on 3.7. Dada una colecci
on de eventos (Ei )iI , decimos que ellos son independientes si
para toda colecci
on finita de ndices distintos i1 , . . . , in , se tiene que
n
j=1
j=1
P ( Eij ) = P(Eij ).
Notemos que cuando se trata de una coleccion de mas de 2 eventos, debe cumplirse que la probabilidad
de la intersecci
on sea igual al producto de las probabilidades para cualquier sub-coleccion finita. En
particular, no basta verificarlo s
olo para los pares de eventos.
Ejemplo 3.7. Se lanza una moneda equilibrada dos veces de manera independiente. Sea A el
evento en que la primera moneda cae cara, B el evento en que la segunda moneda cae cara, y C
el evento en que ambas monedas caen para el mismo lado. Queremos estudiar la independencia
de estos eventos.
El espacio muestral corresponde a = {cc, cs, sc, ss}, el cual es equiprobable. En este , los
eventos se escriben como A = {cc, cs}, B = {cc, sc} y C = {cc, ss}. Claramente se tiene que
P(A) = P(B) = P(C) = 1/2. Notemos que A, B y C son independientes de a pares, pues:
P(AB) = P({cc}) = 1/4 = P(A)P(B),
P(AC) = P({cc}) = 1/4 = P(A)P(C),
P(BC) = P({cc}) = 1/4 = P(B)P(C).
Sin embargo, A, B y C no son conjuntamente independientes, pues
P(ABC) = P({cc}) = 1/4 1/8 = P(A)P(B)P(C).
36
Ejemplo 3.8. Se dispone de una moneda equilibrada y de otra moneda con probabilidad 3/4 de
cara. Se escoge una moneda al azar y se lanza dos veces de manera independiente. Sean E el evento
en que se obtiene cara en el primer lanzamiento, y F el evento en que el segundo lanzamiento
resulta cara. Queremos estudiar la independencia entre E y F .
Sea G el evento en que se escoge la moneda equilibrada. Calculemos P(E) utilizando la regla de
probabilidades totales:
P(E) = P(E G)P(G) + P(E Gc )P(Gc )
= (1/2) (1/2) + (3/4) (1/2)
= 5/8.
Para P(F ) el c
alculo es identico, obteniendo tambien 5/8.
Notemos que los lanzamientos son independientes, pero solo una vez que se ha escogido la moneda.
Es decir, E y F son condicionalmente independientes con respecto a G y con respecto a Gc . Luego:
P(EF ) = P(EF G)P(G) + P(EF Gc )P(Gc )
= P(E G)P(F G)P(G) + P(E Gc )P(F Gc )P(Gc )
= (1/2) (1/2) (1/2) + (3/4) (3/4) (1/2)
= 13/32.
Esto nos permite calcular P(F E):
P(F E) =
P(F E) 13/32
=
= 13/20.
P(F )
5/8
Notemos que P(F ) = 5/8 = 25/40 < 26/40 = 13/20 = P(F E). Es decir, al condicionar en el evento
en que el primer lanzamiento sale cara aumenta levemente la probabilidad de que la segunda
moneda tambien salga cara. Esto se debe a que si uno conoce el resultado del primer lanzamiento,
eso entrega indicios acerca de cu
al fue la moneda escogida, lo cual afecta las probabilidades del
segundo lanzamiento.
37
3.4
SECCION
Variables aleatorias
En muchas situaciones, para describir a cabalidad los posibles resultados de un experimento aleatorio,
hay que considerar un espacio de probabilidad (, P) donde es desmesuradamente grande o complejo.
Si se necesita centrar el an
alisis s
olo en una determinada cantidad asociada al resultado, tal vez trabajar
explcitamente en dicho espacio muestral agruegue demasiadas complicaciones practicas.
Por ejemplo, consideremos el experimento aleatorio de lanzar una moneda equilibrada 100 veces. El
espacio muestral que describe todas las posibles secuencias es = {c, s}100 , el cual posee 2100 1,31030
elementos! Sin embargo, si solamente interesa saber cuantas caras se obtuvieron, la cantidad buscada
ser
a un n
umero entero entre 0 y 100, lo cual es bastante mas manejable.
O si se desea estudiar el estado del tiempo en una determinada zona, la cantidad de informaci
on
necesaria que debe ser incluida en el espacio de probabilidad, de manera que se describa a cabalidad
dicho estado, es demasiado grande. Pero esta informacion se torna redundante si solo se quiere estudiar
la temperatura, o la presi
on, o la direccion del viento en un determinado punto de la zona en un cierto
instante.
En casos como los anteriores el espacio de probabilidad (, P) se deja implcito y se trabaja directamente con la variable de interes.
3.5
SECCION
Definici
on 3.9. Una variable aleatoria es una funcion X R, donde (, P) es un cierto
espacio de probabilidad.
38
Dada una variable aleatoria X, nos interesa estudiar P(X A) para cualquier A R, en particular
c
omo calcular estas cantidades. Es conveniente considerar estas probabilidades en un solo objeto:
Definici
on 3.10. La ley o distribuci
on de una variable aleatoria X es la funcion X P(R) R
dada por X (A) = P(X A), A R.
La ley de una variable aleatoria contiene toda la informacion que interesa conocer de ella, pues encapsula sus probabilidades asociadas. Dadas dos variables aleatorias X e Y , diremos que ellas tienen la
misma distribuci
on o ley si X = Y .
La forma explcita en que se calcula X (A) = P(X A) dependera de que tipo de variable es X. Existen
dos tipos principales de variables aleatorias: discretas y continuas. Las variables discretas son aquellas
en que el conjunto de posibles valores que puede tomar la variable es finito o numerable, com
unmente
N o un subconjunto de el. Las variables continuas, por otro lado, son aquellas en que cualquier n
umero
en R o en un intervalo [a, b] R es un posible valor.
3.6
SECCION
Variables discretas
Como dijimos previamente, las variables aleatorias discretas se utilizan cuando la cantidad de posibles
valores a obtener es finito o a lo m
as numerable. Sin embargo, la definicion de variable discreta que
daremos no se refiere (a primera vista) a los posibles valores de la variable, sino que a la forma en que
se calcula X (A):
Definici
on 3.11. Una variable aleatoria X se dice discreta si existe una funcion pX R [0, 1],
llamada funci
on de distribuci
on discreta,
tal que para cualquier A R se tiene
P(X A) = pX (x).
xA
xA
+
40
xA
xA
x {x}RX
pX (x ) = pX (x).
Por lo tanto, R = {x R pX (x) > 0}. Dado esto, el conjunto R debe ser discreto, pues si no fuera as,
por definici
on de variable discreta y por la convencion anterior, tenemos
P(X R) = pX (x) = +,
xR
xR
Veamos la implicancia recproca. Dada X variable aleatoria cumpliendo que R es discreto y que P(X
R) = 1, debemos probar que existe una funcion p R [0, 1] tal que para todo A R se cumple
P(X A) = xA p( x). En efecto, tomando p(x) = P(X = x), tenemos que
P(X A) = P({X AR} {X ARc }) = P(X AR) + P(X ARc ),
donde P(X ARc ) P(X Rc ) = 0. Ademas, como R es discreto, podemos escribir el conjunto AR
como la uni
on de sus singletons y aplicar el axioma 3, con lo cual obtenemos:
P(X A) = P(X AR) = P ( {X = x}) = P(X = x) = p(x),
xAR
xAR
xA
Si X es variable discreta, entonces para cualquier x R se tiene que pX (x) = P(X = x). El conjunto
{x R pX (x) > 0} se conoce como el rango o soporte de la variable aleatoria, anotado RX . Debido a
que P(X RX ) = 1, RX se interpreta como el conjunto de los posibles resultados de X. Com
unmente
el rango ser
a N o un subconjunto de el. Notemos que para cualquier A R,
P(X A) =
pX (x),
xARX
41
es decir, la probabilidad de que X caiga en A se calcula sumando los valores de pX (x) sobre todos los
elementos de A que est
an en el rango de X, lo cual es la forma estandar de calcular probabilidades
asociadas a una variable discreta. En particular, se cumple la siguiente igualdad:
pX (x) = 1,
xRX
A continuaci
on veremos algunos ejemplos emblematicos de variables discretas y sus propiedades m
as
importantes.
3.6.1. Variable Bernoulli La variable aleatoria Bernoulli es la variable mas sencilla posible.
Supongamos que se dispone de un experimento aleatorio que puede resultar en exito con probabilidad
p y en fracaso con probabilidad 1 p, donde p [0, 1] es un valor fijo. Por ejemplo, podemos pensar
en el lanzamiento de una moneda con probabilidad p de cara, donde el exito del experimento corresponde a obtener cara, y sello corresponde al fracaso. Consideremos la variable aleatoria X que vale
1 si el restultado es un exito, y 0 si es fracaso. Esta variable X corresponde a la variable Bernoulli.
Formalmente:
Definici
on 3.13. Una variable aleatoria X se dice Bernoulli de parametro p [0, 1] si P(X =
1) = p y P(X = 0) = 1 p. Anotamos X Bernoulli(p).
Observaci
on 3.3. Utilizamos el smbolo como sinonimo de se distribuye o tiene distribucion.
Luego, la expresi
on X Bernoulli(p) se lee X tiene distribucion Bernoulli de parametro p.
42
1p
pX (x) = p
3.6.2. Variable binomial Consideremos nuevamente un experimento aleatorio que puede resultar en exito con probabilidad p [0, 1] y en fracaso con probabilidad 1p. Supongamos que se repite
este experimento n veces de manera independiente, y denotemos X a la variable aleatoria correspondiente a la cantidad de exitos que se obtuvieron en las n repeticiones. Queremos calcular la funcion de
distribuci
on discreta de X.
Los posibles valores para X van desde 0 (no se obtuvo ning
un exito) hasta n (todas las realizaciones
del experimento resultaron en exito). Es decir, el rango de X es RX = {0, . . . , n}. Dado k RX , cuanto
vale P(X = k)? Si nos interesara el caso en que los k exitos se obtienen en las k primeras realizaciones,
la probabilidad buscada sera
(3.3)
p p (1 p) (1 p) = pk (1 p)nk ,
k veces
n k veces
pues la probabilidad de cada exito es p y de cada fracaso es 1 p (estas cantidades se multiplican pues
las realizaciones son independientes). Sin embargo, los k exitos pueden haber ocurrido en muchas otras
posiciones distintas, y para cada una de esas formas la probabilidad es la que acabamos de calcular.
Especficamente, hay (nk) formas de escoger las posiciones en que se obtendran los k exitos. Y como
dichas formas son excluyentes, por cada una de ellas debe sumarse un termino de la forma (3.3). As,
el valor de P(X = k) viene dado por la siguiente definicion:
Definici
on 3.14. Una variable aleatoria X se dice binomial de parametros n N{0} y p [0, 1],
anotado X bin(n, p), si k {0, . . . , n} se tiene
n
P(X = k) = ( )pk (1 p)nk .
k
En la figura 3.1 se muestra la correspondiente funcion distribucion discreta pX de una variable X
bin(n, p), para algunos valores de n y p particulares.
43
0.35
n=20, p=0.1
n=20, p=0.5
n=20, p=0.75
0.3
pX(x)
0.25
0.2
0.15
0.1
0.05
0
10
x
15
20
Ejemplo 3.12. Se lanza una moneda equilibrada 10 veces de manera independiente. Luego, la
cantidad de caras que se obtienen es una variable X con distribucion binomial de parametros
n = 10 y p = 1/2. La probabilidad de obtener k caras es entonces
10
1 10
1 10
P(X = k) = ( )(1/2)k (1 1/2)10k = 10 ( ) =
( ).
k
2
1024 k
k
La probabilidad de que aparezcan exactamente 5 caras es
1
10 9 8 7 6 2 9 2 7
252
1
1 10
( )=
=
=
.
1024 5
1024
5432
1024
1024 4
El rango de una variable X geometrica es RX = N {0}. Notemos que pX (k) decae exponencialmente
como funci
on de k. Mientras m
as peque
no es p, mas cercano a 1 es la cantidad 1p, lo que significa que
este decaimiento es m
as lento. Esto es esperable: si la probabilidad de exito es peque
na, es probable
que haya que repetir el experimento varias veces antes de obtener el primer exito. En la figura 3.2 se
grafica pX para distintos valores de p.
0.5
p=0.1
p=0.25
p=0.5
pX(x)
0.4
0.3
0.2
0.1
0
10
x
Figura 3.2. Ejemplos de la funcion pX , donde X tiene distribucion geometrica de
par
ametro p, para distintos valores de p. Notemos que mientras mas peque
no es p, mas
lento decae pX , lo que concuerda con nuestra intuicion de que cuando la probabilidad
de exito es baja entonces es m
as probable tener que esperar varias repeticiones para
obtener el primer exito.
Ejemplo 3.13. Se lanza un dado equilibrado hasta que se obtiene un 1. La variable aleatoria
X que corresponde a la cantidad de lanzamientos realizados tiene distribucion geometrica de
par
ametro p = 1/6, donde hemos identificado el exito del experimento con obtener un 1 en el
dado. Luego, la probabilidad de que el primer 1 salga en el cuarto lanzamiento es
5 3 1
125
1
P(X = 4) = (1 p)41 p = ( ) =
.
6
6 1296 10
Dada una variable geometrica X, el evento {X > k} corresponde a que el primer exito se obtenga
despues de la realizaci
on k-esima del experimento, o equivalentemente, que las primeras k realizaciones
resulten en fracaso. Por lo tanto, se tiene que P(X > k) = (1p)k . Con esto, podemos probar facilmente
la siguiente propiedad fundamental:
Proposici
on 3.16 (Perdida de memoria de la variable geometrica). Sea X variable geometrica. Entonces para todo k, l N,
(3.4)
Recprocamente, si X es una variable aleatoria que toma valores en N cumpliendo (3.4), entonces X
es una variable geometrica.
45
y cancelando terminos, obtenemos (1 p)l , que ya sabemos es igual a P(X > l). Veamos la implicancia
recproca: tomando l = 1 en (3.4) obtenemos
P(X > k + 1)
= P(X > 1), k N.
P(X > k)
Definiendo 1 p = q = P(X > 1), por induccion en k se prueba facilmente que P(X > k) = q k , k N.
Luego:
q k1 = P(X > k 1) = P(X > k) + P(X = k) = q k + P(X = k),
de donde se obtiene que P(X = k) = q k1 (1 q) = (1 p)k1 p. Es decir, X geom(p), como queramos.
La f
ormula (3.4) se conoce como perdida de memoria de la variable geometrica. Se interpreta del
siguiente modo: sabiendo que despues de k repeticiones a
un no ocurre el primer exito (lo que corresponde a condicionar en X > k), la probabilidad de que tarde mas de l repeticiones adicionales (o sea,
que X > k + l) coincide con la probabilidad (sin condicionar) de que el primer exito llegue despues de
l repeticiones. En otras palabras, la variable olvida que ya hubo k realizaciones que resultaron en
fracaso, de modo que las probabilidades desde k en adelante se calculan como si no hubieran ocurrido
realizaciones previas.
3.6.4. Variable Poisson La variable aleatoria de Poisson aparece naturalmente en diversas
situaciones, en particular en la modelacion de la cantidad de clientes que llegan a un determinado
lugar, como un banco, un centro comercial, o incluso clientes virtuales que acceden a una pagina
web. Informalmente hablando, bajo ciertos supuestos razonables sobre los tiempos (aleatorios) que
transcurren entre las llegadas de cada cliente, la variable de Poisson representa la cantidad total de
clientes que llegan durante una unidad de tiempo. Lamentablemente, a diferencia de las variables
definidas anteriormente, no podremos deducir la funcion de distribucion discreta a partir de esta
descripci
on informal de la variable. Por esto, damos su definicion directamente:
Definici
on 3.17. Una variable aleatoria X se dice Poisson de parametro > 0, anotado X
Poisson(), si para todo k N se tiene
P(X = k) = e
k
.
k!
46
0.5
=0.75
=3
=6
pX(x)
0.4
0.3
0.2
0.1
0
10
x
Figura 3.3. Ejemplos de la funcion pX , donde X tiene distribucion de Poisson de
par
ametro > 0, para distintos valores de . Para peque
no, pX tiende a concentrarse
cerca de 0, lo cual concuerda con la descripcion informal de la variable: cuando la tasa
de llegada de clientes es peque
na, entonces es mas probable que lleguen pocos clientes.
Ejemplo 3.14. La cantidad de automoviles que pasan por un punto de control de una carretera
en un determinado lapso de tiempo es una variable aleatoria X con distribucion Poisson(), con
= 2. Cu
al es la probabilidad de que pase a lo mas un automovil?
Por definici
on de la variable Poisson, tenemos:
P(X 1) = pX (0) + pX (1) = e2
20
21
3
+ e2 = 2 0,406.
0!
1! e
3.7
SECCION
47
Definici
on 3.18. Dos variables aleatorias X e Y se dicen independientes, anotado X Y , si
para todo par de conjuntos A, B R los eventos {X A} e {Y B} son independientes, es decir,
se cumple
P(X A, Y B) = P(X A)P(Y B).
= P(Y = k i, X = i)
iN
P(Z = k) = e
i=0
ki i
e
(k i)!
i!
= e(+)
1 k
k!
i ki
( + )k
,
k!
donde en el u
ltimo paso hemos utilizado la formula del binomio. Hemos probado entonces que
Z tiene distribuci
on de Poisson de parametro + . Esto tiene una interpretacion practica: si
X representa la cantidad de clientes que han llegado a una cierta tienda, e Y es la cantidad de
clientes de otra tienda (con par
ametros y ), entonces, si se asume independencia, la cantidad
= e(+)
48
de clientes totales que llegan a alguna de ellas es otra variable de Poisson, cuyo parametro es la
suma de los par
ametros originales.
nN
= P ( X 1 (An ))
nN
= P(X 1 (An ))
nN
= X (An ).
nN
49
Bibliografa
[1]
[2]
[3]
[4]
51