Sei sulla pagina 1di 73

Conceitos Iniciais de Probabilidade

Loredana Villani Alexandre


15 de julho de 2011
2
Sumrio
1 Introduo: A Histria da Probabilidade 5
2 Espaos Amostrais, Probabilidade e Outros Conceitos Iniciais 7
2.1 Motivao: O Jogo do Carro e dos Bodes . . . . . . . . . . . . . . . 7
2.2 Experimento Aleatrio . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3 Realizao de um Experimento Aleatrio . . . . . . . . . . . . . . . 8
2.4 Resultado de um Experimento Aleatrio . . . . . . . . . . . . . . . . 8
2.5 Espao Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.6 Evento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.7 Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.8 Usando Probabilidade no Jogo do Carro e dos Bodes . . . . . . . . . 12
2.9 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . 13
2.10 Algo Mais Sobre Probabilidades . . . . . . . . . . . . . . . . . . . . 15
2.10.1 Unio de Eventos . . . . . . . . . . . . . . . . . . . . . . . . 15
2.10.2 Regra da Partio . . . . . . . . . . . . . . . . . . . . . . . . 16
2.10.3 Regra da Partio Estendida . . . . . . . . . . . . . . . . . . 17
2.10.4 Regra da Partio Condicional . . . . . . . . . . . . . . . . . 17
2.10.5 Regra da Partio Estendida na Forma Condicional . . . . . . 17
2.11 Regra de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.11.1 Aplicaes da Regra de Bayes . . . . . . . . . . . . . . . . . 18
2.12 Usando Probabilidade Condicional no Jogo do
Carro e dos Bodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Contagem e Anlise Combinatria 27
3.1 Motivao: O Problema dos Aniversrios . . . . . . . . . . . . . . . 27
3.2 Princpio Fundamental da Contagem . . . . . . . . . . . . . . . . . . 27
3.3 Fatorial de um Nmero Natural . . . . . . . . . . . . . . . . . . . . . 29
3.4 Agrupamentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1 Arranjos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.2 Permutaes . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.3 Permutaes com Elementos Repetidos . . . . . . . . . . . . 31
3.4.4 Combinaes . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.5 Parties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6 Resolvendo o Problema dos Aniversrios . . . . . . . . . . . . . . . 34
3
4 Independncia de Eventos 43
4.1 Motivao: O Macaco ao Computador . . . . . . . . . . . . . . . . . 43
4.2 Ideia Intuitiva da Independncia de Eventos . . . . . . . . . . . . . . 44
4.3 O Conceito de Independncia no Clculo de
Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4 Independncia Condicional . . . . . . . . . . . . . . . . . . . . . . . 47
4.4.1 Aplicaes da Independncia de Eventos . . . . . . . . . . . 49
4.5 Independncia de Eventos no Caso do Macaco ao Computador . . . . 52
5 Parmetros das Distribuies de Probabilidade 57
5.1 Motivao: O Problema do Colecionador de Cards . . . . . . . . . . 57
5.1.1 Esperana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.2 Varincia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.1.3 Mais Exemplos envolvendo Esperana e Varincia . . . . . . 60
5.1.4 Resolvendo o Problema do Colecionador de Cards . . . . . . 62
6 Limites e Convergncia em Probabilidade 65
6.1 Alguns Conceitos de Clculo . . . . . . . . . . . . . . . . . . . . . . 65
6.1.1 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.1.2 Sequncias . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.1.3 Limites de Sequncias . . . . . . . . . . . . . . . . . . . . . 66
6.2 Limites em Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2.1 Desigualdades de Probabilidade . . . . . . . . . . . . . . . . 67
6.2.2 Convergncia em Probabilidade . . . . . . . . . . . . . . . . 69
6.2.3 Lei Fraca dos Grandes Nmeros . . . . . . . . . . . . . . . . 69
4
Captulo 1
Introduo: A Histria da
Probabilidade
A Probabilidade, ramo da Matemtica tambm conhecido como teoria da incerteza,
tem origem bastante antiga; desde o princpio da humanidade, quando o mais primi-
tivo ser humano pensava em quais seriam as chances de chover dado que havia nuvens
cinza no cu, na verdade, ele estava usando noes primitivas de Probabilidade. De
fato, podemos argumentar que todos ns usamos algum tipo de probabilidade diaria-
mente, ainda esta esteja mais para uma estimativa grosseira baseada em experincias
anteriores.
Todavia, a probabilidade intuitiva ou primitiva muito diferente da quela desen-
volvida matematicamente. Ocialmente, a Probabilidade como teoria formal teve in-
cio no sculo XVII, com uma correspondncia atravs de cartas entre Blaise Pascal e
Pierre Fermat.
O interesse de Pascal fora despertado pelo jogador prossional parisiense, Antoine
Gombaud, o Cavalheiro de Mr, que lhe apresentou um problema relacionado com
um jogo de azar chamado politos que envolve ganhar pontos no lanamento de dados.
O primeiro jogador a acumular certo nmero de pontos vence e leva o dinheiro.
Gombaud estivera jogando com um colega quando foi obrigado a sair devido a um
compromisso urgente. Surgiu ento o problema do que fazer como dinheiro. Asoluo
mais bvia seria d-lo todo para o jogador com mais pontos, mesmo assim Gombaud
perguntou a Pascal se havia um modo mais justo de dividi-lo. Pascal deveria calcular as
chances que cada jogador teria de vencer caso o jogo continuasse e o dinheiro envolvido
seria ento dividido de acordo com essas estimativas. Tinha incio uma nova cincia.
Um jogador prossional precisava ter uma boa ideia dos riscos que sua fortuna
corria para apostar com maiores chances de ganhar, dessa maneira, ele precisaria no
mnimo consultar algum, no caso um matemtico, que conhecesse as teorias acerca
da incerteza.
Alm do mais, o sculo XX trouxe um novo papel de destaque s ideias proba-
bilistas com o trabalho dos fsicos modernos. Na Fsica do sculo XVIII, acreditava-se
que, possuindo todas as informaes possveis a respeito de uma partcula qualquer,
seria possvel predizer com certeza e exatido sua posio usando as equaes fsicas
disponveis.
Assim sendo, a Probabilidade seria uma ferramenta til devido diculdade de
obteno de todas as entradas de dados necessrias soluo do problema. Ento, essa
5
cincia era tolerada , mas como uma disciplina de importncia inferior pois, sempre
que houvesse a certeza de um resultado em uma determinada situao, ela poderia
ser eliminada. Por exemplo, se soubssemos tudo sobre a maneira como um dado
houvesse sido atirado (acelerao, ngulo, foras envolvidas etc), poderamos prever
sem incerteza qual a face voltada para cima aps a queda.
Mas, quando o fsico Werner Heisenberg postulou o princpio da incerteza, dizendo
que para partculas muito pequenas seria impossvel conhecer com exatido a posio
e a velocidade aps a ao de alguma fora, a Probabilidade teve sua importncia au-
mentada.
Essa ideia revolucionou os fundamentos fsicos. Ele estava dizendo que, a princ-
pio, no se poderiam realizar previses exatas, o mximo a que se poderia chegar seria
a alguma probabilidade, no importando a quantidade de dados coletados. Einstein
rejeitou essa teoria atualmente aceita.
Apesar de a inspirao inicial haver sido ftil, a teoria da Probabilidade desen-
volvida encontra atualmente aplicaes em praticamente todos os ramos da cincia e
tecnologia.
Os problemas envolvendo Probabilidade s vezes provocam controvrsias porque
a resposta matemtica freqentemente contrria ao que a intuio poderia sugerir,
o que geralmente surpreende quem resolve estud-la. A teoria em si e os clculos
envolvidos no costumam ser muito complicados ou trabalhosos, a maior causa de
erros na resoluo de problemas envolvendo probabilidades est na interpretao do
leitor.
Neste trabalho veremos alguns problemas enganadores mas de simples resoluo,
que ajudaro o estudante a se interessar pelo estudo da Probabilidade e o estimularo a
desenvolver um raciocnio mais analtico em situaes cotidianas. Bons estudos!
6
Captulo 2
Espaos Amostrais,
Probabilidade e Outros
Conceitos Iniciais
2.1 Motivao: O Jogo do Carro e dos Bodes
1
Voc est participando do jogo de um programa de grande audiencia na televisao. O
apresentador lhe mostra trs portas fechadas e explica que atrs de uma delas h um
carro, enquanto cada uma das restantes oculta um bode. Lhe permitido escolher uma
das portas, aquilo que ela esconder ser seu prmio.
Escolhida uma porta, o apresentador abre no essa, mas uma outra, e um bode
revelado. Ento ele d a voc a oportunidade de trocar sua porta, que continua fechada,
pela restante, que tambm no foi aberta. Supondo que voc queira ganhar o carro, e
no um dos bodes, qual ser a melhor estratgia a seguir? Voc deve trocar de porta ou
continuar com a escolha inicial?
Uma concluso no muito incomum a de que, no m das contas, como h duas
portas fechadas, um carro e um bode, ento o convidado do programa ter as mesmas
chances de ganhar o carro mudando ou no de porta, para cada porta. Isso razovel
pois sabe-se que h 1 nico carro e mais 1 bode pois uma porta j foi aberta e foi
revelado 1 dos bodes. Mas esse raciocnio muito simplista est errado e poderemos
substitu-lo pelo correto aps a denio de espao amostral.
2.2 Experimento Aleatrio
Experimento aleatrio todo experimento que reune as seguintes caractersticas:
conhecemos o conjunto de todos os resultados possveis;
pode ser repetido vrias vezes sob as mesmas condies;
no se pode prever o resultado de qualquer realizao.
1
Esse jogo era uma famosa atrao de um programa da televiso americana chamado "Lets make a deal",
conhecido tambm como "Paradoxo de Monty Hall". O verdadeiro resultado parecia um absurdo e muitos
matemticos prossionai no o aceitaram, propondo solues erradas. A discusso acerca do problema teve
seu auge em 1975.
7
Exemplo 1: Jogo do Carro e dos Bodes
Notemos que o jogo do carro e dos bodes possui as seguintes caractersticas:
conhecemos o conjunto de todos os resultados possveis, umexemplo de resultado
seria um bode atrs da primeira porta, outro atrs da segunda e o carro atrs da terceira;
pode ser repetido vrias vezes sob as mesmas condies;
o jogador nunca poder ter certeza da porta que contm o carro, ou seja, no se
pode prever o resultado de nenhuma realizao do jogo.
Por isso, o jogo do carro e dos bodes considerado um experimento aleatrio.
Exemplo 2: Moeda
Atirando uma moeda para o alto, algo que pode ser feito quantas vezes quisermos,
sabemos que quando a moeda cair, cair com a face cara ou a face coroa voltada para
cima, mas no temos certeza de qual ser essa face voltada para cima.
Exemplo 3: Dado
Ao rolar um dado sobre uma superfcie qualquer, ao que pode ser realizada in-
meras vezes, sabemos que a face voltada para cima ter um nmero inteiro positivo de
1 a 6 estampado nela, mas no sabemos qual deles ser.
2.3 Realizao de um Experimento Aleatrio
Sempre que fazemos com que um experimento aleatrio acontea sob suas condies
necessrias, estamos fazendo a realizao de um experimento aleatrio.
Exemplo: Jogo do Carro e dos Bodes
Cada novo programa do apresentador Monty Hall fazia a realizao do experimento
aleatrio do jogo do carro e dos bodes.
2.4 Resultado de um Experimento Aleatrio
Cada vez que um experimento aleatrio realizado sob as mesmas condies, espera-
se ver algo conhecido ocorrer, o resultado desse experimento.
Exemplo 1: Faces de uma Moeda
Ao atirarmos uma moeda, sabemos que sair cara ou coroa, isto , as possveis
sadas das faces cara ou coroa so os resultados do experimento aleatrio de atirar a
moeda.
Exemplo 2: O Carro e os Bodes do Jogo
Telespectadores, o jogador e o apresentador do programa sabem que, ao ser aberta
uma porta, ser mostrado um bode ou um carro, os resultados do experimento aleatrio
de abrir uma porta no jogo do carro e dos bodes.
8
2.5 Espao Amostral
Espao amostral o conjunto de todos os possveis resultados de um experimento
aleatrio, sendo normalmente representado pela letra grega mega maiscula .
Costuma-se representar a quantidade de resultados de um espao amostral como
n() ou ainda #().
Exemplo 1: Lanamentos de uma Moeda
Para o experimento aleatrio de atirar trs vezes uma mesma moeda, vamos repre-
sentar cada resultado por (a
1
, a
2
, a
3
). Sair cara e sair coroa, representaremos por C e
K, respectivamente. Assim, substituiremos a
1
, a
2
e a
3
por K ou C, para representar-
mos cada possibilidade de resultado do trio de lanamentos. Temos ento o seguinte
espao amostral
= {(C, C, C); (K, K, K); (C, C, K); (C, K, C); (K, C, C); (K, K, C);
(K, C, K); (C, K, K)},
que nada mais do que uma modelagem de um acontecimento do mundo real. Este
um experimento com uma quantidade de resultados que podemos contar, ao todo
so 8, mas existem experimentos aleatrios cujos resultados, embora conhecidos, no
podemos contar ao todo, o que pode soar estranho.
Exemplo 2: Lanamentos de Moeda que Podem se Prolongar Indenidamente
Tomemos o experimento de atirar uma mesma moeda quantas vezes for necessrio,
at que saia cara pela primeira vez, ento paramos de atirar. Pode ser que saia cara logo
no primeiro lanamento, resultado que podemos representar como (K); pode ser que
precisemos atirar a moeda 11 vezes, at que saia cara pela primeira vez, ento temos
o resultado (C, C, C, C, C, C, C, C, C, C, K). Talvez seja necessrio que se lance a
moeda 1000002 vezes at que saia cara pela primeira vez, ento temos o resultado
(C
1
, C
2
, . . . , C
10000
, . . . , C
1000001
, K).
Assim, voc pode perceber que, embora no seja muito provvel, h resultados em
que a quantidade de vezes que preciso atirar a moeda at que saia cara pela primeira
vez to imensa quanto se possa imaginar. E se voc puder pensar em um nmero bem
grande para essa quantidade, esse nmero, acrescido de uma unidade, ser a quantidade
de vezes que preciso atirar a moeda at que saia cara pela primeira vez em um outro
possvel resultado. Dessa maneira, uma representao adequada de espao amostral
para esse experimento ser
= {(K); (C, K); (C, C, K); (C, C, C, K); . . . ; (C, C, C, C, C, C, C, C, C, C, K);
. . . ; (C, C, C, C, . . . , C, C, C, C, K); . . .},
onde as primeiras reticncias indicam os resultados em que necessrio atirar a moeda
mais de trs e menos de dez vezes, at que saia cara pela primeira vez, as prximas ret-
icncias indicam os resultados em que necessrio atirar a moeda mais de dez vezes at
que saia cara; o sexto resultado representa uma sequncia muito grande de lanamentos
em que sai coroa seguidamente at sair cara, e as reticncias dentro da representao
sesse resultado transmitem a ideia de que tal resultado poder ser composto por um
nmero to grande de lanamentos de moedas saindo coroa quanto se possa imaginar.
9
2.6 Evento
Todo subconjunto de um espao amostral, ou seja, uma coleo de resultados que es-
tejam todos contidos no espao amostral, um evento, normalmente representado pela
letra grega mega minscula . Assim como um espao amostral, um evento tambm
pode conter uma quantidade de resultados que no podemos contar.
Exemplo: Dado
Levando em conta o experimento de rolar um dado e depois atirar uma moeda,
temos o espao amostral
= {(1, K); (2, K); (3, K); (4, K); (5, K); (6, K); (1, C); (2, C); (3, C); (4, C);
(5, C); (6, C)},
em que cada nmero entre 1 e 6 representa os resultados possveis de ter rolado o dado
e as letras K e C representam, respectivamente as sadas das faces cara e coroa ao lanar
a moeda.
Da tiramos para exemplos o evento "sair um nmero par ao rolar o dado e sair
coroa ao lanar a moeda", que ser denotado por A, podendo ser representado da
seguinte maneira

A
= {(2, C); (4, C); (6, C)};
e o evento "sair um nmero mpar ao rolar o dado e sair cara ao lanar a moeda", que
ser denotado por B, podendo ser representado da seguinte maneira

B
= {(1, K); (3, K); (5, K); (1, C); (3, C); (5, C)}.
2.7 Probabilidade
Tendo em mente os conceitos de espao amostral, experimento aleatrio, realizao de
um experimento aleatrio, resultado de um experimento aleatrio e evento, podemos
nalmente denir o conceito de probabilidade.
Para cada evento de um espao amostral podemos associar um nmero que de-
nota as chances de ocorrncia dele, na prtica, sua probabilidade de ocorrncia. Esse
nmero, frequentemente denotado por p, pertence aos R e est dentro do intervalo
fechado que vai de 0 a 1, podendo ser inclusive 0, quando o resultado nunca ocorre, e
1, quando o resultado sempre ocorre.
Para encontrar esse p, a probabilidade de ocorrncia de um evento, dentre todos
os eventos possveis de serem observados, dividimos o nmero de vezes que o evento
ocorre pela quantidade de elementos do espao amostral, sempre que sabemos que to-
dos os eventos so equiprovveis, ou seja, ocorrem com mesma probabilidade. Mas, se
sabemos que determinado evento ocorre, por exemplo, o dobro de vezes que os outros,
ou triplo, isto , ele tem um peso, multiplicamos o nmero de vezes que ele ocorre pelo
seu peso.
Exemplo 1: Jogo do Carro e dos Bodes
No caso do jogo do carro e dos bodes, vamos representar em nossa modelagem
cada resultado de uma realizao pelo trio (p
1
, p
2
, p
3
), onde p
1
a primeira porta, p
2

10
a segunda porta e p
3
, a terceira; B
1
e B
1
sero dois bodes e C ser o carro. Assim, p
1
,
p
2
, p
3
sero trocados por B
1
, B
2
ou C (na prtica, quando uma porta aberta, aparece
ou um dos dois bodes ou o carro). Temos o seguinte espao amostral
= {(B
1
, B
2
, C); (B
2
, B
1
, C); (B
1
, C, B
2
); (B
2
, C, B
1
); (C, B
1
, B
2
); (C, B
2
, B
1
)},
uma coleo de todos os possveis resultados de uma realizao do experimento aleat-
rio do jogo do carro e dos bodes, que so 6.
Assim, no jogo do carro e dos bodes podemos associar os eventos seguintes, que
foram explicados anteriormente, s probabilidades:
(B
1
, B
2
, C) p
a
;
(B
2
, B
1
, C) p
b
;
(B
1
, C, B
2
) p
c
;
(B
2
, C, B
1
) p
d
;
(C, B
1
, B
2
) p
e
;
(C, B
2
, B
1
) p
f
;
E teremos certeza de que
p
a
+p
b
+p
c
+p
d
+p
e
+p
f
= 1,
pois a soma das probabilidades de todos os eventos disjuntos
2
no qual um espao
amostral tenha sido dividido sempre tem 1 como resultado.
Isso razovel porque, se sabemos que somente os eventos de um conjunto A, es-
pao amostral, podem ser observados em cada realizao de um experimento aleatrio
qualquer, ento necessariamente observaremos algum desses eventos, qualquer que
seja a realizao de A.
Se estamos interessados no evento do espao amostral do jogo do carro e dos bodes
"o carro est atrs da terceira porta", ento temos a coleo de resultados que nos
interessam
E = {(B
1
, B
2
, C); (B
2
, B
1
, C)},
e os resultados so, ao todo, 2.
Assim, associamos a esse evento a probabilidade p =
2
6
=
1
3
.
Exemplo 2: Moeda Desonesta
Cada umdos eventos mencionados anteriormente tinha igual probabilidade de ocor-
rer. Agora imagine uma moeda desonesta que, ao ser lanada, cai com o dobro de
chances com a face cara voltada para cima. Pensando no experimento aleatrio de
2
em uma coleo de n eventos disjuntos, se pegarmos quaisquer m eventos, m n, nenhum resultado
de um deles se encontrar presente em qualquer outro evento da coleo.
11
atir-la uma nica vez, temos espao amostral = {K, C}, e se quisermos conhecer
a probabilidade de atirar essa moeda e sair coroa como resultado, fazemos
p
k
=
1
1 + 12
=
1
3
.
Frequentemente representamos a probabilidade de ocorrncia de um evento E co-
mo P(E) = p.
2.8 Utilizando Probabilidade para Escolher a Melhor
Estratgia no Jogo do Carro e dos Bodes
Agora, com os conceitos anteriormente denidos, podemos analisar qual a melhor
estratgia no jogo do carro e dos bodes. Vejamos cada etapa do experimento:
i) Primeiramente supomos que o apresentador, antes do incio do programa, esco-
lheu a porta que esconderia o carro, assim ele sabia o que cada porta continha.
Vamos supor tambm que cada porta tinha igual probabilidade de ser escolhida
para conter o carro.
ii) Voc escolhe uma porta dentre (p
i
, p
j
, p
k
), desta vez no estou representando p
i
como sendo a primeira porta, p
j
como sendo a segunda e p
k
a terceira porta. Cada um
desses p pode ser qualquer porta, sendo que os sub-ndices no as ordenam, apenas as
distinguem.
Quando o apresentador lhe permite sua "primeira escolha", voc opta por p
i
, que,
como j foi explicado, pode ser tanto a primeira quanto a segunda ou a terceira porta,
pense em qualquer uma delas.
Nesse momento voc tem o espao amostral:
= {(p
i
= B
1
, p
j
= B
2
, p
k
= C); (p
i
= B
2
, p
j
= B
1
, p
k
= C);
(p
i
= B
1
, p
j
= C, p
k
= B
2
); (p
i
= B
2
, p
j
= C, p
k
= B
1
);
(p
i
= C, p
j
= B
1
, p
k
= B
2
); (p
i
= C, p
j
= B
2
, p
k
= B
1
)}.
Seja Q uma varivel representando a quantidade de eventos em que p
i
= C, ento,
com base no espao amostral , calculamos
P("primeira escolha" = C) =
Q
n()
=
2
6
=
1
3
.
iii) O apresentador abre uma das portas que est fechada e revela um bode, para
ento lhe perguntar se voc quer car com a outra porta fechada. Lembre-se que ele
sabia exatamente o que cada porta escondia, por isso ele jamais abre a porta que contm
o carro.
Perceba que se p
i
= C, ento ele escolhe com igual probabilidade abrir p
j
e p
k
, e
isso acontece 2 em cada 6 vezes, mas se p
i
= B
1
ou p
i
= B
2
, ento resta 1 porta com
o carro e outra com o bode, e ele obrigado a abrir aquela que escondia o bode, no
lhe resta escolha, e isso acontece 4 em cada 6 vezes, ou, equivalentemente, 2 em cada
3 vezes, ou seja, se voc trocar de porta, mudar suas chances de ganhar o carro de
1
3
para
2
3
.
Melhor explicando, inicialmente cada uma das portas tinha 1 chance em 3 de escon-
der o carro, e se o apresentador lhe perguntasse se voc queria realizar uma "segunda
12
escolha", sem abrir nenhuma das outras duas portas, ento seria indiferente para sua
probabilidade de ganhar o carro continuar com a escolha inicial ou trocar.
Entretanto, ao abrir uma das portas que voc rejeitou (mantendo ainda a suposio
de que voc teve por "primeira escolha" p
i
) e para mostrar um bode, o espao amostral
do experimento muda para

= {(p
i
= B
1
, p
k
= C); (p
i
= B
2
, p
k
= C); (p
i
= B
1
, p
j
= C);
(p
i
= B
2
, p
j
= C); (p
i
= C, p
k
= B
2
); (p
i
= C, p
j
= B
2
)}.
Essa a razo pela qual o raciocnio apresentado antes das denies errado, ele
est ancorado no espao amostral , desconsiderando , que d lugar ao primeiro
quando o apresentador abre a porta do bode.
Dessa maneira, representando por Q
sC
a quantidade de resultados em que
"segunda escolha" = C, temos:
P("segunda escolha" = C) =
Q
sC
n()
=
4
6
.
Logo, qualquer que seja a porta inicialmente escolhida, a melhor estratgia mudar
de porta aps o apresentador abrir uma das portas que contm um bode.
Simplicando um Pouco a Modelagem do Jogo do Carro e dos Bodes
Vale lembrar que um espao amostral um modelo da realidade, construdo de maneira
a represent-la da melhor maneira possvel, mas o nvel de detalhamento de tal repre-
sentao uma escolha daquele que estiver modelando o problema. De acordo com as
hipteses tomadas, possvel simplic-lo um pouco.
Como admitimos que o apresentador escolhia os bodes, que eram iguais, com a
mesma probabilidade, ento no faz diferena para nossa anlise se uma porta oculta
o bode B
1
ou o bode B
2
, logo, no necessrio distingu-los, podemos representar
ambos por B. Assim, camos com o seguinte espao amostral
= {(B, B, C); (B, C, B); (C, B, B)},
em que, novamente, sempre que voc tiver por "primeira escolha" a porta que contm
umbode, o que aqui acontece 2 emcada 3 vezes, o apresentador ser obrigado a mostrar
a outra porta que contm o outro bode e lhe perguntar se voc quer car com a porta
que esconde o carro.
O raciocnio continua exatamente o mesmo.
p
i
p
j
p
k
"primeira escolha" "segunda escolha"
B B C B C
B C B B C
C B B C B
2.9 Probabilidade Condicional
Em um experimento aleatrio qualquer que seja, a partir de uma informao parcial
do resultado da realizao desse experimento, por exemplo, a ocorrncia do evento R,
13
podemos reduzir o espao amostral inicial de
1
para
2
e calcular a probabilidade de
que necessitamos, a ocorrncia de um evento S qualquer, nesse novo espao amostral.
Representamos essa situao por
P(S|R),
, probabilidade de ocorrncia de S dado que R ocorreu, ou simplesmente, probabili-
dade de S dado R.
Se P(R) > 0, temos
P(S|R) =
n({R}{S})
n()
S
n()
=
P({R} {S})
P(S)
,
onde {{R} {S}} representa os eventos que satisfazem simultaneamente os eventos
R e S.
Exemplo 1: Dado e Moeda
Voltemos ao experimento aleatrio visto anteriormente de rolar um dado e depois
atirar uma moeda, temos o espao amostral
= {(1, K); (2, K); (3, K); (4, K); (5, K); (6, K); (1, C); (2, C); (3, C);
(4, C); (5, C); (6, C)},
onde n() = 12.
Lembremos que cada nmero entre 1 e 6 representa os resultados de o dado ter sido
rolado e as letras K e C representam, respectivamente, as sadas das faces cara e coroa
ao lanar a moeda. Dessa vez faremos a suposio de que tanto o dado quanto a moeda
so honestos, ou seja, ao atirar a moeda, cara ou coroa saem com as mesmas chances,
como seria de se esperar; o mesmo vale para as faces do dado.
Numa certa realizao desse experimento sabemos que saiu um nmero par ao
rolar o dado. Desejamos ento saber quais so as chances de ter sado cara ao lanar a
moeda, dado que saiu nmero par ao rolar o dado.
Denotemos por B o evento "sair cara no lanamento da moeda" e por A o evento
"sair um nmero par no lanamento do dado".
Uma vez que sabemos que A ocorreu, nosso espao amostral no mais o mesmo,
podemos descartar os eventos em que sai um nmero mpar n. Ficamos com

= {(2, K); (4, K); (6, K); (2, C); (4, C); (6, C)},
onde n(

) = 6.
Como so 3 as ocorrncias de cara, temos que
P(B|A) =
3
6
=
1
2
.
Mas, note-se que, se P(B) > 0, temos
P(B|A) =
n({A}{B})
n()
B
n()
=
P({A} {B})
P(B)
=
1
2
,
onde {{A} {B}} representa os eventos que satisfazem simultaneamente os eventos
A e B.
14
So equivalentes as notaes P({A} {B} {C}), P(A B C) e P(A, B, C)
3
para denotar a probabilidade da interseco de eventos. Neste tabalho ser dada prefe-
rncia terceira.
Exemplo 2: Paradoxo de Galton
Considere o lanamento consecutivo de trs moedas honestas. Voc atira as duas
primeiras moedas, que mostram a mesma face. Ento voc atira uma terceira moeda e
a probabilidade de as trs mostrarem a mesma face de
1
2
, o que parece um paradoxo,
primeira vista. Representarei o evento "sair cara no lanamento de alguma das
moedas" por K e "sair coroa no lanamento de alguma das moedas" por C.
No errado que
P("as trs moedas mostrarem a mesma face") = P(C, C, C) +P(K, K, K) =
1
8
+
1
8
=
1
4
.
Todavia, no estamos tratando de probabilidade incondicional, mas sim de proba-
bilidade condicional, j sabemos os resultados dos dois primeiros lanamentos.
Ento,
P("as trs moedas mostrarem a mesma face") = P(C|C, C) +P(K|K, K).
Usando a frmula de probabilidade condicional, aprendida anteriormente, temos
P(C|C, C) =
P(C, C, C)
P(C, C)
=
1
8
1
2
=
1
4
,
e
P(K|K, K) =
P(K, K, K)
P(K, K)
=
1
8
1
2
=
1
4
.
Outra diculdade do problema, alm de enxergar o condicionamento das proba-
bilidades, notar que
(C, C, C) e (K, K, K)

= {(C, C, C), (K, K, K), (K, K, C), . . . }


e
(C, C) e (K, K)

= {(C, C), (K, K)}


o que justica as probabilidades encontradas.
Finalmente,
P("as trs moedas mostrarem a mesma face") =
1
4
+
1
4
=
1
2
.
2.10 Algo Mais Sobre Probabilidades
2.10.1 Unio de Eventos
Para quaisquer dois eventos A e B, vale
P(A B) = P(A) +P(B) P(A B).
3
Essas notaes podem ser extendidas a n eventos, assim, teramos P({X
1
} {X
2
} {X
n
}),
P(X
1
X
2
X
n
) e P(X
1
, . . . , X
n
).
15
Se A e B forem eventos disjuntos ento P(A B) = 0 e
P(A B) = P(A) +P(B).
Exemplo: Alarmes
Uma cozinha contm dois tipos de alarme de incndio que avisam a ocorrncia de
incndio emitindo som, um deles ativado pela fumaa, o outro pelo calor do fogo. A
experincia tem mostrado que:
a probabilidade de o alarme ativado pela fumaa soar dentro de at um minuto
aps o princpio de um incndio de 95%;
a probabilidade de o alarme ativado pelo calor soar dentro de at um minuto aps
o princpio de um incndio de 91%;
a probabilidade de ambos soarem dentro de at um minuto aps o princpio de
um incndio de 88%.
Qual a probabilidade de que pelo menos um dos alarmes emita som dentro de at
um minuto aps o princpio de um incndio?
Vamos denir os eventos:
F "o alarme ativado pela fumaa soar dentro de at um minuto aps o princ-
pio de um incndio";
C "o alarme ativado pelo calor soar dentro de at um minuto aps o princpio
de um incndio".
Perceba que o evento em que pelo menos um dos alarmes detecta incndio den tro
de at um minuto aps seu incio dado por F C.
P(F C) = P(F) +P(C) P(F C) = 0, 91 + 0.95 0, 88 = 0, 98.
Assim, em 98% das vezes em que houver incndios, ambos os alarmes soaro
dentro de at um minuto.
2.10.2 Regra da Partio
Para quaisquer eventos A e B, temos que
A = {A B} {A B
c
}.
Isso nos d que
P(A) = P(A B) +P(A B
c
).
Ento, usando a j estudada frmula da probabilidade condicional,
P(A B) = P(A|B)P(B)
e
P(A B
c
) = P(A|B
c
)P(B
c
),
temos que a probabilidade de ocorrncia do evento A pode ser dada por
P(A) = P(A|B)P(B) +P(A|B
c
)P(B
c
),
conhecida como Regra da Partio.
16
2.10.3 Regra da Partio Estendida
Sejam A um evento qualquer e B
i
, i 1 uma coleo de eventos disjuntos tais que
A B
1
B
2
B
i
. . . B
m

m
_
i=1
B
i
.
Ento
A = (A B
1
) (A B
2
) (A B
i
) (A B
m
) =
m
_
i=1
(A B
i
).
Logo,
P(A) =
n

i=1
P(A B
i
).
Usando a frmula de probabilidade condicional, temos
P(A) =
n

i=1
P(A|B
i
)P(B
i
).
2.10.4 Regra da Partio Condicional
Para quaisquer trs eventos A, B e C, vale a seguinte verso da Regra da Partio
P(A|C) = P(A|B C)P(B|C) +P(A|B
c
C)P(B
c
|C).
2.10.5 Regra da Partio Estendida na Forma Condicional
Sejam A e C eventos quaisquer e B
i
, i 1 uma coleo de eventos disjuntos, ento
P(A) =
m

i=1
P(A|B
i
C)P(B
i
|C).
2.11 Regra de Bayes
Frequentemente temos P(R|S) e desejamos P(S|R), para essa nalidade, a frmula a
seguir bastante til
P(B|A) =
P(B A)
P(A)
=
P(BA)P(B)
P(B)
P(A)
=
P(A|B)P(B)
P(A)
.
Para encontrar P(A), pode-se usar alguma das regras de partio dadas anterior-
mente, a que lhe for mais conveniente.
17
2.11.1 Aplicaes da Regra de Bayes
Aplicao 1: Questionrios de Pesquisa
Quando, para alguma pesquisa, perguntam diretamente a um indivduo se este j bebeu
antes de dirigir, experimentou drogas ilegais, traiu a namorada ou esposa, roubou/fur-
tou, sofre de uma doena estigmatizada, homossexual e tantas outras perguntas, ele
pode se sentir amedrontado de contribuir dando uma resposta verdadeira. Assim, ca
difcil estimar qual a parcela da populao que sofre de uma doena como AIDS, que
homossexual etc.
Alguns pesquisadores usam o seguinte esquema: do um pacote de cartes em-
baralhados ao entrevistado, uma proporo n desses cartes diz "responda no", uma
proporo s diz "responda sim" e outra proporo v diz "responda a verdade"; o entre-
vistado retira de maneira aleatria um dos cartes e, sabendo que somente ele conhece
o contedo do carto, obedece suas instrues.
A vantagem que, com isso, a pessoa se permitir dizer a verdade quando instruda
a faz-lo pois ningum mais saber se ela est mentindo ou no.
Contudo, dessa maneira, os pesquisadores podem estimar, por exemplo, a ver-
dadeira incidncia de alcoolismo ou de determinada doena na populao.
Denominemos os seguintes eventos:
N pegar o carto com a instruo "responda no";
S pegar o carto com a instruo "responda sim";
V pegar o carto com a instruo "responda a verdade";


N responder no;


S responder sim.
Ao realizar a pesquisa deve ser anotada a resposta de cada pessoa, claro, e, ao -
nal, o pesquisador ter somente uma certa quantidade de respostas sim e outra quanti-
dade de respostas no. Como so conhecidas as propores de cartes com "responda
a verdade", "responda sim" e "responda no", simples saber quantas so as respostas
sim e no que correspondem instruo de dizer a verdade e assim, obter as estimati-
vas pretendidas.
Dessa maneira, usando a Regra da Partio, temos que a probabilidade um indiv-
duo responder "sim" dada por
P(

S) = P(

S|N)P(N) +P(

S|S)P(S) +P(

S|V )P(V ).
Para a pessoa que entendeu como deve proceder, temos
P(

S|N) = 0 e P(

S|S) = 1.
Suponha que, na pesquisa, estamos interessados na proporo s
v
da populao, que
respondeu sim pergunta, tendo recebido a instruo de falar a verdade. Conhecemos
s
v
.
Seja s a proporo da populao que respondeu sim, ou porque recebeu a instruo
"responda a verdade" ou porque recebeu a instruo "responda sim".
Ento
s
v
=
s s
v
e P(

S|V ) = s
v
.
De acordo com os cartes do pacote dado a qualquer entrevistado,
P(N) = n, P(S) = s e P(V ) = v.
18
Assim,
P(

S) = s +s
v
v.
Logo, usando a Regra de Bayes temos
P(V |

S) =
P(

S|V )
P(

S)
P(V ) =
s
v
v
s +s
v
v
.
Ento, se a pesquisa for para estimar a porcentagem de pessoas alcolatras na po-
pulao, teremos
P("indivduo ser alcolatra") = P(V

S) +P(V
c


N) =
P(V |

S)P(

S) +P(V
c
|

N)P(

N),
pois so alcolatras aqueles que disseram a verdade e disseram sim e tambm aqueles
que no disseram a verdade e disseram no.
Note tambm que
P(V |

N) +P(V
c
|

N) =
P(

N V )
P(

N)
+
P(

N V
c
)
P(

N)
=
P(

N V ) +P(

N V
c
)
P(

N)
=
P(

N)
P(

N)
= 1.
Isto ,
P(V
c
|

N) = 1 P(V |

N),
e P(V |

N) deve ser encontrada da mesma maneira que encontramos P(V |

S).
Vamos l.
Usando a Regra da Partio, temos que a probabilidade um indivduo responder
"no" dada por
P(

N) = P(

N|N)P(N) +P(

N|S)P(S) +P(

N|V )P(V ).
Para a pessoa que entendeu como deve proceder, temos
P(

N|N) = 1 e P(

N|S) = 0.
Estamos interessados na proporo n
v
da populao, que respondeu no pergunta,
tendo recebido a instruo de falar a verdade. Conhecemos n
v
.
Seja n a proporo da populao que respondeu no, ou porque recebeu a instruo
"responda a verdade" ou porque recebeu a instruo "responda no".
Ento
n
v
=
n n
v
e P(

N|V ) = n
v
.
Assim,
P(

N) = n +n
v
v.
Logo, usando a Regra de Bayes temos
P(V |

N) =
P(

N|V )
P(

N)
P(V ) =
n
v
v
n +n
v
v
.
19
Por tudo o que foi feito anteriormente, temos
P("indivduo ser alcolatra") =
s
v
v
s +s
v
v
(s+s
v
v) +
_
1
n
v
v
n +n
v
v
_
(n+n
v
v).
E, nalmente,
P("indivduo ser alcolatra") = s
v
v +n.
Aplicao 2: Exames Mdicos
Todos os testes mdicos ocasionalmente do resultados falsos. Quando uma pessoa
que tem uma determinada doena faz um exame para detect-la, existe alguma chance
deste indicar ausncia daquela; quando uma pessoa que no tem uma certa doena
realiza um teste para vericar sua presena, tambm existe a chance deste indicar a
presena daquela.
Consideremos os seguinte eventos:
N "o resultado do teste negativo, indicando que a doena no est presente
no organismo do indivduo";
P "o resultado do teste positivo, indicando que a doena est presente no
organismo do indivduo";
S "a doena no est realmente presente no organismo do indivduo";
D "a doena est realmente presente no organismo do indivduo" S
c
.
Denomina-se "falso positivo" o evento em que "o resultado do teste positivo,
indicando que a doena est presente no organismo do indivduo", mas "a doena no
est realmente presente no organismo do indivduo".
Denomina-se "falso negativo" o evento em que "o resultado do teste negativo,
indicando que a doena no est presente no organismo do indivduo", mas "a doena
est realmente presente no organismo do indivduo".
Ento temos que
P("falso positivo") = P(P|S)
e
P("falso negativo") = P(N|D).
Se em um determinado teste P("falso positivo") = 25%, ento, somente em 75%
dos casos em que o paciente no possui a doena, ele ser informado de que no a
possui de fato, em contrapartida, em 25% dos casos de pacientes que no possuem o
mal, estes sero ditos doentes segundo o teste.
Se em um determinado teste P("falso negativo") = 30%, ento, somente em 70%
dos caso em que o paciente possui a doena, ser-lhe- indicada a ocorrncia da doena,
em contrapartida, em 30% dos casos de pacientes doentes, estes no sero informados
de que esto doentes.
Claro que desejado, qualquer que seja o exame mdico, que probabilidades
dos eventos supracitados sejam mnimas, anal, no caso de um falso negativo em se
tratando de uma doena contagiosa, o portador no tomaria quaisquer precaues que
evitassem o contgio e a disseminao ocorreria; j um falso positivo poderia causar
loucura no indivduo, terminando em suicdio.
Ento, o que queremos que sejam bem grandes as chances de, dado que o indiv-
duo tem determinada doena, o teste para detect-la, d positivo, isto , desejamos que
P(P|D), denominada "sensibilidade do teste" seja o mximo possvel.
Mas como ter tais probabilidades?
20
Para estimar as chances de "falsos negativos" o teste em questo deve ser aplicado
em uma populao de pessoas sabidamente contaminadas, ento contabilizam-se os
positivos e os negativos. Essas frequncias, como
#("positivos")
#("populao contaminada")
e
#("negativos")
#("populao contaminada")
so usadas como estimativas para as probabilidades de interesse, o que justicado
pela "Lei dos Grandes Nmeros", discutida na seo 6.
Para as estimativas de "falsos positivos" o exame deve ser feito em um conjunto de
indivduos comprovadamente no contaminados, e como no caso anterior so contabi-
lizados positivos e negativos. Essas propores, como
#("positivos")
#("populao no contaminada")
e
#("negativos")
#("populao no contaminada")
so usadas como estimativas para as probabilidades de interesse, o que tambm jus-
ticado pela "Lei dos Grandes Nmeros".
Os nmeros que representam #("populao contaminada") e
#("populao no contaminada") so dados respectivamente pelas estimativas da po-
pulao do lugar em questo que esto ou no contaminadas. A "Lei dos Grandes
Nmeros" nos dir ento que as probabilidades encontradas com a aplicao do teste,
como por exemplo a de "falsos negativos", se aproximam das reais probabilidades e
quando algum for fazer o teste, olhar para a estimativa e tom-la- como a verdadeira
probabilidade, aquela que se aplica a seu caso.
Vamos pensar na realizao de tais estimativas. Suponha que temos uma populao
de pessoas contaminadas com o vrus da Aids, a qual aplicamos um teste para detectar
o vrus. Ento contabilizamos
#("positivos")
#("populao contaminada")
= 0, 95.
e temos que P(P|D) = 0, 95.
{"populao de doentes do teste"} = {"o resultado positivo e a pessoa est doente"}
{"o resultado negativo e a pessoa est doente"}
{populao de doentes do teste} = {P D} {N D} =
P(P D) +P(N D) = 1
P(P|D)P(D) +P(N|D)P(D) = 1
Como nosso espao amostral formado pelas pessoas que esto doentes,
P(D) = 1.
21
Ento
P(P|D) +P(N|D) = 1.
Portanto, P(N|D) = 0, 05.
Tendo as estimativas de "falsos positivos" e "falsos negativos", isto , tendo P(P|S)
e P(N|D), interessante e til estimar tambm P(S|P) e P(D|N), ou seja, obter as
chances de a pessoa no ter a doena, uma vez que o teste indicou que ela tem ou de
a pessoa ter a doena, sendo que o teste descartou essa hiptese. A segunda dupla de
probabilidades no menos importante do que a primeira e a primeira nada indica
sobre a segunda, dessa maneira, se a primeira dupla for baixa, nada garante que a
segunda tambm ser.
Para tanto, nada mais natural do que usar a Regra de Bayes que nos diz que
P(A|B) =
P(B|A)P(A)
P(B)
=
P(B|A)P(A)
P(B|A)P(A) +P(B|A
c
)P(A
c
)
.
Suponha que no teste de deteco de uma doena hipottica, emumpas hipottico,
temos
P("falso positivo") = P(P|S) = 0, 5
e
P("falso negativo") = P(N|D) = 0, 5.
No parecem estimativas muito ruins.
Tambm conhecida a estimativa de pessoas no pas hipottico que esto contam-
inadas como sendo 0,003.
Queremos P(D|P). sabido atravs de clculos preliminares que
sensibilidade do teste P(P|D) = 0, 95;
P("falso positivo") = P(P|D
c
) = 0, 05.
Pela Regra de Bayes, temos
P(D|P) =
P(P|D)P(D)
P(P|D)P(D) +P(P|D
c
)P(D
c
)
=
0, 95 0, 003
0, 05 0, 997
0, 05.
Assim sendo, somente 5% dos casos o fato de o teste ter dado positivo implica que
a pessoa est infectada e em 95% dos casos, o teste indica que o indivduo est doente
quando na verdade ele no est.
Isso ocorre porque quanto mais rara for uma doena entre uma populao, isto ,
quanto menor for P(D), mens signicado tem o resultado positivo de um teste para
detect-la. Todavia, se a frequncia relativa da doena for alta, maior o signicado de
um resultado positivo em um exame mdico. A prxima tabela d uma boa ideia disso.
P(D) P(D|P)
0,001 0,02
0,003 0,05
0,006 0,10
0,010 0,16
0,100 0,68
0,500 0,95
0,600 0,97
0,900 0,99
22
2.12 Usando Probabilidade Condicional no Jogo do
Carro e dos Bodes
Mudando um pouco a modelagem anterior do problema:
Seja C a porta que esconde o carro. C {1, 2, 3}.
Seja S a porta primeiramente selecionada pelo convidado. S {1, 2, 3}.
Seja H a porta aberta pelo apresentador para revelar um bode. H {1, 2, 3}.
De acordo com a denio de Probabilidade Condicional, se P(S, C) > 0, temos
que
P(H|S, C) =
P(H, S, C)
P(S, C)
.
Equivalentemente
P(H, S, C) = P(H|S, C)P(S, C).
Tambm temos, se P(H, S) > 0, que
P(C|H, S) =
P(C, H, S)
P(H, S)
.
Ento, se P(S) > 0,
P(C|H, S) =
P(C, H, S)
P(H, S)
=
P(H|S, C)P(S, C)
P(H, S)
=
P(H|S, C)P(S, C)
P(H, S)
P(S)
P(S)
=
P(H|S, C)
P(S, C)
P(S)
P(S)
P(H, S)
= P(H|S, C)P(C|S)
1
P(H,S)
P(S)
=
P(H|S, C)P(C|S)
P(H,S)
P(S)
=
P(H|S, C)P(C|S)
P(H|S)
.
Assim, ser til lembrar que
P(C|H, S) =
P(H|S, C)P(C|S)
P(H|S)
.
Explorando mais, temos que
P(H|S) =

c
P(H, C|S) =

c
P(H, C, S)
P(S)
=

c
P(H, C, S)
P(S)
P(C, S)
P(C, S)
=

c
P(H, C, S)
P(C, S)
P(C, S)
P(S)
=

c
P(H|C, S)P(C|S).
Em uma notao um pouco mais "carregada":
23
Dessa maneira, se a porta que esconde o carro for a porta p
c
, a porta escolhida
inicialmente pelo convidado for a p
s
e a porta abrta pelo apresentador para revelar um
bode for a porta p
h
, as representaes anteriores cam como segue:
P(H = p
h
|S = p
s
, C = p
c
) =
P(H = p
h
, S = p
s
, C = p
c
)
P(S = p
s
, C = p
c
)
.
Equivalentemente,
P(H = p
h
, S = p
s
, C = p
c
) = P(H = p
h
|S = p
s
, C = p
c
)P(S = p
s
, C = p
c
).
Tambm temos que
P(C = p
c
|H = p
h
, S = p
s
) =
P(C = p
c
, H = p
h
, S = p
s
)
P(H = p
h
, S = p
s
)
.
Ento,
P(C = p
c
|H = p
h
, S = p
s
) =
P(C = p
c
, H = p
h
, S = p
s
)
P(H = p
h
, S = p
s
)
=
P(H = p
h
|S = p
s
, C = p
c
)P(S = p
s
, C = p
c
)
P(H = p
h
, S = p
s
)
=
P(H = p
h
|S = p
s
, C = p
c
)P(S = p
s
, C = p
c
)
P(H = p
h
, S = p
s
)
P(S = p
s
)
P(S = p
s
)
=
P(H = p
h
|S = p
s
, C = p
c
)
P(S = p
s
, C = p
c
)
P(S = p
s
)
P(S = p
s
)
P(H = p
h
, S = p
s
)
=
P(H = p
h
|S = p
s
, C = p
c
)P(C = p
c
|S = p
s
)
1
P(H=p
h
,S=p
s
)
P(S=p
s
)
=
P(H = p
h
|S = p
s
, C = p
c
)P(C = p
c
|S = p
s
)
P(H=p
h
,S=p
s
)
P(S=p
s
)
=
P(H = p
h
|S = p
s
, C = p
c
)P(C = p
c
|S = p
s
)
P(H = p
h
|S = p
s
)
.
Explorando mais, temos que
P(H = p
h
|S = p
s
) =
m

c=1
P(H = p
h
, C = p
c
|S = p
s
) =
m

c=1
P(H = p
h
, C = p
c
, S = p
s
)
P(S = p
s
)
=
m

c=1
P(Hp
h
=, C = p
c
, S = p
s
)
P(S = p
s
)

P(C = p
c
, S = p
s
)
P(C = p
c
, S = p
s
)
=
m

c=1
P(H = p
h
, C = p
c
, S = p
s
)
P(C = p
c
, S = p
s
)
P(C = p
c
, S = p
s
)
P(S = p
s
)
=
m

c=1
P(H = p
h
|C = p
c
, S = p
s
)P(C = p
c
|S = p
s
).
24
Agora, se voc inicialmente escolhe a porta 1 e o presentador abre a porta 3, qual
a sua melhor escolha? Ser de grande ajuda saber quais so as chances de a porta 2
esconder o carro, dado que voc selecionou a porta 1 e o apresentador abriu a porta 3.
Ento, no caso do jogo do carro e dos bodes, pelo que foi mostrado anteriormente,
temos o seguinte:
P(C = 2|H = 3, S = 1) =
P(H = 3|S = 1, C = 2)P(C = 2|S = 1)
P(H = 3|S = 1)
.
E tambm
P(H = 3|S = 1) = P(H = 3|C = 1, S = 1)P(C = 1|S = 1)+
P(H = 3|C = 2, S = 1)P(C = 2|S = 1) +P(H = 3|C = 2, S = 1)
P(C = 2|S = 1) =
1
2
1
3
+ 1
1
3
+ 0
1
3
=
1
2
.
Portanto,
P(C = 2|H = 3, S = 1) =
2
3
.
25
26
Captulo 3
Contagem e Anlise
Combinatria
3.1 Motivao: O Problema dos Aniversrios
No parece algo to comum duas pessoas que se encontrem no trabalho, na escola, em
uma festa etc fazerem aniversrio no mesmo dia e ms. Se voc encontrar algum que
tenha nascido no mesmo dia e ms que voc, achar o fato inusitado porque talvez no
conhea muitas pessoas com essa caracterstica, se que conhece ao menos uma.
Um ano no bissexto possui 365 dias, ento, considerando um grupo de 2 pessoas,
elas terem nascido em um mesmo dia e ms parece pouco provvel, ao passo que em
um grupo com mais de 365 pessoas, com certeza h indivduos com data de aniversrio
coincidente.
Ento parecer razovel que, quanto mais prxima de 366 estiver a quantidade
de pessoas em um determinado grupo, mais perto de 1 estar a probabilidade de no
mnimo 2 dessas pessoas terem a mesma data de nascimento. Mas, e quando essa
quantidade estiver bem distante de 365, digamos se for de 30, por exemplo, ser que a
probabilidade discutida estar bem prxima de 0? Ao contrrio do que nossa intuio
diz, essa probabilidade ultrapassa 70%.
Este um problema de contagem; a seguir, sero apresentados alguns conceitos
que nos permitiro resolver este e outros problemas do mesmo tipo, o que por vezes
atentar contra nossa intuio.
3.2 Princpio Fundamental da Contagem (PFC) ou
Princpio da Multiplicao
Suponhamos que voc queira realizar uma determinada ao constituda de duas etapas
sucessivas sendo que a primeira delas pode ser realizada de r modos diferentes, cada
modo uma possibilidade de execuo dessa ao. Cada um desses modos pode ser
realizado de s maneiras distintas. Ento, o nmero de possibilidades de se efetuar a
ao completa dado por r s.
Podemos estender o princpio acima para aes contitudas por qualquer quantidade
de etapas sucessivas, 3, 4, 5, . . . , 200, n; sendo que n pode ser to grande quanto voc
queira.
27
Voc deve saber que esse raciocnio pode ser utilizado em situaes em que a or-
dem das etapas importa e h reposio, a ordem das etapas importa e no h reposio,
a ordem das etapas no importa e h reposio, a ordem das etapas no importa e no
h reposio, questionamentos importantes a serem feitos para a resoluo de proble-
mas de contagem. somente necessrio pensar na mudana da quantidade de passos a
serem seguidos para a realizao da ao.
Exemplo 1: Senhas
A senha de um cofre composta por 2 letras seguidas de 5 nmeros. Qual o
nmero mximo de tentativas que voc precisa para conseguir abri-lo?
Note que essa quantidade mxima de tentativas se dar quando voc tiver realizado
todas as possveis combinaes dessas 2 letras seguidas desses 5 nmeros.
Para cada letra temos 26 possibilidades, quantidade total de letras de nosso alfa-
beto. Para cada nmero teremos dez possibilidades, quantidade de nmeros do sistema
decimal.
Esse um problema em que ordem conta e h reposio.
Assim, pelo PFC,
26 26 10 10 10 10 10 = 67.600.000
a quantidade de tentativas que voc far para abrir um cofre com a senha supracitada
se estiver com muito azar.
Exemplo 2: Senhas, Continuao
Agora, suponhamos que voc saiba que a senha mencionada no exemplo anterior
no contem letras nem nmeros repetidos. Assim, se para a primeira letra, o inventor
da senha tinha 26 possibilidades de escolha, para a segunda ele dispunha de 25, pois
j havia usado uma letra do alfabeto e no poderia us-la novamente. O mesmo se deu
com os nmeros, no primeiro, havia 10 possibilidades, pois ainda no havia sido usado
nenhum nmero; no segundo, 9, porque 1 nmero hvia sido usado antes; no terceiro 8,
uma vez que 2 nmeros haviam sido escolhidos anteriormente e assim por diante.
Esse um problema em que ordem conta e no h reposio.
Ento, pelo PFC,
26 25 10 9 8 7 6 = 19.656.000
a quantidade de tentativas que voc far para abrir esse cofre se estiver com muito
azar.
Exemplo 3: Arranjos de Objetos
Murilo tem n
1
CDs de msica pop, n
2
CDs de Rock e n
3
CDs de msica ser-
taneja. De quantas modos ele pode arranj-los sem que os gneros se misturem?
Esse um problema em que ordem conta e no h reposio.
Pop Rock Sertaneja
Considerando os gneros como 3 blocos separados, pode-se rearranj-los de 3!
maneiras distintas. Tambm pode-se rearranjar os CDs de cada gnero de n
1
!, n
2
! e
28
n
3
! jeitos diferentes, respectivamente. Assim, Murilo tem
3! n
1
! n
2
! n
3
!
modos de arranjar seus CDs sem misturar os gneros.
Exemplo 4: Quantidade de Subconjuntos de um Conjunto
Considere um conjunto de n elementos. Quantos subconjuntos podemos formar
com os elementos desse conjunto, incluindo o prprio conjunto e o conjunto vazio?
Esse um problema em que ordem conta e no h reposio.
Podemos visualizar a composio de um determinado subconjunto como um pro-
cesso sequencial em que olhamos para cada elemento de conjunto e decidimos se este
ser ou no includo no subconjunto.
2

olhando o 1 elemento do conjunto


2

olhando o 2 elemento do conjunto


2

olhando o n-simo elemento do conjunto



escolhendo os elementos do subconjunto
= 2
n
subconjuntos.
3.3 Fatorial de um Nmero Natural
Dado qualquer nmero n, n N, denimos seu fatorial (indicado por n!) atravs das
relaes:
I. n! = n (n 1) (n 2) 3 2 1 para n 2;
II. Se n = 1, 1! = 1;
II. Se n = 0, 0! = 1.
Perceba que, em I, o fatorial de n equivale ao produto dos n primeiros naturais,
escrito em ordem decrescente.
Assim,
i) 5! = 5 4 3 2 1 = 5 4!
ii) 11! = 11 10 9 3 2 1 = 11 10!
Portanto, temos em I a seguinte relao de recorrncia:
n! = n (n 1)!, n N e n 2
3.4 Agrupamentos
Qualquer problema de contagem pode ser resolvido pelo princpio fundamental da con-
tagem. Entretanto, na prtica, a resoluo de determinados problemas de contagem
usando unicamente o PFC pode ser muito extensa e at mesmo invivel.
Por isso existem determinadas tcnicas de contagem de agrupamentos especcos
que simplicam bastante a resoluo de muitos problemas. Recomenda-se, aps o
seu aprendizado, no as decorar para posterior uso indiscriminado, o que acarretaria a
perda da intuio do signicado dos problemas de contagem em si.
3.4.1 Arranjos
Sempre que tivermos um conjunto com n elementos distintos, podemos compor se-
quncias ordenadas de subconjuntos desse conjunto com quantidades de k elementos,
29
sendo que k varia de 1 a n, tais sequncias so denominadas arranjos. Quando falamos
em arranjo, a ordem dos elementos tomados em cada subconjunto importa, ou seja,
se voc tem o conjunto de elementos {E
1
, E
2
, . . . , E
n
}, ento ser diferente tomar
(E
1
, E
3
) e (E
3
, E
1
).
Tomemos o conjunto {A
1
, A
2
, . . . , A
n
}, onde os A
i
, 1 i n so elementos
distinguveis entre si. Estamos interessados em encontrar uma maneira de calcular o
nmero de arranjos desses n elementos quando eles so tomados k a k, o que se indica
por A
n,k
.
Formar um arranjo dos n elementos pegos em subconjuntos de k elementos sig-
nica formar uma sequncia ordenada de k elementos distintos (claramente k n),
escolhidos dentre os n elementos disponveis.
A ao de pegar cada subconjunto de k elementos consta de k etapas (pegar o 1
elemento do subconjunto, depois pegar o 2, . . . , o k 1-simo elemento e nalmente
o k-simo elemento, que ser o ltimo a ser tomado).
1 etapa: h n elementos a serem escolhidos;
2 etapa: como os elementos devem ser distintos, h n - 1 possibilidades;
3 etapa: os elementos sendo distintos, h n - 2 possibilidades;
. . .
k etapa: como os elementos devem ser distintos, h n (k 1) possibilidades.
Logo, pelo PFC, o nmero total de arranjos dos n elementos tomados k a k
A
n,k
= n (n 1) (n 2) (n k + 2) (n k + 1)
A
n,k

(n k)!
(n k)!
= n (n 1) (n 2) (n k + 2) (n k + 1)
(n k)!
(n k)!
= n (n 1) (n 2) (n k + 2) (n k + 1)
(n k) (n k 1) (n k 2) 2 1
(n k) (n k 1) (n k 2) 2 1
.
Isto ,
A
n,k
=
n!
(n k)!
n k.
Exemplo: Senhas (FGV - modicada)
Suponha que uma senha utilizada numa rede de computadores seja constituda de
5 letras escolhidas entre as 26 do alfabeto latino, sendo permitida a repetio dessas
letras. Quantas senhas diferentes podem ser constitudas?
Esse um problema em que ordem conta e h reposio.
Temos 5 arranjos idnticos em que n = 26 e k = 1.
A
26,1
A
26,1
A
26,1
A
26,1
A
26,1
= (A
26,1
)
5
=
_
26!
(261)!
_
5
=
_
26!
25!
_
5
=
_
2625!
25!
_
5
= 26
5
.
30
3.4.2 Permutaes
Dado um conjunto com n elementos distintos, denominamos permutao dos n ele-
mentos a todo arranjo desses n elementos tomados n a n.
A quantidade total de permutaes de n elementos, indicado por P
n
dada por
P
n
= A
n,n
=
n!
(n n)!
=
n!
0!
= n!
Exemplo: Pessoas em um Fusca
De quantos modos distintos podemos 5 pessoas podem ser colocadas em um fusca?
Esse um problema em que ordem conta e no h reposio.
A primeira pessoa a entrar no automvel pode escolher dentre 5 lugares, aquele
em que ela vai se sentar. Uma vez que ela se acomodou, a segunda escolher dentre 4
lugares, depois a terceira ter 3 escolhas, a quarta ter 2 e a ltima apenas 1.
Assim, a quantidade de possibilidades dada por uma permutao dessas 5 pessoas,
P
5
= 5 4 3 2 1 = 5! = 120,
as possibilidades para 5 pessoas serem acomodadas em um fusca.
3.4.3 Permutaes com Elementos Repetidos
Considere a palavra MALA, de 4 letras. Ao listarmos seus anagramas, encontramos
apenas 12, diferentemente de ILHA, que tambm possui 4 letras, mas podemos encon-
trar 24 anagamas.
Essa diminuio deve-se ao fato de que a letra A aparece 2 vezes. De fato, se
mantivermos xas as posies de M e L, e permutarmos as letras A que aparecem,
continuaremos com o mesmo anagrama.
MA
1
LA
2
MA
2
LA
1
.
Vamos descobrir como contar a quantidade de permutaes quando temos elemen-
tos repetidos no conjunto considerado.
Caso i: Apenas um elemento se repete
Tome a palavra PARABA.
Escolhamos inicialmente as posies que as letras P, R, I e B podem ocupar no
anagrama. Trata-se de escolher 4 dentre 7 lacunas (temos 7 letras ao todo). Isso pode
ser feito de C
7,4
= 35 maneiras. Um exemplo de escolha de lugares,
P R BI.
(Nos espaos vazios deveriam gurar as letras A)
Para a escolha anterior (2, 4, 6 e 7 lugares), as letras P, R, B e I podem ser
permutadas entre si num total de P
4
= 4! = 24 maneiras.
Os raciocnios anteriores sugerem que o nmero de anagramas que podem ser for-
mados dado por
C
7,4
P
4
=
7!
4! 3!
4! =
7!
3!
,
31
sendo que 7 a quantidade de letras e 3 o nmero de vezes que a letra A aparece.
Caso ii:
Vamos considerar os anagramas obtidos a partir das permutaes da palavra PAS-
SARELA.
Note que, ao todo, so 9 letras sendo que a letra A aparece 3 vezes e a S aparece
duas vezes. Primeiramente escolhamos as posies que as letras distintas de A podem
ocupar em um anagrama, esquecendo o fato de que a letra S se repete. H C
9,6
possi-
bilidades, porque devemos ocupar 6 posies dentre 9, sendo que a ordem importa.
Por exemplo,
LS E P S R.
Para essa opo de lugares (1, 2, 4, 5, 7 e 9), podemos permutar as letras L,
S, E, P, S e R entre si. Pelo Caso i, o nmero de possibilidades P
2
6
=
6!
2!
= 360, pois
temos 6 letras dentre as quais 2 so iguais a S.
Logo, o raciocnio seguido mostra que o nmero de permutaes possveis dado
por
C
9,6
P
6
2
=
9!
6! 3!

6!
2!
=
9!
3! 2!
,
onde 9 a quantidade total de letras, 2 a quantidade de letras S e 3 a quantidade de letras A.
Esse nmero ser indicado por P
(3,2)
9
.
Generalizando:
Se tivermos n elementos dentre os quais n
1
so iguais ao elemento genrico a
1
, n
2
so iguais ao a
2
, . . . , n
r
so iguais ao a
r
, ento o nmero de permutaes possveis
ser dado por
P
n
1
,n
2
,...,n
r
n
=
n!
n
1
! n
2
! n
r
!
.
Exemplo: Anagramas
Qual a quantidade de anagramas da palavra computao?
Esse um problema em que ordem conta para letras distintas e no h reposio.
Note que a letra a aparece 2 vezes e a letra o tambm aparece 2 vezes. Assim, como
a palavra tem 10 letras, a quantidade total de anagramas possveis com suas letras ser
P
2,2
10
=
10!
2! 2!
=
10!
4
.
3.4.4 Combinaes
Dado um conjunto C com n elementos distintos, denomina-se Combinao dos n ele-
mentos de C tomados k a k, a qualquer subconjunto de C formado pelos k elementos.
Quando falamos em combinao, a ordem dos elementos tomados em cada subcon-
junto no importa, ou seja, se voc tem o conjunto de elementos {E
1
, E
2
, . . . , E
n
},
ento ser indiferente tomar (E
1
, E
3
) ou (E
3
, E
1
).
32
Qualquer permutao de uma determinada sequncia ordenada origina uma nica
combinao. Assim, o nmero de combinaes de n elementos distintos, tomados k a
k, que indicamos por C
n,k
dado por
C
n,k
=
A
n,k
P
k
=
n!
k! (n k)!
.
Exemplo 1: Bingo (U.F. Pelotas-RS)
Uma associao, para realizar um bingo benecente, solicitou a confeco de uma
srie completa de cartelas com 10 nmeros cada uma, sem repetio, sendo utilizados
nmeros de 1 a 15. Calcule quantas cartelas foram confeccionadas.
Observao: Uma cartela difere da outra apenas pelos nmeros que nela constam.
Esse um problema em que ordem no conta e no h reposio.
Perceba que pedida a quantidade de combinaes possveis de 15 nmeros toma-
dos 10 a 10,
C
15,10
=
15!
10! 5!
= 3003.
Exemplo 2: Loteria
Quais so suas chances de ganhar em um jogo da loteria em que lhe permitido
escolher 10 nmeros dentre 100 de um painel, so sorteados com igual probabilidade
10 nmeros desse painel e o prmio seu se voc tiver acertado todos os 10?
Esse um problema em que ordem no conta e no h reposio.
O total de possveis resultados de um sorteio dado por
C
100,10
=
100!
10! 90!
.
Ento, se voc compra somente 1 bilhete suas chances de ganhar so dadas por
P("Ganhar o Jogo") =
1
C
100,10
=
10! 90!
100!
.
3.5 Parties
Temos n objetos e queremos combin-los em r, r n grupos de n
1
, n
2
, . . . , n
r
objetos.
De quantas formas isso pode ser feito?
Pelo princpio fundamental da contagem, essa quantidade dada por
C
n,n
1
C
nn
1
,n
2
C
nn
1
n
2
,n
3
C
nn
1
n
2
n
r1
,n
r
=
n!
n
1
!(nn
1
)!

(nn
1
)!
n
2
!(nn
1
n
2
)!

(nn
1
n
2
n
r1
)!
n
r
!(nn
1
n
2
n
r1
n
r
)
=
n!
n
1
!n
2
!...n
r
!
.
Exemplo: Recheando Ovos de Pscoa
33
12 bombons com recheio de nozes e 4 bombons licorosos sero divididos de manei-
ra aleatria em grupos de 4 para serem colocados dentro de ovos de Pscoa. Qual a
probabilidade de que cada ovo contenha apenas 1 bombom licoroso?
Esse um problema em que ordem no conta e no h reposio.
Usemos o smbolo # para representar quantidades.
Denamos L como sendo o evento em que os 16 ovos de Pscoa tm somente 1
bombom licoroso em seu interior.
A probabilidade procurada dada por
P(L) =
#(combinaes em que L ocorre)
#(total de combinaes)
.
Perceba que o processo de colocar os bombons dentro do ovo sequencial, pode-
mos primeiramente colocar 1 bombom licoroso e depois os 3 de nozes, no importando
a ordem.
#(combinaes em que L ocorre) = #(combinaes com 1 bombom licoroso cada)
#(combinaes com 3 bombons de nozes).
Tomando os 4 bombons licorosos e os distribuindo dentre os 4 ovos, 1 para cada,
h 4 escolhas para o 1 ovo, 3 para o 2, 2 para o 3 e somente 1 para o ltimo.
#(combinaes com 1 bombom licoroso cada) = 4!
Tomando os 12 bombons de nozes e os distribuindo dentre os 4 ovos, temos, usando
partio, que
#(combinaes com 1 bombom licoroso cada) =
12!
3!3!3!3!
.
Ento,
#(combinaes em que L ocorre) =
4!12!
3!3!3!3!
.
Tambm usando partio,
#(total de combinaes) =
16!
4!4!4!4!
.
Assim,
P(L) =
4!12!
3!3!3!3!
16!
4!4!4!4!
=
4!12!4
2
15!
.
3.6 Resolvendo o Problema dos Aniversrios
Primeiramente devemos construir o espao amostral no qual se insere o problema dos
aniversrios.
H n pessoas em um local qualquer, uma festa, um campo de futebol etc, vamos
considerar que nenhuma delas nasceu em um ano bissexto, para no complicar nosso
raciocnio. Como j havia sido comentado, se n 366, ento h, com total certeza,
datas de aniversrio coincidentes. Por isso, vamos considerar n 365.
34
Imagine que cada uma dessas pessoas est usando uma camiseta com um nmero
inteiro i diferente estampado, 1 i n.
Vamos pesquisar agora as datas de aniversrio de cada um dos presentes e montar
uma lista com os dados colhidos. Para representar essa lista ser usada a n-upla
(d
1
, d
2
, d
3
, . . . , d
i
, . . . , d
n1
, d
n
)
onde d
1
a data de nascimento composta de dia e ms da primeira pessoa perguntada,
d
2
a data de nascimento da segunda pessoa perguntada, . . . , d
i
refere-se i-sima
pessoa, . . . , d
n1
refere-se n 1-sima pessoa e, nalmente, d
n
refere-se n-sima
pessoa.
Repare que, para nossa pesquisa, indiferente perguntar primeiramente a data de
aniversrio de Andr e depois a de Mariana ou vice-versa, isto , este um problema
em que a ordem dos dados no importa, no conta.
Reunindo todas as possibilidades para essa lista (n-uplas), ou seja, todas as combi-
naes possveis das 365 duplas dia-ms contidas em um ano tomadas n a n, ou ainda,
em outras palavras, cada possvel grupo de n datas dentre 365, temos o espao amostral
de nosso problema.
Para simplicar a modelagem ser usada a posio que cada data ocupa no ano em
vez da dupla "dia-ano". Assim, o dia 1 de fevereiro ser representado pelo nmero
32 em vez de "1-fevereiro", uma vez que se trata o 32 dia do ano, j o dia 15 de abril
ser representado pelo nmero 105 em vez de "15-abril", pois esse o 105 dia do ano.
Lembre-se que est sendo considerado um ano no-bissexto.
=
_
_
25
..
pessoa 1
, 5
..
pessoa 2
, . . . , 67
..
pessoa i
, . . . , 298
..
pessoa n 1
, 365
..
pessoa n
_
;
.
.
.
.
.
.
_
1
..
pessoa 1
, 56
..
pessoa 2
, . . . , 288
..
pessoa i
, . . . , 97
..
pessoa n 1
, 12
..
pessoa n
_
;
.
.
.
.
.
.
_
18
..
pessoa 1
, 333
..
pessoa 2
, . . . , 25
..
pessoa i
, . . . , 99
..
pessoa n 1
, 101
..
pessoa n
_
_
.
Uma dvida que surge: Quantos so os eventos presentes no espao amostral an-
terior?
Cada evento dado por uma n-upla. Note que no h restries quanto data de
aniversrio de nenhuma pessoa, cada indivduo pode aniversariar em qualquer dia do
ano, independentemente de um outro presente fazer aniversrio em qualquer outro dia,
isto , estamos tratando de um evento com reposio. Assim sendo, a quantidade de
n-uplas possveis ser dada por:
n() = 365
..
pessoa 1
365
..
pessoa 2
365
..
pessoa i
365
..
pessoa n 1
365
..
pessoa n
. .
n pessoas
= 365
n
.
Note que foi usado o Princpio Fundamental da Contagem.
35
Como no h fato algumque torne uma certa data de nascimento mais provvel para
algum, qualquer pessoa pode ter nascido em qualquer dia; to provvel que Jos, a
quem voc acabou de perguntar o dia de aniversrio, responda 1 de abril quanto 25 de
outubro quanto qualquer outro dia, temos ento que
P("Ocorrer determinada lista") =
1
365
n
.
Denotemos por A o evento "dentre n pessoas, pelo menos 2 fazerem aniversrio
em um mesmo dia do ano".
Ento queremos saber a quantidade de listas, dentre todas as possveis de , que
contm duas ou mais datas repetidas, isto , n(A), pois sabemos que
P(A) =
n(A)
n()
.
Sabemos que as listas contidas em A so aquelas em que a data d
i
, 1 d
i
365,
aparece 2, 3, . . . , n 1 ou n vezes. Aparentemente esse um conjunto grande o
suciente para que o trabalho de contar seus elementos seja dispendioso.
A =
_
_
25
..
pessoa 1
, 25
..
pessoa 2
, . . . , 67
..
pessoa i
, . . . , 298
..
pessoa n 1
, 25
..
pessoa n
_
;
.
.
.
.
.
.
_
1
..
pessoa 1
, 56
..
pessoa 2
, . . . , 288
..
pessoa i
, . . . , 97
..
pessoa n 1
, 56
..
pessoa n
_
;
.
.
.
.
.
.
_
333
..
pessoa 1
, 333
..
pessoa 2
, . . . , 25
..
pessoa i
, . . . , 333
..
pessoa n 1
, 333
..
pessoa n
_
_
.
Podemos facilitar bastante essa tarefa pensando no conjunto complementar de A,
denotado por A
c
e composto por todas as listas em que no h 2 ou mais datas de
aniversrio coincidentes. Sempre temos a seguinte relao
{A} {A
c
} =
P(A) +P(A
c
) = P()
P(A) = 1 P(A
c
).
Vamos calcular quantos so os eventos (listas) em A
c
.
Se emn pessoas, cada uma faz aniversrio emumdia, a primeira a quemindagamos
pode responder qualquer data. A segunda pessoa pode dizer qualquer um dos 365 dias,
menos aquele que a primeira respondeu; a terceira ter dar como resposta 365 - 2 dias;
a quarta, 365 - 3; . . . ; e assim por diante.
Logo, pelo Princpio Fundamental da Contagem (Princpio Multiplicativo) temos
n(A
c
) = (365 0)
. .
pessoa 1
(365 1)
. .
pessoa 2
(365 2)
. .
pessoa 3
(365 (i 1))
. .
pessoa i

36
(365 (n 2))
. .
pessoa n 1
(365 (n 1))
. .
pessoa n
= 365 364 363 (365 (n 1)) =
[365 364 363 (365 (n 1))]
(365 (n 1) 1)!
(365 (n 1) 1)!
=
365!
(365 n)!
.
Assim, a probabilidade do evento complementar ao evento "dentre n pessoas, pelo
menos 2 fazerem aniversrio no mesmo dia do ano" dada pela expresso
P(A
c
) =
n(A
c
)
n()
=
365!
(365n)!
365
n
=
365!
365
n
(365 n)!
.
Ento, para qualquer n 365 poderemos calcular a probabilidade de pelo menos 2
pessoas dentre n fazerem aniversrio na mesma data para qualquer n (j foi explicado
anteriormente que interessante que n seja estritamente menor do que 365) usando a
seguinte frmula deduzida acima.
Portanto, a probabilidade do evento "dentre n pessoas, pelo menos 2 fazerem ani-
versrio no mesmo dia do ano" dada pela expresso
P(A) = 1
365!
365
n
(365 n)!
Calculemos a seguir essa probabilidade para alguns valores de n.
Se h 2 pessoas em um local, esperamos que a probabilidade de essas 2 pessoas
aniversariarem em uma mesma data seja pequena. De fato, isso ocorre:
P(A) = 1
365!
365
2
(365 2)!
= 0, 002740 0, 27%.
Se h 23 pessoas em um ambiente qualquer, ento nossa intuio nos diz que
pouco provvel que pelo menos duas pessoas ali tenham nascido na mesma data, anal
de contas, existem 365 dias no ano. Todavia, nesse caso, o senso comum engana-nos:
P(A) = 1
365!
365
23
(365 23)!
= 0, 507297 50, 73%.
Com 30 pessoas ocorre o seguinte:
P(A) = 1
365!
365
30
(365 30)!
= 0, 706316 70, 63%.
E com 41, o evento de interesse bastante provvel, por mais estranho que isso
possa parecer para ns:
P(A) = 1
365!
365
41
(365 41)!
= 0, 903152 90, 31%.
Mas o mais surpreendente se temos um conjunto de 60 pessoas, nosso senso nos
diria que 60 um nmero no to distante de 365, mas no muito prximo tambm,
de maneira que no deveria ser uma probabilidade quase nula, mas tambm no seria
esperado que fosse maior do que 0.5; talvez 0.1 ou 0.2 fosse uma probabilidade mais
aceitvel pelo senso comum. Obviamente que conhecendo o resultado anterior, da
probabilidade do evento de interesse para n = 41, voc j espera que as chances de
37
duas pessoas dentre 60 seja maior do que 0,903152. Entretanto, desconhecendo esse
fato, o resultado a seguir inusitado:
P(A) = 1
365!
365
60
(365 60)!
= 0, 994123 99, 41%.
A tabela seguinte mostra, em sua primeira coluna, a probabilidade de, dentre n
pessoas, todas elas terem nascido em dias diferentes do ano, evento A e, na segunda
coluna, a probabilidade de, tambm dentre n pessoas, pelo menos duas terem nascido
no mesmo dia do ano, evento A
c
; 2 n 90.
38
n P(A
c
) P(A)
1 1,000000 0,000000
2 0,997260 0,002740
3 0,991796 0,008204
4 0,983644 0,016356
5 0,972864 0,027136
6 0,959538 0,040462
7 0,943764 0,056236
8 0,925665 0,074335
9 0,905396 0,094624
10 0,883052 0,116948
11 0,858859 0,141141
12 0,832975 0,167025
13 0,805590 0,194410
14 0,776897 0,223103
15 0,747099 0,252901
16 0,716396 0,283602
17 0,684992 0,315008
18 0,653089 0,346911
19 0,620881 0,379119
20 0,588562 0,411438
21 0,556312 0,443688
22 0,524305 0,475695
23 0,492703 0,507297
24 0,461656 0,538344
25 0,431300 0,568700
26 0,401759 0,598241
27 0,373141 0,626859
28 0,345539 0,654462
29 0,319031 0,680969
30 0,293684 0,706316
31 0,269545 0,730455
32 0,246652 0,753348
33 0,225028 0,774972
34 0,204683 0,795317
35 0,185617 0,185617
36 0,167818 0,832182
37 0,151266 0,848734
38 0,135932 0,864068
39 0,121780 0,878220
40 0,108768 0,891232
41 0,096848 0,903152
39
n P(A
c
) P(A)
42 0,085970 0,914031
43 0,076077 0,923923
44 0,067115 0,932885
45 0,059024 0,940976
46 0,051747 0,948253
47 0,045226 0,954774
48 0,039402 0,960598
49 0,034220 0,965780
50 0,029626 0,970374
51 0,025568 0,974432
52 0,021995 0,978005
53 0,018862 0,981138
54 0,016123 0,983877
55 0,013738 0,986262
56 0,011668 0,988332
57 0,009878 0,990123
58 0,008335 0,991665
59 0,007011 0,992989
60 0,005877 0,994123
61 0,004911 0,995089
62 0,004090 0,995910
63 0,003396 0,996604
64 0,002810 0,997191
65 0,002317 0,997683
66 0,001904 0,998096
67 0,001560 0,998440
68 0,001274 0,998726
69 0,001036 0,998964
70 0,000840 0,999160
71 0,000679 0,999321
72 0,000547 0,999453
73 0,000439 0,999561
74 0,000351 0,999649
75 0,000280 0,999720
76 0,000223 0,999777
77 0,000176 0,999824
78 0,000139 0,999861
79 0,000109 0,999891
80 0,000086 0,999914
81 0,000067 0,999933
82 0,000052 0,999948
83 0,000040 0,999960
84 0,000031 0,999969
40
n P(A
c
) P(A)
85 0,000024 0,999976
86 0,000018 0,999982
87 0,000014 0,999986
88 0,000011 0,999989
89 0,000008 0,999992
90 0,000006 0,999994
41
42
Captulo 4
Independncia de Eventos
4.1 Motivao: O Macaco ao Computador
1
Macaco um macaco extremamente incomum pois muito bem comportado, nunca
faz "macaquices", foi treinado para cumprir algumas tarefas simples por tempo inde-
terminado e, sempre que ordenado, se pe a realiz-las at que lhe seja dada permisso
para parar.
Peguemos Macaco, coloquemo-lo em frente a um computador, e o ensinemos a
premir com os dedos suas teclas, maneira como ns humanos digitamos palavras
quaisquer. Ento ele dever permanecer apertando as teclas at que lhe seja dada a
ordem de parada.
Macaco no alfabetizado, assim sendo, nunca leu um livro sequer, o que nos leva
a pensar que ele teclar as letras ao acaso (a palavra probabilstica "aleatoriamente"
a mais adequada para descrever o modo como ele digitar), ou seja, sempre que sair al-
guma palavra que pertena a algum idioma, ter sido sem inteno alguma da criatura.
Se ele for deixado digitando indenidamente durante cinco anos, voc esperar
encontrar na tela desse computador, aps esse perodo, uma enorme sequncia de ca-
racteres sem sentido algum, com uma ou outra palavrinha conhecida por voc, mas que
saiu por pura sorte.
Se voc deix-lo digitando dez, vinte, cem anos seguidos, ainda assim, esperar en-
contrar no computador aps todo esse tempo uma longussima sequncia de caracteres
ininteligveis, todavia, parece razovel,dentre tantas combinaes de letras, a existncia
de certa quantidade bem pequena de palavras conhecidas .
O detalhe mais importante na histria que no ser dada ordem de parada a
Macaco, isto , Macaco car digitando eternamente, o que torna necessria tambm a
suposio de que ele imortal, tem toda a eternidade pela frente e a usar para teclar
inndamente (outro detalhe que tambm devemos supor que o computador no de-
preciado pelo uso). Como ele analfabeto, nossa intuio nos dir que isso de nada
adianta, na tela do computador diante de Macaco nada que tenha algum proveito sur-
gir.
Mas, aps os conceitos de Probabilidade apresentados a seguir, voc poder ser
convencido com 100 % de certeza de que, em algum momento, Macaco ter digitado
o romance brasileiro Dom Casmurro, de Machado de Assis, a obra inglesa Romeu e
1
Originalmente tnhamos uma mquina de escrever em lugar do computador. A autoria no totalmente
conrmada, s vezes devida ao matemtico Thomas Huxley, outras a mile Borel.
43
Julieta, de Shakespeare, "Os Miserveis", de Victor Hugo e outros grandes clssicos da
literatura mundial.
4.2 Ideia Intuitiva da Independncia de Eventos
O assunto da independncia de eventos foi ligeiramente mencionado anteriormente.
Vamos aprofund-lo agora.
Em nosso dia-a-dia, ao ouvirmos falar que uma situao A independente de outra
situao B, conseguimos claramente discernir que, nesse caso, a ocorrncia de A no
inuencia a ocorrncia de B. Veremos a seguir como a noo da independncia de
eventos pode ser modelada e transmitida ao clculo de probabilidades.
Ao atirar uma moeda pela primeira vez, a sada do resultado cara no inuenciar o
resultado do prximo lanamento, uma vez que sair cara ou coroa, independentemente
do que saiu no ltimo lanamento. Isso vale tanto para uma moeda honesta quanto para
uma desonesta.
Ao rolar um dado pela n-sima vez, a sada de qualquer uma de suas 6 faces no
inuenciar a sada de uma face especca da prxima vez que o dado for rolado.
Consequentemente, saber qual face saiu da n-sima vez em que o dado foi jogado em
nada contribui para tentar prever o n+1-simo lanamento. Isso tambm vale para um
dado viciado.
Agora, pense no experimento de retirar ao acaso uma bola de dentro de uma urna
com bolas numeradas de 1 a n. Se aps a retirada de qualquer bola, essa mesma
bola for reposta na urna, ento toda futura retirada ser aparentemente independente
de qualquer retirada anterior, saber o nmero da bola retirada anteriormente no ajuda
na previso da prxima a ser retirada, pode ser qualquer uma, inclusive a ltima a ter
sado. Entretanto, se no houver reposio e voc tirar a bola nmero i, 1 i n,
ento, na prxima retirada voc ter certeza de que a bola a sair no ser a nmero i,
assim, a prxima retirada sofrer a inuncia da retirada anterior, o que intuitivamente
nos diz que essa dependente daquela.
Mas como expressar isso no mundo das probabilidades? Como ter certeza de
que dois eventos so independentes? Como essa noo de independncia pode ser
traduzida para o mundo das probabilidades?
4.3 O Conceito de Independncia no Clculo de
Probabilidades
Analisemos dois eventos quaisquer, X
1
e X
2
, e veriquemos as implicaes de X
2
ser
independente de X
1
.
Foi visto anteriormente que, se P(X
1
) > 0, temos:
(4.1) P(X
2
|X
1
) =
P(X
1
, X
2
)
P(X
1
)
.
para todo par de eventos X
1
e X
2
.
direta e natural a concluso de que se a ocorrncia do evento X
1
no inuenciar
a ocorrncia do evento X
2
, ento as chances de ocorrncia do evento X
2
, dado que
X
1
tenha ocorrido, sero as mesmas de quando for desconhecida a ocorrncia de X
1
.
Matematicamente, temos:
(4.2) P(X
2
|X
1
) = P(X
2
).
44
Fazendo (4.2) em (4.1), temos:
(4.3) P(X
2
) =
P(X
1
, X
2
)
P(X
1
)

(4.4) P(X
2
) P(X
1
) =
P(X
1
, X
2
)
P(X
1
)
P(X
1
)

(4.5) P(X
1
, X
2
) = P(X
1
) P(X
2
).
Mas se (4.5) for vericada, note que
(4.6) P(X
1
) P(X
2
) = P(X
2
) P(X
1
) = P(X
1
, X
2
) = P(X
2
, X
1
).
Concluindo:
A independncia de dois eventos A e B equivalente condio
(4.7) P(B|A) = P(B).
Se dois eventos A e B so independentes, ento
(4.8) P(A, B) = P(A) P(B).
Dois eventos que no satisfazem a regra do produto, so ditos dependentes.
Se o evento B for independente do evento A, ento o evento A ser independente
do evento B, concluso de (4.6).
Dessa maneira temos uma forma de avaliar se dois eventos no so independentes,
mas e quando quisermos saber se trs eventos no so independentes entre si?
Primeiramente, vejamos atravs do uso da frmula da probabilidade condicional,
outro modo de expressar a probabilidade de interseco entre trs eventos X
1
, X
2
e X
3
quaisquer.
(4.9)
P(X
1
, X
2
, X
3
) = P(X
3
|X
1
, X
2
) P(X
1
, X
2
) = P(X
3
|X
1
, X
2
) P(X
2
|X
1
) P(X
1
).
direta e natural a concluso de que se a ocorrncia dos eventos X
1
e X
2
no inu-
enciar a ocorrncia do evento X
3
, ento as chances de ocorrncia do evento X
3
, dado
que X
1
e X
2
tenham ocorrido, sero as mesmas de quando forem desconhecidas as
ocorrncias de X
1
e X
2
. Matematicamente, temos
(4.10) P(X
3
|X
2
, X
1
) = P(X
3
).
Ainda, para que X
1
,X
2
e X
3
sejam independentes entre si, tambm devemos ter
(4.11) P(X
2
|X
1
) = P(X
2
),
(4.12) P(X
3
|X
2
) = P(X
3
)
45
e
(4.13) P(X
3
|X
1
) = P(X
3
).
Fazendo (4.10) e (4.11) em (4.9), temos:
(4.14) P(X
1
, X
2
, X
3
) = P(X
1
) P(X
2
) P(X
3
).
Concluindo:
A independncia conjunta de trs eventos A, B e C equivalente s condies
(4.15) P(C|A, B) = P(C),
(4.16) P(B|A) = P(B),
(4.17) P(C|A) = P(C)
e
(4.18) P(C|B) = P(C).
Se trs eventos A, B e C so independentes conjuntamente, ento
(4.19) P(A, B, C) = P(A) P(B) P(C),
(4.20) P(A, B) = P(A) P(B),
(4.21) P(A, C) = P(A) P(C)
e
(4.22) P(B, C) = P(B) P(C).
Podemos estender as noes anteriores para tantos eventos quanto queiramos.
Generalizando: Independncia Conjunta de n Eventos
A independncia conjunta de n eventos X
1
, X
2
, . . . , X
n
equivalente condio
(4.23) P(X

i
|X

1
, X

2
, . . . , X

i1
) = P(X

i
)

1
,
2
, . . . ,
i1
,
i
[1, n].
Se os eventos X
1
,X
2
, . . . ,X
n
so independentes conjuntamente, ento
(4.24)
P(X

1
, X

2
, . . . , X

i1
, X

i
) = P(X

1
) P(X

2
) P(X

i1
) P(X

i
)

1
,
2
, . . . ,
i1
,
i
[1, n].
46
4.4 Independncia Condicional
Aps termos visto o que ocorre com eventos independentes, natural nos indagarmos
sobre os eventos dependentes.
A independncia condicional equivalente condio
(4.25) P(X
2
|X
1
A) = P(X
2
|A).
Se dois eventos X
1
e X
2
so condicionalmente independentes ento
(4.26) P(X
1
, X
2
, A) = P(X
1
, A) P(X
2
, A).
Generalizando: Independncia Condicional Conjunta de n Eventos
A independncia conjunta de n eventos X
1
, X
2
, . . . , X
n
equivalente condio
(4.27) P(X

i
|X

1
, X

2
, . . . , X

i1
, A) = P(X

i
|A)

1
,
2
, . . . ,
i1
,
i
[1, n].
Se os eventos X
1
,X
2
, . . . ,X
n
so independentes conjuntamente, ento
(4.28)
P(X

1
, X

2
, . . . , X

i1
, X

i
, A) = P(X

1
, A) P(X

i1
, A) P(X

i
, A)

1
,
2
, . . . ,
i1
,
i
[1, n].
Exemplo: Dado
Lancemos um dado honesto duas vezes. Sejam:
P
2
o evento em que o 1 dado mostra a face 2;
S
5
o evento em que o 2 dado mostra a face 5;
M
2
o evento em que o menor resultado dentre os dois lanamentos 2;
M
5
o evento em que o maior resultado dentre os dois lanamentos 5;
T o evento em que um lanamento apresenta resultado menor do que 3 e outro
apresenta resultado maior do que 3.
Note que nos eventos supracitados a ordem importa e h reposio.
pedido:
i) Mostrar que P
2
e S
5
so independentes;
ii) Mostrar que M
2
e M
5
no so independentes;
iii) Mostrar que M
2
e M
5
so independentes dado T.
Primeiramente visualizemos os eventos.
{P
2
} = {(2, 1); (2, 2); (2, 3); (2, 4); (2, 5); (2, 6)}
P(P
2
) =
6
36
=
1
6
47
{S
5
} = {(1, 5); (2, 5); (3, 5); (4, 5); (5, 5); (6, 5)}
P(S
5
) =
6
36
=
1
6
{M
2
} = {(2, 3); (2, 4); (2, 5); (2, 6); (3, 2); (4, 2); (5, 2); (6, 2); (2, 2)}
P(M
2
) =
9
36
{M
5
} = {(5, 1); (5, 2); (5, 3); (5, 4); (1, 5); (2, 5); (3, 5); (4, 5); (5, 5)}
P(M
2
) =
9
36
{T} = [ {1, 2}
. .
1 lanamento
{4, 5, 6}
. .
2 lanamento
] [ {4, 5, 6}
. .
1 lanamento
{1, 2}
. .
2 lanamento
] =
{(1, 4); (1, 5); (1, 6); (2, 4); (2, 5); (2, 6); (4, 1); (5, 1); (6, 1); (4, 2); (5, 2); (6, 2)}
P(T) =
12
36
i) {P
2
S
5
} = {(2, 5)}
P(S
5
P
2
) =
1
36
P(S
5
|P
2
) =
P(S
5
P
2
)
P(P
2
)
=
1
36
6
36
=
1
6
= P(S
5
)
Portanto, como a ocorrncia do evento P
2
no interfere a ocorrncia do evento S
2
,
esses eventos so independentes.
ii) {M
2
M
5
} = {(2, 5); (5, 2)}
P(M
2
M
5
) =
2
36
P(M
2
) P(M
5
) =
9
36

9
36
= P(M
2
M
5
)
Foi visto que, para quaisquer eventos independentes, vale a regra do produto. Uma
vez que a regra do produto no se aplica, vericamos que M
2
e M
5
no so indepen-
dentes.
iii) {M
2
M
5
T} = {(2, 5); (5, 2)}
P(M
2
M
5
T) =
2
36
{M
5
T} = {(1, 5); (2, 5); (5, 1); (5, 2)}
P(M
5
T) =
4
36
{M
2
T} = {(2, 4); (2, 5); (2, 6); (4, 2); (5, 2); (6, 2)}
P(M
2
T) =
6
36
48
P(M
2
|T) =
P(M
2
T)
P(T)
=
6
36
12
36
=
1
2
P(M
2
|M
5
T) =
P(M
2
M
5
T)
P(M
5
T)
=
2
36
4
36
=
1
2
= P(M
2
|T)
Portanto, como a ocorrncia do evento M
5
no interfere a ocorrncia do evento
M
2
, dada a ocorrncia do evento T, esses eventos so independentes dado T.
Esse exemplo nos mostrou que no-independncia de dois eventos no implica no-
independncia desses dois eventos dada a ocorrncia de algum outro evento. Dessa
mesma maneira, a independncia condicional no implica independncia.
4.4.1 Aplicaes da Independncia de Eventos
Talvez voc no tenha percebido, mas a independncia de eventos algo bastante
desejvel pois, sabendo que os eventos em questo so independentes, aplicamos a
regra do produto para calcular as probabilidades de interseco.
Ento, tentador assumirmos imediatamente que determinados eventos so inde-
pendentes sem antes meditarmos a respeito, e talvez no sejam, apesar de parecerem.
Em "Aplicao 1: Sistema de Aquecimento de uma Casa", dado um exemplo
dessa espcie de engano.
Aplicao 1: Sistema de Aquecimento de uma Casa
O sistema de aquecimento de uma casa inclui uma bomba e uma caldeira interligados
por um sistema de tubos.
Sejam:
F
b
o evento em que a bomba, por qualquer razo, falha e assim deixa o sistema
de aquecimento sem funcionar;
F
k
o evento em que a caldeira, por qualquer razo, falha e assim deixa o
sistema de aquecimento sem funcionar.
Ento F
b
c
e F
k
c
so os complementares dos eventos supracitados, representando,
obviamente, as situaes em que respectivamente bomba e caldeira funcionam normal-
mente. Logo, o evento T, em que o sistema trabalha perfeitamente dado por
T = F
b
c
F
k
c
,
pois o aquecimento ocorre quando a bomba e a caldeira esto funcionando simultane-
amente.
Assumamos inicialmente que o funcionamento ou no-funcionamento da bomba
no inuencia o funcionamento ou no-funcionamento da caldeira e vice-versa, de
maneira que bomba e caldeira sejam independentes uma da outra. Isso nos d, usando
a regra do produto, que
P(T) = P(F
b
c
) P(F
k
c
).
Entretanto, um bombeiro diz que se o fornecimento de energia falhar ento tanto
a bomba quanto a caldeira deixaro de funcionar. Portanto, nossa suposio inicial
simplista errnea. Uma observao da representao do sistema esclarece esse fato.
Podemos pensar que a bomba s deixa de funcionar quando h ausncia de ener-
gia eltrica ou quando apresenta problemas em seu mecanismo (falhas mecnicas). O
mesmo deve valer para a caldeira.
Tal pensamento motiva a suposio de novos eventos, mais especcos do que os
anteriores:
49
F
e
falha no fornecimento de energia;
M
b
falha mecnica (isto , estamos excluindo falhas em decorrncia da falta
de eletricidade) da bomba;
M
k
falha mecnica (isto , estamos excluindo falhas em decorrncia da falta
de eletricidade) da caldeira.
Ento F
e
c
, M
b
c
e M
k
c
so os complementares dos eventos supracitados, repre-
sentando, obviamente, as situaes em que respectivamente fornecimento de energia,
bomba e caldeira funcionam normalmente.
Note que
F
b
c
= M
b
c
F
e
c
e
F
c
c
= M
c
c
F
e
c
.
Perceba que bem mais razovel supor que F
e
, M
b
e M
k
so independentes um
do outro (falhas mecnicas da bomba no afetam a caldeira e vice-versa; nem a bomba
nem a caldeira inuenciam o fornecimento de energia e o fornecimento de energia
no capaz de danicar o mecanismo da bomba ou da caldeira) do que assumir a
independncia de F
b
e F
k
, uma vez que estes no so independentes quando levamos
em considerao a energia.
Dessa maneira,o evento T

, em que o sistema trabalha perfeitamente, represen-


tado como
T

= F
e
c
M
b
c
M
k
c
,
pois o aquecimento ocorre quando no h falha no fornecimento de energia nem falha
mecnica na bomba ou na caldeira.
E, pela regra do produto, a probabilidade de o sistema trabalhar perfeitamente
dada por
P(T

) = P(F
e
c
) P(M
b
c
) P(M
k
c
).
interessante comparar esse resultado com aquele obtido quando assumimos F
b
e
F
k
independentes:
P(T) = P(F
b
c
) P(F
k
c
) = P(M
b
c
F
e
c
) P(M
c
c
F
e
c
) =
P(M
b
c
) P(F
e
c
) P(M
c
c
) P(F
e
c
) = P(T

) P(F
e
c
) P(T

).
Aplicao 2: Gerador de Energia
O fornecimento de energia de vital importncia para um hospital. Imagine que
esse estabelecimento tenha ento, para eventuais quedas de energia, um gerador de
emergncia.
Denamos os seguintes eventos:
F
n
falha no fornecimento normal de energia;
F
e
falha no fornecimento emergencial de energia;
Ento F
n
c
e F
e
c
so os complementares dos eventos acima, isto , representam
as situaes em que no h comprometimento dos fornecimentos de energia normal e
emrgencial, respectivamente.
Se ns assumirmos que F
n
e F
e
so independentes, o que parece muito razovel,
ento a probabilidade de que haja pelo menos um recurso de energia disponvel no
hospital dada por
50
P(F
n
c
F
e
c
) =
2
P([F
e
E]
c
) =
1 P(F
e
E) = 1 P(F
e
) P(E) P(F
n
c
).
Isto , as chances de haver eletricidade no hospital aumentam ao incluir outra
unidade geradora, como era de se esperar.
Aplicao 3: Tribunais
Caso 1: Suprema Corte da Califrnia
No dia 18 de junho de 1964, ao redor das 11h30, a senhora Juanita Brooks voltava
para casa por uma travessa na regio de San Pedro, Los Angeles, quando foi empurrada
para o cho e teve sua bolsa roubada. Enxergou uma mulher de cerca de 70kg, com
cabelos loiros.
Jonh Bass, que morava em uma casa no m da travessa, viu uma mulher fugir
correndo e entrar em um carro amarelo, entre mdio e grande, com um motorista negro
de barba e bigode.
A polcia de Los Angeles prendeu aps alguns dias Malcolm Ricardo Collins e sua
esposa Janet por possuirem um carro amarelo e terem os pers descritos pela vtima e
pelo morador do nal da travessa.
Para sustentar a priso, a acusao apresentou corte um professor assistente de
Matemtica de uma faculdade estadual com alguns dados estatsticos da poca naquela
regio, usados como probabilidades de ocorrncia dos eventos por eles representados:
1 em cada 10 pessoas possua carro amarelo;
1 em cada 4 homens usava bigode;
1 em cada 10 homens negros usava barba;
1 em cada 10 mulheres usava cabelo com rabo de cavalo;
1 em cada 3 mulheres era loira;
1 em cada 1000 casais era de pessoas de cores distintas.
Dessa maneira, foram considerados os seguintes eventos:
E
1
algum possuir um carro amarelo;
E
2
um homem usar bigode;
E
3
um homem negro usar barba;
E
4
uma mulher usavar cabelo com rabo de cavalo;
E
5
uma mulher ser loira;
E
6
um casal ser de pessoas de cores distintas.
Usando esses dados, foram calculadas as chances de aquele casal com seu carro
apresentarem as caractersticas da assaltante com seu cmplice no carro da fuga, que
seriam as chances de tudo no passar de mera coincidncia:
P("mera coincidncia") = P(E
1
, E
2
, E
3
, E
4
, E
5
, E
6
) = P(E
1
) P(E
2
) P(E
3
)
P(E
4
) P(E
5
) P(E
6
) =
1
10

1
4

1
10

1
10

1
3

1
1000
=
1
12.000.000
.
Ento o jri condenou o casal.
Todavia, para que a regra do produto fosse aplicada, os eventos em questo deve-
riam ser claramente independentes entre si, isto , a ocorrncia de quaisquer deles no
deveria inuenciar a de outros.
2
Lei de Morgan (A
c
B
c
) (A B)
c
, que pode ser visualizada atravs de diagramas de Venn
51
A maioria dos homens que usa barba tambm usa bigode, assim sendo, o fato de um
homem possuir barba inuencia o fato de o mesmo possuir bigode. Dessa maneira, a
probabilidade de um homem negro ter barba e bigode no era
1
40
, seria, segundo dados
da poca,
1
15
, probabilidade que substituda no clculo acima mostra que
P("mera coincidncia") =
1
1.000.000
.
Sabendo que apenas na regio prxima ao crime havia 3 milhes de habitantes, as
chances de o casal acusado ser culpado seriam de
1
3
. A Suprema Corte da Califrnia
revogou a condenao do caso Collins e o uso da Matemtica nessas circunstncias foi
ridicularizado.
Caso 2: Caso Sally Clark
Sally Clark foi condenada em novembro de 1999 pelo assassinado de seus dois
lhos, Christopher em 1996, e Harry em 1998, ambos com poucas semanas de vida.
Foi interposto recurso mas a condenao foi conrmada em outubro de 2000.
O professor Sir Roy Meadow, um pediatra da Universidade de Leeds, testemunhou
que "uma morte sbita na infncia uma tragdia para a famlia, duas so suspeitas
e trs so assassnio a menos que existam provas em contrrio". Armou ainda que
as chances de duas crianas de uma famlia abastada de no fumantes sofrerem de
"sndrome de morte sbita" seria de 1 em 73 milhes.
A acusada foi inocentada num segundo apelo, em janeiro de 2003, pois a Royal
Statistical Society escreveu ao "Lord Chancellor" em outubro de 2000, armando que
no havia bases estatsticas para o clculo de Meadow.
O professor havia multiplicado as probabilidades
1
8544
da suposta "sndrome de
morte sbita" de cada lho
_
1
8544

1
8544
=
1
72.999.936
_
, como se fossem eventos inde-
pendentes, o que parecia razovel, mas acabou sendo controverso.
4.5 Uso da Independncia de Eventos no Caso do
Macaco ao Computador
Suponhamos que existam Q > 1 teclas no teclado do computador diante de Macaco.
Ele apertar qualquer uma delas com igual probabilidade de
1
Q
.
Enxergaremos a obra Dom Casmurro, de Machado de Assis quando lermos alguma
sequncia de caracteres que, lidos da esquerda para a direita, da primeira at a ltima
letra, possua todos os eventos da narrativa na ordem em que o autor original os de-
screveu.
Agora consideremos Macaco realizando n tentativas de comear a reproduzir o
romance supracitado.
Perceba que o evento de digitar uma letra na k + 1-sima tentativa independente
do evento de ter digitado outra letra na k-sima tentativa. Saber qual foi o resultado da
k-sima tentativa no nos d informao alguma sobre o resultado da k +1-sima ten-
tativa, isto , um resultado em nada inuencia o outro. Vamos estender esse raciocnio.
Seja X
n
o evento "Macaco digita o n-simo caractere". Ento, se do conjunto de
eventos
{X
1
, X
2
, X
3
, . . . , X
i1
, X
i
, X
i+1
, . . . , X
n
},
52
retirarmos qualquer subconjunto
{X

1
, X

2
, X

3
, . . . , X

i1
, X

i
, X

i+1
, . . . , X

n
},
com
n
N, seus eventos sero todos independentes uns dos outros e tambm 2 a 2,
3 a 3,. . . , n 1 a n 1.
Assim sendo, poderemos usar a j conhecida Regra do Produto para expressar a
probabilidade de ocorrncia de qualquer sequncia de caracteres digitada por Macaco.
Logo,
P(X
1
= c
1
, X
2
= c
2
, . . . , X
n
= c
n
) = P(X
1
= c
1
) P(X
2
= c
2
) . . .
P(X
n
= c
n
) =
1
Q

1
Q

1
Q
. .
nvezes
.
Ento,
P(X
1
= c
1
, X
2
= c
2
, . . . , X
n
= c
n
) = p > 0.
Aps n tentativas, Macaco ter produzido
(c
1
c
2
c
3
. . . c
i1
c
i
c
i+1
. . . c
n
),
uma sequncia qualquer de caracteres.
Podemos comear nossa anlise de reconhecimento do romance machadiano en-
quanto Macaco continua a digitar (lembre-se que nunca lhe daremos a ordem para que
pare de teclar). Ao encontrarmos o contedo do romance dentre a sequncia digitada,
no nos interessar mais o restante, mesmo sabendo que Macaco continuar a teclar
pela eternidade, anal, teremos visto o que nos interessava, ento abandonaremos nossa
busca.
De agora em diante passemos a nos referir ao fato de Macaco conseguir escrever
Dom Casmurro como S, pensando em "sucesso" e ao fato de no conseguir como F,
pensando em "fracasso". Note que um complementar do outro.
Suponhamos que a obra de Machado tenha T caracteres.
Tomemos a sequncia de caracteres digitados de c
1
a c
T
. Aps a leitura desse seg-
mento, saberemos se Macaco obteve S ou F.
P(S) = a > 0,
pois a sequncia de caracteres que compem a obra machadiana um segmento de
caracteres como qualquer outro, o que faz com que a probabilidade de sua ocorrncia
seja no-nula.
Suponha que o segmento de caracteres que compem a obra procurada a T-upla
(m
1
m
2
m
3
. . . m
i
m
T2
m
T1
m
T
).
Ento,
{"sucesso"} = (m
1
m
2
m
3
. . . m
i
m
T2
m
T1
m
T
).
Assim,
P(X
1
= m
1
, X
2
= m
2
, . . . , X
T
= m
T
) = P(X
1
= m
1
) P(X
2
= m
2
) . . .
53
P(X
T
= m
T
) =
1
Q

1
Q

1
Q
. .
T vezes
= a.
E tambm,
P(F) = 1 a < 1,
pois, como j foi mencionado, o evento S complementar do evento F.
Vericado S, deixamos a busca. Se no vericamos que Macaco digitou o romance
no segmento de c
1
a c
T
, continuamos a vericar, mas do caractere c
T+1
at o caractere
c
2T
. Lembre-se que enquanto analisvamos o primeiro segmento, Macaco continuava
a teclar.
Novamente, se a sequncia de c
T+1
a c
2T
no for idntica a
(m
1
m
2
m
3
. . . m
i
m
T1
m
T
), procuramos a segunda no segmento de c
2T+1
a
c
3T
. E assim por diante . . .
c
1
c
T
;
c
T+1
c
2T
;
c
2T+1
c
3T
;
c
3T+1
c
4T
;
.
.
.
.
.
.
c
(i1)T+1
c
iT
.
Agora, denamos S
i
, evento da ocorrncia de "sucesso" no i-simo segmento anal-
isado e F
i
, evento da ocorrncia de "fracasso" no i-simo segmento analisado.
Se S ocorrer pela primeira vez na i-sima tentativa, ento F ter ocorrido nas i 1
tentativas anteriores. Como S
1
, S
2
, . . . , S
i
e F
1
, F
2
, . . . , F
i
so todas independentes
entre si (a ocorrncia de S
j
ou F
j
no d informao a respeito da ocorrncia de S
k
ou
F
k
) temos que
P(F
1
, F
2
, . . . , F
i1
, S
i
) = P(F
1
) P(F
2
) P(F
i1
) P(S
i
) = (1 a)
(1 a) (1 a) a = (1 a)
i1
a.
Seja S o evento em que S ocorre em alguma tentativa de Macaco. Macaco pode
conseguir logo na primeira vez, ou na segunda, . . . , na bilionsima, . . . , na tentativa
mais longnqua que possamos imaginar, anal de contas, Macaco digitar innita-
mente, e a idade do planeta Terra um nmero pequenino comparado ao innito.
{S} = {S
1
S
2
S
3
S
i
S
n
. . . }
P(S) = P(S
1
) +P(S
2
) +P(S
3
) + +P(S
i
) + +P(S
n
) + =
(1a)
0
a+(1a)
1
a+(1a)
2
a++(1a)
i1
a+ +(1a)
n1
a+. . .
= a [(1 a)
0
+(1 a)
1
+(1 a)
2
+ +(1 a)
i1
+ +(1 a)
n1
+. . . ]
3
= a
1
1(1a)
= 1.
Isto nos mostra que certamente Macaco reproduzir Dom Casmurro.
54
Curiosidades a respeito da Teoria do Macaco
Pesquisadores da Universidade de Plymouth, na Inglaterra, tentaram "testar"a teo-
ria do macaco escritor.
Seis primatas de mo prensil como a humana, perfeitamente capazes de acionar
o teclado de um computador foram trancados durante um ms em uma sala com um
computador para cada um.
O objetivo seria ter uma ideia do texto que criariam. Aps um ms de tentativas, os
macacos no produziram uma palavra sequer.
Segundo Mike Phillips, chefe da pesquisa, os primatas mostraram grande prefern-
cia pela letra S e acabaram reproduzindo em mdia cinco pginas repletas de letras S e
alguns Js, Ls e Ms.
55
56
Captulo 5
Parmetros das Distribuies de
Probabilidade
Existem caractersticas que so muito importantes em uma distribuio de probabili-
dades de uma varivel aleatria discreta. So os parmetros de distribuies.
5.1 Motivao: O Problema do Colecionador de Cards
Dentro de cada pacote de goma de mascar da "Estouro da Bolha" vem de brinde um
card com a foto de um jogador de futebol famoso. Ao todo, so 10. A distribuio
dos cartes uniforme, isto , voc encontrar qualquer um dos cards com as mesmas
chances, no menos provvel que saia o card do mais famoso jogador do momento
nem mais provvel que saia o card de um jogador menos famoso.
Um garoto quer reunir a coleo completa dos atletas, ento, o problema : quantos
pacotes de goma, em mdia, devero ser comprados?
Para estudar esse caso devemos ter na bagagem alguns conceitos como Valor Es-
perado de uma Varivel Aleatria, Valor Esperado de Somas de Variveis Aleatrias,
Independncia de Eventos (conceito abordado na seo anterior) etc.
H muitas variantes desse problema e voc com certeza j o encontrou em seu dia-
a-dia, possivelmente em sua infncia, produtos como biscoitos recheados e pacotes de
salgadinhos, destinados ao pblico infantil, frequentemente lanam essas promoes
de incentivo ao consumo. Ento algum conhecido ou mesmo voc pode ter tentado
montar uma coleo com todos os elementos e no obteve sucesso pois com certa fre-
quncia encontrou gurinhas repetidas, uma mesma saiu muitas vezes enquanto aquela
desejada custou a sair ou nunca foi encontrada, e a pergunta que sempre pairava no ar
era "ser que algumas gurinhas so fabricadas em maior quantidade enquanto outras
so feitas em menor nmero?"
5.1.1 Esperana
Denio 1 Tambm conhecida como valor esperado ou mdia, a esperana de uma
varivel aleatria X com distribuio de massa de probabilidade p
x
denida por
E(x) =

x
xp
x
.
57
Se a varivel aleatria X assume os valores do conjunto {a
1
, a
2
, . . . , a
n
}, ento
sua esperana dada por
E(x) = a
1
P(X = a
1
) +a
2
P(X = a
2
) +. . . +a
n
P(X = a
n
).
Sendo n < , o valor esperado de uma varivel aleatria um nmero real que,
na prtica, uma mdia ponderada aritmtica.
Trs Propriedades Facilmente Dedutveis e Amplamente Utilizveis da
Esperana:
E(a) = a a R;
E(aX) = aE(X) a R;
E(

X) =

E(X).
Exemplo 1: Roda da Fortuna
Suponha que voc esteja jogando um jogo em que cada rodada consiste em rodar
uma roda da fortuna com prmios em dinheiro (daquelas em que a roda gira at parar
em algum prmio, comum em programas de TV). Voc participar de muitas rodadas,
para cada rodada, um dos prmios f
1
, f
2
, . . . , f
n
sai com a probabilidade correspon-
dente p
1
, p
2
, . . . , p
n
. Qual o montante de dinheiro que voc espera ganhar por
rodada, ou seja, qual o valor esperado da rodada?
Suponha que voc participe de k rodadas e que k
i
seja a quantidade de vezes que
sai o prmio f
i
.
Logo, o montante F a receber dado por
F = f
1
k
1
+f
2
k
2
+. . . +f
n
k
n
.
Ento, o montante recebido por rodada dado por
F por rodada =
F
k
= f
1
k
1
k
+f
2
k
2
k
+. . . +f
n
k
n
k
.
Interpretando a probabilidade como uma frequncia relativa, temos
p
i

k
i
k
, i = 1, 2, . . . , n;
o que bem razovel, considerando que a roda possa ser viciada (alguns prmios po-
dem ter certa tendncia a sair mais vezes do que outros).
Portanto,
F por rodada f
1
p
1
+f
2
p
2
+. . . +f
n
p
n
.
Denindo uma varivel aleatria D que assume os valores dos prmios em din-
heiro, temos
F por rodada E(D).
Exemplo 2: Lucro de uma Seguradora
Uma seguradora paga $30.000,00 em caso de acidente do veculo e cobra uma taxa
de $1.000,00. Sabe-se que a probabilidade de que um carro sofra um acidente de 3%.
58
Quanto a seguradora deve esperar ganhar por carro segurado?
Seja L a varivel aleatria que representa o lucro dado por cada carro segurado e
consideremos o prejuzo como um lucro negativo.
Em caso de carros que no sofrem acidente, L = $1.000, 00.
Em caso de carros que sofrem acidente, L = $1.000, 00 $30.000, 00.
O quanto a seguradora deve esperar ganhar por carro segurado, que a mdia ou
valor esperado de seu lucro por carro, que dado por
E(L) = 1000.P(L = 1000) 29000.P(L = 29000)
= 1000.0, 97 29000.0, 03
= 100.
Ento, apesar de cobrar $1.000,00 por carro segurado, a empresa tem um lucro de
somente $100,00.
Exemplo 3: Ganhos num Jogo de Atirar Moeda
Considere um jogo em que o jogador atira uma moeda honesta e ganha $1,00 se
sair cara, ao passo que perde $1,00 se sair coroa. Qual a expectativa de ganho do
jogador?
Seja X a varivel aleatria que assume os possveis ganhos do jogador. A proba-
bilidade de X assumir o valor 1 a probabilidade de sair cara e a probabilidade de
assumir -1 a probabilidade de sair coroa. Ento temos:
E(X) = 1P(X = 1) + 1P(X = 1) =
1
2
+
1
2
= 0.
Logo, se voc for jogar um jogo assim, no espere ganhar algum dinheiro.
5.1.2 Varincia
O fato de conhecermos a mdia de uma distribuio de probabilidades j nos ajuda bas-
tante, mas ainda no temos uma medida que nos d o grau de disperso ou concentrao
de probabilidade em torno dessa mdia.
Denio 2 O grau de disperso da varivel aleatria X em torno de sua mdia
denomina-se varincia e dado por
V ar(X) = E{[X E(X)]
2
}.
J que essa expresso lida como o quadrado da distncia mdia entre a varivel
aleatria e seu valor mdio. Para facilitar os clculos, podemos us-la de outra maneira
V ar(X) = E{[X E(X)]
2
}
=

x
[X E(X)]
2
p
x
(x)
=

x
{X
2
2XE(X) + [E(X)]
2
}p
x
(X)
=

x
X
2
p
x
(X) 2E(X)

x
Xp
x
(X) + [E(X)]
2

x
p
x
(X)
= E(X
2
) 2[E(X)]
2
+ [E(X)]
2
= E(X
2
) [E(X)]
2
.
Ento voc pode escolher entre encontrar V ar(X) usando E{[X E(X)]
2
} ou
E(X
2
) [E(X)]
2
.
59
A primeira maneira deixa claro que essa medida de disperso sempre resultar em
um nmero real positivo, desde que X assuma uma quantidade n de valores, sendo
n < .
Quanto maior a varincia, maior o grau de disperso de probabilidades em torno da
mdia e vice-versa; quanto menor a varincia, menor o grau de disperso da probabili-
dade em torno da mdia.
A varincia um quadrado e, frequentemente, seu valor se torna articial. Um
exemplo: a altura mdia das pessoas de um grupo 1,70 m e a varincia, 25 cm
2
.
esquisito cm
2
em altura. Contornamos esse problema denindo o conceito de desvio
padro, a raiz quadrada da varincia, que um resultado de interpretao mais natural
pois est na unidade da prpria varivel aleatria. No daremos grande importncia a
essa denio.
Denio 3 Dene-se o Desvio-Padro de uma varivel aleatria X como sendo
Desvio-Padro =
_
V ar(X).
Duas Propriedades Facilmente Dedutveis e Amplamente Utilizveis da
Varincia:
V ar(aX) = a
2
V ar(X) a R;
V ar(

X) =

V ar(X) a R.
Voc encontrar outras propriedades (aqui no mencionados pois fogem aos nos-
sos objetivos) dos parmetros Esperana e Varincia em um livro de Probabilidade e
Estatstica.
Exemplo: Varincia do Lucro da Seguradora (do Exemplo 2 de Esperana)
V ar(L) = (1000 100)
2
.0, 97 + (29000 100)
2
.0, 03
= 810000.0, 97 + 846810000.0, 03
= 785700 + 25404300 = 26190000.
5.1.3 Mais Exemplos envolvendo Esperana e Varincia
Trnsito
As probabilidades de que haja 1, 2, 3, 4 ou 5 pessoas em cada carro que v ao litoral
de So Paulo em um sbado so, respectivamente, 0,05 (
5
100
), 0,2 (
2
10
), 0,4 (
4
10
), 0,25
(
25
100
) e 0,1 (
1
10
). Qual o nmero mdio de pessoas por carro? E o desvio-padro
desse nmero mdio? Se chegam no litoral 4000 carros por hora, qual o nmero
esperado de pessoas, em 10 horas de contagem?
Seja P a varivel aleatria que assume a quantidade de pessoas que ocupam um
carro, ento X {1, 2, 3, 4, 5}.
E(P) = 1.0, 05 + 2.0, 2 + 3.0, 4 + 4.0, 25 + 5.0, 1 = 3, 15
Assim, a mdia de pessoas por carro de 3,15.
V ar(P) = E{[P E(P)]
2
} = (13, 15)
2
.0, 05+(23, 15)
2
.0, 2+(33, 15)
2
.0, 4
60
+(4 3, 15)
2
.0, 25 + (5 3, 15)
2
.0, 1 = 1, 0275
Desvio-Padro =
_
1, 0275 = 1, 014.
O desvio-padro da mdia de 1,014 pessoa.
#("pessoas chegando em 10 h.") = 3, 15
..
pessoas/carro
. 400
..
carros
. 10
..
horas
= 126000
E espera-se que 126.000 pessoas cheguem ao litoral em 10 horas de contagem.
Jogo de Bolas Numeradas
Uma urna contm 6 bolas numeradas de 1 a 6. Uma pessoa paga $600,00 e retira
aleatoriamente uma bola dessa urna. Se retirar a bola 6, recebe $1500,00; se retirar as
bolas 2, 3, 4 ou 5, nada recebe e, se retirar a bola 1, ir retirar outra bola da urna, sem
que a bola 1 seja reposta para isso, ento, se a segunda bola retirada for a bola 6, recebe
$3600,00; do contrrio, nada recebe. Calculemos quanto um jogador desse jogo deve
esperar lucrar e tambm o desvio-padro desse lucro.
Sejam L a varivel aleatria que assume o lucro de um jogador desse jogo e B
1
e B
2
as variveis aleatrias que assumem os nmeros da 1 e 2 retiradas de bola da
urna.
Como uma pessoa paga $600,00 para jogar, seu lucro, assumido por L, pode ser de
0 600 = 600 ou 1500 600 = 900 ou 3600 600 = 3000.
Temos que
E(L) = 600[P(B
1
= 1, B
2
= 2) +P(B
1
= 1, B
2
= 3)+
P(B
1
= 1, B
2
= 4) +P(B
1
= 1, B
2
= 5) +P(B
1
= 2) +P(B
1
= 3)+
P(B
1
= 4) +P(B
1
= 5)] + 900P(B
1
) + 3000P(B
1
= 1, B
2
= 6).
Calculando as probabilidades envolvidas:
P(B
1
= 1) = P(B
1
= 2) = P(B
1
= 3) = P(B
1
= 4) = P(B
1
= 5) = P(B
1
= 6) =
1
6
,
pois, uma vez que a pessoa retira uma bola da urna de maneira aleatria, ento cada
bola sai com igual chance.
Ainda,
P(B
1
= 1, B
2
= 2) = P(B
2
= 2|B
1
= 1)P(B
1
= 1) =
1
5
1
6
=
1
30
,
pois
P(B
2
= 2|B
1
= 1) =
#("bolas 2")
#("bolas da urna aps retirar a nmero 1")
.
Ento
P(B
1
= 1, B
2
= 3) = P(B
2
= 3|B
1
= 1)P(B
1
= 1) =
1
5
1
6
=
1
30
,
P(B
1
= 1, B
2
= 4) = P(B
2
= 4|B
1
= 1)P(B
1
= 1) =
1
5
1
6
=
1
30
,
61
P(B
1
= 1, B
2
= 5) = P(B
2
= 5|B
1
= 1)P(B
1
= 1) =
1
5
1
6
=
1
30
,
e
P(B
1
= 1, B
2
= 6) = P(B
2
= 6|B
1
= 1)P(B
1
= 1) =
1
5
1
6
=
1
30
.
Logo,
E(L) = 230,
isto , um jogador desse jogo deve esperar um lucro de -$230,00, ou, mais adequada-
mente, prejuzo, de $230,00.
Ento, a varincia dada por
V ar(L) = [600 (230)]
2
.
24
30
+ [900 (230)]
2
.
1
6
+ [3000 (230)]
2
.
1
30
= 670100
e o desvio-padro por
Desvio-Padro =

670100.
5.1.4 Resolvendo o Problema do Colecionador de Cards
Um garoto est comprando os pacotes de goma da promoo em que dentro de cada
pacote vem um card de um jogador de futebol famoso e deseja reunir toda a coleo,
que consiste de dez cards. Ele compra seu primeiro pacote de goma e obtm o primeiro
elemento da coleo, que obviamente no repetido pelo fato de ser o primeiro.
Note que h uma aleatoriedade em cada compra a partir da segunda pois o garoto
no sabe se o pacote contm um card repetido ou no. Ento estamos lidando com
um experimento aleatrio, a abertura do pacote de goma, que de acordo com nossos
interesses s nos d dois resultados. Pensemos no caso de sair umcard repetido (umdos
dois resultados) como "fracasso" e no caso de um indito (outro dos dois resultados)
como "sucesso".
Ento p
1
, a probabilidade de "sucesso" na segunda compra, dada por
9
10
, pois 9
dentre 10 cards no so repetidos.
Seja X
1
a quantidade de compras realizadas entre a primeira compra e a prxima
que d um card diferente da primeira, isto , se aps a primeira aquisio do pacote
de goma, o garoto tiver que comprar mais 20 pacotes at encontrar um card diferente
daquele que j tem, ento X
1
= 20. Quando ele encontrar esse card, coloca-o em sua
coleo.
Seja X
2
a quantidade de compras feitas aps obter o segundo card da coleo at
encontrar outro diferente do primeiro e do segundo; dessa maneira, se ele tiver que
adquirir 13 pacotes de goma at encontrar um card indito, ento X
2
= 13.
E p
2
, a probabilidade de "sucesso" na terceira compra, dada por
8
10
, pois 8 dentre
10 cards no so repetidos.
simples perceber que p
i
=
10i
10
, logo,
p
3
=
7
10
, p
4
=
6
10
, p
5
=
5
10
, p
6
=
4
10
, p
7
=
3
10
, p
8
=
2
10
, p
9
=
1
10
.
Pense em X
3
, X
4
, . . . e X
9
com as mesmas interpretaes de X
1
e X
2
.
Dessa maneira modelamos X
i
como o tempo de espera at que seja obtido o i +1-
simo card diferente dos i cards distintos j reunidos na coleo.
Seja T o tempo requerido para conseguir completar a coleo, isto , a quantidade
necessria de compras de pacotes de goma para tal. Temos
T = 1
..
1 compra card indito
+X
1
+X
2
+X
3
+X
4
+X
5
+X
6
+X
7
+X
8
+X
9
62
E(T) = E(1 +X
1
+X
2
+. . . +X
8
+X
9
)
E(T) = E(1) +E(X
1
) +E(X
2
) +. . . +E(X
8
) +E(X
9
)
E(T) = 1 +E(X
1
) +E(X
2
) +. . . +E(X
8
) +E(X
9
).
Para descobrir E(T), devemos calcular E(X
i
) para i {1, 2, . . . , 9}.
Como X
i
s so do mesmo tipo para todo i, o modo de calcular seu valor esperado
o mesmo, ento vamos pensar de maneira generalizada.
A varivel aleatria X mensura o tempo que se leva at a obteno do primeiro
"sucesso" em uma sequncia de realizaes de um experimento que somente admite
dois resultados ("sucesso" e "fracasso").
Faamos P("sucesso") = p e P("fracasso") = q.
Perceba que podemos realizar innitamente o experimento de abrir um pacote de
goma que contm um card, sendo que j temos alguns cards, e sempre retirar um card
repetido. uma possibilidade.
Se o evento em questo for o de atirar uma moeda e tivermos "sucesso" = sair
cara e "fracasso" = sair coroa, podemos lanar a moeda 5 vezes at que saia cara pela
primeira vez ou podemos ter que atirar a moeda 1.000.001 vezes at que saia cara pela
primeira vez mas tambm existe a chance de atirarmos a moeda e sempre sair coroa.
Nesse tipo de evento, a quantidade necessria de tentativas para obter o primeiro
"sucesso" pode ser to imensa quanto se possa imaginar, isto , o espao amostral
innito.
Em nosso problema, representando o resultado de sair um card repetido como R e
o de sair um card indito por I, a tentativa de obteno de cada card da coleo tem o
seguinte espao amostral
{"tentativa de obter algum card da coleo"} = {(I); (R, I); (R, R, I); (R, R, R, I); . . . ;
(R, R, . . . , R
. .
somente R
, I); . . .}.
E o mesmo se d com qualquer experimento com dois possveis resultados, sendo
que um deles de seu interesse, ento voc repetir tal experimento (como lanar uma
moeda ou comprar um pacote de goma) at obter o resultado desejado (ver a face cara
de uma moeda ou encontrar um card que no seja repetido) e parar aps t-lo obtido
1
.
Logo, essa varivel aleatria X, por sua prpria denio, assume todo n N.
Ento, seu valor esperado
E(X) = 0P(X = 0) + 1P(X = 1) + 2P(X = 2) +. . . + 500P(X = 500) +. . . ,
que consiste em uma soma de innitos termos.
1
Quando os eventos em questo so independentes como os discutidos (sair coroa no i-simo lanamento
de uma moeda nada nos diz sobre o resultado do i + 1-simo lanamento, sair um card repetido na j 1-
sima compra de um pacote de goma nenhuma informao nos d sobre o card da j-sima compra), ento,
indicando "fracasso" por f e "sucesso" por s, temos
P("s pela 1 vez na i-sima tentativa") = P("f nas primeiras i 1 tentativas e s na i-sima") =
P( f, f, . . . , f

primeiras i 1 tentativas
, s

i-sima tentativa
) = P(f)P(f) . . . P(f)P(s)

usando a ideia da independncia de eventos
= q
i1
p.
63
Para quem ainda no possui conceitos mais sosticados de Clculo, no ca claro
que essa soma de innitos termos resulta em um nmero a R. Mas podemos chegar
ao seu valor com um pouco mais de trabalho.
Dena

X como o tempo do primeiro sucesso que aparece depois da primeira ten-
tativa. Note que
X =
_
1, se a primeira tentativa resulta em "sucesso";
1 +

X, se a primeira tentativa resulta em "fracasso".
Ento, de acordo com essa nova denio de X, razovel supor que o valor
esperado de X deva ser a soma do valor esperado de cada uma dessas possibilidades
multiplicada pela probabilidade dessa possibilidade, isto
E(X) = E(1)p +E(1 +

X) = 1p + [1 +E(

X)]q = p +q +qE(

X).
Lembre-se que p +q = 1.
Como

X e X so exatamente o mesmo tipo de varivel aleatria, tm a mesma
distribuio de probabilidade, ento tm mesmo valor esperado. Logo,
E(X) = 1 +qE(X) (1 q)E(X) = 1 E(X) =
1
1 q
=
1
p
.
Portanto,
E(T) = 1 +
1
p
1
+
1
p
2
+
1
p
3
+
1
p
4
+
1
p
5
+
1
p
6
+
1
p
7
+
1
p
8
+
1
9
E(T) = 1 +
10
9
+
10
8
+
10
7
+
10
6
+
10
5
+
10
4
+
10
3
+
10
2
+
10
1
E(T) = 10
_
1 +
1
2
+
1
3
+
1
4
+
1
5
+
1
6
+
1
7
+
1
8
+
1
9
+
1
10
+
_
29, 25.
Assim sendo, o garoto deve esperar comprar em mdia 30 pacotes de goma de
mascar para reunir a coleo dos 10 cards que acompanham o produto.
fcil perceber que se houvesse n cards na coleo, ento seriam necessrias
n
_
1 +
1
2
+
1
3
+
1
4
+. . . +
1
n
_
compras, em mdia.
64
Captulo 6
Limites e Convergncia em
Probabilidade
6.1 Alguns Conceitos de Clculo
6.1.1 Limites
Denio Informal 1 Tomemos uma funo f : B R, B R, e seja a R, um
nmero no necessariamente pertencente a B, pode ou no pertencer a B. Supo-
nhamos que exista l Rtal que f(x) se aproxima de l quando fazemos x se aproximar
de a, embora x = a. Quando isto ocorre, dizemos que l o limite de f em a ou o limite
de f(x) quando x tende a a e escrevemos
lim
xa
f(x) = l.
Exemplo 1: f(x) =
2x
2
4x
x
2
3x+2
=
2x(x2)
(x1)(x2)
.
Claramente o domnio de f(x) B = R\{1, 2}, e f coincide com g(x) =
2x
x1
,
denida em R\{1}. Observamos que f(x) pode car arbitrariamente prxima de
4 = g(2) tomando-se x sucientemente prximo de 2. Ento escrevemos
lim
x2
2x
2
4x
x
2
3x + 2
= 4.
Note que, ao considerar o limite de f em a estamos vendo se possvel saber para
onde vai f(x) quando x se aproxima de a. No estamos interessados em quanto vale
f(a), nem mesmo em saber se f(a) existe.
6.1.2 Sequncias
Denio 4 Uma sequncia de nmeros reais uma funo S que associa a cada
nmero natural n um nmero real X
n
denominado o n-simo termo da sequncia.
Pode ser nita ou innita e ter ou no uma lei de formao, isto , uma frmula para
seus termos.
S : N R
n X
n
65
Algumas representaes:
(X
1
, X
2
, . . . , X
n
) para sequncias nitas;
(X
1
, X
2
, . . . , X
n
, . . .) para sequncias innitas;
(X
n
)

n=1
para sequncias innitas;
{X
n
} para sequncias nitas ou innitas, representao que pode fazer com que
o leitor desatento pense em um conjunto cujo nico elemento X
n
;
simplesmente X
n
para sequncias nitas ou innitas, uma representao muito
simplista que tem a desvantagem de ser a representao do n-simo termo da sequn-
cia.
Exemplo 1: (1,
1
2
,
1
3
, . . . ,
1
n
..
lei de formao
).
Exemplo 2:
_
1
2
n
_

n=1
.
Exemplo 3: X
n
=
_
0, se sair cara ao atirar uma moeda;
1, se sair coroa ao atirar uma moeda.
Exemplo 4: Sequncia de Fibonacci
_
_
_
X
1
= 1;
X
2
= 1;
X
n
= X
n2
+X
n1
.
6.1.3 Limites de Sequncias
Denio 5 Diz-se que um nmero real l o limite de uma sequncia {X
n
} quando,
para todo > 0, dado arbitrariamente, pode-se obter n
0
N tal que todos os termos
X
n
com ndice n > n
0
cumprem a condio | X
n
l | < .
Denio 6 Uma sequncia que possui limite dita sequncia convergente.
Exemplo 1: (1,
1
2
,
1
3
, . . . ,
1
n
, . . .) uma sequncia convergente pois, quanto maior
tomamos n, mais prximo de 0 ca o termo X
n
. Dizemos ento que 0 o limite para
o qual essa sequncia converge.
Exemplo 2: {ln
_
e +
1
n
_
} uma sequncia convergente pois, quanto maior toma-
mos n, mais prximo de 0 ca
1
n
, o que faz com que ln
_
e +
1
n
_
que to prximo de
ln(e) = 1 quanto queiramos. Dizemos ento que 1 o limite para o qual essa sequncia
converge.
Denio 7 Uma sequncia que no possui limite dita sequncia divergente.
Exemplo 1: (1, 2, 2
2
, 2
3
, . . . , 2
n
, . . .) uma sequncia divergente pois podemos
tornar seu n-simo termo to grande quanto queiramos, bastando para isso, tomarmos
n sucientemente grande.
Exemplo 2: (0, 1, 0, 1, 0, . . . , 0, 1, . . .) uma sequncia divergente, ainda que seus
termos nunca sejam menores do que 0 nem maiores do que 1 (a sequncia est limitada
entre 0 e 1), porque no existe convergncia nem para o 0 nem para o 1.
H uma diversidade de teoremas, corolrios, proposies, lemas e denies a re-
speito de sequncias, e tambm muitos artifcios para calcular o limite de uma funo,
s folhear um livro de Clculo, entretanto, o que foi mencionado anteriormente o
suciente para compreenso dessa seo.
66
6.2 Limites em Probabilidade
6.2.1 Desigualdades de Probabilidade
Essas desigualdades usam a mdia ou a varincia de uma varivel aleatria X para tirar
concluses sobre as probabilidades de eventos de interesse. So teis em situaes em
que a esperana ou a varincia da varivel aleatria em questo so dadas ou fceis de
calcular, ao passo que a probabilidade desconhecida ou muito difcil de ser calculada.
Tais desigualdades do, nesses casos, limitantes superiores (valores que as prob-
abilidades nunca ultrapassam ou no mximo se igualam a eles) ou inferiores (valores
que as probabilidades de interesse sempre superam ou no mnimo se igualam a eles),
todavia, esses extremantes podem estar bem distantes das probabilidades reais, sendo,
assim, pouco teis.
Desigualdade de Markov
Se uma varivel aleatria assumir somente valores positivos ento
P(X a)
E(X)
a
, para todo a > 0.
Informalmente falando, a desigualdade de Markov arma que se uma varivel
aleatria positiva tiver uma esperana pequena , ento a probabilidade de essa var-
ivel aleatria assumir um valor muito grande deve ser muito pequena (se a no for
muito pequeno).
Exemplo:
Temos uma varivel aleatria W com massa de distribuio de probabilidade com-
plicada, mas sabemos que E(W) = 5 e estamos interessados em P(X 5).
Se queremos saber a respeito de P(X 5), teremos, pela Desigualdade de Markov,
que P(X 5)
5
5
= 1, o que no nos ajuda em nada, pois sabemos que a probabili-
dade de ocorrncia de qualquer evento menor ou igual a 1.
Desigualdade de Chebyshev
Se X for uma varivel aleatria com esperana e varincia
2
, ento
P(|X | c)

2
c
2
, para todo c > 0.
Observe que so idnticos os eventos {|X | c} e {(X )
2
c
2
}.
Informalmente falando, a desigualdade de Chebyshev arma que se a varincia
de uma varivel alatria for pequena, ento a probabilidade de ela assumir um valor
muito distante de sua mdia tambm muito pequena.
Uma maneira alternativa de expressar a desigualdade de Chebyshev fazer c = k,
k > 0. Teremos, por substituio direta na desigualdade original
P(|X | k)

2
k
2

2
=
1
k
2
.
67
Isto nos diz que a probabilidade de uma varivel alatria assumir um valor maior
do que k desvios em relao a sua mdia , no mximo,
1
k
2
.
Ou ainda, como temos que
{|X | k} {|X | < k} = ,
sendo que os eventos da esquerda so disjuntos, ento
P({|X | k}) +P({|X | < k}) = P() = 1
P({|X | < k}) = 1 P({|X | k}).
Logo,
1 P({|X | k})
1
k
2
,
o que nos d
P({|X | k}) 1
1
k
2
.
Essa ltima expresso nos diz que X assume valores que camk desvios-padro de
sua mdia com probabilidade de no mnimo 1
1
k
2
, independentemente da distribuio
de X.
Exemplo 1:
Se tivermos k = 2 ento para uma varivel aleatria X qualquer vericar-se-
P(|X E(X)| < 2) 1
1
4
.
Note que
{|X E(X)| < 2} = {2 < X E(X) < 2}
{E(X) 2 < X < E(X) + 2}.
Ento interpretamos que 75% dos valores que X assume esto entre E(X) menos
2 desvios-padro e E(X) mais dois desvios-padro.
Exemplo 2:
Seja uma varivel aleatria X tal que E(X) = e V ar(X) =
2
, vamos encontrar
o menor valor para a constante positiva c de tal modo que P(|X | < c) p, onde
0 < p < 1, e expressando c em termos de e p.
Para k =
c

temos que
P(|X |
c

) = 1
1
(
c

)
2
P(|X | < c) 1

2
c
2
.
Temos ainda que
p P(|X | < c) 1

2
c
2
.
Logo, c deve ser tal que p 1

2
c
2
.
Ajeitando um pouco,
68

2
c
2
1 p c
2


2
1 p
c

1 p
.
Assim, camos com c =

1p
.
Observe que usamos a seguinte ideia:
"Pela desigualdade de Chebyshev, p deve ser no mximo 1

2
c
2
."
6.2.2 Convergncia em Probabilidade
Denio 8 A sequncia de variveis aleatrias X
n
converge em probabilidade para
a varivel aleatria X se para todo > 0 tem-se
lim
n
P[|X
n
X| ] = 0.
Ser indicado que a sequncia de variveis aleatrias X
n
converge em probabili-
dade para a varivel aleatria X com a notao X
n
p

X.
Pode acontecer que para algum resultado do experimento, tenhamos
|X
n
() X()| > para algum n > n
0
. O que X
n
p

X garante que a probabili-


dade de esse evento ocorrer nma e tende a zero. Assim sendo, X
n
p

X signica
que se n for sucientemente grande, ento a probabilidade de que X
n
dira de X por
mais do que muito pequena.
6.2.3 Lei Fraca dos Grandes Nmeros
Seja (X
1
, X
2
, . . . , X
n
) uma sequncia de variveis aleatrias independentes e identi-
camente distribudas com esperana e varincia
2
nitas. Vamos chamar de mdia
amostral
X
n
=
S
n
n
=

n
i=1
X
i
n
.
Tem-se
S
n
n
p

.
A Lei Fraca dos Grandes Nmeros arma que a mdia amostral X
n
de um grande
nmero de variveis aleatrias , isto , para n sucientemente grande, est com grande
probabilidade muito prxima da verdadeira mdia dessas variveis aleatrias.
Em outra notao, para uma sequncia de variveis aleatrias que satisfaz a Lei
Fraca dos Grandes Nmeros , temos:
P(|X
n
| ) 0 quando n .
Equivalentemente,
P(|X
n
| ) 1 quando n .
A Lei Fraca dos Grandes Nmeros estabelece que, para n sucientemente grande,
a maior parte da distribuio de X
n
est concentrada prxima a . Ou seja, se con-
siderarmos um intervalo com extremos positivos [ , + ] em torno de , ento
h considervel probabilidade de os valores de X
n
assumirem valores nesse intervalo.
Quando n tende a , isto , quanto maiores so os valores de n, essa probabilidade
tende a 1.
69
Em termos intuitivos, podemos expressar a Lei Fraca dos Grandes Nmeros assim:
Uma sequncia de variveis aleatrias independentes e identicamente distribudas
satisfaz a Lei Fraca dos Grandes Nmeros se, quando n for sucientemente grande, a
mdia aritmtica dos primeiros n observados for aproximadamente igual mdia das
suas mdias (esperanas), ou seja,
S
n
n
aproximadamente igual a
E(S
n
)
n
=

n
i=1
X
i
n
=
E(X
1
) +E(X
2
) +. . . +E(X
n
)
n
=
+ +. . . +
n
= .
Isto pois quando colocada a hiptese de que as variveis aleatrias so indepen-
dentes e identicamente distribudas , temos que
E(X
1
) = ,
E(X
2
) = ,
.
.
.
.
.
.
E(X
n
) = .
Prova da Lei Fraca dos Grandes Nmeros:
Observe que
X
n
=

n
i=1
X
i
n
E(X
n
) = E
_
n
i=1
X
i
n
_
=
1
n
n

i=1
E(X
i
) =
1
n
nE(X
i
)
= .
E tambm
V ar(X
n
) = V ar(

n
i=1
X
i
n
) =
1
n
2
n

i=1
V ar(X
i
) =
1
n
2
nV ar(X
i
) =

2
n
.
Pela desigualdade de Chebyshev temos que
P(|X
n
| )
V ar(X
n
)

2
=

2
n
2

2
=

2
n
2

2
para qualquer > 0.
Como
2
nita, observamos que para qualquer E > 0, o lado direito dessa ex-
presso tende a 0 quando n tende a .
lim
n
P(|X
n
| lim
n
) lim
n
V ar(X
n
)

2
= lim
n

2
n
2

2
= 0
para qualquer > 0.
70
O Paradoxo do Jogo dos Trs Dados e a Consulta a Galileu Galilei
A Lei dos Grandes Nmeros foi enunciada pelo matemtico Jacques Bernoulli e, de
uma maneira mais formal, como voc viu anteriormente, diz que se um clculo envol-
vendo probabilidades estiver correto, o que ocorre que, se repetirmos a experincia
uma grande quantidade de vezes, o resultado obtido pela prtica tende a se aproximar
do resultado obtido teoricamente.
No sculo XVII, por volta de 1620, Galileu Galilei, famoso matemtico e as-
trnomo italiano escreveu "Consideraes sobre o jogo dos dados", que narrava uma
consulta que lhe foi feita por alguns apostadores, que consideravam que existia um
paradoxo num jogo que faziam lanando consecutivamente trs dados cbicos hon-
estos numerados de 1 a 6 e somando os valores das faces que sassem viradas para
cima. Os jogadores achavam que as somas 9 e 10 deveriam ocorrer com a mesma fre-
qncia, j que, segundo eles, existiam 6 opes para que a soma resultasse no valor
nove e outras 6 opes para o valor 10.
Eles visualizavam os eventos em questo sem contar a ordem em que os resultados
ocorriam, da seguinte maneira:
{"Soma de 9 pontos"} = {(1, 2, 6); (1, 3, 5); (1, 4, 4); (2, 2, 5); (2, 3, 4); (3, 3, 3)};
{"Soma de 10 pontos"} = {(1, 3, 6); (1, 4, 5); (2, 2, 6); (2, 3, 5); (2, 4, 4); (3, 3, 4)}.
Ento, como esses eventos pertencem a um mesmo espao amostral, ainda que no
contabilizemos a quantidade de eventos deste, direto concluir que
P({"Soma de 9 pontos"}) = P({"Soma de 10 pontos"}).
Mas o paradoxo surgia quando iam para a prtica, na hora do jogo vericavam que
a soma 10 ocorria mais vezes do que a soma 9, mesmo que o jogo se repetisse muitas
vezes ou muitos dias seguidos. No entendiam o que estava ocorrendo e zeram a
consulta ao renomado Galileu.
A tabela mostra os resultados obtidos em uma simulao por computador.
n lanamentos Soma 9 Soma 10
100 12 11
1000 137 124
10000 1183 1260
20000 2287 2493
Note que, com 20 000 lanamentos, a ocorrncia da soma 10 maior do que a soma
9, o que no conrma o esperado pelos jogadores da poca. Mas onde ser que eles
estavam errando? Qual seria a resposta de Galileu?
Galileu respondeu que esses resultados esperados no eram igualmente provveis,
por exemplo o resultado 9, obtido a partir da combinao da face trs nos trs dados s
tem uma possibilidade de ocorrncia, ao passo que o resultado 10, obtido pela combi-
nao das faces 2, 3 e 5, pode ser obtido de 6 combinaes distintas.Mas por isso voc
j esperava, no ?
Raciocinando corretamente, temos os seguintes eventos
71
{"Soma de 9 pontos"} = {(1, 2, 6); (1, 6, 2); (2, 1, 6); (2, 6, 1); (6, 1, 2); (6, 2, 1);
(1, 3, 5); (1, 5, 3); (3, 1, 5); (3, 5, 1); (5, 1, 3); (5, 3, 1); (1, 4, 4); (4, 1, 4); (4, 4, 1);
(2, 2, 5); (2, 5, 2); (2, 2, 5); (2, 3, 4); (2, 4, 3); (3, 2, 4); (3, 4, 2); (4, 2, 3); (4, 3, 2);
(3, 3, 3)}
e
{"Soma de 10 pontos"} = {(1, 3, 6); (1, 6, 3); (3, 1, 6); (3, 6, 1); (6, 1, 3); (6, 3, 1);
(1, 4, 5); (1, 5, 4); (4, 1, 5); (4, 5, 1); (5, 1, 4); (5, 4, 1); (2, 2, 6); (2, 6, 2); (6, 2, 2);
(2, 3, 5); (2, 5, 3); (3, 2, 5); (3, 5, 2); (5, 2, 3); (5, 3, 2); (2, 4, 4); (4, 2, 4); (4, 4, 2);
(3, 3, 4); (3, 4, 3); (4, 3, 3)}.
Assim, n({"Soma de 9 pontos"}) = 25 e {"Soma de 10 pontos"} = 27. Logo,
P({"Soma de 9 pontos"}) =
n({"Soma de 9 pontos"})
n()
e
P({"Soma de 10 pontos"}) =
n({"Soma de 10 pontos"})
n()
.
Uma vez que o lanamento consecutivo dos trs dados um experimento em que a
ordem conta e h reposio, temos que
= {1, 2, . . . , 6}

6 resultados
{1, 2, . . . , 6}

6 resultados
{1, 2, . . . , 6}

6 resultados
= {(1, 1, 1); (1, 1, 2); (1, 2, 1), . . .}

216 resultados
.
Isso nos d que n() = 216, ento
P({"Soma de 9 pontos"}) =
25
216
0, 11574
e
P({"Soma de 10 pontos"}) =
27
216
= 0, 125.
Portanto, conforme j comentamos antes, nesse caso o que havia era um erro de
clculo dos apostadores e a Lei dos Grandes Nmeros de Bernoulli no poderia mesmo
gerar, atravs da experincia, o resultado por eles esperado.
72
Referncias Bibliogrcas
[1] BERTSEKAS D. P; TSITSIKLIS J.N. Introduction to Probability. Cambridge:
Athena Scientic (publicao virtual), 2000.
[2] COSTA, F. O problema dos aniversrios e a negao da intuio.
[3] DANTAS, C. A. B. Probabilidade: um curso introdutrio. 2 ed. So Paulo:
Editora da Universidade de So Paulo, 2004.
[4] MORETTIN, L. G. Estatstica Bsica. v.1, 7 ed. So Paulo: Makron Books,
1999.
[5] ISAAC, R. The Pleasures of Probability. New York: Springer, 1995.
[6] RIBEIRO, R. Matemtica: Culpada ou Inocente? (OBM 2009)
[7] SALDANHA, N. C. Como Perder Amigos e Enganar Pessoas.
[8] STIRZAKER, D. Probability and Random Variables: A Beginners Guide.
Cambridge: University Press (publicao virtual), 2003.
[9] TBOAS, P. Z. Clculo em uma Varivel Real. So Paulo: Editora da
Universidade de So Paulo, 2008.
73

Potrebbero piacerti anche