Sei sulla pagina 1di 210

( l

. Probabilidade e Variáveis Aleatórias

Marcps Nasçimento Magalhaes

2!! edição
111104 1

Probabilidade e Variáveis Aleatórias

Marcos Nascimento Magalhães

UNIVERSIDADE DE SÃO PAULO

Rei tora Suely Vilela

EDITORA DA UNIVERSIDADE DE SÃO PAULO

Diretor-presidente Plinio Martins Filho

COMISSÃO EDITORIAL
Presidellte José Mindlin
Vice-pre.<idente Laura de Mello e Souza
Brasflio João Sallum Júnior
Carlos Alberto Barbosa Dantas
Carlos Augusto Monteiro
Franco Maria Lajolo
Guilherme Leite da Silva Dias
Plinio Martins Filho

Diretora Editorial Silvana Biral


Diretora Comercial
Editores-as.'iistentes
)vete Silva
Marilena Vizentin
Carla Fernanda Fontana
Marcos Bernardini
I
I
Conteúdo
Copyright © 2004 by Marcos Nascimento Magalhães
...... ;;;
Prefácio ............................................................................................................
I' edição 2004 (IME-USP)
.... 1
2' edição 2006 (Edusp) 1. Conceitos Básicos em Probab ilidade ............................................................
... 1
1.1 Introdução..........................................................................................
atória ............ ............ ............ ............ ............ ........ I
1.2 Conjuntos e Combin
............ ............ ............ ............ ............ ............ .. 1O
1.3 Probabilidade ............
46
Ficha catalográfica elaborada pelo Departamento 1.4 Exercícios ............................................................................................
Técnico do Sistema Integrado de Bibliotecas da USP
..... 63
Magalhães, Marcos Nascimento. 2. Variáveis Aleatórias ....................................................................................
Probabilidade e Variáveis Aleatórias I Marcos Nascimento 63
2.1 Introdução...........................................................................................
Magalhães . - 2. ed. - São Paulo: Editora da Universidade de ............ ............ ............ .... 63
2.2 Variáveis Aleatór ias ............ ............ ............
São Paulo, 2006.
. 81
428 p.; 16 lt 23 em. 2.3 Principais Modelos Discretos ............................................................
s Contínu os ............ ............ ............ ............ ............ 94
Inclui bibliografia.
2.4 Principais Modelo
...........~ ............ ............ ............ ............ ............ ...... lO?
Inclui índice remissivo. 2.5 Exercícios ............
Apêndice: A. Tabela normal, Resumo de distribuições, Sumário
de eltpressões matemáticas - B. Respostas de ellercícios. ...... 115
ISBN 85-314-0945-4
3. Vetores Aleatórios ....................................................................................
I 15
3 . I Introdução.........................................................................................
115
I. Matemática. 2. Probabilidade. L Título. 3.2 Vetores Aleatórios ............................................................................
de Variáve is Aleatór ias ............ ............ ............ ............ ....... l41
CDD-519.2 3.3 Funções
169
3.4 Exercícios ..........................................................................................
l79
4. Valor Espera do ...............................................................................................
179
4.1 Introdução .........................................................................................
ISO
Direitos reservados à 4.2 Valor Esperado ..................................................................................
l99
Edusp- Editora da Universidade de São Paulo 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes ................................
213
Av. Prof. Luciano Gualberto, Travessa J, 374 4.4 Propriedades do Valor Esperado.......................................................
6" andar- Ed. da Antiga Reitoria- Cidade Universitária ............ ............ ............ ............ ............ ............ ...... 234
4.5 Exercícios ............
05508-90 0- São Paulo - SP- Brasil
Divisão Comercial: Te I. (Ou I I) 3091-4008 I 3091-4 I50 .. 241
SAC (Oxx 11 ) 3091-291 I -Fax (Oxx I I) 3091-415 I 5. Momentos, Espera nça Condicional e Funções Auxiliares ........................
241
www.usp .br/edusp - e-mail: edusp@edu.usp.br 5.1 Introdução.........................................................................................
...... 24 1
5.2 Momentos ....................................................................................
......... 260
Printed in Brazil 2006 5.3 Esperança Condicional. ............................................................
........ 266
Foi feito o depósito legal 5.4 Função Geradora de Momentos ................................................
............ 276
5.5 Função Característica............................................................
290
5.6 Exercícios ..........................................................................................
( -·
ii Conteúdo

Prefácio
6. Convergên cia de Variáveis Aleatórias ......................................................... 299
6. 1 Introdução......................................................................................... 299
6.2 Modos de Convergência................................................................ ,... 300
6.3 Leis dos Grandes Números ............................................................... 323 Este livro busca contribuir para a formação de estudantes que tenham
6.4 Teorema Central do Limite............................................................... 337 interesse em aprofundar os conceitos de probabilidade e de variáveis aleatórias.
6.3 Exercícios .......................................................................................... 350 Em especial, poderia ser útil para estudantes de pós-graduação em ínicio de
Mestrado nas áreas de exatas, em particular, de Matemática e Estatística. O nível
Apêndice A ........................................................................................................ 359 dos pré-requisitos necessários à leitura e a formalização envolvida no texto,
Tabela Normal .......................................................................... :............ 36l podem ser considerados similares ao livro excelente (e, de certa forma, já clássico
em nosso país) de autoria de Barry James.
Resumo de Distribuiç ões ...................................................................... 362
A seqüência do conteúdo e a escolha dos tópicos refletem minha
Sumário de Expressões Matemátic as .................................................. 365 experiência, adquirida nos vários anos em que fui responsável por disciplinas
Apêndice B -Resposta s de Exercícios ...............................................................371 correlatas, no curso de Pós-Graduação do Departamento de Estatística do Instituto
de Matemática e Estatística da Universidade de São Paulo (IME-USP).
Bibliograf ia......................................................................................................... 403
Este livro traz inúmeros exemplos ilustrativos e uma quantidade
Índice Remissivo................................................................................................. 407 expressiva de exercícios. Isto busca realçar, para os leitores, a necessidade de
praticarem os conceitos através da resolução de exercícios. Muitas vezes, a
aparente frustração de ficar horas tentando resolver um exercício pode esconder
os grandes benefícios que essa persistência tem em nossa formação, pois, como na
vida, nem todos os problemas são resolvidos no tempo em que gostaríamos que o
fossem. Como é comum em textos desse tipo, muitos desses exercícios foram
adaptados de o"utros livros e/ou sugeridos por colegas. Vários fora m criados e
outros tantos coletados de provas e exames que organizei, ao longo da carreira
acadêmica. Os exercícios são apresentados ao fim de cada seção e em uma seção
específica ao final de cada capítulo.
Quero expressar minha gratidão aos colegas e estudantes que deram sua
colaboração na feitura deste livro. A professora Elisabeti Kira leu praticamente
todos os capítulos e fez inúmeras sugestões e comentários. Também auxiliou na
discussão de vários exercícios. Os professores Francisco Miraglia e Luis Gustavo
Esteves leram alguns capítulos e, também, deram várias sugestões importantes. A
professora Zara I. Abud forneceu algumas referências de Análise Matemática e a
professora Maria Izabel R. Martins auxilou na solução de vários exercícios que
envolviam integração. Os estudantes Thomas L. Ritchie, Geraldine G. Bosco e
Juvêncio S. Neto deram sugestões em capítulos específicos. Para preparar as
respostas dos exercícios, foram muito úteis as soluções que os estudantes
Fernando C. Cordeiro, Grazielle Y. Soldá, Juvêncio S. Neto e Mariana M. Ribeiro

iii
Prefácio
iv

e
gentilmente disponibilizaram. Gostaria de agradecer, em especial, ao estudant Capítulo 1
, bem como
Nelio P. Machado pela organização de exercícios, ajuda na digitação
em
na edição dos apêndices. O professor Antonio Carlos P. de Lima auxiliou-me,
vários momentos, na escolha das diversas opções que a redação de um texto como Conceitos Básicos em Probabilidade
a
este sempre traz. A professora Maria Cecilia Camargo Magalhães, com
tradicional competência e rapidez, auxiliou na correção do texto. Luis Ricardo
e a
Camara, da ADUSP- Associação dos Docentes da USP, preparou a capa
formatação da Tabela da Normal. As professo ras Elisabet i Kira e Mônica
Carneiro Sandoval utilizaram a 1a. edição em seus cursos e deram várias
1.1 Introdução
o Neste capítulo, são apresentadas as idéias básicas de probabilidade.
sugestões incorporadas nessa nova edição. A todos eles meu profund
agradecimento. Incluímos, também, vários exemplos para ilustrar técnicas importantes que devem
,
ser exercitadas pelos leitores. Muitos dos problemas apresentados são clássicos
Para a segunda edição foram corrigidos, na medida que foram textos da área, e fazem parte da história do estudo de
estão presentes em vários
encontrados, os erros ortográficos e os erros em respostas de exercícios. Alguns is
s probabilidade. Apresen tamos, na Seção 1.2, um sumário dos principa
enunciados de exemplos, definições, proposições e exercícios foram alterado Combina tória. Em seguida, na Seção 1.3, o
a redação. Eventua lmente, resultados em Teoria dos Conjuntos e
para sanar pequenos erros e/ou tornar mais clara é. apresent ado usando o suporte axiomát ico
a conceito formal de probabilidade
pequenas modificações de redação também foram feitas para ajustar
es nessa segunda edição. A rigoroso introduzido pelo matemático russo A. N. Kolmogorov. A notação
diagramação. Em resumo, não há grandes alteraçõ e irá
. utilizada procurou ser a mais usual dentre as várias alternativas possíveis
grande motivação para esta nova edição foi o fato da la. edição ter se esgotado io.
Desse modo, os estudantes e colegas podem continua r usando a edição anterior sendo introduzida conforme necessár
das
após consulta à www.ime.usp.br/-marcos que contém uma descrição 1.2 Conjuntos e Combinatória
atualizações.
Encontramos, na natureza, muitas situaç.ões que envolvem incertezas.
Por maior esforço que se possa ter feito, alguns erros vão aparecer e são Elas são denominadas de fenômenos ou experimentos aleatórios. A busca
por
de minha responsabilidade. Agradeceria receber críticas e sugestões que possam avaliar as diversas probabilidades de ocorrência é um dos objetivo s no estudo
contribuir para a melhoria do texto em novas edições. desses fenômenos.
O espaço amostrai é o conjunto de todos os resultados possíveis de um
experimento aleatório e é representado por n. Ele pode ser enumerável, finito
ou
São Paulo, fevereiro de 2006 bi-unívo ca com os números
infinito, se pode ser colocado em correspondência
Marcos N. Magalhães naturais. Caso contrário, será não enumerável, como a reta real. Cada resultado
pOSSSÍVel é denominado ponto OU elemento de f! e denotado genericamente por
marcos@ime.usp.br UI.

Assim, escrevemos UI E n para indicar que o elemento UI está em n. o conjunto


sem elementos é o conjunto vazio, denotado por 0. Os subconjuntos de n, serão
denotados por letras latinas maiúsculas do ínicio do alfabeto, tais como A, B,
etc.
Além disso, escrevemos A C n para indicar que A é subconju nto do espaço
amostrai n.
Exempl o 1.1: Uma rede de computadores está em operação contínua, mas pode
a
sofrer avaria a qualquer momentó. Na ocorrência de falha, o tempo de colocar
envolven do a extensão e a
rede novamente em operação depende de vários fatores

1
(
(
1.2 Conjuntos e Combinatória 3
2 Capítulo 1: Conceitos Básicos em Probabilidadt•

causa da falha, entre outras. Se estivermos interessados no número de falhas Diremos que dois subconjuntos são disjuntos ou mutuamente exclusivos
diárias temos como espaço amostrai: se sua intersecção é o vazio. Assim,
( J

n= {0, 1, 2,. ··,m}. A e B disjuntos {::} A n B = 0.

Nesse caso, n é um conjunto enumerável finito, sendo m o limite máximo de Diremos que A 1 , A2, ... , A, formam uma partição de n se são disjuntos
falhas estabelecido pelo administrador da rede. É claro que se esse limite não é e se sua união é n, ou seja:
( n
fixado, poderíamos considerar n como sendo enumerável infinito. Em uma UA; = n, com A; nAj = 0, Vi =I= j.
análise estatística do funcionamento da rede, poderia haver interesse em avaliar o i=l
( valor de m para estabelecer políticas de manutenção preventiva. o conjunto das partes de n é formado por todos os subconjuntos de n.
Supondo, agora, que o interesse é observar a hora do dia em que ocorre Denotaremos esse conjunto por nP, mas são comuns outras notações tais como
(
falha, o espaço amostrai seria P{n} (que foi evitada aqui para não confundir com probabilidade, definida
( I
f2 = { w E IR : O :::; w :::; 24}. adiante).
Se um número infinito de subconjuntos estiver envolvido nas operações
Temos, assim, um conjunto não enumerável. Se a unidade de tempo for minutos acima mencionadas, elas são definidas de maneira análoga.
ou segundos, o intervalo de valores se modifica adequadamente. Exemplo 1.2: Leis de Morgan
Observe que, para um mesmo fenômeno aleatório, pudemos associar
yários espaços amostrais. A escolha de qual é adequado depende do interesse do Um conjunto de relações entre umao e intersecção de conjuntos,
estudo e, muitas vezes, é possível trabalhar com mais de um espaço amostrai. O conhecido como Leis de Morgan, auxilia na demonstração de vários resultados.
Elas são dadas por:
A notação utilizada para as operações básicas entre subconjuntos é
( apresentada a seguir:
(i) A c ou A é o complementar de A, isto é, todos os elementos de n exceto os
( de A;
Vamos verificar a relação (i) e deixamos ao leitor a demonstração da
n
(ii) A1 U A2 ... U A,. ou U AJ é a união de A 1, A2, ... , A,. e representa os outra parte, que é análoga.
j= l O caminho usual, para demonstrar igualdades entre conjuntos, é provar
pontos de n que pertencem a pelo menos um desses subconjuntos; que cada um deles está contido no outro. Dessa forma, temos duas partes a serem
n verificadas:
n ou, ainda, simplesmente A1A2 ... A,. é a n
(iii) A1 n A2 ... nA" ou
j=l
Ai

intersecção de A 1 , A 2 , .•• , A 11 e representa a ocorrência simultânea


n )cc nA~
( UA;
i"=l
(parte I)
i=l
e
i=l
n .
( UA;)
c
:J nA;·
n

i=l
(parte 2).

desses subconjuntos;
Prova da Parte 1:
(iv) A- B ou A n B" = ABc é a diferença entre A e B, isto é, todos os
elementos de A, exceto os que também estejam em B ;
Suponha que w E (9 A;)
1
c. Então w ~;ºA; e, ainda, w ~A; para todo
nAj.
11

(v) A!::::.B ou ABc U Ar B é a diferença simétrica entre A e B, isto é, todos os i. Dessa forma w E Aj para todo i e, consequentemente, w E
elementos de A U B exceto os que estejam em A n B. i=l

(
1.2 Conjuntos e Combinatória 5
4 Capítulo 1: Conceitos Básicos em Probabilidade

Definição 1.1: o--álgebra


Prova da Parte 2:
n
Uma classe de subconjuntos de O, representada por :F, é denominada uma
Suponha que w E nAf. Então w E Af para todo i e, ainda, w rf- A; para
i =l u-álgebra se satisfaz as seguintes propriedades:
todo i. Dessa forma w rf- iº l A; e, consequentemen te, w E (Q A;)c. (Al) O E :F;

Portanto, a verificação da relação (i) está completa. Vale ressaltar que as (A2) Se A E :F, então Ac E :F;
Leis de Morgan também são válidas para o caso em que n = oo. D 00

(A3) Se A; E :F, i 2:: 1, então UA; E :F.


Diremos que os subconjuntos A~, A 2 , •• • formam uma seqüência i=l

monótona não-decrescente se An C An+l para todo n 2:: 1 (em notação Se apenas a união finita está em :F temos uma classe menos restrita, denominada
simplificada An l ). A seqüência será monótona não-crescente (An l ) se a álgebra. D
inclusão for no sentido contrário, isto é, se para n 2:: 1 tivermos An :::> An+l· É fácil verificar que uma u-álgebra é também uma álgebra. Fica como
O limite superior da seqüência de subconjuntos { An; n 2:: 1} é definido exercício ao leitor verificar que intersecções infinitas de elementos de uma u -
por: álgebra, também pertencem à u-álgebra.
00 00
Exemplo 1.3: Considere O = {1, 2, 3} e as seguintes coleções de subconjuntos:
limsup An = lim An = n U Ak· •
n=lk=n :Fl = {0,0,{1} , {2,3}} ;
:F2 = {0,0,{1} , {2} , {1 , 3} , {2, 3}} .
Em palavras, o lim supAn é o conjunto dos elementos de O que pertencem a um
Seriam ambas u-álgebra?
número infinito dos A ... Por essa razão, é freqüente denominar lim sup An pelo Para responder a essa questão vamos verificar se as propriedades (Al)-
conjunto {An infinitas vezes}. (A3) estão satisfeitas. As duas coleções contém o espaço amostrai e, assim, (A1)
De modo similar, definimos limite inferior por
está satisfeita para ambas.
00 00 Vamos verificar (A2). Observe que os complementares dos elementos de
liminf A 11 = lim A,.= Un Ab :F1 estão todos também em :F1 pois:
n=l k=n
0c =o, oc = 0, {1 }" = {2,3} e {2,3Y = {1} .
sendo interpretado como o conjunto dos w E O que estão em todos os An, a partir
de um certo n (que pode ser função de w). Outra interpretação, bastante utilizada, Logo :F1 satisfaz a propriedade (A2). De modo análogo, verificamos que o mesmo
considera o lim in f An como sendo o conjunto {ocorre An, para todo n ocorre com a coleção :F2.
suficientemente grande} . Para verificar (A3) observamos que, como o número de elementos em
Se uma seqüência {A.,; n 2:: 1} tem limite, então os limites inferior e cada coleção é finito, basta verificar se todas as uniões possíveis com seus
superior coincidem, isto é, elementos também pertencem à coleção. A união com o vazio é inócua e a com O
dá o próprio O, logo vamos nos ocupar das demais uniões que poderiam não
lim An = lim An = n-->oo
lim An, pertencer à coleção.
Para :F1 temos
justificando a nomenclatura utilizada para essas operações de conjuntos.
Vamos estabelecer uma classe de subconjuntos com algumas {1} u {2, 3} =o E :F1 ,
propriedades convenientes. Ela será usada para a definição axiomática de e, portanto, a propriedade (A3) está satisfeita e a coleção :F1 é uma u-álgebra.
probabilidade, apresentada na próxima seção.
6 Capítulo 1: Conceitos Básicos em Probabilidade 1.2 Conjuntos e Combinatória 7

Se tomarmos as uniões relevantes e não triviais em :F2, notamos que :F= {0, A, A c, f!} é uma o--álgebra, sendo A um dos seus elementos.
imediatamente que Qualquer outra o--álgebra que também contiver A será "maior", isto é, terá os
elementos de :F e, eventualmente, mais alguns. Por isso, :F é definida como a o--
{1} u {2} = {1 , 2} tt :F2; álgebra gerada por A ou, ainda, como a intersecção de todas as o--álgebras que
logo (A3) não vale e a coleção de conjuntos :F2 não forma uma o--álgebra. O contém o subconjunto A. Numa denonúnação mais informal diremos que :F é a
menor o--álgebra que contém o subconjunto A.
Exemplo 1.4: Seja :F uma o--álgebra de conjuntos de n e considere que A o--álgebra de Borel em IR, denotada por B(IR), é a menor o--álgebra que
A1, A2 , ···sejam elementos de :F. Para k = 1, 2, ··· ,definimos: contém todos os intervalos abertos dos reilis. É possível verificar que ela pode ser
B~.: = { w : w pertence a no mínimo k dos conjuntos An, n = 1, 2, · · · }. gerada pelos intervalos ( -oo, x) com x E IR. Existem outras escolhas para o
intervalo gerador, mas o que é importante é que, qualquer tipo de intervalo dos
Vamos verificar que os conjuntos Bk, k = 1, 2, ···também estão na o--álgebra :F. reais, pode ser obtido através de um número enumerável, finito ou infinito, de
Fixando um k arbitrário, precisamos caracterizar os elementos de B~.. Observe operações de uniões e intersecções com o intervalo acima.
que se w E Bh então ele pertence a j dos An 's, para algum j 2: k. Assim, Para ilustrar essas idéias, vamos verificar que o intervalo [a, bJ, com
podemos considerar os w's E B~.: como a união daqueles que pertencem a a < b, a, b E JR, está na o--álgebra gerada por intervalos do tipo ( -oo, x) com
exatamente j dos An 's, com j = k, k + 1, ···. Mas pertencer a exatamente j dos X E JR.
j Observe que, para qualquer b E JR, existe uma seqüência b, ! b de modo
An 's, é pertencer à n An
i=l
1
, para alguma escolha de índices nh n2 , ... , nk. •oo
que ( -oo, bJ pode ser escrito como n (-oo, bn)· Logo ( -oo, b] está em B(JR),
j n=l

Portanto segue que B~.: =U


oc

j=ki=l
nAn;· pois ele é obtido da intersecção infinita de intervalos do tipo ( -oo, x), todos em
B(JR). Note que, sendo (-oo,aY = [a,oo) este intervalo também está em B(JR).
Note que, pelas Leis de Morgan, temos ió An1 = (~ A~ 1 ) c. Aplicando
1
Finalmente, [a, bj está na o--álgebra de Borel, pois é intersecção ·de dois de seus
elementos, isto é, [a, b] = [a, oo) n (-oo, b].
sucessivamente as propriedades de o--álgebra vem: Se o resultado de um experimento é um número real, isto é n = JR, então
todas as perguntas práticas de interesse se referem a um conjunto pertencente à o--
A~ 1 E :F pois A 711 E :F (propriedade A2);
álgebra de Borel. É preciso muito esforço e artificialidade para construir um
j O
subconjunto que não seja boreliano.
: : } UA~1 E :F (propriedade A3);
i=l Uma função bastante útil na operação entre conjuntos é a função

: : } (U A~i)
t=l
r E :F (propriedade A2);
indicadora do conjunto A, definida da seguinte forma:
se w E A;
se w <tA.
c
: : } U UA~~ )
00 ( j
E :F (propriedade A3); Não é difícil verificar que J,1c:(w) = 1- IA(w). A notação de função indicadora
j=k i=l
pode variar entre autores, sendo também comum a utilização de 1A(w) ou 6A(w).
logo Bk E :F e a verificação está completa. o Exemplo 1.6: Indicadores da União e Intersecção
Exemplo 1.5: A "menor" u-álgebra gerada por um subconjunto
Muitas vezes a operação com indicadores facilita a notação e clarifica as
Em várias situações, nosso interesse é construir uma o--álgebra que tenha. idéias envolvidas. Vamos verificar duas expressões com indicadores referentes a
entre seus elementos, um particular subconjunto A c f!. Não é díficil verificar
Capítulo 1: Conceitos Básicos em Probabilidade 1.2 Conjuntos e Combinatória 9
8

união e a intersecção de conjuntos. Sejam A1o A 2, ... An subconjuntos de ne Um arranjo de n objetos, tomados n a n, é uma permutação de n objetos.
n n Assim, a expressão do número de diferentes permutações é dada por:
defina A= U Ai e B = n Ai então:
i=l i=l
n permutação: (n)n = n!
(i) lA(w) = 1 - IT IA:;(w); Outro resultado útil é o Príncipio Fundamental da Contagem enunciado a
i=l
n seguir:
(ii) IB(w) = II IAi(w). Se uma tarefa tem k etapas e cada etapa i tem n; maneiras
j=l
diferentes de ser realizada, então o número total de alternativas para
Prova de (i) :
realizar a tarefa é o produto n1n2 ... nk .
Se w E A, temos IA(w) = 1. Nesse caso, w E Ai para algum j e, assim,
Exercícios da Seção 1.2:
para esse j temos w ~ Aj e portanto IAj(w) = 0: Logo, o lado direito da
igualdade (i) é igual a 1. Se w ~A, temos IA(w) =O. Logo w ~Ai para todo nj, 1. Sendo A, B e C subconjuntos quaisquer, expresse em notação matemática os
conjuntos cujos elementos:
isto é, w E Aj para todo j. Dessa maneira, IA~(w) = 1 para todo j e TI a. Estão em A e B, mas não em C.
) j=l
b. Não estão em nenhum deles.
IA~(w) = 1. Assim o lado direito de (i) também é igual a O.
)
c. Estão, no máximo, em dois deles:
Prova de (ii) : d. Estão em A, mas no máximo em um dos outros.
Se w E B, temos IB(w) = 1. Nesse caso, w E Ai para todo j e, assim, e. Estão na intersecção dos três conjuntos e no complementar de A.
n
IA/w) = 1 para todo j . Então TI IAi(w) = 1 e o lado direito de (ii) é igual a 1. 2. Verifique fofi!ialmente que:
j=l a. A6B = B6A.
Se w ~ B, temos IB(w) = Oe portanto w ~ Ai para pelo menos um j. Seja j* um b. (A6B) u AB = A U B.
desses índices, temos IA.(w) =O. Logo, o lado direito de (ii) é igual a O. O c. (ABcc u N BC) n ABCc = 0.
)

As idéias de contagem se relacionam com probabilidade, conforme 3. Sejam A1. A 2 , • • • subconjuntos de n e defina Bn da seguinte forma:
veremos na próxima seção. Sem pretender ser exaustivo, apenas mencionamos
aqui as definições e resultados básicos de análise combinatória.
B1 = A1 e Bn = AnA~-1 A~-2" ·Aí, n 2:: 2.
Considere que desejamos escolher k dentre n objetos. Se a ordem de U An.
00

Mostre que a seqüência { Bn; n 2:: 1} forma uma partição de n=l


escolha é importante, temos um arranjo de n objetos tomados k a k. Caso a
ordem não importe, o agrupamento formado é a combinação de n objetos 4. Considere a seqüência infinita A 1 , A 2 , ···de subconjuntos de n e defina
tomados k a k. O número de diferentes agrupamentos que podem ser formados
00 00
são apresentados a seguir
(n(:!~)!;
Bn = nAj e Cn = UAj.
arranjo: (n) k = n(n- 1)(n- 2)· · ·(n- k + 1) = j=n j=n

.
combmaçao:
_ (n)
k =
n!
k! (n _ k)! ·
a. Estude a monotonícidade das seqüências { Bn; n 2:: 1} e {Cn; n 2:: 1}.
00
b. Prove que w E U Bn se, e somente se, w pertence a todos os subconjuntos
n=l
A 1 , A 2 , ···exceto, possivelmente, a um número finito deles.
10 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 11

.
c. Mostre que w E
oc
n Cn se, e somente se, w pertence a um número infinito probabi!idáde geométrica. Por exemplo, para n sendo um intervalo dos reais
n=l temos,
dos subconjuntos A1, A2, · · ·.
P(A) = Comprimento de A
5. Sendo S1 = {a, b, c}, liste todas as a-álgebras de subconjuntos de n. Comprimento total de S1
6. Sendo S1 = {1 , 2, 3}, mostre que SlP é a-álgebra.
Uma outra definição, denominadafreqüentista ou estatística, considera o
11

7. Mostre que, se A1 , A 2 , .. ·,A, são elementos de uma a-álgebra :F então nA; limite de frequências relativas como o valor da probabilidade. Para tal, seja nA o
i=l
número de ocorrências de A em n repetições independentes do experimento em
também pertence a :F. questão. Assim,
8. Sendo n = JR.,
seja B(JR.) a a-álgebra gerada pelos intervalos ( -oo, x) com
P(A) = lim nA·
x ER Mostre que com o intervalo [x,y), x ~ y, x.,y E JR., também n .....oo n
poderíamos gerar os mesmos borelianos de B(JR.).
As definições apresentadas acima têm o apelo da intuição e permanecem
9. Seja C uma coleção não vazia de subconjuntos de n. Mostre que existe a menor sendo usadas para resolver inúmeros problemas. Entretanto, elas não são
a-álgebr;1 de subconjuntos de S1 que contém C, e que ela é unica. suficientes para uma formulação matemática mais rigorosa da probabilidade. Ao
10. Considere S1 = [O, I) e os seguintes subconjuntos: redor de 1930, A. N. Kolmogorov apresentou um conjunto de axiomas
matemáticos para definir probabilidade, permitindo incluir as definições
'A= {x E S1: x ~ 1/2} e B = {x E S1: x 2: 1/3}. anteriores como casos particulares.
Expresse, em fúnção dos indicadores de A e B, os indicadores dos seguintes Definição 1.2: Probabilidade
conjuntos: Uma função P, definida na a-álgebra :F de subconjuntos de n
e com
a. {:r E Sl: X> 1/2}. valores em [0, 1), é uma probabilidade se satisfaz os Axiomas de Kolmogorov:
b. {x E Sl: X< 1/3}.
C. {x f2: 1/3 ~X ~ 1/2}.
E (Axl) P(Sl) = I;
d. {x E f2: X< 1/3 ou X> 1/2}. (Ax2) Para todo subconjunto A E :F, P(A) ;::: O;
e. n.
(Ax3) Para toda seqüência A1, A2, ... E :F, mutuamente exclusivos,
1.3 Probabilidade temos
A definição clássica de probabilidade se refere a subconjuntos unitários
eqüipmváveis. No caso enumerável finito temos:
P(A) = Número de elementos em A
Número total de elementos em S1
o
A trinca (S1, :F, P) é denominada espaço de probabilidade. Os
Utilizando essa definição, muitos problemas são resolvidos através de técnicas de
subconjuntos que estão_ em :F são denominados eventos e é somente a eles que se
análise combinatória e de contagem. Se o número de elementos de n for infinito,
atribui probabilidade. E possível demonstrar, através do Teorema da Extensão de
precisamos tratar a definição acima com o uso de limites.
Caratheodory, que uma função de probabilidade definida em uma álgebra pode
Se n não for enumerável, o conceito se aplicará ao comprimento de
ser estendida para uma a-álgebra conveniente.
intervalos, medida de áreas ou similares, dando origem ao que é chamado de
1.3 Probabilidade 13
12 Capítulo 1: Conceitos Básicos em Probabilidade

r P (E)
Exemp lo 1.7: Proble ma dos Aniversários (Feller [68]) 10 0,1169
Num grupo de r pessoas, qual é a probabilidade de pelo menos duas delas 20 0,4114
fazerem aniversário no mesmo dia? 30 0,7063
de
Esse problema tem surpreendido estudantes pois, dependendo do valor 40 0,8912
Vamos conside rar o ano com 365
r, a_probabilidade procurada é bastante alta. 50 0,9704
desejada
dias e, assim, assumimos r < 365 pois para r ~ 365 a probabilidade 60 0,9941
seria 1.
s
O espaço amostrai n será o conjunto de todas as seqüências formada A nossa intuição de considerar "evento raro" duas pessoas terem a mesma
cada data a um dos 365 dias do ano).
com as datas dos aniversários (associamos data de aniversário contradiz os cálculos da tabela. Não é preciso um grupo
muito
enumerável
Pode ser verificado que o conjunto das partes de um espaço amostrai grande para que tenhamos, com quase certeza, anivers ários coincid entes. O
s tomar a a-álgeb ra :F como sendo o
é uma a-álgebra. Dessa forma, podemo
conjunto das partes de f! e, para qualque r A E :F, P(A) é o quocien te entre o Exempl o 1.8: Paradoxo de Bertran d (Neuts [73])
365r, que é o número total de seqüênc ias de é passível de
número de elementos de A por . Ne~te exemplo, vamos apresentar um problema que
os dias são eqüipro váveis. paradoxo,
tamanho r. Assim, assumimos que todos diferentes Interpretações. Apesar de se tomar conhecido como um
Seja E o evento de interesse, isto é, E = {pelo menos duas pessoas ~ata-se apenas de diferentes escolhas do espaço de
probabi lidade e, sendo
={ning uém
aniversariam no mesmo dia} . Para o complementar de E, temos Ec ngoroso, não existe paradoxo algum. Em todas as interpre tações os elemen tos são
Iremos calcula r a probabi lidade de Ec com o diferentes, produze m
faz aniversário no mesmo dia}. ~üiprováveis mas, como os espaços de probabilidade são
auxílio do Principio Fundamental da Contag em. diferentes respostas. O problema é formulado da seguint e forma:
as
Considerando a escolha das idades como sendo r etapas sucessiv Num círculo unitário, representado a seguir, o triângulo eqüiláte
ro
serem todas distinta s, elimina r as que forem escolhid as círculo
precisamos, para as datas inscrito tem lado igual a y'3 . Qual é a probabilidade de uma corda desse
para o
em etapas anteriores. O agrupamento formado é um arranjo e, dessa forma, escolhida ao acaso, ter comprimento maior que o lado desse triângulo?
'
total de maneiras de escolhermos r datas diferentes de aniversário, teremos
(365) r = 365 X 364 X ... X (365- r+ 1).
satisfazem a
Em outras palavras, o produto acima é o número de seqüências que
condição de datas distintas de aniversário. Então,

(365)r ( 1 ) (1 2 ) ( r- 1)
P(E ) = 365r = 1 1 - 365
c
- 365 ... 1 - 365 .
no
Portanto, a probabilidade desejada, de pelo menos dois aniversários
mesmo dia, será P(E) = 1 - P(ec).
,
O curioso é que para r = 23, um número relativamente baixo de pessoas c
que 1/2.
a probabilidade de pelo menos dois aniversários coincidentes já é maior Figura 1.1: Paradoxo de Bertrand.
lidade
A tabela a seguir (ver Neuts [73]) apresenta alguns valores dessa probabi
em função de r.
15
1.3 Probabilidade
14 Capítulo 1: Conceitos Básicos em Probabilidade

As cordas com comprimento superior a J3


são aquelas em que o outro
I a. Intemretacão: entre ~ e ~ (ver figura a
extremo da corda está no arco com extremidades
forma: escolhemos
A corda é escolhida ao acaso da seguinte seguir).
os ao centro através de um
aleatoriamente um ponto P dentro do círculo e o ligam
forma a ser perpendicular ao
segmento de reta. A corda é traçada nesse ponto de
4Jtl3

segmento conforme figura a seguir.

D D

Figura 1.3: Paradoxo de Bertrand- la. Interpretação.

c
Segue que
Figura 1.2: Paradoxo de Bertr and-l a.lnte rpret ação. Medida do Arco ( ~, !...
,.)
2 1
r;; 3 3 = 311' = _.
P(Co rdas maiores que v J) = ·
211' 211' 3
o unitário e :F uma
Para essa interpretação consideramos O como o círcul
subconjuntos de O cuja área
a-álgebra constituída de modo a incluir todos os 3a. Intemretação:
como sendo o quociente entre
esteja definida. Para todo A E :F, definimos P(A) Para a obtenção da corda, escolha um ponto ao acaso
em um dos raios, e
a área de A e a área do círculo unitário. raio utilizado é irrelevante e
que produzirá as por esse ponto, trace uma perpendicular. O particular
É um exercício de geometria, verificar que a região o procedimento aleatório é equivalente a sortea
r um ponto ao acaso num
de mesmo centro e raio 1/2.
cordas desejadas é o círculo inscrito no triângulo, segmento [0, 1] .
Logo, a probabilidade de interesse será: e :F uma a-álgebra
Para essa interpretação, seja O o intervalo [0, 1]
O cujo comprimento esteja
. r;; ) Área Círculo (0, 1/2) = !1r = ~.
4
constituída de modo a incluir todos os intervalos de
o comp rimento de A.
P(cord as maiOres que v 3J = Area
,
Círculo (0, 1) 1r definido. Para todo A E :F, definimos P(A) como sendo
o ponto escolh ido precisa
Para produzir os tamanhos desejados de corda,
2a. Intemretação: estar no intervalo [O, 1/2], conforme figura a seguir.
, ainda, que a corda Então,
A corda une dois pontos na circunferência. Admitimos
é invariante por qualquer rotação da circunferência.
Dessa forma, fixamos uma
o na circunferência. O espaço P(Co rdas maiores que VJ) = Comprimento do Intervalo [0, 1/2] = ~ ·
extremidade e escolhemos, ao acaso, o outro extrem
a a-álgebra :F é formada de
amostrai O consiste dos arcos no intervalo [0, 211'] e
ser avaliada. Para todo
modo a incluir todos os arcos de O cuja medida possa
do por 211'.
A E :F, definimos P(A) como a medida do arco dividi
1.3 Probabilidade 17
16 Capítulo 1: Conceitos Básicos em Probabilidade

Contagem, o número de amostras, sem reposição, com k peças defeituosas é dado


c pelo produto ( n(
m )k (n - m )r-k· A correspondente probabilidade será

G)(m)k (n- m)r-k


P (k defeituosas na amostra sem reposição)= ....:..:::..'---------
(n)r
1/2

Essa expressão pode ser reescrita na seguinte forma:


D
(:') (~=~)
P ( k defeituosas na amostra sem reposição) = (;) '

Figura 1.4: Paradoxo de Bertrand- 3a. Interpretação. cuja interpretação corresponde a um outro espaço amostrai descrito a seguir. O
espaço amostrai seria agora constituído de subconjuntos das n peças com
tamanho r e, assim, temos ( ; )escolhas possíveis. Para contar os casos favorávei s,
Essas três respostas, aparentemente paradoxais, refletem as diferentes observe que, dentre as m peças defeituosas existentes, há ( :' )escolhas para as k
interpretações dadas à frase "escolhida ao acaso". Para estabelecer qual delas é a
participantes da amostra. De modo análogo, para as peças boas existem . ( r;=~')
resposta correta, é necessário tornar mais precisa a pergunta para evitar
possibilidades. Pelo Principio Fundamçntal da Contagem o número total de casos
ambiguidades na interpretação. Aliás, em muitos problemas de probabilidade,
D favoráveis é o produto. Daí segue a probabilidade desejada, conforme a expressão
essa pode ser a parte mais difícil!
acima indicada. Como será visto no próximo capítulo, essa situação origina o
Nos próximos dois exemplos, o espaço de probabilidade não foi modelo Hipergeométrico para variáveis.
formalizado e deixamos ao leitor essa tarefa. Na situação em questão parece ser mais natural uma amostragem sem
Exemplo 1.9: Amostragem com e sem Reposição (Mood, Graybill e Boes [74]) reposição. Entretanto, para efeito didático, vamos considerar uma amostragem
com reposição.
Num lote de n peças existem m defeituosas. Uma amostra sem reposição Para cada elemento da amostra temos n escolhas possíveis e então nr
de r dessas peças, r < n, é sorteada ao acaso e deseja-se obter a probabilidade de fornece o número total de amostras possíveis. De forma similar ao caso sem
obtermos k peças defeituosas, k $ min(r, m ). reposição, temos para o número de casos favoráveis, o produto ( ~ ) mk(n- m y-k
Cada amostra é denotada por ( z 1 , z 2 , .•• , Zr) em que zi representa a peça e podemos escrever
escolhida na i-ésima retirada. Dessa forma, o total de amostras possíveis é
(n )r. ou seja, o número de arranjos de n tomados r a r. Para estabelecer o número (r)mk(n- my-k
P( k defeituosas na amostra com reposição) = ~k:.....___:_nr
_ _...:........_
de casos favoráveis, consideramos três etapas. Inicialmente escolhemos em que
posição as defeituosas foram retiradas. As k peças defeituosas formam um
subconjunto de tamanho k, dentre as r posições da amostra. Assim, temos G) = G)(:f(l- :r-~
possibilidades. Note que as r - k peças boas formam um outro subconjunto
Essa expressão corresponde à função de probabilidade do modelo Binomial, a ser
complementar ao das defeituosas. Tendo fixada a posição das defeituosas, as boas
definido no Capítulo 2, sendo ~ a proporção de peças defeituosas no lote. O
têm posição definida. A segunda etapa será escolher quais k dentre as m peças
defeituosas existentes ocuparão as posições fixadas na primeira etapa. Isto pode
ser feito de (m)k maneiras diferentes. Uma terceira etapa, análoga à anterior, será
escolher as peças boas para participarem da amostra. Obtemos (n - m )r-k
diferentes formas dessa escolha. Aplicando o Príncipio Fundamental da
Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 19
18

Exemplo 1.10: Problema da Eleição e Principio da Reflexão (Brémaud [88]) n = n1 + mpf + mplJ,
Suponha que dois candidatos I e 11 disputem uma eleição recebendo,
em que mp1 e mpii representam, respectivamente, o número de trajetórias
respectivamente, a e b votos. Admita que a > b e o interesse é calcular a
desfavoráveis com primeiro voto em I e 11.
probabilidade do candidato I estar sempre à frente na contagem. Observe que a probabilidade de interesse é dada por
Considere um plano cartesiano com os votos de I no eixo x e os do
candidato 11 em y. A marcha da contagem pode ser pensada como um caminho n1 = 1
_ mpJ + mpn ,
que liga o ponto (O, O) até (a, b). Na figura abaixo uma possível trajetória é n n
apresentada. Trajetórias favoráveis são aquelas que ficam abaixo da diagonal.
restando calcular mn e mplJ, o que será feito a seguir.
Se o primeiro voto é em 11, já estamos numa trajetória desfavorável e,
y
assim, todas as trajetórias a partir desse ponto devem ser contadas. Dessa forma,
y=x basta contar o número total de trajetórias do ponto (0, 1) até (a, b). Isto
comesponde ao número de posições para os a votos do candidato I dentre o total
de votos de a + b - 1. Assim,
b (a, b)

mpii = (a +!-.1) = (a;~~ 1}


(0,0) a X Vamos agora verificar que mpf = mpJI, observando que cada trajetória
em um dos casos desfavoráveis tem uma correspondente no outro caso.
Uma trajetória, que se inicia com o voto no candidato I, precisa encontrar
Figura 1.5: Principio da Reflexão. a diagonal em algum momento para ser desfavorável. Seja (x, x) a primeira vez
que isso ocorre. Se os movimentos de (0,0) até (x,x) são refletidos em relação à
diagonal, temos um trajetória também desfavorável que se inicia com o primeiro
Assumimos que todas as trajetórias de (0, O) até (a, b) são equiprováveis, voto no candidato 11. De (x, x) até o fim, as duas trajetórias podem prosseguir
isto é, os votos vão sendo contados ao acaso. Dessa forma, a probabilidade pelo mesmo caminho. Então, cada trajetória desfavorável, iniciada com voto em I,
desejada será o quociente entre o número de trajetórias favoráveis (candidato I tem uma correspondente iniciada com voto em 11.
sempre à frente) e o número total de trajetórias. De forma recíproca, considere agora que iniciamos com uma trajetória
Vamos representar por n o número total de trajetórias. O total de votos a desfavorável com primeiro voto em 11. Como o candidato I venceu as eleições,
serem contados é a + b , dos quais a serão do candidato I. Logo, n nada mais é do essa trajetória deve atingir a diagonal em algum momento. Aplicando o mesmo
que o número total de posições para os a votos do candidato I. Uma vez que, para raciocínio anterior, concluiríamos que para cada uma dessas trajetórias existirá
esse cálculo, a localização dos votos do candidato I não é importante, temos uma correspondente, que se iniciou com o voto em I.
Se os dois conjuntos de trajetórias se relacionam biunivocamente, então
têm o mesmo número de elementos e portanto mpJ = mpJI. Assim,

2(at~~ )
1
, n1 ) a-b
Seja n1 o número de trajetórias com o candidado I liderando a apuração. P(Cand. I sempre a frente = -:; = 1- (a~b) = a+ b ·
O número de trajetórias desfavoráveis é repartido em duas, dependendo de quem
recebe o primeiro voto. Assim o
20 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 21

Com os Axiomas de Kolmogorov, apresentados na definição dt: (P3) Se A c B então o evento B pode ser particionado nos moldes
probabilidade, pode-se demonstrar com rigor matemático, diversas propriedades. usados em (P2). Assim,
Proposição 1.1: Propriedades da Probabilidade
Dado (n, F, P), considere que os conjuntos mencionados abaixo são Então, como a união é disjunta, vem
eventos nesse espaço de probabilidade. Temos:
P(B) = P(A) + P(B nAc) ;::: P(A),
(Pl) P(A) = 1 - P(N);
uma vez que, por (Ax2), P(B nA c) ;::: O.
(P2) Sendo A e B dois eventos quaisquer, vale
(P4) Vamos escrever A U B como a seguinte união disjunta:
P(B) = P(B nA)+ P(B nAc);

(P3) Se A c B então P(A) ::::; P(B);


dessa forma, segue por (Ax3)
(P4) Regra da Adição de Probabilidades (generalizável para qualquer n):
P(A U B) = P(A nBc) + P(B n Ac) + P(A n B).
P(A U B) = P(A) + P(B) - P(A n B) ;
Aplicando (P2) nos eventos A e B, eles podem ser escritos da seguinte
(PS) Para eventos quaisquer A 1 , A 2 , ... •
forma:
P(A) = P(A n B) + P(A n Bc) e P(B) = P(B nA)+ P(B n Ac);
de modo que obtemos
(P6) Se AnTA então P(An) TP(A). De forma similar, se An ! A então P(A U B) = P(A)- P(An B) + P(B)- P(B nA)+ P(A nB),
P(An)! P(A) .
e o resultado segue, uma vez que a intersecção é comutativa.
Demonstração:
A expressão para a probabilidade da união de n eventos é dada pelo
(Pl) Os eventos A e Ac formam uma partição de n e, portanto, por (Ax3) a soma de
temos Teorema de Poincaré e envolve alternar entre a subtração e
probabilidades de intersecção de um número crescente de eventos. A
P(O) = P(A u N) = P(A) + P(Ac); demonstração é solicitada em exercício ao final do capítulo e pode ser feita por
indução.
que, com auxílio de (Axl), vem
00

1 = P(A) + P(Ac) '* P(A) = 1 - P(Ac). (PS) Vamos escrever U A; como união de uma seqüência disjunta de
i=l

(P2) Para dois eventos A e B quaisquer, é sempre possível escrever o eventos. Temos
evento B da seguinte forma: B = (B nA) U (B n N). Note que essa é uma 00

união disjunta e, portanto, por (Ax3) o resultado segue imediatamente. UA; = A1 u (A~ n Az) u (A! n A2 n A 3 ) u ....
i=l
23
ade 1.3 Probabilidade
Capítulo 1: Conceitos Básic os em Probabilid
22

amostrai é constituído de pares de


que w = (w1, w2). Dessa forma, o espaço
Portanto, pelo Axioma 3, podemos escrever primeiro e do segundo lançamento,
valores, representando os resultados do
respectivamente.
+ P(A } n A2) + P(A } n A2 n A3) + ... ;
oc
P(U A;) = P(A I) Considere os eventos:
t=l A : a soma dos resultados é ímpar;
r.
B : o resultado do primeiro lançamento é ímpa
A~ n A~ n · · · n Aj_ 1 n Ai c Ai segue de (P3) que C : o produto dos resultados é ímpar
como, para qualquer j,
ndo contar quantos são os pontos de
Não é díficil obter suas probabilidades, basta
oc
de pontos {(1, 2) , (1, 4),( 1,6) ,· .. ,
P(U A;) :5 P(A I) + P(A2) + P (A3) + .... interesse. Para o evento A temos o conjunto
temos P(A ) = 1/2. De modo análogo,
t =l {6, 5)}, totalizando 18 pares e, portanto,
a que temos uma seqüência vem P(B ) = 1/2.
(P6) Lembremos que a notação An j A indic 00 Para a união de A e B, temos
A A , ·· ·, tais que limA ;= A = .U A;.
monótona não decrescente de eventos 1 2
,
~--+ oo t=l
P(A u B) = 1/2 + 1/2 - 1/4 = 3/4,
que P (A; ) é não decrescente em i pela
Uma vez que A 1 C A 2 c A 3 C .. ·, segue 6)} e contém 9 pares.
propriedade (P3). Como também é limitada
então lim P(A n) existe. uma vez que A n B = { (1, 2), (1, 4), · · ·, (5,
n--+C>O
O cálculo da probabilidade da união de
A, B e C pode ser feito com
do A nos mesm os mold es do que foi feito nà demonstração de abili dades, que é a propriedade
Escreven aplicações sucessivas da regra de adição
de prob
(P5) vem (P4) apresentada acima. Assim,

= P(U A;) = P( AI) + P (Aí n A2) + P (Aí nA~ n A3)


00
+ ... ; .P(A U B U C)= P[(A UB) U C)]
P(A )
i= l = P(A u B ) + P(C )- P[(A U B) n C] n C)]
para = P(A) + P(B )- P(A n B ) + P (C) - P[(A n C) U (B nC )- P(A n B nC)J
Aj_ 1 n Ai) = P(Ai) - P(Ai-I)
nesse caso, vale P (A} n A2 n · · · n = P(A ) + P(B )- P(A n B ) + P(C )- [P(A nC) +P(B
P(B
nC) + P (A n B n C);
ncia de séries infinitas, P (A n C)-
qualquer j . Assim, pela definição de convergê = P(A) + P(B) + P(C )- P( A n B )-

P (An- dJ ) , 3/4.
P(A ) = J~~(P(AI) + [P(A 2)- P(A I)J + ... [P(A n) - logo, pode-se verificar que P(A U B U C)=
Os cálculos de prob abili dade com os eventos acima poderiam ser
fosse utilizado. Considere a seguinte
e, então o resultado segue após simplificação. facilitados se um outro espaço amostrai
Temos agora uma seqüência alternativa para espaço amostrai
Considere agora o caso em que An ! A.
monótona não crescente com A 1 :) A2: A3: ) .. ·, de modo que
)
n1= {(p, p), (p, i), (i, p), (i, i)},
.n A ; e também P( A;) é não crescente em
00 i por (P3). Tomando os
_limA; = A= t=l ímpar, respectivamente. A a-álgebra
...... 00
caso anterior de seqüências monótonas sendo p e i a ocorrência de face par e
complementares dos A ;' s, recaímos no s de 0 1 e a probabilidade uniforme
uldade. Os detalhes são deixados ao poderia continuar sendo o conjunto das parte
não decrescentes e o resultado segue sem dific com w sendo um dos pare s acima.
O continuaria valendo, ou seja, P( { w}) = 1/4
{(p, i),(i ,p)} e, de forma
leitor. O evento A corresponderia ao conjunto
do duas vezes e as faces resultantes ao leitor a tarefa de completar os
Exem plo 1.11: Um dado equilibrado é lança imediata, teríamos P(A ) = 1/2. Deixamos
n = {1, 2, .. ·, 6} x {1 , 2, .. ·, 6} . A a e constatar que podem ser feito s de
observadas. Um espaço amostrai natural seria cálculos das probabilidades obtid as acim
Pé a probabilidade uniforme em todos ço de probabilidade. Entretanto, vale a
a-álgebra pode ser o conjunto das partes e forma bem mais rápida com o novo espa
Note que fica mais simples considerar
os pontos de n, isto é, P( { w}) = 1/36.
1.3 Probabilidade 25
24 Capitulo 1: Conceitos Básicos em Probabilidade

calcula r algumas Consid ere os seguintes eventos:


pena enfatiz ar que, o espaço amostrai 0 1 não permit iria A : a criança só recebe uma consulta;
O
probab ilidade s tais como a de um duplo 6! B : a criança é atendida por bronquite;
Exemp lo 1.12: O Posto de Saúde de um certo bairro coleta inform
ações de seus C : a criança é atendida por alguma doença, exceto diarréia, em
referentes ao último
pacientes quanto à ocorrência de várias doenças. Os dados, até 3 consultas;
ano, indicam 650 atendimentos de crianças com até 2 anos.
A tabela abaixo D : a criança é atendida com dor de ouvido em 2 ou mais
consultas até a cura,
apresenta, para algumas das doença s atendidas, o númer o de consultas.
ou encam inhame nto para outro orgão de saúde. Seguindo nosso modelo temos
Doenç a\ No. Consu ltas 1 2 3 4 35 + 84 + 120 = O, 37;
35 53 52 46 P (A) = P( {(b, 1), (d, 1), (o, 1)}) =
Bronquite 650
Diarréia 84 72 42 20 4)}) 35 + 536;052 + 46 =O, 29;
P(B) = P( {(b, 1), (b, 2), (b, 3), (b, =
Otite 120 85 32 9
35 + ... + 32 = O, 58;
no aleatório P (C ) = P ({ (b , 1), (b, 2), (b, 3), (o, 1), (o, 2), (o, 3)} ) =
Essa tabela corresp onde a uma realização anual do fenôme 650
+ ~~ + = O, 19.
6
de Saúde. Se assumi rmos que o que 85 9
represe ntando o atendimento nesse Posto P(D) = P( {(o, 2), (o, 3), (o, 4)}) =
nta aproxi madam ente bem a realida de em
ocorreu nesse ano é típico e represe
esses dados para estabe ler um modelo de obtemos, sem dificuldade, a
bairros similares, podem os usar Com o auxílio das propne dades
probab ilidade formal para estuda r essas caracte rísticas . probabilidade de alguns outros eventos:
alternativas
Consideramos como espaço amostrai o conjun to de todas as
tas. Denota ndo cada doença por sua letra inicial P(A U B ) =O, 37 + O, 29- O, 05 = O, 61;
de doença e número de consul
o conjun to das doença s. De modo similar seja P( CU D) = O, 58 + O, 19- O, 18 = O, 59;
temos I= {b , d , o} como
J = { 1, 2, 3, 4} o conjunto possível para o número de consultas.
Assim, P( Ac u C) = O, 63 + O, 58 - O, 34 = O, 87.
o
0 = {(x, y ): x E I, y E J}.
Exemplo 1.13: Limite superior de probabilidades
cada ponto é um par
O espaço amostra] é finito e consist e de 12 pontos, sendo que Seja {A";n ~ O} uma seqüência de eventos em (n,.r, P), vamos
o conjun to das partes
conforme mencionado acima. Para a-álge bra consid eramos
de n. Para a função de probabilidade P podemos adotar a freqüê ncia relativa das verificar que P(limA n ) ~ lim P(A 71 ) .
O limite superio r de uma seqüência numérica { x, : n ~ O} é
ocorrências. Isto é, dado por:

P (( )) = N(x, y), lim sup X 11 = inf sup XA· = lim sup xk.
x, y 650 71 ~1 k~n n ...:>o k~n

em que N (x , y) é a freqüência do par (x, y). Seja B n = "" Ak


U e observe que a seqüência {B71 : n ~O} é não-
probabilidade
Dessa forma, baseado nas suposições feitas, o espaço de A·= u
Assim,
(O, F , P ) representa um modelo probabilístico para o fenôm
eno aleatório do crescente, uma vez que a união tem cada vez um evento a menos.
atendim ento de crianças por postos de saúde em certos bairros
modelado ficou restrito às doenças mencionadas e ao máxim
. O atendimento
o de 4 consul tas por limATI = noc oc
U Ak =
u = O 1.: = 11
nBII
00

n = O
= limB/1 .
n-+x
ao acaso, que procura
ocorrê ncia de doença e se refere a uma criança, escolh ida
esse tipo de Posto de Saúde.
(
27
( 26 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade

(
(
lim P(B .. ) pela continuidade da probabilidade
Temos, então, P(limAn ) = n-+:x> equação, resulta em:
(
l =kP(B) ;
( expressa na propriedade (P6). :x;

Por outro lado, P(Bn) = P( U Ak ) 2: P(Ak), 'r:/k 2: n. Desse modo, Se P(B) > O, então k = 1/P(B). Se P(B) =O, não existe k que possa
( k=1l
temos P(B1,) 2: supP(Ak ). satisfazer as condições que discutimos até agora e nossa argumentação intuitiva
( k~ n não valeria. Nesses casos, alguns autores indicam que P1 (A) é indeterminada e
( Então, outros lhe atribuem um valor arbitrário.
o É possível verificar que, para P(B) > O, a função P1 aplicada em
( P(limA 11 ) limP(B,. ) 2: limsupP (Ak) = limP(An )·
= n-.oo n-+xk~n conjuntos de :F8 e definida por
(
p 1 (A)= P(AnB )
( Em muitas situações, informações preliminares podem alterar as P(B)
probabilidades de eventos. Assim, a probabilidade de chover no final da tarde
( poderia ser diferente se tivermos informações adicionais, tais como a situação satisfaz os Axiomas de Kolmogorov, sendo assim uma probabilidade.
( climática do dia anterior. Vamos, agora, descrever como é possível incorporar
( essas informações de um modo formal.
Suponha que um experimento é descrito originalmente em termos do
( espaço de probabilidade (0, :F, P). Desejamos discutir como a atribuição original
( de probabilidade aos eventos de :F é afetada pela informação sobre uma A
realização do experimento.
( De fo~a mais precisa, suponha que tenha ocorrido um ponto w B
( pertencente a um certo evento B. Seria possível identificar uma classe de eventos,
subconjuntos de B, e uma função de probabilidade nessa classe, de modo a
( incorporar o efeito da informação de que w E B?
( Seja A E :F um evento qualquer. A única forma dele ocorrer, sabendo-se
( que ocorreu w E B, seria se tivéssemos w E B nA. Assim, é natural considerar
um novo espaço amostrai B (ver Figura 1.6) com uma nova a-álgebra :F8 com
todos os conjuntos do tipo B nA para A E :F. A a-álgebra :FB é denominada a
restrição de :F ao espaço amostrai B.
A probabilidade original P(A) é a soma de P(A n B) com P(An Bc). Figura 1.6: Restrição ao evento B.
A informação adicional disponível nos diz que A n nc não pode mais ocorrer.
Gostaríamos que a nova probabilidade P1 (A) fosse proporcional à P(A n B).
Assim, é intuitivo redistribuir a massa unitária de probabilidade nos conjuntos de Desse modo, construímos um novo espaço de probabilidade (B,:FB, Pt )
:FB de modo proporcional às probabilidades que esses conjuntos tinham na antiga partindo do original (0, :F, P).
função de probabilidade P. A construção do novo espaço de probabilidade não é essencial e poderia
Vamos considerar ser contornada. Para tal, vamos estender a definição de P1 para todos conjuntos
A E :F. Isto é feito atribuindo sempre P1 (A n Bc) =O, \:IA E :F. Dessa forma,
Pt(A) = kP(AnB ),
(

para todos os eventos A. Observe que P 1 ( B) = 1 e, substituindo A por B nessa


de 1.3 Probabilidade
29
28 Capítulo 1: Conceitos Básicos em Probabilida

definição de probabilidade
Procedemos por indução. Para n = 2, pela
usando a aditividade de P1. podemos escrever condicional, temos
c P(A nB)
P1(A ) = P1(A n B) + P1(A n B )= P(B ) · P(A1 n A2)
P(A2I At) = P(A ) =? P(A1 n A2) = P(A1 )P(A 2I A1),
1
o evento B, é conveniente
Para enfat izar a estreita relação de H com > O.
. Toda essa argumentação conduz à pois P(A I)
alterar a notação de P1(A) para P(AI B) + 1.
vamos prová-lo para k
próxima definição. Supomos o resultado válido para n = k e
Assim,
Defin ição 1.3: Probabilidade Cond icion al
F, P). Sendo P(B ) > O, a P(A1 n A2 ... n Ak n Ak+l) = P[(A1 n A2 ...
n Ak) n Ak+d
Cons idere os eventos A e B em (0, +li A1 n A2 ... n Ak)
reu B, é dada por: = P(A1 n A2 ... n Ak) P(Ak
prob abili dade condicional de A dado que ocor
= P(At )P(A 2I A1) ... P(AkiA1 n A2 ... n
Ak-d
P(A nB)
P(A I B) = P(B ) ; P(Ak +1IA 1n ... nAk )·

o E, portanto, a proposição está demonstrada.


o
caso P(B ) =O, definimos P(A I B) = P(A
).
alguns autores preferem Teor ema 1.3: Lei da Probabilidade 'Fotal
Convém observar que, no caso de P(B ) =O, em (n, F , P) formam uma
igualar a probabilidade condicional a zero ou
mesm o cons iderá-la indefinida. Suponha que os eventos C1 , C2 , .•. , Cn
situações práticas, iva. Então, para qualquer evento A
Além de servirem como mode lagem para partição de n e todos têm probabilidade posit
iar no cálculo de probabilidades em
probabilidades condicionais pode m auxil
1l

a probabilidade de um certo evento P(A ) = LP (C;) P(AI Ci).


geral. Existem situações em que desejamos
r. Eventualmente, nesses casos, um
cuja caracterização não é simples de estabelece
i=l
pode ser conveniente e tornar os
condicionamento em eventos mais simples
cálculos menos complicados. Dem onstr ação :
expressões importantes nas
As próximas proposições apresentam Observe que temos P(C ;)P(A I C;)= P(A
n C;), pela regra do produto
operações com probabilidade condicional. · ·n, os eventos A n C; são disjuntos.
de probabilidades. Também, para i= 1, 2, ·
abilidades Então,
Proposição 1.2: Regr a do Prod uto de Prob
11
n n
n
com P(n A;) >O, a regra
Para os eventos A 1, A 2, ... , An em (0, F, P), i=l LP( C;)P (AIC ;) = LP( AnC ;) = P[U
(An C;)] =
i=l i=l
i=l
do prod uto de probabilidades é dada por: . n

P(A1 n A 2 ... n A 11 ) = P(A I)P( A2I A1) ...


P(An )AI n A2 ... n An-1)· = P [A n (Uc;) J = P(A ) ;
•=1

uma vez que a união dos C; 'sé n.


o
(
Dem onstr ação :
amentos do lado direito são
Observe que, por hipótese, todos os condicion 11

tos com prob abili dade posit iva, pois todos eles contém nA; .
feitos em even i=l

- -- --
L I.
31
abilidade 1.3 Probabilidade
Capítulo I: Conceitos Básicos em Prob
30

a k, k = 1, 2, ... , n. Esse evento


Seja Ak a ocorrência de bola k na caix haver
Teo rem a 1.4: Teo rem a de Bay es A probabilidade de interesse é não
corresponde a um encontro em k.
Cn estão em (0, F, 'P), formam uma nenhum encontro:
Suponha que os eventos Ct, C2, ... , com
e positiva. Seja A um evento qualquer = 1- P(pe lo menos 1 bola na caixa correta)
partição de O e todos têm probabilidad P(to das as bolas em caixas erradas)
. .. , n, temos
P(A ) >O. Então, para todo j = 1, 2,
n
= 1- P( u Ak) ·
k=l
P( Gil A)= !(A I Ci)P (CJ ) .
idade da união pode ser calculada
I:P (AI C;)P (C;) Pelo Teorema de Poincaré, a probabil
i=l como

Dem onst raçã o:


erador é P(A n CJ) pela regra do
Na expressão do lado direito, o num e
ador é P(A ) pela Lei de Probabilidad em que, para cada k = 1, 2, .. ·, n, 8k
é definido por
produto de probabilidades. O denomin ão está
abilidade condicional, a proposiç
Total. Portanto, pela definição de prob s n.
demonstrada.
O
8k = L P(A;IA;2, .. ·, A;k) , it? 1 e ik
de Bayes, conhecemos ou fazemos
it<h< ···<ik
Em geral, na aplicação do Teo rem a
P(A I C;) e P(C ;) para todo i= 1,
2, ... n. de seqüências favoráveis, em cada
suposições sobre as probabilidades te uma Uma pequena reflexão sobre o número
supor que C; (i= 1, · · ·, n) repr esen
Uma interpretação dessa fórmula é lizad o o caso, permite escrever
alea tório . Rea
possível causa no resultado de
experimento e obtido um resultad
um experimento
o A, o Teo rem a de Bay es indi
prob
ca
abil
com
idad
o
es
P(A k) = (n - , )!
n.
1 => 81 = t 1
P(A k) = n (n -, )! = 1;
n.
ri P(C ;), i= 1, · · ·, n . As
k=l
recalcular as probabilidades à prio
resultantes, representadas por
P(C d A), i= 1, .. ·, n, são denomin
ser usadas para avaliar o quan to cada
adas
caus a P(A ;Aj) = (n n.-, 2)! Li<J P(A;Aj) = (n)2 (n-n! 2)! = 1/2;
=> 82 =
probabilidades à posteriori e podem
evento A.
P(A ;AjA k) = (n) (n -, )! = 1/3!
C; é responsável pela ocorrência do 3
os (Du dew icz e Mis hra [88]) P(A iAjA k} = (n -, 3)! => 83 =L 3 n.
.
Exe mpl o 1.14: Pro blem a dos Enc ontr n. i<j<k
a são encontradas em livros de
Diversas variações desse problem com Não é díficil perceber que, para k = 1, 2, ... , n, temos
as, mas são comuns também versões
probabilidade. Usamos bolas e caix (n- k)l. = 1/k!.
chapéus, casais e cartas. O problema
básico pode ser form ulad o com o segu e:
P(A ;tAiz • .. ·, A;k) =
(n- k)' e ainda 8k = (n)
I .
k n!
1 a n são colocadas ao acas o em n.
Suponha que bolas numeradas de se foi
A bola "encontrou" seu luga r correto
caixas, também numeradas de 1 a n. e de toda s as bolas Portanto, concluímos
Obtenha a prob abil idad
çolocada na caixa de mes mo número. n 1 1 (-l) n-1
irem para caixas erradas. P( k~IAk)=1-2!+3!- ... + n!.
ir. O espaço amostrai O é o conjunto
O espaço (0, F , 'P) é definido a segu d essa- o com
os números das bolas que · · · e, asstm, po emos usar essa expr

), representando
= 1- + 2f -
x2 x3
-x 3f
de todas as seqüências (i 1, i 2 , ... , Í 11 das N ot e
que e x
s de 1 a n. A a-álgebra :F é o conjunto a. Desse modo para n grande, vem:
foram colocadas nas caixas ordenada s. x = 1 para aproximar a probabilidade acim
todas as seqüências eqüiprovávei
partes de O. Para definir 'P assumimos
32 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 33

bolas e suas respectivas n - 2 caixas e, para o evento U ocorrer, precisamos que


P( ÜAk) = 1- (1- 1 + ..!._- ..!._ + ... + (- 1)n) ~ 1- e-1. na atribuição dessas bolas não haja nenhum encontro. Logo, estamos no problema
k=I 2! 3! n! inicial de obter desencontros com n- 2 bolas, o qual tem probabilidade Pn-2· Ou
Portanto, para a probabilidade de interesse temos: seja,

P(todas as bolas em caixas erradas) = 1 - P( Ü Ak) ~ e- 1 =O, 368.


k=1

Vamos apresentar uma outra solução (ver Ross [98]), que calcula a Vamos admitir que a bola extra possa fazer par com a caixa extra. Logo a
probabilidade de não haver encontros através de uma expressão recursiva com o probabilidade condicional de ocorrência simultânea de U e Fc dado Ec, é igual à
condicionamento na primeira ocorrência. probabilidade de n- 1 desencontros, o que é igual a Pn-1· Assim,
Introduzimos nova notação que auxiliará o estabelecimento da recursão.
P(UPIEJC) =Pn-1·
Seja U o evento de não haver encontros e Pn a sua probabilidade. A primeira bola
a "escolher" uma caixa pode produzir um encontro, evento que representamos por Dessa forma, temos
E. Nesse caso, restarão n- 1 bolas e suas n- 1 caixas. Caso ocorra um
desencontro, isto é, a primeira bola escolheu a caixa de uma outra bola, teremos a P(UI Ec) = Pn-2 ~
n- 1
+ Pn-1·
ocorrência de Ec. Nesse caso, dentre as n - 1 bolas restantes, uma delas não vai
achar a sua caixa pois ela já foi escolhida! Assim, U pode ser escrito como: Então, a probabilidade do evento U pode ser escrita como
U =(UnE) u (Un EJC), 1 )n-1
P(U) = Pn = ( Pn-2 n _ 1 + Pn-1 -n- ;
mas U n E = 0, uma vez que U é o evento de todos os desencontros. Então
ou, ainda,
1
Observe que P(Ec) = (n- 1)/n, pois é a probabilidade de desencontro na Pn- Pn-1 = --(Pn-1- Pn-2)·
n
primeira bola. Para o cálculo de P(UI Ec) vamos desenvolver um novo
argumento. Valores iniciais de p11 podem ser calculados pela definição, resultando em P1 = O
Como houve desencontro na primeira ocorrência, temos agora n - 1 e P2 = 1/2. A partir desses valores e da expressão acima, podemos obter
bolas e n - 1 caixas, das quais uma bola e uma caixa não farão encontro pois seus recursivamente os outros termos. Não é difícil verificar que, em geral,
respectivos pares já sairam na primeira ocorrência. Denominemos a bola, e
1 1 (-1) 11 -1
também a caixa, como extra. A probabilidade que desejamos calcular, dada por Pu = 21 - 31
. .
+ ... + --1-
n.
~e = O, 368;
P(U] Ec), representa a ocorrência de não haver nenhum encontro entre n- 1
bolas e n - 1 caixas, sendo que existe uma caixa e também uma bola do tipo conforme obtido anteriormente. o
extra. Seu cálculo vai levar em conta as situações excludentes da bola extra ir ou
Exemplo 1.15: O doente sadio e o sadio doente (DeGroot e Schervich [02])
não para a caixa extra.
Sendo F o evento em que a bola extra foi para a caixa extra, temos Uma das formas de avaliar a eficiência de um teste para detectar uma
doença é quantificar a probabilidade de erro. Em geral, testes sofisticados
P(U] EJC) = P(U FI Ec) + P(U Fc IEJC). envolvem vários procedimentos laboratoriais e diversos equipamentos.
Observe que P(F) = P(Fl Ec) = 1/(n- 1). Dado que F ocorre, restam n- 2 Denominamos falso-positivo ao erro em que o teste indica positivo para um
paciente que não tem a doença. Por outro lado, teremos um erro falso-negativo se
34 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 35

o teste não acusar a doença num paciente doente. Não é díficil imaginar os Em certas farm1ias de eventos do espaço de probabilidade (0, :F, P), a
inconvenientes dessas ocorrências. Os erros originam doentes sadios e sadios função de probabilidade tem uma propriedade particular de grande importância,
doentes, isto é, pessoas sadias indicadas como doentes pelo teste e pessoas tanto prática quanto teórica. Ela se refere à indiferença no cálculo da
doentes apontadas como sadias. As probabilidades dos erros são calculadas probabilidade de um evento A frente à informação da ocorrência de um outro
condicionalmente à situação do paciente. Seus complementares fornecem as evento B. É como se não aprendêssemos nada da ocorrência de B, que fosse
probabilidades de acerto do teste, ou seja, a probabilidade de indicar doença para capaz de modificar a probabilidade atribuída ao evento A anteriormente. A
os doentes e não doença para os sadios. propriedade, denominada independência de eventos, é definida a seguir. Ela
Para fixar as idéias, considere que um determinado teste resulta positivo permite, muitas vezes, separar o experimento em partes mais simples de serem
para não doentes, com probabilidade 0,1. Também com probabilidade 0,1, o teste estudadas e, assim, possibilitar uma enorme simplificação nos cálculos
será negativo para um paciente doente. As informações fornecidas se referem aos probabilísticos de interesse.
erros que podem ser cometidos ao realizar o teste. Se a incidência da doença na Definição 1.4: Independência de Dois Eventos
população é de I para cada I O mil habitantes, qual é a probabilidade de uma
pessoa estar realmente doente se o teste deu positivo? Observe que, estando ou Os eventos A e B em (0, :F, P) são independentes se a informação da
não doente, existe uma probabilidade não nula do teste indicar a presença da ocorrência de B não altera a probabilidade atribuída ao evento A. Isto é:
doença. P(Aj B) = P(A);
A situação acima ocorre de forma similar em várias áreas e é típica para a
aplicação do Teorema de Bayes. Definimos os eventos: a condição de independência pode também ser expressa na seguinte forma
alternativa e equivalente:
D : a pessoa está doente;
A : o teste é positivo. P(A n B) = P(A)P(B).

Assim, as informações disponíveis são as seguintes: o


P(D) = 0,0001; P(Aj De)= 0,1 e P(Acl D) = 0,1. A expressão equivalente, apresentada na definição de independência, é
muito conveniente para efetuar cálculos e definir outros tipos de independência.
Note que, pela propriedade do complementar, temos P(Dc) = 0,9999 e também Por exemplo, diremos que os eventos A e C são condicionalmente independentes
P(AI D) = 0,9. Com a notação utilizada, a probabilidade desejada é P(Dj A) e dado B se P(A n Cl B) = P(AI B) P(CI B). A expressão alternativa também
será calculada através do Teorema de Bayes. será usada para definir independência entre mais de dois eventos. Nesse caso,
P(AI D)P(D) · ressaltamos que precisamos considerar a intersecção entre todas as combinações
P(DI A) = P(AI D)P(D) + P(AI Dc)P(Dc) dos eventos.

0,9 X 0,0001 Definição 1.5: Independência de Vários Eventos


0,9 X 0,0001 + 0,1 X 0,9999 Os eventos A1 , A 2 , ••• , An em (0, :F, P) são independentes se, para toda
coleção de índices 1 :::; í 1 < í2 < . . . < Ík :::; n e 2 :::; k :::; n, tivermos
= 0,0009.
P(A; 1 n A; 2 n ... n Aik) = P(A;JP(A; 2 ) ••• P(A;k).
Essa probabilidade é de aproximadamente 1 em 1000. Ela é bastante
pequena apesar de ser dez vezes maior que a probabilidade da doença na o
população. É interessante notar que a probabilidade calculada depende fortemente
da eficiência do aparelho. Deixamos ao leitor, a tarefa de refazer os cálculos,
considerando uma eficiência de 99%, isto é, cada um dos erros é igual a 0,01. O
37
1.3 Probabilidade
Probabilidade
Capítulo 1: Conceitos Básicos em
36

os cálculos das probabilidades de


Poderíamos iniciar, imediatamente, deter
proposta. Entretanto, vamos nos
Exe mpl o 1.16: Problema dos pon tos
(Ross [98]) interesse para responder a questão sob a qua l esta rem os
espaço de probabilidade,
do de probabilidades e pode ser buscando formalizar a estrutura do
Este problema é histórico no estu trabalhando. e
ever o espaço de probabilidade pod
enunciado da seguinte forma: te, Temos aqui um exemplo em que escr
são realizados de form a independen lançamentos da moe da são imp licit ame nte
Ensaios do tipo sucesso-fracasso Qua l é a ser uma tarefa complicada. Os de um par
sso e 1 - p a de fracasso. que faz com que a probabilidade
sendo p a probabilidade de suce assumidos como indepen dentes, o
o de seus
ssos antes de mfr aca ssos ? das probabil idad es do resu ltad
probabilidade de ocorrerem n suce lo possa ser calculada pelo produto
uída ao matemático Fermat no sécu a prob abil idad e da oco rrên cia de
A solução apresentada a seguir, atrib fracasso s} é elementos. O mesmo vale se desejarm
os calcular
obter
to { n sucessos antes de m faz um experimento que consiste em
17, consiste em observar que o even s m + n - 1 vários pares. Note que, cada jogador dele Isto
s.
os n sucessos nos primeiro jogo prossegue até a vitória de um
equivalente a {ocorrem pelo men um par de resultados da moeda e o rentes,
ensaios}. Deixamos ao leitor a verifica
ção dessa eqüivalência. ência de pares com elementos dife
ssos em m + n - 1 ensaios, note que significa a ocorrência de uma seqü
Para obter a probabilidade de suce
k
dência seguido por um par com elementos igua
is.
is no
não é importante. Logo pela indepen se ocorreram ou não elementos igua
a ordem da ocorrência dos k sucessos Como noss o interesse é sabe r
com essas
ente um espaço amostrai básico
entre os ensaios, temos par de lançamentos, definimos inicialm igua is,

P{k sucessos em m + n- 1 ensa ios } = (


m + kn- 1) 1
P
k( - P)m+ n-1- k , características. Seja no= {A, Ac},
isto é duas caras ou duas coroas. Para
em que A é a ocorrência de elem
o--álgebra tomamos Fo = {no
ento
, 0, A
s
, Ar}
plo,
e
te com o indicado no ínicio do exem
atribuímos probabilidade, coerentemen de cada
= 1/2 . Assim, para o experimento
através da função Po em que P0 (A) Fo, Po} .
e, então espaço de probabilidade {no ,

s} =
m+t;n-1( m + kn- 1) P (1 - P)
k m+n -1-k
·
jogador na sua jogada, é suficiente o
Como os jogadores se sucedem, repe
tindo esse experimento ,
e
o espa
suge re,
ço de
será
P { n sucessos antes de m fracasso ço produto que, como o nom
probabilidade conveniente será o espa tico s ou não. No
ços de probabilidade, idên
uma espécie de produto de outros espa será den otad o por
ticos e o espaço produto
menos famosos, envolvem cálculo
de nosso caso, os espaços são todos idên o
Diversos outros problemas, mais ou con strução. Descrevemos brevemente com
pendentes de sucesso- frac asso . O leito r pod e {n, F, P}. É preciso cautela na sua Prob abil idad e
probabilidades em sequências inde s, entr e os quais tem os o isso pode ser feito e indicamos,
para mais detalhes, textos de
o de alguns dele
consultar Feller [68] para a descriçã .
de Banach e o Pro blem a de Ven cer no Ten is de Avançada tais como Billingsley [91] isto é
Problema das Caixas de Fósforos O espaço amostrai n é o produto cartesiano dos no's,
da forma
Mesa. o n = no X no X . . ·. Sendo c, defi a classe de todos os con junt os
a o--á lgebra
nimos F= u(C). Assim, F é
ora da desconfuula A1 x A 2 x · · ·, com A; E F0 uma funç ão de
Exe mpl o 1.17: O pro blem a da nam gerada pela classe C. Finalmente,
é possível constru ir
uma moeda equilibrada. Cada jogador riedade de que
João e José disputam um jogo com resultados probabilidade P sobre F com a prop
e o jogo aquele que obtiver dois
lança a moeda duas vezes e venc moe da para José e; = lim Po(AI) Po(A2) · · · Po(An),
com (A1, A2 , ···) E :F.
não vencer, passa a P(A I. A2, · · ·)
iguais. João começa jogando e, se A nam orad a de Jose n-+ex:>
das, até alguém vencer.
continuam assim, alternando as joga mai s prob abil idad e de
reclama que João tem
desconfia da honestidade do jogo e a de João diz que isso é
o lado, a namorad
vitória por iniciar o jogo. Por outr ito, tanto faz que m com eça
das pode ser infin
besteira pois, como o número de joga
jogando. Quem será que tem razão?

-----------~
1.3 Probabilidade
39
38 Capítulo 1: Conceitos Básicos em Probabilidade

o evento em que o componente j do sub-sistema si funciona é


De volta ao nosso exemplo. Se João vence na la. jogada, temos o evento
(A, n 0 , no,··· ), cuja probabilidade é dada por representado por Aii• i = 1, 2 e j = 1, 2, ... , mi. Seja P(Aii) = a; para todo j,
isto é, a probabilidade de funcionamento de cada componente dentro de um
P(A , no , no , ...
1
) = -2 X 1 X 1X ••• = -21 . mesmo sub-sistema é igual. Desejamos estabelecer valores para o número de
componentes, de modo a obter uma confiabilidade no sistema de pelo menos "f
(0 < 'Y < 1).
Para José vencer na sua segunda tentativa, é preciso que João e José não vençam Assumimos independência entre os sub-sistemas e entre os componentes
nas suas primeiras jogadas e João também não vença na sua segunda tentativa. dentro de cada sub-sistema. Para o sistema funcionar basta que um dos
Assim, componentes de cada sub-sistema funcione. Assim,
1 m1 m2 m, m2
P( {José vence na 2a. jogada}) = P( X, A c, A c, A, f!o, no,···) = 1 ·
6 P(Sistema funcione)= P((UAtj) n (UA2j)) = P(UAtj) P(UA2j) ~ 'Y·
j=l j=l j=l j=l
Vamos agora resolver a polêmica entre as namoradas. A probabilidade de
Observe que
João vencer é dada por m,
m1 m1
2
1 (1)3 + (1)5 +···='3' P( UAtj) = 1- P( ( UArjr) = 1- P( nA~j) =
P({Joãovence rojogo})=
2+ 2 2 j=l J="l J=l
ffii

e, portanto, a namorada de José tem razão em dizer que João tem maior = 1- I1P(A1j) = 1- (1- at)m 1
;

j=l
probabilidade de vitória. Após saber dessa resposta, ela virou para o seu
namorado e, num tom desafiador, exclamou "E agora José?" Para ajudá-lo, você e, de modo análogo,
teria alguma sugestão? Uma moeda com outra probabilidade de cara ajudaria? O
ffl2
Exemplo 1.18: Aplicação em Confrabilidade (Feldman e Fox [91]) P( UA2j) = 1- (1- a2)m2.
j=l
A confiabilidade de um sistema ou componente é a probabilidade que ele
funcione. Muitos sistemas são construídos com redundâncias nos componentes, Então, escolhemos os menores inteiros mr e mz que satisfazem à
permitindo alternativas de funcionamento em caso de falha de algum componente. desigualdade
Considere um sistema com dois sub-sistemas em série 8 1 e 8 2 com,
respectivamente, mt e m2 componentes idênticos em paralelo (ver figura a
seguir).
Se os componentes em cada sub-sistema têm custos diferentes, então isto deve ser
levado em conta, escolhendo m 1 e m 2 de forma a minimizar também a função
custo.
Para ilustrar nossos cálculos, considere componentes com custos iguais
nos dois sub-sistemas, confiabilidade 'Y = 0,99, a1 = 0,7 e a2 = 0,8. Nesse caso,

Figura 1.7: Dois Sistemas em Série.


( 41
40 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade
(

( a condição requerida é A independência entre os resultados se toma agora independência


a
condicional. Isto é, para a particular sequência acima mencionada, dada
(
ocorrência de B 1 , temos
(
menor
( que pode ser obtida fixando um valor possível de m 1 e variando m 2 • O
valor possível para m 1 é 4 que implica na condição Dessa forma,
~
~) 0,01 2 0,994 =
0,2m2
0,00192; 3
P(Dois defeituosos! Bt) = ( 1,44 x 10- ;
a qual, com auxílio de logaritmos naturais é equivalente a m 2 ~ 3,89.
Dessa
forma, a confiabilidade de 99% está garantid a com 4 compon entes em cada sub-
o P(Dois defeituosos! B 2 ) = ( ~) 0,42 0,64 = 0,311.
sistema.
Exempl o 1.19: Probabilidade à priori e à posterio ri (DeGroot e Schervic h
[02]) Considere agora que atribuímos probabilidades às escolhas de p.
p.
Estabelecemos, assim, o que é conhecido como probabi lidade à priori para
Suponha que uma máquina produza itens defeituosos com probabilidade p Essas probabilidades expressam nosso conhecimento quanto ao comportamento
(O < p < 1) e não defeituosos com probabilidade q = 1 - p . Considere que da máquina e, em geral, são baseadas na experiência anterior. Não é difícil
os
foram selecionados 6 itens escolhidos aleatoriamente da produção e que imaginar que poderíamos ter mais de- dois valores para p . Em várias situaçõe
s, a
idade de dois
resultados são independentes. Vamos obter, inicialmente, a probabil atribuição de probabilidades à priori pode envolver uma parcela de subjetivi
dade.
dos 6 itens serem defeituosos. P(Bt) = 0,9 e P(B 2 ) = 0,1. Esses valores indicam a
Assumimos que
. O espaço amostrai é constituído de todas sequências de 6 itens, em que probabilidade de funcionamento normal e fora do padrão, respectivamente.
cada 1tem pode ser defeituoso ou não. Representamos por Di e N; se o item

N N D N represen ta Se na amostra de 6 itens dois foram defeituosos, qual seria a
defeituoso ou não, respectivamente. Por exemplo, (N1D 2 3 4 5 6 )
probabi lidade posterio r para p = 0,01? Em outras palavras, estamos interessa
dos
não defeituo sos nas
a sequência com itens defeituosos na 2a. e 5a. seleção e em saber qual a probabilidade da máquina estar funcionando normalm ente se
demais. Tendo em vista a independência, sua probabilidade é dada por observamos 2 itens defeituosos.
P(N1D2 NaN4 D 5 N 6 ) = p2q4 • Pelo Teorema de Bayes segue que
. d ç . P(Dois defeituosos I B 1 )P(Bt)
Essa também será a probabilidade de qualquer sequência que tenha
dois P(B l I D OIS e1e1tUOSOS
)
= 2
ando o número dessas
defeituosos em alguma outra posição. Logo, consider 2:P(Do is defeituosos I B;)P( Bi)
sequências, concluímos í=l
3
= 1,44X 10- X 0,9 = Ü .
04
P(Dois defeituo sos)= (~)p2q4. 1,44 X 10-3 X 0,9 + 0,311 X 0,1 '

Observe o efeito da informação da amostra. A probabilidade à priori de


Suponha agora que a probabilidade p, de item defeituoso, é desconhecida B 1 era de 0,9. Entretanto, a probabilidade à posteriori sofreu uma considerável
o
mas toma um dos dois valores p = 0,01 (operação normal) ou p = 0,4 (operaçã redução e foi calculada em 0,04. Isto reflete o fato da ocorrência de dois
itens
correspo ndentes aos
fora do padrão). Denominamos B 1 e B 2 os eventos defeituosos ser muito mais provável quando B 2 acontece, do que quando ocorre o
r i,
funcionamentos normal e fora do padrão, respectivamente. Logo para qualque evento B 1 .
O
P(D;I Bt) = 0,01 e P(Dd B2) = 0,4.
42 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 43

Exemplo 1.20: Independência entre vários eventos entretanto,


Considere um alfabeto que tem um total de n letras. Dentre todas as P(A)P(B)P(C ) = ~ 3n(n - 1) =
3(n- 1) = ~P(ABC).
palavras formadas com 3 letras escolhemos uma delas, ao acaso. Seja s uma n2 n3 n4 n
particular letra desse alfabeto, definimos os eventos:
Portanto, exceto o caso de um alfabeto com apenas 3 letras, não há independência
A : palavra escolhida começa com a letra s; entre os eventos A, B e C.
B : palavra escolhida tem a letra s no meio; A conclusão importante é que a independência dois a dois não implica
C : palavra escolhida tem exatamente duas letras iguais. independência entre os três eventos. É possível construir exemplos em que o
reverso ocorre, isto é, a probabilidade da intersecção de três eventos é o produto
Vamos verificar a independência entre quaisquer dois desses eventos.
das marginais, mas eles não são independentes dois a dois. Em resumo, é
Entretanto, eles não são (coletivamente) independentes. O espaço de
necessário aplicar cuidadosamente a definição de independência para uma coleção
probabilidade não é difícil de estabelecer e deixamos essa tarefa ao leitor.
de eventos, verificando a propriedade da independência para todas as possíveis
O total de palavras com 3letras é n 3 . Representemos por N (A ) o número
sub-coleções desse eventos. O
de palavras que atendem à característica estabelecida pelo evento A (a notação
será análoga para os outros eventos). Fixando s como letra inicial temos Encerramos o capítulo com a apresentação de um resultado teórico
N(A) = n 2 • O mesmo vale se fixarmos a letra do meio como s, isto é importante. Ele se refere a calcular probabilidades em repetições infinitas de um
N(B) = n 2 • O número de palavras com exatamente duas letras iguais é certo experimento tais como o lançamento sucessivo de uma moeda.
N(C) = 3n(n- 1), uma vez que temos 3 posições para a letra diferente. Lema 1.5: Lema de Borel-Cantelli
Portanto obtemos:
Sejam A1 , A 2 , .•. eventos em (0, :F, P) com Pn = P(An ) para todo
P(A) = P(B) = n2 =~ e P (C) = 3n(n- 1) = 3(n- 1). n ;?: 1. Temos
n3 n n3 n2 00

Existem n palavras tendo as duas primeiras letras iguais a s. Assim, (i) Se LPn < oo então P(limsup A 11 ) = O;
N(AB) = n. Fixando a letra s, seja no ínicio ou no meio, e requerendo n=l
00
exatamente duas letras iguais teremos 3( n - 1) palavras. Dessa forma, (ii) Se LPn = oo e os A 's são independentes, então P(limsup A11 ) = 1.
11

= ~ = ~;
n=l
P(AB) P(AC ) = 3 (n- 1) e P(BC) = 3 (n- 1 ).
~ ~ ~ ~ Demonstração:
Observe que a probabilidade da intersecção de qualquer dois, dentre os eventos
A, B e C, é igual ao produto das probabilidades marginais. Segue imediatamente Considere B k =
00

U An e, portanto, lim supAn =


n=k
nBk.
00

k=l
que os eventos A e B, A e C e também B e C são independentes. Para poder (i) Para todo k temos
afirmar que A, B e C são independentes precisamos também verificar que a
00 00 00
probabilidade da intersecção dos três eventos é o produto das marginais.
O número de palavras que iniciam com ss e têm exatamente duas letras
o ::; P(limsupAn) = P(n Bk)::; P(Bk ) = P(U An ) ::; LPn;
k= l n=k n=k
idênticas é igual a n- 1. Dessa forma, N(ABC) = n- 1 e temos
em que usamos várias das propriedades de probabilidade relativas à inclusão de
P( A BC ) = n - 1 , eventos. Tomando limite para k-+ oo e lembrando que, por hipótese a série
n3
converge, temos P(lim supA 11 ) = O.
--· 45
1.3 Probabilidade
44 Capítulo 1: Conceitos Básicos em Probabilidade

com event os comp lemen tares. Assim, Exemplo 1.21: O macaco escritor (]ames [81])
(ii) É mais conve niente trabal har r é razoável supor que
Coloc ando um macaco em frente a um comp utado
00 00

seja (Iims upAn)c = U B'f. com Bf = nA~. k =


1, 2, ·· ·. muito peque na, dele digita r as obras
haja uma proba bilida de positi va p, embo ra
k=l n=k
dere que cada ensaio consi ste nessa
Sejam k em inteiros positi vos com m > k. Temo completas de Shakespeare sem erro. Consi
s
o, se ele conse guir escrev er as obras
tentativa literár ia do macaco. Ela será sucess
O :S P (Bk) = P (A% n Ak+I n · · ·) completas e, fracasso, caso contrário. Assum a indep endên cia entre os ensaios e
:S P(A% n A%+1 n · ··nA~) mesmas. Assim, defini ndo An
que as probabilidades de suces so são sempr e as
= P(A%) P(Ak+ 1 )· • ·P(A~) (pela indep endên cia) como suces so no n-ésim o ensaio, temos
m
= II(l - p;) P(An) = Pn = p > O, 'Vn ~ 1.
i=k elli concluímos que, com
Portanto, pela parte (ii) do Lema de Borel-Cant
obras completas de Shake spear e
probabilidade 1, o macaco conse guirá escrever as
um núme ro infinito de vezes.
uma vez que 1 - x ::; e-x para todo x real. Exerc ícios da Seção 1.3:
( Fixan do k vem partes de O. Defina as
m 1. Consi dere O= {0, 1} e tome :F como a a-álge bra das
Iim
m-+oo ~
(~ Pi) = oo,
·
funções:
i=k 1/3, se w = {O};
f (w) = { 1/2, se w ={O}; e g (w ) = { 2/3, se w= {1 }.
Porta nto, 1/2, se w = {1};
pois a série {Pn; n ~ 1} é diverg ente por hipótese.
de conjuntos disjuntos,
Admita que tanto f quanto g são aditivas para a união
' (e-f•~kp,) =O,
hm isto é, se A e B são disjuntos, f(A U B ) = f (A) + f(B).
ogorov em (O, :F) .
m-->oc
a. Verif ique que f e g satisfazem os Axiomas de Kolm
é uma função de
b. Mostr e que, para O < a < 1, (1-
n/+ a)g
e, então, P (B'f.) = O.
Como o resultado vale para todo k , segue que probabilidade.
rai. Verifique que a função,
00 00 2. Consi dere O = {1, 2, 3, 4, 5, 6} um espaço amost
que atribui lw- 31/9 a cada ponto w E n e
é aditiva para a união de
P(U Bf. ) :S LP(Bf.) = o. bra do conjunto das partes
k=l k=l conju ntos disjuntos, é uma probabilidade na a-álge
como o modelo para o
n) = 1. o de n. Considere esse espaç o de probabilidade
Assim, P[(Iim supA nY] =O e, portan to, P(Iim supA lança mento de um dado. Você manteria, nesse caso,
a idéia "popular" de que
parte (ii) do Lema . Isto tanto faz apostar nos ímpares ou nos pares?
Note que a indep endên cia não pode ser omiti da na
event os como sendo iguais a um
pode ser verificado tomando toda a seqüê ncia de 3. Um ponto (x, y) é escolhido ao acaso no retâng
ulo O :S x :S a; O :S y :S b, com
anteri or está relaci onada com as
evento com proba bilida de positiva. A propo sição a e b positivos. Determine a probabilidade (cuidado
com as condições sobre a
ssado pode consu ltar Feller
cham adas Leis zero-um de Kolmogorov. O leitor intere e b):
[68] e as referências lá mencionadas.
elabo rados , nada como a. Da abcissa x ser inferi or à ordenada y .
Após um capítulo cheio de prova s e exem plos
do Lema de Borei-Cantelli. b. Do ponto satisfazer à desigualdade bx + ay :S ab/2.
terminá-lo com uma clássica e sui gene ris aplica ção
c. Do ponto satisfazer à desigualdade x + y < 1/3.
47
46 Capítulo 1: Conceitos Básicos em Probabilidade 1.4 Exercícios

b. AUB=AU (Acn B).


4. Sendo A e B dois eventos no espaço amostrai (0, F, P), indique sob que
c. SeA C BentãoBc c Ac.
condições temos P(AI B) = P(BI A).
2. Prove que para quaisquer dois eventos A e B, são equivalentes as seguintes
5. Mostre que as duas expressões da definição de independência são equivalentes.
Isto é, de uma delas pode-se obter a outra.
relações: A C B, Bc c Ac,AnBc = 0eAUB = B.
3. Se { An; n ~ 1} é uma seqüência monótona de conjuntos então
6. Sendo A e B independentes, verifique que também são independentes os
eventos: limAn = lim
- lim An-
An = n-+oo
a. A e Bc.
b. Ace B. 4. Obtenha a a-álgebra gerada pela classe { {0, 1}, {1, 2}} se:
c. Ac e nc. a. o= {0, 1, 2}.
b. o = {o, 1, 2, 3}.
7. Uma fábrica tem 3 máquinas que produzem o mesmo item. As máquinas A e B
são r~sponsáveis, cada uma, por 40% da produção. Quanto à qualidade, as 5. Construa a "menor" a-álgebra em [O, 1] n ~. contendo o subconjunto [0, 1/2).
máqumas A e B produzem I 0% de itens defeituosos cada uma enquanto que a 6. Sejam A e B subconjuntos de um espaço amostrai O. Defina uma seqüência
máq~ina C apenas 2%. Um item é selecionado ao acaso da produção dessa {An; n ~ 1} tal que A2n-l =A e A2n = B. Mostre que
fábnca. Pergunta-se a probabilidade do item:
a. Ser defeituoso? IimAn = AnB e IimAn = AUB.
b. Em sendo defeituoso, ter sido produzido pela máquina A? 7. Seja O um conjunto não enumerável e defina F= { A C 0: A é enumerável
8. Sejam A1, A2, ... eventos em (0, F, P) com p11 = P(An) ~ c > O, para todo ou A c é enumerável}. Mostre que F é uma a-álgebra de subconjuntos de O.
n ~ 1. Mostre que P(lim sup An) ~ c. 8. Seja F uma a-álgebra de conjuntos de O. Fixamos B E F e definimos uma
9. Sejam O = {1, 2, · · ·} e F = Op. Defina a função de probabilidade, atuando nova coleção de subconjuntos Ç} = {C : C = A n B, para algum A E F}.
Mostre que Ç} é uma a-álgebra de subconjuntos de B.
sobre F, por P( { n}) = n(n~l) com n = 1, 2, · · · . Para cada n, considere o
00
9. Para O= [0, 1] n ~ e F1 e F2 duas a-álgebras em O, prove que
evento An = {n, n + 1, · · ·}. Mostre que, apesar de I: P(An) divergir, temos F= {A: A E F 1 n F 2} é a-álgebra, mas Ç} ={A: A E F1 U F2} não é.
n=l
P(limsupAn) =O. Isto contradiz o Lema de Borel-Cantelli? 10. Seja O o conjunto dos naturais. Mostre que Op é uma a-álgebra.
10. Considere o lançamento sucessivo e independente de uma moeda equilibrada. 11. Sejam A e B dois conjuntos de O. Mostre que para cada ponto w E O, vale:
Defina An como o seguinte evento: o lançamento n inicia uma série de a. IAun(w) = l.4.(w) + IB(w) -lAnn(w) = max (1.4.(w), In(w)).
exatamente 3 caras. Usando o Lema de Borei-Cantelli, determine a
b. IAnn(w) = IA(w) IB(w) = min (IA(w), In(w)).
probabilidade da ocorrência de um número infinito dos An 's.
12. Mostre que A 2 B se e somente se l.4.(w) ~ In(w), para cada ponto w E n.
1.4 Exercícios 2
13. Sendo A e B dois subconjuntos em n, mostre que (1.4.(w)- In(w )) é
Em vários dos exercícios abaixo, o espaço de probabilidade será omitido também um indicador. Qual é o subconjunto relacionado a esse indicador?
p~ra ,a~reviar a redação. Nesses casos, o leitor deve assumir que sua explicitação
14. Considere O = {1, 2, 3} e a a-álgebra do conjunto das partes de O. Defina
nao e Importante para a compreensão e resolução do exercício.
uma candidata à função de probabilidade da seguinte forma: 0 e n têm
1. Demonstre as seguintes relações entre conjuntos. probabilidade O e 1, respectivamente. Os demais elementos da a-álgebra têm
a. A= (A n B) u (A n B c).


I
48 Capítulo 1: Conceitos Básicos em Probabilidade 1.4 Exercícios 49

23. Sejam A1. A 2 , A 3 e A 4 eventos independentes e com probabilidades


todos probabilidade 1/6. Você acha que essa candidata satisfaz os Axiomas de
Kolmogorov? 0,5; 0,4; 0,3 e 0,2; respectivamente. Determine a probabilidade de B, sendo
4
15. Um experimento com espaço amostrai O é repetido n vezes. Defina nA como que IB = 1 - TI (1 - IAJ.
i=l
o número de ocorrências de um evento A C O. Mostre que a função
f(A) = nA/n satisfaz os Axiomas de Kolmogorov para probabilidade em OP 24. Sejam A1, A2, ... An e B1, B2, · · ·, Bn eventos em (O,:F,'P). Para
n
(conjunto das partes). j = 1, 2, ·. ·, n, suponha que Bi seja independente de nA; que os B/s sejam
i=l
16. Uma moeda é lançada duas vezes e seja O= {0, 1, 2} o espaço amostrai n n
correspondendo à quantidade de caras nos dois lançamentos. Considere a disjuntos 2 a 2. Mostre que U Bi e nA; são independentes.
j=l i=l
função que atribui 1/3 a cada um dos pontos de O e admita que ela é aditiva
25. Uma caixa A contém uma bola vermelha e uma preta. Uma outra caixa B
para a união de conjuntos disjuntos. Nessa condições, teríamos uma
contém uma bola branca e uma vermelha. Escolhemos, ao acaso, uma das
probabilidade em np?
caixas e uma bola é retirada também ao acaso.
17. Um dado é lançado uma vez e seja O= {1, 2, 3, 4, 5, 6} o correspondente a. Indique um espaço amostrai para esse experimento, incluindo a caixa
espaço amostrai. Considere uma função que associa p; ao ponto i de O e é escolhida e a cor da bola.
aditiva para conjuntos disjuntos. Que condições adicionais precisam ser b. Indique um outro espaço amostrai, considerando somente a cor da bola
impostas sobre os p;'s para esa função ser uma probabilidade em Op? escolhida.
c. Indique as probabilidades de cada um dos eventos nos espaços amostrais
18. Em um experimento O= {1, 2, 3, 4} e seja :F= nP. Defina f(0) =O e apresentados.
f ({X}) = X I4 para todo X E n. Admitindo que f é aditiva para conjuntos d. Suponha que as duas caixas são agrupadas em uma só, qual é a
probabilidade de, em duas retiradas ao acaso e sem reposição, obtermos
disjuntos, verifique se f é uma probabilidade em :F.
bolas de cores diferentes?
e. Suponha agora que uma bola é retirada, ao acaso, da uma A e colocada em
19. Considere o espaço amostrai O = [0, 2) nR Seja :F a a-álgebra gerada pelos
B. Determine a probabilidade de que em duas retiradas em B, ao acaso e
intervalos abertos de O (usualmente denominada de a-álgebra de Borel). Para com reposição, obtermos pelo menos uma bola vermelha.
qualquer A E :F, mostre que a função f(A) = JA! dx é probabilidade. A 26. Uma moeda equilibrada é lançada duas vezes.
integral aqui é de Riemman apesar da notação não usual. a. Se o seu interesse é o número de caras, qual seria o espaço amostrai?
b. Apresente um outro espaço amostrai mais detalhado.
20. Considere o espaço de probabilidade (O, :F, P). Seja g ={A: A E :F e c. Estabeleça uma correspondência entre os elementos dos espaços amostrais
P(A) =O ou 1 }. Mostre que g é uma a-álgebra de conjuntos de O. apresentados.
21. Seja (0, :F, P) um espaço de probabilidade e para cada B E :F defina a d. Indique as probabilidades dos elementos em cada espaço amostrai.
seguinte classe de subconjuntos: :F8 ={A: A E :F e P(A n B) =O ou e. Com o espaço amostrai de (a), você poderia calcular a probabilidade de
P(A n B) = P(B)}. Mostre que :FB é uma a-álgebra de conjuntos de n. ocorrer cara no primeiro ou coroa no segundo lançamento?
f. Como ficaria a resposta de (e), utilizando o espaço amostrai de (b)?
22. Considere o espaço amostrai O = [O, 1) n !R e, para qualquer A c O, defina
27. Considere duas caixas com bolas pretas e brancas num total de três por caixa
uma função P(A) como sendo o comprimento de A. Seja :F a a-álgebra de modo que sempre as duas cores estejam presentes. As configurações
gerada pelos intervalos abertos de O. Mostre que P(A) é uma probabilidade. possíveis são eqüiprováveis e podem ser iguais nas duas caixas.
- ....
1.4 Exercícios 51
50 Capítulo 1: Conceitos Básicos em Probabilidade

a. Qual é a probabilidade de uma caixa, escolhida ao acaso, ter 2 bolas 33. Escolha, ao acaso, um ponto (a, b) na região de lR2 definida por O::::; x::::; 1 e
brancas? O ::::; y ::::; I. Para a equação z 2 + 2az + b = O, determine a probabilidade das
b. Retirando-se, ao acaso, uma bola de cada uma, qual a probabilidade de raízes serem:
obtermos um total de 2 brancas? a. Dois números reais e distintos.
c. De uma caixa, escolhida ao acaso, uma bola é retirada ao acaso e colocada b. Dois números reais.
na outra caixa. Desta caixa uma bola é retirada e observa-se que é branca. 34. Os coeficientes a, b e c da equação ax 2 + bx + c = O são, respectivamente,
Determine a probabilidade dessa bola ter sido retirada de uma caixa com os resultados sucessivos de três lançamentos de um dado equilibrado. Calcule
número igual de bolas brancas e pretas. a probabilidade das raízes dessa equação serem números reais.
28. Para o lançamento de um dado equilibrado, pergunta-se: 35. Demonstre que dois eventos com probabilidade positiva e disjuntos nunca são
a. Para os interessados em saber se a face sorteada é par, qual seria um espaço independentes.
amostrai adequado?
b. Apresente o espaço amostrai mais detalhado possível. 36. Prove que eventos independentes não são disjuntos, a menos que um deles
c. Estabeleça uma correspondência entre os elementos dos espaços amostrais tenha probabilidade zero.
apresentados. 37. Demonstre que o vazio é independente de qualquer evento.
d. Indique as probabilidades dos elementos desses espaços amostrais.
38. Prove que, se os eventos A e B têm probabilidade positiva e não são
e. Com o espaço amostrai de (a), você poderia calcular a probabilidade de
ocorrência de face 3 ou 4? disjuntos, então P(A) = P(B) se é somente se P(AIB) = P(BIA).
f. Como ficaria a resposta de (e), utilizando o espaço amostrai de (b)? 39. Uma moeda equilibrada é jogada 15 vezes de forma independente. Qual é a
probabilidade de obter cara no lSo. lançamento, se ocorrerem 14 coroas nas
29. Um dado honesto é lançado duas vezes. Determine a probabilidade de obter:
a. Dois números pares. primeiras 14 jogadas?
b. O primeiro par e o segundo número ímpar. 40. Demonstre que se P(A) = P(B) = 3/4, então P(AI B) 2: 2/3.
c. Um número par e o outro ímpar.
d. Soma par.
41. Mostre que: P(A n B) 2: P(A) + P(B) - 1.
e. Soma dos números menor que 7. 42. Prove que P(A) + P(B) - 2P(A n B) é a probabilidade de ocorrência, não
f. Diferença entre os números maior que 4. simultânea, de A ou de B.
g. O segundo número maior que o primeiro. 43. Os eventos A, B e C são independentes. Prove que P(B I A n C)= P(B I
30. Escolha um ponto, ao acaso, no círculo unitário com centro na origem. Qual é AUC) = P(B).
a probabilidade da distância desse ponto à circunferência, que limita o
44. Verifique se são verdadeiras as afirmações (justifique sua resposta):
círculo, ser inferior a 1/2?
a. Sendo A e B eventos não vazios, P(A n B) é sempre positiva.
31. Um ponto (a, b) E JR2 é escolhido aleatoriamente no quadrado definido por b. Sendo P(A) = 3/4 e P(Bc) = 2/3, A e B não podem ser disjuntos.
-1 ::::; x ::::; 1 e -I ::::; y ::::; 1. Considerando a equação ax + b = O, determine a c. Sempre que A n B i' 0, P(A) + P(B) excede 1.
probabilidade de sua solução ser positiva . d. Se P(A U B) ::::; 0,9 e P(A) = 0,8; então P(B) é no máximo 0,1.
32. Um ponto x 0 é escolhido aleatoriamente em (0, 1] n IR.. A "sombra" gerada por 45. Considere os eventos A, B e C em n e suponha que P( C) > O e
esse ponto é o intervalo de amplitude x 0 /2, centrado em xo. Determine a P(B n C) > O. Verifique se são verdadeiras as afirmações (justifique sua
probabilidade (condicional a x 0 ) de sortear, ao acaso, um outro ponto em resposta):
(0, 1] fora dessa "sombra".
52 Capítulo 1: Conceitos Básicos em Probabilidade 1.4 Exercícios 53

a. P(A n B IC) = P(A IB n C)P(B IC). a. P(A u B) ~ 3/4.


b. P(A n B 1 C)= P(A 1 C)P(B 1 C). b. 1/8 ~ P(A n B) ~ 3/8.
46. Verifique se vale: sendo O < P(A) < 1 e P(B I A) = P(B I Ac) então A e B 57. Para A e B eventos em (0, F, P), mostre que:
são independentes. a. Sendo P(A) > O, P(B) > Oe P(AI B) > P(A), então P(BI A) > P(B).
b. Se P(A) = P(B) = 2/3, então P(AI B) ~ 1/2.
47. Mostre que P(N n BC) = 1- P(A) - P(B) + P(A n B).
58. Sejam A e B dois eventos, num mesmo espaço de probabilidade, tais que suas
48. Sendo P(A) > O e P(B) > O, mostre que P(AIB) < P(A) implica probabilidades estão entre O e 1 (intervalo aberto). Mostre ou dê um contra
P(BIA) < P(B). exemplo para a implicação: P(AI B) > P(AI Bc) ==> P(BI A) > P(BI A c).
49. Um cavalo tem probabilidade p de saltar um obstáculo. De cinco tentativas ele 59. Lançamentos independentes de três dados equilibrados produz resultados
conseguiu saltar em 3, qual é a probabilidade condicional da primeira diferentes. Qual é a probabilidade de ter ocorrido pelo menos um seis?
tentativa ter sido bem sucedida?
60. Com A, B e C eventos tais que P(A) = 2/5, P(B) = 1/4 e P(C) = 1/2.
50. Sendo P(B) >O e P(C) >O. Vale ou não que: P(AIB) < P(A) e
Suponha ainda que P(A n B) = x, P(B U C) = y e P(C- A) = z.
P(BIC) < P(B) implicam que P(AIC) < P(A)? a. Que condições devem satisfazer x,y e z?
51. Sendo P(A) =O, 7 e P(A U B) =O, 8; obtenha P(B) nos seguintes casos: b. Em função de x, y e z, determine P(B- A), P(C- B) e P(A U C).
a. A e B são independentes. c. Com a suposição adicional de independência entre A, B e C, calcule x, y e
b. A e B são disjuntos. z e, também, P(A U B U C).
c. P(A I B) =o, 6. 61. Considere dois eventos A e B com P(A) = P(B) = 1/3 e P(A6B) = 1/2.
52. Verifique se são verdadeiras as afirmações (justifique sua resposta): Calcule P(A U B).
a. Sendo A e B independentes então P(A n B) é sempre positiva. 62. Sejam A e B eventos com P(A) = 0,7 e P(B) = 0,6. Determine o valor
b. Não existe um evento A tal que P(A) x P(A) = 3/4. máximo e mínimo de P(A n B).
c. Se P(A n B) = O então P(A) x P(B) =O.
d. Se P(A) = 1/4 e P(B) = 1/3 então P(A n B) ~ 1/12. 63. Os eventos A e B são independentes. Sendo P(ABc) =O, 3 e
P(Ac B) =O, 2; obtenha P(AB).
53. Para A, B e C eventos tais que P(A n B) = 1/4, P(A n C) = 2/7.
P(B n C)= 1/5 e P(A n B n C)= 1/8, determine a probabilidade da 64. Os eventos A, B e C são independentes. Mostre que A U B e C são
ocorrência de: independentes. Verifique se (ABc U A c B) e C são independentes. Sob que
a. Pelo menos dois, dentre os três eventos A, B e C. condições AC e BC são independentes?
b. Exatamente dois, dentre os três eventos A, B e C. 65. Uma caixa tem 4 bolas, cada uma com uma das letras a, b, c e d. Uma bola
54. Sendo P(A) = 1/2 e P(A U B) = 3/4, obtenha P(B) nos seguintes casos: será escolhida ao acaso e são definidos os eventos E 1 = {a, b}, E2 = {a, c} e
a. A e B são independentes. E 3 = {a, d}. Verifique que esses eventos são independentes dois a dois, mas
b. A e B são disjuntos. não são independentes (isto é, totalmente independentes).
c. A está contido em B. 66. Qual é a probabilidade de 5 pessoas escolhidas ao acaso terem nascido em
55. Sendo P(A) =o: e P(B) = /3. O < o:, f3 < 1, obtenha os limites inferior e meses diferentes, considerando que:
superior para P(AIB). a. Os meses do ano são equiprováveis?
b. O ano tem 365 dias (7 meses com 31 dias, 4 com 30 e I com 28 dias)?
56. Sendo P(A) = 3/4 e P(B) = 3/8, verifique se é possível:
54 Capftu/o 1: Conceitos Básicos em Probabilidade 1.4 Exerdcios 55

67. Para um conjunto de 10 pessoas, qual é a probabilidade de 6 fazerem número, ele ganha 36 fichas (sua aposta mais 35). Qualquer outro número ele
aniversário num mesmo mês e 4 em um outro mês? (Admita igual perde sua aposta. Qual é a probabilidade do jogador perder todas as suas
probabilidade de nascimento em qualquer mês). fichas em até 50 rodadas?
68. Três pontos A, B e C são escolhidos independentemente em uma 77. Suponha que n livros, dos quais k são de Estatística, são colocados
circunferência. Determine a probabilidade do triângulo ABC ter todos os aleatoriamente em uma prateleira. Determine a probabilidade dos livros de
ângulos agudos. Estatística ficarem juntos. Que valor de k minimiza essa probabilidade?
69. Um ponto x é escolhido ao acaso em um círculo de raio r e origem no ponto 78. Em uma classe de Português para estrangeiros, 6 alunos têm nacionalidade
O. Qual é a probabilidade de que o quadrado, que tem x como ponto médio de peruana, 5 são argentinos e 4 chilenos. Para dois alunos escolhidos ao acaso,
um dos lados e é centrado em O, esteja inteiramente contido no círculo. qual é a probabilidade deles não terem a mesma nacionalidade?
70. Considere a região A={(x,y)ElR. 2 ;1$y$2,y$x+1 ,y2::x-1}. 79. De uma lista de m números inteiros positivos e n inteiros negativos
Para um ponto escolhido ao acaso em A, calcule a probabilidade de: sorteamos, ao acaso e sem reposição, três números. Qual é a probabilidade de:
a. Estar a uma distância menor que 1/2 da fronteira de A. a. Pelo menos um dos números escolhidos ser positivo?
b. Pertencer à região {(x, y) E JR.2 ; x + y > 2}. b. O quociente entre o produto de dois deles pelo outro ser negativo?
71. Uma caixa contém m bolas brancas e n vermelhas. Dois jogadores se 80. Cinco casais são colocados em linha. Qual é a probabilidade de nenhum
alternam em retirar, ao acaso, uma bola da caixa. As retiradas são com marido ficar vizinho de sua esposa?·
reposição e vence quem retirar a primeira bola branca. Mostre que quem
81. Um dado equilibrado é lançado dez vezes. Sendo M o máximo obtido e m o
inicia o jogo tem vantagem.
mínimo, determine P(M = 5,m = 2).
72. Uma moeda honesta será lançada o número de vezes indicado pelo resultado
82. Um pessoa está discando um número de telefone e conhece todos os dígitos,
de um dado equilibrado. Calcule a probabilidade da ocorrência de:
mas esqueceu-se da ordem dos últimos três (que são diferentes entre si). Ela
a. Nenhuma cara.
disca, variando aleatoriamente esses três últimos dígitos, até encontrar o
b. Pelo menos duas coroas.
número correto. Admitindo que ela não repita números discados, qual é a
c. Número igual de caras e coroas. probabilidade de ser necessário discar 5 números errados antes de acertar?
73. Um grupo de 4 homens e 4 mulheres é divido ao acaso em dois grupos de 4 83. Seis pares de sapatos estão guardados em um armário. Escolhendo quatro
pessoas. Determine a probabilidade de cada grupo ficar com o mesmo número sapatos, ao acaso, qual é a probabilidade de:
de mulheres.
a. Não formarmos nenhum par?
74. Dentre todos os números com três algarismos (incluindo o zero em qualquer b. Pelo menos um par ser formado?
posição), qual é a probabilidade de escolher ao acaso um deles com:
84. Para A, B e C eventos em (f!, :F, P), mostre que se A é independente de B e
a. Exatamente dois cincos?
de C e se B U C = f!, então A é independente de B n C. Dê um exemplo
b. Pelo menos um 3?
mostrando que a condição P(B U C) = 1 é essencial para a conclusão valer.
75. Um grupo de animais tem 2n machos e 2m fêmeas. Feita uma divisão
85. Uma moeda equilibrada é lançada 3 vezes. Verifique se os eventos
aleatória em dois grupos de mesma quantidade, qual é a probabilidade desses
A = {ocorrem pelo menos duas coroas} e B = {coroa no 1o. lançamento},
grupos terem números iguais de machos?
são independentes.
76. Considere um jogo de roleta com 36 números. Um jogador tem 5 fichas e
aposta sempre, em cada rodada, I ficha em um dos números. Caso dê seu 86. Sejam A 1 , A 2 , ·· ·, eventos em (f!, :F, P), mostre que:
- 56 Capítulo 1: Conceitos Básicos em Probabilidade 1.4 Exercícios 57

00
... , eventos em (O ,F ,P), tais que P(A,) = 1/ n, n = 1, 2, · · ·.
93. Para A1, A2 ,
a. Se P (A1) = P (Az) = · · · =O então P( U An ) =O.
n= l Que podemos dizer de P(liminf A 11 ) e P(lim sup An)?
00
b. Se P(AI) = P(Az) = · · · = I então P( n An) = 1. 94. São escritas cartas a n destinatários diferentes e há n envelopes com os
n=l respectivos endereços. Porém as cartas são colocadas, ao acaso, em cada um
87. Uma seqüência de experimentos independentes do tipo sucesso-fracasso é desses n envelopes.
realizada. Para cada n = 1, 2, .. . , defina os eventos: a. Qual é a probabilidade da k-ésima carta chegar ao destino correto?
b. Qual é a probabilidade de pelo menos uma carta chegar ao destino correto?
An = {os primeiros n ensaios têm resultados iguais};
c. O que ocorre com a probabilidade de (b) se n -+ oo?
Bn = {o n-ésimo ensaio tem resultado diferente do (n + 1)-ésimo} .
95. Uma amostra de n pontos é escolhida ao acaso e de forma independente em
Se a probabilidade de sucesso é p, determine a probabilidade de que An
uma esfera de raio R.
ocorra infinitas vezes. Faça o mesmo para Bn.
a. Calcule a probabilidade da distância, entre o centro da esfera e o ponto
88. Considere os eventos A 1 , A 2 , ··• em (0, F , P) , tais que P (A~ i. v.)= 1 e mais próximo, ser maior que x.
00 411"ÀX3
I: P (A~ n A~+l) < oo. O que dizer sobre P(An i. v.)? b. Verifique que o limite da probabilidade obtida em (a) é igual a e-ã ,
n=l quando R-+ oo, n-+ oo e admitindo que -Jb -+ ~7r >., para algum>. > O.
89. Seja (n, F, P) um espaço de probabilidade em que n = [0, 1] n R, F é a q- 96. Considere a escolha, ao acaso, de um 'número inteiro entre 1 e 200. Determine
álgebra de Borel e P é a probabilidade uniforme (isto é, a probabilidade de as probabilidades dos eventos A = {número divisível por 7} e B ={número
um evento é o seu comprimento). Para n = 1, 2, . . . defina An = [O, 1 - e i. ] satisfaz a equação 3n + 10, para algum inteiro n }. Eles são independentes?
Bn = [ ~ '~ - ~,] .Calcule limP(An n B 11 ).
n--+oo 97. O intervalo [O, 1] n IR é dividido em cinco partes, por quatro pontos escolhidos
ao acaso. Determine a probabilidade das partes serem menores que 1/2.
90. Sejam {An : n > O} e {B11 : n > O} duas seqüências de eventos. Admita que
00 oc 98. Três jogadores A, B e C lançam, sucessivamente e nessa ordem, uma moeda
L: P(An n B~+ 1 ) < oo e L: P(Bn n A~+l) < oo. Demonstre que se
com probabilidade de cara PA· PB e pc, respectivamente. Vence o jogo aquele
n= l n= l
que obtiver a la. cara. Estabeleça as condições para haver igualdade de vitória
P (An) -+0 (ou, P (B 11 )-+ 0), então P(An i. v.)= P(Bn i. v.)= O.
entre os jogadores. Qual seria o valor máximo de PA nesse caso?
Sugestão: Considere o evento C= (An i. v.)- [(Dn i. v.) U (Cn i. v.)] em que,
99. Cada um dos 2n moradores de um prédio joga uma moeda honesta e, se der
para n 2:: 1, Cn = An n B~+l e Dn = Bn n A~+1· cara, irá à assembléia de condomínio. Calcule a probabilidade da maioria
participar da assembléia.
91. Seja S uma particular seqüência (finita) de caras e coroas. Mostre que, se uma
100. Três atiradores A, B e C têm probabilidade de acertar o alvo de,
moeda, com probabilidade de cara igual a p (O < p < 1), é jogada de forma
respectivamente, 0,6; 0,5 e 0,4. Cada um deles atira uma vez e 2 tiros
independente infinitas vezes, então a seqüência S ocorre infinitas vezes com acertam o alvo. Nessas condições, qual é a probabilidade de que um dos tiros
probabilidade 1. que acertou o alvo tenha sido disparado por C?

92. SejamA 1, A2, •.• , eventos em (O,F,P). Mostre que


101. Os eventos A, B e C estão em (0, :F, P), são dois a dois independentes e os
3 nunca podem ocorrer simultaneamente. Se P(A ) = P(B) = P(C) = :r,
P(liminf An) ~ liminf P(An) ~ limsup P(An) ~ P(lim sup An )· determine o maior valor possível para x.
58 Capítulo 1: Conceitos Básicos em Probabilidade 1.4 Exercícios 59

102. Sejam A 1 , A 2 , · · ·, An eventos em (0, F, P). Eles são ditos "permutáveis" se


o valor de P( A; 1 , A;2 , • • ·, Ad, 1 :$ k :$ n e 1 :$ Ít < i2 < · · · < Ík :$ n, só
depende de k e não da escolha de quais índices incluir. Uma caixa contém
I 109. João e Paulo participam de um jogo de cara e coroa. João inicia jogando e, se
obtiver cara, ganha e o jogo acaba. Caso isso não aconteça, Paulo joga a
moeda e, se der coroa, ele ganha e o jogo acaba. O jogo continua, com
lançamentos alternados, até que alguém ganhe.
Jt.f bolas vermelhas e N - Jt.f brancas. São retiradas n bolas ao acaso e sem
reposição, n :$ min(.llf, N- 1\f) e seja Ak o evento em que a k-ésima bola a. Paulo está chateado porque não começa jogando. Ele tem razão se a
retirada é vermelha. Prove que A 1 , A 2 , • • ·, An são permutáveis. moeda é equilibrada? E se a probabilidade de cara for igual a 0,4?
b. Qual deveria ser o valor da probabilidade de cara dessa moeda, para que
103. Considere o sorteio ao acaso de um número de 1 a n. houvesse eqüílibrio entre os jogadores?
( a. Calcule a probabilidade do número sorteado ser divisível por 3 ou por 5. c. Alguém argumenta que os jogadores estão perdendo tempo, pois os
b. Repita o item (a) para n = 120 e n-+oo. mesmos resultados seriam obtidos, se, a cada lançamento da moeda, um
\
104. Dentre os mil primeiros números naturais, dois são sorteados ao acaso. deles vencesse. O que você acha?
Determine a probabilidade de: 110. Uma caixa contém bolas numeradas de 1 a n. Retiramos uma bola dessa
a. Ambos serem quadrados perfeitos. caixa sucessivamente, ao acaso e sem reposição, até que o número da bola
b. Seu produto terminar em 1. retirada seja maior do que todos os anteriores ou até que as bolas acabem.
105. Um número é sorteado ao acaso dentre os dez mil primeiros números Seja qual for, a primeira bola não interrompe as retiradas.
naturais. Qual é a probabilidade de que ele não seja divisível por 2, nem por a. Se n = 10, qual é a probabilidl\de de interrupção na quarta retirada? E na
3 e nem por 5? décima?
b. No caso geral, sendo k < n, qual é a probabilidade de interrupção na k-
106. Três jogadores lançam sucessivamente, e sempre na mesma ordem, um dado
ésima retirada?
honesto. Vencerá o jogo aquele que primeiro obtiver a face 6. O que você
acha do provérbio: "os últimos serão os primeiros"? 111. Dois dados eqüilibrados são hmçados e dois jogadores A e B disputam um
prêmio. O jogador A recebe o prêmio, se a soma for 7, enquanto que B será
107. Exames de diagnóstico não são infalíveis, mas deseja-se que tenham o vencedor, se a soma for 11. O jogo prossegue até alguém ganhar.
probabilidade pequena de erro. Um exame detecta uma certa doença, caso a. Quantas vezes esses dados deverão ser arremessados para que possamos
ela exista, com probabilidade 0,9. Se a doença não existir, o exame garantir o final do jogo com probabilidade de pelo menos 0,95?
corretamente aponta isso com probabilidade 0,8. Considere que estamos
b. Qual é a probabilidade de A ganhar o jogo?
aplicando esses exames em uma população com 10% de incidência dessa
doença. Para um indivíduo escolhido ao acaso, pergunta-se: 112. Três jogadores A, B e C participam de um jogo lançando uma moeda não
a. A probabilidade de ser realmente doente se o exame indicou que era. equilibrada, sucessivamente, de forma independente e nessa ordem. O
b. Se dois indivíduos forem escolhidos e testados, qual seria a probabilidade vencedor é aquele que primeiro obtiver cara. O jogador A começa o jogo e
de errar um dos diagnósticos? sua moeda tem probabilidade p de dar cara, O< p < 1/3. Na moeda do
c. Suponha que o acerto do exame, nas duas situações possíveis, têm a jogador B essa probabilidade é 2p e para o jogador C, a moeda tem
mesma probabilidade p. Quanto deve ser o valor de p, para que a probabilidade de cara igual a 3p. Calcule a probabilidade de cada um vencer
probabilidade calculada no item (a) seja 0,9? o jogo (em função de p) e indique para quais valores de p o jogador C tem a
maior probabilidade de vitória.
108. Dois jogadores iniciam um cara-coroa com R$ 3 cada um. Ao lançar a moeda
equilibrada, se der cara, o jogador A recebe R$ I de B. Caso ocorra coroa, B 113. João e Maria são namorados e um queria fazer uma surpresa para o outro,
recebe R$ 1 de A. O jogo termina quando um dos jogadores não tiver mais comprando ingressos para um espetáculo no teatro municipal. Admita que
dinheiro. Calcule a probabilidade do jogo terminar em n jogadas. eles chegaram para comprar os ingressos, em algum instante de uma mesma
....
. I

60 Capítulo 1: Conceitos Básicos em Probabilidade 1.4 Exercícios 61

tarde em que a bilheteria abriria às 18 horas. No momento de abertura das laboratório dá positivo para 25% dos doentes com D1o 50% dos com D2 e
vendas existia um total de n pessoas na fila (incluindo os dois). Pergunta-se a 75% dos doentes com D 3 . Se o paciente realizou 3 desses testes (assuma
probabilidade de os dois: independência entre eles) e dois deram positivo, determine as probabilidades
a. Estarem separados na fila por r pessoas (r ::; n- 2)? do paciente ter cada uma das doenças.
b. Se encontrarem no momento da chegada à fila da bilheteria?
120. (Problema da ruína de um jogador) Dois jogadores participam de um jogo
114. Em um teste de múltipla escolha, a probabilidade do aluno saber a resposta é com uma moeda que tem probabilidade de cara igual a p e de coroa q
p. Havendo m escolhas, se ele souber a resposta, responderá corretamente (p + q = 1). O jogador A inicia o jogo com i fichas e ganha mais uma de B,
com probabilidade 1; se ele não souber, responderá corretamente com cada vez que der cara. O jogador B começa com N - i fichas e, em cada
probabilidade 1/m. lançamento que resultar coroa, ganha uma ficha de A. Para enfatizar a
a. Qual é a probabilidade de que ele saiba a resposta, dado que a pergunta foi dependência do número inicial de fichas i, denomine por P(i) a probabilidade
respondida corretamente? do jogador A ficar com todas as fichas, o que implica na ruína de B.
b. Determine o limite dessa probabilidade se m-+ oo com p fixo. O que Condicione no resultado do primeiro lançamento da moeda, para estabelecer
ocorre se p-+0 com m fixo? uma relação de recorrência entre os P(i)'s· Usando que P(o) =O e P(N) = 1,
115. Dois times de basquete A e B disputam a final do campeonato numa série de mostre que P(i) = ~ para p =f. ~ e P(i) = -k para p = ~·
até 7 jogos. A probabilidade de vitória é a mesma para as duas equipes.
Determine a probabilidade de: 121. Em farru1ias de n filhos (meninos ou meninas), defina os seguintes eventos
a. O campeão sair em até seis jogos. A = {filhos dos dois sexos} e B = {no máximo uma menina entre os
b. O campeão sair em seis jogos, se o time A venceu os dois primeiros. filhos}. Admita igual probabilidade no nascimento de meninos e meninas e
mostre que, para n = 3, os eventos A e B são independentes. Existem outros
116. Usando indução, prove a desigualdade de Bonferroni para n eventos.
valores de n em que isto ocorre?
n
P( n AJ) 2:: P(At) + P(A2) + ··· + P(An) - (n- 1).
j=l
122. Um carcereiro informa a três prisioneiros que um deles foi sorteado para ser
executado no dia seguinte, enquanto que os outros dois serão libertados. O
117. Sejam An e Bn , n 2:: 1 eventos em (n, :F, P). Prove que: prisioneiro João Espeto se aproxima do carcereiro e cochicha no seu ouvido,
a. Se P(Bn) >O e lim P(Bn) = 1 então lim {P(AnJBn )- P(An)} =O. solicitando que ele lhe conte qual dos outros dois prisioneiros será solto. O
n-oc n-oo
prisioneiro argumenta que isso não altera em nada a situação, visto que pelo
b. Se existir qualquer um dos limites, lim P(AnlBn) ou lim P(A,.), os menos um desses prisioneiros será solto. Entretanto, o carceiro não atende
n-+oc n-oc
dois existem e eles são iguais. seu pedido, acreditando que isto poderia dar ao João Espeto alteração nas
suas expectativas de ser libertado. Você acha que o carcereiro tem razão?
118. (Teorema de Poincaré- Fórmula da Inclusão e Exclusão). Sendo A 1 , Az,
· · ·, An eventos em (0, :F, P), mostre que temos 123. Dois jogadores se alternam lançando dois dados equilibrados. O jogador A
vence o jogo se ocorrer soma 6, enquanto B vencerá se ocorrer 7. Se A
n
P( U AJ) = 81 - 82 + ... + (-1 )n-1 S"; começa jogando, qual é sua probabilidade de vitória? Qual é a probabilidade
j=l do iniciante, escolhido ao acaso, vencer o jogo?
com Sk= :L:L···:L P(A; 1 , A;2 • ···,Ad parak =1,2,···,n. 124. Três caixas I, I I e I II contêm, respectivamente, a 1 , a 2 e a3 bolas azuis e
1 ~ Íj < Í2 < ... < h ~ 11
b1 , b2 e b3 bolas brancas. Uma bola é escolhida de I e passada para II e, em
119. Um paciente é suspeito de sofrer uma de três doenças D~, D 1 ou D 3 • cuja seguida, uma bola de I I é passada para I I I. Considerando que todas as
incidência na população se dá na razão 2:1:1, respectivamente. Um teste de
62 Capítulo 1: Conceitos Básicos em Probabilidade

escolhas foram feitas ao acaso, qual é a probabilidade de


uma bola retirada Capítulo 2
da caixa I I I, ao fim dessas trocas, ser da cor azul?
p. Os jogadores 1 2 . . . n
125. _Uma moeda tem probabilidade de cara igual a
r a primeira' c~a.
Variáveis Aleatórias
Jogam _a moeda em seqüência e vence quem obtive
Deterrrune a probab ilidade do k-ésim o jogado r vencer.
s, você dispõe de uma
126. :a:a selecionar ao acaso uma pessoa, entre 5 pessoa
umca ~oeda que pode ser viciad a sem que você saiba. Construa um
essa seleçã o. Justifique sua
2.1 Introdução
procedimento probabilístico para efetua r
interesse em
respos ta. Na realização de um fenômeno aleatório, é comum termos
s das ocorrências do
uma ou mais quantidades. Essas quantidades são funçõe
i crianças (meninos ou de interesse, a função
127. Sup?nha ~ue a probabilidade de uma fami1ia ter fenômeno. Em alguns casos, se o próprio resultado é
memnas) e dada pela expressão: identidade será utilizada.
não sabemos seu
Note que, antes da realização de um fenômeno aleatório,
Po = Pl =a = (1 - 2a)2-( k-l) k > 2 O < a < ~. de probabilidade
e Pk
' - ' 2 resultado, exceto em casos especiais. Entretanto, seu espaço
r a probab ilidade de
pode ser estabelecido de forma conveniente, de modo a avalia
te dois meninos. os també m atribuir
Sabemos que uma fami1ia, escolhida ao acaso, tem somen qualquer evento de interesse da o--álgebra. Dessa forma, podem
ao conce ito de variáv el
Qual a probabilidade dela: probabilidades às funções desses eventos. Isto dá origem
a. Ter somente duas crianças? aleatória que será apresentado neste capítulo.
conhecida que,
b. Ter somente mais duas meninas? Após a realização do fenômeno, teremos uma observação
os evento s que ocorrem são
no entanto, não é mais aleatória. Em muitas situações,
sa. Podem os consid erar que
apenas uma ponte para o que efetivamente nos interes
produz um partic ular valor
a observação conhecida de um fenômeno aleatório
realiza ção do fenôm eno
observado da variável aleatória. Assim, uma outra nte
na maiori a das vezes, difere
forneceria um outro valor observado da variável,
do anterior.
eno aleatório é
Usar a informação de sucessivas observações de um fenôm
as atribui ções de probab ilidade do
um assunto estudado pela Estatística. Discutir
das Probab ilidade s e é o interesse
que poderia ser observado faz parte da Teoria
deste capítulo.
el aleatória e
Na Seção 2.2, vamos formalizar o conceito de variáv
ais model os para variáveis são
apresentar sua classificação. Os princip
apresentados nas Seções 2.3 e 2.4.

2.2 Variáveis Aleatórias


espaço de
Dado um fenômeno aleatório qualquer, com um certo
ilística de quanti dades
probabilidade, desejamos estudar a estrutura probab
associadas a esse fenômeno.

63
2.2 Va riáveis Aleatórias 65
64 Capítulo 2: Variáveis Aleatórias

Não é difícil perceber que, modificando a a-álgebra de modo


Definição 2.1: Variável Aleatória
conveniente, podemos tomar ls uma variável aleatória. Assim, a o--álgebra
Seja (!1, F, P) um espaço de probabilidade. Denominamos de variável escolhida para compor o espaço de probabilidade precisa ser suficientemente
aleatória, qualquer função X : f2 --t ~ tal que "grande" para podermos trabalhar com todas as variáveis que nos interessem .
O conjunto das partes e a a-álgebra de Borel são as preferidas, justamente
x- 1(!) = {w E f2 : X(w) E I} E F ,
por permitirem que praticamente todas as variáveis de interesse sejam
O
para todo intervalo I C lR. Em palavras, X é tal que sua imagem inversa de mensuráveis.
O
intervalos I C ~pertencem a a-álgebra F. Em geral, omitimos a menção a w e o evento {w E n: X(w) E I} será
Uma variável aleatória é, portanto, uma função do espaço amostrai n nos representado simplesmente por [X E I]. Por exemplo, para I= ( -oo, O)
reais, para a qual é possível calcular a probabilidade de ocorrência de seus escrevemos [X< 0], ao invés de {w E n : X (w ) < 0}. Ao denotarmos a
valores. Em geral, as variáveis aleatórias são representadas por letras maiúsculas probabilidade desses eventos, vamos também simplificar a notação de modo que
do fim do alfabeto. Temos, para cada elemento w E fl, um número real X(w). P({w E f2 : X(w) E I }) toma-se P (X E I).
Garantimos o cálculo de probabilidades com variáveis aleatórias ao exigir que, Conforme veremos a seguir, os eventos da forma ( -oo, x] são
para qualquer I c ~. o conjunto x-1
(1) seja um evento. Em outras palavras, o importantes para caracterizar a estrutura probabilística de X . Na próxima
conjunto x- 1
(I) é um elemento da o--álgebra F, ou seja, x-
1 (I) E F .
definição, a probabilidade desses eventos recebe um nome especial.
Lembremos que apenas os elementos de F têm atribuição de probabilidade. Em Definição 2.2: Função de Distribuição
linguagem matemática mais formal, dizemos que variável aleatória é qualquer
função real mensurável em F. Isto justifica dizer que a variável X é F- Sendo X uma variável aleatória em (fl, F , 'P) , sua função de distribuição
mensurável. Com freqüência, faz-se menção ao espaço de probabilidade é definida por
(n, F, P), para deixar claro o espaço amostrai, a a-álgebra e a probabilidade Fx(x) = P (X E (-oo,x]) = P(X :::; x),
envolvida. De fato, bastaria indicar (fl, F ), se ficasse subentendido que as
probabilidades aplicadas à X precisam ser aquelas aplicadas aos correspondentes com x percorrendo todos os reais. D
eventos de F por alguma probabilidade 'P. O conhecimento da função de distribuição permite obter qualquer
Exemplo 2.1: Sejam f2 = {1, 2, 3, 4}, F= {0, n, {1, 2} , {3, 4}} e considere os informação sobre a variável. Mesmo que a variável só assuma valores num
conjuntos A= {1, 2} e B = {1, 3}. Vamos verificar que IA é variável aleatória subconjunto dos reais, a função de distribuição é definida em toda reta. Alguns
em (fl, F), mas I 8 não é. autores se referem a ela como função de distribuição acumulada, por acumular as
Inicialmente, observe que A E F e B ~ F. Temos probabilidades dos valores inferiores ou iguais a x . Se não houver possibilidade
de confusão sobre qual variável a função de distribuição se refere, o subescrito X
0, se x < O;
é omitido e escreveremos F ao invés de Fx.
{w E f2 : IA(w) E (-oo,x)} = Ac, se O:::; x < 1;
{ n, se x 2: 1. Proposição 2.1: Propriedades da Função de Distribuição
Uma função de distribuição de uma variável X em (fl, F , P) obedece às
Portanto, a imagem inversa de IA para intervalos do tipo ( -oo, x], x E IR, seguintes propriedades:
pertence a F. Lembrando os comentários sobre a a-álgebra de Borel, qualquer
intervalo I C ~ pode ser gerado por intervalos desse tipo, concluímos que l A é (Fl) lim F(x) =O e lim F (x) = 1;
x-+-oc x--+oo
variável aleatória em (!1, F ). (F2) F é contínua à direita;
Por outro lado, para0 :::; x < 1, vem { w E f2 : Is(w) E ( -oo, x]} = Br,
(F3) F é não decrescente , isto é, F(x) :::; F(y) sempre que x:::; y, 'V x, y E~.
que não está em F. Logo, I 8 não é variável aleatória em (fl, F).
--
66 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 67

Demonstração: Por exemplo, se I= (- oo, O) temos 1


x-
(1) = 0; No entanto, para I= (0, 2]
temos x-1(1) = {cara}. Em ambos os casos a imagem inversa pertence~ :F.
( Para verificar (Fl), aplicamos a continuidade da probabilidade. Observe
Para obter a função de distribuição é conveniente separar os vários casos,
que para Xn! -oo, os eventos [X :S: Xn] = {w E n: X(w) :S: Xn} têm como
( de acordo com os valores da variável. .
limite o conjunto vazio. Logo F(xn) = P(X :S: xn) ! O. De modo análogo,
Para x <o, P(X::;; x) =O, uma vez que o menor valor assurrudo pela
{ tomando Xn i 00, os eventos [X :s: Xn] i n e, portanto F(xn) = P(X :s: Xn) i 1.
variável é O. No intervalo O :S: x < 1, temos P(X :S: x) = P(X =O)= 1/2. E,
Vamos demonstrar (F2). Seja x E lR e considere uma seqüência {xn,
( para x ~ 1, vem P(X::;; x) = P(X =O)+ P(X = 1) = 1. Dessa forma,
n ~ 1, n E N} tal que Xn ! x. Isto é, os Xn 's se aproximam de x pela direita ou,
F(x) = P(X::;; x) foi definida para todo x real. Em resumo, temos
em outras palavras, por valores superiores a x. Então, [X :S: Xn] ! [X :S: x] e,
(
assim, P(X :S: Xn)! P(X :S: x). Como o resultado vale para qualquer x, a o, se x <O;
propriedade está verificada. F(x) = 1/2, se O :S: x < 1;
Para (F3), note que [X :S: x] C [X :S: y] sempre que x :S: y. Logo as { 1, se x ~ 1.
probabilidades satisfazem à desigualdade:
Note que as propriedades de função distribuição são facilmente verificadas. (FI~ é
F(x) = P(X :S: x) :S: P(X :S: y) = F(y). imediata. Para (F2) observe que, exceto nos pontos O e 1, F é contínua nos reats.
Para os pontos O e 1 temos continuidade à direita, isto é,
Como x e y são arbitrários, concluímos que F é não decrecente. o
As propriedades acima também poderiam ser usadas como definição da F(O) = lim F(x)" e F(1) = lim+F(x).
x_,o+ x_,1
função de distribuição. Em termos mais abstratos, poderíamos dizer que toda
função de lR em [0, 1], satisfazendo (Fl), (F2) e (F3), é função distribuição de Observe que F(x) é não decrescente para todo x real e, assim, vale (F3). O
alguma variável aleatória (ver James [81]). Vale a pena mencionar que alguns
Exemplo 2.3: O tempo de validade, em meses, de um óleo lub.rificante<n~m
autores mais antigos preferiam definir função de distribuição por P(X < x), para
( certo equipamento está sendo estudado. Sendo n = { w E lR . 6 ~- w - },
x real. Essa definição modifica a propriedade da continuidade, mas as demais podemos considerar :F como a a-álgebra de Borel em (6, 8]. Se ~drruttmos que
( permanecem as mesmas.
( O comportamento da variável e toda informação sobre ela pode ser obtida
não há preferência de ocorrência entre os pontos de n, podenam~s obter !'
(veremos mais adiante como isso é feito). Uma função de interesse e o ~rópn~
da função de distribuição. Por isso, quando desejamos conhecer a variável,
( tempo de validade e, nesse caso, definimos X(w) = w, Vw E n. A funçao X e
estamos querendo saber qual é a sua função de distribuição. Essa caracterização é
variável aleatória e sua função de distribuição é dada por:
única a menos de eventuais conjuntos que tenham probabilidade zero. Veremos
(
mais tarde que existem outras funções, relacionadas com a função de distribuição, o, se x < 6;
que também caracterizam unicamente uma variável. F(x) = (x- 6)/2, se 6 :S: x < 8;
( { 1, se x ~ 8.
Exemplo 2.2: Para o lançamento de uma moeda, seja n ={cara, coroa}, :F o
conjunto das partes de n e P dada por P(cara) = P(coroa) = 1/2. Defina uma Deixamos, ao leitor, a tarefa de verificar que as propriedades da função de
função X de n em lR da seguinte forma: o
distribuição estão satisfeitas.

X(w) = { ~: se w =cara;
se w =coroa.
A classificação das variáveis aleatórias é feita de aco~do com ~s valores
que assumem. Como veremos, essa classificação tem estretta relaçao . ~om o
comportamento da função de distribu~ção da va~ável. O cál~ulo de probabthdades
Para qualquer conjunto I c JR, x- 1 (1) E :F e, portanto, X é variável aleatória. com variáveis aleatórias depende do tipo de vartavel envolvida.
,,
r"U I

68 2.2 Variáveis Aleatórias 69


Capítulo 2: Variáveis Aleatórias

Definição 2.3: Variável Aleatória Discreta e Função de Probabilidade 0 número de caras nos dois lançamentos. A variável X será discreta e sua função
de probabilidade será dada por:
Uma variável aleatória é classificada como discreta, se assume somente
um número enumerável de valores (finito ou infinito). A função de probabilidade X o 1 2
de uma variável discreta é uma função que atribue probabilidade a cada um dos p(x;) 1/4 1/2 1/4
possíveis valores assumidos pela variável. Isto é, sendo X uma variável com
A função de distribuição correspondente será:
valores x 1 , x 2 , ... , temos para i= 1, 2, ... ,
p(x;) = P(X = X;)= P({w E n : X(w) =X;}). D
o, se x <O;

Proposição 2.2: Propriedades da Função de Probabilidade


F(x) =
{
ij!: se O~ x < 1;
se 1 ~ x < 2;
1, se x ~ 2.
A função de probabilidade de X em (0, F, P) satisfaz:
O gráfico de F(x) é em escada e é apresentado na Figura 2.1. Os pontos de
(fpl) O~ p(x;) ~ 1, 'v' i= 1, 2, ... ; descontinuidade ocorrem nos valores assumidos pela variável, sendo o tamanho
do salto a probabilidade da variável assumir aquele determinado valor.
(fp2) LP(X;) = 1;
i
com a soma percorrendo todos os possíveis valores (eventualmente infinitos).
F(x)
Demonstração:
Observe que, por serem probabilidades, os valores da função de
probabilidade estão sempre entre O e 1. Além disso, cada valor da variável induz
um subconjunto disjunto, cuja união é O, o que implica (fp2). O 314 -·--- _._.......

Para as variáveis discretas, a função de distribuição tem a forma de


escada sendo descontínua nos valores assumidos pela variável. Da função de
probabilidade obtemos a função de distribuição e vice-versa.
Se conhecemos a função de probabilidade obtemos, 'v'x E :IR,
1/4 --------<>
F(x) = LP(X;), com Ax ={i: Xi ~ x};
i E A,

note que a somatória se estende aos índices para os quais x; ~ x.


Por outro lado, dada a função de distribuição temos
Figura 2.1: Função de Distribuição para Número de Caras.
p(x;) = F(x;) - F( xi), D
em que F(x;) é o limite de F tendendo a x; pela esquerda (isto é, por valores Exemplo 2.5: Vamos obter a constante c E IR, de modo que a função abaixo:
inferiores à x;).
p(x) = c(x- 2) 2 ,x = 3,4,5e6,
Exemplo 2.4: Considere dois lançamentos independentes de uma moeda
equilibrada. Com o espaço de probabilidade sendo o usual, defina X como sendo seja a função de probabilidade de alguma variável aleatória discreta.
70 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 71

As propriedades que precisam ser satisfeitas por p(x) são duas: ser hão Com o devido cuidado, podemos, a grosso modo, pensar na classificação
negativa e somar 1. De imediato temos c 2: O pois p(x) é não negativa. Efetuando de contínua em oposição à de discreta. Isto no sentido de que os valores das
a soma das probabilidades para todos os valores de x vem contínuas estão em intervalos dos reais e os das discretas em um conjunto
6
enumerável. Isto vai valer na grande maioria dos casos práticos, mas não em
LP(x) = c( 12 + 22 + 32 + 4 2 ) = 30c. todos.
x=3 Para obter a probabilidade da variável estar num certo intervalo (a, b],
fazemos a integral da função densidade nesse intervalo. Assim,
Igualando a 1, resulta em c= 1/30. Logo, temos p(x) = <x;;) 2
I {3, 4,5,6}(x). O
Definição 2.4: Variável Aleatória Contínua e Função Densidade P(a <X S b) = 1b f(x) dx = F(b)- F( a).
Uma variavel aleatória X em (0, :F, P), com função de distribuição F,
Note que essa integral não se altera com a inclusão ou não dos extremos a
será classificada como contínua, se existir uma função não negativa f tal que:
e b, ou seja, o valor seria o mesmo para (a, b), [a, b] e [a, b). Dessa forma, para as

1~ f(w) dw
variáveis contínuas, a probabilidade da variável ser igual a um particular valor é
F(x) = , para todo x E R zero. Pelas propriedades do cálculo, é possível modificar a função densidade em
um número enumerável de pontos sem alterar a integral. Assim, a unicidade da
A função f é denominada função densidade. D densidade, para uma dada função de .distribuição, deve ser entendida na classe de
Proposição 2.3: Propriedades da Função Densidade equivalência de funções com mesma integral (para mais detalhes ver James [81]).
A função densidade caracteriza a variável contínua. A relação entre a
A função densidade de X em (0, :F, P) satisfaz: função de distribuição e a função densidade foi expressa na definição de variável
(fdl) f(x) 2: O, Vx E~; contínua. Dada a função densidade, a função de distribuição segue por integração.
Por outro lado, derivando a função de distribuição, obtemos a densidade.
Exemplo 2.6: A duração, em anos, de uma certa lâmpada especial é uma variável
(fd2) l:f(w) dw = 1.
aleatória contínua com densidade dada por:
Demonstração: f(x) = { 2e-2x, X 2: O;
A função densidade é não negativa por definição. Como conseqüência de o, caso contrário.
que F( oo) = 1, vale (fd2). O Uma notação mais resumida poderia ser usada com o auxílio de indicadores,
É conveniente esclarecer que existe uma distinção de nomenclatura entre deixando implícito que, fora do intervalo especificado, a densidade se anula.
a variável aleatória e sua função de distribuição. Classificamos a variável X como Assim, a densidade acima pode também ser escrita como:
contínua, se sua função de distribuição F é absolutamente contínua (por ser
integral da função densidade). Assim não basta a função de distribuição ser
f(x) = 2 e- 2x l(o,oo)(x).
contínua para a variável aleatória ser denominada de contínua. Alguns autores Para obter a função de distribuição F(x) = J~00 f(w) dw, distinguimos
preferem ser mais rigorosos e usar a mesma termilogia para X e F, denominando
dois casos. Para x <O, F(x) =O, pois a função densidade é nula nesse intervalo.
de absolutamente contínua a variável que aqui chamamos simplesmente de
contínua. Nossa escolha de nomenclatura parece ser a mais comum entre os
diversos autores. Conforme veremos mais adiante, existem variáveis que não são
nem discretas nem contínuas.
72 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 73

Para x ;::: O, temos O conjunto de Cantor, denotado por C, é obtido a partir do intervalo real
[0, 1] pela remoção sucessiva de intervalos abertos. Inicialmente, o terço central
F(x) = 1x f(w) dw = lor 2e-
-oo
2w dw = 1- e- 2 x. do intervalo é removido, em seguida os terços centrais dos dois intervalos
remanescentes são retirados. Continuamos esse procedimento indefinidamente. O
Se desejamos a probabilidade da lâmpada durar até 2 anos, calculamos F(x) no conjunto de pontos que permanece no intervalo [0, 1], após essa seqüência infinita
ponto 2. Assim, F{2) = 1 - e- 4 = O, 98. O de remoções de intervalos abertos, é o conjunto temário de Cantor. Para maiores
detalhes sobre esse conjunto recomendamos ao leitor consultar Chae [80].
Exemplo 2.7: Vamos avaliar para que valores da constante c E JR, a função A construção da função de Cantor será feita em etapas. Em cada uma
abaixo representa uma densidade de probabilidade. delas, a função será definida para alguns intervalos e permanecerá sem definição
c(1-x) 2 , se O~ x < 1/2; em outros.
f(x) = 1/{c + 1), se 1/2 ~ x ~ 1; Etapa 0: Seja F(x) =O para x <O e F(x) = 1 para x > 1. Resta definir
{ o, caso contrário. F em [0, 1].
Etapa 1: Para o intervalo aberto (i• V.
referente ao terço central de [0, 1],
As condições que precisam ser satisfeitas por f são f(x) 2: O e f~00 j(x)dx = 1. definimos F(x) = ~·Restam, sem definição, os valores de F nos intervalos [0, ll
Observe que, se c 2: O, temos J(x) não negativa. Para obter os valores de c para e ri· 1], cujo comprimento total é de 2/3.
que a segunda condição seja satisfeita. Temos, Etapa 2: Definimos F(x) = ~ para (à• ~)e F(x) = ~ para a• ~).Para

1
00

-oo
f(x)dx = 1°
-oo
Odx + f ~ (1- x)
lo
11
2
dx +1 -
1
1/2 C
1
+1
- dx + l
l1
00

0dx = 1,
os intervalos [0, àJ, [~· lJ, [i• ~] e [~· 1] a função F ainda não foi definida. Esses
intervalos têm comprimento total de (2/3) 2 •
Sugerimos, ao leitor, escrever a 3a. etapa. A Figura 2.2 ilustra o
que resulta em procedimento utilizado.
F(x)
c -{1-x)3j1/2+_x_,1 =1 =}7c2-17c-12=0.
3 o c+ 1 1/2
A solução negativa dessa equação do 2o. grau é descartada e obtemos c = 3. O
3/4
Para completar a classificação, resta mencionar que uma variável
aleatória pode ser classificada como singular, se sua função de distribuição é
112
contínua, mas sua derivada é zero em quase todos os pontos. Essa linguagem,
mencionando "quase todos os pontos", é muito utilizada em probabilidade
1/4 - - -~
avançada e significa que a propriedade só não é válida num conjunto de pontos
que tem probabilidade zero (às vezes, também referido como de medida nula). A
classificação como singular tem mais interesse teórico do que prático e não é o 1/9 219 1/3 2/3 7/9 8/9 X

tarefa fácil exibir uma variável singular, conforme veremos no próximo exemplo.
Exemplo 2.8: Função de Distribuição Singular (]ames [81]) Figura 2.2: Construção da Função de Cantor.

Um dos mais freqüentes exemplos de função de distribuição singular é a Etapa n+l: No terço central de cada um dos 2n intervalos restantes após
função de Cantor que envolve o conjunto de mesmo nome. Apresentamos a etapa n, seja F(x) igual à média dos valores de F, nos dois intervalos vizinhos
brevemente a descrição desse conjunto.
74 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 75

para os quais F fora definida anteriormente. Restarão 2n+l intervalos, de Salientamos que alguns autores fazem a decomposição sem exigir que cada uma
comprimento total (2/3t+ 1, em que F ainda não está definida. das funções envolvidas seja, isoladamente, uma função de distribuição.
Logo podemos definir F, por indução, para um número enumerável de Exemplo 2.9: Função de Distribuição Mista
intervalos abertos. Ela só não estará definida no complementar desses intervalos.
Esse conjunto complementar é o conjunto de Cantor, conforme mencionamos A variável aleatória X tem função de distribuição dada por:
anteriormente. o, se x <O;
Para estender o valor de F para o conjunto de Cantor, impomos que F
~:i:
se O~ x < 1;
deva ser contínua. Considere x E C e sejam an e bn os valores de F, após a etapa F(x) =
{ se 1 ~ x < 2;
n, nos intervalos vizinhos de x, à esquerda e à direita, respectivamente. Sabemos,
1, se x ;:: 2.
por construção, que a diferença entre esses valores é de (1/2)n. Esse limite vai a
zero quando n-+oo. Como a função F é monótona não decrescente no Observe através do gráfico de F(x) que a variável aleatória X é do tipo mista. Ela
complementar de C, os limites de an e bn existirão e serão iguais. Tomamos, é contínua nos intervalos [-oo, 1), (1, 2) e (2, oo) e os pontos de descontinuidade
então, F( x) = lim an = lim bn. em 1 e 2 indicam os valores de sua parte discreta.
n--+oo n--+oo
Dessa forma, a função F tem sua definição concluída em R Ela é
denominada função de Cantor e satisfaz todas as propriedades de uma função de
distribuição. F(x)
Seja X uma variável aleatória com função de distribuição de Cantor.
Então X não é discreta, pois F é contínua em R A variável X não pode também
c
ser classificada como contínua, pois F' (x) é zero em c, uma vez que, em cada
etapa, foi sempre definida como constante nos intervalos respectivos. Pode-se
verificar que a massa de probabilidade de X está toda no conjunto C, que tem
comprimento zero (ou medida de Lebesgue nula). Logo a variável X será 112
classificada como singular, pois tem função de distribuição contínua com
densidade igual a zero em quase toda parte. O 114

Uma variável aleatória pode ser classificada como mista se tem partes em
diferentes classificações. O mais comum é a mistura de parte contínua com 2 X

discreta pois, conforme já indicamos, a parte singular raramente ocorre.


Em geral, a função de distribuição de qualquer variável sempre pode ser
escrita como a ponderação de uma função de distribuição discreta, uma Figura 2.3: Função de Distribuição Mista.
absolutamente contínua e uma singular. Isto é,

F(x) = adP(x) + O:acF'c(x) + a.F"(x); Para obter a decomposição de F(x), inicialmente calculamos a massa de
probabilidade de cada uma das partes.
com O:tt + O:ac +a, = 1, ú:d, O:nc, 0: 8 ;:: O e Fd, Fac e F 5 são funções de
Note que P(X = 1) = ~ e P(X = 2) = ~. totalizando 3/4 de
distribuição do tipo discreta, absolutamente contínua e singular, respectivamente.
Se uma variável for discreta (digamos "inteiramente" discreta), sua probabilidade para a parte discreta.
Para a parte contínua obtemos P(X < 1) = F(l-) = 1/4,
função de distribuição é em escada e os coeficientes O:ac e o: 8 serão nulos.
P(1 <X< 2) = F(2-)- F(1) =~-~=O e P(X > 2) = 1- F(2) =O.
76 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 77

Dessa forma, a parte contínua totaliza 114 e não existe parte singular. Os com
coeficientes da decomposição são ad = 3I 4, aac = 1I 4 e a. = O.
Vamos, agora, calcular as funções de distribuição associadas às partes
o, se x < 1; o, se x <O;
Fd(x) = 113, se 1::; x < 2; e pac(x) = x, se O ::; x < 1;
discreta e contínua de F(x). Como exigimos que a decomposição seja feita { 1, se x 2: 2;
{ 1, se x 2: 1.
através de funções de distribuição, precisamos normalizar as probabilidades
associadas a cada parte para, quando forem multiplicadas pelos coeficientes, É sempre conveniente testar se a decomposição foi feita corretamente.
produzirem os valores corretos de F(x). Para a parte discreta, a normalização é Escolhemos alguns valores e apresentamos os resultados na tabela abaixo.
obtida dividindo a probabilidade discreta acumulada por ad:
F(x) pd(x) pac(x) ~Fd(x) + ipac(x)
1
pd(x) = - x
{o, 114,
se x < 1;
se 1 ::; x < 2;
X

112 118 o 112


1
118
314, 312 112 113 112
Qd se x 2: 2.
2 1 1 1 1
Para determinar a parte contínua, derivamos F(x) e integramos o
resultado, multiplicando-o por 1I aac. Obtemos, assim, uma função de Lembremos que Fd(x) e pac(x) são, elas próprias, funções de distribuição e
distribuição absolutamente contínua. Temos, deixamos, ao leitor, a verificação de que satisfazem as propriedades para tal. O
Utilizando a idéia de probabi1idade condicional, o conceito de função de
~~ 4 ,
se x <O;
dF(x) = { se O ::; x < 1; distribuição pode ser estendido, considerando o condicionamento a um evento.
dx 0 se x 2: 1. Neste capítulo, o evento será explicitado ou será obtido a partir de uma região de
' valores da variável. O condicionamento de uma variável em relação a outra é
Dessa forma, para x <O similar, mas será discutido no próximo capítulo.
Definição 2.5: Função de Distribuição Condicional
pac(x) = _1 ~x dF(x) dx = _1_1x Odx =O.
aac -oo dx 114 -oo Seja X definida em {0, F, P) e considere um evento A E F, com
P(A) > O, a função de distribuição condicional de X, dado que ocorreu A, é
Para O ::; x < 1,
definida por:

pac(x) = 1- ~x - d - dx = 1 ~O Odx + 1 1x 1l 4dx = x.


dF(x)
F(xi A) = P(X < xi A) = P([X ::; x] n A).
aac -oc X 114 -ex: 114 O - P(A)
No intervalo [1, oo) a derivada de F(x) é zero, logo o valor de pac(x) será aquele o
que foi acumulado até 1. Temos então, para x 2: 1,
Esse conceito pode ser apresentado de forma mais geral, tomando-se a a-
pac(x) = _1 ~x dF(x) dx = pac( 1) = 1. álgebra de Borel. Assim, para P(A) > O e qualquer B E B(lR), definimos a
aac -oo dx distribuição condicional de X dado A pela expressão:
Concluindo, F(x) pode ser escrita como P(X Bl A) = P([X E B] n A).
E P(A)
3 1
F(x) = 4 Fd(x) + 4 pac(x),
-
78 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 79

Exemplo 2.10: O desempenho diário, de um certo conjunto de ações, pode ser' A probabilidade de interesse é expressa por P(BIAc). Temos
medido como a porcentagem de crescimento do preço de venda em relação ao dia
°
anterior. Suponha que esse desempenho é uma variável aleatória contínua X com
função densidade dada por:
P(BnAc)=P(-1: SX:S0)= _
1 1
(
1
12
1
x+4)dx=
5
24

se x :::; -3 ou x > 4; logo


se -3 < x:::; O;
se O< x:::; 2;
se 2 < x:::; 4.
o
O desempenho negativo indica que as ações perderam valor de um dia para o Exercícios da Seção 2.2:
outro. Qual seria a probabilidade de um dia com desempenho excepcional, isto é,
superior a 3%, dado que o desempenho foi positivo? 1. Seja (n, :F, P) um espaço de probabilidade. Mostre que IA é variável aleatória,
Seja A o evento que indica desempenho positivo em um dia. Desejamos com A sendo a união de todos os eventos de :F com probabilidade estritamente
calcular P(X > 3IA). Por definição temos positiva, mas menor que 1.

3 2. Mostre que X 2 é variável aleatória em (n, :F, P), desde que X também seja.
P(X > 3IA) = 1 - P(X < 3IA) = 1 - F(3IA) = 1- P([X:::; 1nA).
- P(A) 3. Estabeleça condições sobre a e b, de modo que a função g(x) seja uma função
de probabilidade:
O evento A corresponde a [X> OI e sua probabilidade é calculada da seguinte
forma: -1 o
P(A) =
1
o
00
f(x) dx = 12
o 4
1
-xdx + 14
2
-1 dx +
16
14
00

Odx = -5 ·
8
b a
4. Discuta as condições sobre a, b e c para que a função g(x) = ~ e-(x-b)/c seja
uma densidade em [b, oo ).
Também [X :::; 3] nA = [X :::; 3] n [X > O] = [O < X :::; 3], cuja probabilidade
é dada por: 5. Determine as constantes a e b, para que a função G (x) seja a função de
distribuição de alguma variável aleatória contínua.
P(O < X:::; 3) =
1 3
f(x)dx = 121 -xdx+ 13 1 - dx = -9· a- 2b X< O;
:~ b(~- 1),
o o 4 2 16 16 0 :S X< 1;
G(x) = 1 :S X< 2;
Então {
1, X 2:: 2.
P(X > 3 IA) = 1 _ P([X:::; 3] nA)= 1 _ 9/16 = _!_.
P(A) 5/8 10 6. A variável discreta X tem função de probabilidade dada por:
1 3/2
Considere agora o evento B , que indica desempenho regular, definido por
0,2 0,1
não haver alteração superior a 1% em relação ao dia anterior. Supondo que
teremos um desempenho não positivo, qual seria a probabilidade de termos, ao a. Obtenha F, a função de distribuição de X.
menos, um dia regular? b. Determine F(O) e F(o-).
80 Cap(tulo 2: Variáveis Aleatórias 2.3 Principais Modelos Discretos 81

c. Calcule, apenas com o uso da expressão da função de distribuição, a o, X< O;


probabilidade da variável X ser maior que -1, dado que é negativa. 1/4, 0 :::; X< 1;
2/5, 1:::; X< 2;
7. A variável X tem função de distribuição dada por: F(x) =
1/2, 2 :::; X< 3;
o, X< -1; (2x- 5)/2, 3 :::; X< 3,5;
-1:::; X< 1/2; 1, X;::: 3,5.
F(x) =
{
;~~: 1/2:::; X< 2;
1, X;::: 2. 2.3 Principais Modelos Discretos
Como estudamos na seção anterior, uma variável aleatória fica
a. Classifique a variável X e obtenha a correspondente função densidade ou completamente caracterizada pela sua função de distribuição. No caso discreto,
de probabilidade, conforme o caso. podemos também usar a função de probabilidade com o mesmo objetivo. Por essa
b. Expresse P(X ;::: O) e P(X > O) em termos de F e calcule seus valores. razão, nos modelos para variáveis discretas que iremos apresentar, estaremos
c. Expresse P(X;::: -1) e P(X > -1) em termos de F e indique os valores sempre indicando, na definição, sua função de probabilidade.
obtidos. Comente sobre as diferenças em relação ao resultado de (b ). Existe um grande número de modelos e trataremos, aqui, apenas dos mais
8. A variável X tem função densidade dada por: importantes. Muitos desses modelos surgiram de variáveis que foram estudadas
em problemas práticos ou teóricos.
o, X< -2 OU X;::: 5;
Definição 2.6: Modelo Uniforme Discreto
{ fci'
f(x ) = -2:::; X< O;
1

+ 125,
3x 0 :::; X< 5; Uma variável segue o modelo Uniforme Discreto, com valores
x 1 , x 2 , • · ·, Xk , se tem função de probabilidade dada por:
a. Obtenha a função de distribuição de X.
b. Expresse P(X;::: O) e P( -1 <X< 2) em termos da função de
p(xi) = 1/k; para i = 1, 2, · · ·, k.
distribuição e determine seus valores. Usamos a notação X"' Ud[E], com E sendo o conjunto de seus valores. O
9. A variável X tem função de distribuição dada por: O modelo Uniforme Discreto representa situações em que todos os
possíveis valores da variável são equiprováveis. Não há restrição quanto aos
o, X< 1;
valores da variável, que podem ser qualquer número real. Entretanto, o número de
F(x) = ~(1- e-(x-l)), 1:::; X< 2;
valores diferentes precisa ser finito, pois a soma de um número infinito de
{ ~( 1 _ e-1 + e-2 _ e-2(x-1)), X;::: 2. constantes positivas diverge. A função de distribuição de uma variável Uniforme
Discreta é uma função escada e os pontos de descontinuidade são os valores
a. Obtenha o valor de c. assumidos pela variável.
b. Classifique a variável e obtenha a correspondente função densidade ou de
probabilidade, conforme o caso. Exemplo 2.11: Lançamos um dado equilibrado e observamos a face que ocorreu.
c. Determine P(X ;::: 3/21 X < 4). Sendo X essa variável, é fácil verificar que X "' Ud [E], com E = { 1, 2, · · ·, 6}.
Sua função de probabilidade é
10. Considere a seguinte função F apresentada a seguir:
a. Verifique que F é função de distribuição. p(.r ) = 1/6 para x = 1, 2, · · ·, 6.
I, b. Obtenha a decomposição de F em partes discreta, singular e contínua. A função de distribuição é representada na Figura 2.4.
82 Capítulo 2: Variáveis Aleatórias 2.3 Principais Modelos Discretos 83

F(x)
Então, X "' Bernoulli (p), com p = P(cara). Se a moeda for equilibrada teremos
p = 1/2.
A repetição de sucessivos ensaios de Bernoulli é fonte de vários
problemas teóricos interessantes. Considerando uma sequência de n ensaios de
Bernoulli, independentes, outros modelos podem ser construídos.
Definição 2.8: Modelo Binomial
Seja X o número total de sucessos obtidos, na realização de n ensaios de
Bernoulli independentes. Diremos que X segue o modelo Binomial com
113
parâmetros n e p e sua função de probabilidade é dada por:

p(x) = ( ; ) px(l- p)n-x, X= O, 1, · · ·, n.


116 -

A notação utilizada será X"' B(n, p). o


o 6 X

Exemplo 2.12: A taxa de imunização de uma vacina é 80%. Se um grupo de 20


pessoas foram vacinadas, desejamos saber o comportamento probabilístico do
Figura 2.4: Função de Distribuição da Uniforme Discreta em {1, 2, ... , 6}.
número de pessoas imunizadas desse gÍ-upo.
Seja X a variável de interesse. Para cada pessoa do grupo, a
Como mencionado anteriormente, a função de distribuição tem a forma de escada
O probabilidade de estar imunizada é O, 8 e admitimos, ainda, independência entre
e os saltos são nos pontos 1, 2, · · ·, 6.
os resultados das várias pessoas vacinadas.
Definição 2.7: Modelo Bernoulli Dessa forma, teremos X"' B(n = 20,p = 0,8), em que sucesso
Uma variável aleatória segue o modelo Bernoulli, se assume apenas os corresponde à imunização. Por exemplo, a probabilidade de 15 estarem
valores Oou 1. Sua função de probabilidade é dada por: imunizados é dada por:

p(1) = P(X = 1) = p; P(X = 15) = p(15) = ( ~~) O, 815 O, 220- 15 =O, 175.
p(O) = P(X = O) = 1 - p.
A notação utilizada será X"' Bernoulli (p). o Outras probabilidades podem ser calculadas de modo análogo. o
~o modelo de Bernoulli, a probabilidade pé denominada de parâmetro do Definição 2.9: Modelo Geométrico
modelo. E prática comum considerar como sucesso a ocorrência de 1 e fracasso a Considere uma sequência de ensaios de Bernoulli independentes. Defina
de O. Assim, denominamos por ensaio de Bernoulli, o experimento que tem X como o número de fracassos anteriores ao primeiro sucesso ou, em outras
resposta dicotômica do tipo sucesso-fracasso. palavras, o tempo de espera (em termos de ensaios anteriores) para o primeiro
Um exemplo clássico do modelo Bernoulli é o lançamento de uma moeda. sucesso. A variável X segue o modelo Geométrico com parâmetro p, O < p < 1,
Podemos definir sucesso como qualquer uma das faces, digamos cara. Dessa e tem função de probabilidade dada por:
forma temos
p(x) = p(1- PY, x =O, 1, ... .
X= {1,o, se cara;
se coroa. Usaremos a notação X"' Geo(p). o
84 Capitulo 2: Variáveis Aleatórias 2.3 Principais Modelos Discretos 85

A restrição dos valores de p para aqueles estritamente entre O e 1 evita o~ podemos considerar que a variável "lembra" do presente, mas "esqueceu" do que
casos triviais mas, com o devido cuidado, os extremos poderiam ser considerados. ocorreu no passado.
Alguns autores preferem definir o modelo Geométrico como o número de Por exemplo, se X representasse a espera em dias para a ocorrência de
fracassos até o primeiro sucesso ou, ainda, o número de ensaios até o primeiro um certo evento, a probabilidade condicional acima representaria a probabilidade
sucesso. Nesse caso, a função de probabilidade sofre ligeira modificação pois, de espera de pelo menos m + n dias, sabendo que o evento não ocorreu antes de
agora, a variável inicia seus valores em 1 ao invés de O (ver exercício no fim dessa m dias. A propriedade da falta de memória estabelece que essa probabilidade é a
seção). mesma de esperar pelo menos n dias.
Para verificar a propriedade, observe que
Exemplo 2.13: Uma linha de fabricação de um equipamento de precisão é
interrompida na primeira ocorrência de um defeito. A partir da manutenção, o P(X>m niX>m)= P([X2':m+n]n[X2':m]) = P(X2-:m+n) _
equipamento tem probabilidade de 0,01 de apresentar defeito em um dia qualquer. - + - P(X 2': m) P(X 2': m)
Deseja-se planejar o cronograma de manutenção preventiva e, para tal, decidiu-se
avaliar probabilisticamente a espera até a produção ser interrompida. Seja X a A função de probabilidade de X é dada por P(X = x) = p(1- p)X.
variável aleatória que conta o número de dias que antecedem a interrupção. Então,
Admitindo que o desempenho, nos sucessivos dias, sejam independentes, temos (1 )m+n
que X""' Geo(p = 0,01) . Dessa forma, P(X2':m+niX2-:m)= ( -_!p)m =(1-pt=P(X2':n).
P(X = x) = 0,01 X 0,99:r 'X= o, 1, ....
1
.
Pode-se ainda demonstrar que o modelo Geométrico é o único modelo discreto
Por exemplo, para uma interrupção no sexto dia temos P(X = 5) = 0,01 x com a propriedade da falta de memória. D
0,995 = 0,0095. Uma generalização do modelo Geométrico é definida a seguir.
Qual seria o intervalo ideal para uma manutenção preventiva, se
desejamos uma probabilidade de, pelo menos, 0,90 de que o defeito não ocorrerá? Definição 2.10: Modelo Binomial Negativo
A pergunta estará respondida, se determinarmos quantos dias são Considere uma sequência de ensaios de Bernoulli independentes e
necessários para acumular uma probabilidade de defeito próxima de 0,10. Ou definimos X como o número de fracassos anteriores ao r-ésimo sucesso. A
ainda, obter k tal que variável X segue o modelo Binomial Negativo com parâmetros r e p com
P(X ~ k) = 1- O, 99k+ 1 ::: 0,10. O< p < 1, r > O e tem função de probabilidade dada por:

Com o auxílio de uma planilha ou calculadora, obtemos P(X ~ 9) = 0,0956 e P( X ) = (


X +
r _r - 1 ) pr ( 1 - p):r , X = 0, 1, · · ·.
P(X ~ 10) = 0,1047. Para atender o requisito desejado, a manutenção 1
preventiva deverá ser feita após 9 dias de operação. Dessa forma, teremos Usaremos a notação X ""' BN( r, p). o
probabilidade de 0,9044 de um defeito não ocorrer entre essas manutenções. O
Note que se r = 1 temos o modelo Geométrico. A expressão para a
Exemplo 2.14: Falta de memória da Geométrica função de probabilidade da Binomial Negativa poderia ser deduzida observando
Seja X""' Geo(p) e vamos verificar que, para quaisquer números inteiros que precisamos ter, nas x + r - 1 primeiras realizações, um total de r - 1
positivos m e n, vale P(X 2': m + n IX 2': m) = P(X 2': n ). sucessos. Essa probabilidade é calculada pela Binomial com parâmetros
Essa propriedade é conhecida como falta de memória. Ela indica a x + r - 1 e p. O resultado é multiplicado pela probabilidade de sucesso no
maneira como a variável incorpora a informação anterior. Em termos ilustrativos, [(x +r- 1) + 1]-ésimo ensaio que é p.
86 Capítulo 2: Variáveis Aleatórias 2.3 Principais Modelos Discretos 87

A Binomial Negativa pode ser apresentada em várias formas conforme Ensaios do tipo sucesso-fracasso são realizados de forma independente,
mencionamos no próximo exemplo. ' sendo p a probabilidade de sucesso e 1 - p a de fracasso. Qual é a
probabilidade de ocorrerem n sucessos antes de mfracassos?
Exemplo 2.15: Formas Alternativas da Binomial Negativa
Note que n sucessos ocorrem antes de m fracassos se, e somente se, no
Seja X"' BN(r,p). Note que
máximo ocorrem (m - 1) fracassos antes do n-ésimo sucesso.
Seja X"' BN (n, p). Assim, a probabilidade desejada é
x + r - 1) = ( x + r - 1) = _ 1 "' (-r)
( r-1 X ( ) X ' m -I
P{n sucessos antes dem fracassos}= LP(X = x)
com esta última combinação sendo calculada por: x=O
-r)= (-r)(-r-1)(-r-2) .. ·(-r-x+1)_
( x x!
= ~ (X::~ 1) pn( 1 _ p)"' .

Portanto, temos duas formas equivalentes para a função de probabilidade de X :


Sugerimos ao leitor, verificar que essa expressão é equivalente àquela encontrada

~r) pr (p -
1 no Exemplo 17 do Capítulo 1. O
P( X = X) = (X + : - ) pr ( 1 - p )"' = ( -1 )"' ( 1)"', x = O, 1, .. ·.
O modelo apresentado a seguir é motivado por amostras retiradas, sem
reposição, em conjuntos com elementos que possuem uma dentre duas
Essa última expressão à direita justifica o nome dado a esse modelo.
caracteósticas possíveis. Sem reposição, uma retirada interfere na ·seguinte e não
Alguns autores definem a Binomial Negativa como número de ensaios
temos independência entre os sucessivos sorteios. Retirar sem reposição é
anteriores ao r-ésimo sucesso. Isto corresponde a uma troca de variável na nossa
equivalente a retirar, de uma só vez, todos os elementos da amostra.
de~nição. Tomando y = x + r - 1 temos a quantidade desejada e seus valores
variam de (r - 1) em diante. Assim, sendo Y o número de ensaios anteriores ao Definição 2.11: Modelo Hipergeométrico
r-ésimo sucesso, temos Considere um conjunto com n objetos dos quais m são do tipo I e n - m
são do tipo I I. Uma amostra é escolhida, ao acaso e sem reposição, com tamanho
r (r< n) e definimos X como o número de objetos com a caracteóstica I, na
amostra. Nesse caso, diremos que a variável aleatória X segue o modelo
. Finalmente, cabe ressaltar que existem autores que preferem incluir o
Hipergeométrico de parâmetros m, n e r, com notação X"' Hgeo(m, n, r) , e
ensaio em que se realiza o r-ésimo sucesso, na sua variável. Dessa forma, eles
função de probabilidade dada por:
define~ a Bin~~ial Negativa como o número de ensaios necessários para a
obt~?çao do r-esimo sucesso. A diferença é o acréscimo de 1, em relação à
vanavel da nossa definição. A despeito da modificação ser aparentemente
P(X = k) = (~)(~:~) '
(~)
simples, é preciso ter atenção sobre qual definição está sendo usada. Nesses casos
é natural que qualquer quantidade, calculada a partir da função de probabilidade. sendo k inteiro e tal que max{O, r- (n- m)} ~ k ~ min{r, m }. o
também tenha seu valor alterado. O
Observe que os limites para k, na definição acima, garantem que
Exemplo 2.16: Problema dos pontos situações absurdas serão evitadas.
Como aplicação do modelo Binomial Negativo vamos resolver o Exemplo 2.17: Considere que, num lote de 20 peças, existam 4 defeituosas.
Problema dos Pontos, já discutido no Capítulo 1, cujo enunciado é reproduzido Selecionando-se 5 dessas peças, sem reposição, qual seria a probabilidade de 2
abaixo.
Capítulo 2: Variáveis Aleatórias
2.3 Principais Modelos Discretos 89
88

Poisson. Sua caracterização provém, na maioria das vezes, de dedução


defeituosas terem sido escolhidas? A variável aleatória que indica o número de
experimental. Entretanto, é possível estabelecer premissas e deduzir de modo
peças defeituosas na amostra selecionada segue o modelo Hipergeométrico.
formal sua função de probabilidade.
Denominando por X essa variável, temos:
Definição 2.12: Modelo de Poisson
Uma variável X segue o modelo de Poisson de parâmetro >., ), > O, se
sua função de probabilidade for a seguinte:
o e-A>,k
P(X = k ) = ~· k =0,1, ....
Exemplo 2.18: Captura e Recaptura (Dudewicz e Mishra [88])
Para determinar o tamanho da população de animais de uma certa espécie Usamos a notação X rv Poisson(>.). O parâmetro >. indica a taxa de ocorrência
em uma região, os biológos, freqüentemente, utilizam o método de Captura e por unidade de medida. D
Recaptura. O procedimento consiste em capturar um número pré-fixado de m
Exemplo 2.19: O número de mensagens eletrônicas (em centenas) recebidas por
animais da espécie desejada e marcá-los. Em seguida, eles são soltos e espera-se
um provedor em horário comercial foi modelado por uma variável Poisson com
um tempo para permitir que eles se misturem aos demais. Uma segunda amostra é
taxa de 15 por dia. As instalações disponíveis podem atender, com o padrão de
retirada com r animais e o número de animais marcados é contado. Com base
qualidade desejado, até 2 mil mensagens diárias. Você diria que tem havido muita
nessa informação, deseja-se estimar o tamanho N (desconhecido) da população
reclamação pelo serviço do provedor?
desses animais na região.
Precisamos avaliar a probabilidade de serem recebidas mais de 2 mil
Na população em questão, após o processo de marcação, dos N animais
mensagens, ou 20 centenas na unidade estabelecida. Se ela for alta, teremos uma
existentes, temos m marcados e N - m não marcados. Considerando que o
· indicação de que o serviço deve estar perdendo qualidade e, portanto, sendo
processo de marcação não altera a aleatoriedade da amostragem futura, na
passível de reclamações dos usuários. Temos
segunda amostra de r animais, o número de animais marcados será uma variável
aleatória X com distribuição Hipergeométrica. Isto é, 20 -1515k
P (X > 20) = 1- P(X ~ 20) = 1- ~ e k! = 0,083.
P(X = k) = Px(k) = (';)/;)=;;) ;max{O, r - (N - m)} ~ k ~ min{r, m} .
Essa probabilidade indica que, em 8,3% dos dias, o serviço estará trabalhando
abaixo da qualidade desejada, devido ao excesso de mensagens. Dessa forma, os
Supondo que essa amostra forneça k 0 animais já marcados, escolhemos
usuários não devem estar contentes com o provedor e o índice de reclamações
como estimativa para No valor que maximiza a probabilidade px(k0 ). Estamos
deve estar alto. 0
usando o que é denominado de estimação pelo método da máxima
verossimilhança (consulte textos em Estatística, por exemplo Mood, Graybill e Exemplo 2.20: Bombas em Londres- Modelo de Poisson (Feller {68])
Boes [74]). Nesse caso, teremos:
. Este é um exemplo clássico e interessante de aplicação da distribuição de
r
Nest = m-· o Pmsson. Durante a Segunda Guerra Mundial, a cidade de Londres foi
ko bombardeada intensamente pelos aviões alemães. A discussão sobre a
aleatoriedade dos alvos é feita com o auxílio da probabilidade e da estatística. Um
Apresentamos, a seguir, um modelo com inúmeras aplicações nas áreas de possível interesse é saber se houve alguma tendência de concentrar as bombas em
probabilidade aplicada e engenharia. Chegadas de mensagens ou de chamadas alguns alvos, ou se elas foram lançadas aleatoriamente.
telefônicas a uma central têm sido modeladas de modo satisfatório pelo modelo de
90 Capítulo 2: Variáveis Aleatórias 2.3 Principais Modelos Discretos 91

Para isso, a parte sul da cidade foi repartida em 5 76 pequenas regiões com variável, indicando o número de objetos do tipo I, será observada. O modelo
meio quilômetro quadrado de área cada uma. Foi contado o número de regiões dessa variável é Hipergeométrico.
que receberam k bombas, representado por nk. O total de bombas na parte sul da Nossa intuição nos diz que, para um tamanho grande de população se
cidade foi de 537, resultando numa taxa de O, 9323 bombas por região. Veremos comparado ao da amostra, a não reposição dos objetos coletados não deve influir
que o modelo de Poisson, com a taxa acima, é considerado adequado para ajustar muito no resultado final. Veremos como essa intuição pode ser justificada
o número de bombas por região. Isto é, a probabilidade de uma região (hipotética) matematicamente.
receber k bombas seria dada por p( k) = e-À À k / k!. Sendo X,..... Hgeo(m, n, r), temos
Vamos construir uma tabela de freqüências esperadas, supondo que o
modelo Poisson seja válido, e compará-la com a tabela das freqüências P( X = k) = (';;)(~~='!:) ; max{O, r - (n - m)} ~ k ~ min{r , m} .
observadas. Para obter a freqüência esperada do número de regiões com k
bombas, denotada por e~o multiplicamos o total de regiões pela probabilidade
p(k). Por exemplo, para a freqüência esperada de regiões com 2 bombas, temos Vamos definir p como a proporção de objetos do tipo I na população, isto
é, p = mfn. Após alguma manipulação algébrica com as combinações e com o
e-0,9323 O 9323 2 uso de p, podemos reescrever a expressão acima da seguinte forma:
e2 = 576 x ,• = 98,54.
2
A tabela abaixo resume os valores obtidos.
No. bombas o 1 2 3 4 5 ou mais
Freq. Observada 229 211 93 35 7 1
Freq. Esperada 226 , 74 211 , 39 98,54 30, 62 7, 14 1, 57
Se o tamanho da população n é bem superior ao da amostra r ,
É possível realizar um teste estatístico para avaliar a aderência da esperaríamos que os valores de m e n- m (que se referem à população de
distribuição de Poisson aos dados (ver, por exemplo, Magalhães e Lima [05]). objetos) também fossem bem superiores aos de k e r - k (que se referem à
Deixando de lado os detalhes, vamos apenas mencionar que os valores observados amostra). Dessa forma, cada um dos produtórios dentro do colchete acima se
e esperados estão bastante próximos, servindo de indicação da adequação do aproxima de 1 e, então, podemos dizer que
modelo proposto.
Note ainda que, se houvesse tendência das bombas se agruparem, haveria
alta freqüência de regiões sem nenhuma bomba, bem como alta freqüência de
regiões com muitas bombas. Também, teríamos baixa freqüência em valores que é a função de probabilidade de uma Binomial de parâmetros r e p = mfn. O
intermediários. Pela tabela acima, percebemos que isso não ocorre e somos Exemplo 2.22: Relação entre Binomial e Poisson
levados a concluir que o bombardeio foi feito aleatoriamente sobre essa região. O
Seja X '"" B( n, p) e vamos discutir as condições para a aproximação
Encerramos a seção com a apresentação de dois exemplos sobre o desse modelo para o de Poisson.
relacionamento entre modelos. Temos
Exemplo 2.21: Relação entre Hipergeométrica e Binomial
Considere uma população com n objetos, dos quais m são do tipo I e
n - m do tipo I I. Uma amostra de tamanho r é coletada sem reposição e a
em que (n )x = n(n - 1)· · ·(n- x + 1) e definimos À= np.
92 Capítulo 2: Variáveis Aleatórias
2.3 Principais Modelos Discretos 93

Reagrupando os termos vem 3. Se X"' B(n,p), qual é o modelo de Y = n- X? Interprete.

P(X ~x(n)
= x) = _ _x ( 1 -~)
- -x ( 1 - ~)n
- . 4. Se X"' Geo(p), qual é o modelo de Y =X+ 1? Interprete.
x! nx n n
5. Dentre os estudantes João, Pedro e Manoel, o professor escolhe ao acaso um
Considere agora que a probabilidade p seja de tal modo pequena que, quando n se deles para fazer uma pergunta. Se cinco perguntas forem feitas, qual a
aproxima do infinito, ~ possa ser considerado como aproximadamente constante. probabilidade de:
Na aplicação do limite observe que a. Manoel nunca ser escolhido?
b. Um (qualquer) dos estudantes não ser solicitado a responder sequer uma
lim (1- ~) -x = 1 e lim (n)x = 1; pergunta?
n-+00 n n-+OO nX
6. Uma vacina, com taxa de imunização de 80% segundo o fabricante, foi
e, por um resultado clássico de limite, segue também que
aplicada num conjunto de crianças de um certo bairro. As autoridades de saúde
lim (1 - ~)n =e-À. desejam se certificar se a taxa de imunização tem efetivamente o valor
indicado. Para tal, 20 crianças foram sorteadas dentre as que receberam a
n-+oo n
vacina e foram submetidas a testes rigorosos para avaliar sua imunização.
Nestes termos a. Sendo a afirmação do fabricante verdadeira, qual seria a probabilidade de
~X -À obter 3 crianças não imunizadas, no grupo das 20 crianças?
limP(X = x) ~ _ e_l-, b. Se você fosse encarregado de decidir sobre a aceitação ou não da afirmação
n---Jooo X.
do fabricante, que critério você estabeleceria?
que corresponde à função de probabilidade Poisson (~). Este resultado se refere
7. O número de chegadas a um posto de informações turísticas é modelado por
ao comportamento limite de distribuições, que será objeto do Capítulo 6. O
Poisson com taxa de 2 pessoas por hora. Para uma hora qualquer, qual a
Exercícios da Seção 2.3: probabilidade de ocorrer:
1. Verifique que a atribuição de probabilidade nos modelos Binomial, a. Pelo menos uma chegada?
Geométrico, Hipergeométrico e Poisson satisfazem às propriedades de função b. Mais de duas chegadas, dado que chegaram menos de 5 pessoas?
de probabilidade. 8. Para m,n ~O, seja P(X = m +n I X~ m) = P(X = n) uma versão da
2. Considere um dado eqüilibrado. Para cada um das situações abaixo, obtenha a propriedade da falta de memória. Verifique se ela está satisfeita para os
função de probabilidade da variável de interesse e identifique o modelo, se modelos abaixo:
possível. a. Poisson(~).
a. O dado é lançado 3 vezes, de forma independente. Estamos interessados no b. B(n,p).
número de vezes em que ocorreu face 1. c. Geo(p).
b. O dado é lançado 3 vezes, de forma independente. Estamos interessados no 9. Seja X"' Poisson(~) responda:
número de repetições de faces sorteadas. a. Se P(X = 1) = P(X = 2) qual o valor de P(X < 4)?
c. O dado é lançado sucessivamente, de forma independente, até ocorrer a b. Sendo P(X = 1) =O, 1 e P(X = 2) =O, 2 quanto vale P(X = 3)?
face 6. Estamos interessados em quantos lançamentos foram necessários.
d. O dado é lançado 3 vezes, mas a face ocorrida num lançamento é "retirada" 10. Suponha que uma impressora de alta velocidade cometa erros, segundo um
para o próximo sorteio. Estamos interessados no número de faces ímpares modelo de Poisson com uma taxa de 2 erros por página.
obtidas. a. Qual é a probabilidade de encontrar pelo menos 1 erro em uma página
escolhida ao acaso?
2.4 Principais Modelos Contínuos 95
94 Capítulo 2: Variáveis Aleatórias

f(x)
b. Se 5 páginas são sorteadas, ao acaso e de forma independente, qual é a
probabilidade de pelo menos 1 página com pelo menos 1 erro por página?
c. Dentro das condições de (b ), considere a variável que conta o número de
páginas com pelo menos um erro. Você identifica o modelo dessa _1_
b-a
------------------------------------,
variável?

2.4 Principais Modelos Contínuos


Nesta seção, apresentamos os principais modelos para variáveis aleatórias
contínuas. Os diversos modelos serão caracterizados pela sua função densidade e,
em vários casos, apresentamos também a função de distribuição. Iniciamos com a
versão contínua para o modelo Uniforme Discreto. b X
a
Definição 2.13: Modelo Uniforme Contínuo Figura 2.5: Densidade da Uniforme Contínua em [a, b].
Diremos que X segue o modelo Uniforme Contínuo, no intervalo
[a, b] [a, b] com mesmo comprimento tiverem
C lR, se todos os sub-intervalos de
a mesma probabilidade. Sua função densidade é dada por:
F(x)
1
f(x) = b _a I[a,bJ(x).

Usaremos a notação X "' Uc[a, b]. D


Vamos verificar que a expressão da densidade do modelo Uniforme
Contínuo em [a, b] satisfaz as propriedades de densidade. Ela é positiva e

1b
1 00

-00
f(x)dx =
a
1
~dx
a
= 1.
A função de distribuição pode ser calculada sem dificuldade através da integral da
densidade. A expressão resultante é dada por:
o, se x <a;
F(x) = (x- a )/(b- a), se a:::; x < b;
{ 1, se x ~ b. Figura 2.6: Função de Distribuição da Uniforme Contínua em [a, b].
Devido à natureza contínua da variável, não faz diferença na definição do
modelo se o intervalo de valores for aberto ou semi-aberto.
Apresentamos, a seguir, os gráficos da densidade e da função de Exemplo 2.23: Um programa de TV dura 1 hora e um telespectador impaciente
distribuição do modelo Uniforme Contínuo em [a, b] para a e b positivos. vai trocar de canal a qualquer momento durante o programa. Qual a probabilidade

97
96 Capítulo 2: Variáveis Aleatórias 2.4 Principais Modelos Contínuos

dele assistir à maior parte do programa? Se ele assistiu à maior parte, qual seria a que J(x), dada na definição do modelo Exponencial, satisfaz as propriedades de
probabilidade dele desligar a TV ou mudar de canal nos últimos lO minutos? densidade (ver gráfico a seguir).
Vamos denotar por X o instante em que o telespectador troca de canal.
Pelas informações disponíveis, X"' Uc[O, 1] e, portanto, j!z)

o, se x <O;
1
se O~ x < 1;
F(x) =
{ x,
1, se x ~ 1.

Assistir à maior parte do programa é equivalente ao evento [X> 1/2]. Temos


P(X > 1/2) = 1 - P(X ~ 1/2) = 1 '- F(1/2) = 1/2.
Para calcular a probabilidade dele desligar ou mudar de canal, nos últimos 1O
minutos, se assistiu à maior parte do programa, temos

P(~ )_ P([~ < x < 1] n [X > 1/2])


6 < X < 11 X > 112 - P( X > 1/2)
Figura 2.7: Densidade da Exponencial (À).
P(~ <X< 1) ~ 1.
= P(X > 1/2) =I = 3'
A expressão da função de distribuição pode ser obtida, sem dificuldade,
em que usamos P(~ <X< 1) = F(1-)- F(V = 1- ~ = ~- o através de integração e resulta em F(x) = (1- e->.x) I(o,oo) (x). Seu gráfico é
Um modelo com aplicação em diversas áreas de engenharia e matemática apresentado a seguir.
é o modelo Exponencial. Tempo de vida de equipamentos, intervalos entre
F(x)
chegadas de mensagens eletrônicas ou de chamadas telefônicas a uma central, são
algumas das quantidades que têm sido bem modeladas com essa distribuição.
Boas propriedades matemáticas e suas relações com outros modelos são, também,
atrativos no uso da Exponencial. Em particular, a importante propriedade,
conhecida como falta de memória, será apresentada em proposição.
Definição 2.14: Modelo exponencial
A variável aleatória X segue o modelo Exponencial de parâmetro >.,
>. > O, se tiver densidade dada por:
f(x) = >. e-.u I(o,oo)(x).

Usaremos a notação X"' Exp (>.). o


O parâmetro >. indica a taxa de ocorrência por unidade de medida, que
pode ser tempo, distância ou volume, entre outras. É deixado ao leitor verificar Figura 2.8: Função de Distribuição da Exponencial (À).
98 Capítulo 2: Variáveis Aleatórias 2.4 Principais Modelos Contínuos 99

Exemplo 2.24: Um serviço de atendimento ao consumidor recebe chamadas ~is X é contínua. Note que F é não crescente, contínua à direita, F(O) = 1 e
telefônicas num intervalo de tempo, em horas, que segue uma distribuição F( +oo) =O.
Exponencial com >. = 5. O parâmetro >. pode ser interpretado como sendo uma A propriedade da falta de memória pode ser reescrita da seguinte forma:
taxa de 5 chamadas por hora e, dessa forma, a unidade de >. seria horas- 1• A
probabilidade de um intervalo entre chegadas ter duração inferior a 30 minutos é F(s + t) = F(s)F(t).
dada por Se g(x) = F(x), vamos resolver a equaçã~ funcional g(s + t) = g(s)g(t), sujeita
às condições já mencionadas sobre F. A solução única será da forma
P(X < 1/2) = P(X :::; 1/2) = F(1/2) = 1 - e-~ = 0,918. O g(x) = e->.x , para x 2: O e com>.> O.
Inicialmente, mostramos que g(x) >O, sempre que O:::; x < oo.
Uma característica matemática importante do modelo Exponencial é a já É claro que g(x) ;::: O (por ser probabilidade) e não crescente (por
mencionada falta de memória. A interpretação permanece a mesma do caso definição). Suponha por absurdo que g(xo) = O para algum xo. Segue pela
discreto mas, para o caso contínuo, não faz diferença incluir ou não as igualdades
equação funcional que g(x) =O para todo xo :::; x < oo. Seja xô o ~enor dos x
nas probabilidades. Na próxima proposição verificamos que o modelo para os quais g(x) =O. Assumindo que X não é uma constante Igual a zero,
exponencial é o único dentre os contínuos com tal propriedade.
temos xô > O. Sejam u e v dois números reais tais que O :::; u < v < xô :S u + v,
Proposição 2.4: Falta de memória da Exponencial então pela equação funcional
Sendo X uma variável aleatória contínua, X tem a propriedade da falta de g(u)g(v) = g(u + v) = O.
memória se, e só se, X......, Exp(>.).
Isto implica em uma contradição, pois g(u) e g(v) não são nulas. Concluímos que
Demonstração: g(x) não é zero para qualquer x finito. .
A propriedade de falta de memória pode ser escrita da seguinte forma: Para todo x >O temos g(nx) = g(x)g(nx- x), n 2: 1. Recursivamente,
obtemos g(nx) = gn(x).
P(X 2: t+siX 2: s) = P(X 2: t) ;t , s 2: O. ,
Para qualquer numero · 1 ;:nn vem g ( ;:nn ) = gn ( ;:nI ) • Logo com
raciona
Seja X......, Exp (>.)e s, t > O. Temos que escolhas convenientes de me n obtemos g(~) = [g(1)jlfm . Então

_ P(X 2: t + s, X 2: s) _ P(X 2: t + s) . 1
P(x 2: t + 8 I X 8 ) 9 (:) = [g(1)r m, para todo racional njm.
2: - P(X 2: s) - P(X 2: s)
A função densidade de X é dada por f(x) = >. e->.x Ico,oo) (x). Assim, Pela continuidade à direita de g, vem

roc >. e-Àxdx _ e-Àxloc
P(X > t + siX > s)
- -
= Jfsoc
t+s
À e-Àxdx
= t+s
- e-Àx ~~
=
e-À(t+s) Como g(1) > O,>.= -logg(1) está definido e é positivo. Substituindo na última
=
e - Às
= e->.t = P(X -> t) ' equação, obtemos

e, portanto, vale a propriedade da falta de memória. g(x) = e->.x, x 2: O;


Para a recíproca, seja X uma variável contínua e denotamos por F(x ) o e, portanto, F(x) = 1- F(
-
x ) = 1- g( x ) = 1- e- ÀX , x 2: 0, que e' a f unçao
- de
complementar de F(x). Isto é, F( x ) = 1- F(x) = P(X > x ) = P(X 2: x ), distribuição do modelo Exponencial de parâmetro >.. D
_.-:I
( I •
2.4 Principais Modelos Contínuos 101
100 Capítulo 2: Variáveis Aleatórias

Para uma maior discussão sobre a função Gama, consulte Hoel, Port e
Como ilustração da falta de memória da Exponencial, considere que o Stone [71]. Vale destacar alguns resultados:
tempo de vida de um equipamento siga esse modelo. A probabilidade de durar
pelo menos t + s anos, sabendo-se que já durou s, é igual à probabilidade de um i) r( a+ 1) =a r( a), a > oj
equipamento novo durar pelo menos t anos. Em outras palavras, a informação da ii)r(n) = (n- 1)!, n inteiro positivo;
"idade" do equipamento pode ser esquecida e o que importa, para o cálculo da
probabilidade, é quantos anos a mais queremos que dure.
iii)r(1/2) = vn.
O uso da Exponencial no estudo de fenômenos que ocorrem na área de Exceto em situações especiais, a função de distribuição do modelo Gama
engenharia e de telecomunicações se deve, em parte, ao seu relacionamento com o não tem uma forma simples e compacta. Dependendo dos valores dos parâmetros,
modelo Poisson. ·o modelo Gama recebe outros nomes e a tabela abaixo resume os casos principais.
Exemplo 2.25: Relação entre Poisson e Exponencial Nome Especial Notação
Parâmetros
Seja X uma variável aleatória Poisson com parâmetro >.. Suponha que X a= 1, {3 > O Exponencial Exp ({3)
representa o número de ocorrências de um evento, num certo intervalo de tempo.
Variando o intervalo de interesse, podemos considerar que o número de
o· .
a= 2n , n > mte1ro, {3 = 21 Qui-quadrado com n graus de liberdade x2 (n)
(
ocorrências ainda é Poisson, mas com o parâmetro ajustado proporcionalmente. a = k, k > O inteiro, {3 > O Erlang de ordem k Erlk(f3)
(
Assim, temos a variável Xt "'Poisson(>.t).
Vamos supor que acabamos de ter uma ocorrência e seja Y a variável que Para exemplificar a versatilid~de da Gama apresentamos na Figura 2.9 o
indica o tempo até a próxima ocorrência. Temos, para y > O, gráfico de sua densidade para alguns valores de parâmetros.
Fy(y) = P(Y ~ y) = 1 - P(Y > y ) = 1 - P(Xy =O) = 1 - e->.y
ft.x)
e, assim, concluímos que Y é Exponencial com parâmetro >.. o
Um modelo contínuo bastante versátil e, também, com inúmeras
0,6
aplicações é o modelo Gama. Muitos autores se referem a ele como a famíla
Gama tendo em vista que, dependendo da escolha dos seus parâmetros, outros
modelos importantes podem ser obtidos.
Definição 2.15: Modelo Gama 0,4

Diremos que X segue o modelo Gama, se sua densidade for dada por

f (X ) -_ _f!:_
r (a) X
a-1 -{3x J
e
( )
(O,oo) X '
0,2

sendo a e (3 dois parâmetros positivos e com r (a ) sendo a função matemática


Gama, definida por

r( a ) = 1
00
1
x"'- e-x dx, a> o.
o 2

Figura 2.9: Densidade da Gama- conforme parâmetros indicados.


Usaremos a notação X "' Gama( a, (3). o
102 Capítulo 2: Variáveis Aleatórias 2.4 Principais Modelos Contínuos 103

O modelo mais importante para variáveis aleatórias, tanto do ponto de integral, pois esta não possui primitiva. Assim, valores de probabilidade são
vista teórico como prático, é o modelo Normal. Algumas vezes ele é também obtidos por integração numérica e apresentados em tabela. Não é necessário fazer
denominado modelo de Gauss ou de De Moivre. O modelo Normal foi uma tabela para cada par de valores dos parâmetros em que se tenha interesse.
2
estabelecido, ao redor de 1733, pelo matemático francês Abraham De Moivre. Basta, apenas, tabelar as probabilidades para J.L = O e a = 1, conforme indicado
pela próxima proposição.
Definição 2.16: Modelo Normal
Proposição 2.5:
Uma variável X segue o modelo Normal se sua densidade é a seguinte:
Sendo X rv N(p, a 2 ), então Z = X;!J terá distribuição N(O, 1).
1 ~
f( x) = r;c_ e- 2
• 1(-oo,oo)(x),
l!V 21T Demonstração:

com p, a E IR, a> O. Usaremos a notação X rv N(p, a 2 ). D Temos

Com as definições a serem apresentadas nos Capítulos 4 e 5, veremos que P(X- J.L :::; z) = P(X:::; za + p)
os parâmetros J.L e a 2 são, respectivamente, a média e a variância da variável (a a
zu+p. 1 _ (;-~)2
quantidade a será denominada desvio-padrão). O gráfico da densidade N(p, a 2 ) é
apresentado na figura a seguir.
=
l
-oo ay 21T
r;c_ e 2. dx

='1%-oo y
1
r;c_
2?T
e- i.2 dy,
f(:r)
em que usamos y = (x- p)ja.
Observamos que este último integrando é a função densidade de uma
N(O, 1) e, portanto, o resultado está verificado. A distribuição N(O, 1) é
denominada Normal Padrão ou Normal Reduzida. D
Com auxílio da proposição acima, convertemos as probabilidades de
interesse em probabilidades equivalentes da N(O, 1), cuja função de distribuição
é, usualmente representada por <J>( z). No Apêndice A, apresentamos uma tabela
que auxilia nos cálculos de probabilidade para a Normal.
Como ilustração, sendo X rv N(p, a 2 ), desejamos obter a probabilidade
de X estar entre duas constantes a e b, a < b. Temos
a~p b-p b-p a-p
P(a <X< b) = P(-- < Z < - ) = <J>(- )- <1>(--)
a
,
a a (J

cujo valor numérico poderia ser obtido com o uso da tabela mencionada, se as
Figura 2.10: Densidade Normal (J.L, u 2 ).
constantes fossem conhecidas.
A importância da distribuição Normal em Estatística é muito grande. Ela
serve como modelo para quantidades de interesse em Inferência Estatística e,
A função de distribuição da N(p, a 2 ) não tem uma forma fechada e, de
também, é usada em aproximações. Sua densidade é simétrica ao redor de J.L (que
fato, o cálculo de probabilidades com a densidade Normal não pode ser feito pela
já mencionamos que é a média da variável) e vai diminuindo a massa de
104 Capítulo 2: Variáveis Aleatórias
2.4 Principais Modelos Contínuos 105

probabilidade, à medida que seus valores se movem para as extremidades. Dessa conseqüências práticas. Segundo os modelos Normais para a produção das duas
forma, o modelo Normal poderia ser adequado para várias quantidades máquinas, as probabilidades de valores negativos são praticamente desprezíveis.
envolvendo medidas populacionais tais como peso, altura, dosagem de Os cálculos são apresentados a seguir:
substâncias no sangue, entre outras.
A falta de limitação para os valores da Normal poderia ser um empecilho P(XA < o) = P(Z < -5, 5) ~ 1, 9 x w- 8 ;
para sua maior aplicação. Entretanto, do ponto de vista prático, a probabilidade P(Xs <O)= P(Z < -4) ~ 3, 2 X w- 5 .
que escapa dos valores centrais é desprezível. Por exemplo, para a N(O, 1), a
probabilidade de um valor fora do intervalo ( -3, 3) é cerca de O, 0026 e para o Portanto, supondo que a modelagem esteja adequada para a parte positiva dos
intervalo ( -4, 4) seria menor do que w- 4 , evidenciando que o "infinito" da valores da variável, poderíamos aceitar o modelo.
Normal não é tão longe assim! Para comparar as duas máquinas, vamos calcular o índice regular de
Muitas das variáveis de interesse em aplicações são não negativas e a produtividade de cada uma delas. Temos
modelagem pela Normal poderia parecer absurda. Pela mesma argumentação
P(80 < XA < 120) = P(-1,5 < Z < 0,5) = 0,6247;
numérica do parágrafo anterior, podemos verificar que, sendo J.L relativamente
P(80 < Xs < 120) = P(-0,8 < Z < 0,8) = 0,5762.
grande em relação à u, a probabilidade de valores negativos é muito reduzida e,
portanto, a Normal poderia ser um bom modelo. Dessa forma, a máquina A tem um melhor desempenho pelo critério utilizado. O
Em muitos métodos estatísticos, o requisito de normalidade é necessário.
Se utilizamos uma variável limitada, como ocorre na maioria dos casos práticos, a Exemplo 2.27: Relação entre Binomial e Normal
modelagem pela Normal poderia ser usada para ganhar tratamento matemático. A Uma consequência do Teorema Central do Limite, a ser apresentado no
justificativa segue, também, pela argumentação anterior. De qualquer forma, a Capítulo 6, é a aproximação de cálculos de probabilidade da Binomial pela
avaliação de qual modelo é adequado precisa ser feita com cuidado e critério, um distribuição Normal. Sendo X"' B(n,p), desejamos calcular P(a ~X~ b) com
assunto para as áreas de Estatística Descritiva e Inferência Estatística. a e b inteiros entre Oe n. Para n suficientemente grande, a aproximação será feita
Exemplo 2.26: Duas máquinas estão sendo comparadas quanto ao seu através da variável Y "'N(J.L = np, u 2 = np(1- p) ). Em geral, essa
desempenho. As máquinas produzem, por hora, um número de peças que é aproximação é aceitável sempre que np ~ 5 e np(1- p) ~ 5. Como estamos
modelado pela distribuição Normal. Os parâmetros são dados a seguir: aproximando uma variável discreta por uma contínua, alguns cuidados precisam
ser tomados. Para melhorar a aproximação, um recurso é utilizar a correção de
Máquina J.L 0'2 continuidade que consiste em, dependendo do caso, acrescentar ou retirar O, 5 ao
A 110 400 valor de que se pretende calcular a probabilidade. Dessa forma, P(X ~ b) é
B 100 625 aproximada por P(Y ~ b +O, 5), enquanto que P(X < b) por P(Y ~ b- O, 5).
Lembre-se de que, para a variável Y não faz diferença a inclusão ou não da
Deseja-se comparar as máquinas pelo que foi denominado índice regular de
igualdade. Assim, nas condições para aproximação já mencionadas, temos
produtividade, que é calculado pela probabilidade de produzir de 80 a 120 peças
em uma hora. Um maior índice indicaria um melhor desempenho. P(a ~X~ b) ~ P(a- 0.5 ~ Y ~ b + 0.5).
Inicialmente, cabe um comentário sobre a conveniência do modelo
Normal. O número de peças produzidas é sempre um inteiro não negativo e, Utilizando o Exemplo 6.9 em Magalhães e Lima [05], consideramos uma
portanto, o uso de um modelo contínuo necessita ser justificado. Em geral, variável X "' B(200; 0,3), cujos cálculos de probabilidade serão aproximados por
construímos um gráfico com os valores observados de uma amostra da produção Y "'N(J.L = 60, a 2 = 42). Assim, com o auxílio da tabela da N(O, 1) e sem o uso
horária das máquinas e, com o uso de algumas técnicas estatísticas, avaliamos a da correção de continuidade, temos:
qualidade da modelagem. O modelo Normal permite valores negativos, que não
fariam sentido em termos de produção de peças, mas nesse caso sem maiores
106 Capítulo 2: Variáveis Aleatórias 2.5 Exercícios 107

5. Mostre que, para a e f3 positivos, f(x) = /[;,) (x- a)a:- 1 e-.B(x-a) I(a,oo)(x) é
P(X 2:
5
50)~P(Y 2: 50)=P(y~O 2: ~ )=P(Z2:-1,54)=0,9382. 0
função densidade de probabilidade. Alguns autores definem o modelo Gama
42 42
dessa forma, sendo que, nesse caso, o modelo tem um terceiro parâmetro a.
Para o resultado exato, utilizando a Binomial, o valor obtido seria 0,9484. Isto 6. A variável X segue o modelo Beta de parâmetros a, b > O, se sua densidade for
indica que a solução dada pela distribuição Normal é bastante razoável. Se f(x) = .B(~,b)xa- 1 (1- x)b- 1I(o, 1)(x); f]( a, b) é a função Beta (Apêndice A).
utilizarmos a correção de continuidade, o cálculo ficaria ainda mais preciso:
a. Verifique que a densidade Beta com parâmetros a = b = 1 é a Uc(O, 1).
50)~ P(Y 2: 49,5) =
49
P(X 2: P(Z 2: ~ ) 60
= 0,9474. b. Prove a seguinte relação entre as funções Beta e Gama: /3( a, b) = ri(~I~~) ·
42
Para calcular a probabilidade de igualdade a um valor, digamos X= 50, 7. Mostre que a taxa de falha, tr(x) = 1 !~(~) (F(x) < 1), para o modelo
criamos um intervalo artificial, pois, com variáveis contínuas, essa probabilidade Exponencial é constante e coincide com seu parâmetro.
seria zero. Assim,
8. Sendo X"' N(J.L, a 2 ), J.L > O, avalie as probabilidades abaixo em função de
ci>(z) ou numericamente, se possível:
P(X = 50) ~ P( 49,5 ~ Y ~ 50,5)
a. P(IXI < J.L).
~ P( 50~60 ~ z ~ 49~60) = 0,0 182 _ b. P(IX- J.LI > 0).
42 42 c. P(X- J.L < -a).
d. P(a <IX- J.LI < 2a).
O cálculo exato é 0,0190; mostrando, novamente, a qualidade da aproximação. O
9. Suponha que o volume, em litros, de uma garrafa de refrigerante seja Normal
Exercícios da Seção 2.4: com parâmetros J.L = 1 e a 2 = w- 4 • Se três garrafas forem sorteadas ao acaso,
1. Seja X"' Uc( -a, a), determine o valor do parâmetro a de modo que: pergunta-se a probabilidade de:
a. P(-1 <X< 2) = 3/4. a. Todas as três terem pelo menos 980 ml?
b. P(IXI < 1) = P(IXI > 2).
b. Não mais de uma ficar com volume inferior a 980 ml?

2. Supondo que a expectativa de vida, em anos, seja Exp(1/60): 10. Uma variável X"' N(J.L, a 2 ) representa o desempenho de um certo
a. Determine, para um indivíduo escolhido ao acaso, a probabilidade de viver equipamento. Ele será considerado fora de controle se afastar de J.L por mais de
pelo menos até os 70 anos. 2a unidades. Todo o dia, o equipamento é avaliado e, caso esteja fora de
b. Idem para morrer antes dos 70, sabendo-se que o indivíduo acabou de controle, será desligado e enviado para manutenção. Admita independência
completar 50 anos. entre as avaliações diárias. Determine a probabilidade de:
c. Calcule o valor de m tal que P(X > m) = 1/2. a. No primeiro dia o equipamento ser desligado.
b. A primeira manutenção ser no décimo dia.
3. Mostre que a densidade Gama satisfaz as propriedades (fdl) e (fd2). c. Você reconhece a variável que conta os dias anteriores à manutenção?
4. Com a definição da função matemática Gama dada nesta seção, verifique que:
2.5 Exercícios
a. r(a+ 1) = ar(a),a > o.
b. Para n inteiro positivo, r(n + 1) = n! 1. Sendo c uma constante real qualquer, verifique que X(w) =c, para todo
c. r(1/2) = J7i. Sugestão: use a N(O, 1) e uma troca de variáveis. w E 0, é variável aleatória em qualquer 0'-álgebra de conjuntos de 0.
Capítulo 2: Variáveis Aleatórias 2.5 Exercícios 109
108

2. Considere um espaço de probabilidade (n, F, P) e sejam E e F c n com


12. Mostre que uma variável aletória é discreta em (0, F, P), se, e só se, existir
E E F mas F rt F. Mostre que a função indicadora de E é variável aleatória uma partição de eventos A1,A2, ... em n e constantes a 1 ,a2 , .. ·,reais e
00
mas a de F não é. distintas, tais que X= E ai IA;·
i=l
3. Se X é variável aleatória em (0, F, P), mostre que são variáveis aleatórias:
a. X - a, com a E ~. 13. Uma variável aleatória X é simétrica ao redor do O, se X e -X tiverem a
mesma distribuição. Mostre que X é simétrica ao redor do O se e só se
b. -X.
c. a X, com a E R Fx(-x) = 1- Fx(x-), Vx E IR.
d. IA, com A= {w: X(w) > 2}.
n 14. Mostre que F(b)- F( a) ~ ~[F2 (b)- p2(a)], a< b.
4. Sejam A1. A 2 , .. ·, An eventos em (n, F, P), verifique se X= ElA; e
15. Mostre que se F e G forem funções de distribuição então, para O ~ a ~ 1,
i=l
n aF + (1- a)G também é função de distribuição.
Y = TI f A; são variáveis aleatórias.
i=l 16. Se F e G forem funções de distribuição, o que dizer de F + G?
5. Seja X variável aleatória em (0, F, P), defina [X] como sendo o maior inteiro 17. Suponha que a variável aleatória X tenha função de distribuição F. Mostre
contido em X. Seria [X] variável aleatória no mesmo espaço de probabilidade? que m1 = sup{x; F(x) < 1/2} e m2 = inf{x; F(x) > 1/2} satisfazem as
6. Seja (n, F, P) um espaço de probabilidade com n = (0, 2] n ~.F a a-álgebra propriedades de mediana. (Obs: Uma mediana é qualquer número real m tal
de Borel e Puma probabilidade qualquer. Defina X, nesse espaço, tal que que P(X ~ m) e P(X ~ m) são ambos maiores ou iguais a 1/2 ou,
equivalentemente, F(m-) ~ 1/2 ~ F(m)).
X(w) = wlA(w) + (w- 1)1Ar(w);
18. Seja X uma variável aleatória discreta com função de probabilidade dada por:
com A = { w E n : O< w ~ 1}. Mostre que X é variável aleatória. p(x) = k(1- Ot-\ 0 < 0 < 1, X= 1, 2, ....
7. Seja (n, F, P) um espaço de probabilidade com os eventos A, B e C. Mostre a. Determine o valor de k.
que X= IAnB + Ic é variável aleatória nesse espaço. b. Se O= 1 - 2-l/n, mostre que a mediana de X é qualquer número real no
intervalo [n, n + 1).
8. É válida a afirmação: se lXI for variável aleatória então X também é?
19. Seja X uma variável aleatória em (0, F, P) com função de distribuição F.
9. Seja X uma variável com distribuição F. Mostre que P(X E I) é dado por: a. Demonstre que as funções abaixo são variáveis aleatórias.
a. F(b-)- F( a) se I= (a, b).
x+ = { X se X ~ O; e x- = { -X se X ~ O;
b. F(b)- F( a-) se I= [a, b]. O se X < O. O se X > O.
c. F(b-)- F(a-) se I= [a,b). Elas são denominadas, respectivamente, as partes, positiva e negativa de X.
10. Seja X uma variável aleatória com distribuição F. Mostre que, para todo b. Obtenha as funções de distribuição de x+ e x-.
número real c, P(X =c) =F( c)- F( c-). 20. Para cada uma das expressões abaixo, verifique se são função de
11. Sendo X uma variável aleatória com distribuição Fx, determine a função de probabilidade. Caso não sejam, indique se uma multiplicação por alguma
distribuição de -X e lXI. constante poderia torná-las função de probabilidade.
a. p(x) = 0)x, x = 1,2, ...
..... I
110 Capítulo 2: Variáveis Aleatórias 111
2.5 Exercícios

b. p(x) = ~. x = ± 1, ± 2, ± 3, ± 4. d. f(x) = ~ e-Àix-pl, x, 1-l E JR., >. >O; modelo de lAplace ou Exponencial
c.p(x) = fõ,x = 1,2,3,4,5. Duplo.

d.p(x ) = x; 1 ,x = 2,3, ... e. f(x) = (l~:~r)2, x E JR.; modelo Logfstico.

21. Determine condições sobre as constantes c, de modo que as expressões abaixo f. f(x) = >.axa-l e-Àxa I(o,oo)(x), .À, a> O; modelo de Weibull.
sejam função de probabilidade.
g. f(x) = x e-4 I(o,oo)(x); modelo de Rayleigh.
a.p(x) = cax,o <a< 1, x =O, 1,2, ...
b.p(x) =(c -1) 2x,x = 1,2,···.
h. f(x) = ~ x 2 e-f I(o,oo)(x); modelo de Maxwell.
22. Obtenha o valor (ou valores) de c, para que as expressões abaixo sejam função i. f(x) = (~) (~)a+l l(c,oo)(x), a, c> O; modelo de Pareto.
densidade. 25. Obtenha a função de distribuição referente às funções densidade abaixo:
a. f(x) = cosx I(o,c)(x). ~.

{
o::;x<3;
o, X:::; -1; a. f(x) = ~(6- x), 3:::; x < 6;
b. f(x) = -ex, -1 <X:::; O; O, caso contrário.
{ ce-6x, X> 0. -1 :::; X :::; O;
2
-~·
c. f(x) = cx 1(-c,c)(x) .
b. f(x) = ~· 0 <X:::; 1;
d. f(x) =c x 2e-x I (o,oo)(x).
3
1, 1 <X:::; 2;
2

e. f(x) = (c+ 1)/I (x) - ch(x), x E lR. e h e h são densidades. o, caso contrário.

23. Determine c, para a expressão abaixo ser função de probabilidade de uma 26. Verifique se a função abaixo é função de distribuição:
variável discreta X.
o, X< 1;
c F(x)= sen1r(x-1), 1 :::; X< 2;
p(x)= x,x=0,1,2, ... { 1- e-(x-2),
3 X 2: 2.

Sendo A= {x E N; x = 2k + 1, k E N} e B = {x E N; x = 3k + 1, k E N},
27. Seja X uma variável aleatória contínua com função de distribuição:
obtenha as probabilidades P(X E A) e P(X E B).
24. Demonstre que as funções abaixo satisfazem as propriedades da função
o, X :::; O;
2
densidade. x /2, 0 <X:::; 1/2;
F(x) =
a. f(x) = (1 -11- xi)I(o,2)(x); modelo Triangular. x3 1/2 <X:::; 1;
'
1, x>l.
b. f(x) = ~ ffl+(~-a)2 , x, a E !R, ,B > O; modelo de Cauchy. Para a = O e
,B = 1 temos o modelo Cauchy Padrão. a. Verifique que F(x) satisfaz as propriedades de função distribuição.
c. f(x) = ~x e-~, x E JR.+; modelo Qui-quadrado. b. Obtenha a f( x) .
2.5 Exercícios 113
112 Capítulo 2: Variáveis Aleatórias

f(x) = { ~~ '
3
28. Seja X uma variável aleatória contínua com densidade se -1::::; x <O;
se O ::::; x < 1;
1 ( jx-o:j) se 1::::; x < 3/2;
f(x) = {J 1- -{3- I(a-{J,a+{J)(x); 2c,
o, caso contrário.
com -oo < o: < {3 e {3 > O.
a. Obtenha a função de distribuição de X. 33. A função de distribuição de X é dada por
b. Determine q tal que P(X > q) =O, 25. se x <O;
29. Seja X uma variável aleatória contínua com função densidade de se O :$ x < o:, o: > O;
se x >o:.
probabilidade dada por: f(x) = 4~ [1- (x~a rJ I(a-fJ,a+{J)(x), com {3 > oe
-oo <o:< {3. a. Obtenha a densidade de X.
a. Verifique que f(x) satisfaz as propriedades de função densidade. b. Na vizinhança de que ponto, teremos probabilidade máxima?
b. Obtenha a função de distribuição de X. 34. Mostre que X é contínua se, e somente se, P(X = x) =O, Vx E R
c. Determines tal que P(X < s) = O, 5.
35. Seja X uma variável com função de distribuição:
30. Para o: constante, O :$ o: ::::; 1, seja X com função de distribuição:
0, X< -2;
o, X::::; O; 2'
ax 0 <X:$ 1;
F(x) = ~ + x! -2 :$X< O;
2,
~ + H1 -e-x),
{
·a-l+x X 2: O.
F(x) = -2- 1 <X:$ 2;
a+l+(l-a)(x-2) a. Classifique X e faça um gráfico de F.
2 2 <X:$ 3;
b. Calcule P(X > -1) e P(X :$ 4j X > O).
1, X > 3. c. Decomponha F nas partes discreta e absolutamente contínua.
a. Verifique que F(x) satisfaz as propriedades de função distribuição. 36. A variável X tem função de distribuição dada por:
b. A variável X é contínua? Se sim, obtenha sua densidade.
0, X< 2;
31. Para X com densidade f( x) = 11- xl I(o, 2)(x), obtenha:
a. A função de distribuição de X.
F(x) = ~ + xw 2
' 2::::; X< 6;
{
b. P(X > 1/2). 1, X 2: 6.
c. P(X < 2/31 X > 1/2).
a. Faça um gráfico de F e classifique a variável X.
32. Uma variável aleatória contínua X tem a densidade dada abaixo. b. Decomponha F em partes discreta e absolutamente contínua.
a. Obtenha o valor de c.
37. Numa certa região a probabilidade de chuva é o:, ~ < o: < 1. Um morador da
b. Determine a função de distribuição de X.
região, acostumado com as variações muito freqüentes no clima, afirma que
c. Calcule P(X > -1/21 X:$ 1/2).
acerta mais do que os meteorologistas. Ele costuma jogar sua moeda, que
d. Qual o valor de b tal que P(X > b) = P(X::::; b)?
indica chuva com probabilidade {3, O < {3 < 1. Suponha que são feitas, de
forma independente, previsões em três dias.

J
- 114 Capítulo 2: Variáveis Aleatórias

a. Discuta o comportamento probabilístico do número de acertos do morador. Capítulo 3


b. Supondo a conhecido, qual deve ser (3 de modo que a probabilidade de três
acertos seja máxima.
c. Um novato na região diz que, para maximizar o acerto, é melhor dizer que Vetores Aleatórios
chove todo dia. O que você acha?
38. Se X"" Gama( a, 1) e Y,...., Poisson(>.), mostre que P(X > >.) = P(Y <a).
39. Seja X uma variável com função de distribuição dada a seguir:
s 3.1 Introdução
a. Calcule P(X < 3IX ~O) e P(X 3IX > 1).
b. Expresse F como a soma ponderada de duas funções de distribuição, uma Em geral, um mesmo fenômeno aleatório pode envolver várias variáveis
discreta e outra absolutamente contínua. de interesse. O estudo conjunto dessas variáveis é o objeto deste capítulo. As
idéias desenvolvidas no capítulo anterior são, agora, estendidas para o que
o, se x < -2;
chamaremos de vetor aleatório. De fato, muitos dos conceitos serão apresentados
f2(x+ 2), se -2 ~ x <O; para duas variáveis, mas serão, na sua maioria, válidos para um número finito de
F(x) = f2(x + x + 4),
2
se O ~ x < 1; variáveis. Na Seção 3.2 a generalização da idéia de variável aleatória é
apresentada com a correspondente descrição de sua estrutura probabilística. No
i4(-x2 + 8x + 9), se 1 ~ x < 3; estudo do comportamento conjunto das variáveis, definimos o conceito de
1, se x ~ 3. independência. A independência tem um papel importante em probabilidade,
amostragem e em muitos métodos estatísticos. Na Seção 3.3, funções de variáveis
40. Escreva a função de distribuição abaixo na forma aFac(x) + (1- a)Fd(x), aleatórias são discutidas. Ainda, nessa seção, descrevemos o método do Jacobiano
em que a E (0, 1) e pac(x) e Fd(x) são funções de distribuição aplicado para transformação de vetores aleatórios.
absolutamente contínua e discreta, respectivamente.
o, se x <O; 3.2 Vetores Aleatórios
~ + lx(x + 2), se O ~ x < 1; A realização de um fenômeno aleatório pode ensejar muitas perguntas de
F(x) = interesse. Em termos gerais, quando uma coleta de dados é realizada, quase
{ ~· se 1 ~ x < 4/3; sempre, ela envolve várias variáveis. Trabalhar conjuntamente com duas ou mais
1, se x ~ 4/3. variáveis é, assim, um caminho natural para responder muitas perguntas práticas.
Mesmo em fenômenos aleatórios relativamente simples podemos definir mais de
41. Sendo X"" B(n, p) , qual é o valor k, k inteiro entre O e n, que tem
probabilidade máxima? uma variável de interesse. Nesta seção, formalizamos o tratamento probabilístico
de conjuntos de variáveis aleatórias. Para distinguir do caso unidimensional,
42. Para X"" Poisson(>.), qual é o valor k, k ~ O inteiro, que tem probabilidade usaremos negrito quando tivermos mais de uma variável.
máxima?
Definição 3.1: Vetor Aleatório
2
43. Sendo X"" N(J-l, u ), qual é o valor x que tem probabilidade máxima?
Seja (0, F, P) um espaço de probabilidade. Definimos como vetor
44. Sendo X"" Exp(>.) , qual é o valor x que tem probabilidade máxima? aleatório, variável aleatória multidimensional ou variável aleatória multivariada
a uma função X de O em JRm que seja F-mensurável. Em outras palavras, a
função representada por X(w) = (X1(w), X2(w), ... , Xm(w)) é tal que para todo
i = 1, 2, ... me todo l i c JR, temos X;- 1 (/i) E F. O

115
116 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 117

Na definição de vetor aleatório, está implícito que X1, X2, ... , Xm são atendimento. A segunda variável de interesse é o tempo de atendimento em
variáveis aleatórias no mesmo espaço de probabilidade (O, :F, P). Isto segue do minutos, representado por X 2 • Vamos supor que o comportamento conjunto
requisito de que a imagem inversa de cada um dos X; 's esteja em :F, ou seja, para dessas variáveis se dá segundo a função de distribuição conjunta apresentada a
todo I; c lR o conjunto X; 1 (J;) é um evento. Assim, seguir:
m
{w: Xl(w)::::; X}, •.• ,Xm(w)::::; Xm} = n {w: X;(w)::::; x;},
i=l
X} < oou X2 < O;
x1 ~ O,x2 ~O.
também é um evento, pois é a intersecção de elementos da a-álgebra :F.
Da mesma forma que no caso univariado, definimos uma função que A qualidade do serviço de reservas dessa companhia poderia, então, ser avaliado
caracteriza, de modo único, o comportamento probabilístico do vetor aleatório. levando em conta as probabilidades dos tempos de demora e atendimento. O
Definição 3.2: Função de Distribuição Conjunta Na próxima proposição, apresentamos algumas propriedades da função de
A função de distribuição conjunta de X é definida por distribuição conjunta.
F(x) = F(xl,X2,·· ··xm) = P(X1::::; x1,X2::::; x2, ... ,Xm::::; Xm), Proposição 3.1: Propriedades da Função de distribuição Conjunta

D Seja X um vetor aleatório em (0, :F, P) então, para qualquer x E lRm,


para qualquer x = (x1, x2, ... , Xm) E lRm.
F(x) satisfaz as seguintes propriedades:
Exemplo 3.1: Uma máquina automática faz furos em uma chapa de aço e trabalha
diariamente até quebrar. Existem dois tipos de chapas com diferentes durezas. (FCl) F(x) é não decrescente em cada uma de suas coordenadas;
Essas chapas alimentam o funcionamento da máquina de uma forma aleatória. (FC2) F(x) é contínua à direita em cada uma de suas coordenadas;
Assim, ao quebrar, a máquina poderia estar furando qualquer uma das chapas. No (FC3) Se para algum j, xi-+ -oo, então F(x)-+ Oe, ainda,
momento de quebra da máquina, duas variáveis são de interesse: X 1 com os se para todo j, x;--+oo, então F(x)-+ 1;
valores oe 1, indicando o tipo da chapa em operação e x2 o número de dias desde (FC4) F(x) é tal que, para Va;, b; E JR, a; < b;, 1 ::::; i ::::; m, temos
a última quebra. Admitimos a seguinte função de distribuição conjunta para as P(a 1 < X 1 ::::; b1. a2 < X2 ::::; ~ .... , am < Xm ::::; bm) ~ O.
variáveis:
Demonstração:
o, X} < oou X2 < O;
[x2] As propriedades são verificadas, observando-se o comportamento dos
~ l:(!)i+ 1, O::::; x 1 < 1,x2 ~O; respectivos eventos.
j=O Para (FCI), considere um j qualquer fixado e ai ::::; bi. Observe que o
[x2] m
E(!)i+l, x1 ~ 1,x2 ~O; conjunto n {w: X;(w)::::; x;} n {w: Xi(w)::::; ai}
i=l
está contido na seguinte
j=O
i#i
em que [x 2] indica o maior inteiro menor ou igual a x 2 •
A partir dessa estrutura de probabilidade, poderíamos avaliar o efeito do
intersecção de conjuntos: n{w: X;(w)::::; x;} n {w: Xi (w)::::; bi}· Logo, a
m

i=l
ih
tipo de chapa no funcionamento da máquina, bem como estabelecer programas de aplicação de probabilidade nesses conjuntos, verifica a propriedade.
manutenção preventiva. O
A demonstração de (FC2) é análoga ao caso uni variado.
Exemplo 3.2: Considere uma central de reservas de uma companhia aérea e, para Para (FC3), seja Xj tal que Xj-+-oo então {w: Xj(w)::::; xj}! 0 e,
uma chamada ao acaso, estamos interessados em duas quantidades aleatórias. A portanto, F(x)-+0. Se todos os Xfs vão para oo, então cada um dos eventos
variável xl é o tempo de espera, em minutos, para o cliente iniciar seu
(

( 118 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 119


(
(
( { w : X i( w) :::; x i} cresce para O. Assim, a intersecção de todos eles cresce pontos (x, y) f/: S, a continuidade à direita é verificada, uma vez que G tem
também para O. Dessa forma, a propriedade (FC3) está demonstrada. sempre o valor Onessa região.
( A propriedade (FC4) é válida pela definição de probabilidade, desde que
( estejamos calculando a probabilidade de um conjunto de F. Mas esse é o caso,

/
pois para cada i, i = 1, 2, · · ·, m temos
(
( {w: a; < Xi(w) :5 bi} E F e, portanto, nm
{w : a; < X;( w ) :5 bi} E F ; s
(
(
i=l

e, assim, a demonstração da proposição está completa. D /


(
r
Essas propriedades também podem servir como definição. Isto é, qualquer
função de :!Rm em [0, 1] , satisfazendo (FC1)-(FC4), é função de distribuição
conjunta de algum vetor aleatório. A demonstração não será feita e o leitor (0,0)
i
( interessado pode consultar Tucker [67].
A propriedade (FC4) parece tão óbvia que poderíamos questionar a
(
necessidade de mencioná-la. Cabe notar que, no caso unidimensional, não foi Figura 3.1: Região S para a função G(x, y).
( necessário incluirmos (FC4) para caracterizar a função de distribuição, mas no
( caso multidimensional ela é essencial. Como veremos no exemplo abaixo, existem
A função G não satisfaz (FC4) e, portanto, não pode ser função de
funções multivariadas que satisfazem todas as propriedades exceto (FC4), não
( distribuição conjunta. Observe que
sendo, portanto, função de distribuição de nenhum vetor aleatório.
( Uma forma conveniente de apresentar a propriedade (FC4) é através da P(O <X:::; 1, O< Y:::; 1) = G(1, 1)- G(1 , O)- G(O, 1) + G(O, O) = - 1,
sucessiva aplicação de operadores-diferença. Sendo I; o intervalo (a;, b;], o
( operador resulta na diferença entre os valores da função quando somente a que contradiz (FC4). D
coordenada i é alterada de a; para b;. Denotando por 6.;,1; temos, por exemplo, No cálculo de probabilidades com vetores aleatórios, levamos em conta a
classificação de cada uma das variáveis envolvidas. As definições, apresentadas a
6.2,12 F(x) = F(x1, b2, ... , Xm) - F(x1, a2, ... , Xm).
seguir, auxiliam os cálculos nos vários casos de interesse. Inicialmente, obtemos a
Assim, a propriedade (FC4) pode ser escrita como 6.1,11 ••• 6.m,I, F(x) ~ O. distribuição de cada variável isoladamente, dada a função de distribuição conjunta
do vetor aleatório. Note que, exceto em situações especiais, não se pode obter a
Exemplo 3.3: (]ames [81]) conjunta do vetor partindo das funções de distribuição de cada componente.
Considere a seguinte função (ver região Sem figura a seguir): Definição 3.3: Função de Distribuição Marginal
emS = {( x, y): x ~ O,y ~ Oex+y ~ 1}; Seja F(x) a função de distribuição de (X1, X2, ... , Xm). Para cada k,
.
G(x, y) =
{ 1
o: caso contrário. k = 1, 2, .. ·, m, definimos a função de distribuição marginal de xk por:

A região S é apresentada em figura a seguir Fxk(xk) = lim F(x),


xr-+oo
As propriedades (FC1)-(FC3) são verificadas sem dificuldade. Por exemplo, para V; -1 k
(FC3), tomando um ponto (x, y) E S ,observamos que a continuidade à direita se
verifica nas duas coordenadas, pois a fronteira faz parte de S. Também, para em que o limite é aplicado em todas as coordenadas, exceto k. D
120 Capftulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 121

Definição 3.4: Vetor Discreto, Probabilidade Conjunta e Marginal Nessa tabela, o corpo representa a distribuição conjunta e as últimas linha e
coluna fornecem as distribuições marginais. Na tabela apresentada X 1 assume os
Se as variáveis do vetor aleatório são discretas, temos um vetor aleatório valores ai> a2, ···,ar e X2 os valores b1, b2, · · ·, b•. Observe que as distribuições
discreto. Sua função de probabilidade conjunta é definida da seguinte forma: marginais das duas variáveis são obtidas através da soma de linhas e colunas
p(x) = p(xi. X2, .. ·, Xm) = P(Xl =X!, x2 = X2, ... 'Xm = Xm)· correspondentes.

A função de probabilidade marginal de Xk, k = 1, 2, · · ·, m é dada por: Exemplo 3.4: Duas moedas equilibradas são lançadas de forma independente e
definimos as variáveis aleatórias X e Y da seguinte forma:
X : número de caras nos dois lançamentos;
Xi X; Y : função indicadora de faces iguais nos dois lançamentos.
Vi# V;"'t
O espaço de probabilidade (0, F, P) pode ser construído como usual.
ou seja, a marginal vem da soma em todas as coordenadas, exceto k. o Consideramos O todos os 4 pares de resultados possíves e F a u-álgebra das
Note que a idéia da marginal se aplica para mais de uma variável. Se partes de O. A função de probabilidade P atribui igual probabilidade aos
desejamos a função de probabilidade conjunta (marginal) de algumas das m elementos de n.
variáveis, somamos em todas as coordenadas, exceto as das variáveis de interesse. Para calcular as probabilidades conjuntas sempre nos reportamos aos
pontos de O, pois as variáveis aleatórias são funções das ocorrências do espaço
Proposição 3.2: Propriedades da Função de Probabilidade Conjunta amostrai. Representando por C e K, os eventos cara e coroa, respectivamente,
Seja X um vetor aleatório discreto em (0, F, P). Então sua função de temos:
probabilidade conjunta (fpc) satisfaz as propriedades: y
Eventos prob. X
(fpcl) p(x) ~ O, Vx E lRm; (C , C) 1/4 2 1
(fpc2) LP(x) = 1. (C,K) 1/4 1 o
X (K,C) 1/4 1 o
Demonstração:
(K,K) 1/4 o 1

As provas são análogas ao caso univariado e serão omitidas. o Coletando os valores comuns dos pares (X, Y), obtemos a probabilidade conjunta
apresentada, a seguir, na forma de uma tabela de dupla entrada.
A função de probabilidade e a função de distribuição podem ser obtidas,
uma a partir da outra, de forma similar ao que é feito no caso unidimensional. X\Y o1 P(X = x)
No caso especial de duas variáveis discretas, é conveniente a o o
1/4 1/4
representação da função de probabilidade através da tabela de dupla entrada: 1 1/2 o 1/2
2 o 1/4 1/4
X1 \ X 2 b! ... b. P(X 1 = xi) P(Y = y) 1/2 1/2 1
a1 p(a 1 ,bi) ... p(ah b,) Px,(ai) Para calcular a função de distribuição conjunta de X e Y é necessário separar em
vários casos, percorrendo intervalos de valores em cada variável. O gráfico a
seguir apresenta as várias regiões, correspondentes aos diversos casos. As
ar p(a, b1) ... p(a, b.,) Px,(ar) fronteiras de cada região não foram assinaladas, para evitar congestionar o
... gráfico.
P(X2 = x1) Px,(bJ) Px,(b.,) 1
122 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 123

y
condições para seus valores, de modo que as propriedades da função de
probabilidade conjunta estejam satisfeitas.

SJ ss s7 X\Y o 1 2 3

1
o a a+b-~ b 5
s2 s4 só
i (0,0)
1 1
5 2(a+b-~) ~-a ~-b

SI -~····*·~'"-····~·~
·----> A primeira condição requer que as probabilidades conjuntas sejam não negativas.

/ Assim, temos que atender simultaneamente às desigualdades:

a
1
> O· a + b - -5>-
1
O· b > O· - - a >
1
O· - - b > O.
-' ' - '5 - '5 -
Figura 3.2: Partição dos valores de (X, Y).
Logo ficamos restritos à Rt = { (a, b) : q~ a ~ L o ~ b ~ ~ 'a + b :::: n.
Dessa forma, a função de distribuição conjunta pode ser expressa da Impondo que a soma de todas as probabilidades conjuntas seja igual a 1, vem
seguinte forma: 1 1
a + (a +b- -)
5
+ b .+ ··· + (-5 - b) = 1.
o, em sl = {(x, y ): X< o ou y <O};
o, em 8 2 = {(x, y): O ~ x < 1, O~ y < 1} ; Daí, resulta em R2 = {(a, b) :a+ b = fs }· Os valores de a e b precisam estar
1/4, emS3 = {(x,y): O~ x < 1,y;::: 1};
na intersecção dos conjuntos R 1e R 2 . Assim,
Fx,y(x,y) = 1/2, emS4 = {(x,y): 1 ~ x < 2,0 ~ y < 1};
3/4, emS5 = {(x,y): 1 ~ x < 2,y;::: 1};
1/2, emS6 = {(x,y): x;::: 2,0 ~ y < 1};
1, emS1 = {(x,y): x;::: 2,y;::: 1}. Tomando as constantes no conjunto R, garantimos que a tabela acima representa
uma função de probabilidade conjunta de duas variáveis. O
Observe que podemos resumir a apresentação da função se agregarmos os valores
comuns. Entretanto, optamos por essa forma inicial de apresentação para Definição 3.5: Vetor Contínuo, Densidade Conjunta e Marginal
evidenciar o cuidado que é preciso ter no estabelecimento das regiões Denominamos vetor aleatório contínuo o vetor aleatório cujas
convenientes para o cálculo de Fx,Y· Fica a cargo do leitor reescrever a função componentes são variáveis aleatórias contínuas. Em outras palavras, um vetor
numa forma mais resumida e também verificar que estão satisfeitas as aleatório é contínuo se, dada a função de distribuição F, existe uma função
propriedades de função de distribuição. O f : IRm --+ IR+, denominada/unção densidade conjunta (fdc), tal que
Exemplo 3.5: A tabela abaixo apresenta valores de probabilidade conjunta de
duas variáveis X e Y em função de constantes reais a e b. Vamos determinar
124 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 125

A função densidade marginal é dada pela expressão: uma vez que e-Y• 2': e- 112 . Logo, Fx,Y é não decrescente em cada uma das
coordenadas e (FCI) está satisfeita nessa região (complete para as outras!).
f xk(xk) = r... r f(x) dxl dx2(i .. ·dxm.
Jxl lxm i- k)
As propriedades (FC2) e (FC3) são verificadas sem dificuldade.
Para (FC4) devemos provar que Fx,y(x, y) é tal que, para V a;, b; E JR,
(i i- k)
a; < b; e intervalo/; = (a;, b;], 1 ~ i ~ 2, temos
D
P(a1 <X~ bt,a2 < Y ~ b2) = 6.1,11 6.2,12 Fx,Y(x,y) 2': O.
Note que a função densidade f(x) é obtida a partir de F por sucessivas
derivadas parciais, generalizando, assim, o caso univariado. Se desejamos a Podemos escrever essa condição (ver exercício), da seguinte forma:
marginal conjunta de l variáveis, procedemos de modo similar ao caso discreto, Fx,y(bl, ~) + Fx,y(al, a2)- Fx,y(al, b2)- Fx,Y (bl, a2) 2': O.
integrando todas as variáveis exceto as de interesse.
Considere que I;, i= 1, 2 estão na região O ~ x < 5 e y 2': O. Temos
Proposição 3.3: Propriedades da Função Densidade Conjunta
Seja X um vetor aleatório contínuo em (0, F , P). Então sua função bl (1 -e-~)+ al (1- e-a2) - al (1- e-~) - bl (1 - e-a2)
5 5 5 5 '
densidade conjunta (fdc) satisfaz as propriedades:
(fdcl) f(x) 2': O, 'Vx E JRm; que, após simplificação, torna-se (b•;a.) (e-a 2 - e-~). Essa é uma quantidade não
negativa, pois a2 < b2. Para as outras éscolhas de região para os intervalos/; 's, a
(fdc2) I:· ··l:f(x) dx1 dx2 · · ·dxm = 1. verificação de (FC4) é análoga.
Assim, valem as propriedades de função de distribuição conjunta.
Demonstração: Para obter as funções de distribuição marginais, passamos ao limite,
lembrando que Fx,y(x, y) é nula se x <O ou y < 0:
As provas serão omitidas, mas são similares ao caso univariado. D
lim ~ (1 - e-Y) = x/5, se O ~ x < 5;
Exemplo 3.6: A função de distribuição conjunta de X e Y é dada por: . y-.oo 5
Fx(x) = hm Fx,y(x, y) = . (
11m 1 - e
-y) -_ ,
1
5
se x 2': .
y-.oo { y-<oo
se x < Oou y < O;
se O ~ x < 5, y 2': O; Fy(y) = lim Fx,y(x, y) =x-oo
lim (1 - e-Y) =1- e-Y, y 2': O.
x~oo
se x 2': 5, y 2': O.
As funções densidades podem ser obtidas, a partir da derivação das
Vamos verificar as propriedades da função de distribuição na região respectivas funções de distribuição.
O~ x < 5 e y 2': O. Nas demais regiões, as provas são similares. ô2 { ! e-Y se O ~ x ~ 5, y 2': O;
Para provar (FCI) escolha x 1 ~ x2 em [0, 5) e fixe y 2': O. Então, fx,y(x, y) = ôx ôy Fx,y(x, y) = 8, '
caso contrário.
X1 X2 (1- e-Y) = Fx,y(x2, y ) . ô {!' se O ~ x ~ 5;
Fx,Y(Xt, y) =
5 (1 - e~Y) ~
5 fx(x) = ôx Fx(x) = 8, caso contrário.
Considere, agora, y 1 ~ y2 em [O, oo) mantendo x fixo (x E [0, 5)). Temos, ô { se y 2': O;
~'
-y
fy(y) = ôy Fy(y) = ' caso contrário.
Fx,y(x, Yl) =
X
5 (1- e-Y•) ~ 5X {1- e-112 ) = Fx,y(x, Y2),
Note que as densidades de X e Y correspondem aos modelos Uc(O, 5) e Exp(1) ,
respectivamente. Elas poderiam, também, ser obtidas através das marginais da
densidade conjunta. D
3.2 Vetores Aleatórios 127
126 Capítulo 3: Vetores Aleatórios

Exemplo 3.7: (Dudewicz e Mishra [88]) caracterizar o comportamento probabilístico conjunto dessas variáveis. Para
calcular a probabilidade de (X , Y) pertencer a uma certa região do plano xy,
Vamos obter o valor de k, de modo que a função abaixo seja a densidade somamos os valores para a variável X e integramos para os de Y.
conjunta de três variáveis aleatórias contínuas X, Y e Z. Vamos supor que a função mista de probabilidade conjunta de X e Y é
dada por:
f(x,y,z) = {kxy 2 z seO ~ x ~ ~,0 ~ y ~ 1,0 ~ z ~ J2;
~'
{ O,
O caso contrário.
f(x,y) = 3 sex = 1,2,3e0 ~ y ~ 1;
A função será positiva, se k for positivo. Para valer a segunda propriedade da caso contrário.
função densidade conjunta, impomos que a integral tripla de menos a mais
infinito seja 1. Isto é Para verificar se essa função poderá gerar probabilidades, observamos que é
positiva e vamos mostrar que ao percorrer todos os valores possíveis para X e Y,
via soma ou integral conforme o caso, obtemos o valor 1. Existindo o resultado
1:1:1:/(x,y ,z)dxdydz = 1. dessa dupla operação, podemos fazê-la em qualquer ordem. Entretanto, é mais
fácil fazer a integral primeiro. Temos
Temos
3 t 3 {1 xyx-1 3 1
rv'2 { t
1
kxy 2 zdxdydz = rv'2f\y 2 z! dydz = rv'2 kz!6 dz = ~-6
lo
~lo f(x,y)dy = ~1o -3-dy =~3= 1;
lo lo lo lo lo 2
logo f(x, y) pode ser considerada uma probabilidade. Por exemplo,
Segue então que k = 6.
A marginal de X pode ser obtida, integrando-se em y e z para todos os
valores possíveis. Temos, para O ~ x < 1, P(X 2: 2, Y 2: 1/2) = t{
x=211/2
1
xy;- dy
1
= t(
x=2
1
- ~/ 2 Y) = 13/24.
fx(x) =
100100 f(x,y,z)dydz =
1../2116xy zdydz = 2x.
O
2
Para obter a função mista de distribuição conjunta, teremos que separar
-oo -oo O
várias regiões de valores do par (x, y). Após algum trabalho, obtemos:
Pela conjunta, sabemos que X tem valores apenas em [O, 1] e, portanto, o, se x < 1 ou y < O;
fx(x) = 2x I[o,1j(x). ll,
3
se 1 ~ x < 2,0 ~ y < 1;
ll±i se 2 ~ x < 3,0 ~ y < 1;
Logo, X ""' Beta(2, 1). As outras marginais são calculadas de modo similar. O 3 '
F(x,y) = liliC±Jl se x 2: 3, O~ y < 1;
'
Se as variáveis não são do mesmo tipo, ainda é possível a obtenção da 3
!, se 1 ~ x < 2, y 2: 1;
função de distribuição conjunta. Nesses casos não existe nomenclatura padrão. 3
Para a situação em que temos mistura da densidade com a função de
a,3 se 2 ~ x < 3, y 2: 1;
probabilidade, usaremos a notação das variáveis contínuas, indicando por f essas 1, se x 2: 3, y 2: 1.
funções. As propriedades são equivalentes aos casos sem mistura.
o
Exemplo 3.8: Função Mista (DeGroot e Schervich [02])
Ao tratar com vanas variáveis é comum haver interesse em obter o
Considere duas variáveis aleatórias X e Y, sendo X discreta e Y comportamento condicional de uma delas em função de outras. Os valores das
contínua. Nós podemos usar a função mista de probabilidade conjunta para variáveis induzem eventos e, portanto, ao condicionar na ocorrência de certos
(
( 128 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 129
(
(
( valores de uma variável, estamos, de fato, condicionando em eventos. Dessa Tomando B = ( -oo, x], x E JR, podemos obter a função de distribuição
forma, a definição de probabilidade condicional pode também ser aplicada para o condicional de X, dado Y = y:
( condicionamento entre variáveis aleatórias.
Observe que, na definição de uma variável aleatória X em (n, .r, P),
y _ ) _ P([X S x] n [Y = y]).
( FxiY (x I - Y - P(Y = y)
(
requeremos que o conjunto {w : X ( w) S x} estivesse em .r,
para todo x real.
Assim, a ocorrência de valores de uma variável pode ser descrita de duas formas:
Como conseqüência, temos:
( pelo próprio conjunto de valores assumidos, isto é, por um elemento de B(JR) (a-
(
álgebra de Borel em JR) ou por um evento da a-álgebra .r
que foi induzido por Fx(x) = LP(Y = y)FxiY(xl Y = y).
esse boreliano através da variável aleatória. Num estudo mais formal do y
( condicionamento em variáveis aleatórias, essas duas formas podem ser usadas
alternativamente conforme a conveniência da situação. Em algumas situações, é útil escrever a função de distribuição conjunta a partir da
(
Vamos restringir nossa apresentação ao caso bivariado, mas as idéias condicional:
( podem ser estendidas para o caso multivariado.
( Definição 3.6: Distribuição Condicional
Fx,y(x, y) =L P(Y = k)FxiY(xl Y = k).
k:kSy
( Sejam X e Y duas variáveis em (n, .r, P) e B 1 , B 2 E B(JR) com
Essa expressão é similar à regra do produto de probabilidades, aplicada aqui para
( P(Y E B2) >O. Definimos a distribuição condicional de X dado Y E B2, pela
variáveis aleatórias e função de distribuição.
expressão
( Se X também for discreta, a probabilidade condicional pode ser reescrita
P(X B Iy B ) = P([X E B1] n (Y E B2]). na notação de função de probabilidade da seguinte forma:
( 1 2
E E P(Y E B2)
_ Px,y(x,y).
( PXIY (X IY) - py(y)
(
Se P(Y E B2) = O, definimos P(X E B 1 1Y E B 2) = P(X E Bl). o
Apresentamos, a seguir, algumas fórmulas úteis para o cálculo com As outras fórmulas se adaptam convenientemente.
( probabilidades condicionais. Iniciamos com o condicionamento em uma variável Vamos considerar, agora, o condicionamento em variáveis contínuas.
( 1 discreta. Sendo Y contínua, é freqüente um abuso de notação indicando um
Seja Y uma variável discreta e y E lR tal que P(Y = y) > O. Sendo X condicionamento em eventos do tipo [Y = y] que tem probabilidade zero. Nesse
(
uma variável qualquer e B E B(JR), temos caso, a probabilidade condicional deve ser entendida como o limite de
( probabilidades condicionadas em [y- e S Y S y + t:] quando t:-+0. Isto é, para
P(X E Bl y = y) = P([X E B] n [Y = y]), X uma variável qualquer e B E B(JR),
(
P(Y = y)
P(X E Bl Y = y) = limP(X E Bl y- E S Y S Y + t:).
que, com alguma manipulação, resulta na expressão: f-->Ü

Se X e Y são ambas variáveis contínuas, podemos usar a interpretação


P(X E B) = LP(Y = y)P(X E Bl y = y) . acima para definir a densidade condicional de X dado Y:
y
_ !x,y(x,y),
Essa é uma versão, para variáveis aleatórias, da Lei da Probabilidade Total. f XIY (X IY) - jy(y)
-
-
~

Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 131


130

cuja expressão nada mais é do que a conjunta dividida pela marginal. A função de
f(2,y) =2y/3=2y O<y<1·
f( y lx =2)= P(X
distribuição condicional é definida de modo similar. Observe que o = 2) 1/3 ' - - '
relacionamento entre função densidade e função de distribuição também se
preserva com o condicionamento. Isto é, f( X IY -- 1/2) = f(x, 1/2) = l[x(1/2}"'-1 J = _! [x(1/2)"'-1] x =1
1
2 3·
jy(1/2) 11/12 11 ' ' '

FxiY(xiy) = ~~fx!Y(ziy) dz . os cálculos das marginais foram omitidos, mas podem ser feitos sem dificuldade.
Para as funções de distribuição condicionais teríamos:
Como conseqüência, as seguintes fórmulas são também válidas:
y ly 2

Fx ,y(x, y) = ~~Jy(z)FxiY(xiz)dz;
Para O:::; y :::; 1: Fy 1x(Yi X = 2) =
l _
00
/ (zi X= 2) dz = -oo 2z dz = Y,

e, portanto,
Fx(x) = J:Jy (y ) Fx!Y(xiy) dy.
se y < O;
se O:::; y :::; 1;
Ressaltamos que, de um modo mais geral, a função de distribuição se y > 1.
condicional pode ser caracterizada como a solução das seguintes equações (já
apresentadas): Por outro lado, para FxiY(xi Y = 1/2), x E lR. temos

Fx,y(x, y) =L P (Y = k)FxiY(xi Y = k ), se Y é discreta; F,\'[Y(xi Y = 1/2) =L


nún(3,[x])
fx!Y(ki Y = 1/2);
k:k~y
k=l

Fx,y(x, y) = ~~ fy(z) FxiY(xiz) dz, se Y é contínua.


que resulta em
o, se x < 1;
Assim, conhecendo-se a conjunta e a marginal, a função de distribuição 4
se 1 :::; x < 2;
TI'
condicional será aquela que satisfaz a conveniente equação, dentre as duas acima. FxiY(xi Y = 1/2) = -ª- se 2 S x < 3;
{ n'
Exemplo 3.9: (Continuação do Exemplo 3.8) 1, se x ~ 3.
No Exemplo 3.8, a variável X é discreta, Y é contínua e sua função mista
Outras quantidades podem ser obtidas de modo similar. o
de probabilidade conjunta é a seguinte:
Exemplo 3.10: As variáveis X e Y têm densidade dada por
f (x, y) = ~'
{ o,
3
se x = 1,2, 3e0 :::;
caso contrário.
y :::; 1;
f(x, y) = (x + y), O S x :::; 1, O S Y S 1.
Vamos obter a densidade condicional fx[Y· Inicialmente, calculamos a marginal
Vamos obter algumas probabilidades condicionais calculando suas expressões,
de Y. Temos
apenas, nos intervalos em que não se anulam. Temos
fl 1
Jy(y) =lo (x + y) dx = y+ 2' OS y S 1.
132 Capitulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 133

Então, para qualquer y fixado, com O~ y ~ 1: Definição 3.7: Independência entre Variáveis
f(x,y) Duas variáveis aleatórias, X e Y em (n, F, 'P), são independentes se a
x+y 2(x+y) .
fxiY(xjy) = Jy(y) = y +
112
= 2y + 1 , para O ~ x ~ 1. informação sobre uma delas não altera a probabilidade de ocorrência da outra.
Isto é, para qualquer B1. B2 E B(R),
Fora desse intervalo, fxiY( xjy) é zero.
P(X E B1i Y E B2) = P(X E B1).
A função de distribuição condicional pode ser obtida a partir da
integração da densidade condicional. Assim, para qualquer y fixado com Uma definição alternativa e equivalente é:
O ~ y ~ 1 e O ~ x ~ 1, vem: X, Y independentes se, e somente se,
F (
XIY X
I )=
Y
r 2(z+y) d
}_co 2y + 1 Z
= x(2y+x),
2y + 1
VB1.B2 E B(R),P(XE B1,YE B2) = P(XE BI)P(YE B2).
o
e, portanto,
Note que não basta valer a igualdade para algumas escolhas dos
o, se x <O; borelianos B 1 e B 2 nau-álgebra B(R). É necessário valer para todas.
A definição alternativa é muito útil e freqüentemente mais prática de ser
FxiY(xjy) = x~::;>, se O ~ x < 1;
{ 1, se x 2: 1.
usada. Em tefl!I:OS da função de distribuição, a definição alternativa pode ser
escrita como:
A função de distribuição conjunta pode ser obtida a partir da condicional, X, Y independentes {::} Fx,v(x, y) = Fx(x) Fy(y), V(x, y) E R 2 •
da seguinte forma:
Para as discretas, podemos escrever uma definição equivalente com o uso de
o, se x < Oou y < O;
funções de probabilidade:
Hx2y+xy2), se O ~ x < 1,0 ~ y < 1;
Fx,v(x, y) = [~!v(z)FxiY(xiz) dz = Hx+x2), se O ~ x < 1,y ~ 1; X, Y independentes {::} Px,v(x, y) = px(x) py(y), V(x, y) E R 2 •
Hy+y2), se x ~ 1, O ~ y < 1;
Para as contínuas, a condição de independência usa as densidades:
1, se x ~ 1, y ~ 1.
X, Y independentes {::} !x,v(x, y) = fx(x) fy(y), V(x, y) E R 2 ,
Deixamos ao leitor a tarefa de verificar se essa expressão está correta, o que pode
ser feito calculando seu valor diretamente pela densidade conjunta. O em que ressaltamos que esta última igualdade deve valer exceto, eventualmente,
Um dos conceitos mais importantes em Probabilidade e Estatística é o da em conjuntos com probabilidade zero.
independência entre variáveis. Muitas das técnicas estatísticas só podem ser Em geral, dizemos que as variáveis X1. X2, .. ·, Xn definidas em um
aplicadas em amostras cujos elementos foram supostamente coletados de forma mesmo espaço de probabilidade (n, :F, 'P) são independentes, se
independente. Nesses casos, as variáveis observadas em uma unidade amostrai VB; E B(IR), i= 1, 2, .. ·, n, tivermos:
são independentes daquelas de uma outra unidade. De fato, a independência é um
n
requisito importante que permite resolver, com rigor matemático e sem
aproximações, muitos problemas de interesse prático. Como em muitas situações,
P(X1 E B1. .. ·, Xn E Bn) = 11P(X; E B;).
i=l
a independência não pode ser assumida, sua imposição serve como uma
aproximação da realidade e origina, nesses casos, uma solução também
aproximada.
134 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 135


Segue dessa expressão que qualquer sub-fanu1ia dessas variáveis também é Assim, a probabilidade de não haver casos de crianças alérgicas (X= 0), não
formada por variáveis independentes. A verificação é simples, bastando tomar os sofre influência da ocorrência ou não de casos de pneumonia. Entretanto, para
convenientes B; 's = JR. outros valores de X a situação é diferente, conforme apresentamos na tabela
abaixo:
Exemplo 3.11: Com base em resultados do Posto de Saúde do bairro, estabeleceu-
se a função de probabilidade conjunta entre os números diários de crianças X P(X = x jY > O) P (X = x jY = O)
atendidas com alergia (X) e com pneumonia (Y). Na tabela abaixo, apresentamos o 1/4 1/4
a conjunta e as marginais para essas variáveis. 1 1/6 1/2
X\Y o 1 2 P(X = x) 2 1/3 1/4
o 1/16 1/ 16 1/ 8 1/4 3 1/4 o
1 1/8 1/8 o 1/ 4 Observe que as probabilidades condicionais somente são iguais para [X= 0] .
2 1/ 16 1/ 8 1/8 5/16 Para os outros valores, a probabilidade condicional de X é crescente ou
3 o 1/ 8 1/ 16 3/16 decrescente, se condicionada ao evento [Y > O] ou [Y = 0], respectivamente.
P(Y = y) 1/4 7/ 16 5/16 1 Dessa forma, enfatizamos que as variáveis são dependentes. O
Se as variáveis fossem independentes, o produto das marginais daria a função de
probabilidade conjunta. Entretanto, isso não ocorre pois
.
Exemplo 3.12: A função densidade conjunta de X e Y é dada por:
1
!x,v(x, y) = x I(o,2j(x )I(o,xj( y).
P(X = 1, Y = 2) = O =f:. P(X = 1) x P(Y = 2) = 5/64. 2

Pela _definição de independência, basta haver um par em que isto não aconteça As marginais são calculadas através de integração:
para quebrar a propriedade de independência. Portanto, os números diários de 1 1
1
x
crianças atendidas com alergia e com pneumonia são variáveis dependentes. f x(x) = -dy
2x
= -2 , O < x:::; 2;
0

=1
Condicionado à ocorrência ou não de casos de pneumonia, como se
..!.._ dx = ~ ( log 2 - log y ) , O < y :::; 2.
2
comporta o número de crianças alérgicas? Pela dependência, esperamos fy (y)
comportamentos diferentes. Vamos calcular a função de probabilidade Y 2x 2
condicional de X dado o evento [Y > O] e comparar seu resultado com o É imediato verificar que f x (x) satisfaz as propriedades de uma densidade.
condicionamento em [Y = 0] . Temos Observe que para calcular a densidade de Y, os limites de integração obedeceram
à condição de que os valores da variável X precisam ser sempre superiores ao de
P(X = OjY O) = P(X = O, y > O) Y. A expressão obtida é efetivamente uma densidade, pois é não negativa (a
> P(Y >O)
função logarítmica é crescente) e também
P(X =O, Y = 1) + P(X =O, Y = 2)
= ---'---=P-:-:(Y~=--=-1:----)+--=P-7=(Y-=-=---=-2):-------'- 121-(log2-logy)dy= [1
-(ylog2-y(logy-1 )) ]2 =1.
= 1/4; 1 o
2
fy(y )dy=
o2 2 o
enquanto As densidades condicionais são calculadas pelo quociente entre a conjunta e a
marginal. Vamos indicar apenas os valores não nulos, temos:
P(X = OjY =O) = P(X =O, y =O) = 1/16 = 1/4.
P(Y =O) 1/4
136 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 137

!x,v(x, y) 1 enquanto que


fxiY(xiy) = Jy(y) = x{log 2 _ log Y) , y ~ x ~ 2, y fixado, y E {0, 2);
1
!x,v(x, y) 1 fx(x)fv(y) = x {log 2 -log y )J(o,2j{x)J(o,2j(y);
fYIX(yix) = fx(x) = ~ , 0 < y ~X, X fixado, X E {0, 2). 4

É importante ressaltar que, no cálculo de densidades condicionais, a expresssão e elas não são iguais para quase todo (x, y) E JR.2. Em outras palavras, existe um
resultante é sempre função do valor usado no condicionamento. Dessa forma, conjunto, com probabilidade positiva, em que a condição de independência não se
fxjY(xiy) depende de y. Se estamos integrando essa função em x, o valor y pode verifica. O
ser considerado constante. Por exemplo, para y E {0, 2) vem Encerramos essa seção com a apresentação de dois modelos
multivariados. O modelo apresentado a seguir generaliza a distribuição Binomial
se 1y < 2;
~
P(X < 1IY = y) = t fxiY(xiy) dx = { OJ,,'
}11
1 d
11 x(log2-log11) X, seO<y<l.
ao tratar com experimentos que têm mais de duas alternativas de resultado.
Definição 3.8: Modelo Multinomial
Então, Considere um experimento com m possíveis resultados, cada um com
m
o, se 1 ~ y < 2; probabilidade p; ;::: O, i = 1, 2, · · ·, m e L.':P; = 1. Esse experimento é repetido n
P(X < 1IY = y) ={ logy
seO<y<l.
i=l
log11-log2 ' vezes de forma independente e observamos as variáveis X 1 ,X2, ···,Xm. que
correspondem ao número de ocorrências de cada um dos possíveis resultados
Temos também que, para x E {0, 2), temos dessas repetições. O vetor aleatório X = {X1 , X2, ... , Xm) segue o modelo
{ rmax(l/2,x) Multinomial com função de probabilidade conjunta dada por:
P(Y < 1/2IX = x) =Jo fvlx(yix) dy
( n'
Px( k 1 ' k 2' ... ' km) -- k, ! k2!. ·.. km! Plk1 P2k2 ... Pmkm '
_ { J;~dy, se O< x ~ 1/2;
m m
\ r' 12 ! dy se !2 <x< com L.':Pi = 1 e L.':k; = n, k; E N, O ~ k; ~ n. D
Jo x , - 2·,
( i=l i=l
1, se O< x ~ 1/2; Exemplo 3.13: Para 10 lançamentos independentes de um dado equilibrado seja
-
{
2~, se~ < x ~ 2. X; o número de ocorrências da face i, i= 1, 2, ... , 6. O vetor aleatório
X = (X,, X2, ... , X6) segue o modelo Multinomial com parâmetros p; = 1/6,
Outras probabilidades podem ser calculadas de modo similar. Deixamos ao leitor i = 1, 2, · · ·, 6. Assim,
a tarefa de verificar que fxiY(xiy) e fvlx(Yix) satisfazem as propriedades de uma
densidade.
Finalmente, observamos que as variáveis não são independentes, pois a
densidade conjunta não é o produto das marginais. Ou seja, temos D
1 Um dos modelos multivariados contínuos mais importante é aquele que
!x,v(x, y) = x I(o,2j(x)J(o,x]{Y),
2 generaliza a distribuição Normal. Vamos apresentar o caso bi-variado e
recomendamos a consulta às referências para o modelo geral.
138 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 139

Definição 3.9: Modelo Normal Bivariado em que, na última passagem, ajeitamos o integrando para obter a densidade
Dizemos que o vetor aleatório X= ( X~, X2) segue o modelo Normal correspondente a uma Normal com J.L = x/2 e a= [f. Logo, concluímos que
Bivariado se sua função densidade é dada por
e-f
1 fx(x) = rn=' -oo < x < oo;
y27l"

que corresponde à densidade da N(O, 1). De modo análogo, teríamos Y "'N(O, 1).
As variáveis não são independentes pois verificamos, facilmente, que o
com (x1,x 2 ) E JR2 e os parâmetros J.LI,J.L2,crhcr2 e p satisfazem às seguintes produto das marginais não resulta na densidade conjunta. D
condições: J.Ll e J.L2 estão em JR., cr1 > O, cr2 > Oe - 1 :S: p :S: 1. D Exercícios da Seção 3.2:
A interpretação dos parâmetros do modelo Normal Bivariado depende de 1. Sejam X e Y variáveis aleatórias em (O, :F, P) com função de distribuição
conceitos apresentados no Capítulo 5. Entretanto, adiantamos que J.L1 e J.L2 são as conjunta dada por Fx,Y· Mostre que P(a 1 <X :S: b1 ,a2 < Y :S: b2), com
médias e cr1 e CF2 são OS desvios-padrão de X 1 e X2, respectivamente. 0 a1, b1, a2 e b2 E JR., pode ser escrita como:
parâmetro p é o coeficiente de correlação entre as variáveis. Usualmente, os
parâmetros J.Ll e J.L 2 são denominados parâmetros de localização, enquanto que cr1 Fx,y(bl, b2) + Fx,y(a~, a~)- Fx,y(al, b2)- Fx,Y(bl, a2).
e cr2 são parâmetros de escala.
2. Mostre que H não é função de distribuição conjunta.
Exemplo 3.14: O vetor (X, Y) segue o modelo Normal Bivariado com
se max(x, y) 2:: O ou x 2 + y 2
parâmetros J.Lx = J.LY = 1, crx = cry = 1 e p = 1/2. Então sua densidade H (x,y) = { ~: caso contrário.
:::; 1;
conjunta é dada por:
3. A densidade conjunta de X e Y é dada por:
Jx ,y(x, y) = 1l"~ e-i(x2+fl-xyl,(x, y) E JR.2.
1
!x,Y(x, y) = 2 IA(x, y) com A= {(x, y) E JR. 2; -1 :S: x :S: 1, O :S: y :S: 1}.
Para a marginal de X temos

fx (x) = 1 00

-oo
fx,Y(x, y)dy = 100
1 2 2
;;;- e-i(x +Y - xy) dy
-oc 7ry 3
a. Calcule as marginais e verifique se X e Y são independentes.
b. Obtenha a densidade condicional de Y dado que X > O.
c. Determine a função de distribuição conjunta entre X e Y.
=e a 1oo - -
-~x2 1 ea -~( y2- xy) d y
4. Sejam X e Y com densidade conjunta:
-oc 7l"y'3
1
2 2 2x21oo
= e-ax eãT --e
1 _lu-t2
dy !x,y(x, y) = ;:fA(x, y) com A= {(x, y) E R; x 2 + y2 :S: 1}.
-oo 7l"y'3
a. Calcule as marginais e verifique se X e Y são independentes.
-- .J2ir
e-21
r2 00

-oo
1
.J2ir [f
e-;zm
(y- ~)2
dy
'
b. Determine a densidade condicional de X dado que Y = 1/2.
140 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 141

5. A densidade conjunta de X e Y é dada por: c. Nas condições de (b), obtenha a marginal de X.

l, se -2 ~ x < 0,0 ~ y ~ 1; 10. Seja F(x, y) a função mista de distribuição conjunta de (X, Y). Suponha que
i• se O ~ x ~ 1,-2 ~ y <O;
F corresponde à densidade Uniforme Contínua sobre o intervalo (0, 1) do
!x,Y(x, y) =
{ eixo y de JR2 •
O, caso contrário.
a. Obtenha F.
a. Calcule as marginais e verifique se X e Y são independentes. b. Mostre que Fx(x) é contínua exceto se x =O.
b. Determine a função de distribuição conjunta entre X e Y. c. Prove que Fy(y) é contínua.
c. Obtenha a função de distribuição condicional de Y dado X= x. d. Você diria que (X, Y) é contínua se, e só se, sua função de distribuição
conjunta induz probabilidade zero a cada ponto (x, y) E JR2 ?
6. Seja Y"' Poisson(>..) e XI(Y = n) "' B(n, p).
a. Calcule a função de probabilidade de X. 3.3 Funções de Variáveis Aleatórias
b. Determine a função de probabilidade condicional de Y dado X= x.
Sendo X uma variável aleatória em (O, F, P), a função ou transformação
7. Um milionário excêntrico, uma vez por semana, deixa seu escritório com X h : X -+R também será uma variável aleatória no mesmo espaço de
milhares de reais no bolso. Ao caminhar para sua casa vai distribuindo esse probabilidade. Dado o conhecimento de X através de, por exemplo, sua função de
dinheiro aos eventuais pedintes que encontra. Admita que X tem densidade de distribuição, desejamos obter o comportamento de h(X). De modo geral,
probabilidade fx(x) = ~ I(o, 4 )(x) e, também que o dinheiro que lhe resta ao podemos ter uma fam1lia de funções atuando sobre um vetor aleatório
chegar em casa, denotado por Y, tem probabilidade uniforme entre zero e o X= (X1, X2, ... , Xm) para produzir um novo vetor aleatório
dinheiro com que deixou o escritório. Isto é, YI(X = x)"' Uc[O, x]. Y = (Yi , Y2, ... , Y;.) de dimensão r, eventualmente igual a m. Nesse caso, X é
a. Calcule a densidade conjunta entre X e Y. um vetor com função de distribuição conjunta conhecida e desejamos o
b. Determine a densidade marginal de Y. comportamento de Y. As dificuldades envolvidas nessa tarefa dependem das
variáveis iniciais e da função de interesse. Em termos matemáticos gerais,
8. A função de distribuição conjunta de (X, Y) é dada por:
dizemos que Y é uma transformação de X.
o, se x < Oou y < O ou x ~ y; Para obter o comportamento probabilístico de transformações uma técnica
2x2y2-x4'
se O ~ x < y, O ~ y < 2; muito conveniente, principalmente no caso discreto, é o chamado método direto.
F. X -
,\,Y( 'y) -
16
8x2-x4' Ele consiste em realizar operações algébricas simples, aplicando a definição da
{ 16 se O ~ x < 2, y ~ 2; transformação diretamente na expressão da função de distribuição (ou função
1, se x ~ 2, y ~ 2, x < y. densidade ou de probabilidade conforme o caso).
Sejam X 1 e X2 duas variáveis discretas com função de probabilidade
a. Obtenha as funções de distribuição marginais de X e Y.
conjunta p(x1,x2) e defina Y = h(X1 ,X2). A variável Y também será discreta
b. Calcule a densidade conjunta entre X e Y.
com valores no contra-domínio da função h. Sua função de probabilidade é dada
c. Calcule as densidades marginais de X e Y de duas maneiras diferentes. por:
9. Considere a função:
lt!:!. se x = O, 1, · · · e y > O;
py(y) = P(Y = y) = P(h(X1, X2) = y) = L p(x1, x2),
fxJY(xiy) = { x! '
(Xi>X2)EAu
o, caso contrário.
em que Ay = {(x 1 , x2) : h(x 1 , x2) = y}. Isto é, para cada y fixado, a soma se dá
a. Mostre que, para cada y fixado, f(.iy) é uma função de probabilidade. em todos os pares (xb x2) cuja aplicação da função h resulta no valor y. A função
b. Determine a conjunta de X e Y se Y "'Exp(1). de distribuição de Y pode ser obtida de maneira análoga.
142 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 143

No caso de funções de variáveis contínuas, é mais conveniente obter Para a conjunta entre X + Y e X - Y, utilizamos novamente a tabela acima
primeiro a função de distribuição. Por exemplo, considere duas variáveis coletando os eventuais pares comuns (que nesse caso não existem):
contínuas xl e x2 com função densidade conjunta f(xl, X2). Seja -2 -1 o 1
X+Y\X-Y
Y = h(X1,X2), temos o
o o o 1/4
Fy(y) = P(Y ~ y) = P(h(X1, X2) ~ y) = 1 o 1/8 o 1/4
o o o
= P((X1, X2) E By) =f f f(x1. x2) dx1 dx2, 2
3
1/8
o 1/4 o o
By
A partir dessa conjunta, outros cálculos de probabilidade podem ser feitos. O
sendo By = {(xb x2) : h(x1, x2) ~ y}. A densidade de Y pode ser calculada por
Exemplo 3.16: Seja X uma variável aleatória contínua com densidade
derivação de Fy(y). Entretanto, às vezes, a densidade pode ser obtida diretamente
f(x) = 4Ir1,3J(x). Vamos obter a função de distribuição e a função densidade de
se for possível reescrever a integral dupla acima na forma:
Y=ex.
Observe que Y será contínua e com valores no intervalo [e, e3]. Sendo
Fy(y) = ~-~g(w)dw. Fy sua função de distribuição, temos de imediato que Fy(y) =O se y < e e
Fy(y) = 1 se y;::: e3 . Para e~ y <é,
Nesse caso, g é a densidade da variável Y.
Fy(y) = P(Y ~ y) = P(ex ~ y) =
Exemplo 3.15: A função de probabilidade conjunta de X e Y é dada na tabela
logy 1 logy- 1
abaixo: = P(X ~ logy) = j
-oo 2l[l,a]dx = 2
. ·
X\Y o 1 2
o 1/4 1/8 1/8 Dessa forma,
1 1/4 o 1/4 o, se y <e;
_ logy-1
Vamos obter o comportamento de X+ Y e X- Y. Uma forma prática de obter Fy (y ) - , se e~ y < e3 ;
as funções de probabilidade dessas variáveis é construir, inicialmente, uma tabela
{ 1, 2 sey;::: é.
com seus valores a partir da conjunta de X e Y.
(X,Y) p(x,y) X+Y X-Y O leitor pode verificar que a densidade de Y é dada por Jy(y) = ty I[e,e3J· O
(0,0) 1/4 o o Exemplo 3.17: Considere a variável aleatória contínua X com valores entre O e 3
(0, 1) 1/8 1 -1 e densidade fx(x) = ~ Iro,aJ(x). A partir dessa variável, uma nova variável é
(0,2) 1/8 2 -2 definida da seguinte forma:
(1, O) 1/4 1 1
(1,2) 1/4 3 -1 se 2 <X~ 3;
caso contrário.
Segue, então, que as funções de probabilidade de interesse são
e X- Y -2 -1 O 1 A variável Y será do tipo misto. Sempre que X estiver em (2, 3], o valor de Y
X+Y O 1 2 3
será 3. A função de diStribuiçã~e Y será dada por:
prob. 1/4 3/8 1/8 1/4 prob. 1/8 3/8 1/4 1/4
144 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 145

Exemplo 3.18: A função densidade conjunta de X e Y é dada por:


o, se y <O;
- y/3, se O$ y < 2; fx ,Y(x, y) = e-(x+y) I(o,oo)(x)I(o,oo)(Y).
Fy(y)- 2/3, se 2$ y < 3;
{ Vamos determinar a função de distribuição de Z = 2X + Y. Observe que a
1, se y ~ 3.
variável Z é sempre positiva. Dessa forma, para z <O, temos Fz(z ) =O. Para
O gráfico de Fy (y) é representado a seguir e pode-se observar que no ponto z ~o,
y = 3 a função é descontínua.
Fz(z) = P(2X + Y $ z) = P((X, Y) E Bz) =f f fx,y(x,y)dxdy,
F,(.v) Bz
com Bz = {(x,y): 2x+y $ z}. Note que, no cálculo da integral, os limites
precisam levar em conta, além de Bz, a definição de Jx ,y(x , y). Assim,

113 Fz(z) =f f e-(x+y) I(o,oo) (x)I(o,oo)(Y) dx dy = 11z-T


e-(x+y) dx dy,
Bz
então,

F (z ) = o, . se z <O;
z { 1 + e-z - 2e- ~ , se z ~O .

Pode-se verificar que Fz satisfaz as propriedades de função de distribuição e, por


derivação, podemos obter a densidade de Z. D

Figura 3.3: Função de Distribuição Mista. O próximo exemplo apresenta uma situação que pode surpreender vários
leitores. Partindo de variáveis discretas relativamente simples, tomamos uma
Suponha, agora, que queremos determinar P(Y < 21 Y ~ 1). Temos: função dessas variáveis, também relativamente simples, para produzir uma nova
variável bem mais complicada e que não tem nada de simples! O exemplo retoma
P(Y < 21 y > 1) = P([Y < 2] n [Y > 1]) o conceito de função singular apresentado no capítulo anterior.
- P(Y ~ 1)
Exemplo 3.19: Função Singular-tipo Cantor (Dudewicz e Mishra [88])
_ P(1 $ Y < 2) Considere sucessivos lançamentos independentes de uma moeda
- P(Y ~ 1) equilibrada. Definindo como sucesso a ocorrência de cara, temos que
X1, X 2 , ···,formam um sequência de variáveis de Bernoulli independentes.
= Fy(2 - )- Fy(l - ) = _ Assim,
112
1-Fy(1-) P(Xi = 1) = 1/2, i= 1, 2, .. · .
o Sendo a ocorrência de sucesso no lançamento i recompensada por 3/4i
(em alguma unidade monetária), estamos interessados na função de distribuição
- 146 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 147

I,
li de modo análogo, concluímos P(W = 3/4) =O. De fato, podemos repetir esse
do ganho total. Conforme veremos essa função será do tipo singular, isto é, será ' I

contínua e com derivada igual a zero em quase toda parte (a massa de I argumento de modo que, para qualquer valor k, teremos P(W = k) = O. Então,
probabilidade onde isto não ocorre é igual a 0). para o intervalo i : :;
w :::; t,
P(W :::; w) = P(Xt =O) = 1/2.
Denotando por W a variável ganho vem Resumindo, o que temos até agora para F, é o seguinte:
00 3 o, se w :::; O;
W= L4iX; . F (w ) = P (W :::; w) ={ 1/2, se l4<
-
w <
-
;!.
4'
i=l
1, se w ~ 1.
Observe que O :::; W :::; 1, pois para cara em todos os lançamentos (isto é,
00 Temos 2 intervalos em que F ainda não está definida, a saber, (0, 1/4) e (3/ 4, 1).
Xt = x2 = ... = 1), temos Ei = 1. Daí decorre que já podemos saber alguns O gráfico correspondente ao que já calculamos é apresentado na figura a seguir.
i=l
valores parciais da função de distribuição. Para w < O, ela tem valor O e para
w ~ 1, vale 1. Lembrando que as funções de distribuição são contínuas à direita,
F(w)
o ponto w = O poderia ser um candidato a uma descontinuidade à esquerda e,
assim, F não seria contínua. Entretanto, isso não ocorre uma vez que:
F(O) = P(W :::; O) = F(o-) + P(W =O)
= O+ P(Xt = X2 = · · · = O)
= lim ( ~ ) k =O.
k-->oo 2 112

Então, temos os seguintes valores parciais para F:

F(w) = P(W :::; w) = { ~: se w :::; O;


se w ~ 1, o 1/4 3/4 w

restando o cálculo de F para os outros intervalos.


Observando o resultado de X1 (o lo. lançamento), podemos estabelecer Figura 3.4: Construção da Função de Distribuição- tipo Cantor.
outras condições sobre os intervalos de valores para W:
Se X 1 = 1 =} w ~ 3/4; Antes de prosseguir, observamos que o ganho, a partir do 2o. lançamento,
3 3 1
Se X1 =O =} w <- +- + ... = -·
- 42 43 4
tem a mesma distribuição que W / 4. Note que
00
00
3 3 00 1 1 3
Logo P(i < W < V= O. Vamos ver o que acontece nos pontos extremos desse L 4;xi = 4 4 L
i-1 X;= 4(~ 4.ixj+l)·
intervalo. Temos, pela independência dos X; 's, •=2 1=2 J=l

p ( "'r = 1/4) = P(XJ =o, x2 = X3· .. = 1) = - 1 1 X - X .•.


. (1 )k=O;
= hm - Tendo em vista que as variáveis X 1 , X 2, • • ·, são identicamente distribuídas e
2 2 k--+oo 2 estamos fazendo uma soma infinita, o termo entre parêntesis tem a mesma
distribuição de W. Usaremos esse resultado no que segue.
148 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 149

Para O< w < 1/ 4 temos


F(w)
F(w) = P(W ~ w) = P(W ~ w,X1 =O)+ P(W ~ w,X1 = 1)
3 )
~w,X1
00
=P(L ;xi =0 +O ?i
1=1
4 3/4 .............. ...........r----1
I i
3 )
~ w,X1 ?I
00
= P(L ;X; =O
4 1/2 ·r - - - - - _ _ , · I
i=2
3 ) ?I
= P(~
00
;Xi ~ w P(X1 =O) 1/4 -,...--., I
4
1=2 i
?I
11 1,

=
1 w
2P(4 ~ w) 1116
iI
3116
I
13/16
i
IS/16
I
o 1/4 w
3/4 I
1
= F(4w).
2 Figura 3.5: Construção da Função de Distribuição- tipo Cantor (continuação).
De acordo com o que já sabemos de F, temos para 1/4 < 4w < 3/4,
F(4w) = 1/2. Assim, para 1/16 ~ w ~ 3/16 vem F(w) = 1/4, uma vez.q~e os Observe que, nos três sub-intervalos de (O, 1) já analisados, a função de
extremos não contribuem com probabilidade positiva. Restam sem defimçao os distribuição é constante. O maior salto, que indicaria descontinuidade de F, não
intervalos (0, 1/16) e (3/16, 1/4). poderia ultrapassar l/4 pois trata-se de uma função monótona não decrescente. Os
Para 3/4 < w <!,procedemos de modo análogo. intervalos já definidos têm comprimento total de 3/4 e cada um dos quatro
F(w) = P(W ~ w) = P(W ~ w,X1 =O)+ P(W ~ w,X1 = 1) restantes tem comprimento 1/16.
00 Usando o mesmo raciocínio desenvolvido acima, conseguimos definir F
= 1 +P(L 43;X; ~ w,X1 = 1) em um sub-intervalo de cada um dos intervalos ainda sem definição. Por exemplo,
2 •=1 no intervalo (0, 1/16), definimos F(w) = 1/8 para 1/64 ~ w ~ 3/64 e restarão,
00
sem definição, os intervalos (0, 1/64) e (3/64, 3/16).
=-+P((-+L;X;) ~w,X1=l
1 3 3 )
2 4 i=2 4 De modo geral, cada intervalo restante é dividido em 4 partes e, para os
00 dois sub-intervalos centrais, F será constante e igual à média dos valores já
1 +P(" -,X;
=- 3 < w--3) P(X1 = 1) atribuídos aos intervalos mais próximos, que já têm probabilidade determinada. O
2 ~4 1 - 4
1=2 valor máximo de um eventual salto de F está limitado à metade da diferença entre
1 1 w 3 seus valores vizinhos. Usando indução matemática, após n etapas, teremos já
= 2 + 2P(4 ~ w- 4) definido o valor de F em 1 + 2 + 22 + 23 + · · ·2n-l intervalos. Eles terão
1 1 3 comprimento total de 2- 1 + 2- 2 + 2- 3 + · · ·2-n = 1- 1/2n. Tomando o limite,
= 2 + 2F(4(w- 4)). quando o número de etapas vai a infinito, concluímos: F será contínua em todo IR
e com F(O) =O e F(l) = 1. Os sub-intervalos de [0, 1], em que F é constante,
Então, F(w) = 3/4para 13/16 ~ w ~ 15/16 e resta defini~, o valor.de F em têm comprimento total igual a 1. Além disso, como a derivada de uma constante é
(3/4, 13/16) e (15/16, 1). O gráfico de F com os valores Ja conhecidos até o
zero, temos F' (w) = O para quase todo w E IR. Logo, F é uma função de
momento é representado na figura a seguir.
distribuição do tipo singular. A construção exibida neste exemplo é uma variante
do que é conhecido como Função de Cantor (ver Chae [80]). D
150 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 151

Em pesquisa ou aplicações, o uso de recursos computacionais têm 'se Proposição 3.4:


tomado freqüente nas áreas de Probabilidade e Estatística. Dentre as diversas
técnicas utilizadas, a simulação se destaca. Uma das peças chave em simulações, Seja F uma função de distribuição qualquer e F- 1 sua inversa
nas áreas mencionadas, é poder gerar valores de uma variável com certa generalizada. Temos:
distribuição de probabilidade. Os métodos computacionais desenvolvidos para F- 1 (y) :$ t se, e somente se, y :$ F (t).
esse fim se utilizam de uma transformação especial, definida a seguir.
Demonstração:
Definição 3.10: Transformação Integral de Probabilidade
Inicialmente, observamos que, pela definição de F- 1, existe uma
Seja X uma variável aleatória com função de distribuição F. A seqüência Xn, tal que Xn E {x E R: F(x) ~ y} e Xn! F- 1 (y). Da continuidade
transformação de X tal que Y = F(X) é denominada transformação integral de à direita de F, temos F(xn) -+F(F- 1 (y)) e ainda F (F- 1 (y)) ~ y.
probabilidade. O Supondo que p- 1 (y) :$ t , vamos verificar que y :$ F (t). Como F é não
decrescente, segue F (F- 1 (y )) :$ F(t ). Da conclusão do parágrafo anterior, vem
Em simulações, o uso da transformação acima depende da possibilidade
de inverter F. A inversa tem domínio em [0, 1], mas se F tiver saltos ou for em y :$ F(F- 1 (y )) e, portanto, vale y :$ F (t).
escada, ela não existirá. Na próxima definição, uma função que faz as vezes de Para a outra implicação, supomos y :$ F(t ). Dessa forma, t pertence ao
inversa é apresentada e, por abuso de notação, também será representada por F - 1 • conjunto {x E R: F(x ) ~ y} e, pelo argumento sobre a seqüência Xn no ínicio
da demonstração, segue que F- 1 (y) :$ t. O
Definição 3.11: Inversa Generalizada de F
Com a aplicação da proposição anterior, vamos verificar um importante
Seja F uma função de distribuição qualquer. A inversa generalizada, resultado para variáveis contínuas.
denotada por F- 1 é definida da seguinte forma:
Proposição 3.5:
F- 1(y) = inf{x E R: F(x) ~ y} . o Seja X uma variável aleatória contínua com função de distribuição F .
Então Y = F( X ) terá distribuição Uniforme Contínua em [0, 1]. Vale a recíproca,
Note que, se a inversa de F existe no sentido usual, ela coincide com a sendo U,...., Uc[O, 1], então X = F- 1 (U) terá função de distribuição F .
inversa generalizada. Por exemplo, se F for estritamente crescente e contínua, Demonstração:
então Vx E R, existirá apenas um y tal que F(x) = y. Nesse caso, pela definição
acima teríamos F - 1(y ) = x, mesmo resultado de uma inversa usual. Na figura Se X é contínua, F é uma função contínua e o mesmo ocorre com
abaixo, apresentamos alguns casos de F - 1 . Na próxima proposição, Y = F(X). A função de distribuição F será um número entre O e 1 e, portanto,
demonstramos uma relação que será a base para resultados úteis em simulação. P(Y < O) = P(F(X ) < O) = Oe P(Y :$ 1) = P(F(X ) :$ 1) = 1.
Para O< y < 1,
P(Y ~ y) = P(F(X) ~ y) = P(X ~ F- 1 (y)) = 1- P( X 1
:$ F- (y));

F
em que usamos a proposição anterior e, na última igualdade, a continuidade de X .
F
Yo ,., Essa continuidade ainda implica que F(F- 1 (y)) = y. Então

P (Y ~ y) = 1 - P( X :$ F- 1(y)) = 1- F(F- 1 (y)) = 1 - y.


Como Y é contínua, segue P(Y > y) = P (Y ~ y) e, dessa forma, Y terá
distribuição Uniforme Contínua em [0, 1].
Figura 3.6: Formas alternativas para F com F- 1 (y0 ) = x 0 .
152 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 153

Considere, agora, a recíproca. Suponha que U"' Uc[O, 1] e X= F- 1(Uf Um importante resultado referente a um vetor de variáveis aleatórias
Temos independentes é aquele que garante que funções disjuntas de variáveis
independentes sejam independentes. Um caso particular é demonstrado no
P(X:::; x) = P(F- 1 (U):::; x) = P(U :::; F(x)) = F(x). próximo exemplo.
Logo a variável aleatória X tem distribuição F. o Exemplo 3.21: Famaias disjuntas de variáveis independentes
Em simulação é comum a necessidade de gerar valores de uma certa Sejam X h X 2 , · · ·, Xn variáveis aleatórias independentes num mesmo
variável com uma distribuição determinada F. Pela proposição acima, isto pode espaço de probabilidade. Com o uso de duas funções 91 e 92 defina as variáveis
ser feito gerando um valor aleatório da Uniforme Continua em [0, 1], digamos u, e Y1 e Y2 tais que:
tomando x = F - 1 (u). Valores do tipo u são conhecidos como números pseudo-
aleatórios. Esses números imitam a escolha, feita ao acaso, de valores do
Yi = 91( X1,X2, ···,Xm) e Y2 = 92( Xm+l,Xm+2, ···,Xn); 1:::; m < n.
intervalo [0, 1]. O que podemos dizer sobre a independência entre Y1 e Y2?
Os números pseudo-aleatórios têm essa denominação pois são gerados Inicialmente, observamos que as variáveis são funções disjuntas de
por algoritimos determinísticos e devem aparentar terem sido sorteados de forma X 1 , X 2 , · · ·, Xn. Sendo que Yi é função das primeiras m variáveis, enquanto Y2
independente e aleatória. Isto significa que, tomando uma grande quantidade das restantes n - m. Assim, temos que 91 : Rm-+ R e 92 : Rn-m-+ R
deles, esperaríamos que estivessem espalhados uniformemente em [O, 1]. Muitos Sejam B 1 e B 2 dois borelianos quaisquer dos reais, lembramos que
programas de computador já incluem rotinas de geração de números aleatórios em
suas bibliotecas. O próximo exemplo ilustra essas idéias. Y1 1(Bl) = { (x1, x2, · · ·, Xm) E Rm : 91 (xl, X2, · · ·, Xm) E B1},

Exemplo 3.20: Geração de Valores Aleatórios (DeGroot e Schervich [02]) e, então, [Yi.EB 1 ] é equivalente a [(X1 ,X2,···,Xm)Eg1 1 (BI)]. De modo
Suponha que temos a disposição algum software com um gerador de análogo, [Y2 E B2] e [(Xm+l• Xm+2• · · ·, Xn) E Y2 1 (B2)] são equivalentes.
números pseudo-aleatórios e independentes da Uc[O, 1]. Desejamos gerar valores Para verificar a independência entre Yi e }2, note que
de uma variável X que tem densidade f(x) = !{2- x)I(o, 2 )(x). P([Yi E B1], [Y2 E B2]) é igual a
A correspondente função de distribuição é dada por:
P([(X1, X2, ···,Xm) E 91 1 (BI)], [(Xm+l,Xm+2• ···,Xn) E Y2 1 (B2)J),
o, X :::; O;
F(x) =
{ x- 't• 0 <X:::; 2; o qual, por sua vez, é igual ao produto
1, X> 2.
Para obter a inversa resolvemos a equação y = F(x) em x, sendo que
y E (0, 1) é o domínio da função inversa. Basta considerar a expressão de F(x) pela definição de independência de vetores aleatórios. Mas, essa última
para o intervalo (0, 2]. A solução, com uma das raízes sendo desprezada, fornece: probabilidade pode ser escrita, utilizando novamente o argumento de equivalência
x = F- 1 (y) = 2(1- JI=Y") para y E (0, 1). mencionado acima, como P([Yi E BI]) P([Y2 E B2]). Fica, assim, verificado a
Suponha que geramos, aleatoriamente e de forma independente, três independência entre Y1 e }2. O
valores da distribuição Uc[O, 1]: Y1 = O, 4125; Y2 = O, 0894 e Y3 = O, 8302.
Algumas funções de variáveis aleatórias merecem destaque, pois
Aplicando esses valores na expressão da função inversa, obtemos:
aparecem com grande freqüência em aplicações. As expressões referentes ao
X 1 = 0, 4670; x 2 = 0, 0914 e x 3 = 1, 1759.
comportamento probabilístico da soma, diferença, produto, quociente, mínimo e
Dessa forma, obtemos três observações independentes da variável X. O
máximo entre variáveis aleatórias são apresentadas nas próximas proposições.

I
154 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 155

Proposição 3.6: Densidade da Soma e da Diferença de Variáveis em que fizemos a substituição x = u + y. Invertendo a ordem de integração e
Dadas duas variáveis aleatórias contínuas X e Y com densidade conjunta derivando, obtemos a densidade f x-Y(w) = f~oofx,y(w + y, y) dy. O
!x,Y . então a função densidade da soma e da diferença entre essas variáveis são Observe que se X e Y forem independentes a densidade conjunta pode
dadas por, respectivamente: ser escrita como o produto das densidades marginais, simplificando as expressões.
No caso independente, a densidade da soma recebe o nome de convolução das
fx+Y(z) = f : ! x,Y(x, z- x) dx ; densidades de X e Y. A proposição anterior tem, também, uma versão para o caso
discreto que não será apresentada.
fx-Y( w ) = f : ! x,y(w + y,y)dy. Exemplo 3.22: A densidade conjunta das variáveis X e Y é dada pela expressão:
1
Demonstração: Jx ,y(x, y ) = 3 (x + y)I(o,2j(x)I(o,l](Y)·
Para a soma, com Bz = {(x, y) : x + y :$ z }, temos:
Vamos obter a densidade de X + Y. Temos,
Fx+Y(z) = P(X + Y :$ z) = P ((X, Y) E B, ) =f f f x,y(x, y )dxdy;
Bz
fx+y(z) =
1 00
_ /x,y(x, z- x ) dx =
00
/00 1
_ 3 z I(o,2j(x)I(o,l](z- x) dx.
00
Então, Avaliando o comportamento dos indicadores, teremos (ver figura a seguir):

Fx+Y(z) = 1: [f:x /x,Y(x, y )dy Jdx = f : [f~ !x,y(x, u - x)du Jdx,


z < Oou z
O:$ z
1 :$ z
> 3 : I(o,lj(z- x) =O;
< 1 : I(o,lj(z- x) = 1 somente se O< x :$ z;
< 2 : I (o,lj(z- x) = 1 somente se z - 1 < x :$ z;
em que fizemos a substituição y = u - x.
2 :$ z :$ 3 : I (o,lj(z- x) = 1 somente se z - 1 < x :$ 2;
Para obter a densidade tomamos a derivada:
z=x+ I
âFx+y(z)
âz
â{j""[fz
= âz J }
-x -xfxy(x, u-x)du dx
z=x
â{
= âz !"_j!oc
-:xfx.dx, u-x)dx] du} ,

assim, concluímos que fx+y(z) = Lxxfx.dx, z- x) d:r.


Para a diferença X - Y , com Bw ={(:r, y): x- y :$ w} , temos

F,,_y(w) = P(X - Y :$ w) = P ((X, Y) E Bu.) =f f fx.l"(x, y)dxdy =


= 1: [f:+yfx.dx, y )d:c ]dy =f: [f:fx.y(u
Bu.
+ y, y)du]dy, X

Figura 3.7: Região de Integração- função soma.


n
I
156

r1
Capítulo 3: Vetores Aleatórios

z2
3.3 Funções de Variáveis Aleatórias 157

Então, O :::; z < 1: f x+Y(z) =lo 3 z dx = 3 ;


I 1 :::; z < 2 : fx+Y(z) = iz~ z dx = :_ ;
z-1 3 3
2
1 z(3- z)
2 :::; z :::; 3 : fx +Y(z) =
1
z-13
- z dx =
3
·

A densidade procurada satisfaz as propriedades de densidade e será dada por:

.i., seO :s;z< 1; Para obter a densidade, calculamos a derivada:


l, se 1 :::; z < 2;
fx +y(z ) = ~(3-z)
{ 3 ' se 2 :::; z:::; 3;
O, caso contrário. Essa última expressão corresponde à densidade Gama de parâmetros a = 2 e
Recomendamos ao leitor tentar obter essa densidade via função de distribuição. O f3 = À. De modo geral, é possível verificar que a soma de n Exponenciais
independentes de mesmo parâmetro À terá distribuição Gama(n, A). O
Apresentamos, a seguir, alguns exemplos de relação entre modelos que
envolvem soma de variáveis. Exemplo 3.25: Relação entre Poisson e Gama
Exemplo 3.23: Relação entre Bernoulli e Binomial Sejam Yi e Y2 intervalos entre ocorrências de um certo evento, isto é, Yi e
Y2 indicam o tempo de espera para a la. e o tempo entre a la. e 2a. ocorrências,
Sejam X 1 , X 2 , • • ·, Xn variáveis independentes com distribuição Bernoulli
respectivamente. Definimos X 1 como o número de ocorrências até o instante t.
de parâmetro p. Defina Y = X1 + X2 + ··· + Xn, então Y tem distribuição
Temos a seguinte equivalência de eventos:
Binomial de parâmetros n e p.
Para verificar esse resultado, observe que o evento [Y = k] significa a [2a. ocorrência antes de t] = [Pelo menos 2 ocorrências antes de t] ;
ocorrência de k sucessos e n - k fracassos, dentre os n experimentos. Como
existem várias alternativas na ordem de ocorrência dos sucessos, precisamos
[Y1 + Y2 < t] = [Xt 2: 2] .
multiplicar pelo número delas, o que é dado pela combinação de n tomados k a k. Suponha agora que Y1 e Y2 são variáveis independentes com distribuição
A relação também poderia ser verificada por indução a partir da fórmula de Exponencial de parâmetro À. Sabemos que Y1 + Y2 têm distribuição Gama com
convolução para funções de probabilidade. O parâmetros a = 2 e f3 = À. Dessa forma, pela igualdade dos eventos acima, temos
Exemplo 3.24: Relação entre Exponencial e Gama
P(Xt 2: 2) = P (Y1 + Y2 < t) =
rt À2
Jo r( ) y e-Ay dy;
Sejam X 1 e X 2 variáveis independentes com mesma distribuição 2
Exponencial de parâmetro À. Vamos verificar que X 1 + X 2 têm distribuição
Gama com parâmetros a= 2 e f3 =À. Pela independência de X 1 e X 2 temos: que, aplicando a técnica de integral por partes, resulta em

fx~,x2 (x, y ) = À2e-A(x+y), O < x < oo, O < y < oo. P(Xt 2: 2) = P(Yi + Y2 < t) = 1 - e-At - Àt e-"1 •

Então Note que a mesma expressão resultaria se o modelo Poisson (At) fosse usado para
X 1• De fato, para qualquer n, a variável X 1 terá distribuição de Poisson com
parâmetro Àt . A prova pode ser feita por indução finita e integração por partes. O
158 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 159

Exemplo 3.26: Reprodução de Normais Retomamos a apresentação das proposições.

Dizemos que a distribuição Normal se reproduz, porque a soma de Proposição 3.7: Distribuição do Mínimo e do Máximo
Normais independentes também tem distribuição Normal. Essa propriedade vale Considere o conjunto X1, X2, ... , Xm de variáveis aleatórias
também para outros modelos, entre eles, Binomial, Poisson e Gama. independentes, cujas funções de distribuição são F1, F2, ... , Fm, respectivamente.
Vamos verificar que a soma de duas Normais Padrão independentes é As expressões da função de distribuição de Y1 = rnin(X1, X2, ... , Xm) e
Normal com JL = O e a 2 = 2. O caso geral pode ser demonstrado, mais Ym = max(X1, X 2, ... , Xm) são dadas, respectivamente, por:
facilmente, com o uso da função geradora de momentos a ser definida no Capítulo m
5. Fy,(z) = 1- I1[1- Fx;(z)];
Sejam X 1 e X 2 duas variáveis aleatórias independentes com distribuição i=l
N(O, 1). Para a distribuição da soma temos m

Fym(w) = ITFx;(w).
Fx,+x2 (z) = P(X1 + X2::; z) = = 1:1:x fx,,x 2 (x, y) dxdy;
Demonstração:
i=l

I' Para obter a distribuição do mínimo, utilizamos um argumento lógico


que resulta em
I freqüentemente útil nesses casos: se o JllÍnimo é maior que z, todas as variáveis
também precisam ser maiores que z. Assim,
l
P(Y1 > z) = P(rnin(X1, ... ,Xm) > z) = P(X1 > z, ... ,Xm > z).
Pela independência entre as variáveis essa última probabilidade pode ser
escrita como
m

P(Yí > z) = P(X1 > z) · ·· P(Xm > z) = I1[1 - Fx;(z)].


i=l
após a substituição y = v - x e mudança na ordem de integração. A densidade
será dada pelo integrando da expressão acima aplicado em v= z. Assim, Logo, tomando-se o complementar, a expressão de FYi (z) é obtida.
Para o máximo, observe que se o máximo é menor que z então todas as
/x,+x2 (z) =
00 1 ,2
rn= e-T rn= e-
1 (z-r)2
dx =
100 1 2 ,2
e-x +zx-T dx. variáveis também são. Assim
1
-oo V 27!' V 271'
2
2
-oo 7l'
P(Ym ::; w) = P(max(X1, ... , Xm) ::; w) = P(X1 ::; w, ... , Xm ::; w).
Note que z está fixo dentro da integral e podemos reescreve-la como:

fx,+x 2 (z) =
1
rn=
1 ,2100
r;:; e- 4
1 1
rn= -1() e
_! (r-•/2r
2
7i12 dx.
Pela independência entre as variáveis, temos
m
V 271' V 2 -oo V 271' V2 P(Ym::; w) = P(X1::; w) ··· P(Xm::; w) = ITFx; (w).
i=l

O integrando corresponde à densidade de uma Normal com JL = z/2 e a 2 = 1/2. Se as variáveis forem identicamente distribuídas, as expressões podem ser
Logo a integral vale 1 e o termo restante é a densidade N(O, 2). O apresentadas em forma de potências da função de distribuição comum. O
160 Capítulo 3: Vetores Aleatórios
3.3 Funções de Variáveis Aleatórias 161

Proposição 3.8: Densidade do produto e do quociente


os casos y > O e y < O. Assim,
Sejam X e Y duas variáveis aleatórias contínuas com densidade conjunta
! x,Y· As funções densidade do produto e do quociente são, respectivamente,
dadas por:
ao 1 u que, após a substituição s = xj y, resulta em:
f xy{u) =
l-ao - I !x,y(x, - ) dx;
1X X
Fx;y(v) = [~[1-ao!x,y(sy, y)yds ]dy+ 1oo[[~!x,Y(sy, y)yds]dy
f x;y (v) = l : \y\ !x,Y(vy, y) dy.
[~[[~ ( -y)fx,y(sy, y) dy] ds + [~[1
00

= y ! x,Y(sy, y) dy] ds
Demonstração:
Aplicamos o método direto, mas o resultado também poderia ser obtido = [~[[:\y\fx,Y(sy, y)dy ]ds.
via o método do Jacobiano a ser apresentado a seguir nesta seção.
Vamos iniciar obtendo a função de distribuição do produto XY. Com
B u = {(x, y): x y :::; u} , vem Fxy(u) = P(XY :::; u) = f f f x,y(x, y) dx dy. Derivando, obtemos:
8Fx;y(v)
a = [x;y(v) =
loo \y\fx,y(vy, y) dy. o
Bu
Assumimos x '# Oe precisamos separar os casos x > O e x < O. Então,
V -oo
Para as variáveis contínuas, pode-se usar o Método do Jacobiano,
[1ao fx .Y(x, y)dy] dx +1 ao [lujx f x,y(i, y)dy] dx,
0 utilizado em Cálculo Diferencial, para obter a distribuição de transformações de
Fxy(u) =
1-ao ujx -ao O variáveis aleatórias. O método é apresentado a seguir sem demonstração formal.
Seja X = (X 1, X 2 , • •• , Xm) um vetor aleatório contínuo com densidade
que, após a substituição s = xy, vem:
fx(x) conhecida. O vetor aleatório Y = (Y1 , Y2, ... , Ym) é uma transformação g
( 1-oo° [1-oo
Fxy u) =
u
8
[lu-ao f xx(x, -X)ds]X- dx
- dx + 1 ao
fx .Y(x, - )ds]
X X O
8 (multidimensional) do vetor X. Em notação simplificada, podemos escrever
Y = g(X) = (g1(X) , g2 (X) , · · ·, 9m (X)), de modo que Y; = g;(X1 , X2, ... , Xm)

l-oo -ov 1X!x,y(x, -)Xs dx] ds +lu-ao [1 -X1 ! x,y(x,-X ) dx] ds


para i = 1, 2, ... , m .
= u[10 --:::--
00
8
Supomos que todas as funções g;, i = 1, · · ·, m, têm derivadas parciais

l-ao 1
0 contínuas e que o Jacobiano da transformação seja diferente de zero para todos os
00
8 pontos (x 1, x2, ... , Xm); isto é
= u
[ -1 Jx,y(x,- )dx]ds .
-ex: 1X 1 X
!!1l! !!1l! ~
Aplicando a ~erivada, obtemos a densidade âx 1 âx2 8x 111

8Fxy(u)
8u = f xy (u) =
1 00

-ov
1 u
~ /x,Y(X,;;) dx .
J9 (x) =
!!91.
âx,
!!91.
âx2
Êi:L
âx,, -::p O.

Para o quociente, o cálculo é similar. Com B,, = {( x , y) : x j y:::; v}, vem


Fx;y(v) = P(X / Y:::; v) = f f!x,y(x, y) dxdy. Assumimos y :F O e separamos Vamos também supor que o conjunto de equações:
B,,
162 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 163

Yl =g!(X!,X2, ... ,xm);


Y2 = g2(x1,x2, ... ,xm);

determina, de modo único, os x; 's em função de (YI. y2, ... , Ym)· Em outras
palavras, isto significa dizer que g é bijetora. Representamos a solução do sistema
por x = h(y), ou seja,

X!= hl(Y1,Y2,···•Ym)i
X2 = h2(Y1,Y2,···,Ym);

Xm = hm(Y!, Y2, · · ·, Ym)·


Nessas condições, as variáveis Yi, Y2 , ••• , Ym têm densidade conjunta
dada por Figura 3.8: Repartição do Domínio- 4 subconjuntos.
1
/v(Y) = /x(h(y)) IJ9 (h(y))l- ,
Observação 1: Alguns autores, preferem calcular o Jacobiano referente à função
em que, a densidade /x(.) e o Jacobiano J9 (.) são aplicados nos pontos inversa de g, denotada aqui por h. O determinante a ser calculado seria
x; = h;(y), i= 1, · ··, m.
~ ~ 8hl
Uma das condições para a aplicação do método do Jacobiano foi que a 8yl 8l!2 ÔYm
!!!1. !!!1. !!!l1.
função g: X-+ Y fosse bijetora (um a um). Se esse não for o caso, podemos Jh(Y) = 8yl 8112 ÔYm
particionar o domínio em subconjuntos disjuntos de modo que, restrita a cada
subconjunto, ela seja biunívoca. Nesse caso, aplicamos o método Jacobiano a 8h., !!.!!:m. ôhm
ay; 8112 ôy,
cada uma das partições e somamos o resultado para obter a densidade desejada.
Assim, denotando por V 1 , V2 , · · ·, Vk a partição do domínio e sendo gUla Se usarmos Jh(Y) ao invés de J 9 (h(y)), a fórmula para o cálculo da
restrição de g ao subconjunto V;, temos densidade é modificada coerentemente tendo em vista que
k
fv(Y ) = Lfx(h(il(y)) IJy~;,(h(il(y) )l- 1 ,
i=1
Para evitar confusão, é conveniente sempre usar o mesmo Jacobiano.
em que h(i) é a inversa de g(il (referente ao subconjunto V;).
Observação 2: Se o vetor Y tiver dimensão menor que a de X, acrescentamos
A figura a seguir ilustra a repartição do domínio em 4 subconjuntos. variáveis artifíciais convenientes até a igualdade nas dimensões. Após aplicar o
método do Jacobiano, calculamos a marginal adequada da densidade conjunta
obtida e determinamos a desejada densidade de Y.
3.3 Funções de Variáveis Aleatórias 165
164 Capítulo 3: Vetores Aleatórios

Exemplo 3.27: Considere o vetor aleatório X com densidade Exemplo 3.28: (DeGroot e Schervich [02])
Considere o vetor aleatório X com densidade
fx(x) = .À 3 e-A(xt+x2 +x3 ) I(o,oo) (xt)I(o,oo) (x2)l(o,oo) (x3), .À > O.
fx(x) = 4xtX2 I(o,t)(xl)J(o,l)(x2)·
Estamos interessados em Y = (Yi., }'2, Ya) tal que
Estamos interessados em Y = (Yt, Y2) tal que
Yt = X1;
Y2 = x1 +X2; Yt = XdX2;
Ya = x1 + x2 + X3. Y2 = X1X2.

Seguindo nossa notação temos Seguindo nossa notação temos

9t(Xt,X2, ... ,Xm) = X1; 9t(Xt,X2) = XI/X2;


92(X1,X2, ... ,Xm) = X1 + X2; 92(X1,X2) = X1X2.
93(X1,X2, ... ,Xm) = X1 + X2 + X3; e, portanto, o Jacobiano da transformação g é dado por
e, portanto, o Jacobiano da transformação é dado por
!!.9.!. !!.9.!. !!.9.!.
axl 8x2 8x3 1 o o
Jg(x) = Ê.91.
8x1
Ê.91.
8x2
Ê.91.
8x3 = 1 1 o =1.
Resolvendo para x o sistema abaixo
~ ~ ~ 1 1 1
axl ax2 8x3 Y1 = xdx2; ·
Observe que, como o Jacobiano não depende de x, podemos já estabelecer Y2 = XIX2,
IJg(h(y))l- 1 = 1.
obtemos uma única solução dada por
Resolvendo para x o sistema abaixo
Yl = Xtj
Observe que h é a função inversa de g. Os valores possíveis de y 1 e y2 estão no
Y2 = Xt + X2j
conjunto A:
Y3 = Xt + X2 + X3,
A= { (yl, Y2) E R? : Yt >O, Y2 >O, (YtY2) 1/ 2 < 1, (y2/yt) 112 < 1}·
obtemos uma única solução dada por x = (y 1 , y2 - Yh y 3 - y2 ), correspondendo
à função h mencionada anteriormente. Ou seja, h 1(y) = y1, h 2(y) = y2 - y1 e Assim,
h3(y) = Y3- Y2· Então,
Jy(y) = .À 3 e-À(Yt+(!12-Ytl+(Y3-!12)) I(o,oo) (yi)I(o,oo) (Y2 - yi)I(o,oo) (Y3 - Y2)
= À 3 e-Aya IA (Yt, Y2, Y3),

comA= {(Yt, Y2,Y3): O< Yt < Y2 < Y3}· o


- r

166 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 167

então a densidade de Y é dada por


YI- 2y2 + Y3
Xz = h2(YI, Yz, Y3) = ;
2 3
1
fv(y) = fx(h(y))IJu(h(y))l- = 4yzi2YII-IIA(YI.Yz) = y2 IA(YI ,Yz). YI + Y2- 2y3
YI X3 = h3(yi, Yz, Y3) = ·
3
O leitor pode verificar que a função obtida satisfaz as propriedades de função
densidade conjunta. O Então, sendo Y = (Yt, }'2, Ya) e h(y) = (h I (y) , h2(y), h3(y)), temos
Exemplo 3.29: (Ross [98]) fv(Y) = fx(h(y)) IJ9 (h(y))l- 1
Sejam XI, Xz e x3 variáveis aleatórias independentes com densidade = 1 € -! [(~)2+(Y!-2p+!I3)2+(YI+,-2y3)2]

N(O, 1). Vamos obter a densidade conjunta de Yí, Y2 e Y3 sendo 3(27r)3/2


Yí = XI + Xz + X3, Y2 = XI - Xz e Y3 = XI - X3. 1 I [rl+~+~ ~]
A densidade conjunta de X = (XI, Xz, X 3) é dada por = e -2 a- 3 3 -----a- -oo < y · < oo i = 1 2 3.
3(27r)3/2 ' ' , ' ,
3 1 r~
fx(x) = IJ v tn=
27r
e-t , -oo < x; < oo, i = 1, 2, 3. A partir dessa conjunta, as densidade marginais das variáveis de interesse podem
i=I ser obtidas de modo usual. O
Na notação que estamos utilizando, temos Y = g(X), ou Exemplo 3.30: Jacobio.no sem bijeção (Mood, Graybill e Boes [74])
Yí = 9I(XI ,Xz,X3) =XI + Xz + X3; Vamos obter a densidade de Y = g(X) = X 2 , sendo X uma variável
Y2 = gz(Xt, Xz , X3) =XI - Xz ; contínua com densidade f( x) = ~ e-lxl, -oo < x < oo.
Y3 = 93(XI,x2 ,X3) =XI- X3; A função g não é bijetora no domínio dos reais e, assim, para a aplicação
do método do Jacobiano será necessário fazer uma separação no domínio.
e, portanto, o Jacobiano da transformação é dado por Considere que os conjuntos VI = {x E IR: x <O} e Vz = {x E IR : x ~O}
!J.SJ. !J.SJ. !J.SJ. representam a repartição mencionada. Dessa forma, g(l) : VI-+ ~R+ e
8x 1 8x2 8x3 1 1 1 g< 2> : V2 -+~R+ são as respectivas restrições de g aos subconjuntos VI e Vz.
Ju(x) = P.9l. P.9l. P.9l. 1 -1 o = 3; Temos, portanto,
8x 1 8:r2 8:r3
~ ~ ~ 1 o -1
h(I)(y) = (g(t))-l(y) = -y'Y e h(2)(y) = (g(2))-I(y) = y'Y .
8:r, 8:r2 8:r3

como não depende de x, podemos já estabelecer IJ9 (h(y))I-I = 1/3. Estamos no caso univariado e, portanto, não precisamos calcular o determinante.
O sistema Basta derivar a função g para obter J9 (x) = 2x. Logo,
YI = Xt + Xz + X3; J9 (h( 1>(y)) = -2y'y em VI e J9 (h< 2>(y)) = 2y'y em Vz.
Yz =XI- xz;
Y3 =XI- XJ, Segue, então
tem solução única dada por

o
168 Capítulo 3: Vetores Aleatórios 3.4 Exercícios 169

Exercícios da Seção 3.3: 10. Sendo X rv N(O, 1), verifique que X 2 tem distribuição Qui-quadrado com I
1. Seja X uma variável aleatória com função de distribuição F e sejam a e b grau de liberdade usando:
constantes reais. Determine a função de distribuição das seguintes variáveis a. O método direto.
aleatórias: b. O método do Jacobiano.
a. -X.
b. aX + b, com a =/: O.
3. 4 Exercícios
c.XI(a,b)(X), supondo 1 < a < b. 1. Sendo X e Y variáveis aleatórias em (O, F , P), mostre que min(X, Y) e
d. Comente as diferenças nas soluções se X é discreta ou contínua. max(X, Y) também são variáveis aleatórias.
2. Seja X uma variável aleatória com função de distribuição F. Considere uma 2. Para X e Y variáveis aleatórias em {O, F, P), verifique que os conjuntos
função h : X -+ R bijetora. Expresse, em função de F, a função de [X < Y] , [X = Y] e [X > Y] pertencem a a-álgebra F.
distribuição de h( X), nos seguintes casos: 3. Mostre que A 1 ,A2 , · ··,An são eventos independentes se e só se
a. A função h é monótona não decrescente.
lAp 1A2 , ···,lA" forem variáveis aleatórias independentes.
b. A função h é monótona não crescente.
4. Para as variáveis discretas, as expressões de soma e diferença de duas variáveis
3. A variável X tem função de distribuição F . Para Y = X 2 , obtenha Fy{y). são similares ao caso contínuo. Verifique as expressões abaixo:
4. Sejam X e Y rv N(O, 1), independentes. Obtenha a densidade de 2X + Y.
PX+Y(z) = L P(X = x, Y = z- x) = LPx,v(x,z- x);
5. Suponha que X e Y são variáveis independentes e com densidade Exponencial X X

de parâmetros ..\1 e ..\2, respectivamente. Mostre que, para k > O,


P(X- kY > O) = ..\2/{k..\1 + ..\2).
Px-v(z) = L P(X = x, Y = x- z) = LPx,v(x,x- z).
X X

6. Sejam X e Y rv Exp(1 ), independentes. Obtenha a densidade de X- Y . Se X e Y forem independentes, essas expressões se transformam em

7. A densidade conjunta de {X, Y ) é f (x, y) = 2{x + y) I {o<x<y< 1}(x, y). Px+Y(z) = LPx(x) py(z- x);
a. Determine a densidade de X + Y. X

b. Calcule P(X + Y > 1). Px-v(z) = L Px(x) py(x- z).


c.ObtenhaP(X + Y > 11 1 ~ X ~~). X

8. A densidade conjunta de {X, Y) é dada por: 5. Seja X uma variável aleatória com função de distribuição Fx . Seja Y = h(X)
com função de distribuição Fy . Mostre que:
f (x , y) = { f,;e-f..-y, -oo < x < oo, y 2: O; a. Fx,v(x, y) = min{Fx(x), Fy(y)} , se h é monótona crescente.
O, caso contrário. b. Fx,v(x, y) = max{ Fx(x) + Fy(y)- 1, 0}, se h é monótona decrescente.

a. Verifique se X e Y são independentes. 6. Mostre ou dê um contra-exemplo:


b. Determine a densidade conjunta de Y e X + Y. a. Se Fx(z) = Fv (z), V z E lR então P(X = Y) = 1.
b. Se Y = X + 1 então Fx(z) = Fy(z + 1) , V z E R
9. Sendo X e Y variáveis independentes com distribuição Exp(>. ), obtenha a
conjunta entre X + Y e X /Y e demonstre que são independentes. 7. Mostre que, para variáveis contínuas X e Y temos

Fx(x) + Fy(y)- 1 ~ Fx,v(x, y) ~ .jF(x)F(y); V x, y E R


170 Capítulo 3: Vetores Aleatórios 3.4 Exercícios 171

8. Seja F( .) a função de distribuição de alguma variável aleatória. Para as funções b. A distribuição condicional de X, dada a soma X+ Y, é Hipergeométrica
G, definidas abaixo, avalie quais podem ser função de distribuição conjunta: com parâmetros que não dependem de p.
a. G(x , y) = F(x) + F(y); x, y E R 17. Obtenha a conjunta de X e Y e a marginal de Y, sendo dados:
b. G(x , y ) = F(x )F(y); x, y ER
Px(x) = xj3,x = 1,2; PYjx(yJx) = (:) G r . y E N, y :5 xex = 1, 2.
c. G(x, y ) = F (x )/ F(y ); x, y E R
d. G(x, y) = max(F (x) , F (y)); x, y E R 18. Mostre que, sendo X e Y variáveis independentes com distribuição Poisson
de parâmetros >. 1 e >. 2 , respectivamente, temos que:
e. G(x, y) = min(F(x) , F(y )); x, y E R
a. A soma X + Y é Poisson.
9. Considere X"' Poisson(2). Defina Y pelo truncamento de X que impede b. A distribuição condicional de X, dada a soma X + Y , é Binomial.
valores superiores a 2. Assim, Y tem o valor 2 sempre que X ~ 2. Obtenha a 19. Defina Y como a restrição de uma variável Exponencial (2), em valores
função de distribuição de Y.
superiores a uma dada constante a (a > 0) .
10. Sendo F(x , y) a distribuição conjunta de X e Y, defina Z= max(X, Y) e a. Determine a densidade de Y .
W = min(X, Y). Mostre que: b. Calcule P (Y > a + 1JY <a+ 2).
a. Fz (z) = F(z, z), V z E R 20. Considere X "' Uc(O, 1). Para que função g, estritamente decrescente, temos
b. Fw(w) = Fx( w) + Fy(w)- F(w, w), Vw E R
g( X) com distribuição Exponencial de parâmetro 1?
11. Seja X "' B(n = 5, p = 1/2) e defina Y = ~(max (X , 4) + min(X, 2)). 21. Seja X "'N(O, 1) e defina Y = ex. A variável Y segue o modelo Lognormal
a. Obtenha p(y ) e Fy . de parâmetros O e 1. Obtenha a densidade de Y. ·
b. Calcule P(Y :5 2) e P(Y > 2JY :5 4).
22. Indique para quais valores de a, a função abaixo é densidade.
12. Para X "' Poisson(2), defina Y = max(min(X , 4), max(X, 2)).
a. Obtenha p(y) e Fy . f (x, y) = ( 1 - a( 1 - 2x)(1 - 2y) )I(o,t)(x)I(o,t)(y).
b. Calcule P(Y > 1) e P (Y > 1JY :53).
13. Suponha que X e Y são variáveis aleatórias, independentes e identicamente 23. A densidade conjunta de X e Y é dada por:
distribuídas, com valores -1 e 1 com mesma probabilidade. Verifique se X e
Z = XY são independentes. fx,Y(x, y ) = ~ [ 1 + xy(x2 - y
2
)] J{-t,l)(x)J(- t,l)(y).

14. Uma uma contém bolas numeradas de 1 a 3. Duas retiradas são feitas sem a. Verifique que f satisfaz as propriedades de função densidade conjunta.
reposição. Defina as variáveis X e Y como, respectivamente, o menor e o b. Calcule P(X > OJ Y > 0).
maior valor observado. Obtenha a conjunta dessas variáveis e verifique se são
independentes. 24. As variáveis X e Y têm a seguinte densidade conjunta:

15. Sejam X e Y duas variáveis independentes com distribuição Geométrica de Jx,Y(x, y) = e-Y(l- e-x)l(o,yj(x)I[o,oo)(Y) + e- x(l- e-Y)J(o,xj(y)I[o,x)(x).
parâmetro p. Determine P(X = Y). a. Mostre que f satisfaz as propriedades de função densidade conjunta.
16. Para X e Y independentes com distribuição Binomial de parâmetros ( n1, p) e b. Determine P(X > 1, Y < 2).
(n2, p), respectivamente, verifique que: c. Obtenha as marginais.
a. A soma X + Y também segue o modelo Binomial. d. As variáveis são independentes? Justifique.
......
3.4 Exercícios 173
172 Capítulo 3: Vetores Aleatórios

30. As variáveis X e Y são independentes e têm distribuição Uniforme Contínua


25. A função densidade conjunta de X e Y é dada por: em [0, 1]. Obtenha as densidades de:
fx,y(x, y) = 2 l(o,y)(x)I(o,1)(Y)· a.X +Y.
b.X-Y.
a. Verifique que f satisfaz as propriedades de função densidade conjunta. c.jX-Yj .
b. Obtenha as marginais. d.X jY.
26. A função densidade conjunta de X e Y é dada por: e.Xj(X + Y).
31. A função densidade conjunta de X e Y é
fx ,y(x, y) = e-(x+y)f(o,oo)(x)I(o,oo)(Y)·
fx,y(x, y) = Bxy I{o<x<y<1}(x, y) .
Determinar a função de distribuição de X - Y.
a. Obtenha as marginais.
27. A densidade conjunta de X e Y é dada por:
b. Determine P(X > 1/21 Y < 3/4).
1
fx ,y(x, y) = 2 xyl(0,2)(x)I(o,x)(Y)· 32. A densidade conjunta das variáveis X e Y é dada por
1
a. Verifique que f satisfaz as propriedades de função densidade conjunta. fx,y(x, y) = 8(6 • x- y) I(o,2)(x) I(2,4)(y).
b. Obtenha as marginais. As variáveis são independentes?
28. Sejam y rv Exp(1) e XI (Y = y) rv Poisson(y). Mostre que a. Obtenha as marginais.
b. Determine as densidades condicionais de X dado Y e de Y dado X.
1)n+1
P(X = n) = (2 , n =O, 1, 2, · · ·. 33. A densidade condicional de Y dado X é dada por
hix(yjx) = l(x,x+1)(y).
29. A variável X tem densidade Uniforme Contínua em [0, 1]. A variável Y, Calcule a marginal de Y e a densidade condicional de X dado Y, se temos
condicionada à X é Binomial, isto é,
fx(x) = I(o,l)(x).
pyp.-(yjx) = (~ )x"(1- xt- 11 , y =O, 1, · · ., n. 34. Seja X"' Uc[O, 2] e defina Y = min(X, 1).
a. Classifique Y e obtenha sua função de distribuição.
b. Represente Fy através de funções de distribuição discreta e absolutamente
Obtenha a marginal de Y.
contínua.
Sugestão: Use a função Beta,

{J(a, b) = 1 1
xa- 1 (1- x)b- 1 dx; a, b > O.
35. Para X"' Exp(2), defina Y = max(X, 2).
a. Obtenha Fy.
b. Apresente Fy como combinação linear de funções de distribuição discreta,
singular e absolutamente contínua.
Temos ainda a relação {J(a b) = r(a)r(b).
' r(a+b)
-
r--
r

174 Capítulo 3: Vetores Aleatórios 3.4 Exercícios 175

36. Seja X "' Exp( .X) e defina Y da seguinte forma: 41. As variáveis aleatórias X 1 e X 2 são independentes e têm densidade comum
Exp(.X).
1, se X< 1;
Y= X, se 1 :5 X< 2; a. Obtenha a função densidade conjunta das variáveis Y1 = min(X1, X2) e
{ Y2 = max(XI. X2).
2, se X~ 2.
b. Determine a densidade de Y2 - Y1l Yt.
a. Classifique Y e obtenha sua função de distribuição.
42.Sejam X e Y independentes com distribuição Uc(O, 1). Defina W =X- Y e
b. Decomponha a função de distribuição nas suas partes discreta e contínua.
Z=X+Y.
37. Sendo X uma variável aleatória contínua com densidade: a. Obtenha a densidade conjunta de W e Z.
1
4x, 0 :$X< 2; b. Determine P(Z > 3W).
f(x) = A, 2 :$X< 6; 43. As variáveis aleatórias contínuas X e Y são independentes, identicamente
{
o, caso contrário. distribuídas e têm densidade Exp(1). Através do método do Jacobiano,
obtenha a conjunta e as marginais de U = 2X + Y e V = 2X - Y e
a. Determine a função de distribuição de Y = min(3, X). verifique se são independentes.
b. Calcule P(Y < 31 Y ~ 2) e P(Y :5 31 Y > 2).
c. Faça a decomposição de Fy nas suas partes discreta, contínua e singular. 44. Considere as variáveis X e Y independentes e identicamente distribuídas com
densidade Normal Padrão. Defina U = X + Y e V = X fY.
38. Seja X uma variável aleatória com densidade:
a. Obtenha a densidade conjunta de U e V.
i x se O :5 x :5 2; b. Mostre que V tem densidade Cauchy Padrão.
f(x) = k se 2 <x :56; 45. Se XI e x2 tem função densidade conjunta:
{ O se caso contrário. 1 2 2 )
!x1,X2 (x1,x2) = 2Cx1- x2)IA(XI.X2
Defina uma nova variável Y = max{min(3, X), 2 }. Obtenha pac(y) e pd(y).
39. Sejam X, Y e Z variáveis aleatórias independentes com X e Y, tendo com A= {(xi,x2) E 'R};xl E (0,2),lx21 < x1.lx2l < 2 -xt}, obtenha a
distribuição Uniforme em [0, 2] e Z assumindo os valores ~ e ~ com função densidade conjunta de WI = HXI + X2) e w2
= ~(XI- X2)·

probabilidade ~ e j, respectivamente. Seja W = max (X, Y, Z, 1). 46. As variaveis aleatórias X 1, X2 e X3 são independentes e identicamente
a. Obtenha a função de distribuição de W. distribuídas com densidade Normal Padrão. Considere as seguintes novas
b. Calcule P(1 < W :5 W ~ ~). II variáveis: WI =XI, W2 = (X1 + X2)/2 e W3 = (XI + X2 + X3)/3.
c. Determine as partes discreta, absolutamente contínua e singular da função a. Determine a densidade de W3, pelo método direto.
de distribuição de W.
b. Obtenha a densidade conjunta de W1, W2 e W3.
40. A densidade conjunta de X, Y e Z é dada por c. Obtenha a densidade marginal conjunta de WI e W2.
d. Confirme a resposta de (a), calculando a densidade de W3 a partir da
1
f(x, y, z) = [4(xy + xz + yz) + 4(x + y + z) + 7], para x, y, z E (0, 1]. conjunta obtida em (b).
16
a. O que pode ser dito da independênc ia de X, Y e Z?
b. Calcule P(X :5 ~. Y > !).
- r--

3.4 Exercícios 177


176 Cap{tulo 3: Vetores Aleatórios

b. T tem densidade Gama de parâmetros (a+ /3, >.).


47.Para algum a> O, as variáveis aleatórias contínuas X e Y têm a seguinte c. W e T são independentes.
densidade conjunta:
54. Sendo X ,...., N(O, 1) e Y,...., x2 (r) (modelo Qui-quadrado com r graus de
f X,Y (x, y ) = 2a
-2 _l!±lll
e n I{O<x<y<oo}(x, y). liberdade), defina a variável T = X/ JYTr .
Verifique que T segue o
modelo t-Student com r graus de liberdade, cuja densidade é dada por:
Usando o método do Jacobiano, obtenha a conjunta e as marginais de
U = X/Y e Y. Elas são independentes? r[~(r+1)] ( t 2 )-i(r+l)
Jr(t) = c;;. 1 +- 1(-oo,oo) (t).
48. Sejam X ~o X2 e X3, variáveis independentes e identicamente distribuídas com y 1rr r(~) r
densidade Exponencial de parâmetro 1. Defina W 1 = XJ/(X 1 + X 2),
55. Considere X 1 , X 2 e X 3 variáveis contínuas, independentes e com mesma
W2 = (X1 + X2)/(XI + X2 + X3) e W3 =XI+ X2 + X3. densidade f que tem valores positivos apenas em (a, b), a, b E R. Sejam
a. Obtenha a densidade conjunta de W1, W 2 e W3 e verifique se são Y1, Y2 e Y3 as correspondentes Estatísticas de Ordem, isto é, temos Yi como
independentes. min(X~o X 2, X 3), }'2 como a segunda menor após Yi. e assim por diante.
b. Mostre que W1 é Uc(O, 1). a. Via método do Jacobiano, mostre que a conjunta de Y1, }'2 e Y3 é dada por:
c. Verifique que W3 segue o modelo Gama com parâmetros (a= 3, f3 = 1).
Jy,_,~,Y3 (Yl• Y2, Y3) = 6 f(Y1)f(Y2)f(y3) l{a<y1<Y2<Y3<b} (Yl' Y2, Y3)·
49. Considere as variáves aleatórias X e Y,...., Uc( -1, 1), independentes. Defina
as variáveis W =X- Y e Z =X+ Y. b. Qual seria a expressão do item (a) para n variáveis?
a. Obtenha a densidade conjunta de W e Z. 56. Sendo X ,...., x2(m) e Y,...., x2 (n) independentes, seja W = ~~~:{.
b. Determine a densidade de ZjW. a. Verifique que W segue o modelo F-Snedecor com (m, n) graus de
50. Sendo X e Y variáveis independentes com distribuição Uniforme contínua em liberdade, cuja densidade é dada por:
(1, /3), obtenha a densidade de XY via método do Jacobiano. r( mt) m m/2 w(m-2)/2
51. Sejam X e Y variáveis aleatórias contínuas com função densidade conjunta fnl(w) = r( !f) r(~) (-;) (1 + ~x)(m+n)/2 I(o,oo)(w).
1
f(x,y) = 2 Jxjl[-l,l](x)I[o,lxiJ(Y). b. Qual seria a distribuição de 1/W?

c. Mostre que V = 1;:-;,. tem distribuição Beta.


Obtenha a densidade de X+ Y via o método do Jacobiano. n

52. Sendo X e Y variáveis independentes com distribuição Uniforme Contínua


57. Considere XI, x2 , .. ·, Xn variáveis independentes com densidade Exp(>. j),
em (a, /3), obtenha a densidade de X+ Y, usando os procedimentos abaixo: i= 1, 2, · · ·, n.

a. Através do método direto, obtendo primeiro a função de distribuição. a. Verifique que Y1 = min(X1, X2, ···, Xn) é Exp(~>.;).

P[X~.: = =>.~.-/(E>.;).
b. Via a expressão da convolução de densidades.
( c. Via método do Jacobiano. b. Mostre que min(X1, X2, ···, Xn)]
1=1
( 53. Sejam X1 ,...., Gama( a,>.) e X2 ,...., Gama(/3, >.) duas variáveis independentes. c. Calcule a função de distribuição de Yn = max(X1, X2, · · ·, Xn)·
Defina novas variáveis W = XI/(X1 + X 2) e T = X 1 + X 2. Mostre que:
a. W tem densidade Beta de parâmetros (a, /3).
178 Capítulo 3: Vetores Aleatórios

( 58. Sejam Yi. }2, · · ·, Yn as estatísticas de ordem de uma sequência de n variáveil> Capítulo 4
independentes da Uc(O, 1). Obtenha a conjunta de Vn = Yn e V;= Y;/Y;+l
para i = 1, 2, · · ·, n - 1. Elas são independentes?
Valor Esperado
59. Seja X"' Exp(1), obtenha a densidade de Y = cosX.
( Sugestão: Particione o domínio em subconjuntos D; = ( (i - 1)7r, i7r] para
( i ~ 1. Ao obter as inversas, separe os casos de par e ímpar para i.
2
60. Sejam X1 e X2 independentes com distribuição N(O, u ). Defina as seguintes 4.1 Introdução
variáveis aleatórias U = Xl +X~ e V= Xtf X 2.
( Neste capítulo, vamos apresentar o conceito de valor esperado ou média
a. Sem fazer "muita" conta indique os modelos deU e V. de uma variável aleatória. Essa quantidade é freqüentemente utilizada como
b. Via método do Jacobiano, obtenha a densidade conjunta deU e V. resumo do comportamento da variável e serve como parâmetro para vários
( c. As variáveis U e V são independentes? modelos como Poisson e Normal. Veremos, também, como calcular o valor
esperado de funções de variáveis aleatórias. Em contextos mais formais, o valor
61. (Problema da agulha de Buffon) Considere uma mesa plana com linhas
esperado também é denominado de esperança matenuítica. Usaremos os três
( horizontais separadas pela distância 2a. Uma agulha de tamanho 2c (c < a) é
nomes de forma indistinta, ao longo do capítulo.
aleatoriamente jogada nessa mesa. Qual é a probabilidade da agulha tocar
uma das linhas? Na Seção 4.2, definimos o vMor esperado para variáveis discretas e
contínuas, conceitos com os quais o leitor já deve estar familiarizado. Essas
Sugestão: Defina X como a distância do centro da agulha até a linha mais
definições são unificadas com o uso da integral de Riemann-Stieltjes.
próxima e () como o ângulo entre a agulha e a perpendicular do centro da
A definição abstrata de valor esperado utilizando a integral de Lebesgue-
agulha até a linha mais próxima. Faça uma interpretação da aleatoriedade
Stieltjes é apresentada na Seção 4.3, de acordo com a construção teórica que é
do lançamento da agulha em tennos de X e O.
freqüente em textos mais avançados de Teoria das Probabilidades. Dessa forma, a
seção pode também servir de introdução àqueles leitores que desejem uma visão
mais profunda do assunto.
É importante destacar que todas as definições de valor esperado mantém
uma certa concordância entre si. Explicando melhor, como são construídas com
ferramentas matemáticas diferentes, pode ocorrer do valor esperado de interesse
não existir dependendo da definição utilizada. Entretanto, se ele existir em mais
de uma formulação, os valores esperados obtidos são sempre coincidentes. Com
isso em mente, na grande maioria dos casos, estaremos usando as definições da
Seção 4.2.
Na seção 4.4, as principais propriedades do valor esperado são
apresentadas. Incluímos nessa seção, resultados importantes como o Teorema da
Convergência Monótona e o Teorema da Convergência Dominada nas suas
versões para variáveis aleatórias.
Estaremos assumindo que as variáveis aleatórias apresentadas estão todas
em um mesmo espaço de probabilidade (0,.1", P), o que muitas vezes será
omitido para maior brevidade na apresentação.

179
(

180 Capítulo 4: Valor Esperado 4.2 Valor Esperado 181

4.2 Valor Esperado

- T.
(


0,3 0,3


0,2
( O conceito de valor esperado ou média parece ter sido historicamente 0.2

desenvolvido para avaliar ganhos em jogos com apostas a dinheiro. O retomo


2
financeiro, obtido em uma jogada de dados ou rodada de um certo jogo de cartas, ·2 .(

seria imprevisível. A questão de interesse era avaliar esse retomo num horizonte -0,3

de várias jogadas. Seria uma espécie de balanço final de muitas jogadas, após
contabilizar perdas e ganhos. Com o auxílio do formalismo matemático, essas Figura 4.1: Centro de Gravidade e Valor Esperado- caso discreto.
idéias foram estabelecidas em definições rigorosas, incluindo os casos discreto e
contínuo.
O centro de gravidade da barra, denotado por G, será o local em que
Definição 4.1: Valor Esperado para Variáveis Discretas 4 4
E (x; - G)p; =O. Não é difícil verificar que G = ExiPi e, portanto, G é o
Seja X uma variável aleatória discreta com função de probabilidade Px e i=l i=l
valor Xi para i num certo conjunto de índices I. Valor esperado ou esperança valor esperado de uma variável discreta com valores e respectivas probabilidades,
matemática ou média de X é definido por conforme indicados pela Figura 4.1. Efetuando os cálculos, obtemos
( G = E( X)= -0, 3. Se sustentarmos a barra no ponto G, ela permanecerá em
E(X) = J.Lx = L: x;px(x;), eqüilíbrio horizontal.
( iEI O uso da denominação média para o valor esperado da variável tem
( origem histórica, mas também pode ser visto como uma referência a um resultado
desde que a soma esteja determinada. D importante conhecido por Lei dos Grandes Números. Como ilustração, seja X a
O conjunto de valores da variável pode, eventualmente, ser infinito. Se a face obtida no lançamento de um dado honesto. O valor esperado de X é dado por
variável toma um número infinito de valores positivos e negativos, a existência do 6
valor esperado está condicionada a que não ocorra soma do tipo oo - oo, o que E(X ) = LXiPi = 7/2.
resultaria em indeterminação. Note que a nossa definição de valor esperado i=l
permite a ocorrência do valorinfinito (positivo ou negativo). Se, por exemplo,
Se coletarmos, de forma independente, um certo número de valores da variável X
houver convergência absoluta na somatória acima, isto é E lx;! Px(x;) < oo, ou, em outras palavras, se coletarmos uma amostra aleatória de X, poderemos ter
iEI
teremos um valor esperado finito. repetições de valores dentre aqueles que são possíveis para X. Esperaríamos que
A notação será simplificada para J.L, sempre que não houver outras a proporção, com que cada valor aparece na amostra, fosse próxima da respectiva
variáveis envolvidas. O valor esperado pondera os valores assumidos pelas probabilidade. Dessa forma, teríamos a expectativa de que a média dos valores
respectivas probabilidades e não precisa ser um dos valores possíveis da variável. amostrados não ficasse distante do valor esperado da variável. Parece intuitivo
Lembrando o. conceito de equilíbrio de um corpo em Física, podemos considerar o admitir que, quanto maior for o tamanho de amostra, menor diferença haverá
valor esperado como o centro de gravidade de um objeto de massa unitária. Nesse entre a proporção amostrai e a respectiva probabilidade. Assim, para uma amostra
caso, a probabilidade faz as vezes da massa. Por exemplo, considere uma barra suficientemente grande, podemos admitir que a média das observações se
sem peso que tem massas distribuídas nos pontos - 2, - 1, O e 2, de acordo com a aproxima do valor esperado da variável X. Esse resultado é a Lei dos Grandes
figura a seguir. Números, mencionado acima, e será apresentado no Capítulo 6.
182 Capftulo 4: Valor Esperado 183
4.2 Valor Esperado

Exemplo 4.1: Vamos obter o valor esperado de X"' B(n, p) . Temos O valor esperado de X é calculado facilmente e é igual a -1/3. Dessa
n forma, em uma jogada a expectativa é de -R$ O, 33 como saldo. O valor esperado
E( X) =L i(~ )Pi (1- p)n-i obtido não é um valor resultante de apenas uma jogada. Ele deve ser interpretado
i=O Z como a média dos resultados de uma longa repetição desse jogo, sendo que, em
( = t
i=1
n (~- 1)pi-1p( 1 _ p)n-1-(i-1)
z- 1
cada rodada, um dos valores de X ocorrerá. Portanto, o jogo é interessante para a
banca, mas não para o jogador. Se o jogador der sorte e iniciar com saldo
(

( =npL
n-1 (
n~ 1) pv(1-p)n-1-v =np; positivo, o melhor a fazer é parar de jogar!
Exemplo 4.4: Seja X uma variável aleatória discreta com a seguinte função de
O

v=O
f distribuição:

(
em que usamos a identidade i ( 7)
V=i-1.
= n c~ n, 1 ~ i ~ n e a substituição o, X< -2;
1/8, -2 ~X< 1;
( Note que o valor esperado de uma Binomial é o produto dos seus F(x) = 5/8, 1 ~X< 2;
parâmetros n e p. Como ilustração, suponha que a incidência de uma certa doença 7/8, 2 ~X< 4;
é de 10% na população. Podemos considerar que, para um indivíduo escolhido ao 1, X~ 4.
acaso nessa população, a probabilidade de ter a doença é 0,10. Dessa forma, se
( 1000 indivíduos são observados de forma independente, esperaríamos que 100 Para calcular a média, obtemos primeir~ a função de probabilidade. Os pontos de
deles estivessem com a doença. O salto de F(x) indicam os valores de X com probabilidade positiva, assim
(

p~) I ~ 1 ! li I i
Exemplo 4.2: Sendo X"' Poisson(>..), vamos determinar seu valor esperado. 2
Assim,
oo . >.,i e-Á oo >.,i e-Á oo >., (i-1)
E(X)=~z~=~ (i-1)! =À. e-Á~{i-1)! =À..
O cálculo do valor esperado é feito sem dificuldade e seu valor é igual a 5/4.
Veremos, mais adiante, neste capítulo, que o valor esperado pode ser calculado
diretamente a partir da função de distribuição. D
Logo, o parâmetro >.. na Poisson indica também o valor esperado. Se as chegadas
de clientes em um banco se dão de acordo com uma distribuição de Poisson com Exemplo 4.5: Considere X uma variável com distribuição Geométrica de
parâmetro 1O por hora, o número médio de clientes que chegam por hora é parâmetro p. Assim, sua função de probabilidade é dada por
também 10. Isso justifica denominar >.. como a taxa média de ocorrência. O
P(X = j) = p(1- p)i , j =O, 1, 2, · · ·.
Exemplo 4.3: Suponha um jogo com um dado equilibrado e com a seguinte regra:
Temos
em cada rodada, o jogador paga a uma banca R$ 1 para jogar e ganha R$ 1, se der
face 4 ou 5 .e R$ 2, se der face 6. Nos demais resultados, ele não ganha nada. Esse 00 00

jogo é interessante para quem? E(X) = LiP(1- p)j = p(1- P)Lj(1- p)i- 1
j=O j=1
Sendo X o saldo em uma jogada, seus valores são: -1 para as faces de 1
a .
a 3; Opara 4 e 5 e 1 para a face 6. Assim, sua função de probabilidade é dada por
= -p(1- p) L-
00

8p
(1- p)J;

p:b.l ~ I i I ~
1 j=1

como a soma existe, podemos trocar a ordem de operação entre somatória e


derivação.
/84 Capítulo 4: Valor Esperado 4.2 Valor Esperado 185

Então, Para avaliar outros cenários, calculamos o valor esperado de duas outras
variáveis, correspondentes aos mínimo e máximo lucros possíveis. Sejam L; e Ls
a~ . a 1-p
E(X) = -p(1- p)- L....J (1- p)l = -p(1- p)- ( - )
os respectivos limites inferior e superior para L . Assim,
ap j=l ap p E(L;) = (-15 X 0, 10) + (-7 X 0,55) + (-2 X 0,35) = -6,05.
-1 1- p E(Ls) = 17 X 0,10+9 X 0,55 + 2 X 0,35 = 7,35.
-p(1- p) (-) = - ·
=
r p Esses dois valores indicam extremos que não são alcançados, pois existem
o diferentes ações em cada classificação. Por exemplo, nem todas de alto risco terão
o mesmo desempenho, seja otimista ou pessimista. De qualquer forma, esses dois
Exemplo 4.6: Uma corretora aplica dinheiro de clientes na Bolsa de Valores e valores fornecem horizontes que auxiliam na tomada de decisões pela corretora. O
classifica as ações das empresas através do seu risco: alto, médio ou baixo. A
evolução diária do lucro por ação, no último mês, apresentou os seguintes valores Exemplo 4.7: Seja X uma variável aleatória discreta com função de
(em porcentagem sobre o valor unitário): probabilidade dada por:
Ações\ Lucro Mínimo Máximo Média _ )_ ( ) _ { 2lxl(!;l+l) ,X= - 1, - 2 , ...
Alto Risco -15 17 3 P(x -X - PX X - 1
2x(x+l) 'X = 1• 2• '· ·
Médio Risco -7 9 4
Baixo Risco -2 2 1, 5 Inicialmente, vamos verificar que a expressão acima é, de fato, uma função de
probabilidade. Temos O ~ Px(x) ~ 1 e
A tabela se refere a um conjunto de ações de um mesmo tipo (preferencial
ou ordinária, por exemplo) e seus valores foram obtidos em duas etapas. Na 00 00
1 1 00
1 1
primeira, calculamos o mínimo, máximo e a média de cada ação ao longo do mês. ~px(x)=~2x(x+1) =2~(;- x+ 1)
Em seguida, obtivemos o mínimo, o máximo e a média das ações em cada
1 1 1 1 1
classificação (alto, médio ou baixo risco). = 2[( 1 - 2) + (2- 3) + ... ] = 2;
Em termos práticos, para um próximo período, a corretora escolheria
algumas ações para manter e outras para descartar. Entretanto, vamos admitir que segue ainda que
o comportamento expresso na tabela acima será repetido nos próximos períodos.
Estamos interessados em avaliar o desempenho da corretora, se sua carteira de
-oo -oo 1 1 00
1 1
aplicações em reais é de l 0% de ações de alto, 55% de médio e as restantes de x~lpx(x) = x~l 2lxl(lxl + 1) = 2~ y(y + 1) = ... = 2'
baixo risco.
Esse exemplo ilustra, de modo simplificado, alguns dos cálculos de com a conveniente substituição y = -x. Então Px(x) é uma função de
interesse para empresas do mercado financeiro. O desempenho médio será probabilidade.
simplesmente o valor esperado da variável aleatória L: lucro percentual para Para o valor esperado de X temos
cada real aplicado em ações. Temos
-00 00

E(L) = 3 X 0,10 + 4 X 0,55 + 1,5 X 0,35 = 3,025. E(X) =L xpx(x) + LXPx(x).


x=-1 x=l
Dessa forma, a corretora pode projetar para o futuro, um lucro global de 3,025%
sobre seus ativos em ações.
186 Capítulo 4: Valor Esperado 4.2 Valor Esperado 187

Para a parte positiva vem esperados idênticos, sem isso significar igualdade no comportamento das
(
00 00 00 variáveis.
X 1 1 1 1 1
(
~xpx(x) = ~ 2x(x + 1) = 2~ (x +I) = 2(2 + 3 + ···) = oo;
pois a soma acima é parte da série harmônica, que diverge. Para a parte negativa, ftx)
o cálculo é similar e resulta em -oo. Concluimos que não existe valor esperado
nesse caso. D
Definição 4.2: Valor Esperado para Variáveis Contínuas
(
Seja X uma variável aleatória contínua com função densidade f.
( Definimos valor esperado ou esperança matemática ou média de X por
(
E(X) = J:xf(x)dx,
o E( X) JC

desde que a integral esteja bem definida. D Figura 4.2: Centro de Gravidade t Valor Esperado- caso contínuo.
Se a variável é limitada, o cálculo é feito sem ambiguidades e a existência
do valor esperado está assegurada. No caso não limitado, podem aparecer
situações indefinidas do tipo oo - oo, em que diremos que a esperança não existe. Exemplo 4.8: Seja X uma variável aleatória contínua com densidade dada por:
Alguns autores exigem que a integral do valor absoluto seja finita para existir o
1 1
valor esperado. Note que, na nossa definição, não fazemos essa exigência e f(x) = 4 J(-2,o)(x) + 4 J(2,4)(x).
podemos ter esperanças com valor infinito (positivo ou negativo). Como podemos
repartir a integral acima nos intervalos ( -oo, O] e (0, oo ), E(X) vai estar bem Para o valor esperado temos,
definida se a integral em pelo menos um desses intervalos, for finita; isto é

1: xf(x) dx < oo ou 1
00

xf(x) dx < oo.


E(X) = 1 00

- oo
xf(x) dx = 1° x~
-2 4
dx +
J2tx~ dx =
Pelo gráfico de f(x), apresentado a seguir, notamos que o valor esperado
1.

A interpretação de E(X) para o caso contínuo é similar ao mencionado é o centro de gravidade da distribuição.
para variáveis discretas. O valor esperado é o centro de gravidade da distribuição Para reforçar a interpretação do valor esperado considere, por exemplo,
da variável aleatória. que as massas de probabilidade correspondentes aos intervalos [-2, O] e [2, 4] são
Como ilustração, considere o gráfico da densidade apresentada na Figura deslocadas para, respectivamente, os intervalos [-3, -1] e [3, 5]. O ce~tro de
4.2. Admita que o eixo x é uma barra sem peso e, apoiada nessa barra, temos uma gravidade permanecerá inalterado e, portanto, também o valor esperado. E claro
massa com peso unitário, distribuída de acordo com a densidade de que existem modificações que alterariam o valor esperado e serão discutidas mais
probabilidade. Não é difícil perceber que poderemos ter mudanças significativas ~~. D
no valor esperado, se alguma massa de probabilidade é deslocada para um valor
muito alto ou muito baixo de x. Diferentes densidades podem produzir valores
188 Capítulo 4: Valor Esperado 4.2 Valor Esperado 189

ftx) I F(x) =
o,
2
x j 4,
(2x- 1)/4,
-(x2
1,
- 6x + 5)/4,
X< O;
0 ::;
1 ::;
2 ::;
X>
X< 1;
X< 2;
X ::;

3.
3;

1/4
A função densidade é obtida por derivação de F nos respectivos intervalos.
Assim:
1 1 1
-2 o E(X) 2 4 X f(x) = 2 x I[o,l)(x) + 2 I[1,2)(x)- 2(x- 3) I[2,3J(x).
Para o valor esperado temos
Figura 4.3: Função Densidade e Valor Esperado (Exemplo 4.8).
E(X) =I: xf(x) dx =1x~ 1
dx + i\~ dx -1 3
3
x (x; ) dx =~-
Exemplo 4.9: Seja X rv Exp(a), a> O. Seu valor esperado será dado por: Veremos que o cálculo do valor esperado pode ser feito diretamente, a partir da

E( X) =100
o
xae-ax dx = -xe-ax 100 -
o
100 o
( -e-ax) dx =-•
1
a
função de distribuição, com auxílio de uma expressão a ser apresentada.
Exemplo 4.12: Seja X uma variável Cauchy de parâmetros a
D
= O e f3 = 1. Sua
densidade é dada por:
em que aplicamos integração por partes. D
1
Exemplo 4.10: Sendo X N(J.L, a 2
), vamos verificar que o parâmetro J.L é a f(x) = ,-oo < x < oo.
rv
rr (1 + x 2)
média de X. Temos,
Para o cálculo do valor esperado, repartimos a integral em duas partes:
E(X) =
00 X _!(=)2
;;:;-::_ e 2 • dx =
100 ay;;:;-::_+ J.L e-2YI 2ady,
1-oo v 2rra
com a substituição y = ~. Segue então que
-oo v 2rra E(X) =I: xf(x) dx =I: xf(x) dx + 1 00

xf(x) dx;

E( X) = a1
;;:;-::_
V 2rr
00

y e-21Y2 dy 1v
+ J.L
00
1 e-212
;;:;-::_
2rr
Y dy
Temos,
roo ro x 1 roo 2x
a
-oo -oo
lo xf(x) dx =lo rr (1 + x2) dx =lo 2rr (1 + x2) dx
= -- X 0 + J.L X 1 = J.Lj
~ 1
= -[ln (1 + x 2 )] 100 = oo;
2rr o
uma vez que, a primeira integral se anula por simetria e a segunda corresponde à
integral da densidade N(O, 1). D de modo análogo, segue que

Exemplo 4.11: A variável contínua X tem função de distribuição dada pela


expressão a seguir:
190 4.2 Valor Esperado 191
Capítulo 4: Valor Esperado

1: xf(x) dx = -oo.
Seja h uma função limitada e considere
intervalo [a, b]. Definimos, para Xi-1 ~ x ~X;,
n
U(h ) = L
Xo, X1, • • ·, Xn

n
M; .ó.x; e L(h ) =L m ; .ó.x;;
uma partição do

Dessa forma, o valor esperado não existe. Observe que a densidade i=1 i=1
Cauchy, com os parâmetros acima, é simétrica ao redor do zero, o que poderia
induzir a tomar o zero como valor esperado. Entretanto, a definição de esperança em que M; = sup[h(x)] e m; = inf[h(x)] para x E [xi-1. x;], sendo .ó.:z:; _a
exige que pelo menos uma das partes, em que foi repartida E( X), seja finita. O amplitude desse sub-intervalo. As somas U e L dependem da part1çao
considerada, entretanto, se, ao passar ao limite com a amplitude máxima dos sub-
As definições de valor esperado para variáveis discretas e contínuas, intervalos indo para zero, as quantidades U e L forem iguais, diremos que seu
apresentadas até aqui, respondem por boa parte dos casos práticos encontrados.
valor comum é a integral de Riemann da função h em [a, b].
Contudo, sabemos que existem outros tipos de variáveis. Lembremos que a
Suponha, agora, que F é uma função monótona não decrescente (tal como
caracterização da variável aleatória, através da sua função de distribuição,
a função de distribuição) e, nas mesmas condições anteriores, definimos
permitiu a unificação dos tratamentos com rigor matemático. Variáveis do tipo
singular têm interesse principalmente teórico, mas o mesmo não podemos dizer do n n
tipo misto. Por exemplo, uma variável mista seria adequada para descrever o Up( h) = L M; .ó.F; e Lp(h) = L m; .ó.F;;
~1 ~1
tempo de espera para atendimento em um caixa eletrônico. Nesse caso, se não
houver fila, esse tempo é zero; em havendo, esperamos um tempo aleatório, em sendo .ó.F; = F(x;) - F(x;_ 1). Se Up e L p convergirem.para um mesmo. valor,
geral modelado por uma variável contínua. quando as amplitudes de todos os sub-i~tervalos s~ a~roxtmam de zero, ~m:mos
Podemos unificar as expressões do valor esperado para os diversos tipos que 0 valor comum é a integral de Riemann-StteltJeS de h em relaçao a F.
de variáveis, se utilizarmos a integral de Riemann-Stieltjes. Essa é uma forma Observe que a integral de Riemann-Stieltjes segue os mesmos passos ?a ~e
elegante e freqüentemente utilizada nos textos intermediários de probabilidade. Riemann, mas, ao invés dos comprimentos, a ponderação dos valores de h e fetta
Não importa a integral que estejamos usando, sempre existirão funções pela diferencial de valores de uma função F. Essa fu.nç~o ~ monó~ona e não
que não serão integráveis ou por suas características ou pelo domínio usado. decrescente e, em geral, é diferente de h. Para as pnnc1pa1s propnedades da
Trata-se, portanto, de discutir a conveniência do uso de uma ou de outra integral, integral de Riemann-Stieltjes, o leitor pode consultar Chae. [80], e~ que ~ambém
a luz do que ela nos auxilia no desenvolvimento da teoria ou dos cálculos podem ser encontradas infonnações similares sobre outros tlpos de m~e~rats.
necessários. A discussão da caracterização das funções integráveis, nos vários llustramos, a seguir, o uso dessa integral para calcular probablltdades.
modos de integração, é um assunto da área de Análise Matemática e não nos
aprofundaremos nessa questão. O importante a destacar é que, em termos práticos, Seja X uma variável com função de distribuição F . Temos
o cálculo de integrais pela definição quase nunca é feito e os vários modos de
integrais recaem sempre numa soma ponderada ou numa integral de Riemann. 1bdF(x ) = F(b)- F(a)= P(a < X ~ b);
Para introduzir a integral de Riemann-Stieltjes a leitores não
familiarizados com ela, relembramos, inicialmente, as idéias da construção da em que estamos tomando a função h, mencionada acima, como sendo a constante
integral de Riemann num intervalo finito [a, b]. O caso infinito é tratado, passando 1. Observe que a integral feita no intervalo fechado [a, b] resulta na massa de
ao limite, os extremos de integração. probabilidade de X, no intervalo semi-aberto (a, b]. No caso contínuo, isso não
fará diferença, mas é preciso ter atenção no caso discreto.
-
192 Capítulo 4: Valor Esperado 193
4.2 Valor Esperado

Sendo X uma variável aleatória contínua, a função de distribuição F é Exemplo 4.13: Seja X- Exp(>. ). Temos F(x) = 1- e-.\x, para x > Oe, assim,
absolutamente contínua e temos
dF(x) = f(x) dx 1 3
dF(x) = F(3)- F(1) = {1- e- 3.\) - (1- e-À)= e-À - e-3\

com f sendo a derivada de F. Desse modo


esse cálculo também poderia ser feito através da densidade da Exponencial:

1 3
dF(x) = 1 3
f(x) dx = 1 3
>. e-.\xdx =e-À- e-3\

e a integral de Riemann-Stieltjes é calculada através de uma integral de Riemann.


nesse caso, as duas últimas integrais são de Riemann. o
Se X é uma variável discreta, temos
Exemplo 4.14: A variável X tem função de distribuição dada por
ibdF(x) =L P(X = x), o, X< 1;
a a<x:5b 1' 1 ::S: X< 2;
com o cuidado de que a soma não inclua o valor do extremo inferior a.
F(x) = ~' 2 ::S: X< 3;
{ 1.
X ;?: 3.
Para qualquer X com função de distribuição F vale '

1: dF(x) = F(b)- F(b -) = {~(X= b),


se X é contínua;
se X é discreta.
Não é difícil verificar que X é uma variável aleatória discreta com
valores 1, 2 e 3, com probabilidades, respectivamente, iguais a 1/4,1/2 e 1/4.
Usando a integral de Riemann-Stieltjes, o resultado também pode ser obtido. Por
Para calcular P(a <X< b), temos que exc1uir o valor b, no limite superior da exemplo,
integral. Assim, {1 1
= 1) = ) = F(1)- F(r) = 4.
P(a <X< b) = 1 b-
dF(x) = F(b-)- F(a).
P(X

Para calcular P(2 :::; X :::; 3), temos


1
_ dF(x)

Para os intervalos infinitos, o cálculo é análogo: {3 1 3


P(2:::; X:::; 3) = ) _ dF(x) = F(3)- F(T) = 1- 4 = 4·
1~ dF(x) = F(b)- F( -oo) = F(b) = P(X:::; b) ; 2

Dessa forma, se desejarmos incluir o 2 no cálculo da probabilidade, a integral de


ioo dF(x) = F(oo)- F( a)= 1- F( a)= P(X >a); Riemann-Stieltjes deve ser tomada a partir de 2-, pois X é variável discreta. O

1: dF(x) = F(oo)- F( -oo) = 1.


Tendo em vista o exemplo anterior, podemos estabelecer de modo geral
que, se X é discreta com função de distribuição F, temos

De novo, ressaltamos que é preciso ter cuidado em distinguir os casos contínuo e fb dF(x) =L [F(x)- F(x-)],
discreto, conforme veremos nos próximos exemplos. la a<x::;b

em que a contribuição para a somatória será apenas nos pontos de salto de F.


,,~ f 194 Capftulo 4: Valor Esperado 4.2 Valor Esperado 195

fI
I Exemplo 4.15: A variável X é do tipo mista e tem função de distribuição dada Temos, então
por
[ 3- 2

'
1
f o, X< -2; P(X < 3) = J_oo [3dP(x) + 3dF"c(x)]
I -J:i (x 2 + 4x + 4), -2:5 X< O; 3- 3-
[ ~dFd(x) + [ 00 ~dF"c(x)
F(x) =
~(x+2),
~(x + 3),
0 :5 X< 1;
1 :5 X< 2;
=
00
'
I -J:i(-x2 + Bx + 8), 2 :5 X< 4; = ![Fd(3-)- Fd( -oo)]
3
+ ~[F"c(3-)- Fac( -oo)]
3

'
I
1,

Para o cálculo de probabilidad es procedemos de forma usual, conforme


apresentamos a seguir:
X~ 4.
= ![1-0]+~[
3
23
3 16
-0]
15

3 = 24°
23 23
1 - -
P(X < 3) = dF(x) = F(3 ) - F(-oo) =--O= -;
-oo 24 24 No cálculo acima, utilizamos a aditividade no integrador e a passagem de
2
20 1 19 constantes para fora da integral, propriedades das integrais de Riemann-Stieltjes.
P(-1 :5 X :52)=
00
1-1 -
dF(x) = F(2)- F(-r) = - - - = -;
24 24 24 As demais probabilidades podem ser calculadas de modo análogo. O

Apresentamos, a seguir, outra definição de valor esperado, incorporando a


P(X > 3/2) =
1 ~
3
dF(x) = F(oo)- F(3/2) = 1-- = -·
4 4
1
nova forma de calcular probabilidades. A interpretação e as discussões sobre a
existência permanecem as mesmas já apresentadas para os casos discreto e
Se escrevermos F como a soma de duas funções de distribuições, uma contínuo.
discreta e uma contínua, podemos refazer o cálculo acima com o auxílio das Conforme já mencionamos, o valor esperado de uma variável será sempre
propriedades da integral de Riemann-Stieltjes. É possível verificar que F pode o mesmo não importando a forma utilizada para o seu cálculo. Isso é garantido
ser escrita como: pela coerência entre as diversas definições. O que pode ocorrer em casos
especiais (mais teóricos do que práticos) é que uma ou outra forma de calcular
resulte em inexistência do valor esperado por problemas relativos à integração.
Definição 4.3: Valor Esperado- Integral de Riemann-Stieltjes
sendo
Seja X uma variável aleatória com função de distribuição F. Definimos
o, X< -2; valor esperado ou esperança matemática ou média de X por

Fd(x) =
o,
{· 1,~·
X< O;
O :5 x
X~ 1;
< 1; e F"c(x) =
fii(x 2
+
i(x + 1) •
fB( -x 2
4x

+
+ 4)

Bx),
, -2:5 X< O;
0 :5 X< 2;
2 :5 X< 4;
E(X) = 1: xdF(x),

1, X~ 4. desde que a integral esteja bem definida. o


( . Dessa forma, dF(x) = ~dFd(x) + ~dF"c(x).
- 196 Capftulo 4: Valor Esperado 4.2 Valor Esperado 197

Assim, para a parte discreta, vem


Exemplo 4.16: A variável X é discreta e com função de distribuição F,
apresentada a seguir: 00
1 1 1 11

o, X< -3;
1 -oo
-dFd(x)
3
X = -[0 X-+ 1 X 2J = 6'
3 2.
l, -3 $X< -1;
8 Para a parte contínua, calculamos antes a densidade. Derivando pac, obtemos:
7
24' -1 $X< 1;
F(x) = 13
1 $X< 2;
o, X< -2 OU X~ 4;
24'
,1,
6 2 $X< 3; rc(x) = !(x+2 ),
1
-2::; X< O;
0 $X< 2;
1, X~ 3. { 4'
l(-x+4), 2 $X< 4.
Para a média de X temos

E( X) = 1: x dF(x) =:_oo~<oo x [F(x)- F(x-)] =


Então

1 00 2
x -dFac(x) = 1 00
2
X- rc(x) dx =
1
8
1 1
6
7
= (-3) X - + (-1) X-+ 1 X -4 + 2 X-24 + 3 X-=-·
6 24
1 19
-oo 3
=
1
-oo 3
-x(x+2)â x+ 121
01
-212
-xdx+
o 6
1
2
4
1 x(-x+4)dx
12
Esse valor pode ser confirmado via a expressão da média para o caso discreto. = 2/3.
Nesse caso, obtém-se primeiro a função de probabilidad e e depois a média. O
Concluímos que
Exemplo 4.17: A variável X é contínua com a seguinte função de distribuição: 1 2
E(X) = - + -3 = 5/6.
= { ~'- e4- 2x,
X< 2; 6
F(x) X~ 2.
Conforme veremos, em proposição a ser apresentada na Seção 4.4, o cálculo do
A variável X corresponde a restrição da Exponencial de parâmetro 2 em valores valor esperado poderá também ser feito de urna forma direta, sem necessidade de
obter a decomposição da função de distribuição, O
maiores ou iguais a 2. Para calcular o valor esperado, usaremos que
dF(x) = 2é- 2x If2,oo)(x) dx e, portanto, temos: Se a variável tiver parte singular, ainda podemos usar a integral de

E(X) = 100

-oo
xdF(x) = {oo x2e4- 2xdx = {oo (y + 2) 2e- 2Ydy = 5/2;
h h
Riernann-Stiltjes, mas o cálculo é bem mais complicado. É preciso usar a
definição da integral e aplicá-Ia em sucessivas etapas, seguindo passos similares
aos utilizados na construção da função de distribuição singular (ver Capítulo 3).
após a conveniente troca de x por y - 2. o Exercícios da Seção 4.2:
Exemplo 4.18: Vamos calcular o valor esperado para a variável mista do 1. Verifique que o valor esperado do modelo Hgeo(m, n, r) é rmfn. Nesse
Exemplo 4.15. Usaremos a decomposiçã o já apresentada de modo que: modelo n é o número total de objetos na população, dos quais m são do tipo I
e os r~stantes são do tipo I I e r é o tamanho da amostra retirada sem
reposição. A variável do modelo é o número de objetos do tipo I na amostra.
198 Capítulo 4: Valor Esperado 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 199

2. Seja A um evento qualquer no espaço de probabilidade (0, :F, P). Mostre que
O, se x < O ou y < O;
P(A) = E(IA).
xy, se O $ x < 1, O $ y < 1;
3. O vetor aleatório (X, Y) é um ponto escolhido ao acaso no quadrado de Fx,y(x, y) = x, se O $ x < 1, y 2: 1;
vértices (0, 0), (1, O), (1, 1) e (O, 1). Obtenha o valor esperado de E(IA), sendo y, se x 2: 1, O $ y < 1;
V
que A= {(x, y): (x- 2 + (y- ~) 2 $H· 1, se x 2: 1, y 2: 1.
4. Determine E( X), sendo a função de distribuição da variável X dada por:
10. Seja X simétrica ao redor de uma constante a, isto é,
O, se x < -2; P(X 2: a+ x) = P(X $a- x) Vx E R Admita, ainda, que X é contínua e
1/2, se -2 $ x < O; que E( lXI) < oo. Mostre que E( X) = a.
F(x) = 5/8, se O$ x < 1;
7/8, se 1 $ x < 2; 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes
1, se x 2: 2.
Pela natureza mais abstrata desta seção, ela pode ser considerada opcional
para os leitores que desejam um tratamento menos formal dos conceitos de valor
5. A função de distribuição da variável X é dada a seguir. Obtenha E( X). esperado. Vamos apresentar uma definição teórica e abstrata de valor esperado
o, que dá conta de casos gerais. Iniciamqs com uma breve descrição sobre modos de
se x <O;
integração.
se O$ x < 1;
{ ~~~:
F(x) = A idéia de valor esperado está associada a uma soma ponderada dos
se 1 $ x < 2;
valores da variável pelas respectivas probabilidades. De modo geral, a integral é
1, se x 2: 2.
uma operação matemática que também pode ser vista como ponderação de
valores. Portanto, nada mais natural do que existir uma estreita relação entre valor
6. Seja X uma variável aleatória contínua com densidade de acordo com o modelo esperado e integral.
Gama de parâmetros a e /3. Obtenha o valor esperado de X. A construção de integrais abstratas, tais como as integrais de Lebesgue e
7. A variável aleatória X segue o modelo de Weibull, isto é, sua densidade é dada de Lebesgue-Stieltjes, é feita com o auxílio da Teoria da Medida, uma parte
por f(x) =a>. xa-l e-Ax" I(o,oo) (x), a,>.> O. Obtenha a média de X. importante da área de Análise Matemática. Sendo n um conjunto qualquer, :F
uma a-álgebra de subconjuntos de n e M uma função dos elementos de :F em JR,
8. Calcule o valor esperado de X com função de distribuição: denominamos (0, :F, M) de espaço de medida. A função M é denominada
medida e satisfaz propriedades similares às de probabilidade. É imediato
o, sex < -1;
reconhecer que um espaço de probabilidade é um particular espaço de medida.
-(x2 - 1)/4, se -1 $ x <O; Os comentários, a seguir, ajudam a compreender a motivação para o
F(x) = (x 2 + 1)/ 4, se O$ x < 1; cálculo do valor esperado através de integrais abstratas, ao invés do uso da
1/2, se 1 $ x < 2; integral de Riemann ou Riemann-Stieltjes.
1, se x 2: 2. As construções das integrais de Riemann e Lebesgue são baseadas em
diferentes idéias. Na teoria de Riemann, que origina a integral de Riemann-
9. Determine E( X) e E(Y), sendo a função de distribuição de (X, Y) dada por: Stieltjes, o domínio lR é particionado em sub-intervalos disjuntos. Para a integral
de Lebesgue, é o contra-domínio que é particionado primeiro e a partir daí,
através da imagem inversa, a divisão do domínio é obtida. Como conseqüência, a
integral de Riemann é mais afetada pelas descontinuidades da função a ser
__..
II
200 Capítulo 4: Valor Esperado 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 201

integrada. Nesse sentido, a integral de Lebesgue seria mais robusta e poderia X + e X - variáveis aleatórias não negativas tais que X = X+ - X - (ver
existir para várias funções que não são Riemann integráveis.
Capítulo 2).
É preciso ter cuidado com algumas afirmações sobre a generalidade da Em cada etapa são provadas diversas propriedades como linearidade e
integral de Lebesgue. Poderíamos ser levados a acreditar que toda função multiplicação por constante, entre outras. As propriedades de uma etapa embasam
Riemann integrável também é integrável no sentido de Lebesgue. Para funções a definição da etapa seguinte. Como já mencionamos, esse é o caminho utilizado
com certas propriedades, essas integrais coincidem. Entretanto, existem situações para definir integrais mais gerais, mas é também um modo conveniente de provar
em que um tipo de integral existe e o outro não. O leitor pode consultar Chae [80] que uma certa propriedade das integrais vale num caso geral.
para uma apresentação mais formal e outras questões sobre o relacionamento Se o valor esperado a ser calculado se refere a uma função de variável
entre elas. aleatória, o mesmo procedimento é utilizado.
A integral de Lebesgue de uma função f qualquer é obtida em etapas.
Inicialmente tratamos com funções simples ou em escada que são funções Definição 4.4: Valor Esperado para Variáveis Discretas Simples
positivas com um número finito de valores diferentes. Nesse caso, a integral é Seja X uma variável aleatória discreta simples em (O, :F, 'P) , isto é,
definida pela ponderação de valores da função pela respectiva medida associada à k
imagem inversa desses valores. A integral é estendida para funções positivas, X (w) =E x; IA;(w) com x; ;::: O, Vi, k E N e A1, A2, .. ·, Ak sendo eventos que
usando o fato destas serem limites de funções simples. Finalmente, para uma i= l

função qualquer, definimos a integral de Lebesgue como a diferença da integral


formam uma partição do espaço amostrai n. Definimos valor esperado ou
esperança matemática ou média de X por
de suas partes positiva e negativa.
A integral de Lebesgue-Stieltjes usa as mesmas idéias construtivas da k
integral de Lebesgue, mas a medida utilizada na integração é obtida a partir de E( X) = In X dP = ~ x; P(A;),
uma função monótona não decrescente. Essa função pode, em particular, ser a
função de distribuição de uma variável aleatória qualquer, revelando, dessa forma, em que a medida dP é obtida a partir de F (função de distribuição de X) e, para
o porquê do uso dessas integrais na definição de valor esperado. Em resumo, A;= {w E O : X(w) = x;}, temos P (A;) = F(x;)- F(x;). O
podemos dizer que para a Teoria das Probabilidades, a vantagem no uso de
integrais do tipo Lebesgue refere-se a permitir domínios abstratos para as A representação de uma variável discreta simples é única, se exigirmos
variáveis aleatórias e permitir a integração de um maior número de funções não que os valores x; 's sejam distintos. Entretanto, caso não sejam, pode-se
contínuas. demonstrar que o valor esperado não se altera com diferentes representações da
A definição a ser apresentada considera o valor esperado como uma mesma variável (ver exercício no fim desta seção).
integral de Lebesgue-Stieltjes aplicada no espaço de probabilidade ( n, :F, 'P). A Ressaltamos que a Definição 4.4 não permite calcular o valor esperado de
medida de integração é obtida da função de distribuição da variável aleatória. uma variável discreta qualquer, pois esta poderia ter valores negativos, ou ainda,
Seguindo os passos da construção teórica dessa integral, percorremos três um número infinito de valores diferentes.
etapas para definir valor esperado no caso geral. Iniciamos, definindo o valor Um caso já resolvido com o uso da definição acima, é o de calcular o
esperado para variáveis aleatórias discretas simples, isto é, variáveis aleatórias valor esperado da função indicadora de um evento. Nesse caso, teríamos
que são discretas, não negativas e com um número finito de valores diferentes. E(!A) = P(A), para qualquer A E :F.
Nesse caso, o valor esperado é a soma de produtos de valores da variável pela
respectiva "medida" de probabilidade. Em seguida, definimos a esperança de Apresentamos, a seguir, algumas propriedades básicas para o valor
variáveis não negativas como limite da esperança de variáveis simples. A terceira esperado de variáveis discretas simples.
etapa é obter o valor esperado para uma variável aleatória qualquer não
importando o seu sinal. Nesse caso, tomamos E{X) = E(X +) - E{X -), sendo
202 Capítulo 4: Valor Esperado 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 203

Proposição 4.1: Para o item (iii), observe que x; 2: Yi sempre que A; n Bi =J 0, então,
Sejam X e Y variáveis aleatórias discretas simples em (O, F, P) e k r k r
a, b 2: O. Temos: E( X) = L L x;P(A; n BJ) 2: L LY;P(A; n Bi) = E(Y).
(i) E(aX + b) = aE(X) + b; i=l j=l i=l j=l

(ii) E( X+ Y) =E( X)+ E(Y);


Isto completa a demonstração. O
(iii) Se X 2: Y em O, então E( X) 2: E(Y).
No restante do capítulo, alguns resultados anunciam sua validade para
Demonstração: todo w E O. Poderíamos enfraquecer as afirmações, requerendo que os resultados
Vamos considerar que, nas condições da definição de variáveis simples, fossem válidos em conjuntos de probabilidade 1 (não necessariamente o O).
k r Assim, o resultado seria válido para quase todo w E O, indicando que é
temos as representações: X(w) =I: x; fA.(w) e Y(w) = LYi IBj(w). Para verdadeiro em todos os pontos de n exceto em um conjunto de probabilidade
i=l j=l
aliviar a notação, omitiremos w das expressões. zero.

Para verificar (i), observe que aX + b é uma variável discreta simples que Proposição 4.2:
assume o valor ax; + b no conjunto A;. Segue então que Suponha que XI, x2, ... e y são variáveis aleatórias discretas simples em
(f!, F, P) tais que, quase certamente em n, O~ X1(w) ~ X2(w) ~ ··· e
E(aX + b) = fn(aX + b)dP = t(ax; + b)P(A;) = O~ Y(w) ~ limXn(w). Então,
n-+oo

k k E(Y) ~ lim E(Xn).


n-+oo
= Lax;P(A;) + LbP(A;) = aE(X) + b,
i=l i=l Demonstração:
uma vez que os A; 's formam uma partição de n. Sendo f > O e n E N, considere An(w) = {w;Xn(w) +f> Y(w)}. A
Para a demonstração de (ii), observamos que X + Y também é uma seqüência de eventos An é monótona não decrescente e u An = n. Salvo seja
00

variável aleatória discreta simples com valores x; + Yi em A; n BJ· Assim, n=l

E(X + Y) = k(X + Y)dP = tt (x; + Yi)P(A; n B 1)


indispensável, omitiremos a menção a w nas expressões abaixo. Para todo n
positivo, temos a seguinte desigualdade:
Xn IA,. + fiA,. 2: Y IA,.,
k r k r
= L L x;P(A; n Bi ) +L LYJP(A; n Bi) que implica em
i=l j=l i=l j=l

=E( X)+ E(Y),


que decorre de reescrever X e Y da seguinte forma: Observe que Xn 2: Xn IA,. e portanto, E(Xn) 2: E(Xn IAJ· Além disso, temos
E(dAJ = fE(IAJ ~f. Então,
k r k r
X= LLx; IA,nBj e Y = LLYJ IB1nA., E(Xn) 2: E(Y IA..)- f. (1)
i=l j=l i=l j=l

pois os A;'s e B/s formam partições de n.


204 Capítulo 4: Valor Esperado 4.3 Valor Esperado-Integral de Lebesgue-Stieltjes 205

r
Suponha que Y = E y1 IBi seja a representação dessa variável. g,(x)

j=1
Lembrando que A 1. A 2 , ···,Ar formam uma partição de O, temos
r r
Y lA,.= LYilBJA,. = LYilBinA,.·
j=1 j=1

Assim, I ········--········································-······-·······································- - - - -

r
E(Y IA.) = L Yi P(Bj n An)·
j=1
112 -·· ·••---oo
Observe que, para cada j fixado, a seqüência de eventos Bj n An é não
decrescente em n . Logo, pela continuidade da probabilidade, temos que
lim P(Bi nA,) = P(Bi )· Então,
n->oo
r Figura 4.4: Função 01(x).
lim E(Y lA,,)= "' Yi P(Bi) = E(Y ).
n --t- oc ~
j=1
gjx)
Aplicando esse resultado na expressão (1) e passando ao limite, obtemos
lim E( X,) 2:: E(Y ) - f, ···········--······-·--· ··-· ·-·----···-···---·-·······--······--···--...---
n->oo
714 -·-···················-··
que, valendo para todo f > O, implica lim E( X,) 2:: E(Y ) e isto completa a
n->oo 31:!

demonstração. o S/4 ··········-···· - ······•·····• ···-··· ····-·········----..-6


A próxima proposição indica que uma variável não negativa pode ser I ······ ···· ~
aproximada por uma sequência monótona de variáveis discretas simples. Esse 3/4 . ... · - ·..-...<>
i .
resultado é fundamental para a tarefa de expandir a definição de valor esperado.
112 . . .,..._._o
Antes de enunciar a proposição, vamos apresentar um exemplo ilustrativo da
···-- ~
aproximação a ser efetuada. 114 ······-- ·············

Exemplo 4.19: Considere a função quadrática f( x) = x 2 para x 2:: O. Com o 112 & ..fjfz 1 ..JS12 .J612 ..J'In ,f!
objetivo de aproximar f por funções simples, definimos 9n ( x), n 2:: 1:

_
(k-1)
""2" se (k- 1) <f(
""2" _ x) < _ 1, 2, ... , n 2"·,
Fk , k- Figura 4.5: Função 02(x).
9n ( X ) -
{ n se f (x) 2:: n .
Os gráficos de 9 1 e 92 são apresentados nas figuras a seguir. Dessas figuras, podemos perceber como a construção sucessiva da
aproximação é feita. Sugerimos ao leitor fazer o gráfico de 93 • O
206 Capítulo 4: Valor Esperado 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 207

Proposição 4.3: representando a união disjunta de dois intervalos, com amplitude 2}+ 1 •
Suponha que Y é uma variável aleatória não negativa em (n, F , P ). Esses intervalos podem ser usados na construção de Xn+l (w) e, para o wo
Então, existe uma seqüência monótona { X n : n ~ 1} de variáveis aleatórias considerado, podemos ter duas opções distintas de valores para X n+1 ( w0 ). Elas
simples em (n, F, P) tal que: correspondem aos extremos inferiores dos intervalos acima. Em ambos os casos,
esses valores são maiores ou iguais ao de X n(wo). Logo concluímos, X n :::::; Xn+1
lim Xn(w) = Y(w), w E
n->oo
n. em Ant·
Tomemos agora wo E An, logo Y(wo) ~ n e Xn(wo) = n. Lembremos
Demonstração:
que, para Acn+l)k• os valores de k vão até (n + 1)2n+l , isto é,
Para obter uma sequência de variáveis simples, vamos dividir os valores
k = 1, 2, · · ·, n2n+l, n2n+l+ 1, n2"+1 + 2, .. ·, (n + 1)2n+l_ 1, (n + 1)2n+l.
de Y em intervalos com extremos racionais da forma:
Observe que, para k = n2n+l + 1, o limite inferior para o valor de Y , no
correspondente Acn+l)., é igual a n.
Para avaliar o comportamento de Xn+l(wo), precisamos considerar se o
com n, k E N, 1 :::::; k :::::; 2n e n ~ 1 fixado. valor de Y (w 0 ) é menor, ou não, que n + 1.
Para n = 1, 2, · · ·, considere os seguintes conjuntos de n: Se temos n:::::; Y (wo) < n + 1, então wo pertence a um dos eventos
A(n+l)t• com o índice k sendo inteiro e compreendido entre n2n+l + 1 e
k-1 k} (n + 1)2n+l - 1. Assim, podemos escrever Xn+l(w0 ) na forma n + ~ para
Ant = {w E n:~ ::S Y ( w) <
2
n , 1 :::::; k ::S n 2n;
algum j = O, 1, 2, ... , 2n+l - 1. Logo, vale Xn(wo):::::; Xn+l(wo) nesse caso.
An = { w E n : Y (w) ~ n }· Supondo Y (wo) ~ n + 1, temos Xn+1(wo) = n + 1 > Xn(w 0 ) pela
definição dessa variável. Então, segue que X n : : :; Xn+l em An.
Tendo em vista que Y é variável aleatória, os conjuntos acima são Concluímos, assim, a verificação de que a seqüência é monótona não
eventos, isto é, pertencem a 0'-álgebra F. Podemos, então, definir uma seqüência decrescente. Isto é,
de variáveis aleatórias discretas simples da seguinte forma:
Xn(w) ::S Xn+I(w) ::S Y(w), Vn E N, w E n.
lim Xn(w),
Como seqüências monótonas têm limite, 'I'11:arantimos a existência de n~oo
Vw E n. É bom notar que, eventualmente, pode existir algum w em que esse
Vamos verificar que essa seqüência é monótona não decrescente em n. limite é infinito.
Para Wo E Anp com k e n fixados, temos Se, para algum w, Y (w) lim Xn( w) = Y(w). Isto vale pois,
< oo, temos n-.oo
- (k- 1)
para n suficientemente grande, I Xn(w) - Y(w) l < f,..
X n (Wo ) -
2n Por outro lado, se para algum w, Y(w) = oo, então Xn(w ) = n para todo
lim Xn(w) = oo = Y (w).
n. Dessa forma, para esse w, n-.oo
e ainda [ k;.l :::::; Y (w 0 ) < f.; J, que é equivalente a [;~.:;} :::::; Y(w0 ) < 2~~I].
Em resumo, temos que lim Xn(w) = Y (w), Vw E n e a proposição está
Este intervalo pode ser reescrito como n->oc
demonstrada. D
2k-2 2k - 1] [2k-1 2k]
[ 2"+1 ~ Y(wo) < 2n+l U 2n+l ~ Y(wo) < 2n+l ,
- 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 209
208 Capítulo 4: Valor Esperado

Definição 4.5: Valor Esperado para Variáveis Não Negativas (iii) Sendo X - Y não negativa, pela parte (ii), temos:

Seja X uma variável aleatória não negativa em (0, :F, 'P). Definimos E( X) = E( X- Y) + E(Y) ~ E(Y).
valor esperado ou esperança matemática ou média de X por Isto completa a demonstração. D
E(X) = limE(Xn), Consideramos agora que X é uma variável aleatória qualquer em
n---+oo
(0, :F, 'P). Suas partes positiva e negativa são variáveis aleatórias não negativas
em que {Xn : n >O} é uma seqüência monótona não-decrescente de variáveis no mesmo espaço de probabilidade. Dessa forma, X = x + - x- com
aleatórias simples no mesmo espaço de probabilidade e tal que temos a
convergênciaXn(w)-+X(w), \:fw E O. O x+ = !(lXI +X)= {X, X~ O;
2 O, X< O.
É possível verificar que o valor de E(X) não depende da seqüência de
variáveis aleatórias simples utilizada para passar ao limite. Também não é díficil x- = !(IXJ-X) = {-X, X:::; O;
provar que, no caso de X ser uma variável aleatória simples não negativa, as duas 2 O, X > O.
definições até agora apresentadas, produzem o mesmo valor.
Pela definição e pelas propriedades da esperança para o caso de variáveis não
Proposição 4.4: negativas, o caso geral pode agora ser definido sem dificuldade a partir das etapas
anteriores ..
Suponha que X e Y são variáveis aleatórias não negativas em (0, :F, 'P) .
Então, para todo a, b E JR; a, b ~ O. Temos: Definição 4.6: Valor Esperado-Caso Geral
(i) E(aX + b) = aE(X) + b; Seja X uma variável aleatória qualquer em (0, :F, 'P). Valor esperado ou
esperança matemática ou média de X, se existir, é dado por
(ii) E(X + Y) = E(X) + E(Y) ;
(iii) Se X ~ Y em O, então E( X) ~ E(Y).
Demonstração: Em termos de notação é comum indicar a esperança como
(i) Seja {Xn : n > O} uma sequencia monótona não-decrescente de
E(X) = fnx(w) dP(w) ;
variáveis aleatórias simples tal que X 11 -+X. A seqüência {aX 11 + b : n > O}
também é uma sequência monótona não-decrescente de variáveis aleatórias
simples e pode-se verificar que (a X n + b ) -+ (a X + b) . Considerando que vale que é uma integral de Lebesgue-Stieltjes. D
E(aXn + b) = aE(Xn) + b, o resultado segue pela passagem ao limite. A existência de E(X) depende de E(X+) e E(X-) não serem
(ii) Sejam {Xn : n > O} e {Y;, : n > O} duas seqüências monótonas não- simultaneamente iguais a infinito, o que causaria uma indeterminação. Se apenas
decrescentes d~ variáveis aleatórias simples tais que, respectivamente, X 11 -+ X e uma das partes de X tem esperança infinita, o valor esperado existe. Ele será igual
Yn-+Y. a + oo se E(X+) = oo e E(X-) < oo; por outro lado, teremos E(X) = -oo se
Defina uma nova seqüência {Xn + Yn : n > O}. Essa seqüência também E(X+) < oo e E(X-) = oo.
é de variáveis aleatórias simples e é monótona não decrescente. Temos A definição no caso geral é coerente com as anteriores, ou seja, se a
variável for simples todas as três definições são aplicáveis e dão o mesmo valor.
E( X+ Y) = lim E(Xn
n-+oo
+ Yn) = n----.oc
lim [E( X n) + E(Yn)] = E( X )+ E(Y). O mesmo ocorre para variáveis não negativas, em que duas definições são
aplicáveis.
• r -·

210 Capítulo 4: Valor Esperado 4.3 Valor Esperado-Integral de Lebesgue-Stieltjes 211

Do ponto de vista prático, para a grande ma10na das variáveis de expressão que acabamos de obter temos
interesse, o cálculo da esperança é feito pelos procedimentos da seção anterior. 00
Entretanto, para a verificação de resultados teóricos é conveniente utilizar a E(X+) = E xi p;;
definição de valor esperado via a integral de Lebesgue-Stieltjes. í=l
O importante a ressaltar é que, se a esperança de uma variável aleatória 00

existe em mais de uma das definições apresentadas nessa ou na seção anterior, ela E(X-) = L XiPi·
í=l
coincide em todas elas. Os exemplos a seguir ilustram essas situações.
Exemplo 4.20: Suponha que X é uma variável aleatória discreta em (n, :F, P) e Se pelo menos uma dessas esperanças for finita, a esperança de X existe e é dada
vamos obter seu valor esperado através da definição apresentada nesta seção. A por
seqüência A1, A2, ··· é uma partição de eventos de n tal que a variável X vale Xn 00

em An. Assim, temos E( X) =E( X+) -E( X-) = L x;p;.


í=l
P(X = Xn) = Pn = P(An). n = 1, 2, .. ·;
Esse resultado coincide com a definição de valor esperado para variáveis
sendo que os valores de X não precisam ser distintos entre si e podem ter discretas, apresentada na seção anterior. D
qualquer sinal.
Exemplo 4.21: Seja X uma variável aleatória contínua em (0, :F, P), com função
Inicialmente, seja X ~ Oe definimos
densidade de probabilidade f. Nesse caso a medida de probabilidade é calculada a
k partir da função densidade e temos
xk = x IA[ + x IA + ... + x IAk = 2.:: x IAÍ , k = 1, 2, ....
2
í=l dPx = f(x) dx.
Para uma função g de X em IR, se E[g(X)] existir, temos
A variável Xk é zero no complementar de

E(Xk) =
ÓA; e, portanto ' temos
í=l

k
Ex;p;.
E[g( X)] = i: g( x) f (x) dx.
i=l Em particular, obtemos o valor esperado de X, se g for a função identidade.
A técnica de demonstração segue os passos da construção da integral de
Como X1, X2, · · · são variáveis aleatórias discretas simples com
O:::; X1:::; X2:::; Lebesgue-Stieltjes. Inicialmente, considere g uma função simples com distintos
.. ·e Xk-+X para k-+oo, podemos aplicar a definição de valor
esperado para variáveis positivas e obter valores a 1, a 2 , • • ·, am· Definimos para i= 1, 2, · · ·, m:
A;= {x: g(x) =a;} e B; = {w: g(X(w)) =a;}.
Observe que os A;'s formam uma partição dos reais e A; E B(JR). Temos,
também, B; = {w: X(w) E A;}= 1(A;) E :F.
x-
E(X) =
""
E x;p;.
i=l

Se a série divergir, o valor da esperança pode ser igual a oo.


Consideremos, agora, o caso em que X pode ter qualquer sinal. Definindo
x+ e x- de forma usual, elas serão variáveis discretas não negativas e pela
212 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 213

Segue então que

1:
Se pelo menos uma das esperanças acima for finita, então,
m
E(9(X)) =L ai P(B;)
i=l
E(9(X)) = E(9+(X))- E(9-(X)) = 9(x)j(x) dx;
m
= 2:a;P(X- 1 (A;)) resultado que coincide com a definição apresentada na seção anterior. D
i=l
Exercícios da Seção 4.3:
=f; a; L/(x)dx k
l.A variável discreta simples X tem duas representações, X(w) = L:;x;IA;(w)

=f; i;9(x)j(x) dx (pois 9(x) =a; em A;) ou X(w)


r
i=l

=I:: Yi IBi(w), em que os A;'s e B/s formam uma partição de O.


j=l
Mostre que o valor esperado é o mesmo, não importando a representação usada
= 1:9(x)j(x)dx. para calculá-lo.
2. Sejam X e Y variáveis quaisquer em (0, :F, P), tais que X ~ Y em O. Com as
Sendo 9 não negativa, sejam 91,92 , ···funções simples que formam uma definições apresentadas nesta seção, mostre que E( X) ~ E(Y).
seqüência monótona não decrescente que converge para 9· Nessas condições, pela
definição de valor esperado para variáveis não negativas temos 3. Sejam Xt, X 2 , • • ·Xn variáveis aleatórias quaisquer em (0, :F, P), com
esperanças finitas. Usando as definições apresentadas nesta seção, mostre que
E(9n(X))--+ E(9(X) ). n n
vale E(L:;X;) = L:;E(X;).
Então, i=l i=l

4. Seja X uma variável qualquer em (0, :F, P). Com as definições apresentadas
1:9n(x)f(x) dx--+ 1:9(x)j(x) dx, nesta seção, mostre que E( X) é finita se, e só se, E( lXI) for finita.
S. Seja X uma variável aleatória qualquer em (0, :F, P). Admita que E( X) é
e, portanto, concluímos finita. Usando as definições apresentadas nesta seção, mostre que
IE(X)I ~ E(IXI).
E(9(X)) = 1:9(x)j(x)dx. 6. Sejam X e Y variáveis aleatórias quaisquer em (0, :F, P), com E(Y) finita e
lXI ~ Y em O. Com as definições apresentadas nesta seção, mostre que E( X)
Se 9 é uma função que pode tomar qualquer sinal, calculamos a esperança é finita.
das partes positiva e negativa de 9· Assim,
4.4 Propriedades do Valor Esperado
E(9+(X)) = 1:9+(x)j(x)dx e E(9-(X)) = 1:9-(x)j(x)dx, Esta seção e a de exercícios ao final do capítulo vão utilizar a definição
de esperança dada pela integral de Riemann-Stieltjes. Muitas das propriedades
existem pelo caso anterior. apresentadas são decorrências diretas de resultados válidos para essa integral.
O próximo resultado é muito útil, pois possibilita a obtenção do valor
esperado de uma variável aleatória qualquer, como a diferença de duas integrais
de Riemann.
214 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 215

Teorema 4.5: então, passando ao limite para b-+ oo , obtemos


Seja X uma variável aleatória com função de distribuição F e cujo valor
esperado existe. Então, 1 00

xdF(x) 21c[1-F(x)]dx,

E(X) = 1: xdF(x) = 1
00

[1- F(x)] dx -1:F(x)dx.


e, agora, com c -+ oo segue que

Demonstração:
Vamos verificar que, dividindo o intervalo de integração do valor
( esperado em duas partes, temos as seguintes igualdades:
Das desigualdades ( 1) e (2), concluímos que
( 00 00

f xdF(x)= { [1-F(x)]dx e !o xdF(x)=-!° F(x)dx;


00 00

lo lo - oo -oo 1 xdF(x)= 1 [1-F(x)]dx.


(
daí o resultado seguiria imediatamente.
Para a parte negativa, usamos um procedimento similar. Seja b < O,
Aplicando integração por partes (ver Clarke [75]), temos para b > O,
aplicando integração por partes, temos

fo\dF(x)=F(b)b-F(O)o-fobF(x)dx 1°xdF(x)=F(O)O-F(b)b-1°F(x)dx;

= fob[F(b)-F(x)]dxS, fob[1-F(x)]dx passando ao limite, para b-+ -oo, obtemos

e, passando ao limite para b-+ oo,


1:xdF(x) = -1:F(x)dx,

e isto completa a demonstração. D


(
Considere, agora, c> O tal que c< b. Temos Exemplo 4.22: Para X"' Geo(p), obtivemos sua média no Exemplo 4.5 .e. agora,
( vamos recalculá-la com o uso da nova expressão obtida no teorema acima. Sua
( função de probabilidade é dada por
fob xdF(x) = fob[F(b)- F(x)] dx
P(X = j) = p(1- p)i, j =O, 1, 2, · ...
( ;:::foc [F(b)- F(x)] dx
Para k inteiro e positivo, temos
( k
;:::foc[F(b)-1]dx+ foc[1-F(x)]dx
F(k) = P(X 5: k) = I>(l- p)i = 1- (1- p)k+l,
j=O
2 c [F(b)- 1] + foc [1- F(x)] dx;
_..
f

216 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 217

I
e, portanto, a função de distribuição pode ser escrita como Exemplo 4.24: A variável X do Exemplo 4.15 é do tipo mista e sua função de
distribuição é reapresentada a seguir:
= { ~·- (1- p)k+l,
X< O;
F(x) X 2: 0, k $X< k + 1, k E N. o, X< -2;
i4(x 2 + 4x + 4), -2 s X< O;
Como não temos valores negativos, a média será
~(x+2), 0$ X< 1;

E(X) = 1 00

(1- F(x)Jdx
F(x) =
~(x+3),
i4(-x2 + 8x + 8),
1$ X< 2;
2$ X< 4;
rk+1 2: 4.
={;A 00

(1- F(x)] dx
1, X

Para o valor esperado temos


(
f
(
=
k=O
(1 - p)k+1 = (1- p)'
p E(X)= 100

[1-F(x)Jdx- I:F(x)dx
conforme obtido anteriormente. o
Exemplo 4.23: A variável aleatória X tem densidade dada pela expressão:
f(x) = fs(2x + 1)J[1,4J(x). Para sua função de distribuição temos
=
o
+
1r
1(4-x)d
6
x+
2
12(3-x)d
1 6
x+
2
(16 + x - 8x) dx- !o (x + 4x + 4) dx
o, X< 1; 12 24 -2 24
5
=
{ 1,-fs(x + x- 2),
2
F(x) 1 $X< 4; = -·
6
X 2:4.
Observe que esse valor já havia sido obtido antes. Entretanto, agora, calculamos o
A variável só tem valores positivos, logo, valor esperado sem a necessidade de obtermos a decomposição nas partes

E(X) = 1 00

(1- F(x)] dx
contínua e discreta.
Vamos formalizar, na próxima proposição, alguns resultados aplicados
O

= f\
lo dx +
3
-1
1 18
2
1 2 4
(x + x- 20)dx + 1 4
00

Odx
nos exemplos acima.
Proposição 4.6:
1 x x 14 11 Seja X uma variável aleatória com valores não negativos, então,
= 1 - 18 ( 3 + 2- 20x) 1 = 4'
Note que, apesar de F(x) ser zero no intervalo (0, 1], a expressão alternativa do
valor esperado recebe contribuição positiva, pois integramos 1- F(x) , no
E(X) = 1 (1-
00

F(x)] dx = 1oo P(X > x) dx.

referido intervalo. O Se, além disso, a variável for discreta com valores nos inteiros não negativos,
temos
00 00

E(X) = LP(X > k) = LP(X 2: k).


k=O k=1
218 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 219

Demonstração:
Se a variável for não negativa, então F (x ) =O para x <O. Assim, para o E(X) = 1oo P(X > x ) dx
valor esperado temos 00 rk+l
=~Jk
E(X)= 100

[1-F(x)]d x - l : F(x )dx 00


[1-F(x)]dx
00

= 100

[1- F(x)] dx
= L:l1-F(k)]
k=O
= LP(X > k ).
k=O

= 100

P(X > x ) dx;

e isto demonstra a primeira parte da proposição.


Para X discreta com valores inteiros não negativos, usando a expressão
l É imediato verificar que esta última expressão também pode ser escrita como
soma de probabilidades maiores ou iguais a k, para k variando de 1 a oo.

de variável aleatória, sem ser necessário obter-se antes a distribuição de


O
Um resultado muito útil permite calcular o valor esperado de uma função

da parte anterior, observamos que a integral de interesse é a área sombreada da probabilidade dessa função. Em outras palavras, seja g uma função de uma
figura a seguir. variável X que tem função de distribuição F. Estamos interessados em E(g(X)),
que poderia ser obtida de modo usual, se conhecêssemos a função de distribuição
da variável g(X), isto é, F9 (y) = P(g(X) ~ y). Entretanto, esse conhecimento
F(x) pode demandar muito esforço e evitá-lo é uma das razões da importância do
próximo teorema.
Teorema 4.7:
Seja X uma variável aleatória cujo valor esperado existe. Considere
Y = g(X), uma função de X que também é variável aleatória no mesmo espaço
F(l) 1--- - - - -- -------<.-- --<l
de probabilidade. Então:
F(2)

E(g(X)) = l:g(x)dFx(x).
F(/) 1------'. - - - - --o
FtoJ.....- - -.0

o Demonstração (casos especiais):


4 X

Faremos a demonstração para os casos em que X é discreta ou contínua.


_Figura 4.6: Valor esperado- Variável discreta não negativa. Para o caso contínuo, suporemos condições sobre g de modo que o método do
Jacobiano para transformação de variáveis possa ser aplicado. A verificação no
caso geral, pode ser encontrada em Ash [72], se o valor esperado for definido pela
Assim, a esperança pode ser escrita como soma de integrais, que integral de Lebesgue-Stieltjes.
correspondem à área de retângulos contíguos com limites nos inteiros: Vamos considerar, inicialmente, o caso em que X é uma variável
aleatória discreta. A variável Y = g(X ) também será discreta.
220 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 221

Temos Exemplo 4.25: (DeGroot & Schervish [02])


O preço da cada cota de ações de uma companhia A vale hoje R$ 200,00.
E(Y) = l : ydFy(y) Essa companhia deseja contratar um funcionário e lhe oferece, como vantagem
adicional, a opção de comprar um certo número de ações, um ano a partir de hoje,
= LYP(Y = y) pelo mesmo preço de R$ 200,00 por ação. Dependendo da valorização anual isto
y
pode ser uma excelente oferta de emprego. Admita que X, preço por ação em um
= LY L P(X= x) ano, pode valer R$ 260,00 com probabilidade p ou R$ 180,00 com 1 - p. Seja Y
Y x: g(x)=y o valor do possível lucro em um ano com cada ação. Temos

= g( X) = { ~0,
=L L g(x )P(X = x) X= 180;
Y x: g(x)=y y X= 260;
(
= Lg(x)P(X =x)
( X
observe que se a ação estiver valendo R$ 180,00 não haveria lucro, mas sim
= E(g(X) ); prejuízo, por isso estabelecemos lucro igual a zero.
Para calcular o valor da opção de compra nos dias de hoje, é necessário
note que os valores possíveis, nas somatórias, dependem da variável e da função comparar o lucro médio da ação com a renda de outros investimentos. Vamos
de interesse. assumir que, descontadas todas as despesas, o rendimento em um ano de
Vamos verificar, agora, a expressão para o caso contínuo. aplicações financeiras seria de 4%. Dessa forma, o preço da opção de compra
Suponha que X é uma variável aleatória contínua com função densidade dessas ações, nos dias de hoje, teria um valor razoável, se empatasse com o lucro
f x . Seja Y = g(X) e admita, ainda, que a função g é tal que podemos aplicar o médio da ação. Ou seja, vamos determinar v tal que: 1, 04 v = E(Y ).
método do Jacobiano (g é bijetora ou particionável em bijetoras) e que sua inversa O valor médio do lucro é:
é denotada por h. Assim,
E(Y) = L g( x) P(X = x) = 60p.
X
l : g( x) dFx (x ) = l:g(x)fx(x)dx

1:
(
Segue então que v= ~ = 57,69 p. Podemos usar algum método para
Yfx (h(y)) jâ~~) jdy
(
= obter p ou, então, estabelecer algum cenário para seus valores. Uma das formas de
( determinar p é igualar o valor médio do preço da ação com o preço de hoje
reajustado pelo rendimento anual, aqui suposto igual a 4%. Nesse caso, teríamos
= l : yfy(y) dy
200 X 1, 04 =E( X ) => 208 = 260p + 180(1- p) => p =o, 35.
=E(Y )
Substituindo na expressão de v, obtemos v= R$ 20, 19. Este deveria ser o valor a
= E(g(X));
ser pago, hoje, pela opção de compra. Essa opção consiste em poder comprar a
ação em um ano pelo preço atual, sabendo-se que a ação vale, hoje, R$ 200, 00 e
após utilizar a expressão de troca de variáveis do método do Jacobiano. O
que a valorização anual do capital está avaliada em 4%. O
O teorema anterior pode ser generalizado para calcular o valor esperado
de funções de vetores aleatórios. A expressão é similar, usando integrais múltiplas
e com a substituição da função de distribuição univariada pela multi variada.
222 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 223

Exemplo 4.26: A variável aleatória X tem função densidade de probabilidade Demonstração:


dada por:
(i) A variável X é discreta logo
~(x + 2) , -2:::; x <O; E(X) = cP(X =c)= c.
fx(x) = ~· O:::; x < 1;
{
O, caso contrário. (ii) Pelo Teorema 4.7 e pelas propriedades da integral de Riemann-
Considere g(X) = X 2 • Para o valor esperado de g(X) temos Stieltjes vem
(

( E(g(X)) = E(X 2 ) = 1:g(x) fx(x)dx E(aX + b) =f: (ax + b) dFx(x)

=!o x 2 ~(x + 2)dx + { x 2 ~ dx


1
(
= f:axdFx(x) + f:bdFx(x)
-2 lo 2 = aE(X) + b.
- 1 x4 2x3 lo x311
- 4(4 + 3) -2 + 6 o (iii)Se X:::; Y, então para Vz E JR,P(Y:::; z):::; P(X:::; z), ou seja
1
Fy(z):::; Fx( z ). Então, pelo Teorema 4.5,
2
O uso do Teorema 4.7 evitou obter antes a densidade de X 2 e, assim,
facilitou os cálculos.
E( X) = 1 00

[1- Fx(z)] dz- f:Fx( z ) dz


00
Sugerimos ao leitor obter a densidade de X 2 , calcular sua média pela
:::; { [1-Fy(z)]dz-/° Fy(z)dz=E(Y).
definição e comparar os dois procedimentos. O lo - oo
Observe que, em geral, E(g(X)) =I= g(E(X)) . Pode-se verificar que, no Dessa forma, a proposição está demonstrada. o
exemplo anterior, E(X) = -1/12 e, então, g(E(X)) = 1/144. Esse valor é
diferente do que foi obtido para E(g(X)). O conceito de convexidade de conjuntos e funções será utilizado na
Se g for linear, vale a igualdade e, se g for uma função convexa, temos a próxima proposição. Um subconjunto S de JRn é dito convexo, se
seguinte desigualdade E(g(X)) ~ g(E(X)) , sob a condição da esperança ser X, y E S =? ax + (1- a)y E S,
finita.
Nas próximas proposições, váriás propriedades são apresentadas. para todo a E (0, 1). Em outras palavras, se toda linha juntando dois pontos
quaisquer de S estiver contida em S.
Proposição 4.8: Em geral, para definir convexidade de funções, partimos de um domínio
Sejam X e Y variáveis aleatórias cujo valor esperado existe. Então: convexo. Uma função f : S-+lR, com S C JR" convexo, será uma função convexa,
( (i) Se c é uma constante tal que P(X = c) = 1 então E( X) = c; se, para todo {3 E (0, 1),

(ii) E(aX + b) = aE(X) + b; f (!3x + (1 - {3)y) :::; {3f(x) + (1- {3)f(y).


(iii) Se X:::; Y, então E(X) :::; E(Y);
Em JR2 , essa condição equivale à existência, em cada ponto (x, f(x)), de
uma reta que passa por esse ponto e fica abaixo do gráfico de f.
224 225
Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado

Proposição 4.9: Desigualdade de Jensen O valor esperado pode ser usado para avaliar a amplitude de valores da
variável, conforme estabelecido na próxima proposição.
Seja X uma variável aleatória com esperança finita e g uma função
convexa. Então, Proposição 4.10: Desigualdade Básica de Chebyshev
E(g(X)) ~ g(E(X)). Seja X uma variável aleatória não negativa e considere a > O. Então,
Demonstração:
P(X ~a)~ E(X) ·
a
. Send,o g convexa: existe uma reta que passa no ponto (xo, g( xo)) e fica
abaixo do grafico da funçao g. Demonstração:
. Para 0 ~onto (xo, g(xo)) = (E( X), g(E(X)) ), seja h(x) = ax + b a reta A existência de E(X) está garantida, pois X é não negativa. Considere o
m(;(~I)ona[!a(;c)]I)ma. Dessa forma, veja ilu~tração na figura a seguir, no ponto evento A= {X~ a} e uma variável discreta Y =alA. Ou seja, Y é tal que, para
,9 , temos h= g e, nos demais, h(x) ~ g(x).
todo w E 0, temos

g(x) Y(w) = { ~: X(w) ~a;


O~ X(w) <a.

Observe que por definição temos X ~ Y. Aplicando propriedades da


esperança, obtemos
E(X) ~ E(Y) = aP(A) = aP(X ~ a).
Assumindo que o evento A tem probabilidade positiva, a desigualdade fica
h(x)
verificada. O
g(E(X)) .
Exemplo 4.27: Numa empresa com 100 funcionários, o número médio de
usuários simultâneos de Internet, num certo período do dia, é de aproximadamente
o 30. Atualmente, existem 30 linhas telefônicas disponíveis para conexão. Deseja-
E(X) X
se avaliar a necessidade de aumentar esse número
Numa avaliação mais realista, os custos de expansão deveriam ser
Figura 4. 7: Função Convexa. comparados com as possíveis vantagens para a empresa. Aqui, faremos um estudo
preliminar, calculando algumas probabilidades.
Vamos admitir que 30 é o valor esperado do número de conexões
Pela proposição anterior vem: simultâneas, mas nada sabemos da distribuição de probabilidade dessa variável.
Dessa forma, uma alternativa conveniente é usar a desigualdade de
( g(E(X)) = h(E(X)) = aE(X) + b = E(aX + b) = E(h(X)) ~ E(g(X)); Chebyshev para construir a tabela abaixo com o valor máximo de probabilidade,
em que a suposição de esperança finita, permitiu a aplicação das funções g e h no em função do número mínimo de usuários conectados simultaneamente.
(
valor esperado de X. 0 Denotaremos o limite fornecido pela desigualdade de Chebyshev por p* ( k).
(

( 226 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 227


(
(
( k p*(k) necessária, pois, apesar da existência da esperança das variáveis isoladamente,
30 1 poderia surgir uma operação indeterminada do tipo infinito menos infinito.
( Suporemos, agora, que o resultado vale para n variáveis. Vamos fazer a
40 0,75
( 50 0,60 prova para n + 1.
Definindo Y = X 1 + X 2 + · · · + Xn, a soma das n + 1 variáveis toma-se
( 60 0, 50
70 0,43 a soma de Y e Xn+l· Assim,
(
80 0,38 E(Xt + X2 + · · · + Xn+t) = E(Y + Xn+t) = E(Y) + E(Xn+t);
( 90 0,33
uma vez que já provamos o resultado para duas variáveis.
( Aplicando a hipótese de indução, substituímos E(Y) pela soma
. Apesar de podermos obter estimativas mais precisas por outros métodos,
( E( XI)+ E(X2) + · · ·E(Xn) e o teorema está demonstrado. Observe que não
a de~tgualdade de Chebyshev fornece uma avaliação probabilística que,
necessitamos da independência entre as variáveis aleatórias. O
( combmada com outros fatores, dá subsídios à tomada de decisões.
Por exemplo, da tabela acima, podemos afirmar que a probabilidade de Exemplo 4.28: Sejam X 1 , X2, · · ·, Xn, variáveis aleatórias independentes com
( haver até 70 usuários simultâneos é superior a O, 57. A despeito de outros fatores, distribuição Bernoulli de parâmetro p. Mencionamos no Capítulo 3 que a soma
( se for aceitável um índice mínimo de 57% para a probabilidade de conexão, a dessas variáveis segue o modelo Binomial com parâmetros n e p. Assim, se
empresa deveria ampliar suas linhas telefônicas para 70. O Y = X 1 + X 2 + ··· + Xn, então Y ,.._.•B(n, p). Portanto, pela proposição anterior
(
Proposição 4.11: temos
(
_ Sejam X1, X2, · · ·, Xn variáveis aleatórias cujo valor esperado existe. E(Y) = E(Xt + X2 + ··· + Xn) = E(Xt ) + E(X2) + ··· + E(Xn) = np;
(
Entao, se a esperança da soma dessas variáveis existir, temos:
lembrando que E( X;)= p, Vi= 1, 2, · · ·, n. o
(
E(X1 + X2 + · · · + Xn) = E(X1) + E(X2) + · · ·E(Xn)· Proposição 4.12: Esperança do Produto de Variáveis Independentes
(
Demonstração: Sejam X 1 , X 2, · · ·, Xn variáveis aleatórias independentes cujo valor
(
esperado é finito. Então, a esperança do produto dessas variáveis é finita e é igual
Vamos de~?n~trar p~r indução. Inicialmente verificamos o resultado para
a soma de duas vanave1s. Aphcando esperança, com a conjunta de X 1 e X 2, vem ao produto das esperanças, isto é,
(
( E(Xt + X2) = 1:1: 2 (x1 x
+ x2) d 2Fx 1 ,x2 (x~, 2)
E(
n
TIX;) = E(Xt)E(X2)· · ·E(Xn)·
i=l
(

(
= 1:1:1 dFxl.x2(Xt, X2) +1:1:2 d2Fx ,x (x x 1 2 1, 2) Demonstração:
Vamos aplicar o Teorema 4.7 com a conjunta de Xt, · · ·, Xn. Decorre da
( = 1:xtdFx (xi)+ 1:x2dFx (x
1 2 2) independência e de propriedade da integral, que podemos fatorar a diferencial da
função de distribuição conjunta em produto das diferencias das marginais.
( = E(XI) + E(X2);
( em que ~pl~camos propriedades da integral de Riemann-Stieltjes, para obtermos
( as margmats. A suposição da existência do valor esperado de X 1 + X 2 é
(
(
(
(
228 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 229

Então, apresentamos antes um exemplo em que a troca entre limite e esperança


não
produz o mesmo resultado.
Exemplo 4.30: Considere a escolha, ao acaso, ~e um número real w em [0,
1].
Vamos definir uma seqüência de variáveis aleatóna s {Xn(w) : n E N, w E [0,
1]}
da seguinte forma:

seO ~w< 2~;


De novo, da independência, fazemos o fatoramento da diferencial da função se...!..
2n-
<w<l·,
-
de n
distribuição conjunta e, então sew >.!..
n

A figura, a seguir, representa o comportamento de Xn (w).

X.(w)

Como veremos, em exemplo a seguir, a recíproca dessa proposição não é


verdadeira. Isto é, o fatoramento das esperanças não implica independência
entre n
as variáveis.
D
Exemplo 4.29: O vetor aleatório (X, Y) tem função de probabilidade conjunta
dada pela seguinte tabela de dupla entrada:

X\Y -1 o 1
o o 1/3 o
1 1/3 o 1/3
Não é díficil verificar que as variáveis X e Y são dependentes. Temos
E(X) = 2/3, E(Y) =O e E(XY) =O. Portanto, a esperança do produto w
XY
pode ser fatorada como o produto das esperanças. Assim, a recíproc
a da
Proposição 4.12 não é válida.
D
Os próximos dois teoremas tratam de resultados limites. A questão Figura 4.8: Comportamento da variável Xn.
importante é saber se é possível permutar as operações de limite e esperanç
a. Ou
seja, estal'Il:os interessados em estabele cer condições para que tenhamo
s É imediato observar que lim Xn (w) = O. Para o valor esperado temos
limE( X,.) =E( lim Xn)· Apresentaremos duas situações em que isto é possível. n~oo
n--+oo n-+oc
Em uma, as variáveis precisam ser não negativas e formar uma seqüênc
ia
r 1Xn(w) dw = 1/2n 11/n (-2n w + 2n) dw = 1/2.
monótona não decrescente. Na outra, a seqüência de variáveis é dominad
uma variável que tem esperanç a finita. Esses resultados valem no contexto
a por
teoria de integrais, mas serão apresentados aqui para variáveis aleatórias com
da
E(X )
n
=
Jo 1 O
2n2 w dw +
l/2n
2

as Dessa f orma, E[ lim X n (w)] = O =F n~oo


lim E(Xn) = 1/2. Portanto, nesse caso, a
demonstrações, seguindo James [81]. Para reforçar a importância desses teoremas n~oo _ . . O
, troca entre limite e esperança nao produz resultados 1gua1s.
-.
,_.

230 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 231

Teorema 4.13: Teorema da Convergência Monótona (ii) X(w) ~ Y(w) e Xi(w)-+X(w), então Xj(w) ~ Y(w) para um
Sejam X, X1, X2, · · ·, Xn variáveis aleatórias em (f!, :F, P). Suponha que índice j suficientemente grande.
(
Xn ~ O,n E N com X1 :S X2 :S ··· e, também, que Xn(w)-+X(w), Vw E n, Seja
quando n vai a infinito. Nessas condições, temos
se w E Ai;
lim E(Xn) =E( X). se w ri. Ai;
n--+oo

Demonstração: temos O :::; Y IA :::; Xj e, portanto, O :::; E(Y IA) :S E(Xj)· Podemos reescrever
1

Como as vanave1s são não negativas, todas as esperanças existem YIAi como
(eventualmente sendo infinitas). Por propriedade do valor esperado e usando a sew E AinBn,n E N;
monotonicidade da seqüência, vem caso contrário.

Então,
que, passando ao limite, resulta em oo m
( E(Xi) ~ E(YIA) = Ln«:P(AinBn) ~ LmP(AinBn), Vm E N;
lim E(X,J :SE( X). (I) n=O
n--+oo n=O
(
Vamos definir uma aproximação de X, através de um variável discreta Y, passando ao limite, para j-+ oo, vem
(
de modo que E( X) = E(Y) :::; lim E(Xn). Assim, a demonstração ficará m
n--+oo
completa, juntando-se as duas desigualdades obtidas. limE(Xj) ~ lim
J--+oo
L
J--+OO n=O
nE P(Aj n Bn)·
(
Parat >O, n E N, e Bn = {w: m < X(w) :S (n + 1)«:} seja
( Observe que, para cada n fixado, temos Ai n Bn j Bn. isto é, a seqüência
Y(w) = ~noc=O nds,(w) = { On,«:, se n«: < X(w) :S (n + 1)«:; Ai n Bn será monótona não decrescente em j e com limite Bn.
L....t se X(w) =O.
Como vale a troca entre limite e probabilidade, vem
Logo, X - «: :::; Y :::; X e, portanto, para as esperanças segue que

E(X) - «: :S E(Y) :S E(X).


Como «: é arbitrário, temos a igualdade entre as esperanças de X e Y, isto é, que, passando ao limite para m-+ oo, resulta em
E(X) = E(Y). 00

Vamos, agora, estabelecer a relação entre as esperanças de Y e da limE(Xj) ~ L nE P(Bn) = E(Y) =E( X). (2)
J--+OO n=O
seqüência {Xn : n > 0}. Seja Ai= {w: Xj(w) ~ Y(w)}, j = 1, 2, .. ·. Esses
eventos formam uma seqüência monótona não decrescente cuja união é o espaço Observando-se as desigualdades (l) e (2), concluímos a demonstração. o
amostrai n, conforme concluímos a partir dos argumentos a seguir:
(i) Xj(w) ~ Y(w) e isto implica Xi+ 1 (w) ~ Y(w) pela monotonicidade
de {Xn}·
-
232 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 233

Teorema 4.14: Teorema da Convergência Dominada e, assim, concluímos que


Sejam X , Y , X l,X2,···,Xn variáveis aleatórias em (O,F,P). Suponha IimE( Zn) = O.
que a esperança de Y seja finita, IX nl :S Y para n = 1, 2, · · · e, também, que n->oo
Xn (w)-+ X( w ), Vw E O, quando n vai a infinito. Nessas condições, temos que a Então,
esperança de X é finita e
IE(Xn)- E(X)I = IE(Xn- X ) I
lim E(Xn) =E( X).
n->oo :S E(IXn - X I)
Demonstração:
= E(Yn)
:S E( Zn),
A idéia da demonstração é obter uma seqüência conveniente de variáveis,
de modo que o Teorema da Convergência Monótona possa ser aplicado. uma vez que O :S Y,, :S Z 11 • Passando ao limite para n-+ oo, obtemos
Inicialmente, notamos que a esperança de X é finita como conseqüência lim (I E(Xn)- E(X )I) :S lim (E(Zn)) =O;
de X n ser dominada por Y . Observe que lXI = lim IXnl :S Y e, tomando n-+oo n-+oo
n->oo
esperança, o resultado segue. De fato, para todo n temos E(IXn l) :S E(Y ) < oo. conseqüentemente, lim E(Xn) = E( X) e o teorema está demonstrado.
n->oo
o
Considere as seguintes variáveis
Exercícios da Seção 4.4:
Yn = IXn- X I e Zn = sup(Yn, Yn+l• .. ·); n = 1, 2, .. ·. 1. A função de distribuição de X é dada por:
Pela sua definição, a seqüência de variáveis Zn é não crescente pois
o, se x < - 2;
Zn = sup(Yn, Yn+l• · · ·);::: sup(Yn+l, · · ·) = Zn+l; n = 1, 2, ·· ·.
fõ(x + 2), se -2 :S x < O;
Por hipótese X n-+ X e, assim Yn-+ O. Como a seqüência Zn é monótona, ela tem
Fx(x) = 1 :r 3x2
se O :S x < 5;
{ s+w+25o•
limite que coincide com o limite superior de Yn e, portanto, Z 11 -+ O. 1, se x;::: 5.
Observe que O :S Yn :S 2Y e, também, O :S Zn :S 2Y. Construímos,
a. Calcule E(X), sem obter primeiro a densidade de X .
agora, uma nova seqüência de variáveis aleatórias: {2Y- Z 11 : n ;::: 1, n E N}.
b. Obtenha E(X 2), via densidade de X .
Essa seqüência é monótona não decrescente, tem limite igual a 2Y e é formada
por variáveis não negativas. Portanto, pelo Teorema da Convergência Monótona
c. Obtenha E(X 2), via densidade de X 2.
vem 2. A função de distribuição conjunta de X e Y é dada por:
lim E(2Y - Z 11 ) =E[ lim (2Y- Zn)] = E(2Y).
n-+oo n----..oo o, se x < Oou y < O;
Por outro lado temos i(x2y + xy2), se O :S x < 2, O :S y < 1;
Fx,Y(x, y) = i(x 2 + x ), se O :S x < 2, y ;::: 1;
limE(2Y- Zn) = lim [E(2Y) - E(Z11 ) ] = E(2Y ) - lim E( Z 11 ),
n-+oo n -+oo n-+oo ~ (2y + y2), se x;::: 2,0 :S y < l;
1, se x;::: 2, y ;::: 1.

Determine o valor esperado de X + Y - 2XY.


234 Capítulo 4: Valor Esperado 4.5 Exercícios 235

3. Suponha que n envelopes estão endereçados, mas as n respectivas cartas são 3. Em ensaios de Bernoulli independentes, com probabilidade p de sucesso, seja
colocadas aleatoriamente nesses envelopes. Determine o número esperado de X o número de fracassos anteriores ao r-ésimo sucesso. A variável X segue o
cartas enviadas ao destinatário correto. modelo Binomial Negativo de parâmetros r e p. Determine a média de X.

4. Seja X uma variável aleatória, seguindo o modelo Logístico, com função 4. A densidade de X é apresentada, a seguir, determine o valor esperado de
densidade dada por f(x ) = e-x 1(1 + e-x) 2, x E~- 2X -1.
a. Verifique se X é simétrica ao redor do zero. x2
se OS x < 1;
~ r:;x),
b. Determine o valor esperado de X.
c. Calcule E( ex). se 1 S x < 2;
fx(x)
5. Sendo X uma variável aleatória com média J.L, mostre que o erro quadrático { se 2 S x S 3;
médio, dado pela expressão E[(X- d) 2 ], é minimizado para d igual a J.L. o, caso contrário.

6. Mostre ou dê um contra-exemplo:
5. A função de distribuição da variável X é dada por:
a. E(1IX) = 1IE(X).
b. Se X e Y são independentes, então E(XIY) = E(X)IE(Y). o, se x <O;
se OS x < 2;
7. A densidade conjunta de X e Y é dada por Jx,y(x, y) =e-x I(o,oo)(x )I(o,x)(Y).
a. Obtenha a densidade de Y I X e calcule seu valor esperado.
Fx(x) = ~:::
{ 1, se 2 S x < 3;
se x 2: 3.
b. Determine E(Y I X) diretamente.
8. Sejam X uma variável aleatória qualquer e g uma função não negativa tal que Determine E( X) de duas formas diferentes.
·g(X) é variável aleatória e E(g(X)) < oo. Se g(x) 2: b > O sempre que 6. A variável X tem a seguinte função de distribuição:
x 2: a, mostre que P(X 2: a) S E[g(X)Jib.
9. Considere uma função g tal que, g(X) seja variável aleatória sempre que X for
o, X< -1;

{ !~~:
variável aleatória. Suponha que g é par, isto é, g(x) = g( -x), Vx E R Além -1 :$X< 112;
F(x) = 112 :$X< 2;
disso, admita que g é não decrescente e não negativa para x > O. Mostre que,
para qualquer c> O e qualquer X, P(IXI 2: c) S E[g(X)Jig(c).
1, X 2: 2.
oc
a. Obtenha E( X).
10. As variáveis aleatórias xl, x2, 00
·são não negativas e EX,. é convergente em
n=l b. Determine E([X]), em que [a] indica o maior inteiro contido em a.
oc oc
n. Mostre que E( E X,.) = E E( X,.). 7. Seja F(x, y) = [1- e-(x+l)- e-Y + e-(x+y+Il]J(-I,oo)(x) I(o,oo)(Y) a função
n=l n=l
de distribuição conjunta das variáveis X e Y.
4.5 Exercícios a. Obtenha E( X+ Y) de duas maneiras diferentes.
b. Calcule E(XY).
1. Um jogador lança uma moeda equilibrada até a ocorrência de dois resultados
iguais sucessivos. Determine o valor esperado do número de lançamentos. 8. A função mista de probabilidade conjunta de X e Y é dada por:
2. Cartas são retiradas sem reposição de um baralho, contendo 52 cartas, até que :C se x = 1, 2, 3 e O S y S 1;
todos os 4 ases tenham saído. Calcule o valor esperado do número de retiradas. f(x, y) = 0,3 '
{ caso contrário.
236 Capítulo 4: Valor Esperado 4.5 Exercícios 237

a. Obtenha E( X + Y). 17. A função de probabilidade conjunta do vetor (X, Y), para O < p < 1/2, é
b. Determine E(XY). dada por:
9. Supondo que E(X) existe, mostre que E(IX - ml) :::; E( IX- a i), em quem é
a mediana de X e a é um número qualquer. p(x, y) = {f'_ 2p,
se x = ± 1, y =O;
se x = O,y = 1.
10. Supondo a existência das esperanças, considere as seguintes situações:
Verifique que E(XY) = E(X)E(Y), mas X e Y não são independentes.
(A): P(X > Y) = 1; (B): E(X ) > E(Y) e (C): Fx(z) > Fy (z), 'Vz. 18. O vetor aleatório (X, Y ) tem densidade uniforme, no triângulo (0, 0), (0, 1) e
Mostre ou dê um contra-exemplo para as seguintes implicações: (1, O). Obtenha E( X), E(Y) e E(XY).
a. (A) => (B). 19. Duas câmeras de vídeo funcionam, de forma independente, monitorando a
b. (A) => (C). segurança da portaria de um prédio residencial. Admita que o tempo até
c. (B) => (A). acontecer uma falha na câmera é Exponencial, com parâmetros .À 1 e .À 2 ,
d. (B) => (C). respectivamente, para as câmeras 1 e 2. Supondo que ambas as câmeras
e. (C) => (A). iniciaram suas atividades no instante zero, obtenha o valor esperado do
f. (C) => (B). instante a partir do qual não haverá câmera em operação na portaria.
11. Para X ~ Oem n, com E( X)= O, prove que X= O para quase todo w E n. 20. O vetor aleatório (X, Y) tem função de distribuição conjunta dada por:
12. Seja X simétrica ao redor da constante a. Se E(IX I) = oo, mostre que a o, se x < Oou y < O;
mediana de X é a. (rnin(x, y) + x 2 y)/2, se O:::; x < 1, O :::; y < 1;
13. Para quaisquer constantes reais a e b, se P (a :::; X :::; b) = 1, então Fx,y(x, y) = (x + x 2)/2, . se O :::; x < 1, y ~ 1;
a :::; E(X):::; b. y, se x ~ 1; O :::; y < 1;
1, se x ~ 1, y ~ 1.
14. Sejam X 1 , X 2 , · · · variáveis aleatórias independentes com valores -1 e 1, com

Obtenha E( X) , E(Y) e E( X + Y).
probabilidades n/n + 1 e 1/n + 1, respectivamente. Determine E [( - 1 )~X;],
para k inteiro. 21. O vetor aleatório (X, Y) tem densidade dada por f(x, y) = ~e-(x+y)/A
I(o<x<y<oo )(x, y), com À > O. Obtenha E(X),E(Y) e E(XY).
15. João e José disputam um jogo em que João tem probabilidade p, O < p < 1,
de sair vencedor em cada partida. Quem perde paga R$ 1 ao vencedor em 22. Sendo X e Y independentes com distribuição Exp(2).
cada partida. Se João inicia o jogo com R$ 2 e José com R$ 1, qual será a a. Determine o valor esperado de max(X, 2).
duração esperada do jogo se eles pararem quando um deles tiver R$ 3? b. Confira a resposta de (a), usando para o cálculo a função de distribuição
16. Em um jogo, uma moeda equilibrada é lançada até que a primeira cara sej a obtida no Exercício 35 do Capítulo 3.
obtida. Um sistema de recompensa é estabelecido pelo organizador do jogo. c. Determine o valor esperado de max(X, Y , 2).
Para m inteiro e positivo, o jogador ganha m2-k , sempre que a primeira cara 23. Seja (X , Y ) um vetor aleatório com valores em (0, 1) x (0, 1) de forma que
ocorrer no intervalo (km, (k + 1)m], k = O, 1, · · ·. Determine a recompensa X"' Uc(O, 1) e YIX "' Uc(1- X 2 , 1). Calcule o valor esperado de
média. W = (1 - Y)/ X.
24. Sejam X e Y variáveis aleatórias independentes com densidade Uc{l, /3),
/3 > 1. Calcule E[min(X, Y) x max(X, Y)] .
4.5 Exercícios 239
238 Capítulo 4: Valor Esperado

25. Sejam X Uc( - 2, 2) e Y = X 2 • Determine o valor esperado de X , Y e XY.


'"V
32. Sendo X e Y variáveis aleatórias no mesmo espaço de probabilidade e com
Que dizer da independência entre X e Y? funções de distribuição iguais a F e G, respectivamente. Mostre que:
a. Se as funções F e G não têm pontos de salto em comum, então
26. Numa loteria, I 00 números participam do sorteio. São dados prêmios iguais E[F(Y)] + E[G(X)] = 1.
de R$ 1 mil a todos os bilhetes com número pelo menos igual ao sorteado. b. Se F é contínua então E[ F( X)] = 1/2.
Para que, em média, o custo dos prêmios seja financiado pelo dinheiro c. Mesmo se as funções F e G têm pontos de salto em comum, mas X e Y
arrecadado com os bilhetes, qual deve ser o preço de cada um deles? são independentes, temos E[F(Y)] + E[G(X)] = 1 + P(X = Y).
27. A densidade conjunta de X e Y é dada por !x,y(x, y) = 2 I(o,y)(x)I(o,l)(Y). d. Mesmo se F tem saltos, E([F(X)] = 1/2 + n:::P 2 (X = x).
a. Determine o valor esperado de X 2 + Y 2 de duas maneiras diferentes.
X

b. Verifique se E(XY) = E(X)E(Y). 33. Uma partícula está na origem e realiza movimentos de acordo com a regra
descrita a seguir. A cada etapa ela pode mover-se a unidades para a direita
28. Seja X uma variável aleatória qualquer. Considere uma função g que, para
com probabilidade p, ou b unidades para a esquerda com probabilidade 1 - p.
x > O, é não negativa e não decrescente. Admita, ainda, que g(X) é variável Os vários movimentos são independentes. Determine o valor esperado da
aleatória com E(g(X)) < oo. Mostre que, para f> 0:
posição da partícula, em relação à origem, após n etapas.
a. Se ig(x)i :::; k, Vx E JR, então P(IXI ~ t:) ~ {E[g(X)]- g(t:)}/k. 34. Seja X uma variável aleatória discreta com P(X = n) = (~)n, n = 1, 2, · · ·.
b. Se P(IXI:::; M) = 1, então P(IXI ~ t:) ~ {E[g(X)]- g(t:)}/g(M). Defina Y = g(X), em que g(n) = %( -l)n+l2n. Mostre que E(Y) não existe.
29. Sendo X e Y variáveis aleatórias independentes e identicamente distribuídas 35. Sejam X 1, X 2 , • • • variáveis aleatórias não negativas e limitadas para cada
com densidade Uc[O, 1), calcule os valores esperados de min(X, Y) e de w E O. Mostre que liminf E(Xn) ~ E(liminf Xn)·
max(X,Y).
36. Suponha que XI, x2, ... são variáveis aleatórias contínuas independentes e
30. Um jogo eletrônico, imitando uma espécie de bilhar, consiste de 3 caçapas identicamente distribuídas, representando as sucessivas etapas de um
numeradas e uma bola. As caçapas podem ter cor vermelha ou verde, experimento. Consideramos que tenha ocorrido um sucesso na etapa k, se
conforme estejam fechadas ou abertas para receber bolas. A cada momento, Xk > max(X1 ,X2 ,···,Xk-l)· Assuma que a primeira etapa é sempre um
somente uma caçapa fica verde. Inicialmente a cor verde está na caçapa 1 e a sucesso, não importando qual tenha sido o valor de X 1· Determine o valor
bola está na caçapa 3. A cada etapa, a cor verde e a bola se deslocam de esperado do número de sucessos até a etapa n.
acordo com a seguinte regra. A cor verde se desloca para as outras duas
caçapas com igual probabilidade. A bola só salta para caçapas adjacentes, 37. As variáveis aleatórias X 1, X 2 , • • ·, Xn formam uma amostra aleatória da
sempre na direção da cor verde. O jogo termina, quando a bola entrar na densidade f(x) = ax0 - 1l(o,l)(x), a> O. Em outras palavras, as variáveis
caçapa. Determine a duração média do jogo. X; 's são independentes e identicamente distribuídas de acordo com a
densidade indicada. Determine o valor esperado de YI/Yn, sendo que Y1 e Yn
31. As variáv~is X e Y têm a seguinte densidade conjunta: são o mínimo e o máximo da amostra, respectivamente.
Jx,y(x, y) = e-11 (1- e-x)I(o, 11](x)I]o,oo) (y) + e-x(l - e-11 )/(o,x] (y)I]o,oc)(x). 38. As variáveis X e Y são independentes e identicamente distribuídas com
densidade Exp(>..). Calcule o valor esperado de log[X/(X + Y)].
a. Calcule E(XY).
b. Para qual a, o valor da expressão a 2E(X)- (1- a)E(Y) é mínimo?
240 Capítulo 4: Valor Esperado

39. A taxa de crescimento semanal (em porcentagem) no preço de uma certa ação, Capítulo 5
foi modelada pela variável X que tem a seguinte função de distribuição:
o, X< O; Momentos, Esperança Condicional e Funções
F(x ) = *(1 + 4x),
{ w(3 + Bx) ,
0 ::;
1 ::;
X

X< 2;
< 1;
Auxiliares
{ 1, X::::: 2.
a. Calcule o valor esperado de X .
b. O administrador da carteira de ações recebe um bônus de b reais, por cada
fração de O, 5 % que é ultrapassada na taxa de crescimento semanal.
5.1 Introdução
Determine o bônus médio por ação. Neste capítulo, estudamos o valor esperado de funções de vanave1s
aleatórias. Na Seção 5.2, apresentamos a definição de momento e exploramos suas
40. Admita que X represente a duração de uma chamada telefônica internacional
propriedades. Um conceito importante é o de variância que caracteriza a
e obedeça o seguinte modelo:
dispersão da variável. A relação de dependência linear entre variáveis será
o, X< O; estabelecida através da correlação. Essas quantidades são calculadas a partir de
F (x) = {1 - 3
e _ ~:.2 1 -[~] momentos de uma ou mais variáveis. O conceito de esperança condicional e suas
4 -
4e 2 , X::::: 0.
propriedades são o objeto da Seção 5.3. Nas Seções 5.4 e 5.5, apresentamos duas
em que [a] indica o maior inteiro contido em a. ferramentas bastante utéis em Probabilidade e Estatística: a função geradora de
a. Verifique que F( x) é função de distribuição. momentos e a função característica. A idéia básica do uso dessas funções é,
b. Determine o valor esperado de X. através de uma transformação, facilitar alguns cálculos. Obtido o resultado no
c. A tarifa aplicada por chamada tem um custo inicial de R$ 2 e um adicional domínio das transformadas, teoremas garantem a inversão de volta ao domínio das
de R$ O, 75 por minuto inteiro de conversação. Determine o custo médio funções originais, se isto for necessário. Dessa forma, muitos teoremas
de cada chamada. importantes em Estatística são provados com o auxílio dessas funções .

5.2 Momentos
Diversas características importantes das variáveis aleatórias podem ser
quantificadas através do valor esperado de potências da variável. Nesta seção,
vamos descrever várias delas. Iniciamos com a definição de momento.
Definição 5.1: Mom entos de Variáveis Aleatórias
Para k = 1, 2, · · ·, o momento de ordem k da variável X é definido por
E(Xk), desde que essa quantidade exista. Se E(X) = J.L < oo, definimos o
momento central de ordem k por E[(X - J.L )k], sempre que essa quantidade exista.
De modo similar, o momento absoluto de ordem k da variável aleatória X é
definido por E(IXIk) . O
A existência dos momentos está relacionada à discussão que fizemos
sobre a existência da integral. Isto é, o valor infinito pode ocorrer, mas operações

241
5.2 Momentos 243
242 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares

do tipo oo - oo são indeterminadas e levam à inexistência do momento. É Se E[( X - a)k] existe e k é ímpar, então seu valor será igual a zero. Para
imediato notar que o momento de ordem I é o valor esperado, já definido verificar isso, observe que (X- a)k e [-(X- a)Jk têm, também, a mesma
anteriormente. distribuição e a mesma média. Se k é ímpar vale [- (X- a)Jk = -[(X - a)k] e,
então
Exemplo 5.1: Sendo X,..... Gama( a , /3), vamos obter seus momentos. Temos
(
E(Xk) = roo xkLxOI-le-f3xdx e isto implica E[(X- a)k] =O. Se k é par, o cálculo do momento precisará ser
( lo r(a)
01 00 feito do modo usual.
- /3 { k+OI-1 -{3xd
- r (a)}o X e X Note que a simetria não é garantia de existência do valor esperado e sua
suposição foi necessária. Lembremos que o modelo Cauchy não tem média,
/3 r(k +a)
01

apesar de ser simétrico. D


r(a) f3k+OI
_ a( a+ 1) .. ·(a+ k- 1) . Uma característica importante de uma variável aleatória é sua
(
- f3k variabilidade que, em geral, é avaliada pela discrepância de seus valores em
( relação à média ou à mediana. A diferença X - J.L é denominada de desvio em
em que usamos a expressão da função Gama, definida no Capítulo 2. relação à média e é o ponto de partida para a avaliação da dispersão de seus
valores. A média dos desvios é sempre zero e, portanto, nada informativa.
Se a = 1, X tem distribuição Exponencial de parâmetro f3 e temos
Tomando o quadrado dos desvios e, então, calculando o valor esperado, chegamos

E(Xk) = ;~ · a uma das mais importantes medidas de variabilidade.


Definição 5.2: Variância e Desvio Padrão
Logo, com k = 1, obtemos o valor esperado desse modelo que é 1//3. o Sendo J.L < oo, definimos variância de X como o momento central de
Exemplo 5.2: O cálculo de alguns momentos pode ser facilitado, se a variável for ordem 2, isto é
simétrica. Lembremos que uma variável aleatória é simétrica, em tomo de um Var(X) = u 2 = E[(X- J.L ?J;
valor a, se satisfaz a equação:
a raiz quadrada da variância é denominada de desvio-padrão. D
P(X ~ a- x) = P(X ;?: a + x), 'v'x E~;
Existem muitas outras medidas de variabilidade, mas, sem dúvida, a
ou, em termos da função de distribuição, F( a - x) = 1 - F((a + x)-), para variância é a mais importante delas. Ela é parâmetro de algumas distribuições
qualquer x real. como, por exemplo, o modelo Normal.
Supondo que E(X) existe, temos E( X) =a. Para verificar isso, observe O desvio-padrão tem a mesma unidade de medida da variável original e,
que (X - a) e -( X - a) têm a mesma distribuição pois: assim, é muito útil para avaliar a amplitude dos possíveis valores da variável.
(
Fx-a(x)· = P( X - a ~ x) = P(X ~ a - (-x)) = P(X;?: a + (-x)), Em Estatística, na tarefa de estimação de parâmetros, a informação sobre
( a variância da variável de interesse auxilia a escolha da técnica adequada de
( pela simetria de X. Segue agora que análise.
A seguir, apresentamos algumas propriedades da variância, em que
P(X;?: a + ( -x)) = P( X - a;?: -x) = P( -(X- a)~ x) = F-(X-a)(x). assumimos a existência do valor esperado e da variância.
Igualando as esperanças de (X - a ) e -( X - a ), segue que E( X) = a.
244 Capitulo 5: Momentos, Esperança Condicíonal e Funções Auxiliares 5.2 Momentos 245

Proposição 5.1: Exemplo 5.3: Vamos obter a variância de X"" B(n, p). Sabemos que E( X) = np
Se a e b são constantes quaisquer, então e para E(X 2 ) vem que
n
Var(aX + b) = a2 Var(X) . E(X2) = :~:::>2 (~)Pi (1- p)n-i
i=O t
Demonstração:
Sendo E(X) = J.t, por uma propriedade do valor esperado temos
E(aX + b) = aJ.t + b. Assim,
= t
i=O
[i( i- 1) +i](~ )Pi (1- p)n-i
t

Var(aX + b) = E[(aX + b- aJ.t- b) 2] = E[(aX- aJ.t) 2J = a2 Var(X). = t i ( i -1) (~ )P; (1- Pt-í +E( X)
i=2 t

o = n(n -1)~ (: ~ ~)pi (1- Pt-i + E(X)


Pela proposição anterior, o acresc1mo de constantes não interfere na
dispersão dos valores da variável. De fato, se todos os valores são igualmente
deslocados, a média se desloca e a dispersão entre os valores fica inalterada. = n(n- 1)p2 I:
j=O
(n ~ 2 )pi (1- p)<n- 2)-j + E(X)
J
A multiplicação por constante, no entanto, tem seu efeito. Teremos a
variância original multiplicada pelo quadrado da constante. Se a constante é muito = n(n- 1)p2 [p + (1- p)](n- 2) + np
maior que I, a variabilidade pode sofrer um acréscimo expressivo. =n 2 2
p + np(1- p) .
A próxima proposição apresenta expressões úteis para o cálculo da
variância. Para a variância temos:
Proposição 5.2: Expressões alternativas para a Variância Var(X) = E(X2 ) - 112 = n2p2 + np(1 - p) - (np) 2 = np(1 - p) ,
(i) Var(X) = E(X 2 ) - 11 2 ; em que utilizamos uma das expressões alternativas para a variância. O
(ii) Var(X) = E[X(X- 1)] + E(X)- 112 • 2
Exemplo 5.4: Seja X"" N(JL, a ). Vamos verificar que o parâmetro a é a 2

Demonstração: variância de X. O valor esperado é J.t, conforme já foi calculado. Para o segundo
momento temos:
Para verificar (i), vamos desenvolver o quadrado do desvio e aplicar
propriedades da esperança. Temos

Var(X) = Ef(X- J.t) 2] = E(X 2 ) - E(2XJ.t) + E(J.t 2 ) = E(X2 ) - 112 ;


em.que usam~s que E(2XJ.t) = 2J.tE(X) = 2j.t2 •
A expressão em (ü) segue facilmente de (i) e da linearidade do valor
esperado. D
246 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.2 Momentos 247

com nova. substituição z = y 2 /2, vem Logo


Var(X) = E[(X- J.Ln = E(Y 2 ) 2: E(Y 2 lA) =
1 00

1 00
= y 2dFy(y) 2: t 2dFy(y) = t 2 P(A);
e, portanto, o resultado segue. D
Proposição 5.4: Desigualdade de Markov
Portanto, Seja X uma variável aleatória qualquer. Então, para quaisquer t, k > O,
temos

D
A variância permite ter uma avaliação da amplitude de valores da
variável. Por exemplo, com o auxílio de valores tabelados de probabilidade para a Demonstração;
N(O, 1), podemos determinar a probabilidade de não nos afastarmos da média de
mais de 2 desvios-padrões. Sendo Z "'N(O, 1), obtemos P(IZI ~ 2) =O, 9544; Temos
um valor bastante expressivo. Para 3 desvios-padrões teríamos a quase totalidade
da amplitude da variável, ou seja, P(IZI ~ 3) =O, 9974. Se tivermos uma
N(J.L, a 2 ), as probabilidades de afastamentos menores que 2a e/ou 3a serão as
mesmas mencionadas acima no cálculo para Z. Dessa forma, o conhecimento dos pela aplicação da desigualdade básica de Chebyshev. D
parâmetros da Normal é uma informação importante para estabelecer, com alta Se a partir de uma amostra pudermos obter estimativas de momentos da
probabilidade, a amplitude de seus valores. variável, às desigualdades acima podem ajudar a estabelecer limites em
As próximas proposições auxiliam no estudo do comportamento das probabilidades de interesse. Também, em termos teóricos, elas podem ajudar. Por
variáveis. As desigualdades apresentadas fornecem limites, em função da exemplo, suponha que desejamos avaliar P(IX- J.LI < 2a), sendo J.L e a finitos e
variância e de momentos, para a probabilidade da variável aleatória exceder um indicando, respectivamente, a média e o desvio-padrão de X. Obtemos, com a
certo valor de interesse. aplicação da desigualdade clássica de Chebyshev,
Proposição 5.3: Desigualdade Clássica de Chebyshev P(IX- J.LI < 2a) .= 1- P(jX- J.LI2: 2a) 2: 1-1/4 = 3/4.
Seja X uma variável aleatória com média J.L· Então, para qualquer t > O,
Assim, a porcentagem de valores, num raio de 2 desvios-padrões da média, é de
temos
pelo menos 75%. Note que nada de particular da distribuição da variável foi
usado e, portanto, esse resultado vale em geral, contanto que média e variância
P(jX- J.Li 2: t) ~ Va~~X) · sejam finitas.
O valor esperado e a variância são mencionados como medidas de
Demonstração: localização e dispersão, respectivamente. Além delas, a mediana, apresentada em
exercício no Capítulo 2, e a moda definida genericamente como o valor da
Sejam Y =IX- J.Li e A= {Y;::: t}. Assim, Y 2 =(X- J.L) 2 e também variável com maior probabilidade, são as medidas usualmente utilizadas para
' y2 2: y2JA.
caracterizar as variáveis aleatórias. Entretanto, em algumas áreas, a simetria e/ou
248 Cap{tulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.2 Momentos 249

a massa de probabilidade nas caudas é um fator importante para a variável de Ao considerarmos distribuições multivariadas poderíamos também definir
interesse e avaliar seus efeitos pode ser relevante. Uma análise gráfica é momentos conjuntos. Não vamos nos aprofundar nesse tópico e o lei~or
freqüentemente utilizada nesses casos, mas também é possível quantificar esses interessado pode consultar Dudewicz e Mishra [88]. Entretanto, por ter espectal
efeitos com o uso de momentos, conforme apresentamos nas definições a seguir. importância, o momento central conjunto de ordem I para duas variáveis é
Definição 5.3: Coeficiente de Assimetria definido a seguir.
Seja X uma variável aleatória qualquer com valor esperado p, e desvio- Definição 5.5: Covariância
padrão a. O coeficiente de assimetria de X, denotado por a3, indica o grau de Sejam X e Y variáveis aleatórias no mesmo espaço de probabilidade. A
assimetria da sua distribuição de probabilidade e é definido por: covariância entre X e Y é definida por
Cov(X, Y) = ax,Y = E[(X- p,x)(Y- p,y)];
desde que as esperanças, presentes na expressão, existam. o
em que supomos a existência do terceiro momento de X. o Em palavras, a covariância poderia ser definida como o valor esperado do
Definição 5.4: Coeficiente de Curtose produto dos desvios das variáveis, em relação às suas médias. A covariância é
uma medida de dependência linear entre as variáveis e pode assumir valores de
Seja X uma variável aleatória qualquer com valor esperado p, e desvio- qualquer sinal. Se a covariância for zero não há dependência linear entre ~s
padrão a. O coeficiente de curtose da variável X, denotado por a 4 , mede a variáveis, mas pode haver outro tipo de relação entre elas e, portanto, nao
intensidade dos picos da sua distribuição de probabilidade e é definido por: podemos dizer que são independentes. A próxima proposição apresenta. _u~a
fórmula alternativa bastante útil. Ela toma evidente que, para vartavets
independentes, a covariância será zero.
Proposição 5.5:
em que supomos a existência do quarto momento de X. O A covariância entre X e Y é igual à esperança do produto menos o
Exemplo 5.5: Seja X "' N(p,, a 2 ), como X é simétrica ao redor de p,, não é produto das esperanças, isto é:
díficil verificar que a3 será zero. Em geral, se a 3 < O, dizemos que a variável é
Cov(X, Y) = E(XY)- 11-XJl-Y i
assimétrica à esquerda. Esse será o caso da B( n, p) se p > ~. Se a 3 > O, temos
assimetria à direita, como para uma B( n, p) com p < ~. Pode-se também verificar sempre que as esperanças envolvidas estejam bem definidas.
que os modelos Poisson e Exponencial são sempre assimétricos à direita.
Demonstração:
Para o coeficiente de curtose é comum uma comparação com a N(O, 1),
que tem a 4 = 3. De fato, alguns autores já definem o coeficiente subtraído de 3. Pela definição temos
Se para alguma distribuição a -1 - 3 é maior que zero, é usual indicar que tem mais Cov(X, Y) = E[(X- p,x)(Y- p,y)]
pico no centro do que a N(O, 1). Valores negativos indicariam que é mais achatada
= E(XY- p,xY- p,yX + 11-XJl-Y)
no centro do que a N(O, 1). Pode se verificar que para a Uc(a,b) temos a 4 < 3,
= E(XY) - p,xE(Y) - p,yE(X) + P,xll-Y
enquanto que para a Exp(>..) , obtemos a 4 > 3.
O leitor interessado em aprofundar esse assunto pode consultar Mood, = E(XY) - JlxJl-Yi
Graybill e Boes [74] e as referências lá mencionadas. O se as variáveis forem independentes, E(XY) fatora no produto das esperanças e a
covariância se anula. O
250 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 251
5.2 Momentos

Exemplo 5.6: Um dado equilibrado é lançado. Seja X o resultado do lançame deixamos ao leitor a tarefa de conferir esse resultado através da expressã
nto o
na base 2 e Y igual a 1 ou O, se o resultado for múltiplo de 2 ou não, original, apresentada na definição de covariância.
respectivamente. Vamos avaliar se essas variáveis têm dependência linear, O
calculando sua covariância. Exemplo 5.8: Sendo U uma variável Uniforme Contínua em (0, ~)· ~efinimos
as
variáveis X= sen(27rU) e y = cos(27rU). Vamos obter a covananc1a entre X
A conjunta entre X e Y é dada por: e
Y.
X\Y o 1 Para a esperança das variáveis temos:
o o 1/2 1
1 1/2 o E(X) = { sen(27ru) du = 2._ (-cos(2 7ru)n
Então,
h 27l' o
=O;

E(Y) = fcos(27 ru)du = 2._(sen (27ru)n =o.


Cov(X, Y) = E(XY) - f-lXJ-lY =O-
1 1 1
2 X 2 = -4;
h 27l' o
A esperança do produto é calculada de modo análogo
assim, existe dependência linear negativa, ou seja, se uma variável aumenta
outra diminui.
Exemplo 5.7: A função densidade conjunta de X e Y tem a seguinte expressão:
O
a
E(XY) = 1 1
sen(27ru) cos(27ru) du

1 = ~ ( sen(47ru) du
f(x,y) = x I(o,2j(x) I(o,xj (y). 2}o

8~ ( -cos(47ru)j:) =O.
2
=
Para utilizar a expressão alternativa da covariância, determinamos inicialmente
as
marginais e daí obtemos E( X) = 1 e E(Y) = 1/2. A esperança do produto é dada
Então,
por:
Cov(X, Y) = E(XY) - E(X)E( Y) =O;
e as variáveis não são covariadas. Seriam também independentes? A respo~ta

negativa, pois a função de distribuição conjunta não é o produto das margma1
s
para todos os valores x, y E R Por exemplo, para x = Y = 1/2, temos
1 1
Fx,y(1/ 2, 1/2) = P(X ~ 2' Y ~ 2)
= P(sen(27rU) ~ 21 ,cos(27rU) ~ 2)
1

1 5 1 5
Então, = P(U E { ([0, 12] U [12 '1]) n [6' 6]})

Cov(X, Y) = E(XY) - J-lX/-ll' =-2 -1 x-1 = -1 ; = P (U E [ : '


2 ~] )
3 2 6 5
12
252 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.2 Momentos 253

Por outro lado, em que aplicamos o resultado para duas variáveis. Usando a hipótese de indução,
1 7 2 4 o segundo termo dessa soma pode ser escrito como:
Fx(1/2)Fv(1/2 ) = ( - +-) x- = _,
12 12 3 9 k+l k+l

e, portanto, as variáveis não são independentes. o


Var(Lx;) = LVar(X;) + 2L L Cov(X;Xi),
2:5 i<j:Sk+ 1
i=2 i=2
A próxima proposição apresenta a expressão para a variância da soma de
variáveis aleatórias. e, para o terceiro termo, temos
k+l k+l k+l
Cov(x1 ,~X;) = E(X1 Lxi) -E(X1)E(~x;)
Proposição 5.6:
t-2
Sejam X1, X 2 , • • · , Xn variáveis aleatórias num mesmo espaço de •=2 t=2
k+l k+l
probabilidade. Então, sempre que as esperanças envolvidas estejam bem
definidas, temos: = LE(XIX;)- LE(XI)E(X;)
i=2 i=2
k+l
Var(tx;) = t Var( X;) + 2L L Cov(X;Xi ); = L Cov(Xt, X;).
i=l i=l i<j

com 1 ~ i < j ~ n. Se, além das condições mencionadas, as variáveis forem Então, após a respectiva substituição,obtemos
i=2
.
independentes, então:
k+l k+l
Var(LX;) = Var( XI) + LVar(X;) +
i=l 1=2
k+l

Demonstração:
+ 2L L Cov(X;Xj) + 2L Cov(X1, X;)
2:5i<j:5k+l i=2
A prova será feita por indução. Para a soma de duas variáveis temos: k+l
=L Var(X;) + 2L L Cov(X;Xj);
Var(XI + X2) = E((XI + X2) 2) - E 2(X + X2) 1 i=l 1:5i<j:5k+l
= E(Xi) +E( X~) + 2E(X1X2) -
2 2 que é o resultado desejado. ·A • •

- (E (Xt) + E (X 2) + 2E(XI)E(X2)) Se as variáveis forem independentes, a covananc1a entre quatsquer duas


= Var(Xt) + Var(X2) + 2Cov(X1 , X2). delas será zero. Portanto, a variância da soma das variáveis toma-se a soma das
variâncias de cada variável, conforme indicado na proposição. D
Supondo válido para k variáveis, vamos verificar para k + 1. Assim
k+l k+l Exemplo 5.9: Como aplicação da proposição anterior, vamo_s o~ter.' novamente, a
variância do modelo Binomial. Sendo XI, x2, oo·, Xn vanávelS Independentes,
Var(~xi) = Var(X1 +~X;)
t=l t=2 todas com distribuição Bernoulli (p), temos que Y = X1 + X2 + ··· + Xn é.
k+l k+I B(n, p). Assim,
= Var(Xt) + Var(~x;) + 2Cov(X 1 , LX;); n n
t=2 1=2 Var(Y) = Var (Lx;) = LVar(X;) = np(l- p) ;
i=l i=l
- 255
254 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.2 Momentos

em que usamos que Var(X;) = p(1 - p), i = 1, 2, .. ·, n . o Então,


Definimos, a seguir, uma medida associada à covariância denominada E(NA) = 3,43; Var(NA) = 0,49;E(EA) = 7,09; Var(EA) = 1,80.
coefici~ntede correlação. Ele tem a vantagem de ser adimensional e, pela
padromzação pelos desvios-padrões, permite comparações entre variáveis. Com a conjunta de NA e EA, obtemos E(NAEA) = 24,30 e, então

Definição 5.6: Coeficiente de Co"elação Cov(NA, EA)


PN,.,EA = O'NAO'EA
Sejam X e Y variáveis aleatórias no mesmo espaço de probabilidade. O
E(NAEA)- E(NA)E(EA)
coeficiente de correlação entre X e Y é definido por =
Jvar(NA)JVar (EA)
Corr(X , Y) = Px,Y = Cov(X, Y) ; 24,30-3,43 X 7,09 _-O
O'XO'Y y'D,49 Jf,80 - '02.
desde que as esperanças envolvidas na expressão existam. O De modo análogo, para o bairro B obtemos:
Exemplo 5.10: Desejamos comparar a relação entre número de filhos (N) e anos
de escolaridade do pai (E) em farm1ias de dois bairros periféricos da cidade. e
Apesar dos bairros terem características próximas, suspeita-se que a intensidade
da dependência entre essas variáveis seja diferente nos dois bairros. Entre as
possíveis razões, destacamos que o bairro B tem uma comunidade de moradores
mais participativa e atuante em questões sociais. Para cada bairro, a função de Assim,
probabilidade conjunta é apresentada abaixo, em que denotamos a variável com E(N8 ) = 3,28; Var(N8 ) = 0,64;E(Es) = 7,06; Var(Ea) = 1,88.
um subescrito indicando o bairro considerado. A tabela contém valores
hipotéticos, mas poderiam ter vindo de dados coletados durante algum período: Da conjunta de N 8 e E 8 , vem E(NaEa) = 22,73 e, portanto
Cov(Na,Ea)
Bairro A Bairro B PNn,En =
O'NBO'En
NA\E.4 5 6 7 8 9 Nn\En 5 6 7 8 9 E(NaEa)- E(Ns)E(Es)
2 0,01 0,02 0,05 0,03 0,01 2 0,01 0,01 0,03 0,08 0,09
3 0,05
Jvar(N8 )JVar(Ea)
0,05 0,09 0.08 0,06 3 0,04 0,07 0,06 0,06 0.05
..J. 0.11 0,10 0,10 0, 13 0,11 4 0,12 0,13 0,11 0,09 0,05 _ 22,73-3,28 X 7,06 _-O
- Jõ,64Jf,88 - '39 .
Vamos calcular, para cada bairro, o coeficiente de correlação entre as
variáveis. Iniciamos com o bairro A e, de modo usual, determinamos as Ambos os bairros têm correlação negativa, indicando a tendência de maior
marginais:· escolaridade do pai implicar em menor número de filhos. Entretanto, as duas
variáveis interagem de modo diferente nos dois bairros. Enquanto no bairro A a
e correlação é próxima de zero, no bairro B a correlação é mais expressiva. O
256 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.2 Momentos 257

Exemplo 5.11: Vamos calcular o coeficiente de correlação entre as variáveis Teorema 5.7: Desigualdade de Cauchy-Schw arz
contínuas X e Y que têm a seguinte função densidade conjunta:
Sejam X e Y variáveis aleatórias com segundo momento finito. Então,
f(x, y) = 9 e-ay I(o,yJ(x)I(o,oo)(Y)·
E(IXYI) ~ JE(X 2 )E(Y2 );
Para a variável X temos com a igualdade valendo se, e só se, Y = aX, para alguma constante a.

E(X)=
100 100
0
100 3xe- xdx=-i1
x
X 3
9e - 3Ydydx=
0
3
Demonstração:
Assumimos que E(X2) e E(Y2) não são nulas. Se uma dessas esperanças
100
1 x 9 e- Ydydx= 1003x e- x dx=-i2
2 2
for zero, a variável será zero com probabilidade 1 e a desigualdade vale.
E(X )= 00 3 2 3
0 X 0 9 Temos
2
2 E 2(X)=--
Var(X) = E(X)- 2 (1)
- 2 = -·
1 lXI _ IYI ) ) >o,
9 3 9 E [( JE(X2 ) JE(Y 2 ) -

pois é a esperança de uma variável não negativa. Desenvolven do o quadrado,


De modo análogo para Y, vem
aplicando propriedades da esperança e usando que E(X2) = E(IXI 2 ) , vem:

100 1y
00
E(Y) = y 9 e- 3Y dx dy = 1009y2e- 3Y dy = -;2
o o o 3
2_ 2 E(IXYI) > o '* E(IXYI) ~ JE(X 2 )E(Y2 ).

E(Y2 ) =
1 o
1y y2
o
9 e- 3Y dx dy = 100 9y e-ay dy = -;
o
3 2
3
JE(X2)E(Y 2) -
Se a igualdade valer temos, com probabilidade 1

Var(Y) = E(Y 2 ) - E 2 (Y) = - - 2 (2)2 2


- = -.
3 3 9
O valor esperado do produto XY é dado por:

oo1y 1oc -9 y 3 e- 3Y dy = -;
1
que implica em
E(XY) =
1o o xy 9 e- 3Y dx dy =
o 2 3 - JE(X2)
IYI -
JE(Y2} IX l-
Segue então que
Portanto, Y = aX com a= ± JE(Y 2)/E(X2 ). o
py:y =
Cov(X, Y)
=
E(XY)- E(X)E(Y)
=
i- H = _,
J2
· · . crxcry Jvar(X)JV ar(Y) fi..Ji 2
Proposição 5.8:
Sejam X e Y variáveis aleatórias com variâncias finitas e não nulas.
indicando uma associação linear positiva entre as variáveis. o Então:
O próximo resultado é importante para estudar as relações entre variáveis (i) IPx,YI ~ 1;
aleatórias, além de permitir estabelecer propriedades do coeficiente de correlação. (ii) IPx,Y 1 = 1 se, e somente se, uma variável for função linear da outra.
258 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.2 Momentos 259

Demonstração: direção, enquanto, com correlação negativa, valores altos de uma variável
implicam em valores menores da outra. _
(i) Pela desigualdade de Jensen, temos para qualquer variável aleatória a correlaçao ent~e
Salientamos que, se as variáveis são independentes,
W, IE(W)I $ E(IWI). Combinando esse resultado com a desigualdade de conforme pudemos conclUir
elas é zero. Entretanto, a recíproca não é verdadeira,
Cauchy-Schwarz aplicada nas variáveis (X- f.J-X) e (Y- f.J-Y ), obtemos
do Exemplo 5.8.
IE[(X- tJ-x)(Y- f.l-Y ))I S E[I(X- tJ-x)(Y- f.l-Y)IJ (Jensen)
Exercícios da Seção 5.2:
IE[(X- f.J-x)(Y- f.J-Y ))I$ JE[(X- tJ-x)2] E[(Y- f.J-y) 2] (Cauchy-Schwarz)
ICov(X, Y)l $ ux uy 1. Determine a variância dos seguintes modelos:
a. Geo(p).
IPx,YI S 1.
b. Hgeo(m, n, r).
c. Gama( a, (3).
(ii) Se IPx,YI = 1, vale a igualdade na desigualdade de Cauchy-Schwarz d. Weibull de parâmetros (a,.>.).
e, portanto, temos:
2. Para X,...., Uc[a, b), obtenha E(Xk), k E N e calcule sua variância.
Y- f.J-Y = a(X- f.J,x ).
3. Considere que a variável X segue o modelo Laplace (ou Exponencial Duplo),
Então, isto é, sua densidade é dada por fx(x) = ~ e-Aix-~<IJ(-oo,oo) (x), com .À> O e
Y=aX+b, -oo < p, < oo. Determine a média e a variância de X.
4. Dois tetraedros equilibrados com faces numeradas de 1 a 4 são la~çados de
e as variáveis têm uma relação linear entre si com a= ± JE(Y2)jE(X 2) e
forma independente. Seja X o menor dos dois números e Y o mator deles.
b = f.J-}'- atJ-x.
Calcule a correlação entre essas variáveis.
Suponha, agora, que Y = aX + b. Vamos calcular a correlação entre as 5. Sejam X 1 , X 2 e X 3 independentes e com distribuição Exp(1). Determine a
variáveis. Das propriedades de esperança e variância, temos f.J-Y = atJ-x + b e
variância da variável (Xt + X2)X3.
u~ = a ul (uy = ialux ). Então,
2

6. Suponha que X é não negativa, mostre que .jE(X} 2:: E( -/X).


Cov(X, Y) = E(XY)- f.J-xf.J-y = E(X(aX + b )) - tJ-x(atJ-x + b)
2
= aE(X ) + bf.J-x - atJ-1- btJ-x 7. A densidade conjunta entre X e Y é dada por !x,Y (x,y) = 2I(o,y)(x) I(o,t) (y) .
= aux.
2 Obtenha a correlação entre as variáveis e verifique se são independentes.

Portanto, 8. Sendo X e y independentes com variâncias finitas e médias iguais, mostre que
E[(X- Y) 2 ] = Var(X) + Var(Y).
Cov(X, Y) aul { 1, a> O; 9. Seja (X, Y) Normal Bivariada. Mostre que X e Y são independentes se, e
· Px,Y = rrxuy = rrx(lalux) = -1, a< O. somente se, forem não correlacionadas.
Dessa forma, a demonstração está completa. o 10. Se E(X) =O, Var(X) = 1 e JXJ $ M. Mostre que para O < t < 1,

O coeficiente de correlação mede a tendência de relacionamento linear (1- t2)


entre as variáveis. Se a correlação é zero, dizemos que as variáveis são não P(IXI 2:: t) 2:: (M2 _ t2) ·
correlacionadas. Valores próximos de ± 1, indicam boa tendência de
alinhamento. Correlação positiva indica que as variáveis crescem na mesma 11. Para0 < 8 <t < oo e E(/X/ 1) < oo, mostre que E(IXJ") também é finita.
260 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.3 Esperança Condicional 261

5.3 Esperança Condicional valores possíveis. Em termos matemáticos formais, dizemos que X1, X2, ···,X"
são variáveis de Bernoulli, cujo parâmetro é dado pela variável Y, com a seguinte
Como vimos no Capítulo 1, a probabilidade condicional satisfaz todas as
função de probabilidade:
condições para ser, ela mesma, uma probabilidade. Logo, poderíamos, em tese,
repetir todo o desenvolviment o feito, no capítulo anterior, para o valor esperado,
usando probabilidades condicionadas a algum evento. Do ponto de vista prático,
considerando duas variáveis dependentes X e Y, como ficaria o valor esperado de
X, se tivermos informação sobre a ocorrência de Y? Esses são alguns dos
Dado um valor de probabilidade de cura, as variáveis Bernoulli são
aspectos que motivam a introdução do conceito de esperança condicional. Para os
independentes. Ou seja, a cura de um paciente não interfere na de outros e vice-
cálculos de esperança, continuamos usando a integral de Riemann-Stieltjes.
versa.
Definição 5.7: Esperança Condicional Suponha que estamos interessados no valor esperado do número total de
curados. Dado Y = p 1, sabemos que esse valor esperado é np1 correspondente a
Sejam X e Y variáveis aleatórias no mesmo espaço de probabilidade
(n, :F, P). A esperança condicional de X uma Binomial de parâmetros n e PI· Isto é,
dado que Y = y, se existir, é dada por

E(XIY = =I:
y) xdFxjY(xlY = y).
E(Xt + X2 + ··· + Xnl Y = pi) = np1.
Se deixarmos indeterminado o valor de Y, temos

o E(X1 + X2 + ··· +XnJY) = nY,


A esperança condicional é a esperança calculada com a probabilidade que, claramente, é uma variável aleatória discreta. Seu valor esperado pode ser
condicional. Sendo E(X) finita, a existência da esperança condicionada à Y é calculado usando a função de probabilidade de Y e será dado por:
garantida por um importante teorema de análise conhecido como Teorema de
n
Radon-Nikodym . Se a variável Y for contínua, lembremos que o condicionament o E[E(X1 + X 2 + · ·· + Xnl Y)] = E(nY) = 6(3Pt + 2P2 + P:J).
em [Y = y] deve ser interpretado como limite de probabilidades calculadas na
vizinhança de y. Vamos nos restringir aos casos em que as variáveis são contínuas Conforme veremos, em proposição a ser apresentada, esse valor corresponde à
ou discretas. esperança (incondicional) de X1 + X2 + ... + Xn. O
A expressão E(XJY = y) é uma função de y e, às vezes, é simplesmente
( denotada por E(XJy). Em Estatística ela recebe também o nome de regressão de Exemplo 5.13: A densidade conjunta de X e Y é !x,y(x, y) = 2IA(x, y), em que
X em relação à Y e corresponde à media de valores de X, restrita aos valores de a região A é definida por A= {(x,y): x > O,y > O,x + y < 1~. . .
< Y iguais a y. Se nós não particularizamos o valor de Y escrevemos E(XJY), que Sendo y fixado, O < y < 1, pode-se verificar que a densidade cond1c1onal
será denominada esperança condicional de X dado Y. Note que E(XJY) é uma de X dado Y = y é a seguinte:
função da variável aleatória Y e, portanto, poderá ser variável aleatória, no 1
mesmo espaÇo de probabilidade. Não aprofundaremos aqui esse ponto, mas o fxiY= (xJy) = - - , para O< x < 1- y < 1.
11 1-y
requisito para ser variável aleatória é o mesmo mencionado antes. Isto é, a
imagem inversa de qualquer boreliano precisa pertencer à a-álgebra :F. Então,

ht-"x 1 ~
Exemplo 5.12: Como ilustração do cálculo de esperanças condicionais, considere 00
1
a seguinte situação hipotética. Um conjunto de n pacientes é submetido a um E(XJY==y)= 1 xdFxiY(xJY= y)= dx= ;Y.
tratamento que pode curar ou não, com certa probabilidade. Essa probabilidade
-oo Y
depende das condições hospitalares de aplicação do tratamento e pode ter três Logo, substituindo y por Y na expressão acima, obtemos E( XI Y) = l-;Y. O
262 Capftulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.3 Esperança Condicional 263

O próximo teorema apresenta uma das principais propriedades da Então


esperança condicional.
E(XYI Y) = YE(Xi Y).
Teorema 5.9:
Tomando esperanças dos dois lados vem, pelo teorema anterior,
Sendo X e Y variáveis no mesmo espaço (0, F, P), temos
E(XY) = E[YE(Xi Y)].
E[E(Xi Y)) = E(X),
A maioria das propriedades da esperança condicional são análogas às de
desde que as esperanças existam. esperança e não serão apresentadas aqui. Contudo, a verificação de algumas delas
Demonstração: (parcial) é solicitada em exercícios. Em especial, destacamos que valem, para a esperança
condicional, os Teoremas da Convergência Monótona e da Convergência
Vamos, apenas, considerar o caso em que as variáveis são contínuas. Dominada com as adaptações convenientes.
Supondo conhecida a densidade conjunta temos,
Exemplo 5.14: Um ponto Y é escolhido de acordo com o modelo Uniforme
E( XI Y = y) = joo x dFxJY(xiY = y) = joo x !x,y(x,
-oo fy (y)
-oo
y) dx, se Jy(y) >o. Contínuo em [0, 1]. A seguir, um outro ponto X é escolhido, também segundo o
modelo Uniforme Contínuo, mas, agora, no intervalo [0, Y]. Vamos obter a
Então, esperança de X.

E[E(Xi Y)J = 1: E( XI Y = y) dFy(y)


Lembrando que a média do modelo Uniforme Contínuo [a, b) é (b- a)/2,
temos imediatamente E( XI Y = y) = y/2. Logo E( XI Y) = Y /2 e, então,

E(E(Xi Y)) =E( Y /2) =~E( Y) = ~·


= foo (joo x Jx,y(x, y) dx) Jy(y) dy
Jy(y)

1:1:
-oo -oo D
Exemplo 5.15: Considere um círculo de raio unitário com centro na origem do
= xfx,y(x,y)dxdy
plano cartesiano. Defina o par aleatório (X, Y) como sendo um ponto do primeiro

= 1: x(1: !x,y(x,y)dy)dx
quadrante escolhido ao acaso nesse círculo. Seja Z a área do retângulo formado
pelos pontos (±X, ± Y). Assim, Z = 4XY e estamos interessados no valor
esperado dez. A Figura 5.1 ilustra a situação.
Para o primeiro quadrante e no círculo unitário temos área 1r /4 e a
= 1:xfx(x)dx conjunta de X e Y será:
= E(X); 4
!x,y(x, y) = -, se x 2 + y2 = 1, O::::; x::::; 1 e O::::; y::::; 1.
em que a~sumimos que foi possível trocar a ordem de integração. Isto é permitido,
• 1f

Para a marginal de Y, temos Jy(y) = ~(1 - y 2 ) 11 , O < y < 1. Então, a


2
em especial, se a esperança de X é finita. O
densidade condicional de X, dado que Y = y, corresponde ao modelo Uniforme
Uma útil aplicação do resultado acima é obter a esperança do produto
Contínuo no intervalo [0, (1 - y2)1/2j.
XY em função da esperança condicional de X dado Y. Note que
E(XYI Y = y) = E(Xyi Y = y) = yE(Xi Y = y).
264 Cap(tulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.3 Esperança Condicional 265

Definição 5.9: Covariância Condicional


Sejam X, Y e Z variáveis aleatórias no mesmo espaço de probabilidade
(n, F, P). A covariância condicional entre X e Y dado Z = z é dada por
Cov[(X, Y)l Z = z) = E(XYI Z = z)- E(XI Z = z)E(YIZ = z);
(X,YI

supondo a existência das esperanças envolvidas. D


Como fizemos com a esperança condicional, podemos considerar o
condicionamento na variável, ao invés de em um dos seus valores. Desse modo,
Var(XIY) será função de Y e, também, será variável aleatória dentro das
condições já mencionadas. O mesmo ocorre com Cov[(X, Y)l Z).
Exercícios da Seção 5.3:
1. Mostre que, sendo a e b constantes quaisquer, E(aX + bl Y) = aE(XI Y) + b.
Figura 5.1: Retângulo construído a partir de (X, Y). 2. Se Y"' Bemoulli(p), E( XI Y =O) = 1 e E( XI Y = 1) = 2, obtenha E( X).
3. Verifique que, se X e Y são independentes, então E( XI Y) =E( X).
Para o valor esperado condicional, vem 4. Suponha que E( XI Y) = aY + b para constantes a e b. Obtenha o valor de
E( XI y = y) = (1 _ y2}112 ; 2. E(XY) em função de E(Y) e de E(Y 2).
S. A densidade conjunta de X e Y é dada por fx,y( x,y) = (x+y)I(o,t)(x)
Assim,
I(o,t)(y). Determine E( XI Y) e E(YI X).
1 2 112
E(XY) = E[YE(XI Y)] =E[ Y ( - Y ) ) = 3_ ( y (1 _ y2) dy = 2-. 6. Verifique ou dê contra-exemplo para: E( XI aY + b) = E( XI aY) +E( XI b).
2 rr}0 2rr 2
7. A conjunta de X e Y é dada por Jx,y(x, y) = 4 e- Yf(o,y)(x) I(o,:x:.)(y).
Então, obtemos E(Z) = E(4XY) = 2/rr. O 2
Obtenha E(2X/ Y), E(X 1 Y) e E[E(Y/Y)].
Poderíamos também definir momentos condicionais de modo análogo ao 8. Demonstre para o caso discreto que E[E(XI Y)] =E( X).
que foi feito para esperança. Não vamos aprofundar esse tópico e nos restringimos
a apresentar os conceitos de variância e covariância condicional e suas relações 9. Mostre que Var(X) = E[Var(Xl Y)] + Var[E(Xl Y))], supondo que as
com a esperança condicional. esperanças e as variâncias envolvidas sejam finitas.
( 10. Sejam X e Y variáveis aleatórias contínuas com densidade conjunta:
Definição 5;8: Variância Condicional
1
Sejam X e Y variáveis aleatórias no mesmo espaço de probabilidade Jx,y(x,y) = 8(6-x-y) I(o,2)(x)I(2,4)(Y)·
(n, F, P). A variância condicional de X, dado que Y = y, é o valor esperado
dos desvios da variável em relação à esperança condicional, ou seja a. Obtenha E(Yl X= x) e Var(Yl X= x).
Var(XIY = y) = E{[X- E(XI Y = y}F} = E(X21 Y = y)- E 2 (XI Y = y); b. Verifique que E(Y) = E[E(Yl X)].
c. Calcule E(XYI X= x).
supondo a existência das esperanças envolvidas. O
266 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.4 Função Geradora de Momentos

5.4 Função Geradora de Momentos Exemplo 5.17: Para X"' Po(>.) a função geradora de momentos é calculada da
seguinte forma:
Nesta seção, apresentamos afunção geradora de momentos. Como outras
transformadas, ela facilita o cálculo de probabilidades e de outras quantidades
relacionadas. Mx(t)
oo 13.e-.\ ).i =
= E(e1x) = Le -.\ ~ (>.et)i - -.\ .\e' - -W-e') .
e ~ -.-1 - - e e - e
1 1· j=O 1·
j=O
Como mencionamos no ínicio do capítulo, após aplicar a função geradora
de momentos efetuamos o cálculo de interesse e obtemos o resultado no domínio o
das transformadas. Com a aplicação do chamado Teorema da Inversão, podemos
voltar ao domínio das funções originais, se isto for de interesse. Exemplo 5.18: Sendo Z "'N(O, 1), sua função geradora de momentos é

Definição 5.10: Função Geradora de Momentos Mz(t) = E(etz) = /oo _1_ etz e-z2/2dz
A função geradora de momentos da variável X é definida por -oo J2;
E(e1x);
= /00 _1_ e-(z2-2tz)/2dz
Mx(t) =
-00 J2;
desde que a esperança seja finita para t real em algum intervalo -to < t <to; = et2j2!oo _1_ e-(z-t)2/2dz
com to> O. O -oo J2;
- et2}2.
A função geradora de momentos é o valor esperado de uma função - '
positiva da variável aleatória. Segundo nossa definição de esperança, o valor
sendo que a última integral é igual a 1, pois corresponde à densidade N(t, 1).
infinito era possível e, portanto, a expressão acima também poderia produzir esse
Suponha que X "' N(J.L, a 2 ), vamos usar o resultado já obtido e
valor para alguns intervalos de t. Entretanto, a definição de função geradora de
propriedades da esperança para calcular a função geradora de momentos de X.
momentos requer que a integral seja finita para valores de t numa vizinhança de
zero. Isto garante algumas propriedades importantes dessa função. Assim, ao Sabemos que X= aZ + J.L, com Z "'N(D, 1) e, então,
apresentar a função geradora de momentos, convém sempre mencionar o intervalo Mx (t) = E(etX) = E(et(aZ+p) ) = et~'E(etaZ) = et~' Mz( ta) = etP+-r.
tt2t2

de valores de t (sempre ao redor do zero) em que ela existe.


Exemplo 5.16: Vamos obter a função geradora de momentos de X"' B(n,p). Observe que poderíamos ter calculado essa função geradora diretamen~e
Temos pela integral, usando a definição. Entretanto, o caminho utilizado parece ser m_ais
simples, além de ilustrar uma técnica freqüentemente empregada em funçoes
Mx (t ) = E(e1x) = t
j=O
efi (~) rJ (1- p)n-j
1
geradoras.
Exemplo 5.19: Seja X uma variável aleatória seguindo o modelo. Exponencial de
O

= t (~) (etp)i (1- p)n-J


parâmetro >.. A função geradora de momentos é calculada da segumte forma:
j=O J
Mx(t) = E(etX) = Loo etx ). e-.\xdx = ). ~ t, t < >..
= (pe
1
+ 1- Pt·
J o Note que restringimos os valores de t para garantir que a integral seja finita. O
Como o próprio nome diz, a função geradora de m~me.ntos pode .ser usada
para obter os momentos da variável. O próximo teorema md1ca como Isso pode
ser feito.
- Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.4 Função Geradora de Momentos 269
268

Teorema 5.10: Aplicando t = O, resulta em


Suponha que a função geradora de momentos de X exista para ltl < t0 ,
t 0 > O. Então, E(X ") existe para n = 1, 2, ··· e temos:
completando a demonstração do teorema. D
Exemplo 5.20: Sendo X "' B( n, p), vamos obter seus dois primeiros momentos,
Demonstração: através da função geradora de momentos. Temos
Lembrando a expansão de ex , podemos escrever para Iti $ to: Mx(t) = (pet + 1- Pt,
etx = 1 + tX + (tX) 2/ 2! + (tX) 3 /3! + · · ·; e, portanto,
aplicando esperança, obtemos do lado esquerdo Mx(t). Para o lado direito, Mit (t) = np(pet + 1 - p)"- 1et;
admitindo ser válido permutar soma infinita e esperança, temos M!k(t) = np(n - 1) (pe1 + 1- p)"- 2 pe1e1 + np(pet + 1 - p)"- 1 e1 .
Com t = O, obtemos
Ao tomar as derivadas dos dois lados da expressão acima, supomos que o lado
E(X) = Mit(t)l , = np;
direito possa ser escrito como a soma infinita das respectivas derivadas. t=O
Repetindo a operação de derivação, vamos diminuindo as potências de t. Para E(X2 ) = M!k(t )L0 = np(np - p + 1).
produzir os momentos, igualamos t a zero nas sucessivas derivadas obtidas.
Assim, para a primeira derivada vem
Para a variância, temos
Var( X) = E(X 2)- E2 (X) = np(np- p + 1)- (np)2 = np(1- p);
confirmando as expressões obtidas anteriormente. D
com t = O, obtemos
Exemplo 5.21: Sendo Z "' N(O, 1) vamos verificar, através da função geradora de
momentos, os valores de O e 1 para média e variância, respectivamente.
2
Tomando a primeira e a segunda derivadas de Mz(t ) = ef 12 , obtemos
que é o primeiro momento, ou, simplesmente, a média.
M~(t) = t e~ 1 2 ;
2

Não é díficil perceber que uma ~va derivação, seguida da atribuição do


valor de t igual a zero, produz o segundo momento. Prosseguindo dessa forma. M~ (t) = et2/2 + t (t et2f2).
para a n-ésima derivada, temos
Com t = O, obtemos o primeiro e segundo momentos:
M ('n)(t) = !!..._ M ·(t) = O+ E(X") + (n + 1) n (n- 1)· · "2 tE(X"+ 1 ) +
X 8t 11 X (n + 1)! E(Z) = M~(t) l t=O = O;
(n + 2) (n + 1)n · · ·3 2 E(xn+ 2 ) ••.
+ (n + 2)! t + · E(Z 2 ) = M~ (t) l = 1.
t=O

Segue, sem dificuldade, que Var(Z ) = 1. D


270 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.4 Função Geradora de Momentos 271

O conceito de função geradora de momentos pode ser estendido para mms em que usamos 1- p1 = P2 + P:l· Os momentos da variável X1 são agora
de uma variável. Isto será muito útil na avaliação do comportamento conjunto de obtidos, de modo usual, através de Mx1(tJ).
variáveis e tem, ainda, aplicações na área de Estatística. De modo similar, a função geradora de momentos conjunta entre X 1 e X 2
Definição 5.11: Função Geradora de Momentos Multidimensional é obtida de Mx~>x2 ,x3 (tt, t2, t3) com t3 =O. Substituíndo P3 por 1- Pt - P2. vem

Sejam X1,X2, ···,Xn variáveis aleatórias definidas num mesmo espaço Mx1 ,x2(tt, t2) = Mx~ox2 ,x3 (tt, t2, O)= (ptet1 + P2€t2 + 1- p1 - P2t·
de probabilidade e t1, t2, · · ·, tn números reais. A função geradora de momentos
multidimensional dessas variáveis é definida por Dessa conjunta, é possível calcular o valor esperado do produto das
variáveis. Temos
M XbX2, ···,Xn (t 1, t 2, ... , t n ) = E( et1X1+t2X2+··+tnXn)·,

desde que a esperança seja finita para os tj's tomados numa vizinhança de zero. O
Vamos aproveitar o próximo exemplo para apresentar, de modo informal, Assim, a partir da média e da variância das variáveis, podemos também obter
alguns resultados relacionando momentos e função geradora multidimensional.
Exemplo 5.22: Suponha que a função de probabilidade conjunta de X 1, X 2 e X 3 é
Multinomial com parâmetros n, p 1, P2 e P3· Assim, temos
Cov(X1,X2) = -nPtP2 e Px1,X2 = -J ( :J~ _
1- P2) ·

Deixamos ao leitor essa verificação. o


Parece ser intuitivo assumir que, se duas vanavets têm a mesma
distribuição, então suas funções geradoras de momentos, se existirem, são iguais.
3 3
com Ex;= n, LPi = 1 e x1,x2 e x 3 E {0, 1, ···,n}. Assim, a função geradora de momentos pode não existir, mas, se existir, será
i=l i=l única. Considere, agora, duas variáveis com a mesma função geradora de
momentos, o que dizer de suas funções de distribuição? Esse é um resultado
importante, apresentado no próximo teorema.
Teorema 5.11:
Se duas variáveis aleatórias têm funções geradoras de momentos que
existem, e são iguais, então elas têm a mesma função de distribuição.
Demonstração:
= (p1et1 + P2€t2 + P3€ta)n. A prova será omitida. A demonstração de um resultado similar para
funções características é feito mais adiante. O
Note que não é difícil generalizar o resultado para k variáveis.
O Teorema 5.11 pode ser estendido para variáveis aleatórias
Para obter a função geradora de momentos de X1o colocamos t2 = t3 =O multidimensionais. Dessa forma, a existência de funções geradoras de momentos
na expressão acima. Assim, conjunta que sejam iguais, implica em funções de distribuição conjunta também
iguais. Um problema importante em Estatística, conhecido como Problema dos
Momentos, discute condições em que a informação sobre toda seqüência de
momentos determina a função de distribuição. Se existir a função geradora de
momentos, ela determina os momentos e, pelo Teorema 5.11, determina de modo
--
272 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.4 Função Geradora de Momentos 273

umco a função de distribuição. Portanto, uma condição suficiente para a n


seqüência de momentos determinar a função de distribuição é a existência da My(t) = I1 Mx (t); 1
função geradora de momentos. Nos próximos exemplos, apresentamos algumas j=I
outras aplicações desse resultado.
com t assumindo valores, na mesma vizinhança acima mencionada.
Exemplo 5.23: A função geradora de momentos de uma variável X é dada por:
Demonstração:
1 2)4
M x (t) = ( 3et +3 . Pela definição temos
My(t) = E(et(Xt+X2+···+X,))
Comparando essa expressão com a função geradora do modelo Binomial,
concluímos que X "' B( 4, l ). O = E( etX1 etX2 ... etx,)
= E(etX1 )E(etX2) ... E(etX, ),
Exemplo 5.24: Sendo X"' N(O, 1) vamos obter a distribuição de Y = X 2 • Com
auxílio da função geradora de momentos temos e daí segue o resultado desejado. Note que a última igualdade é conseqüência da
independência entre as variáveis. D
Teorema 5.13: Função Geradora Conjunta de Variáveis Independentes
Sejam XI,X2, ···,Xn variáveis aleatórias com função geradora de
momentos conjunta Mx 1,x2 ,. .. ,x, (ti, t2, · · ·, t 11 ), com os tj's tomados numa
vizinhança de zero. Então as variáveis XI, X 2, · · ·, Xn são independentes se, e
somente se, a função geradora de momentos conjunta pode ser fatorada como o
produto das funções geradoras das variáveis. Isto é:

note que, na última integral, o integrando corresponde à densidade do modelo Mx~ox2 ,. .. ,x.. (ti, t2, · · ·, tn) = I1" Mx (tj).
1
N(O, (1 - 2t)-I ). Concluímos que Y "' Gama(~, ~ ), cujo modelo também é j=l

denominado Qui-quadrado com I grau de liberdade. D


Demonstração:
Apresentamos, a seguir, dois teoremas que envolvem variáveis aleatórias Vamos supor que XI, x2, .. ·, Xn sejam independentes e mostrar que a
independentes. Os resultados parecem similares, mas envolvem funções geradoras fatoração é válida.
em diferentes dimensões. Temos
Teorema 5.12: Função Geradora da Soma de Variáveis Independentes = E(et1Xt+t2X2+ · +t.. x,)
M X11X2,···,X, (t 1, t 2, ... , t n )
Sejam XI, x2, .. ·, Xn variáveis aleatórias independentes e funções = E( et1X1 et2X2 ... et,x.. )
geradoras de momentos, respectivamente, iguais a Mx1 (t), j = 1, 2, · · ·, n, para t
= E(ettXt)E(et2X2) ... E(et,X,.)
em alguma vizinhança de zero. Se Y = XI + X2 + ··· + X 11 , então a função n
geradora de momentos de Y existe e é dada por: = I1 Mxi(tj)·
j=l

Portanto, vale a fatoração em produto das funções geradoras das variáveis.


274 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.4 Função Geradora de Momentos 275

Considere agora que a fatoração é válida, vamos demonstrar que as Exemplo 5.26: Sejam X e Y variáveis independentes com a mesma densidade
variáveis são independentes. A prova será feita por indução, iniciando-se com N(O, 1). Vamos obter a conjunta deU = X+ Y e V= X- Y e verificar se são
n = 2. independentes. Temos
Sejam Yi e Y2 duas variáveis aleatórias independentes cujas distribuições
marginais são iguais as de X 1 e X 2 , respectivamente.
Mu,v(t 1 , t 2 ) = E(et1U+t2V) = E(et1(X+Y)+t2(X-Y))
= E(eX(tt+t2)+Y(tt-t2))
Myt,Y2(tt, t2) = E(ettYt+t2Y2) = E( eX(t1+t2)) E( eY(t1-t2))
= E( et 1Yi )E( et2Y2) (independência) = Mx(tt + t2) My(tt - t2)
= E( et1X1)E( et2X2) (igualdade das distribuições), (lt+;2>2 (lt-12)2
=e e 2

= E(et1X1+t2X2) (fatoração válida) = e(tr+t~)


= Mx1,x2 (tt, t2). = e2tV2 e2t~/2;

Do Teorema 5.11 (caso multidimensional), segue que (X 1 , X 2 ) e (Yi, 12) note que, essa última expressão é o produto das funções geradoras de duas
têm a mesma função de distribuição conjunta, pois têm a mesma função geradora variáveis com distribuição N(O, 2). Portanto, as variáveis aleatórias Ue V são
de momentos bidimensional. independentes. O
Uma vez que a função de distribuição conjunta é o produto das marginais,
as variáveis X 1 e X 2 são independentes. Exercícios da Seção 5.4:
Para completar a indução, falta verificar que, se o resultado é válido para 1. Para a e b constantes, expresse a função geradora de Y = aX + b em função
k, vale também para k + 1. de Mx (t).
A verificação é feita sem dificuldade repetindo os passos do caso n = 2,
com Yi sendo agora um vetor aleatório k-dimensional. Dessa forma, concluímos a 2. Obtenha a função geradora de momentos dos seguintes modelos:
indução e o teorema está demonstrado. O a. Geo(p).
b. Gama( a, (3).
Exemplo 5.25: Do Capítulo 2, vimos que a soma de n variáveis de Bernoulli
independentes é Binomial. Vamos verificar esse resultado, novamente, com o 3. Considere que a variável X segue o modelo Laplace (ou Exponencial Duplo),
auxílio das funções geradoras de momentos. isto é, sua densidade é dada por fx(x) = ~ e-Aix-1'1[(-oo,oo)(x), com À > O e
Sejam Xt, X2, · · ·, Xn vanavets aleatórias independentes com -oo </.L< oo. Determine sua função geradora de momentos. Confira os
distribuição Bernoulli de parâmetro p. Portanto, valores da média e da variância já obtidos no Exercício 3 da Seção 5.2.
4. Para X com distribuição Cauchy Padrão, o que ocorre com sua função geradora
Mx;(t) = pet + 1- p;j = 1,2, · ··,n. de momentos?
Então, S. As variáveis X e Y são independentes com X rv Exp(À ) e Y rv Exp(2À).
1l
Usando função geradora de momentos, calcule a média e a variância de
Mx 1+X2 +··+x,.(t) = IT Mx/t) = (pet + 1- p)"; X-2Y.
j=l
6. Sendo X e Y rv N(O, 1) independentes, calcule a função geradora de
que corresponde à função geradora de momentos de uma variável aleatória momentos de W = HX- Y) 2 e identifique sua distribuição.
Binomial com parâmetros n e p. Logo, temos X 1 + X 2 + ··· + Xn rv B(n,p). 0
276 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 277

7. Sendo Xt, X2 "'N(O, 1) independentes, defina as variáveis Yí = X 1 + X2 e esperanças das duas partes sejam finitas. Assim, temos:
Y2 =X~+X~.
a. Mostre que a função geradora de momentos conjunta de }í e Y2 é dada por:
eftU(1-2t2Jl 1 em que E(Xa) e E(Xb) são finitas.
(1- 2t2) ; -()() < tl < oo, 00 < t2 < 2" Os casos multivariados e de funções de variáveis complexas são tratados
de forma similar. A integração de funções complexas é adaptada de forma
b. Calcule o coeficiente de correlação entre Yí e Y2. conveniente e, para efeitos práticos, podemos operar como se estivéssemos com
funções reais. As propriedades usuais de números complexos serão usadas. Sendo
8. Calcule a função geradora de momentos de XY, para X e Y independentes e z =a+ ib, denotaremos por lzl seu módulo e por z seu conjugado.
com distribuição N( O, 1).
Definição 5.12: Função Característica
9. Considere que X1, X2, · · ·, Xn são variáveis discretas e independentes. Usando
A função característica da variável X é definida por
função geradora de momentos, determine a distribuição da soma
X1 + X2 + ··· + Xn, nos seguintes casos: 4Jx(t) = E(eítX) = E[cos(tX)J + iE[sen(tX)];
a. X j "'Poisson(>..3), j = 1, 2, · · ·, n.
b. X 3 "'B(n3,p),j = 1, 2, ···,n. para t real e i= J=l. . o
c. X 3 "' Geo(p), j = 1, 2, · · ·, n. Exemplo 5.27: Considere a variável aleatória X com distribuição Uniforme
10. As variáveis X1, X2, · · ·, Xn são contínuas e independentes. Usando função Contínua no intervalo [a, bJ. Sua função característica é dada por:
geradora de momentos, determine a distribuição de X 1 + X 2 + ··· + Xn, nos
seguintes casos:
4Jx(t) = E(eítX) = E[cos(tX)J + iE[sen(tX)]
a. X i "' Gama( ai, {3), j = 1, 2, · · ·, n.
b. X i "'N(J.Li, a]), j = 1, 2, · · ·, n.
= 1b cos(tx) b~a dx + i1\en(tx) b ~a dx
5.5 Função Característica = t(b ~a) ( sen(tx)- i cos(tx)) 1:

A função geradora de momentos é uma ferramenta muito útil, conforme = t(b ~a) (sen(tb)- sen(ta)- icos(tb) + icos(ta))
observamos nos vários exemplos apresentados na seção anterior. Contudo, tem a
desvantagem de que a integral que a define pode, nem sempre ser finita e,
ítb ita
~ (b- e ) (após multiplicar e dividir por i).
portanto, nem sempre existirá. Definiremos uma nova transformada que tem a ~t -a
vantagem de sempre existir. Entretanto, teremos o inconveniente de trabalhar com
uma função de valores complexos. O leitor pode refazer o cálculo, sem usar a decomposição em seno e cosseno.
Até aqui, só tratamos com variáveis reais, mas o caso complexo é similar. Nesse caso, trata-se i como se fosse uma constante real, conforme mencionado
Sem aprofundar o assunto, diremos que uma variável aleatória X é complexa, se acima. O
pode ser escrita como X = xa + i xb, em que i = FI e xa e xb são variáveis
aleatórias reais. Assim, para verificar que uma função complexa é variável
aleatória, precisamos verificar as propriedades da imagem inversa nas suas duas
partes. Para o valor esperado de X, no caso complexo, exigimos que as
(

278 Capltulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 279

Exemplo 5.28: Seja X"' Gama(a,{3). Vamos calcular sua função característica. A função característica tem aplicações e propriedades similares à função
Temos geradora de momentos. Na próxima proposição, listamos algumas de suas
propriedades.
c/>x (t) = E(eitX) = {oo eitx_/!:__ xa-1 e-f3x dx Proposição 5.14:
lo r(a)
Seja X uma variável aleatória qualquer e c/>x sua função característica,
= ~) 1oo xa-1 e-x(!Ht) dx
então:
{3a r(a) . . - (i) c/>x(O) = 1;
= r( a) ({3- it)a (suceSS1VaS mtegraçoes por partes)
(ii) lc/>x(t)\ ~ 1;
= ({3 ~ itr. (iii) Para a e b constantes, c/>aX+b(t) = eitbc/>x(at);
(iv) Se as variáveis aleatórias X e Y são
Particularizando valores para a e {3, obtemos as funções características de independentes então,
membros da farru1ia Gama. Por exemplo, para a = 1, temos a Exp(f3) com c/>x+Y(t) = c/>x(t)cj>y(t) (vale para n variáveis);
c/>x(t) = !3/(!3- it) e, para a= n/2 (n inteiro) e {3 = 1/2, obtemos uma Qui- . (v) c/>x é uniformente contínua;
quadrado com n" graus de liberdade, que tem função característica dada por
1
c/>x(t) = ( 1-2it r. o
(vi) c/>x também gera momentos:

Tendo em vista as proximidades das definições, se a função geradora de


momentos existe e é conhecida, ela pode ser usada para calcular a função
característica. Temos c/>x(t) = Mx(it ), correspondendo a uma alteração no (vii) c/>x é positiva definida. Isto é, para todo n = 1, 2, ···vale
donúnio e na imagem da função geradora. n n

Exemplo 5.29: Seja X"' B(n , p). Lembremos que sua função geradora de L L c/>x(ti- tk) zi 2k ~ O,
j=1 k=1
momentos é dada por (p e 1 + 1 - p )n. Portanto, segue imediatamente para a
função característica: para quaisquer números reais tt, h,···, tn e complexos z1, z2, · · ·, Zn·
c/>x(t) = E(eitX) = Mx( it) = (peit +1- Pt; Demonstração:
resultado que pode ser confirmado com a aplicação da definição. (i) c/>x(O) = E(ei0 X) =E( I) = 1.
O
Exemplo 5.30: Sendo X "'N(J-L, a 2 ), vamos usar o resultado obtido com a
(ii) Lembremos que o módulo de um número complexo z = a + ib é dado
função ger.adora de momentos para determinar sua função característica. Temos
por \z\ = Ja2 +b2. Assim,
.,2,2
Mx (t) = e 1 ~'+-r e, então \c/>x(t)\ = \E(eitX)\ = \E[cos(tX)) + iE[sen(tX)JI
= JW[cos(tX) ) + E2[sen(tX))
c/>x(t) = E(eitX) = Mx( it) = eit11-"~ .
2

~ JE[cos2(tX) ) + E[sen2(tX)) (Jensen)


Note que, se 11 = O a função característica será um número real. Isto sempre = JE[cos2(tX) + sen2(tX))
ocorre com variáveis simétricas em relação ao zero. A verificação desse resultado = 1;
é solicitada em exercício no final desta seção. O
280 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 281

em que a última passagem decorre da relação fundamental entre seno e cosseno. Então, com t = O vem
Como conseqüência dessa propriedade, a função caracteóstica sempre existe para
qualquer valor de t nos reais. an 1/Jx(t)l = inE(Xn).
a tn t=O
(iii) <PaX+b(t) = E(eit(aX+b)) = eitbE(eitaX) = eitb<Px(at).
Logo, da função característica, obtemos os momentos, levando em conta as
(iv) Temos
potências do número complexo i.
<Px+y(t) = E(eit(X+Y)) = E(eitXeitY) = (vii) Para verificar que 1/Jx é positiva definida, considere n E N e, assim,
= E(eitX)E(eitY) = </Jx(t)</Jy(t); n n n n
L L tPx(tj-tk)ZjZk = LLE(eiX(trtd)ZjZk
aqui utilizamos que a independência entre X e Y, implica a independência entre ~1~1 ~1~1
funções complexas dessas variáveis. Isto estende o que foi mencionado n n
anteriormente para funções reais. A prova poderia também ser feita, usando a = LLE( zjeiXti Zk e-iXtk)
decomposição de étX e eitY em seno e cosseno. Nesse caso, trabalhaóamos com j=1 k=1
funções reais e depois faóamos a recomposição para as funções caracteósticas.
Omitimos a prova para n variáveis, mas ela é similar.
(v) Para verificar que <Px(t) é uniformente contínua, observe que:
I<Px(t + h )- <Px(t)l = IE(ei(t+h)X- eitX)I
~ E(lei(t+h)X _ eitXI)
= E(leitX(eihX _ 1)1)
= E(leitXII(eihX -1)1) (use que leitXI = 1)
= E(leihX- 11). e, portanto, tjJ é positiva definida. D
Exemplo 5.31: Sendo X"'" B(n, p), usaremos sua função característica
Então
1/Jx(t) = (peit + 1- p)n, para obter os primeiros dois momentos. Tomando duas
limlt/lx(t +h)- 1/Jx(t)l ~ limE( IeihX- 11) =E( lim leihX- 11) =O; sucessivas derivadas, obtemos
h-->0 h-->0 h-->0
tP'x(t) = npi(peit + 1 - Pt-1eit;
em que a troca de ordem entre limite e esperança é justificada pelo Teorema da
1/J'Jc(t) = npi(n- 1)(peit + 1- p)n-2pieiteit + npi(peit + 1- Pt-1ieit.
Convergência Dominada. Como a majoração, na expressão acima, não depende de
t, a continuidade é uniforme. Substituindo t por zero, vem
(vi) Para n fixado, com E(IXIn) < oo, pode-se verificar que é válido
inverter a ordem entre diferenciação e esperança. Assim, iE(X) = t/J'x(t)L = npi :::} E(X) = np;
0

~tP (t) = ~E(eitX) =E(~ eitX) = E(in xneitX). i 2E(X2) = tjJ'Jc(t)lt=O = npi 2(np- p + 1):::} E(X2) = np(np- p + 1).
8tn X 8tn 8tn
Outros momentos poderiam ser calculados de forma similar. D
282 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 283

2
Exemplo 5.32: Se X"' N(J.L, a ), temos 4Jx(t) = e•tJ.L--y- como sua função
. tf2t2 ~

e-iat _ e-ibt I= I e!i(b-a)t _ di(a-b)t I(use le _ I = le


1. t _! "bt
característica. Vamos usar esse resultado para confirmar os valores da média e da
variância. Temos I .
zt zt
. 2w 2' I= 1)
2 sen( (b-a)t]l .
4J~(t) = (iJ.L- a 2t) e'·tJ.L--y-
,2,2
::::} 4J'z(t)
I
t=O = ÍJ.L ::::} E( X) = J.L;
= I 2
t (de e•w = cos w + i sen w)
"t 2 2 . ::::; b-a;
-a2 e' J.L-,-+ (iJ.L- a t)
,2,2 ,2,2
4J~(t) = e•tp.--y-
em que essa última desigualdade segue de lsen wl ::::; w, Vw E JR..
::::} 4J" z(t)j = -a2+ (iJ.L)2::::} E(X2) = a2+ Jl?.
t=O Denotando por Int(c) a integral da fórmula da inversão vem
Segue, sem dificuldade, que Var(X) = a 2•
Por definição, a função característica é determinada unicamente pela
D 1
Int(c) = -
!c e-iat _ e-ibt
. 4Jx(t) dt
27f -c zt
função de distribuição da variável aleatória.
Os resultados conhecidos como Fórmula de Inversão e Teorema da = _!_fc e-iat -:- e-ibt E( eitX) dt
Unicidade garantem a recíproca e são apresentados a seguir. 2n -c zt
Teorema 5.15: Fórmula de Inversão = _!_fc E(e-iat- e-ibt eitX )dt
27f -c it
Seja X uma variável aleatória qualquer," então sua função característica
4Jx(t) determina a função de distribuição de X, através da seguinte Fórmula de
Inversão:
= -
27f
1 !c E
( e-i(a-X)t _ e-i(b-X)t )
dt
it
- -
F(b)- F( a)= lim -
1 jc e-iat - e-ibt
. 4Jx(t) dt; =E -
[ 27f
-c

1 !c ( e-i(a-X)t _ e-i(b-X)t )
. dt ,
].
c-+oo 2n -c zt -c zt
sendo F(w) = HF(w) + F(w-)}, Vw E JR., e os números reais a, b e c tais que essa última passagem é uma aplicação do Teorema de Fubini (ver Chae [80]) que
c> O e a< b. trata da troca de ordem de integrais. O teorema pode ser usado tendo em vista que
Demonstração: o integrando é limitado, conforme observado acima.
Vamos trabalhar, agora, com a expressão entre colchetes. Desenvolvemos
Algumas observações preliminares: o termo exponencial em seno e cosseno e notamos que, para todo w E R
(l) Se F for contínua em w, então F( w) = F( w). fcos(wt) é função ímpar e fsen(wt) é par. Portanto,
(2~ A função é definida para ser b - a, quando t = O,
e-iat iie-ibt

coincidindo com o respectivo limite. Logo, ela será contínua para todo t real e !c1
-cos(wt)
-ct
dt =O e !c -c
1
-sen(wt)
t
dt = 21c1tsen(wt) dt.
O
limitada pois:
284 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 285

Assim, Assim,
1 ~c ( e-i(a-X)t _ e-i(b-X)t ) 1 ~c ( ei(X-a)t _ ei(X-b)t ) o, se X < a ou X > b;
- &=- &
2rr - c it 2rr -c it }!_,~ {g(c(X- a))- g(c(X- b))} = 1/2, se X = a ou X = b;
{ 1,

=~
=-11c -:-1 (cos((X- a)t] + i sen[(X - a)t] -
2rr -c tt

- cos[(X- b)t] - isen[(X - b)tJ)dt

1c (sen[(X- a)t] ~ sen[(X- b)t] )dt


I Definindo Y = ~I{a:SX<b}
de forma resumida e temos
se a< X< b.

+ ~I{a<X:Sb}• o limite acima pode ser expresso

g(c(X- a))- g(c(X- b))-+ Y,quando c-+oo.


= .!_1csen[(X- a)t] dt _ .!_1csen[(X- b)t]] dt
rro t rr 0 t Sejam c1, c2, ... uma seqüência de números positivos com en-+oo, quando n-+oo.

= -
1 1c(X-a) sen u
--du--
11c(X-b) -sen-u du Considere as variáveis aleatórias Y1, Y2, ···tais que
rr o u rro u Yn = g(cn(X- a))- gn(c(X- b) e Yn-+ Y, quando n-+oo.
= g(c(X - a)) - g(c(X- b) );
Observe que IYn 1 :::; 2M e, portanto, pelo Teorema da Convergência Dominada:
em que g(.) é dada por: lim E(Yn ) =E[ lim (Yn)] = E(Y).

g(w) = -
11w senu du, w
-- ER
n--+oo n---+oo

7r o u Para o valor esperado de Y temos:

Logo, temos E(Y) = ~ P(Y =a)+~ P(Y = b) + 1 x P(a <X< b)


2 2
Int(c) =E{ g(c(X- a))- g(c(X- b)) }· = ~ {F(a)- F( a-)}+ ~{F(b)- F(b-)} + 1 x {F(b-)- F(a)}
Como vamos passar ao limite para c -+oo, precisamos verificar se é possível trocar = ~{F(b) + F(b-)}- ~{F(a) + F(a-)}
a ordem entre limite e esperança. Isto será garantido pelo Teorema da
Convergência Dominada, tendo em vista que g é contínua e com = F(b)- F( a).

lim g(w)
w_,±oc
= ± ~2 ; Então,
limlnt(c) = = lim Int(cn) = limE(Yn) = F(b)- F(a),
c--+00
segue, então, que g será limitada. Isto é, existeM tal que jg(w)l :::; M, Yw E R C11 -+00 n-+ 00

e a demonstração está completa. o

r1
286 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 287

Teorema 5.16: Teorema da Unicidade Temos


Se as variáveis aleatórias X e Y têm a mesma função caracteó stica, então
elas têm a mesma função de distribuição.
Demons tração:
que reconhecemos como a função característica do modelo Poisson
Por hipótese, X e Y têm a mesma função característica e, como com
conseqü ência da Fórmula de Inversão, temos para quaisquer a, b reais e a < parâmetro n.X.
b, ., .
Dessa forma, provamos o seguinte resultado geral: a so~a de n vanavei s
Fx(b)- Fx(a) = Fy(b)- Fy(a) . aleatórias Poisson(.X) independentes é também Poisson com parametro n.X.
O
Para a-+-oo, segue que Fx(a)-+0 e Fy(a)-+0 e a igualdade acima se toma: Exemplo 5.34: Coletamos uma am~stra aleatória da variável X "'N(J.L, a 2 ).
Que
distribuição terá a média amostrai X? .. A •

Fx(b) = Fy(b), Vb E IR. Lembremos que uma amostra aleatória con.siste. de uma .se~ue~cia
X 1t X 2, ... , X n de variáveis aleatórias independ entes e tdenticamente dtstnbut das
Considere, agora, c E R, c < b. Pela definição de F(.) vem seguindo o mesmo modelo de X. Ou seJa, . . . X N( 2)
as vanávet s j ,...., JL, a para
Fx(c) $ Fx(b) $ Fx(b) e Fy(c) $ Fy(b) $ Fy(b). j = 1, 2,. · ·, n são independentes. , .
A média amostrai é uma funçã,o dos valores da amostra e e dada por.
Lembrando que a função de distribuição é contínua à direita, tomamos limite
para
X XI+ x2.~;__
- = ~__:_:: Xn
+ ..._ + ____:.:..
b ! c. Dessa forma vem
n
lim Fx(b)
b!c
= Fx(c) e lim Fy(b) = Fy(c) Vamos calcular a função caracteó stica de X e, a partir daí, tentar identificar sua
b!c
distribuição. Temos
e isto implica Fx(c) = Fy(c). Como o argumento é válido para qualquer
c real,
podemos concluir que as funções de distribuição de X e Y são iguais. A. (t) = E( eit~(Xt+X2+· ·· +X,.))
O '+'~(Xt+X2+ ··+X,. )

A Fórmula de Inversão não é prática para encontra r a função de


distribuição, mas, se tivermos uma "biblioteca" de funções caracteó
sticas,
= fi E( ei~Xi) = (e(i~ I'-~)) n;
j=l
podemos tentar encontrar o modelo da variável a partir da sua função
caracteó stica. Os exemplos, a seguir, ilustram a aplicação dessa técnica. em que usamos a função característica da N(J.L, a 2 ) aplicada em t fn.
Exempl o 5.33: Sejam XI, x2, .. ·,
Xn variáveis aleatórias independentes e Então,
identicamente distribuídas, seguindo o modelo Poisson de parâmetro .X. Queremo . sd:.)
s </Jx(t) =e (•tJ.<-
obter a distribuição de XI+ x2+ ... + Xn.
2. . .

A função caracteó stica de X"' Poisson (.X) é dada por: Assim, X rv N(JL, ~ ). pois tem a função caracteó stica desse modelo. o
00 ->._xj 00 ( it .X)J Apresentamos, a seguir, a definição de função característica ~ara
l/Jx(t) = E(eitX) = Leitj ~=e->. L _e-.-,-= e>.(ei'-Il.
variáveis multidimensionais. Nesse caso, também valem a Fórmula de lnversao
j=O J. j=O J. e
o Teorema da Unicidade, mas não faremos as demonstrações.
288 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 289

Definição 5.13: Função Característica Multidimensional Exemplo 5.35; Sejam </J1, </J 2 , • • ·, <Pm funções características e defina
m m
Sejam X1 , Xz , · · ·, Xn variáveis aleatórias definidas num mesmo espaço 'lj;(t) =L: a1<fJ1(t) , sendo que L: a1 = 1. Vamos verificar que 1/J também é função
de probabilidade. A função característica multidimensional dessas variáveis é ~1 ~1

definida por característica.


A função 'ljJ é contínua, pois é soma ponderada de funções contínuas .
.+.x1, x 2, ... x (t1 tz · · · t )
'+' , , ' ' ' n
= E(ei(t,X,+t2X2+··+t,.X,.) ) , Aplicada em zero resulta em
m m
em que t1 , tz, · · ·, tn são números reais quaisquer. O 1/J(O) = Lat<PI(O) = Lal = 1.
A independência de variáveis aleatórias pode ser verificada através de 1=1 1=1

funções características, conforme indicado no próximo teorema. Falta verificar que 1/J é positiva definida. Para n = 1, 2, · · ·,
Teorema 5.17: Critério de Independência n n n n m
Sejam X1, Xz, · · ·, Xn variáveis aleatórias com função característica L L 1/J(tJ- tk) ZJ Zk =L L L a1 </J1(tj- t~..) ZJ Zk
j=l k=l j=l k=l 1=1
conjunta </Jx1,x2 ,. .. ,x.. (t1, tz, · · ·, t 11 ), com os t/s reais. Então as variáveis aleatórias m n n
X1 , Xz, · · ·, Xn são independentes se, e somente se, a função característica = La1 LL <P(tJ- tk) ZJ Zk ~O;
conjunta puder ser fatorada como o produto das funções características das 1=1 j=l k=l
variáveis. Isto é:
em que, trocamos a ordem na somatória, pois trata-se de série convergente. Como
n
</J é positiva definida, a ponderação não altera essa condição e 1/J será positiva
</Jx~oX2 ,··,X,.(t1, t2, · · ·, tn) = IT </Jxi(tj)·
j=1
definida. Logo 'ljJ satisfaz todas as condições para ser função característica. O
Demonstração: Exercícios da Seção 5.5:
1. Mostre que se X é igual a c com probabilidade 1, então sua função
A prova será omitida. Ela é similar a que foi feita para funções geradoras
de momentos multidimensional. característica é eict.
O
Um resultado importante, apresentado a seguir, indica as condições em
2. Verifique que se c é o complexo conjugado de c, então </Jx(t) = </Jx( -t).
que uma função dos reais nos complexos é função característica de alguma 3. Prove que X é simétrica ao redor do zero se, e só se, sua função característica
variável aleatória. for um número real.
Teorema 5.18: Teorema de Bochner-Khintchine 4. Obtenha a função característica do modelo Geométrico de parâmetro p e use-a
Uma função contínua 1/J : IR-tC com 1/J(O) = 1 é função característica, de para determinar a média e a variância.
alguma variável aleatória se, e só se, ela for positiva definida. 5. Mostre, via função característica, que a soma de variáveis aleatórias Bernoulli
Demonstração: independentes é Binomial.

Conforme propriedades já demonstradas, se for função característica, é 6. A variável X tem densidade f (x) = ~ e-lxl , x real. Mostre que sua função
contínua, positiva definida e, aplicada em zero, resulta no valor 1. Não característica é dada por </J x (t) = 1/ ( 1 + t 2 ).
apresentaremos a outra parte da prova e o leitor interessado pode consultar Feller
[66]. o
290 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.6 Exercícios 291

7. Sejam X e Y variáveis aleatórias independentes com distribuição Exp(>. ). 6. Seja {Xn: n ~ 1} uma seqüência de variáveis aleatórias tal que, para a E JR,
Usando funções características, mostre que: temos E(Xn)-+a e E(X~)-+a 2 , quando n-+oo. Você acha que vale:
a. X - Y é simétrica ao redor de zero. P(lim Xn = k) = 1, sendo k uma constante finita?
n-+oo
b. X - Y segue o modelo Laplace com parâmetros p = O e .\.
7. Uma uma contém três bolas numeradas -1,-1 e 1. São feitas duas retiradas,
8. Seja X com densidade f( x) = ~~(-t,o)(x) + (~ + ~)I[o, 2 )(x). Obtenha a ao acaso e com reposição, e definimos X como o produto dos números
função característica de X e verifique sua resposta, calculando c/>x(O). retirados e Y como o maior número. Determine a correlação entre X e Y.
9. Suponha que Xt. X2, · · ·, Xn são variáveis aleatórias independentes com
Xi "'N(pj, a/). j = 1, 2, · · ·, n. Com o uso de funções características, obtenha
8. Para estimar a integral M = J: f( x) dx utiliza-se T = ~L f(X;) como
n

i= I
a distribuição de X 1 + X2 + ··· + Xn. estimador, em que X 1 , X2 , .. ·Xn são variáveis aleatórias independentes e
identicamente distribuídas, segundo o modelo Uniforme Contínuo em [0, 1].
10. Se X"' N(p, a 2 ), obtenha a função característica de X 2 e identifique sua
distribuição. Mostre que temos E(T) =Me Var(T) = ~J0\J(x)- M) 2 dx.
9. As variáveis X e Y têm densidade conjunta !x,Y(x, y) = ~ xy I(o,y)(x)
5.6 Exercícios
I(o, 2 )(y). Calcule a covariância. As variáveis são independentes?
1. Seja X uma variável com densidade Uniforme Contínua em [0, 21r]. Verifique
que U = sen X e V = cos X são não correlacionadas. 10. As variáveis aleatórias X e Y são tais que Var(X + Y) =O. Determine o
coeficiente de correlação entre elas.
2. M?stre que ~ara variáveis X e Y com variâncias finitas e positivas e quaisquer
numeros reats a, b, c e d, com a e b não nulos, temos 11. Sejam X e Y variáveis Bernoulli com parâmetros p e q, respectivamente.
discretas cada uma com dois valores diferentes. Mostre que as variáveis X e
-px,Y i se ac <O; Y são independentes se, e só se, forem não correlacionadas.
PaX +b,cY +d = { .
Px,Y, se ac > O. 12. Seja X uma variável tal que E(X 2 ) = 1 e E(IX I) ~ a > O. Mostre que, para
3. Uma moeda com probabilidade p (O< p < 1) de cara é lançada n vezes de o < f< 1,
forma independente. Defina para 1 ::; k ::; n, o evento Ak = {cara no n-ésimo
n-1
lançamento}. Determine a média e a variância de S n = "'
L..J IA k nA k+l •
k=l 13. As variáveis X e Y são independentes e identicamentes distribuídas de acordo
4. Suponha que as variáveis X; com i = 1 2 · . · m e Y. com J. = 1 2 .. . n com o modelo Uc(O, 1). Determine a covariância entre min(X, Y) e
' ' ' 1 ' ' '
tenham variância finita. Mostre que para a;, bi, ci e dj constantes reais Vi, j, max(X, Y).
temos:
14. Sejam X e Y variáveis com segundo momento finito. Mostre que:
m n m n
Cov(I)a;X; + bi), :~:)ci}j +di)= ,L:,L:a;cjCov(Xi, }j). a. lax - ayl ::; .jvar(X ± Y) ::; ax + ay.
i=l j=l i=l j=l
b. Var(XY) = a]ca~ + p]ca~ + J.L~a]c.
Deduza a expressão de Var(X- Y), tendo X e Y variâncias finitas.
c. Se a]c =1 a~ então X + Y e X - Y não são independentes.
5. Seja X uma variável aleatória tal que E(X) =a e E(X 2 ) = a2, para a E R
Mostre que X assume um único valor com probabilidade 1.
r
292 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 293
5.6 Exercícios

15. Considere uma amostra aleatória X 1 , X 2 , • • ·, Xn de uma variável com


média 22. Sejam X e Y variáveis aleatórias contínuas com densidade conjunta:
!L e var~ncia u (não necessariamente Normal). Defina
2 X e W da seguinte
Jx,y(x, y) = e- 11 (1- e-x) l(o, 11 j(x) I[o,oo)(Y) + e-x(l- e- ) I(o,xj(Y) I[o,oo)(x).
11

forma: X é a média amostrai dos n valores da amostra e W = l(U +V), em


que U é a médias das duas primeiras observações e V das ~ - 2 últimas. a. Obtenha E(X/ Y = y) para y > O.
F~xa~do n > 2 e f > O, obtenha um limi~ inferior para a probabilidade de X b. Determine E( X/ Y) e Var(XI Y).
d1fenr de J,t por menos de f. Repita para W e compare os resultados, conforme
o valor de n. 23. A densidade conjunta de X e Y é dada por f( x, y ) = 2e-(x+y) JA(x, y ), com
A = {(x, y) E R : O < x < y < oo }. Determine E(YIX) e E(XIY) .
2

16. Prove ou dê um contra-exemplo para as afirmações abaixo:


a. Se E( X) e E(Y) forem finitas, então E(XY) também é finita. 24. As variáveis aleatórias X e Y têm segundo momento finito.
b. Se E(XY) for finita, então E( X) também é finita. a. Mostre que Cov[X, E(YI X)]= Cov(X, Y).
b. Obtenha Px,Y no caso de E(XjY) = 10- Y e E(YjX) = 7- ~X.
c. Sendo E( X+ Y) finita, então E( X) e E(Y) também são finitas.
17. A densidade conjunta das variáveis aleatórias X e Y é dada
por 25. Sendo X e Y independentes com X,...., N(O, I) e Y igual a 1 ou -1, com
fx,y(x, y) = ~(2x + 3y )l(o,r)(x) l (o,r)(y). Obtenha E(X/ Y) e Var(XI Y). mesma probabilidade. Para Z = XY, calcule o coeficiente de correlação
entre X e Z. As variáveis X e Z são independentes?
18. Seja X uma variável aleatória com densidade fx(x) = 3 x I(o IJ(x).
2 A
),I(o:r)( y). 26. Seja X 1 , X2, · · · uma seqüência de variáveis independentes e identicamente
densidade condicional de Y dado [X = x] é fYJX(Yix) = (3y2jx3
, distribuídas. Seja Numa outra variável, independente dos X/s, e com valores
Determine E(Xj Y). N
inteiros não negativos. Determine a média e a variância de Y = EXi.
19. Sejam X e Y variáveis aleatórias contínuas com densidade conjunta: i= I

!x,y(x, y) = 3(x + y ) I(o,I)(x + y) I(o,r)(x) I(o,l)(y). 27. Numa rodovia, o número de acidentes por semana tem distribuição de Poisson
com parâmetro a. Em cada acidente, o número de feridos tem distribuição de
a. Obtenha E(X/ Y = y). Poisson com parâmetro (3. Assuma independência entre número de feridos por
b. Determine E(XY/ Y = y). acidente e número de acidentes por semana. Obtenha o número médio de
c. Calcule Var(X/ Y = ~). feridos por semana.
20. Sendo X e Y variáveis aleatórias contínuas com densidade conjunta: 28. Sejam X e Y variáveis tais que suas variâncias sejam positivas e finitas.
1 Mostre que se E( X/ Y) é constante para todos os valores de Y, então X e Y
fx,y(x, y) = :;;: IA (x, y), com A= {(x, y) E JR
2 : x 2 + y2 < 1}. são não correlacionadas.
29. Sejam X e Y variáveis aleatórias independentes com distribuição Poisson de
a. Obtenha E( XI Y).
parâmetro >.1e >.2. respectivamente. ParaS =X + Y, obtenha a distribuição,
b. Verif~que se X e Y são não correlacionadas.
a esperança e a variância condicional de X dado S.
21. Sejam X e Y variáveis aleatórias contínuas com densidade conjunta:
30. Considere o seguinte experimento com uma moeda equilibrada. Na primeira
/x,Y(x, y) = 8xy lA (x, y) , comA = { (x,y) E JR
2
: O< x < y < I}. etapa, ela é lançada n vezes de forma independente. O número de caras
obtidos, digamos X r, indicará o número de lançamentos da moeda, na
a. Obtenha E( XI Y). segunda etapa. O experimento contínua de modo que o número de caras
b. Calcule Var(XI Y). obtidas em uma etapa será o número de lançamentos na etapa seguinte.
a. Obtenha o número esperado de caras na segunda etapa.
294 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.6 Exercícios 295

b. Generalize o item (a) para a k-ésima etapa. 40. Para X, Y e Z variáveis aleatórias e, supondo que as esperanças envolvidas
na expressão existam, mostre que:
31. Seleciona-se, ao acaso, um número x em (0, 1). Seja Y o número de caras em
n lançamentos independentes de uma moeda, com probabilidade de cara igual Cov(X , Y) = E{Cov[(X, Y)l Z]} + Cov[E(XI Z),E(YI Z)].
a x. Calcule a média e a variância de Y.
41. Através da função geradora de momentos, determine a média e a variância da
32. Considere uma seqüência de ensaios de Bernoulli independentes, com Uc(a, b), O< a < b.
probabilidade p de sucesso. Seja Tn o número de ensaios necessários para a
ocorrência, pela primeira vez, de n sucessos seguidos. Seja Y a variável que 42. A variável X tem função geradora de momentos dada por M (t) = eat+flt~,
indica o número do ensaio em que ocorreu falha. com t E IR, a E IR e {3 > O. Determine a média e a variância de X.
a. Obtenha E(T2I Y = 1). 43. Para X,..... N(O, 1) e Y,..... N(O, 2), independentes:
b. Determine E(T3). a. Determine a função geradora de momentos de X 2 + Y 2 e, a partir daí, sua
33. Sejam X e Y variáveis independentes e com distribuição Uniforme Contínua média.
em (0, 1). Defina as variáveis W e Z como o mínimo e o máximo entre X e b. Calcule a função geradora de momentos conjunta de X 2 e Y 2 e, a partir
Y, respectivamente. Mostre que a esperança condicional de W dado Zé igual daí, a média de X 2 •
a Z/2. 44. Sejam X 1 e X 2 independentes, com mesma distribuição Normal de média O e
34. Considere duas caixas e bolas numeradas de 1 a n. Assuma que, inicialmente, variância 1/2. Usando função geradora de momentos, mostre que a variável
temos m bolas na caixa 1 (O ~ m ~ n) e as restantes na caixa 2. Um Y = ( X 1 + X 2 ) 2 é Qui-quadrado com 1 grau de liberdade.
mecanismo, conhecido como modelo de Ehrenfest, consiste em sortear ao 45. Para j = 1, 2, 3, 4, sejam X j ,..... N(j JL, a 2) variáveis aleatórias independentes.
acaso uma das n bolas e trocá-la de caixa. O sorteio e a correspondente troca 4
são repetidos indefinidamente. Seja Xn o número de bolas na caixa I após n Defina Y = 2:.:( -1)JXj.
sorteios e trocas. Mostre queE(Xn ) = ~ + (m- V(1- ~)n. j=l
a. Apresente a função geradora de momentos de X j.
Sugestão: escreva E(Xn) em função de E(Xn-d· b. Calcule a função geradora de momentos de Y e, então, E(Y) e Var(Y) .
35. As variáveis aleatórias X e Y são independentes com mesmo modelo Uc[O, 1].
46. Sendo (X, Y) uma Normal Bivariada, obtenha sua função geradora de
Para W = min(X, Y) e Z = max(X, Y), obtenha E(sen(W Z)IW).
momentos conjunta. A partir desse resultado, calcule E(XY).
36. Sejam X e Y variáveis tais que E( XI Y) = aY + b. Obtenha o valor das
47. A função geradora de momentos conjunta de X1 e X2 é dada por
constantes a e b, em função de E(X),E(Y), Var(X) e Cov(X, Y), desde que
essas quantidades existam e que Var(X) seja positiva e finita. 1 1
llf(tlt t2) = [-(et 1+t 2 + 1) + -(et1 + e12
3 6
W, t1 , t2 E R
37. Escolhendo um valor x de acordo com X,..... Exp(a), a variável YI(X = x)
será Uniforme Contínua em [0, x] . Determine E(YI X) e Var(YI X). Calcule a covariância entre as variáveis.
38. Bolas numeradas de 1 a n são colocadas, ao acaso, em caixas também 48. Sejam X 1 e X 2 duas variáveis independentes com distribuição Normal
numeradas de 1 a n. Temos um encontro cada vez que a bola e a caixa têm o Padrão. Defina Y = X1- X2 e Z = Xr- X~.
mesmo número. Calcule a média e a variância do número de encontros.
a. Verifique que Myz(t 1 ,t2 ) = ~etif(l- 4til, sendo (t 1,t2) restritos à
2 , y(l-4t~)
39. Sendo X um valor real escolhido, ao acaso, em [-2, 1] e YIX,..... Uc[X ,4],
determine Cov(X , Y). condição -oo < t 1 < oo e- ~ < t2 < ~-
b. A partir de (a) calcule E(YZ). Seriam Y e Z independentes?
( 297
Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.6 Exercícios
296
(

(
( 55. Sejam X e Y independentes, sendo X"" Gama( a, {3) e Y ""Beta(r, {3 - I'),
49. A densidade conjunta do vetor aleatório (X, Y , Z) é dada por:
para {3 e I' inteiros não negativos e I' :::; {3. Mostre, usando funções
(
6xy2 z
f(x,y,z) = { O, '
seO:::; x:::; 1,0:::; y :::; 1,0 :::; z:::; J2; características, que Z = XY tem distribuição Gama( a, I')·
( caso contrário. 56. Para X com densidade f(x) = (1-lxi)J(-l,l)(x), mostre que sua função
( Obtenha Mx, y(t 1 , t 2 ) de três formas diferentes. Confira sua resposta, característica é ifJx(t) = 2(1- cost)jt2 •
2
( calculando Mx,Y(O, 0). 57. Para X "" N(JL, a 2), obtenha a função característica de x- .
roo -(a x -~) d
2 2
/1r -2ab .
( 50. Seja X uma variável aleatória tal que E(Xn) = n! para todo n E N. Sugestão: Temos. para a, b > o, Jo e r X = 2a e

( a. Obtenha a função geradora de momentos de X nos intervalos de t em que 58. Para X e Y independentes com distribuição N(O, 1), obtenha a função
ela existe. Você identifica essa variável? característica de:
( n
b. Determine a função geradora de momentos de Y = L:X;, em que os X;'s a.XY.
( i=l b. XjY.
( são independentes e com mesma distribuição de X. Sugestão para (b): Aplique esperança condicionada em Y =y e use a
Sugestão para (a): use a expansão de ex. sugestão do exercício 57.
(
51. Seja X uma variável aleatória tal que 59. As variáveis X 1 e X 2 são independentes com distribuição Gama(aj,{3), com
(
j = 1 e 2, respectivamente. Com o uso de funções características, determine a
( se n par; + x2.
distribuição de xl
caso contrário.
60. O modelo Cauchy Padrão tem densidade f(x) = 1/7r(1 + x ), x E R
2
(

( Determine a função geradora de momentos de X e identifique sua a. Verifique que sua função característica é dada por e-ltl.
distribuição. b. De acordo com (a) o que pode ser dito do valor esperado do modelo
( Cauchy Padrão?
52. As variáveis X 1 e X2 têm função geradora de momentos conjunta M(t1, t2), c. Para X 1 e X 2 independentes, seguindo o modelo Cauchy Padrão, obtenha a
(
com (t 1,t2) em algum intervalo de JR2. Defina K(t 1,t2) = logM(t1,t2) nos distribuição de xl + x2 e de HXl + X2)·
( intervalos em que M existe. Mostre que, para i = 1 e 2, d. Repita o item (c) para n variáveis independentes.
( _ ( ) Joo cos(tx) d ,. -ltl
a. ~ K(t1, t2)1 t1=t2=0 = E(X;).
I
Sugestao para a : -oc l+x2 x = 2e ·
61. Suponha que X 1 , X 2 ,. · ·, Xn sejam variáveis aleatórias independentes com
X j,..., N(JLj, 1), j = 1, 2, . · ·, n. Defina Y = XJ
+ X~ +···+ X~ e mostre
que a função característica de Y é dada por

I}Jy(t) = 1 eit1J/(l-2it)
53. Calcule a função característica da variável aleatória X que, para À > O, tem (1- 2it)nf 2 '

função de distribuição F(x) = e>-x J (-oo,o)(x).


em que (} = JL~ + JL~ + · · · + JL;.
54. Sendo ljJ função característica, verifique que ({>,ljJ 2 , lifJI 2 e Re(ljJ(t)) também Obs.: A variável Y tem distribuição Qui-quadrado não central, com n graus
podem ser funções características. de liberdade e (} como parâmetro de não centralidade. Para esse modelo a
notação usual é x2 (n, 0).
71 298 Capitulo 5: Momentos, Esperança Condicional e Funções Auxiliares
I
62. Obtenha duas variáveis aleatórias dependentes X e Y, tais que: Capítulo 6
a. 4>x+Y(t ) = c/>x(t)cj>y(t) para todo tE R
b. c/>x,y(t, t) = c/>x(t)cj>y(t) para todo t E R
63. Sejam {Xn : n ;::: 1} e {Yn : n ;::: 1} duas seqüências de variáveis aleatórias,
Convergência de Variáveis Aleatórias
independentes e identicamente distribuídas, com função densidade dada por
n n
f(x) = ~ e-lxl [ (-oo,oo)(x). Defina U = ~ L:(Xj - }j) e V= ~ L:(Xj + }j).
j=l j=l
Usando funções características: 6.1 Introdução
a. Mostre que U e V são identicamente distribuídas. Em considerando seqüências de variáveis aleatórias, uma questão natural
b. Calcule a função característica conjunta deU e V. é identificar seu limite e as características da eventual convergência. Como no
c. Determine Cov(U, V). As variáveis U e V são independentes? estudo de funções em Matemática, muitas questões referentes à existência e às
64. Mostre que 1/;(t) = (1 - t 2 )e-t
2
/
2
é função característica de alguma variável propriedades dos limites aparecem. Nosso estudo não será exaustivo, mas
( aleatória. pretende apresentar os principais resultados que têm sido obtidos ao longo de
(
vários anos na Teoria das Probabilidades. As várias formas de limite envolvem
diferentes interpretações e têm consegüências para a Inferência Estatística. Entre
( os resultados mais importantes, destacamos a Lei dos Grandes Números e o
( Teorema Central do Limite. Em geral, qualquer usuário de estatística teria
dificuldades em tirar conclusões a partir da amostra, se não utilizasse, consciente
ou inconscientemente, os resultados mencionados acima.
Ao longo do capítulo, as variáveis Xn, n ;::: 1, e seu eventual limite X,
estão todas definidas num mesmo espaço de probabilidade (n, :F, P), salvo
menção em contrário. Para cada ponto fixado Wo E n. temos que Xn(wo). n;::: 1,
forma uma seqüência de números reais e, portanto, toda a teoria referente à
convergência de seqüências numéricas poderia ser aplicada. Entretanto, na
(
maioria das vezes, o interesse é estudar propriedades do conjunto em que ocorre a
( convergência e não de pontos particulares. Em tratando com variáveis aleatórias,
(
usaremos a abreviação i.i.d. para indicar que elas são independentes e
identicamente distribuídas, um atributo freqüente, em vários dos resultados deste
capítulo.
Apresentamos, na Seção 6.2, as diversas formas de convergência de
interesse na Teoria das Probabilidades. Daremos ênfase ao caso unidimensional,
mas apresentaremos, no final da seção, alguns comentários e resultados para
vetores aleatórios. A Lei dos Grandes Números é discutida nas suas principais
formas, na Seção 6.3. Encerramos o capítulo com o Teorema Central do Limite,
objeto da Seção 6.4.

299
- r-

Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 301


300

Nas demonstrações e exercícios deste capítulo, usaremos, repetidamente Definição 6.1: Convergência Quase Certa
as desigualdades de Chebyshev e o Lema de Borel-Cantelli, que são A seqüência {X n : n 2: 1} tem convergência quase certa para X , se
reapresentados a seguir. existir um conjunto A E :F tal que P(A) =O e
O Lema de Borel-Cantelli, cuja demonstração está no Capítulo 1, afirma
que para A1 , A2, ... , An em (n, :F, P) e p, = P(An ) para todo n 2: 1, temos Xn -+X em Ac, quando n-+oo.
00
Usaremos a notação X 11 ~X para indicar essa convergência. Ela também é
(i) Se L Pn < oq então P(limsup An) = O;
denominada de convergência em quase toda parte ou convergência forte. D
n=l
00
A convergência quase certa permite que alguns pontos de n escapem do
(ii) Se L Pn = oo e os A 11 's são independentes, então P(lim sup An) = 1.
critério de convergência, entretanto, o conjunto desses pontos precisa ser
n=l
negligenciável em termos probabilísticos, isto é, sua probabilidade deve ser zero.
A desigualdade Básica de Chebyshev, demonstrada no Capítulo 4, tem o
Exemplo 6.1: Seja w um número real em (0, 1). Definimos X n(w) = ~· em
seguinte enunciado: seja X uma variável aleatória não negativa (valor esperado
que [nw] é o maior inteiro contido em nw. Pode-se verificar que
existe) e considere a > O. Então
lim Xn(w) = w, Vw E (0, 1). Logo a seqüência converge para X( w) = w em
n ..... oo
E(X)
P(X 2: a):::; - -· todo n e, em particular, temos X n ~X. Nesse caso, o conjunto em que não há
a D
convergência é o conjunto vazio.
A desigualdade Clássica de Chebyshev, cuja demonstração está no
Exemplo 6.2: Considere {Xn : n 2: 1} uma seqüência de variáveis i.i.d. com
Capítulo 5, estabelece que para X variável aleatória, com variância finita e
função de distribuição F . Suponha que F (x) < 1, para todo x < oo. Defina
qualquer t > O, temos
Yn = max(Xt, X2, ... , Xn)· Vamos verificar que
Var( X) qc
P(IX - J.Lx I 2: t) :::; t2 . Y, -+ oo.

Inicialmente, observe que para cada w E n, as variáveis Yn formam uma


6.2 Modos de Convergência seqüência não decrescente de números reais, eventualmente com valor infinito.
Iniciamos a seção, relembrando algumas idéias de limite de funções. Seja M um número real, temos
n
Dizemos que X 11 -+X em quando n-+ oo se, para cada t: > O e w E n.
existe um inteiro n(t:, w) tal que
P(Yn :::; M: n = 1, 2, .. . ) $ P(Yn $ M : n = 1, 2, ... , k ) = Fk(JII) , Vk 2: 1.

IXn(w) - X (w)i < t:; para n > n(t:, w ). Então, para todo .1\f finito,

n, se n( t:, w) não depende de w. Isto é, P( lim Y;, :::; lv/ ) = P(Yn $ lvf : n = 1, 2, . .. ) = O;
A convergência acima é dita uniforme em n-oo

IX "(w)- X (w) l < t:; para n > n(t:) e Vw E n. pois Fk(M) tende a zero, quando k-+oo.
Para a Teoria das Probabilidades existem outras formas de convergência Dessa forma, o conjunto dos w E n, em que n-oo
lim Yn(w) é finito, tem
que são de interesse. Nesta seção, apresentamos suas definições, mas as mais
probabilidade zero e, portanto, Y;, ~ oo. D
importantes aplicações são discutidas nas próximas seções.
302 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 303

Definição 6.2: Convergência em Probabilidade afirmação observe que, para f > O, temos
A seqüência {X, : n 2: 1} tem convergência em probabilidade para X 1
P(j Y,j >f)~ P(Y, = 1) = --+ O,paran-+oo.
se, para todo f > O, temos n
lim P (jX, -XI > f) = O. Assim, a seqüência converge em probabilidade, mas não quase certamente. o
n--+oo
Definição 6.3: Convergência em média r
A notação X,~ X será usada para indicar essa convergência que também é
A seqüência {X, : n 2: 1} tem convergência em média r ou em U para
denominada de convergência fraca. O
X, se
Exemplo 6.3: Seja X, "' Bernoulli (Pn) com Pn = ( D", n = 1, 2, ... . Temos
limE(jX,- xn =O.
para f > 0: n--+oo

(
P(j X,j 2: f) = P (X, 2: f)~ E(X,) = (~)" -+O, para n-+ oo;
Indicaremos por X,!. X essa convergência. Para r = 2, essa convergência recebe
o nome especial de convergência em média quadrática. O
f f
(
em que usamos a desigualdade Básica de Chebyshev. Portanto, Xn ~O. O Nos próximos exemplos, exploramos as relações entre os modos de
convergência até aqui apresentados.
Ao utilizarmos a terminologia de convergência fraca para indicar
convergência em probabilidade, estamos, de fato, quantificando a relação dessa Exemplo 6.5: Considere as variáveis introduzidas no Exemplo 6.4. Naquele
convergência com a quase certa. No próximo exemplo, apresentamos uma exemplo verificamos que Y, converge em probabilidade para a variável zero, mas
seqüência que não converge quase certamente, mas converge em probabilidade. não quase certamente. Para r > O, observe que

Exemplo 6.4: Seja w um número real ao acaso de (0, 1). Para n 2: 1 e


O ~ k ~ n- 1, defina as variáveis Xnk (notação para Xn,d. tais que
E( jY, - on = --+O,
1
n
para n-+ oo;

1 kn< w < k+l O< k -< n- 1·' indicando que temos convergência em média r. o
( - n' -
Xnk(w) = { '
(
o, caso contrário. Exemplo 6.6: Seja (0, F, P) um espaço de probabilidade com n = {1, 2, ... }, a
u-álgebra F sendo o conjunto das partes de n e a probabilidade P dada por
{ Com essa definição, as variáveis formam o que é chamado de um arranjo P({n} ) = 1/n(n + 1).
triangular de variáveis aleatórias. Apresentamos, como ilustração, alguns termos
( deX,k: Para n 2: 1, definimos X, por:
2" sew = n;
X,(w) = { O,' caso contrário.
Para qualquer valor wo fixado, existem infinitos pares (n, k), tais que
qc
Xnk(wo) = 1; da mesma forma existem infinitos outros pares com X,k(wo) = O. Sendo X(w) =O, Vw E O, temos X, -+X.
Podemos organizar o arranjo triangular na forma de uma seqüência com índice
De fato, a convergência é em todo O pois, para cada f > O e todo w E O
único tomando j = n(n;l) + k + 1 e definindo Yj(w) = Xnk(w). A seqüência
temos:
{}j(w) : j 2: 1} não tem limite para nenhum w. Logo ela não pode convergir
quase certamente, seja qual for a variável limite. Entretanto, existe a convergência V jX,(w)l < f ,paratodon > w.
em probabilidade para a variável identicamente zero. Para verificar essa
.._.. I

6.2 Modos de Convergência 305


304 Capítulo 6: Convergência de Variáveis Aleatórias

Para r> O, Definição 6.4: Convergência em Distribuição


2nr Sejam { Xn : n ;:::: 1} e X variáveis aleatórias com funções de distribuição
E(/Xn-Xn=E(X~)= ( ) -+ oo,paran-+oo; {Fn: n;:::: 1} e F, respectivamente. Diremos que Xn converge em distribuição ou
n n+ 1
em lei para X, se para todo ponto x em que F é contínua, tivermos
e, portanto, não vale a convergência em média r. O
lim Fn(x)
n ...... oo
= F(x) ,
Proposição 6.1:
Sejam { Xn : n ;:::: 1} e X variáveis aleatórias em um mesmo espaço de A notação para essa convergência é Xn E. X. O
probabilidade (0, :F, P). Então qualquer uma das convergências, Xn ~X ou Exemplo 6. 7: Seja { Xn : n ;:::: 1} uma seqüência de variáveis aleatórias
Xn !.x, implica em Xn !.x. independentes com distribuição Uniforme Contínua em (0, b), b >O. Defina

Demonstração: Yn = max(X1 , X2, ... , Xn) e Y = b. Vamos verificar que Yn E. Y.

Vamos verificar que a convergência quase certa implica convergência em Temos


probabilidade. y <O;
Tome f> O, existe um conjunto A E :F tal que P(A) =O e Xn -+X em o::; y < b;
A c. Para n = 1, 2, ... seja Bn E :F tal que y;:::: b.
Bn = n
m~n
{w : /Xm(w)- X(w)/ <f}. Passando ao limite, para n indo ao infinito, vem
0 y < b;
00 lim Fy.(y) = { •
Então Bn é uma seqüência não decrescente de eventos e B = U Bn :J Ac. Logo n-+oo 1, y;:::: b;
n=l
P(B) =1 e também lim P(Bn)
n ...... oo
= 1, pela propriedade de continuidade da que corresponde à função de distribuição de Y e, portanto, Yn E. Y. D
probabilidade. Assim, Na convergência em distribuição, as variáveis apenas se envolvem através
P(/Xn(w)- X(w)/;:::: f)::; P(B~) -+ O, para n-+oo; da sua função de distribuição e muitos autores omitem a referência à variável
p
E.
aleatória. Nesse sentido, a notação Fn -+F ou Fn F é algumas vezes utilizada.
logo, Xn -+X. Não há, inclusive, necessidade das variáveis estarem num mesmo espaço de
Para verificar que convergência em média r implica convergência em probabilidade.
O requisito de continuidade, mencionado na definição acima, se justifica
probabilidade, definimos, para f> O, os eventos An = {/Xn- X/;:::: f}, n 2: 1.
Temos para evitar algumas anomalias. Por exemplo, para n ;:::: 1 seja Xn = ~ e X = O,
para todo O. Parece aceitável que deveríamos ter convergência de Xn para X,
qualquer que fosse o modo de convergência. Observe que

o, X<!.
I
então, aplicando esperanças, vem
Fn(x) = { 1, X> l.n' e F(x) = {~: X< O;
X 2:0.
- n
P(An)::; f-rE(IXn- xn -+ O, para n-+oo;
e, portanto, Xn converge em probabilidade para X. o
(
( 306 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 307
(
(
( Portanto, como lim Fn(O) =O =f. F(O) = 1, não temos lim Fn(x ) = F(x ) para algum fi > O. Argumento similar pode ser aplicado à terceira integral mostrando
n-+oo n-+oo
que, com b suficientemente grande, temos
( todo x E R Dessa forma, se houvesse a exigência de convergência em todos os

(
pontos, não teríamos convergência em distribuição. Entretanto, note que para
x =f. O, temos limFn(x) = F(x) e, como o ponto O não é de continuidade de F,
n->oo
11
00

g(x) [dFn(x)- dF(x)JI < €2, para algum €2 > O.


(
concluímos que Xn !!.x. Para completar a prova, vamos majorar a segunda integral.
( Sabemos, do Capítulo 5, que existe uma correspondência biunívoca entre No intervalo (a, b), g é uniformemente contínua. Considere a partição
( função de distribuição e função característica. Dessa forma, é natural buscar desse intervalo por pontos de continuidade de F tais que
encontrar um relacionamento similar, quando consideramos os limites dessas
( funções. De fato, boa parte da teoria envolvendo convergência em distribuição foi Xo = a < XI < ... < Xm-1 < b = Xm·
( feita usando funções características como uma ferramenta fundamental. Os Para x E~. com x; < x < Xi+1• temos, para €3 > O,
próximos resultados são a base de tal procedimento.
( lg(x)- g(x;)l ::; €3, uniformemente para todo i.
Teorema 6.2: Teorema de Helly-Bray
( Seja 9m(x) = g(x;), x; :S x < Xi+l• i= O, 1, ... , m - 1. Logo
As variáveis {X n : n ~ 1} e X têm função de distribuição { Fn : n ~ 1}
( b m-1
e F, respectivamente. Se Xn !!. X e g é uma função contínua e limitada, então
( 1 9m(x) dF,(x) = ~ g(x;) [F,(xi+I) - Fn(x;)]
( m-1

( ,;-::;""to L g(x;) [F(xi+1) - F(x;) ]


Demonstração: . i=O
(
Sejam a e b dois pontos de continuidade de F. Podemos dividir as = 1b9m(x) dF(x).
( integrais da seguinte forma:
( Dessa forma, com qualquer m e sendo n suficientemente grande, temos, para
(
1:g( x) dFn(x) -1:g(x) dF (x) = 1:g(x)[dF11 (x)- dF(x)] + algum €-t >O,

(
(
+1bg(x)[dF 11 (x) - dF(x)] +1 00

g(x) [dFn(x)- dF(x)].

Vamos estudar o comportamento das três integrais do lado direito da Observe que
igualdade acima, buscando para cada uma delas um majorante.
Co11_1o g é limitada, seja c > O tal que IYI ::; c. Então, para o módulo da b [b
primeira integral, temos 1 g(x) [dFn(x)- dF(x)] =la [g(x) - 9m(x)]dFn(x) +

+ 1b9m(x) [dFn(x)- dF(x)]

Se a é suficientemente pequeno, F(a) é pequeno e o mesmo ocorre com F,,(a) + 1b[gm(x) - g(x)]dF(x);
para n suficientemente grande. Nessas condições, c[Fn(a) +F( a)] < € 1 , para
6.2 Modos de Convergência 309
308 Capítulo 6: Convergência de Variáveis Aleatórias

e, portanto, para n suficientemente grande, assim, <Pn(t) = e-t2n/ 2 • Então

1b g(x) [dFn(x)- dF(x)] ::; 1b f.3 dFn(x) + f.4 + 1b f.3 dF(x) c/>n(t) n~ cj>(t), com </J(t) = { ~: t =O;
t # O,

::; 2€3 + f.4. e, portanto, 4> não é contínua em O. A conclusão da parte (ii) da proposição não
vale pois, para todo x E ~. temos
Logo, quando n cresce podemos fazer os f.'s arbitrariamente pequenos, de modo
que concluímos X 1
F71 (x) = P(Xn ::; x) = P( Z ::; y~n) n-:::::1x. 2;

1 : g(x) dFn (x) - l : g(x ) dF(x) n~ O; sendo que z ,. . , N(O, 1). O problema reside em que F (x ) = 1/2, Vx E ~ não é
uma função de distribuição.
e isto completa a demonstração. D
Exemplo 6.8: Seja {Xn : n ;::: 1} uma seqüência de variáveis com distribuição
Teorema 6.3: Teorema da Continuidade de Levy
Erlang de ordem n e com parâmetro 1. Vamos verificar que Yn = (Xn- n)/ Vn
Sejam Fn, n ;::: 1, funções de distribuição cujas funções características converge em distribuição para a N(O, 1).
são dadas por <Pn. n ;::: 1, respectivamente. Então, Lembremos que Er/71 (1) é uma Ga~ (n, 1) e assim
(i) Se Fn,.~ F nos pontos de continuidade de uma função de
distribuição F, então <Pn (t),~ <P(t ) para t E~. em que <P é a função
A..
'!'X,
.
(t) = E(e'tX,) = 1ooe•tx-x
. (n- 1)! dx =xn-1 ( 1 . ) " , para t real.
--
1 -zt
0
característica correspondentes à F.
Com o auxílio das propriedades de função característica, obtemos
(ii) Se <Pn(t ),.-:::::tx, <P(t) para t E ~. em que <P é uma função contínua em
t = O, então <P é função característica. Se F for a função de distribuição .
</JY,,(t) = E(e'tY,,)
it )-n e-tt..fo.
= ( 1- Vn .
correspondente à </J, então F,. ,.-:::::tx, F em todos os pontos de continuidade de F .
Demonstração: Aplicando logaritmos nos dois lados da expressão vem
(
A prova será omitida. Ela pode ser encontrada em James [81].
Em essência, o Teorema da Continuidade de Levy estabelece uma
O
logE(eitYn) = -ityÍn- nlog( 1- :/n)
equivalência entre a convergência em distribuição e a convergência das -it t2 it3
respectivas funções características. Dessa forma, a verificação de convergência = -ityÍn- n( fo + 2n + 3nyln + .. .)
em distribuição pode ser feita pela verificação do comportamento limite da função
t2
característica.. = --+ Rn(t) ;
No enunciado do teorema, optamos por não fazer menção à variável 2
aleatória, seguindo o caminho de vários autores. Entretanto, é importante que com o resto Rn(t) indo para O, quando n vai ao infinito. Note que a expansão em
fique claro que poderíamos considerar variáveis aleatórias Xn e X e funções de
distribuição Fn e F, tais que Xn E. x.
série de log ( 1 - fn) é válida, pois, para n suficientemente grande, litI vnl < 1
A menção, na segunda parte do teorema, sobre a necessidade da função 4> para todo t real.
ser contínua em t = O é essencial. Para ilustrar esse fato, seja Xn ,...., N(O, n) e,
310 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 311

Então, Assim, completamos a demonstração do teorema pois, para n 2::: n(f), temos que
IFn(x)- F(x)l <f para todo x E R O
Vários autores se referem à convergência em distribuição como
que é uma função contínua em t = O e, como é a função característica de convergência fraca. Preferimos evitar essa denominação, para não confundi-la
com aquela já usada para convergência em probabilidade. Entretanto, o nome
Z ""N(O, 1), segue pelo Teorema da Continuidade de Levy que Yn _!l:_.z. O
seria justificável, pois a convergência em distribuição é conseqüência dos outros
Teorema 6.4: Teorema de Polya modos de convergência.
Sejam { Xn : n 2::: 1} e X variáveis aleatórias com funções de distribuição Proposição 6.5:
{Fn : n 2::: 1} e F, respectivamente. Se Xn ~X e F é uma função contínua, então A convergência em probabilidade implica a convergência em distribuição.
a convergência é uniforme.
Isto é:
Demonstração: p d
Xn -+X => Xn -+X.
Precisamos verificar que para todo f > O, existe n( f) tal que n 2::: n( f)
implica a ocorrência de IFn(x)- F(x)l <f para todo x E R Demonstração:
Seja f >O, existem números reais a e b tais que F(a) < f/2 e
F(b) > 1 - f/2. A função F é uniformemente contínua em [a, b] e existe uma Suponha que F seja contínua em x. Dado f > O, temos
partição finita tal que a = X1 < X2 < · · · < X r = b tal que Fn(x) = P(Xn ~ x)
IF(xj+l)- F(xi)l < f/2, j = 1, ... , r- 1. = P(Xn ~ x,X ~X+ f)+ P(Xn ~ x,X >X+ t:)
~ P(X ~ X+ f)+ P(IXn- XI > f).
Pela convergência de Fn temos que, para cada xi, j = 1, ... , r, existe
nj(f) > O tal que para todo n 2::: nj(f), IFn(xi)- F(xi)l < f/2. Tomando De forma similar
n 2::: n( f) = max ( n1 (f), ... , nr( f)) a majoração vale para todo j. Assim, F(x- f) = P(X ~ x-f)
IFn(Xj) - F(xi)l < f/2, j = 1, ... , r. = P(X ~X- f,Xn ~ x) + P(X ~X- f,Xn > x)
~ P(Xn ~ x) + P(IXn- XI> f).
Definindo x 0 = -oo e Xr+l = oo, podemos escrever
Portanto
IF(xj+l)- F(xi)l < f/2, j =O, 1, ... , r;
IFn(Xj)- F(xi)l < f/2, j =O, 1, ... , r+ 1. F(x- f)- P(IXn- XI >f)~ Fn(x) ~ F(x +f)- P(IXn- XI> f).

Para x E JR, temos Xj ~ x ~ xi+l para algum j =O, 1, ... , r. Então, ainda para Dessa forma, quando n-+ oo, podemos escrever para todo n suficientemente
n 2::: n (f),. temos a seguinte seqüência de desigualdades: grande

F(xj)- t:/2 < Fn(xj) ~ Fn(x) ~ Fn(Xj+l) < F(x- f)~ liminfFn(x) ~ limsupFn(x) ~ F(x + t:),
< F(xj+l) + f/2 < F(xj) +f~ F(x) +f~ F(xi+d +f. e, então, temos lim Fn(x) = F(x) para todo ponto de continuidade x de F. o
n-+oo
Logo,
A convergência em distribuição não implica convergência em
probabilidade, conforme apresentaremos no próximo exemplo. Um caso
312 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 313

p
particular, em que essa implicação é verdadeira, é apresentado em seguida atraves mas, F( c- E)+ [1- F( c+~)]= O+ (1 -1) =O e, portanto temos X 11 -+ C. O
de proposição.
Como mencionamos anteriormente, a definição de convergência em
Exemplo 6.9: Seja (0, :F, P) um espaço de probabilidade com O= {1, 2}, distribuição é aplicada nos pontos de continuidade de F. A próxima proposição
:F = OP e P a probabilidade uniforme em O. Considere as variáveis aleatórias: indica que o conjunto de pontos de descontinuidade de F é enumerável.

X(w) = { ~: w =
W-
_ 1; e, para n
2.
= 1 , 2 , ... , X n (w ) = { 1,
O
,
w= 1;
w=2.
Proposição 6. 7:
Seja D o conjunto de pontos de descontinuidade da função de
Note que, para as funções de distribuição, temos igualdade entre elas, em distribuição F. Então D é enumerável.
todos os valores x E~ e n E N: Demonstração:
o, X< O; Para todo x real, temos F(x-) :::; F(x) :::; F(x+). Temos x E D se e só
F11 (x) = F(x) = 1/2, 0 :S: X< 1; se F(x+) > F(x-). Para n = 1, 2, ... seja
{ 1, x;::: l.
1
An = {x: F(x+)- F(x-) > - };
Portanto, vale a convergência em distribuição de Xn para X. Entretanto, tomando n
E= 1/2, temos 00
então D = U An.
n=I
P(IXn -XI ;::: 1/2) = 1, qualquer que seja n E N,
Vamos verificar que todo An contém menos que n pontos e, portanto, é
e, assim, não vale a convergência em probabilidade. o finito. Dessa forma, D será enumerável.
Por absurdo, suponha que para cada n, An contém pelo menos n pontos.
Proposição 6.6: Assim, existem números reais XI, x 2 , •.• , Xn em An tais que XI < x2 < ... < Xn
Suponha que a seqüência Xn, n ;::: 1 converge em distribuição para uma e
- X n -+P c.
constante c, entao O :::; F(xl) < F(xt) :::; F(x2) < F(xt) :::; ... F(x;;) < F(xt) :S: 1.
Demonstração:
Então, temos
Seja F a função de distribuição da variável aleatória constante c. Assim TI

L[F(xt) - F(xk")] :::; 1.


F(x)={~: x <c;
X;::: C.
k=I

Mas, pela definição do conjunto A 11 , o lado esquerdo dessa desigualdade


Logo, F é contínua em todos os reais, exceto c. Para E > Otemos é superior a 1, pois:
P(IXn- ci;::: E)= P(Xn:::: c- E)+ P(Xn;::: c+ E) n 1
E L[F(xt) - F(xk")] > n x ;;:; = 1.
:S: P(Xn :S: C- E)+ P(Xn >C+ 2) k=I
E
= F 11 (c- E)+ [1- Fn(c + 2)] Assim, temos uma contradição. Concluímos que An contém menos que n pontos e
E a proposição está demonstrada. O
-+ F( c- E)+ [1- F( c+ )], quando n-+oo.
2
- 314 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 315

O figura, a seguir, resume as implicações dos diversos modos de quase certa e em probabilidade, não podemos reduzir o estudo da convergência
convergência. em distribuição de vetores aleatórios, ao comportamento das suas respectivas
coordenadas. Não temos equivalência, mas apenas implicação, em uma das
direções. Ou seja, se o vetor converge em distribuição então cada componente
também converge em distribuição, para a correspondente marginal da função de
distribuição limite. Entretanto a recíproca não é, em geral, verdadeira.
Como já mencionamos, para amenizar as dificuldades técnicas no trato de
convergência em distribuição, é conveniente trabalhar com funções
características. O Teorema da Continuidade de Levy também vale para o caso
multivariado. A seguir, apresentamos um critério que facilita a verificação da
convergência em distribuição para vetores aleatórios.
Teorema 6.8: Teorema de Cramér- Wold
Para k ;::: 1, sejam {Xn : n ;::: 1} e X vetores aleatórios k-dimensionais
em um mesmo espaço de probabilidade (S1, :F, P). Então, Xn converge para X em
k
distribuição se, e somente se, a seqüência de combinações lineares I:aiXnj
j=l
k
converge em distribuição para I:aiXi, para qualquer (ai, a2, ... , ak) E JRk.
j=l
Figura 6.1: Relação entre os Modos de Convergência.
Demonstração;
d k d k
Supomos que X11 -+ X e vamos verificar que I:aJXn; -+ I:aiXJ, para
Para o caso vetorial, as definições de convergência sofrem algumas j=l j=l

adaptações. Para as convergências quase certa e em probabilidade, precisamos


avaliar a proximidade entre os vetores aleatórios X 11 e X pelo comportamento da
norma da diferença entre eles. Em geral, essa norma é calculada por
k ) 1/2
IIXn - X/1 = ( L(Xnj- Xj) 2 , com k sendo a dimensão dos vetores e X nj a
J=l
coordenada j do vetor X11 • Pode-se verificar, ver Leite e Singer [90], que a assim, pelo Teorema da Continuidade de Levy, segue que
convergência do vetor aleatório, quase certamente ou em probabilidade, ocorre se,
r/Jx..(ta 1,ta2, ... ,tak) ,;-=-i r/Jx(tal,ta2, ... ,tak)
e somente .se, existir a mesma convergência em cada uma das variáveis que I·
compõem o vetor aleatório. Dessa forma, o caso multidimensional pode ser = E (e i!\ (ta;)X;)
estudado a partir de repetidas aplicações do caso univariado.
Para convergência em distribuição de vetores aleatórios, requeremos que = rjJ !- (t),
L;a;Xj
a função de distribuição conjunta F,, (x) convirja para F(x), em todos os pontos J=l
de continuidade da função de distribuição conjunta F. Entretanto, lembremos que
da função de distribuição conjunta podemos obter as marginais, mas o caminho e, portanto, o resultado está verificado.
inverso nem sempre é possível. Por essa razão, diferentemente das convergências
316 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 317

k k Assim, existe no suficientemente grande tal que Mno > 1e


Supomos agora L:aiXnj!!. L:aiXi para qualquer (a 1 , a 2 , ... , ak) E JR" e
j=l j=l
P(IXI > M, 11 ) < E/2.
d
vamos provar que vale X, -+X.
TomeM = M, 11 e, portanto, temos P(IXI > M) < E/2.
Temos
A função g sendo contínua em JR, será uniformemente contínua no
intervalo fechado [-2M, 2M]. Logo, para todo f.> O, existe ó(E, M) = ó(E) tal
que lg(x)- g(y)l <f para todo x, y E [-2M, 2M] e com lx- Yl < ó(E).
Como X,!. X, existe n( f.) > O tal que
Passando ao limite para n indo ao infinito, vem
P[IX,- XI 2:: 6(E)] < E/2, para n 2:: n(E).

Note que na intersecção [lXI :::; M] n [IX,- XI < ó(E)] temos X e Xn


em [-2M, 2M]. Então, pela continuidade uniforme de g nesse intervalo, vem
Logo, pelo Teorema da Continuidade de Levy, temos X11 !!.x. D
[lXI :::; M] n [IX,- XI < 6(E)] c [lg(X,)- g(X)I <E], para n 2:: n(E).
Apresentamos a seguir alguns resultados que auxiliam a tarefa de
estabelecer convergência de funções de variáveis aleatórias. Para os complementares, temos

Proposição 6.9: Funções contínuas preservam convergência [lXI > M] U [IX,- XI 2:: 6(E)] :J [lg(X,)- g(X)I 2:: E], para n 2:: n(E).

Para k 2:: 1, sejam {X11 : n 2:: 1} e X vetores aleatórios k-dimensionais Então, para todo n 2:: n( f.),
com funções de distribuição conjunta {F, : n 2:: 1} e F, respectivamente. Seja
P(lg(X,)- g(X)I 2:: f) :::; P(IXI > M) + P[IX,- XI 2:: 6(€)] <f..
g : JRk -+ lR uma função contínua. Então, se X 11 converge para X em quase toda
parte, em probabilidade ou em distribuição, o mesmo ocorre com g(X,) para p
Portanto, vale g(X,)-+ g(X).
g(X), no mesmo modo de convergência.
d d
RestamostrarqueX,-+X::::} g(X,)-+g(X). Temos
Demonstração:
Notamos, inicialmente, que o requisito de mesmo espaço de probabilidade E(eitg(X,.)) =L: dF,(x)
eitg(x)
pode ser relaxado, se a convergência for em distribuição.
Faremos a prova para o caso k = 1. Para as convergências quase certa e =L:cos(tg(x)) dF,(x) +iL: sen(tg(x)) dF,(x).
em probabilidade, o caso geral segue diretamente. Já para a convergência em
distribuição, precisaríamos usar uma versão multivariada do Teorema da As funções seno e cosseno, aplicadas no produto de t por g(x), são funções
Continuidade de Levy. contínuas e limitadas. Então, pelo Teorema de Helly-Bray
Suponha X, ~X. Então existe um conjunto A E F tal que P(A) =O e
X,(w)-+X(w) para w E Ac, quando n-+oo. Como g é contínua, g(X11 (w))-+ !!..~E(e itg(X,.)) =L:cos(tg(x)) dF(x) +iL:sen(tg(x)) dF(x)
g(X(w)) para w E A c, quando n vai ao infinito e, portanto, g(X11 ) ~ g(X). = E(eitg(Xl).
Considere que X,!. X e vamos verificar que g(X,)!. g(X).
Segue, agora, do Teorema da Continuidade de Levy que g(X,) 2. g(X). D
SeM, >0 eM, loo, então P(X E [-M,,M11 ]) ,~ 1.
-
318 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 319

Uma simples aplicação da proposição anterior permite avaliar, a partir do 0 comportamento da soma e do produto de variáveis, uma convergindo
que ocorre com Xn, a convergência de X~ ou de aXn + b, para a e b constantes. em distribuição e outra em probabilidade, é o objeto do próximo teorema.
Assim, por exemplo, se Xn ~N(O, 1) teremos X~~ [N(O , 1)]2 = x~ ou, se Teorema 6.10: Teorema de Slutsky
qc X qc
tivermos Xn-+ c, então Xne •-+ c é . Considere {Xn:n;;::: 1}, {Yn : n;;::: 1} e X variáveis aleatórias tais que
No próximo exemplo, discutimos o comportamento da soma de duas
variáveis, a partir da convergência de cada uma delas. valem as convergências Xn ~X e Yn ~c, com c constante. Então,

Exemplo 6.10: Sejam Xn e Yn, n;;::: 1, seqüências de variáveis que convergem (i) Xn + Yn ~X + c;
quase certamente para X e Y, respectivamente. Da convergência individual temos
a convergência quase certa do vetor (Xn, Yn) para (X , Y). Usando a proposição (ii) XnYn ~eX;
anterior com a função contínua g(x, y) = x + y, obtemos o resultado:
(iii) Se c =f O, ~:: 2. f ,desde que P(Yn =f O) = 1.
qc qc qc
Xn -+X e Yn-+Y ::::} Xn + Yn -+X + Y. Demonstração:
Se a convergência for em probabilidade, o mesmo argumento se aplica e temos: Prova de (i): Temos
p p p
Xn-+X e Yn-+Y =}Xn+Yn -+X +Y. ,~.. (t) = E(eit(X.,+l~,)) = E(eit(Xn+c) ) +E[(eitX,. )(eitY,, _ eitc )] .
'f'X,+Y,,

Considere, agora, que Xn ~X e Yn ~ Y. Será que Xn + Yn converge em Por hipótese temos,


distribuição para X + Y? Em geral, a resposta é negativa, conforme veremos
lim E(eit(Xn+cl ) = lim eitcE(eitX.,) = eitcE(eitX ) = E(eit(X+cl ).
através de um contra-exemplo. Antes, alguns comentários. TL--+00 R--+00
Se as seqüências convergem em probabilidade ou quase certamente, a
convergência em distribuição valeria e a soma convergiria em distribuição. Observe que JeitX., I = 1 e, assim, vem
Da convergência em distribuição de Xn e Yn. isoladamente, não é IE{(eitX" )(eitl';. _ eitc )}i:::; E{i(eitX., )(eitY,, _ eitc )i} = E{i(eitY,, _ eitc )i}.
possível estabelecer o comportamento do vetor (Xn, Yn). Caso fosse possível e, se
ele convergisse em distribuição para (X, Y), com a mesma argumentação Se Zn = J em~. - eitc J, temos Z 11 :5 2. Logo para f> O, vem
utilizada nas outras convergências, teríamos que a soma converge em distribuição.
E{J(eitl'. - eitc )i} = E(Z,.) = E(Zn l {z,.s,}) + E(Z" J{Z.,>•})
Assim, Xn ~X e Y,, ~ Y não são condições suficientes para concluir-se
sobre a convergência em distribuição da soma Xn + Yn para X+ Y. :5 E( f)+ 2E(J{Z.,><})
Para um contra-exemplo, considere que X é não nula e simétrica ao redor :::; f+ 2P(Zn > f).
d d .
de O e tome Yn = -Xn. Dessa forma, se Xn -+X, então Yn -+X pOIS Como z é uma função contínua de Yn e lembrando que funções contínuas
Fx(x) = f -x(x), 't/x E JR. 11 p . ..
preservam convergência, temos que Z11 -+ O, pms Yn c?~verge em probabiltdade
Por outro lado, para n 2:: 1, Xn + Yn =O e, assim, Xn + Yn ~O. Logo, para c. Nessas condições, podemos escrever, para n suftctentemente grande,
não ternos convergência em distribuição de Xn + Yn para 2X.
Em resumo, iE[(eitX., )(eitl;, _ eitc )]i :::; E[i(eitl·;, _ eitc )i] < 2L
d d d Logo, tomando limite em 4>x,.+Yn (t), quando n -+ oo, concluímos a demonstração
Xn-+X e Yn-+Y =f Xn + Yn -+X + Y,
da parte (i).
ressalvado que, com certas condições adicionais, a implicação é válida. O
320 Capítulo 6: Con vergência de Variáveis Aleatórias 6.2 Modos de Con vergência 321

Prova de (ii): Inicialmente consideramos c = O e vamos verificar que Por serem funções da amostra, essas quantidades são aleatórias. Omitimos a
X, Y, , !. O. Daí a convergência em distribuição também vale. menção ao tamanho da amostra n , para aliviar a notação. Note que, após o
Temos, para t > Oe k > O, conhecimento dos valores observados em uma particular amostra, a média e a
variância amostrais podem ser calculadas numericamente.
P( IX, Y,,I >E) = P(I Xn Ynl >E, IY,, I ~ tlk ) + P( IX, Y,,I > t, IY,, I > tlk ) Vamos verificar que s~ !.e12 • É possível mostrar que (n - 1 )s~ le1 tem
2

~ P(I X, I > k ) + P(I Y,,j > Elk). distribuição Qui-quadrado com n - 1 graus de liberdade e, dessa forma, temos
Então,
Var( (n ~;)s~ ) = 2(n - 1) =? Var(s~) = 2CT 4l(n- 1).
limsupP(IX" Y, j >E)~ P(IXI > k ), pois X 11 ~X e Y,, !.o.
n-oo
Pela Desigualdade de Chebyshev, para qualquer t > 0:
Como k pode ser arbitrariamente grande, segue que P( IX, Y,,l > t) -... O para 2 2 20"4 .
n -... oo. Isto é, X , Y,, converge em probabilidade para zero. P (lsa - CT I2 E) $ E2 (n _
1) "-:::1: O,
Consideramos, agora, o caso geral. Temos
2 p 2
e, portanto, sa -+ O" •
X" Y,' = eX,+ (Y,,- c)X11 •
A variável aleatória T,,_ 1 definida por:
Observe que vale Y,, - c!. O. Da parte inicial, podemos concluir que
X - JL
(Y,, - c)X, !.o. Além disso, eX, ~eX pois produto por é uma função contínua. Tn-! = sal Vn'
Uma nova aplicação da parte inicial resulta em
tem distribuição t-Student com n - 1 graus de liberdade. Para o comportamento
X , Y,, =eX"+ (Y,- c)X, !. cx, limite temos
. )"1cando em X, Y,, -+
d cX. d
1mp T,,-1 -+ N(O, 1).
Prova de (iii): Note que g(y) = 1l y, com y =/= O, é uma função contínua. x-11 tem distribuição
Para a verificação desse resultado, observe que uffo
Dessa forma, segue que 11Y,!.11c. Para concluir a prova de (iii) , basta aplicar a
parte (ií). O N(O, 1), independente de n. Logo, ~:};; ~ N(O, 1) .
Exemplo 6.11: Considere X1 ,X2, ... X , variáveis aleatórias independentes com
Também temos ~ ! 1, por ser função contínua de uma quantidade
distribuição N(J.L , e1 2 ). Podemos pensar que essa seqüência constitui uma amostra
do modelo indicado. Relembremos que a média amostrai é dada por que converge em probabilidade.
Aplicando a parte (iii) do Teorema de Slutsky vem
X = X I +X2 + ·· · + XII
- x-Jl
~ n X - J.L -;;J"Tn d
Tn-1 = I r;: = J':2T.:2 -+ N(O, 1),
e a variância amostrai por Sa v n v sã!CT-
indicando que, para valores grandes de n , a distribuição t-Student pode ser
calculada, aproximadamente, pela distribuição Normal Padrão. O
322 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 323

Exercícios da Seção 6.2: 8. Seja { Xn : n :2: 1} uma seqüência de variáveis aleatórias simétricas ao redor
do zero. Suponha que Xn E. X, para alguma variável X. Então, X também é
1. Para n :2: 1, Xn"" Uc(O, 1) são variáveis i.i.d. Defina Yn = min(X1, ... Xn),
W n = max(X1, ... Xn), Un = nYn e Vn = n(1 - Wn )· Mostre que: simétrica ao redor do zero.
p
a. Yn-+0. 9. Sendo Xn !.x, r :2: 1, verifique que lim E(IXm- Xnn =O.
p m,n-+oo
b. Wn -+ 1.
d Sugestão: Mostre que IXm- Xnlr::::; 2r {IXm- Xlr + IXn- xn.
c. Un -+U, sendo U ""Exp(1).
d 10. Sejam Xn. n :2: 1, e X variáveis aleatórias.
d. Vn-+ V, sendo V"" Exp(1). ()()

a. Mostre que, se P(IXn -XI :2: En) ::S Ón com lim En = O e E Ón < oo,
( 2. Suponha que Xn, n :2: 1, sejam independentes e que Xn ~X. Mostre que, para n--+oo n=l
()() qc
qualquer€ > O temos E P(IXnl :2: E) < oo. então Xn -+X.
n=l
b. Se Xn!. X, então existe uma sub-seqüência de Xn que converge quase
3. Seja { Xn : n :2: 1} uma seqüência de variáveis alaetórias independentes com certamente para X.
(
P(Xn = ± 2") = 2-( 2n+l) e P(Xn =O) = 1 - 2- 2n, n :2: 1. Verifique se Sugestão para a parte (a): Use Borel-Cantelli.
n
(
~ EXn converge em probabilidade e indique qual seria o limite. 11. Prove que
( i=l

4. Considere Xn, n :2: 1, uma variável aleatória com função de distribuição F11 Xn!.X {::} VE >O, lim P(IXm- Xnl :2: E)= O.
( m,n-+oo
dada por
Sugestão: Mostre que {IX- Yl :2: E} C {IX- Zl :2: ~E} U {IY- Zl :2: ~E},
se x < n;
( sendo X, Y e Z variáveis quaisquer. Use também o Exercício JO(b).
se x :2: n.
12. Sejam Xn, n :2: 1, e X vetores aleatórios de dimensão k. A convergência do
Verifique que Fn(x),~ O, Vx E R Que conclusões podem ser tiradas sobre o vetor X" para X é definida pela convergência de IIX, -XII para zero, em
limite de uma seqüência de funções de distribuição? probabilidade ou quase certamente, conforme o caso. Denotando por XnJ a
5. Seja { Xn : n :2: 1} uma seqüência de variáveis i.i.d. assumindo os valores - 1 e coordenada j do vetor X 71 , mostre que:
1 com igual probabilidade. Mostre que f: f; X; E. Uc[-1 , 1].
i=l
a. X, !. x {:}XnJ!.xi,paraj= 1,2, ... ,k.
'•' Lembrete: cos x = sen( 2.r) ·
qc qc .
b. X 71 -+ X {:}Xnj-+Xj,paraJ= 1,2, ... ,k.
2 senx

6. Seja {Xn : n :2: 1} uma sequencia de variáveis aleatórias tais que 6.3 Leis dos Grandes Números
P(Xn = k/n) = 1/n, para 1 ::::; k ::::; n. Mostre que Xn converge em
O problema de obter empiricamente valores numéricos de probabilidades
distribuição e identifique o limite.
é um dos interesses da estatística. Inúmeras técnicas foram desenvolvidas para
7. Verifique que, se Xn!. X e Yn!. Y, então: que fossem obtidas estimativas da probabilidade de eventos. As Leis dos Grandes
a. aXn + bYn !.ax + bY, a e b constantes. Números fornecem a fundamentação teórica para a maioria dessas técnicas.
p Em um certo espaço de probabilidade, considere um experimento em que
b. XnYn -+ XY.
p o evento A tem probabilidade P(A) = p. A intuição, freqüentemente aceita,
c. Xn/Yr, -+ X/Y, desde que P(Yn =f. O)= 1. indica que em um grande número de repetições do experimento, a freqüência
324 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 325

relativa de ocorrência de A se aproxima de p, isto é ~ ;:::: p, em que nA é a Vamos retomar nossa discussão inicial sobre a convergência das
freqüência de A e n o total de repetições. Essa concepção intuitiva, importante freqüências relativas. Para tal, sejam X 1, X2, ... variáveis com distribuição de
para o método científico, foi tomada como definição de probabilidade por muitos Bernoulli(p) e independentes. Sendo A a ocorrência de sucesso, segue que
anos. De fato, essa definição pode ser considerada imprecisa, se o sentido do P(A) = p. Para n variáveis, ou n repetições do experimento sucesso-fracasso,
limite não é explicitado. temos nA = X1 + X2 + ··· + Xn e E( X;) = p, 'Vi = 1, 2, ....
A formalização axiomática de Kolmogorov em 1934, apresentada no Portanto, as Leis dos Grandes Números podem ser expressas da seguinte
Capítulo 1, permitiu colocar em bases matemáticas sólidas vários dos conceitos forma:
intuitivamente aceitos. Para experimentos aleatórios, a noção intuitiva de
probabilidade, como freqüência relativa para um grande número de repetições,
nA P
- - - + p, para a L.
et Fraca;
n
toma-se um resultado matemático rigoroso, através da aplicação de um caso nA qc .
especial da Lei dos Grandes Números.
- --+ p, para a Let Forte.
n
Definição 6.5: Leis dos Grandes Números Desse modo, verificando-se a obediência a uma das leis acima, teremos
Sejam X 1, X2,... variáveis aleatórias com esperanças finitas e seja estabelecido, de maneira rigorosa, a intuitiva convergência da freqüência relativa
S" = X1 + X2 + .. · + Xn. A seqüência {Xn : n;::: 1} satisfaz a Lei Fraca dos à probabilidade.
Grandes Números se: Para ajudar a esclarecer as diferenças entre as duas leis, detalhamos os
espaços de probabilidade que são apropriados para cada caso.
Para a Lei Fraca considere que, para cada n E N, o espaço amostrai n
consiste das 2" seqüências de n termos, em que cada um deles é Oou 1. Os pontos
de n podem ser pensados como sendo um vetor n-dimensional, em que xi é o
e a Lei Forte dos Grandes Números se: valor da i-ésima coordenada. A o--álgebra F pode ser o conjunto das partes de n.
Para a probabilidade P, a atribuição nos pontos de n envolve a independência e o
s" _ E(s, )~o. resultado das ocorrências, em cada realização. Assim, o ponto (1 , O, O, ... , 1, 1)
n n
teria probabilidade pqq . .. pp, com q = 1 - p.
o No espaço amostrai mencionado, considere o conjunto de seqüências tais
que, para E > O, I71,;4 - Pl ;::: E. Denotando por 0: 71 a probabilidade desse conjunto,
Como verificamos na seção anterior, a convergência quase certa implica
convergência em probabilidade. Logo, se a seqüência satisfaz a Lei Forte do temos
Grandes Números ela também satisfaz a Lei Fraca. A definição foi apresentada.
em termos mais gerais, pois existem diferentes condições sobre a seqüência de
variáveis {X, : n ;::: 1}, para que satisfaçam uma ou as duas Leis dos Grandes
Números. Assim, preferimos usar a notação 8 11 /n ao invés de X, pois esta última sendo a somatória para todos os r's tais que I~ - Pl ;::: E. Precisamos, então,
quantidade é, freqüentemente, utilizada no contexto de amostras aleatórias, em verificar se o: 71 vai a zero, quando n vai ao infinito. Apesar de eventuais
que as variáveis são independentes e identicamente distribuídas. Se o valor dificuldades computacionais, trata-se de estimar a soma de probabilidades
esperado de 811 /n for constante e não depender de n, digamos igual a f.,L, podemos binomiais.
~
escrever as convergenctas · S P s qc f.-l, conforme
como ,;· -+ f.-l ou ,;· -+ Para a Lei Forte dos Grandes Números, consideramos o espaço amostrai
o caso. Nessa
situação, fica ressaltada a interpretação usual da Lei dos Grandes Números como não enumerável consistindo de todas as seqüências infinitas de X/s. Assuma que
convergência, para o valor esperado, de médias parciais. podemos definir, de forma conveniente, uma a-álgebra F e uma probabilidade P.
Entre as características desejadas de P, requeremos que o conjunto de todas as
326 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 327

seqüências, que iniciam com 1, tenha probabilidade p. Também, o conjunto de Em constraste, a Lei Forte garante que o conjunto de todas as trajetórias,
todas as seqüências, que têm O e depois 1 no ínicio, precisa ter probabilidade qp. lim ~ existe e é igual a p, é um evento de probabilidade 1 no
Para as quais n~oo n.
E assim por diante, estabelecemos todos os cálculos probabilísticos espaço de probabilidade das seqüências infinitas de ensaios. Se fixamos f > O, o
correspondentes a um conjunto finito de termos iniciais fixados. Nesse espaço conjunto das trajetórias desses ensaios para os quais p - f < ~ < p + f, para n
amostrai, seja E o conjunto de todas as seqüências para as quais suficientemente grande, é um evento de probabilidade 1.
n.4
- ----. p, para n--. oo. Na realização de uma seqüência de ensaios, ao observar a freqüência
n relativa ~n
da ocorrência do evento A, estamos obtendo uma particular seqüência.
Precisamos verificar que E E F e que P(E) = 1. A Lei Forte assegura que, dado f > O, com probabilidade 1, os termos dessa
específica seqüência realmente estarão no intervalo (p - f, p + f).
Para tornar ainda mais clara a diferença entre as Leis Forte e Fraca dos Apresentamos, a seguir, um quadro com as principais Leis dos Grandes
Grandes Números, apresentamos o gráfico a seguir, que contém uma particular Números usualmente presentes em textos intermediários.
trajetória de resultados.

Principais Leis dos Grandes Números Hipóteses

Lei Fraca de Bernoulli {Xn: n ~ 1} "'Bernoulli (p)



independentes.

Lei Fraca de Chebyshev {Xn : n ~ 1} independentes 2 a 2


Pr-------- ---------- --------- variâncias fmitas e
unifonnemente limitadas.

Lei Fraca de Khintchine {Xn: n ~ 1} i.i.d.


com média finita.
o ll Lei Forte de Borel {Xn: n ~ 1} "'Bernoulli (p)
independentes.

{Xn : n ~ 1} independentes,
Figura 6.2: Particular trajetória para a freqüência relativa nA/n. Primeira Lei Forte de Kolmogorov
média finita e

tVar(X,.)
A afirmação '~~ ~pé equivalente a dizer que, para todo f > O podemos ---<oc n2
n=l
encontrar um n suficientemente grande tal que, a probabilidade da ordenada ~
estar entre p- f e p + f, é tão próxima de 1 quanto desejarmos. Em outras Lei Forte de Kolmogorov {X,. : n 2: 1} i.i.d.
palavras, no n-ésimo ensaio muitas trajetórias de ~ estão próximas de p, mas não com média finita.
sabemos se uma específica trajetória se aproxima ou permanece próxima de p.
Isto é, a Lei Fraca dos Grandes Números não dá nenhuma informação sobre a
existência ou o valor do limite de nA
11
• Figura 6.3: Leis dos Grandes Números.
328 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 329

Note que, do ponto de vista formal, não é necessário provar uma lei fraca, Observe que
se provamos, com as mesmas hipóteses, a lei forte. Cabe ressaltar que as leis que
tinham variáveis de Bernoulli em suas hipóteses serviram como precursoras dos
outros resultados. Como usual em toda teoria, se aprende com casos especiais
e, portanto,
antes de se obter os resultados gerais. Em particular, observe que a Lei Fraca de
n n
Bernoulli foi publicada em 1713.
A apresentação das leis e suas respectivas hipóteses variam entre os E(S~)::::: LE(S~ IA.):::=: L{ E(SÍ IAk) + 2E [(Sn- Sk)SkiAJ}.
k=l k=l
autores. O quadro acima, bem como as demonstrações que se seguem, foram
baseadas em James [81]. A Lei Fraca de Chebyshev pode ser verificada com a Sendo (Sn- Sk) e Sk independentes e, ainda, E(Sn- Sk) = O, temos
aplicação da desigualdade do mesmo nome e é deixada como exercício ao leitor. n
As Leis Fracas de Bernoulli e de Khintchine, além da Lei Forte de Borel, ficam E(S~) ::::: L E(Sf IA.)·
válidas, se valer a Lei Forte de Kolmogorov. Assim, apresentaremos as leis de k=l
Kolmogorov, sendo que a chamada Primeira Lei ajudará na demonstração da Lei
Forte de Kolmogorov. Antes, precisamos de dois resultados preliminares. Em Ak temos Sf ::::: À2 e, após a substituição na desigualdade acima, vem
Lema 6.11: Desigualdade de Kolmogorov n

Seja { Xn : n ::::: 1} uma seqüência de variáveis aleatórias independentes E(S~)::::: LE(À2 IA.) = À
2
P(A);
k=l
com média zero e variância finita. Então, para todo À > O e com
sk = xl + x2 + .. . + xk temos, logo, a demonstração está completa, pois Var(Sn) = E(S~). o
Lema 6.12:
Seja X uma variável aleatória com esperança finita e função de
Demonstração: distribuição F. Então,
Seja A = { max Sf ::::: À2 } e defina os eventos Ak, 1 ~ k ~ n, da
seguinte forma:
15k5n
oo
~ n2
1 in 2
-nx dF(x) < oo.
2
A1 = {S? ::::: À }; Demonstração:
2
Ak = {S? < À , ••• ,S'fc_ 1 < À
2
,Sf::::: 2
À }, para 2 ~ k ~ n. A prova é omitida e a demonstração é feita no Lema 5.1 de James [81 ]. O
Assim, eles representam a primeira vez que Sf é maior ou igual a À e são dois a 2
Teorema 6.13: Primeira Lei Forte de Kolmogorov
n n
dois disjumos. Dessa forma, A = U Ak e, portanto IA = L: IA•· Sejam { Xn : n ::::: 1} variáveis aleatórias independentes com esperança
Então
k=l k=l
finita e f: va~f"l < oo. Então, {Xn: n ::::: 1} satisfaz a Lei Forte dos Grandes
n=l
n n Números, isto é, para Sn = X1 + X2 + ... + Xn temos,
s~ : : : s~ IA = I:s~ h. ::} E(S~) ::::: LE(S~ IAJ·
k=l k= l Sn E(Sn) ..!!.:... O.
n n
330 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 331

Demonstração: Observe que


Sem perda de generalidade, supomos E(X,. ) = O, para todo n. Se esse 1
00
1
"""' """' (para j (k): 2j(k) ~ k ~ 2j(k)+l )
não for o caso, criamos uma nova variável Y,, =X,.- E(X,. ). Se o resultado for L...J1 4" = n=j(k)
L...J 4"
n:2•+ ;::k
válido para os Yn's, que têm média zero, então também o será para a seqüência
{X,.: n 2: 1}. 4 1
Para mostrar que s,. ~O, basta verificar que M,. = max 1 IBkA-1 converge
= 3 4i(k)
n 2"< k::5 2"+ 4 4 k
quase certamente para zero. Essa verificação será feita em duas partes: < - - (vale 21'(k) >
- 3 k2
-)
- 2
00 16
(i) Param = 1, 2, ... temos L P( M 11 2: f,) < oo; < -·
- 3k 2
n=l

(ii) Mn ~0. Concluímos a verificação de {i), notando que


oo 1 00
16m 2 ~ Var X k
Para demonstrar (i) usaremos a Desigualdade de Kolmogorov. Com m LP(Mn 2: m) = L P(A,.) ~ -3-~ ~ < 00,
fixo, para todo n definimos An = {2'j<max
k:52"+
1.. }= { Mn;::: 1.. } . Temos
1
ISkA-1 2: m m
n=l n=l k-1

em que utilizamos a hipótese da soma ser finita.


P ( An ) = P (2"<k<
max -ISkl > -1) < P ( max Sk > -2") Vamos agora demonstrar a parte (ii).
2"+'
-
k - m - m
2"<k<2"+, 1
-
1-
Com a mesma notação da parte anterior, aplicando o Lema de Borel-
2n
~ p ( l::;k::;2"+'
max ISkl 2: ~ )
m
Cantelli (ver Capítulo 1), obtemos
P(An infinitas vezes) = O.
2 2"+ 1
~ ;. LVar xk (desig. de Kolmogorov). Considere o evento Bm = { M,. ;::: f, para um número finito de n 's}. Teremos
k=l
P(Bm) = 1, para todo me, dessa forma, a probabilidade da intersecção de todos
Logo, os Bm's também será 1, isto é,
00
P( n Bm) = 1.
m=l

Observe que temos a seguinte equivalência de eventos:

n
00
Bm {::} {Vm, Af11 ;::: -
1 para um numero
, m1to de n '}
f'. s
m=l m
{::} {Vm, O ~ M 11 < ~ para todo n suficientemente grande}
m
{::} {Mn-+ 0, quando n vai ao infinito} .

-+O e a demonstraçao
Portanto, Mn qc - esta, compIet a. D
- 332 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 333

Teorema 6.14: Lei Forte de Kolmogorov Segue, pelo Lema de Borel Cantelli, que
Sejam X 71 , n ~ 1, variáveis aleatórias i.i.d. e com esperança finita J.l. P ( Z 11 f. O infinitas vezes) = O;
Então {X11 : n ~ 1} satisfaz a Lei Forte dos Grandes Números, isto é, para '
,i
Bn = X r + X2 + .. . + X n temos, e, então

8 11 qc P(Zn f. O para apenas um número finito de n's) = 1,


- --+J.L .
n e, por equivalência de eventos, vem:
Demonstração: P(Z11 = O para todo n suficientemente grande) = 1.
Vamos supor, sem perda de generalidade, que J.l =O.
Temos, assim, Z 11 -+0 e também Z,+Zz~ ...+Z,-+ 0. Como isto ocorre com
Seja Yn = X 11 1{-n<X,.::::;n}• a variável que corresponde ao truncamento de
Xn. Definimos, também z/1 = Xn- y11 e, portanto, X II= Y;, + Zn. Assim, probabilidade 1, segue

Bn lí + Y2 + ... + Yn + Zr + Z2 + ... + Z11 zl -+-z2-+-...-+-z/-1 --+o.


- qc

n n n n
Para demonstrar a parte (ii), seja F a função de distribuição comum às
Vamos provar os seguintes três resultados:
variáveis da seqüência { X 11 : n ~ 1}. As variáveis Y;, 's satisfazem a Primeira Lei
( i) Z 1+Z2+ ... +Z, ~O · Forte de Kolmogorov. Vamos verificar a hipótese que envolve a variância de Y;"
n '
pois as demais são imediatas. Temos
(ii) Y1 +l'2+ ... +Y,, _ E(Y,+Y.,+. ..+Y,,) ~O·
n

(iii) E(Y1+Yz:···+Y,,) -+O.


11 '

Var(Yn) :S E(Y112 } = E(X?, 1{- n<X,::::;,,}) = 1: 2


x dF (x).

Uma vez demonstrados, o teorema será válido pois podemos somar as expressões Então, pelo Lema 6.12 vem
referentes às partes (i) e (ii), cujo conjunto intersecção também terá probabilidade
1, e usar a parte (iii) para definir o limite do valor esperado. oo v; (X11 )
"" ar
L... n2
oc
:::; " " -
L... n2
1 j" x dF(x) < oo;
2

Para verificar a parte (i), observe que: n=l 11=1 -n

P(Z" f. O) = P( X" - Y,, f. O) = P(X, tf. (- n, n]) :S P(JX,J ~ n). Jogo, pela Primeira Lei Forte de Kolmogorov,

Assim, Y1 + Y2 + ... + Y,, _ E(Yí + Y2 + ... + Y") ~O.


oc oc
n n
LP(Z" f. O) :S L P(JX J~ n ) 11
Vamos, agora, provar a parte (iii), isto é
n=l 11=l
oc
1
:S LP(JX1 J~ n ) (ident. distribuídas) -E(Yí + Y2 + ... + Y;,) -+ 0.
11=1 n
< oo (esperança finita).
--,

334 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 335

Como cada esperança é finita por hipótese, se tivermos E(Yn)-+ O, o Considere um x 0 E ~fixado. Então F,~(xo, w) é variável aleatória, pois é
resultado estará verificado. Temos uma função das variáveis X 1 ,X2 , . . . ,Xn. Isto fica mais claro, considerando a
variável indicadora, Y; = I{X;:SXo}• i= 1, 2, ... , n. Assim,
1 n
em que usamos que as variáveis são identicamente distribuídas e aplicamos o F~(xo,w) = - LYi(w).
Teorema da Convergência Dominada, pois IXl I{ -n<XJ~n}l:::; lXII e x l tem n i=l

esperança finita. Isto completa a verificação da parte (iii) e, como mencionamos As variáveis Y;'s são independentes como conseqüência de X17 X2, ... , Xn o
anteriormente, a demonstração do teorema é decorrente das três partes serem. Sempre com x 0 fixado, temos, ainda, que para cada i= 1, 2, ... , n,
verificadas. O
Y; "' Bernoulli (p) com
Uma conseqüência da Lei dos Grandes Números, importante na área de p = P(Y; = 1) = P(X;:::; xo) = F(xo).
Estatística Aplicada, é descrita a seguir.
Sejam X 1 ,X2, ... ,Xn variáveis aleatórias em (O, F, P), independentes Então,
e identicamente distribuídas com função de distribuição F. Essas variáveis podem n n
representar a amostra observada de uma certa quantidade de interesse. A função E(LYi ) = np = nF(xo) e Var(LYi) = np(1- p) = nF(xo)[1- F(xo)];
de distribuição empírica ou amostra/, denotada por F~, é definida para todo i=l i=l
x E ~ e w E f! por:
e, portanto,
1
F~(x, w) =-[número de i's tais que X;(w):::; x, i= 1, ... n]. 1
n E[F~(xo, w)] = -nF(xo) = F(xo).
n
Para uma particular trajetória Wo E n, obtemos um conjunto de valores fixados de
xl, ... 'Xn, digamos Xl, ... 'X" . Nesse caso, F,~(x, wo) é função de distribuição Concluímos que, pela Lei Forte de Kolmogorov, para cada valor xo E~ fixado,
com saltos de 1/n em cada um desses valores (ver gráfico a seguir). temos

F~(xo,w) ~F(xo);
e, portanto, daí também vale a convergência em probabilidade.
É importante notar que o resultado é válido para cada valor fixado Xo.
I . Para dizer algo sobre a convergência em geral, para todo x, precisamos levar em
conta que F~(x, w) é um Processo Estocástico. Dessa forma, a teoria
correspondente precisaria ser utilizada.
Entretanto, um resultado extraordinário pode ser apresentado, no contexto
•-- --<o deste capítulo: o Teorema de Glivenko-Cantelli que é algumas vezes mencionado
3111 ·...-.<> como o Teorema Fundamental da Estatística. Ele afirma que a função de
distribuição empírica construída das observações, converge para a função de
1/11 distribuição populacional, quase certamente em O e uniformente em IR.
X

•I
Figura 6.4: Função de Distribuição Empírica. I
336 Capítulo 6: Convergência de Variáveis Aleatórias 6.4 Teorema Central do Limite 337

Teorema 6.15: Teorema de Glivenko-Cantelli 7. Sejam Xn, n 2: 1, variáveis independentes com Xn "' Poisson(>.n). Suponha
n
Sejam XI , x2 , ... ' Xn variáveis aleatórias em (n, F, P), independentes e q ue 1"
nL..J
>.J· n--+x
---+ O, então a seqüência de variáveis obedece a Lei Fraca.
j=l
identicamente distribuídas com função de distribuição F . Seja F,~· a
correspondente função de distribuição empírica, então 8. Seja {Xn : n 2: 1} uma seqüência de variáveis aleatórias, não correlacionadas
duas a duas e com Var(Xn) = a 2 < oo. Mostre que vale a Lei Fraca dos
P( lim sup I F,~(x, w )- F(x)l =o) = 1;
7!--->oo xEIR
Grandes Números.
9. Sejam X 11 , n 2: 1, variáveis aleatórias, contínuas e independentes, todas com
ou, em outras palavras, função densidade f(x) = e-(x+a) I {x;:>:-a} (x ), para alguma constante a > O.
e qc Verifique se vale a Lei Forte para essas variáveis e identifique o limite.
F" --+F, uniformemente em x E R
10. Sejam X i, j = 1, 2, ... , n, variáveis aleatórias, não correlacionadas duas a
Demonstração:
duas, com E(Xi) = /.li e Var(Xi) = a] ::; M , ambos finitos para todo j.
~E l-li·
Pelos comentários anteriores ao teorema, a Lei Forte dos Grandes
Números garante, para cada fixado x E ~. a convergência quase certa. Trata-se Mostre que vale a seguinte Lei Fraca: X - iin !. O, com iin =
j=l
agora de estender o resultado, mostrando que essa convergência pode também ser
estabelecida uniformemente para todo x E R A prova usa quase que 11. Seja {X 11 : n 2: 1} uma seqüência de variáveis aleatórias independentes todas
essencialmente técnicas de Análise Matemática e será omitida. O leitor seguindo o modelo Uc[O, 1]. Denote por /.lg a média geométrica de n dessas
interessado pode consultar Neuts [73] ou Rao [84]. O variáveis, isto é, /.lg = (X1X2 ... X 11 ) 1/". Mostre que /.lg ~ c. para alguma
Exercícios da Seção 6.3: constante finita c.

1. Demonstre a Lei Fraca de Chebyshev. 12. Sejam Xn, n 2: 1, vanave1s aleatórias independentes e identicamente
distribuídas com média /.L e variância a 2 < oo.
2. Seja {X, : n 2: 1} uma seqüência de variáveis aleatórias independentes com a. Verifique que a seqüência de vetores aleatórios bidimensionais
P(Xn = n) = ~ e P(Xn =O) = 1 - ~ , n 2: 1. Verifique se vale a Lei dos
( ~ ~ ( Xj - /.L ) 2 , (X - /.L )) converge quase certamente para (a 2 , O).
Grandes Números.
" - qc
3. Sejam X i, j = 1, 2, ... , n , variáveis aleatórias não correlacionadas duas a duas b. Mostre que ~ L:(Xi- /.l) 2 - (X - /.l)2 -+ a
2

com P(Xi = -ai) = P(Xi = ai) = 1/2, O < a ::; 1. Mostre que vale a Lei j=l
Fraca dos Grandes Números.
6.4 Teorema Central do Limite
4. Seja {Xn : n 2: 1} uma seqüência de variáveis aleatórias, independentes
Nesta seção, vamos apresentar as principais versões do famoso Teorema
identicamente distribuídas, seguindo o modelo Cauchy Padrão (a= O, f3 = 1).
Central do Limite. Em essência, trata-se da convergência em distribuição para o
Mostre que não existe constante c tal que X 1 +X2 ~ ... +X" !. c. modelo Normal de uma soma de variáveis aleatórias independentes, após uma
5. Considere uma seqüência de variáveis independentes tais que Xn ,...., Exp(2"12 ), conveniente padronização. A independência entre as variáveis pode ser relaxada,
n 2: 1. Verifique se vale a Lei Fraca. mas esse tópico não será aprofundado neste texto.
As demonstrações dos primeiros resultados sobre limite com variáveis
6. Seja {X, : n 2: 1} uma seqüência de variáveis, independentes e identicamente Bernoulli eram baseadas na análise direta das funções de distribuição. Uma etapa
distribuídas, seguindo o modelo Qui-Quadrado com j graus de liberdade. importante, no avanço da teoria, foi a descoberta por Chebyshev da desigualdade,
Demonstre que a Lei Fraca está satisfeita.
338 Capítulo 6: Convergência de Variáveis Aleatórias 6.4 Teorema Central do Limite 339

que mais tarde levaria o seu nome. Ela permitiu uma prova mais simples da Lei Usando a definição de </J, obtemos </J(O) = 1, </J'(O) = Íf.L =O e
dos Grandes Números de Bernoulli, além de sua generalização. Chebyshev criou, </J"(O) = i 2a 2 = -a2 e, assim,
ainda, o método dos momentos, aperfeiçoado por Markov, que tomou possível
demonstrar o Teorema Central do Limite em condições mais gerais. Algum tempo t2 t2 t2 o ( ~) ]
depois, Liapunov usou a técnica de funções características para provar esse <jJ(tfa Jri) = 1 - -
2n
+o(-)
n
= 1 -2n
-[1-- .
t /n 2

mesmo teorema. Desde então, essa técnica tem se desenvolvido e mostrado ser
efetiva em várias situações.
Teorema 6.16: Teorema Central do Limite para variáveis i.i.d.
Observe que lim
n---+oc
[1 - ill
12111 ] = 1. Usaremos, ainda, o seguinte resultado:

Sejam { Xn : n 2:: 1} variáveis aleatórias independentes, identicamente lim c11 = c


n---+00
=} lim
n--+oo
(1- Cnn)n = e-e .
distribuídas e com esperança f.L e variância a 2 , com O < a 2 < oo. Então, para
Sn = XI + x2 + ... + Xn. temos, Então
Sn- nf.L
afo
d
--+ N(O, 1). lim <jJ(tfavfn) = hm. { 1- -t [ 1- -o(t -/n)]
2 2
}n= e-t2; , 2
n .... oo n->00 2n t 21n
Demonstração:
e, pelo Teorema da Continuidade de Levy, concluímos u);; .-!!:.... N(O, 1). O
Inicialmente um comentário sobre o abuso de notação. A rigor, no lugar
de N(O, 1) que é apenas a notação de uma distribuição, deveríamos escrever uma O hoje conhecido como Teorema Central do Limite de De Moivre-
variável aleatória, digamos Z, que teria distribuição Normal Padrão. Como a Laplace tem as mesmas hipóteses do teorema anterior, mas com as variáveis tendo
convergência em distribuição de variáveis aleatórias se refere ao comportamento distribuição de Bernoulli. Ao redor de 1733, De Moivre provou o resultado para
das respectivas funções de distribuição, a representação acima é freqüentemente p = 1/2 e, mais tarde, Laplace considerou o caso de um p qualquer. As
utilizada sem maiores conseqüências. demonstrações originais foram feitas com outra técnica que avaliava o
Supomos, sem perda de generalidade, que f.L = O. Se esse não for o caso comportamento das somas binomiais.
definimos uma nova variável Yn = Xn - f.L, que teria média zero. Exemplo 6.12: Teorema Central do Limite de De Moivre-Laplace
Para simplificar a notação, denotemos </Jx, por </J para todo i, pois as
variáveis são identicamente distribuídas. Com a aplicação das propriedades de Sejam X ,, n ;::: 1, variáveis independentes seguindo o modelo Bernoulli
função característica temos com parâmetro p. Assim, f.L = E(X11 ) = p e a 2 = Var(Xn) = p(1- p). Para
S, = XI+ x2 + ... + X,, temos, pelo teorema anterior,
"
<Ps,.;u,;n(t ) = <Ps,.(t j a y'n) = IT<P(t j a y'n) = ( <P(t f a Jri) )" . 8" - np _!!__. N(O, 1).
1=1
Jnp(1- p)
Pela fórmula de Taylor ao redor de zero, e até o termo de segunda ordem, vem
o
Exemplo 6.13: Aproximação Normal para o modelo Binomial
Uma conseqüência direta do Teorema Central do Limite de De Moivre-
com a notação o(x), indicando funções tais que Iim o(.t) =O. Laplace é que podemos calcular, de forma aproximada, probabilidades binomiais
.1'---+Ü X
com o uso da distribuição Normal.
340 Capítulo 6: Convergência de Variáveis Aleatórias 6.4 Teorema Central do Limite 341

Note que, com a notação do exemplo anterior, Sn "'B(n,p) .


b - O, 5 - np)
Representando por <1>(.) a função de distribuição da N(O, 1), temos que para todo P ( Sn < b) ~<I> ( ..jnp( 1 _ p) ·
x E IR,
S - np ) Outras probabilidades são aproximadas de forma análoga.
p ( ...;n ~X --+cf>(x) quando n--+oo.
np(1- p) A tabela abaixo, adaptada de Roussas [73], apresenta o erro absoluto em
alguns cálculos com probabilidades binomiais, com e sem a utilização da correção
Dessa forma, se x e y são números reais tais que x < y, vem de continuidade.

P(x < ..jSn- np ~ y) ~ <I>(y) -


Binomial (n,p) Prob. Exata Erro absoluto Erro absoluto
<I>(x), para n suficientemente grande. aprox. Nonnal aprox. No~!
np(1- p) sem correção com correçao
n = 200,p= 0, 5 P(95< S,. < 105 ) = O, 56325 0, 00103 0,00006
Logo, se desejamos calcular P (a < Sn ~ b), a< b, temos n = 500, p = O, 1 P(50 < S,. < 55 ) = O, 31757 0, 01400 0, 00996
n = 100, p = O, 3 P(37 < S,. < 39) =O, 05889 o, 01186 0, 00506
P(a< Sn ~ b) = P(a- np < Sn- np ~ b- np) Pode-se observar que a correção de continuidade melhora bem a aproximação. O
a-np S -np b-np )
= p( < n < !=:;::===='7 A versão já apresentada do Teqrema Central do Limite tem a restrição de
..jnp(1- p) ..jnp(1- p) - ..jnp(1- p) tratar com variáveis aleatórias independentes, identicamente distribuídas e com a
~<~>( b-np )-<~>( a-np ),parangrande. existência de variância finita. No caminho de sua generalização, removemos a
..jnp(1 - p) ..jnp(1 - p) necessidade das variáveis serem identicamente distribuídas, mas acrescentamos
uma condição para assegurar que cada variável faça, apenas, uma contribuição
Pelo procedimento utilizado para avaliar probabilidades com o modelo Normal, n

podemos considerar que estamos aproximando uma B(n,p) por uma Normal com relativamente pequena à soma ~]X;- E(X;)], quando n é grande.
i=1
mesma média e variância, isto é, f-L = np e a 2 = np(1- p).
Em termos práticos, a aproximação é aceitável se np ~ 5 e Teorema 6.17: Teorema Central do Limite de Liapunov
np(1- p) ~ 5. Também, para um dado n, a aproximação é melhor para p ao Seja { Xn : n ~ 1} uma seqüência de variáveis aleatórias independentes,
redor de 1/2. com esperança f-Ln e variância a~, com a~ < oo e pelo menos um dos a~ 's maior
Tendo em vista que estamos aproximando uma variável discreta por uma n

contínua, podemos melhorar a aproximação, introduzindo a correção de que zero. Sejam Sn = X 1 + X2 + ... + Xn e s! =L: a~. Se a condição de
k=1
continuidade. Dessa forma, no cálculo feito pela Normal, acrescentamos ou Liapunov estiver satisfeita, isto é, se existir 6 > Otal que
subtraímos O, 5 da quantidade envolvida, conforme ela esteja, respectivamente,
incluída ou não na probabilidade desejada. Para ficar mais claro, sugerimos ao
leitor representar, num mesmo gráfico, um histograma da Binomial e a densidade
lim 2~ 6 tE(iXk - J-Lkl 2+6 ) =O,
n---+oo Sn k=l
da Normal correspondente. Com a correção de continuidade, teríamos
então
P(sn ~ b) ~ <~>(b + 0,5- np),
..jnp(1- p) Sn- E(Sn) ~ N(O, 1) .
Sn
e, também,
6.4 Teorema Central do Limite 343
342 Capítulo 6: Convergência de Variáveis Aleatórias

Demonstração: (parcial) A desigualdade de Liapunov é um caso particular da desigualdade de


Holden (ver Billingsley [91]) e estabelece que
Vamos provar, assumindo que a condição é satisfeita para 15 = 1, ou seja
todas as variáveis têm terceiro momento finito. Existem indicações em Neuts [73] rrk:::; [E(IXki 3 W13
.
sobre a prova para um 15 geral .
É conveniente mencionar que alguns autores preferem apresentar Assim, para o primeiro termo de ak temos
primeiro a condição de Lindeberg (ver teorema adiante) e, depois, demonstrar o 2 2 t2 n
Teorema de Liapunov como sua conseqüência. o :::; rrk2 t2:::; ~[E(IXkl3)]2/3 :::; 2s2 [LE(IXkl3)]2f3.
Sem perda de generalidade vamos assumir J-ln = O para n 2: 1. Nesse 2sn 2sn n k=l
caso, temos sn = JE(Xf) + E(X~) + ... + Xn e a condição na hipótese do Passando ao limite, para n indo ao infinito, a expressão da direita na
teorema toma-se desigualdade vai a zero por hipótese.
Dessa forma, obtemos
2
lim rrk
n-+ao 2s~
e = o, uniformemente em k.
Precisamos verificar s,
s,.
É. N(O, 1).
Para o termo restante em ak temos
Pela fórmula de Taylor ao redor de zero e até o termo de terceira ordem,
vem

e, de modo análogo, vem


então, ( 't)3
lim _z_E(X~) = O, uniformemente em k.
n n
n-+oo 6s~
<Ps,js,(t) = JI <Px,(t/sn) = JI (l+ak),
k=l k=l Logo, lim a~; = O para todo k, uniformemente em k.
n-+ao

com ak = - 5_2.
2s,.
t2 + E(X}l
6s~
(it)3 + O [E(X3t)t3].
s,. Temos

Aplicando logaritmo, obtemos


log (1 + a1,:) =L (-1)i+l a~.
"" j

n J=l J
log <Ps,fs, (t) = L log(1 + ak).
"" cJ,-2
k=l
2'"'( -1 )i+l_k_
=a~;+akL.., .
Inicialmente, vamos mostrar que lim ak = O para todo k, uniformemente j=2 J
n-+ao
emk. = Q/; + Q~ w(ak),
O termo que tem a função o(.) vai para zero, quando n-+ oo.
3../4 Capitulo 6: Con\'erRhlcia de Variâl·cis Alcat!Íria.1 6.4 Teorc111a Centml do Limite 3../5

com Não vamos fazer os cálculos, mas indicamos os principais passos.


Precisamos expandir o quadrado de nf.
e majorar os termos resultantes. Daí.
avaliamos seus limites, utilizando a desigualdade de Liapunov, propriedades da
função o(.) e a condição sobre o terceiro momento indicada na hipótese. Os
detalhes podem ser encontrados em Neuts [73].
Observe que dado f, O < f < 1.
podemos encontrar um número n(t,r) tal que.
Finalmente, obtemos
para n > n(t, f) temos lo:kl < f para todo k 'S n. Isto será útil para estabeler um
maJorante para llll(ak)l: t2 .,
lim log ó 8 ,;,..( t) = => Iim cP:;,;,, (t) = t:- 'I,
"'-• 1 . 1 1 .. 11 - - "),_ 2 11 - :X

L -:lfld
:X

llll(a.i)l 'S 1 2
- = .z=--lnd' 'S ;- Lln~.-1 1 =
J
j =2 Hl 2 + l 2 I= ti e, portanto, vale ~ ~ N( O. 1) pelo Teorema da Continuidade de Levy e a
... ,
1( -] 1 1 demonstração está completa. D
= -2 1 -la~.- I) < --- < 1,
21 - r Exemplo 6.14: Sejam X 11 • n 2: 1. variáveis aleatórias independentes definidas por
pois nk tende a zero, uniformemente em k.
com probabilidade 1/2;
- - { - 1/ Jll.11.
Então, .\11 - 1/ Jll, com probabilidade 1/ 2.

Não é díficil verificar que E(X 11 ) =O e 0';, = E( X~ ) = 1/ n. para todo 11 2: 1.


ParaS, = xl + x~ + ... +XII . ternos
11 11

Var(.'i11 ) = s;, = I,:E(Xf ) = L1/ l.:,


1<=1 k; ·j

que diverge. Entretanto,


11 11
Note que. para n-+ 'XJ, o segundo termo vai a zero por hipótese. O mesmo ocorre
com o terceiro pela definição da função o(.). Resta verificar que
LE(IX,,f~")
,, = 1
=L (1/kf'- '' ,
'•=·1
11

lim "'\"'o W(11 1. ) f = O. converge para qualquer b > li. Então,


1/ - '}.._ L..-t
/; .- 1

Temos

Portanto. ternos

e. será suficiente verificar que lim f o!.,/,


Ik=J = O.
II- X
pelo Teorema Central do Limite de Liapunov. D
346 Capítulo 6: Convergência de Variáveis Aleatórias 6.4 Teorema Central do Limite 347

Exemplo 6.15: Sejam Xk, k :2: 1, variáveis independentes com densidade dada e, então,
por Uc( -k, k). Vamos verificar que vale a condição de Liapunov para 8 = 1. n
Temos J-lk = E(Xk) =O e a~ = Var(Xk) = E(XD = k 2/3. Como usual, L:E(IXkl3 1 1 n 1
seja Sn = X1 + X2 + ... + Xn. Assim, lim ( - -4 Lk ) = -·
3
lim ( k=l
n-+oo
)
n4
=n-+oo 4 n k=l 16

Portanto, temos

1 n 3 27 . ( 1 )
hm ~ 12
Nesse caso, precisamos mostrar que lim - 3 "'E(IXkl ) = =O.
n-+oo s L-t 16 n--+00 n
1 n n k=l
lim 3 LE(IXkl )
3 =O.
n-+oo sn k=l Assim a condição de Liapunov está verificada e temos
'
§.,_.!!.
~
N(O, 1). D

Será necessário, nessa verificação, o seguinte resultado sobre convergência de Uma questão natural é perguntar sobre a existência de condições
séries: necessárias e suficientes para obter a convergência para a Normal. Isto é
respondido pelo importante Teorema de Lindeberg-Feller, cuja demonstração não
1 n
lim - +1 ""' k = 1/(a.
0
+ 1), será apresentada. Vale ressaltar que alguns autores apresentam esse resultado em
n--too n° ~ duas partes. Uma parte é o Teorema Central do Limite de Lindeberg que requer a
k=l li verificação de uma condição, denominada de condição de Lindeberg, para haver a
cuja demonstração pode ser encontrada na página 267 de James [81]. convergência para a Normal. A outra parte seria a recíproca desse teorema que foi
Observe que demonstrada por Feller.
Teorema 6.18: Teorema de Lindeberg-Feller
Seja { Xn : n ;::: 1} uma seqüência de variáveis aleatórias independentes,
com distribuição Fn, esperança J-ln e variância com a;,
< oo e pelo menos um a; n

que é uma forma conveniente para aplicar o limite.


dos a;'s maior que zero. Sejam Sn = X1 + X2 + ... +X" e s; =L: a~. Então,
k=l
Para o primeiro termo vem Sn - E(Sn) d N(O , 1) e 11m
. o
____:.:_---=-----'- --+ max -ak =
71 Sn n-+oo 1 :S k :S n s 71
lim ( -
fi---+CX)
n9/2 )
sn3
= lim
n---+oo
(n3) 3/2
2sn = ( lim - 3
3n
n---+oo
1 1
Lk ) -3/2 = 27.
k=l
2
se, e somente se, vale a condição de Lindeberg:

o· segundo 1 1Pk+ts,.
seguir:
termo, envolve o terceiro momento, cujo cálculo é feito a
Vf. >O, lim 2
7!-+00 81!
L1!

k=l Jlk-ES,.
2
(x -J-Lk) dFk(x) = 1.

E(IXd 3 = -
2k
11k-k
lxl 3 dx = - 11k
2k o
k3
x3 dx = -•
4
Demonstração:
A prova pode ser encontrada em Chow e Teicher [88]. Em James [81] a
condição de Lindeberg é apresentada separadamente através de teorema. Veja,
também, Feller [66]. D
3-18 Copirulo 6: Colll 'crghwio de Variti1 ·cis Afc•llfr •riu 1 6.-1 TcoreiiUI Cenrml do Li111i!e 3-19

Exemplo 6.16: Vamos verificar que a condição de Lindcberg está satiskita par; 1 leis esUÍ\'cis. As distribuições Normal e Cauchy são membros dessa família . mas a
variáveis independentes .\ 11 .11 ;:= 1. com P (.\11 = - n) = P(.\ 11 = nl _ 1 :! . Poisson não é. Como a distribuição de Poisson é uma distribuiçfto limite para a
Binomial, é desejável generalizar algumas hipóteses para incluir essa situação.
Temos E(.\") =O e Vor ( X 11 ) = !T~ = nê c. portanto
Nessa direção, são considerados os arranjos triangulares de variáveis aleatórias:
11
1 2n :1 1( 1
11
., ., .,
s ~ = "'!T~ ='\'f..'- = -;11(11 + 1)(211 + 1 ) > Xtt·XI 2:··· Xt n,
h h (J () 3 .\c1 , X2·2, ... X~ ":
Então. para todo t > O, vem
I
( 11 ; :3
--n ;::: para todo >
fi 11. 11
,:!
em que n, -+ :x.. para k-+ X · e. em cada linha. as variáveis são independentes. Em
11;
As.-;im. para todo j. 1 :::; j:::; 11. e 11 > ~ temos diferentes linhas. pode haver qualquer tipo de dependência. Seja S,, = L X 1.;.
.I I
1 ,, ;· 1
}in~.~:!
11
L
1.-
·.,.êdF,(.r)
I o'-" ..
= }in~.~:! L
., 1:
11

I .
/ ' " ; (>.•,.

.' 1 1'-"·-
"'

!I )
.r:!dFi(.r)
desejamos perguntar sobre a existência de constantes 111. e /1t. > O. tais que
( S'" - 11 , ) / /1 11 te nha convergência em distribuição para alguma distribuição limite
L " não degenerada . Existem muita s situações em que esse problema já foi resolvido.
= lim --:-;- "'ITf ~ I. As distribui<;iics limite que ate ndem essas condições formam a família das
s- L-
'' /,· I distrilmicrles infinitilmentc di1 ·ish·eis. Pode-se verificar que a Poisson pertence a
Portanto. a condi~·ão de Lindeberg cstü satisfeita e vale essa família.
As discussões . envolvendo condiç<ies de convergência em distribuição.
para a Normal Padrão, são mencionadas na literatura especializada como sendo
) s, prohlemas rc/(l{i\'Os ({()Teorema Central do Limite . Muitos desses problemas têm
1: I--
- ti " ( ( l .
--+!V 1).
."'i/,
retlexos importantes na teoria estatística e auxiliam a obten~·ão de melhores
estimadores. Para o leitor interessado em aprofundar esse tópico, recomendamos
que correspondc a um Teorema Central do Limite para essas variáveis. O consultar Ash [72], Chow e Teic her [88]. Feller [66]. Gnedenko 1761. Neuts 1731 e
L1m próximo níYel de generaliZ<H,·ão seria buscar condi\·ôc~ ~uhrL· Tucker 16 7] entre outros textos de Probabilidade Avançada. Para aplicações em
constantes positivas u 11 e h., tai~ que . para S , sendo a soma parcial de Yarí;iiL'Í~ estatística dos resultados de convergência consulte Leite e Singer [90] .
independentes. tenhamos Exercícios da Seção 6.4:
..'-,',, - (/1/ d . 1. Sejam X,. n ;:= l. variáveis aleatórias i.i.d. seguindo o modelo Bernoulli com
--+ ll ; 11111
I1,,
parâmetro 11 = O, -l. Determine um valor aproximado para P(LXi =50).
para alguma dí s tribui~·ão limite ll' não degenerada (isto é. não constantcl. <.)uL' 1~ I

funçôes de distrihuiçfto podem ser distribuições limite'? Nesta seção. os rcsult;ld(h 2. Suponha que retiramos. com reposição, I 000 cartas de um baralho com 52
I'

apre~entados. se referiram a u,, = "'E(


L_, X 1,.) e /1 11 = V~
Vlll ,_1 11 •
cartas. Odermine, de forma aproximada. a probabilidade de obtermos pelo
I, - I menos 65. mas não mais de 90 azes, nessas retiradas.
Em particular. para seqüências de variáveis independente~ e
identicamente distribuídas. as distribuições limite s formam a chtssL' das chamada'
350 Capíllllo 6: Con\'ergência de Variá1•eis Alemúrias 6.5 Exercícios 351

3. Use o Teorema Central do Limite para verificar que lim e-" f, f, = ~- variáveis X,, n 2 1, tais que, com j =O, 1, ... , 2m em= 1, 2, ... ,
n-'X k=ll . -
111, ) < __l±_1_.
X '"'+.i ( 11') = { se 2111+1 - 11 ' < 2ul+l'
4. Seja { X 11 : n 2 1} uma seqüência de variáveis contínuas, independentes, com o,. caso contrário.
11

f " (x ) -_ I .-1-rl/n w
"};;( Tlll
, v.r E 11">.. SeJam
· 2 _ "' 2
5 11 - ~ak e
S" _ v + X" 2 + ...
- AJ +XII.
k= I Mostre que:
. - de L'1apunov para demonstrar que -"-.
U se a con d1çao d N(O , 1) .
_._, -+
s-EIS) a.xll!.o.
b. X (w) f
.'i li

11 O, para qualquer 11• E r!.


5. Sejam X 11 , n 2 1, variáveis independentes com c. X 11 , -+O, Vw E r!.
P(X 11 = ± 2") = 2-n-l e P(X 11 = ± 1) = ~(1-2-"), n 2 1. d. E[Xn(w)] f O.

Verifique que )n I: X;~i N(O, 1).


11
3. Seja (r!, F, P) um espaço de probabilidade. Denote por, IA, (111), i 2 1, os
i=l indicadores dos eventos A, 's. Mostre que o limite de P(A 11 ) vai a zero se, e
p
6. Seja {X" : n 2 1} uma seqüência de variáveis i.i.d. com média O e variância 1. somente se, IA, -+O.
Também, seja {Y,, : n 2 1} uma seqüência de variáveis independentes com
4. Verifique que X 11 ~ 2, com { X 11 : n 2 1} sendo uma seqüência de variáveis
P(r;, = ± n) = 2 ;,, e P(1;, = O) = 1 - 2
;,, , n 2 1. aleatórias tais que

Sendo X" e 1;, independentes para n 2 1, temos t,I:(Xk


11
+ Yi,)~N(0.1).
l P(Xn = 1) = P(X" = 3) = ~ e P(Xn = 2) = 1 - ~, Vn 2 1.
k-1
mas a condição de Lindeberg não está satisfeita. 5. Se X 11 !!. X, então o X + b !!. a X + b, para a e b constantes reais.
11

7. Seja {X" : n 2 1} uma seqüência de variáveis i.i.d. com média JI, variância a~ 6. Sejam X n 2 1, variáveis seguindo o modelo B(n, Pn ). Se np" =
11 • Àn 11~ À
e, para n 2 1, E(X p )~ = a 4 + 1. Use o Teorema Central do Limite e
11 - para À > O, entao
- ·"" d \'' , em que .\" e' p msson
v -+. 11
. ( /\') .
11

calcule }~n;_P(f\,2..: (Xk-


1
2
pj2- a [:::; t,J. 7. Sejam X 1 , X 2 , ... , X" variáveis aleatórias i.i.d. com E(Xn) = 11 e
Var(X 11 ) = a 2 , ambos finitos. Verifique que E[(X- pf],--=-t_ O.
8. Sejam XII. 11 2 1. variáveis aleatórias independentes com E(X = 11 11
)

Var(Xn) =a~ e P(a:::; X":::; b) = 1, com a< b. sendo constantes finitas. 8. As variáveis X", n 2 1, são independentes e todas têm distribuição
Exponencial de parâmetro À. Mostre que a seqüência {X~ : n 2 1} satisfaz a
a. Prove que, se X 11 ~X então X 11 _::.X para todo r > O.
Lei Forte dos Grandes Números.
11

b. Mostre que, se I: a~-+ :x, então a condição de Liapunov está satisfeita. 9. Seja {X" : n 2 1} uma seqüência de variáveis aleatórias i.i.d. com função
!=I - ji
característica 9 tal que <P'(O) = 11. Prove que X -+ JL.
6.5 Exercícios
10. Sejam X 1, X 2 , ••. , X 11 variáveis aleatórias i.i.d. com "--"'" ""' Poisson ( /)!),
1. Sejam X". n 2 1, vanaveis aleatórias independentes, tais que
para cada n 2 1. Indique as possíveis convergências de X.
X" ""'Bernoul!i(p11 ). Estude as condições sobre Ji 11 • para que X" ~O.
11. Sejam X 1 , X 2 , .. ·, X 11 variáveis aleatórias i.i.d. com densidade Uniforme
2. Sejam n = [0, 1), B([O, 1)) a correspondente a-álgebra de Borel e P a função Contínua em [-1, 1]. Defina a variável 1;, = min([XJ[, [X2[, · · ·, [Xnf).
de probabilidade que atribui, a cada intervalo, seu comprimento. Defina as Mostre que 1;,-+ O em probabilidade.
352 Capítulo 6: Con vergência de Variáveis Aleatórias 6.5 Exercícios 353

12. Suponha que X , , para n ~ 1, tem a seguinte função de distribuição: 21. Seja {X, : n ~ 1} uma seqüência de variáveis aleatórias não correlacionadas

o, se x ~ O;
com média Oe variância uniformemente limitada. Mostre que X .3. O.
F71 (x) = x", se O < x ~ 1; 22. Para k ~ 1, Xk ""' Bernoulli(Pk ) são variáveis aleatórias independentes.
{ 1, se x > 1. Defina Y,, como o número de sucessos, nas primeiras n realizações.
Demonstre que
Determine o limite em distribuição para a seqüência {X" : n ~ 1}. n ) p
a. -;;1 ( Y,, - l:P; -+O.
13. Sejam X ,, n ~ 1, variáveis independentes tais que X, ""'Bernoulli(p ). 1=1
11

Considere, para n ~ 1, Y,, = ( }Ixk n ) 1/n


. b. -;;1 ( Y,, - l:P; ) -+O.
•=1
2

a. Calcule P(Y,, > O) e E(Y,,). 23. As variáveis X 11 , n ~ 1, têm vananc1a comum a 2 e o coeficiente de
b. Verifique se Y,, converge em probabilidade. correlação entre X i e X j é não positivo para i =/= j. Demonstre que vale a

14. Considere uma função f : ~-+ ~. tal que seguinte convergência: ~ "t[X;- E(X ;)f .!.o.
i=1

f(t) = {t-t + 1, 1,
se t < O;
se t ~ O.
24. Seja X uma variável aleatória finita e defina X 11 como o truncamento de X da
.
segumte forma: X, =
~
X J{IXI~n }· Mostre que X, -+ X.
Sejam X 11 , n ~ 1, variáveis aleatórias com P(X, = - 1/ n) = 1. Seja X 25. Seja { X, : n ~ 1} uma seqüência de variáveis aleatórias independentes, tal
igual a O com probabilidade 1. Mostre que X , !x, mas f(Xn) não converge que cada variável seja Poisson de parâmetro À.
em probabilidade para f(X). a. Sendo X a média amostrai, verifique que J7i (X - Ã)/ ..[>. !!:. N(O, 1).
11 p
15. Para n ~ 1, sejam X 11 e Y,, variáveis tais que E[(X 11 - Y,,)2],;-=-t O. Mostre b. Determine c, tal que ~'L: X? -+ c.
que se E[ (X , - X?L;-::-t O, então Y,, ..:..x, para alguma variável X . i=1

d p - Y. d
16. Sejam {X, : n ~ 1} variáveis i.i.d. com média p e variância a 2, ambas 26. Se X, -+ X e X, - Y,, -+ O, entao , -+X.
qr qc qc
finitas. Prove que ~"t(X; - X) 2 !. a2 • 27. Se X, -+ X e Y,, -+ Y , verifique se X 11 Y,, -+ XY . Essa implicação vale para
i=1 convergência em distribuição?
17. Prove que X , ..::.x se, e somente se, E[( X,- X ,,)2] -+0, param e n-+ oc. 28. Seja { X , : n ~ 1} uma seqüência de variáveis aleatórias i.i.d., seguindo o
18. Demonstre que, se X , ! X e X 11 ! Y, então X = Y, quase certamente. modelo Uniforme Contínuo em (0, 1). Calcule o limite, em probabilidade,
11
Sugestão: Prove por absurdo. para ~"l:(- log X~.).
k=1
19. Seja {a, :" n ~ 1} uma seqüência de números reais, com a"-+ a para a finito.
29. Seja {X, : n ~ 1} uma seqüência de variáveis aleatórias i.i.d. com função de
Se X 11 .!!.N(O, 1), então X 11 +a 11 !!:.N(a, 1).
probabilidade Uniforme Discreta em {0, 1, ... , 9} . Defina, para n ~ 1,
20. Considere n ensaios de Bernoulli independentes com probabilidade p de 11 •

Y,, =L:~; e considere Y rv Uc[O, 1].


sucesso, O < p < 1. Seja Y,, o número de vezes, dentre n ensaios, em que um i=1
sucesso foi sucedido por um fracasso. Mostre que ~ Yn! c, com c constante. a. Mostre que Y,, !!:. Y, usando funções características.
I
Identifique c. b. Verifique que Y,, converge quase certamente para Y.
354 Capítulo 6: Conl'ergência de Variál'eis Aleatória.\ 6.5 Exercícios 355

30. Uma amostra é constituída de X 1, X 2 , ... , X 11 • variáveis aleatórias i.i.d. com 42. Sejam X 11 , n ;::- 1, variáveis independentes tais que Xn "'Bernoulli (1ln).
média 11 e variância a 2 , ambas finitas. Prove que o coeficiente de variação Defina a variável }~, como o número de sucessos nas primeiras n realizações.
n d
amostrai converge, em probabilidade, para o coeficiente de variação Mostre que *'(L xk- log n) -+N(O, 1).
populacional, isto é, ( 5 11 I .X) ! (a I IL). " k=!
11

Sugestão: Note que (L 1I k - log n) tende a uma constante para n-+ CXJ e
31. Seja {X, : n ;::- 1} uma seqüência de variáveis aleatórias i.i.d., com média O e k=!

quarto momento finito. Verifique que X ~0. que a série 1I k 2 é convergente.


43. Mostre que X" ! O se, e somente se, E( ~~~-~, 1 ) -+O, quando n-+ x.
32. A variável aleatória Y é tal que P ( -1 < Y s; 1) = 1. Defina, para n ~ 1,
qr
44. As variáveis aleatórias X 1, X 2 , ... , X 11 são i.i.d. com média IL e variância a 2 ,
r
uma nova variável X,= tL(-1)"+ 1Y". Mostre que X,-+X, com
11

í=l ambas finitas. Sendo X a média amostrai, prove que X 2.. 11·
X= log(1 + Y).
qc 45. Sejam X 11 , n ;::- 1, variáveis aleatórias i.i.d. com média e variância iguais a 1.
33. Prove que vale X, -+X, sempre que LE(IX, -XI") < oo, para algum Mostre que
n
r> O.
34. Se X, rv N(n, a~). as variáveis X 11 's convergem em distribuição?
35. Sejam X,, n ;::- 1, variáveis i.i.d. seguindo o modelo Cauchy Padrão. 46. Para n > 1, as variáveis aleatórias X 11 são contínuas e têm densidade
Verifique se ~(X 1 + X 2 + ... + X 11 ) converge em distribuição. j,,(1.·) = nl1r(l + n 2:r 2 ) para todo x E R Verifique se a seqüência de
variáveis aleatórias { X 11 : n ;::- 1}, converge em média r para algum r ;::- 1
36. Sendo a E IR. e 7l ::::- 1, determine o limite em distribuição de X, rv N( a' 1I 11 ).
e/ou converge em probabilidade.
37. Demonstre que se x,'~x e IX, I s; Y com E(}" 2 ) < x. então X, 2.x. 47. As variáveis X,, n ;::- 1, são i.i.d. seguindo o modelo Cauchy Padrão. Defina:
38. Sejam X 11 , n 2 1, variáveis aleatórias i.i.d. com média JI e variância rr~'. X1+X2+ ... +X" ,. X1 +XL+··· +Xn
ambas finitas. Com o uso do Teorema Central do Limite, determine o }~ 1 = fo e 1In n
tamanho da amostra n para que P( IX, - Jtl s; ff;) ::: O. 9G.
a. Mostre que }~, não converge em distribuição.
39. Um dado equilibrado é lançado 1200 vezes. Calcule, aproximadamente. a
b. Verifique que lF11 converge em distribuição para o modelo Cauchy.
probabilidade de obtermos o valor seis pelo menos 180, mas não mais de :220 ' ,,,.
vezes. c. E verdade que H"11 -+O?
48. Sejam X" e } ;, variáveis aleatórias independentes para todo n ;::- 1. Se temos
40. Sejam X 1 •... , X, variáveis i.i.d. com quarto momento finito e variância rrc..
X 11 :!. X e } ~~ :!. }·, identifique o limite em distribuição de X + } ;, .
Para uma amostra de tamanho n, seJ·a u:.> = i!..::l
11
sf2i ' com s ll2 sendo a variância
(I
11

' '' _. •)
amostrai, 1st o e . .s-(/ = -11- 1 ""'()~
~
1

11 r
-
-,... 2
.X ) . Mostre que
.
•) }J
r"(/ -+(r.
') 49. Se X 11 ..:.x e 1;, .:_.}",mostre que:
i~ I
a. lim E(X 11 1;") = E(XY).
!11.11--·---..._
41. Sejam XI' x._,, ... , X, variáveis com Xn rv Gama(n, (:!), 11 ::::- 1. Verifique
b. limE(X~)=E(X 2 ).
I - Jl 11--x.
que ;; .:X, -+c, para alguma constante c e obtenha seu valor.
c. lim E(Xn) = E( X).
u~:..._
- - ------

35() Cupillllo n: Com ·c ,-ghiC'io de \ 'uriri•·l'is Alcurríria_, 6.5 Exercícios 357

50. A seqüência de variáveis aleatórias {X 11 : 11 2: 1} é tal que cada.\, scgul· ,, 60. Para 11 2: 1, as variáveis aleatórias X 11 assumem somente os valores O ou 1.
modelo Geométrico de parâmetro Ji / 17. para algum O < f! < l. Verifique '-L' Suponha que. para todo (.r 1, .r 2 •... , .1' 11 ) e 11 2: 1, vale
1 X para alguma variável X e obtenha sua distribuição.
ocorre l X, P(Xt = 1) = 1/ 2 e P(X11,1 = X~~IXt = .rJ ..... XII =.r")= 1 - o,,.
"
51. Sendo X, _::.x prove que. para 1:::; s <r, temos X ~X. Vale a recíproca·.> 11 Discuta a convergência de ~(X 1 +X 2 + ... +X11 ) para 1/2, quase
certamente ou em probabilidade, nas seguintes condições:
11 : n 2: 1} uma seqüência de
52. Seja { X variáveis aleatórias. não correlacionada-,
duas a duas, com P ( X ,, = -n) = P(X 11 = 11 ) = 1/ 2. Prove que não vale a a. n = 1/ 2, para todo 11 > 1.
11

Lei Fraca dos Grandes Números, mas a seqüência satisfaz o Teorema Centr;li ·X

b. I:;n 11 < oo.


do Limite.
" I
53. As variáveis aleatórias X 11 , 17 > 1, são i.i.d. com distribui\·ão N(O. 1 }, mo,tre 61. Sejam X 11 , n 2: 1, variáveis aleatórias independentes e identicamente
) .Y '
,[ . 'JI'
distribuídas com média O e variância igual a a 2 , O < a 2 < Xl. Suponha que a
que va Ie .. -+ :rI seqüência {} ~. : n 2: 1} também é formada por variáveis independentes e
I L!.Y. - 11'
'I identicamente distribuídas, mas sua média é Jl,, 11 < Xl. Verifique que vale a
I 54. Sendo } ·1 a j-ésima estatística de ordem de uma amostra de tamanho 11. de scgumte . . }-; - vr::11 """v -+
. convergencw: ri N( ·) )
JL a- .

uma variável aleatória contínua X com função de distribuição F, prove que:


,, a. nF ( }~)
62. Seja {.\ 11 : 11 ~ 2} uma seqüência de variáveis aleatórias independentes com

..,, 1 Gama( 2. 1).


b.11[1- F() ;,)-· FO't)]1Gwna (:2. , 1) .
55. Seja { X 11 : n 2: 1} uma seqüência de variáYeis i.i.d. com média O e vari;!m·i;l
P ( X n = O)= 1 - 1 .,~ 11
Mostre que X 11 ~O , mas X 11 não converge em média
e P ( X 11 = 11 ) = 10~ 11 · Vn
1·.
2:2.

para qualquer r > O.


2. Obtenha o limite em distribuição de: 63. Seja { X 11 : 11 2: 1} uma seqüência de variáveis aleatórias com Var (X 11 I < r· ,
li
., a,
foi.Yt··Y,; .. + .\ ,)
(.\fLYjt- .-'-.\,' 1
para c constante . Verifique que a seqüência satisfaz a Lei Fraca dos Grandes
Números, nos seguintes casos:
b, .\'+.\,t .. r.\.
a. (!(X;, Xi) :::; O, para todo i i- j.
li
\ i.Yi-.Yj+ ~ -\,~ 1
I b. f!( X,, X)) -+O, para li - ) I -+ x.
56. As variáveis X 1 • X~:, . .. . X , formam uma amostra aleatória de tamanho 11 de
I uma variável que tem mediana :H. Sendo 111 a m:di ana amostrai . mostre que 64. Seja { X 11 : n 2: 1} uma seqüência de vanaveis aleatórias independentes e
identicamente distribuídas com média 11 e variância o- 2. O < a" < x. Seja
/I 111 ~ J/.
{a 11 : 11 2: 1} uma seqiiência qualquer de números reais. Com o auxílio do
li 57. Defina} ;, = sen ( n.\", ). para 11 > 1 c .\ 11 ~ U, [0 . :2.;;-]. Mostre que }',, sati sfa; Teorema de Polya c do Teorema Central do Limite, mostre que
a Lei Forte.
11 "
58. Verifique se vale a Lei Fraca dos Grandes Números para as \ arij\ e i' :L;X; - n11
11 '
aleatórias independentes .\",. 17 2: 1, com X, ~ F1p( 2" ~) . P(i=lafo : :; a 11 ) - <P(u 11 )--+0 , para n-+x·.
11
59. As varián~is aleatórias .\" 1 , X 2 ....• X 11 são i.i.d. com média 11 c variüncia rr~.
~~~' t
li em que <Pé a função de distribuição da N(O, 1 ).
ambas finitas. Sendo S· a média amostrai, prove que sen ( (X,. -- _\ 1:: J
I. l
convergc quase certamente para O.
li i

I li
11 1
358 Capítulo 6: Convergência de Variáveis Aleatórias

65. Sejam Xn e Y.n variáveis aleatórias independentes com distribuição Poisson


A • M (X -n)-(Y. -111 ) d (
de parametros nem, respectivamente. ostre que " ,jx,+ Y."', -+NO, 1),
para m e n-+ oo.
66. As seqüências { X 11 : n ~ 1} e {Y,, : n ~ 1} são de variáveis aleatórias i.i.d.
Apêndice A
com médias /LX e /LY· respectivamente, e variâncias finitas ai e af. ,
respectivamente. Assuma que as seqüências são independentes entre si e que
/LX =f. O. Obtenha o limite em distribuição de yÍn ( ~ - ~~) que também
'n(
pode ser escrito como V •• 1'·'j'-
pxX
1' 1 ·X ). Tabela Normal
Resumo de Distribuições
Sumário de Expressões Matemáticas

359
Distribuição Normal 361

Distribuição Normal: Valores de p tais que P (O ::; Z::; Zc) =p


Segunda decimal de Zc
o 1 2 3 4 5 6 7 8 9
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359 0,0
0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753 0,1
0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141 0,2
0,3 0,1179 0,1217 0,1255 0,1293 O, 1331 0,1368 0,1406 0,1..WS 0,1480 0,1517 0,3
0,4 0,1554 0,1591 0,1628 0,1664 0,1700 ' 0,1736 0,1772 0,1808 0,1844 0,1879 0,4
11,5 O, 1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224 0,5
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549 0,6
11,7 0,2580 0,2611 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852 0,7
0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133 0,8
0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389 0,9
1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621 1,0
to.!.. 1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830 1,1
CD 1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015 1,2
"C 1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177 1,3
õ 1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319 1,4
E 0,~370 0,4382 0,4394 0,4406- 0,4418 0,4429 0,4441 1,5
·oCD 1,5
1,6
0,4332
0,4452
0,4345
0,4463
0,4357
0,4474 0,4484 0,4495 • 0,4505 0,4515 0,4525 0,4535 0,4545 1,6
"C
1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633 1,7
E! 1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706 1,8
'i 1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767 1,9
E
'1: 2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817 2,0
a. 2,1 0,4821 0,4826 0,4830 0,4834 0,4838 (),4842 -0,4-46 0,4850 0,4854 0,4857 2,1
CD 2,2 O,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890 2,2

..·=
E!
'i
2,3
2,4
2,5
0,4893
0,4918
0,4938
0,4896
0,4920
0,4940
0,4898
0,4922
0,4941
0,4901
0,4925
0,4943
0,4904
0,4927
0,4945
0,4906
0,4929
0,4946
0,4909
0,4931
0,4948
0,4911
0,4932
0,4949
0,4913
0,4934
0,4951
0,4916
0,4936
0,4952
2,3
2,4
2,5
CD 2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964 2,6
t
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974 2,7
2. 2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981 2,8
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986 2,9
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990 3,0
3,1 0,4990 0,4991 0,4991 0,4991 0,4992 0,4992 0,4992 0,4992 0,4993 0,4993 3,1
3,2 0,4993 0,4993 0,4994 0,4994 0,4994 0,4994 0,4994 0,4995 0,4995 0,4995 3,2
1,3 0,4995 0,4995 0,4995 0,4996 0,4996 0,4996 0,4996 0,4996 0,4996 0,4997 3,3
3,4 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4998 3,4
3,5 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 3,5
3,6 0,4998 0,4998 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 3,6
3,7 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 3,7
3,8 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 3,8
3,9 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 3,9
.....
~
Distribuições Discretas Funçio de Probabilidade Média Variincia F. Caracterfstica

Bemoulli(p)
pE (0,1)
·pq
fl 1-•
1% ""0, l;q"" 1- p p pq q+pe •

Binomial(n1 p) (") .
., p·q.-. 1 :t=0,1, ... ,n np npq (q + pe")"

Hipergeométrica (';)(~::::';)/(~) m "·-ci)"


,. <n-r>
!!!! 1 não útil
(m 1 n 1 r) k a-(a,r-(n-m)J, ,_,. .,r,m) n

Poisson(À) -~,.~ .
>.>O
L;r-,z = 0,1, .... À À exp(À(e" - 1)]

Geométrica(p) 1

i de fncassos anteriores
pq 9 %=0,1, ... !l
p l 1-!.n

Geométrica(p)
jj de ensaios para -·
pq ·-· ,:c= 1,2, ... l
p ;
u
l!"qea

Bin. Negativa( r 1 p) (~1) rip (1--:.· t


r •
pq
,._ 1 ,z=0,1, ... r-:\
i de fracassos anteriores p

~

Bin. Negativa(r 1 p) c•-1) ......... r1p (1-qe
,;'. y
~
r-l pq ,z=r1 r+1, ... r-!
i de ensaios para ... p

--- ::....

Apêndice A

Distribuições Contínuas Funçio Densldade Média Varilncla F. Característica ~


~
UniftJmte(a,b) .: 11 ,aS::r~b !:!:!
2
!!::!f
12
.. ...
1&:.)tt t
a<b
...
1::::1

tr'
Normol(f.l, u')
>0. -oo<iJ<oo ~
1 (~) f.l O'
. exp(i,..t- •;') ~
.(:;•

&ponllncial(>.) 1

.\>0
>.e-"',"' >O 1
l ),'! ~,t<.\

GdlnD(0<,,8) ~
e.. _, ,:.:>0
~ <A>",t<ll

'
~
a ,8>0

Btta(a,b) ~z-'(1- :~:)._ 1


!l
a,b>O O~z~1 . ;h (o#+l)(a#)
1 não útil

Qui-quadrado( k)
1:•1,2, ...
m 4 :~:•-·'*P(--!z)/I'(lJ.% >o k 2k (~)l, I< i

Cauchy((0<,,8)) 1 o não existe não existe e-111


aER,IJ>O .-ll[l+('J')~
2
2n (m+n-2}
F·Snfldecor{m, n) !!l'z"""(1 + "!') :i!fjp(!f, J) ,.~ 2 ,sen>2 m(n-2)7(n--4) não útil
m,n-1,2, ... z>O se n >"
t-Stud11nt(n)
n>O
r("ti){1 + ~l• Jr(g)JM' O, se n> 1 n~ 2 ,sen>2 não útil

~
À0%.-1 exp(-
WeibJdi{>.,O<)
>.,O<>O 0<%<00
>.:t")
l
!:lt+2•l'l-I"(t+•l'l
J..'i"'
>.~r(l + *> .....
~~-
~
. ......

Sumário de Expressões Matemáticas 365

Sumário de Expressões Matemáticas

1. Desigualdades

a) Jensen {Proposição 4.9)


Seja X uma variável aleatória com esperança finita e g uma função
convexa. Então:
E(g(X)) ::?: g(E(X)).

Observação: Uma condição suficiente para que g seja convexa no intervalo I


é que g tenha derivada contínua e não-decrescente neste intervalo I (outras
condições mencionadas no texto).
b) Básica de Chebyshev (Proposição 4.10)
Seja X uma variável aleatória não negativa e considere a > O. Então
P(X::?: a) $ E( X).·
a

c) Clássica de Chebyshev (Proposição 5.3)


Seja X uma variável aleatória com variância finita. Então, para qualquer
t >O, temos

P{IX- l'xl ::?: t) $ Va~~X) ·


366 ApindiceA Sumário de Expressões Matemáticas 367

d) Cauchy-Schwarz (Teorema 5.7) h) Minkowski


Sejam X e Y variáveis aleatórias com esperanças finitas. Então: Sejam X e Y variáveis aleatórias não-negativas e p ~ 1. Então:

E(IXYI) $ y'E(X2)E(Y2);
com a igualdade valendo se, e só se, Y = aX, para alguma constante a.

e) Kolmogorov (Lema 6.11) i)_Liapunov


Sejam { Xn ; n ~ 1} variáveis aleatórias independentes com média zero e Seja X uma variável aleatória não-negativa e O $ a $ f3 . Então:
variância finita. Então, para todo >. > O e com Sk = X1 + X 2 + ... + Xk
temos: E! [IX(] $E~ {IX(].
P ( max IS I >>.)< Var Sn.
1$ k $ n k - - >.2

2. Fórmulas Matemáticas Úteis·


f) Markov (Proposição 5.4)
Seja X uma variável aleatória qualquer: Então para todo t > O, temos: a) Somas

P(IXI ~ >.) :5 E(l:l)


1

, V >.>0.
(1) Êi = n(n2+1).
i=l

{ 2) f/ = n(n+l){2n+l).
6
i=1
g) Hõlder
Sejam X e Y variáveis aleatórias não-negativas e suponha que
{3)t/ = (n(nt))2·
~ + ! = 1, p > 1, q > 1. Então, ~ •4 2
n(n+1)(2n+l){3n +3n-l)
(4) L..' = 30 •
E{IXYI) :5 E~ (IXI")E1(IYI'). i=l
Observação: Elas podem ser provadas usando indução matemática.

b) Fatorial, Combinatória e Teorema Binomial


(1 ) (:) =O se k < O ou k > n.
(2) (ntl ) = (~) + (k~l) para n = 1, 2, ... e k =O, ± 1, ± 2, ....
368 Ap2ndiceA • Sumário de Expressões Matemáticas 369

n
-
(3) lim An = n U Ak.
00

n=lk=n
00

(a+ bf = E(~)a b"-l para n inteiro e positivo.


1
(4)
n Ak.
00 00
i=O
(4) lim An = U
n n . . n=lk==n
(4a)(1+t) =E(~)t'.
i=O
n n i ·
d) Limites e Cálculo
(4b) (1- t) = ?:(~)(- 1) t'.
n
t=O (1) lim .
n-+ooe-"n"+
n\ .j2; = 1. (Stirling).
(4c) 2" =E(~). 11
i=O (2) lim(1 + Àx) e = e-', À constante qualquer.
x-+0

(5) (a~b) = Ê(~)(n~J (expandir(1+x)"(1+x)& = (1+x(\ (3) Série de Taylor para f (x) em tomo de x = a:
i=O

(6) (n~k) = Ê(i+~-l) (use (2) e indução finita). (2) I


1
(n)( )( )"
i =O f(x) = f(a) + /'1(a)(x- a)+. f (a~\x-a) + ... + \~-11. +R,.
ti f(x) t
1
/"+IJ(c)(x-at
com J(i) (a)= ilx' _ e R,.= (n+l}l ,a~ c~ x.
n
(8) }:) 2 (~) = n(n + 1)2n-2•
i=l
e) Função Gama e Função Beta
n
(9) Ei (~) = 3
n 2 (n + 3)2n-3. A função Gama, denotada por r(.) é definida por

(10)
i=l

Ê(~)
i=l
2
= (~). r(t) = 1 00

xt-1 e-e dx para t >o.

Através de integração por partes temos que r(t + 1) = tr(t). Se t = n


(inteiro), então r(n + 1) = nl. Em particular, r(l) = 2r(!) = J"i.
A função Beta, denotada por {3( a, b) é definida por
{1 •-1 '-1
{3(a,b)= Jo x (1-x) dx paraa,b>O.
c) Conjuntos
00
Vale, também, {3( a, b) = rgJ~W ·
(1) {X< c}= U {X~ c-~}.
n=l

(2) {X~ c}= n{X< c+~}.


00

n=l
Apêndice B

Respostas de Exercícios

Observações:
1. Nos exercícios de seção a resposta será, na maioria das vezes, acompanhada de
indicações da resolução.
2. Para os exercícios de fim de· capítulo serão apresentadas as respostas para os
exercícios ímpares.
3. Em geral, os exercícios de demonstração não terão suas respostas completas
apresentadas, mas apenas as principais etapas da resolução.
4. Pequenas diferenças, em algumas respostas, poderão refletir diferentes
aproximações e casas decimais utilizadas.

371
372 Apêndice 8: Respostas de Exercícios Respostas: Capítulo I 373

t:apítuln I Seção 1.3

Seção 1.2 I. a. A;. fun~iks f c y satisfa1em o' Axioma;. de Kolmogoro\' pois:


(Ax l ):.f(!!l f({O} {1}) f({ll}) f({l} 1;similarmenh:para_q.
I. a. AIJ("'. h. A' E" C' (A. u B C)'. c. (ABC)''. d. A(BC)". e. 0. (Ax2): .f(A ) .: y(.·1) são não negativas para qualquer .4 E :F.
2. a. Se 11' E AL:>B então 11' (A U 13 A l B). D.:sde que a união c a intersecção são comutativas
t~mos que 11' E ( D t, A - B n A) e, portanto. 11· DLA.
( Ax3): Sendo .4 1 , ,4~ .... E :F. di;.juntos. precisamos verificar que: .f ( U.4;) = i:f(.4,) e o
. 1 i -1
h. Se u· E (A~D U .4 n B) cntão w E [(.4 U D -A 'I I1) U A n D] = A U IJ. correspondente para y. Indicamos a pro\'a para f, mas ela tamhém vale para a função y.
c. Sc 11• E (AB''C U A'BC, ADC' então 11' E (AJJ' C U A' BC) c ·u• E Anc··. Pcrt.:nccndo an Note qu.: :F {I UI , {0}, { 1} ), de modo qu.: as possíveis seqüências infinitas com e\'entos
primeiro conjunto implica pertencer a C n (An·· U A''B). Logo d.:ve estar .:m C. Como tamhém di;.junto>, são as que incluem um número infinito de conjuntos vazios. Assim temos as
deveria estar em A UC' , esse conjunto é vazio. seqüências: ,<j1: ({0}.{1},0,0 ... ·); S2: ({0}. 0,(1) ... ·); S;l: ({1},0,0, .. ·); S4: (!2,0,(~, ... ).
3. Os conjuntos B,.'s são claramente disjuntos. Ohservc que B1 = A1, B1 U B2 - AI J A2 c assim ParaS1 temos f({ O} U {1} U0 11 .. ·) f(!l) 1.
por diante. Por outro lado. f ( {O} )+ f( {1} ) + f(0) + f(0) .. · = 1. Logo o resultado está verificado
4. a. A seqüência { B,.: 11 _ I} é não decrescente, enquanto que {C.,: n 2': 1} é não cresccnt.:. para 8 1 • Usamos que f(0 ) U, o que pode ser facilmente verilicado de (Ax I) acima e da
h. Note que Il' E UB., ' n A se c só se ll' E nA 1 para algum no. Dessa forma. u· A aditil·idauc da f. Para as outras seqüências a pn)\'a é similar.
I "
h. Para O n 1. o .f (1 - n )y tamhém é uma prohahilidade. A verificação é similar ao feito
para todo j sufici.:ntemente grande (a partir desse 11 0 ). Assim. 11' poderia no máximo não
em (a). Ilustramos o cákulo mostrando que vale (Ax3J para a seqüência SI'({O}. {1}.0.0 ... ·).
pertencer a um número finito dos A;'s.
Aplicar n.f + ( I - n )g em S 1 é aplicar S 1 em .f c em fi· ponderando o resultado por n e 1- n.
c. Se u• E nC n A então 11' E U A 'lu. Como 11' E UA 1 então
I
11' E A1 para algum k1. respectivamente. Logo temos
nf({O} {I} 0 11 .. ·) (l n)y ( (O} {1} 0u(1 ... ) n +( l - n ) 1.
Mas w tamhém pertence a UA c. portanto. 11' E A 1 , para algum J.- 2 > J., 1 . Repetindo esse
•I Por outro lado.
argumento, obt.:mos inteiros J.- 1 < J.-2 ..• , que dependem de w, tais que u• E A1·,· Vn . Logo, u• nf({O} ) ( J n)g({ll} )+ nf({1} )+( 1 - n)y({l}) +n f(0) + (1 - o)y(0) + ... 1.
pertence a um número infinito dos A/s. Reciprocamente. se u• pertence a um número infinitl> dos Logo o n:;.ultado está verilicaJo para 81.
A/s então w E UA;. Vn. Desse modo. u· E
1
n UA
11 I J
2. C'onsidcr.: uma f como no exercício anterior só que com mais pontos. A demonstração é similar. A
probabilidade de sortear número ímpar é menor do que par.
5. :F1 {!1, 0}: :F2 = {fU~. {11 }. {a V} (mais duas do mesmo tipo: com {li} c {('}). 3. Use o quociente de áreas para estabelecer as prohahilidades.
6. Para !l {1, 2. :l }. n,. é o conjunto d;ts partes de !l. o vazio e o !l estão em n,,. Tome um unitário. a. Sc a 11. il/2rr; sc 11 , b, ('2/1- u )/2b: seu li, 1/2. b. 1/8.
digamos {I}. então seu complementar {2, :l} também está em !1 1,. Os complcmentan:> dos c. Faça um diagrama pois t.:mos vários casos. Lembre-se que 11 e /1 são positivos mas podem ser
suhconjuntos com dois elementos tamhém estão em !l 1, pelo caso anterior. Não é difícil ver que maiores ou menores que 1/:l. Ver tahda:
uniões infinitas (por exemplo, repetindo um dos subconjuntos) também resultam em elemento' d~ ~~===------.--------,
!li" Logo é rT-álgehra. Casos P(.r + y < J j:l
7. Ob>ervc que A.j. A~,···. A;; são todos ekmcntos de :F, logo a união U A;· ( A,)' também (/ > 1/:l./J 1, :1 1.'1Ha!J

pertence a :F. Por (A:!J seu complementar, A;, pertence à :F. (/ Jj;l./J 1/3 (2- :!!J )I(;ah I
8. Seja :F1 a rT-álgebra gerada por [.. . .11). ;· $ y . .r , y E IR e seja :F2 a rT-álgebra gerada por x, ), (/ 1 :!, !J 1/3 (2- :Ja )lfla/J
.r E IR. Observe que - 11, .1/) ( - x. y} e, portanto ( -oc. y) E :F1• Logo :F~ C :F1. Por outro a < 1/:l, IJ 1/3.a+IJ 1;:1 1
lado. pru1indo 4e (- ::x:. .. r também obtemos [:r, y ), :r S y. :r, y E lR:. Note que (- x." a 1 1:3.!. 1/3, a + IJ 1/:l 1- ~
:l(ll+fll
( -oo, a·+~) e sua intersecção com ( -x. y), .11 2': .r, produz o intervalo desejado. Então :F1 :F;
c a prova está completa. 4. Condições: ( I J P( AD) O: (21 Se P(A n IJ ) O. P(A) 11 c P(D) > O precisamos t.:r
9. Seja :F a intersecção das rT-álgebras que contém C. Verifique que essa intersecção tamhém é c P(A ) = P(B ); {3) Se P(A) O é preciso P(/3 ) O: (4l Análoga a (3). se P(Dl = O é preciso
;ilgebra. Assim é a menor rT-álgebra que contém a coleção C. Suponha que exista outra menor. P(A ) O.
digamos Ç. Por definição de :F temos :F C Ç pois Ç contém a colcçao C. Por outro lado. sendo 9 5. Considere P(JJ) > O. temos P(ADJ /'!.;~; 1 ~' 11 P(Aj!J)P(D Isto é igual ao produto
a menor temos 9 c :F pois :F também contém C. Logo Ç :F e a unicidade está verificada.
P(A)P(n) se. c somente se. P(A jB) P(:l) . Sc P(ll) O. temos P(AjB) P(A) c também
10. a. 1- J,, b. 1 - l u c. l.,Iu d. 2- I 1 - l u c. '2 + I ..tlu- l A- l u 1. P(AB) O. As implicações ficam trivialmente verificadas.
374 Apêndice B: Respostas de Exercícios Respostas: Capítulo I 375

6. a. P(ABr) = P(A)- P(AB) = P(A)(1- P(B )) = P(A)P(B<) logo A e Br independentes. g = {A : A E ;:1 u F 2} não é o--álgebra. Segue um contra-exemplo. Tome F1 como a o--álgebra
b. Análogo a (a). gerada pelo intervalo [0, ~) e F 2 a gerada por [~, 1]. O conjunto [0, ~) U [~, 1] E F1 UF2.
c. Escreva P(A' B r) = P(Ar) - P(ArB) e proceda como em (a). entretanto, seu complementar não pertence.
7. a. O, 084. b. O, 48. 11. a. Se w E A U B então lAuB(w) = 1. Esse mesmo w estará em um dos três conjuntos disjuntos
8. Temos P(limsup A,.)= P( () UAk) =
r1=l k=n
lim P(
n-oo k=n
UAk) ~ lim P(An )
n-oo
~c. ABr,AcB ou AB. Se w E ABc então IA(w) = 1, IB(w) =O e lAnB(w) =O e as expressões do
lado direito dão todas o valor 1. De modo análogo para Ar B. Para w E AB temos IA(w) = 1,
oo oo 2n
I 8 (w) = 1 e lAnn(w) = 1 e, de novo, todas as expressões do lado direito são iguais a 1. Se
9. Temos para n ~ 1, P(A,.) =L: 1/k(k + 1) ~ E 1/2k2 ~ E 1/2k2 ~ n/8n 2 = 1/8n. Logo
w f/: A U B então lAun(w) = O. Assim, IA(w) =O, In(w) = O e lAnB(w) = O e as expressões do
k=n k=n km:n
00 00 00 00
EP(An) = oo. Por outro lado, observe que limsup An =
n=l
n U A~.= n An. Assim,
n=l k=fl n=l
lado direito dão todas zero.
b. Similar ao item (a).
P(limsup An) = P( n
=I
An) $ P( nA,.)= P(Am) =E 1/k(k + 1)
=I ~rn
----+o, para m -+ 00.
13. Só assume os valores O ou 1 para todo w E !1. É indicador do conjunto A~B.
15. Vamos verificar os Axiomas de Kolmogorov.
Entretanto, isto não contradiz o Lema de Borel-Cantelli pois os A,. não são independentes. (Axl): f(!1) = n(fl)/n = 1, pois são n ocorrências todas em !1.
10. Os eventos An são imediatamente precedidos e sucedidos por coroa. Assim P(A 1 ) = 1/16, (Ax2): f(A) = nA/n é não negativo para qualquer A E F.
P(An) = 1/32 para n ~ 2. Os eventos A1, A2, A3 , • • • não são independentes, no entanto (Ax3): Sendo A 1, A 2 , ••• E F, disjuntos, precisamos verificar que: f CQA;)1
= ~f(A;). O
Ai> A_a, An, · · · são. Como a soma das probabilidades desses eventos diverge, temos pelo Lema de
Borel-Cantelli que eles ocorrem infinitas vezes. Logo também temos P(A,. infinitas vezes)= 1. número de ocorrências satisfaz claramente essa propriedade pois advém da contagem de
ocorrências de cada conjunto disjunto.
Seção 1.4 17. Da verificação dos axiomas, obtém-se que estarão satisfeitos se, para i = 1, 2, · · ·, 6, O $ p; $ 1 e
P1 + P2 + · ·· + Jil; = 1.
1. a. Se w E A# w E A n !1 # w E A n (B U Br) # w E (A n B) U (A n B<). 19. (Axl): /(!1) =In! dx =I:~ dx = 1.
b. Se w E A U B # w E (A U B) n !1 # w E A U B n (A U Ar) (Ax2): f(A) é não negativa para qualquer A E F, pois a integral representa uma área.
(Ax3): Sendo A~, A 2 , ... E F, disjuntos, precisamos verificar que: f (.Q
A;) = ~f(A;). Isto
# w E (A U B nA) U (A U B nA<) # w E A U (Ar n B).
c. Se A C B então Vw E A => w E B. Supomos que v E Br =>v f/: B =>v f/: A, pois se t' 1
pertencesse a A implicaria v E B, o que seria contraditório com a suposição. Logo B r C A". segue da aditividade da integral de Riemman.
3. Provamos para seqüência não decrescentes, o outro caso é análogo. Seja An, n ~ 1, uma seqüência 21. (AI): !1 n B = B => P( !1 n B) = P(B) => !1 E F B·
não decrescente de conjuntos. Então para todo k ~ 1,
k=n
n Ak = An e UAk= UAk.
k'""n k=l
(A2): Se A E F 8 então P(A n B) é zero ou P(B). Como P(A' n B) = P(B)- P(A n B),
temos P(A' n B) = P(B) ou P(A' n B) = O; em qualquer caso, a conclusão é de que
Logo lim sup An = rl UAk = rl UAk = UA~. e lim in f An = U nA~. = 0 An. Então Ar E Fn.
r~=l k=n n=l k=l k=l n=l k=ri n=l
(A3): Sendo A 1, A 2 , ... E F 8 , precisamos verificar que OA; E f B· Observe que temos que
o limite existe e é igual a ÜA~.. i=l
k=l
avaliar a seguinte probabilidade: P[( LJA;) n B] = P[ L)(A; n B)]. Se todos os A;'s são tais que
i=l i=l
S. F= {!1, 0, [0, ~), [~, 1].
P(A; n B) =O, então P[ LJ(A; n B)] $ EP(A; n B) = O => lJA; E F B. Por outro lado, se
7. Vamos verificar as condições de o--álgebra. (AI) !1 E F pois f!< = 0, que é enumerável. (A2) Se i=l i=l 1=1

A E F então, ele ou Ar é enumerável. Em qualquer caso Ar estará em F pois ou o próprio A" é existir pelo menos um dos A;'s, digamos Aj. tal que P(Aj n B) = P(B) temos
enumerável ou seu complementar, que é A, é enumerável. (A3) Se temos A 1, A 2 , • • · todos em F Ai n B c 0<A n B) c B
i~l
=> P(Ai n B) s P[U(A; n B)] s P(B)
t=l
considere as duas situações possíveis. Todos os A; 's são enumeráveis e, nesse caso, a união infinita
deles também será e, portanto, está em F . Se existir pelo menos um dos conjuntos, digamos Am, => P[U(A; n B)] = P(B) => LJA; E F n.
i=l i=l
que não é enumerável, mas seu complementar A~, precisa ser. Então temos: ( OA,.Y =
n=l
23. 0.832.
25. a. nl = {vA,PA,VB,bB}· b. !12 = {v,p, b} . c. Em n], P(vA) = ... = P(bB) = 1/4. Em n2.
nA~ c A;n. Logo o complementar da união é enumerável e, portanto, também está em F. P(v) = 1/2 e P(p) = P(b) = 1/4. d. 5/6. e. 13/18.
fl=l
9. F = {A : A E F1 n F2} é uma o--álgebra. A verificação de (Ax I) e (Ax2) é simples. Para (Ax3 ): 27. a. 1/2. b. 1/4. c. 1/2.
sendo A~, A2, ... E F, temos A 1 , A 2 , ••• E F 1 e A 1, A 2 , ••• E F 2, por definição. Logo como são 29. a. 1/4. b. 1/4. c. 1/2. d. 1/2. e. 5/12. r. 1/18. g. 5/12.
o--álgebras temos, UA,. E F 1 e, também OA,. E F
n=l n=l
2 • Então a união estará em F = F1 n F2. 31. 1/2.
33. a. 1/3. b. 1/3.
376 Apc?ndice R: Respostas de Exercício.\ Respostas: Capítulo 2 377

1 (u 2
35. Observe a contradição entre independ.!ncia. P( Al3 ) O e P( A )P! 13) O. 113. a. - - . b. Se o casal se encontra. ficará junto na fila:
37. Note que. para qualquer A, P(A 0) O e J>(A )J>(0J O. 115.a. 11 1Ifi. b. 114.
39. 1/2. 117. a. Sendo P (A,I B, )- P(A,.) ::=:; P (A,}- -·-, passe ao limite. b. Propriedade do limite.
41. P(.4 U B) = P(A } + P (IJ)- P( A JJ) _ L Daí segue o re~ultado. 119. Seja H {dois P( JJ IB)
dos três testes independentes deram positivos}: (i /2:!.
43. Desenvolva as condicionais c use a independência.
P( D~I H R/23 e P(D:IIB) = 9/2:3.
45. a. Verdadeira. b. Não em geral. Verdadeira se houver indcpcndêm:ia condirional ou C JJ. li lhos obtenha P(A) - (2" I - I )/2" 1, P(B)
121. Para /I (11 + 1)/2" c P(A n B ) ll 2". Para
47. Use a Lei de Morgan e a Regra da Adição.
existir independência é preciso 11 - 3.
49. 3/5. 123. J'(ini<.:iantc vencer. sendo escolhido por moeda honesta) 33/ !il.
51. a. 1/3. b. 1/ 10. c. I / 4. 125. [p( l p)" 1 '[I (1 p )"], k = 1,2, .. , n .
53. a. 17/ 35. b. 101 /2RO.
127. a. 27 1{) I. b. XJ/5 12.
55• m;a (11,:: +·1-11 < P(AIB) :S min (o.l}.
57. Para os dois itens use a definição de probabilidade condicional c propriedades. Capítulo 2
59. 1/ 2.
61. 7/ 12. Scção2.2
63. P(AB) = o. 2 Oll O. :3.
65. Mostre que vale a independêm:ia doi'> a doi,, EntrcHtnto. J>(L' 1 E 1 E:d J. Precisamo' mostrar que D( w) { w: / .4 (w) ::=:; J'} está em :F para todo .1· R Inicialmente
P(E1 )P(E1 )P(E:l) 1/8. observe que A r :F pois é união de eventos. Se .r é negativo então B = 0 E :F. Se O .r I.
67. 27720/12 lfl. JJ A'. :F c para .r 1. JJ - A E :F. Logo /.~ é variável aleatória.
69. 1/2. 2. Se .r é negativo cntii11 { u•: X 2 ( w) .I:} é o conjunto vazio. portanto em :F. Se :r _O.
71. O jogador que inicia tem prohahilidade de 1·itória igu al a (111 11 (111 211) { u•:X~( 111 ) .r} {u•; ,J:i...o X (u•) .J:i}= {w:-.J:i X (w)}n { u•;X(w):SJ:f}. nms
73. 18/35. esses ültimos estão em :F pois X é variável aleatória e, portanto, n intersecção também c x~
75. (2"
IJ
)( 2"')
UI
/ (211+2"'
11+111
). também é variü1·el aleatória.
77. (n - 1.: + 1 )/(~ ) . Minimizamos fa1.cndo o denominador ticar maior: tome k (n ~ 1)/2 para'' 3. () (/ b. b 1 4.
ímpar e 1.: = 11 j2 para 11 par. 4. (/ ,.
1 5. (/
79 • a • 1 - ( -'-'
,_., - · -- -t- - · ) h•
~~~-+~~~+--~2~<~x~·~<~-~~~~~~--i-=T,.,-1--n~~~-~~~
(n+m I\
81. ww - 2 (~)111 + ww. 6.a.
0,2
83. a. 16/33. h. 17 j3:t ().(i.
85. Não são independentes .
.87. P(A, i.v. ) = O e P(B, i.v.) I.
89. I / 2.
91. Seja A; = {em i se inicia urna seqliência S}. Aplique Bord-C'antdli em . 11. A
93. P(lim in f A,) O. S<· o~ A, 's são indepcnde ntes então. 1 ia Bon:l-Cantclli. I ( lim 'up. \,
95.a. ( I -7i.r)". h. Usequc lin1 J
97.11Hi.
2u
99. ( )2" L: ( 2~·).
l· I •
I OI. O máximo para .r é l 2.
103. a. ~ ( [ ~] + '* .,]). sendo [o n maior inteiro contido. h. Para 11 I :W. 7 1:;, Passando a1•
limite, para 11 -+ 'X. , a solução apn:sentada em (a), obtemos também 7 11!).
105. o. 2ufi<i. O, !í n'" e n' O. Temos F(.r) = nd F'1(l:) + n "' F'" (.r) com
107. a. O, 33a:J. b. 0, :3071'. c. O. 91<7X.
109. a. Moeda equilibrada. P(Joiio ganhar) :2j:l. Com /'(car<J !1. I; P( João ganhar 10/ HJ.
;·E IR
F'"'(.r)
.r<3
11
I:! <2(.r-
.r < 3J· I .r> 3.5
3)
b. O, :11'1 c. C'akulc a~ probabilidades de vitcíria em cada caso. o j ogo não é cqui1alentL'.
111. a. 11 ;::: 12. b. :J/4.
378 Respostas: Capítulo 2 379
Apêndice B: Respostas de Exercícios

Seção 2.3 3. a. a+ x E lR para a e x reais. b. {w; -X(w)::; x} = {w; X(w) 2:: -x} = {w; X:(w) < -x_Y;
este último pertence a F. Escreva { w; X(w) < -x} como inters~cção infinita de co~Juntos do ~I~o
1. a. Para a Binomial use o Binômio de Newton e para a Geométrica a soma de PG infinita. Na {w; X(w) ::; -x- ~ }, n 2:: 1, que estão cada um em :F. c. Imedmto. d. Ver a soluçao do ExercicJO
verificação de soma 1 na Hipergeométrica, o seguinte resultado (ver Apêndice A) será usado : I na Seção 2.2.
r
5. Observe que o conjunto {w; [(w)]::; x} é igual a {w;X(w)::; [x]} unido com
E (';') (r~i) = ( m~n). Para Poisson, use a expansão em série de Taylor de eÁ.
{w; [x] ::; X(w) < [x] + 1}. Sendo X variável aleatória esses conjuntos estã~ em :F.
í=O
2. a. X"' Binomial (3, ~). b. , X o I 1 I 2 ~c. Temos um modelo "quase" 7. É variável aleatória pois todos os conjuntos estão em :F, conforme tabela abaixo:
. p(x) 5/9 . 15/36 . 1/36 . x x< O O< x< 1 1::;x<2 x2::2.
Geométrico (ver exercício 4 abaixo). Assim, p(x) = ~(~)x 1, x 2:: 1. d. A retirada da face sorteada {w;X(w)<x} 0 (ABYnC' AB!:::.C ABC
é equivalente a desprezá-la nos próximos sorteios ou, ainda, iniciar um jogo com 3 números pares e 9. Use que F(x ) = P(X < x). As respostas de (a), (b) e (c) são imediatas.
3 ímpares e fazer sorteios sem reposição. Assim, temos uma Hipergeométrica com parâmetros 11. a. F-x(x) = P( -X::; x) = P(X 2:: -x) = 1- P(X < -x) = 1- Fx( -x-).
(m = 3, n = 3, r= 3). b. F1x1(x) = P(IXI ::; x) = P( -x::; X ::; x) = Fx(x)- Fx(-x-). .
3. Y "'Binomial (n, 1- p) e conta o número de fracassos em n ensaios independentes. 13. Se X é simétrica ao redor de O temos, por definição P(X::; x) = P( -X::; x), 'ilx E lR. Assim,
4. Y não tem o valor zero. Corresponde a uma translação da Geométrica (aqui o sentido do "quase" Fx( -x) = P(X::; -x) = P( -X 2:: x) = 1 - P( -X< x) = 1- Fx(x-). Supomos agora que
mencionado acima). Temos p(x) = p(1- p)X- 1, x 2:: 1. Alguns autores definem o Modelo vale Fx( -x) = 1 - Fx(x-) e vamos provar a simetria de X. Temos para todo x E lR,
Geométrico dessa forma. Fx(-x) = 1- Fx( x-) = 1- P(X < x) = 1- P(-X > . -x) .= P(-X::; -x) = F-x(-x).
5.a. 32/243. b. 32/81. Portanto, X e -X têm a mesma distribuição e, assim, X é simétnca ao redor de O. _
6. a . (~)0, 23 0,8 17 b. Usando a amostra de 20 crianças, um critério seria a proximidade da proporção 15. Verifique facilmente as propriedades referentes aos limites. Para mostrar que é nao decrescente:
de imunizados da amostra com os 80% indicados pelo fabricante. seja x::; y, a:F(x) + (1 - a:)G(x) ::; a:F(y) + (_1- a:)G(y) pois F e G têm ess~ p~opriedade e os
7. a. 0,8647. b. 0,2857. coeficientes são não negativos. A continuidade à ilireita é demonstrada de modo smular. .
1
8. a. Não. b. Não. c. Sim. 17. Temos F(x) < ~ para x < ml> logo P(X 2:: mi) 2:: P(X > mr) 2:: 1- F(x) > 2· Assim,
9. a.0,8571. b. 0,1954. P(X 2:: mr) 2:: ~·Resta prova que P(X::; m 1 ) 2:: ~· Suponha por absurdo que.F(mr) < ~ e~tã~,
10. a. O, 8647. b. ~ 1. c. Binomial com n = 5 e p =O, 8647. pela continuidade à direita de F, existiria a> m 1 tal que F(a) < ~, o. que sena uma .contradiçao
pois m é o supremo desses números. Conclusão mi satisfaz as propnedades de mediana. Para a
Seção 2.4
segund~ parte, note que F(x) > ~ para x > m 2 e, assim, F(m2) 2:: ~· Se F(m2) > então, pela
4
continuidade à direita de F, existiria b < m 2 tal que F(b) > ~, o que seria uma contradição pois
1. a. a: = 2. b. a: = 3.
m 2 é o ínfimo desses números. Por outro lado, pela definição de ínfimo, F(m2- €) ::; ~e fazendo
2. a . O, 3114. b. O, 2835. c. i = 41, 59.
3. Imediato com o uso da função Gama. f lO vem P(X < m2) ::; ~· Portanto, P(X 2:: m2) 2:: ~·

f
4. a. Aplique integração por partes em 0"'xa-le-xdx para obter f( a:+ 1) = a:r(a:). b. Use 19. a. {w;X+(w)::; x} é igual a 0 se x <O e, para x >O, é igual a {w;X(w)::; x}. Ambos os
a: == n - 1 na expressão obtida em (a). Partindo do cálculo de r{1) obtenha o resultado desejado conjuntos estão em :F. Para x-a verificação é similar.
por indução. c. Considere a equação <I>( O) = 1/2 e faça a troca de variável t = x 2/2. O se x < O; { O se x < O;
b. Fx+(x) = { F(x) se x 2:: O. e Fx-(x) = 1 - F(-x-) se x 2:: O.
5. Verifique que é positiva e que a integral de a até infinito é 1. Use a função f( a:).
6. a. Imediato. b. Temos r(a)r(b) = Jtx•-le-xdxf0""yb-le-Ydy. Faça sucessivas substituições 21. a. c= 1 -a:. b. Temos c= (2 ± ,fi.)/2 e, assim, c~ O, 293 ou c~ 1, 707.
conforme indicado: (x, y) -+ (u2 , v2 ); (u, v) -+ (r sen li, r cos li); (r2, sen 2 ll)-+ (t, w). Não esqueça de 23. c= 2/3, P(A) = 1/4 e P(B) = 3/13.
incluir os Jacobianos em cada transformação. Conclua que f(a)r(b) = B(a, b) f(a + b). 25. a. X E JR X <0 0 ::; T < 3
7. O cálculo é simples, basta substituir o valor da densidade e da função de distribuição. F(x) O
8. a. O, 5- <I>( -2JJ/a). b. 1. c. <I>( -1) =O, 1587. d. 2[<1>(2)- <1>(1)] =O, 2718.
9. a. Com p = P(X 2:: O, 98), use Binomial (n = 3, p =O, 9772) para obter O, 9331. b. O, 998.!.
10. a. O, 0456. b. Nove dias sob controle e no décimo não: O, 0300. c. Geométrica com p = O, O.t5G.
27. a. Verifique as propriedades: lim F(x) -O, lim F(x) - 1; F é contínua à direita e basta checar
Seção 2.5
nos limites dos interv:~~oc de sua .rd~finição: F(O+) =!~F( O+ h) =O= F( O),
1. Considere o conjunto { w; X(w) ::; x }, 'ilx E R Se x < c ele será vazio. Se x 2:: c ele será í!. Logo F(l +) = limF(l +h)= l = F(l) e F(1+) = limF(1 +h)= 1 = F(1). F é não decrescente
X = c será variável aleatória em qualquer a-álgebra pois 0 e í! estão em todas elas. 2 h-O 2 8 2 11-0
pois as funções em cada intervalo de sua definição são claramente não decrescentes.
380 Apêndice B: Respostas de Exercícios Respostas: Capítulo 3 38/

b. 1
5. a. e } sao
E. . Também com um pouco de

c. - (t.
3I. ar---~.,--~~~~--~--~~~~r-~~~
xER
c. Cuidado com o valor de 1. Para outros valores de x·
8. 4;. 1/9. c ~c 11 se y 2;
33. a. ) 2a(a 2 - ''(a . b.O. F(.q se (I se -2 y -O;
35. a. X é do tipo mista. O gráfico é omitido. l 2,L {1 1. se y >O.
b. I X > 1) 1/h e P(X 4IX O) 1 -f . o. 9817 6. a. X ~Poi. Para y _ r. inteiro, .r) P(W y r), sendo
x)
r r-R r2: <
2 f'd(•·) +!f 0 (x) com
.i! f i .... X <.. ol > o J
e t- E [ 2 2 o > J J ~~~)I (y)
<x>
37. a. N-o~Ac~rtos é
39. a. P(X 3IX _
o
Btn -3,(, o
4/5 e P(X
L
+
1 _j F"'
(1- a)tl:-
3IX 1}
h.
u
1. c. Ele tem razão.
_t 'J I!. a.
u:(:1~ o o ~U-,<..qy:~ l
b. ) lF11 F'"(J)COm b. I c. /1o,2 ( ~ 110.2 (y)
r 111. o n ---=-~~- _ _ :• i _ j l y) é a expressão de uma Poisson(y). b. ·, y) ", ~O (inteiro) e
D_ _!___ J O, inteiro.

e [ n: i : x ~2T2'"'<.r. o o"-;";. T
F""( 1 - {-
-
A(_ t r t 2)" !!!.(
f 3
t :r 1) ~--1
L::.::: U
10. a. Temos F!J· y
se x < Oou y -: O;
se x O, O y "" 1;
4 I. Estude o quociente da aplicaçã• da função de probabilidade nos pontos x e ~ 1. Se \ n I IP se .> O. y > 1.
não for inteiro, o máximo ocorre em [ I)pl (maior inteiro contido). Se (n t 1)p for mte1ro h. X é a constante O, logo sua função de distribuição tem um salto no zero. c. } ~ U (0, 1) logo é
terno> dua.'> respostas: n 1 JP e {11 I) - L contínua. d. Não r \;c. y) induz probabilidade zero em todo~ os pontos de 2 rnao, tem
43. Do gráfico :r I' é o ponto de máximo. De modo analítico, resolva f' O e estude o sinal de discontinuidades.

Capítulo 3 Seção 3.3

.) F( :r .b.FaH- :r)-F(7).c.Se1 1
Seção 3.2

I. Aplique a propnedade (FC4).


~ f y~ -L _i</ I -- -------..=.:.~-
2. Calcule P( -1 < X 2
, -1 ) c verifique que ocorre um ab~urdo. d. A )Uestão •elevantc é avaliar f ( ; e F(x) Se X é contínua então elas são iguais para todo
3. a. ) ~I 1 c f (Y I (lJ). São independentes pois !x/r -f u . No caso discreto, poderia haver diferença se x fosse um valor assumido pela variável.
b. Pela independência é a própria h. c. Pela independência, Frx l FxFy. Logo 2. a. t'!nf \ l _ y) F(l1 1 (y)\. b. P. ~(X)< y) = 1- F([h (y): ).
<1.0 < 1 fl 3. h w PL\ 1 y P( X< VJi) F( JY) F(r Vu' ).
,, l
I, t~) e !1 !yl I ). Não independentes: h !1 f
383
Respostas: Capítulo 3
382 Apêndice 8: Respostas de Exercícios

4. Pela independência: P(2X + Y::; z) = f~oof!fx(x)fv(y)dxdy. Um caminho é resolver a


17. px,v(x,y) = (;)Ori. x = 1, 2 e y::; x,y E .N. py(y) =H[ G) +(!)].v= o, 1, 2.
integral e depois derivar. Outro. mais simples é reescrever a integral na forma: f 00 h(u) du. A 19. a. f(y) = 2e- 2lii-•)J(a,oo)(Y)· b. O, 1192.
1
2
21. f(y) = ~e-!O•ull)' Ico,oo)(y).
densidade será e-fD
. ~Ts·
23. a. Omitida. b. 1/2.
S. Note que X e kY também são independentes e a densidade de kY é -9;-e-~b,y O. Use a 25. a. Omitida. b. fx(x) = 2(1 - x) I(o,J)(x), fy(y) = 2y I(o,J)(y).
expressão da densidade da diferença de variáveis para obter k;:~~' e->.,w, w >O. Para completar a 27. a. Omitida. b. Não são independentes: fx(x) = ~ Ico,2)(x), fy(y) = (y- ~ )I(o,2)(y), ·
demonstração, calcule P(X- kl' >O) = J0 fx-kv(w) dw.
00
29. ]>}·(y) = 1/(n + 1), n = O, 1, ·· ·.
6. fx-v(w) = ~e-w I[o,oo)(w) + ~ewi(-oo,oj(w). 31. a. fx(x) = 4x(1- x 2)Ico,1J(x), fy(y) = 4y3 I(o,l)(y). b. 25/81.
7. a. !X+v(z) = z 2Ico, 1)(z) + z(2- z)I[1,2 j(z). b. 2/3. c. 1/8. 33. Marginal de Y: fy(y) = y I(o,!J(Y) + (2 - y)J( 1,2J(y). Condicional de X dado Y:
8. a. São independentes. X~ N(O, 27!") e Y ~ Exp(1). b. Calcule primeiro Fx+YIY=y(wjy) e, então Jx 1v(xjy) = ~ I(o,11)(x) l(o,1J(Y) + RI<11-1,1J(x}I(1,2J(y).
obtenha fX+YIY=y(wjy). Logo, 35. a. Fy(y) = (1 - e-211 ) I[2,oo]·
1 ~ b. O:d = 1 - e-4 , O:ac = e-4 e a:,= O. Temos Fy(y) = a:dFd(y) + O:acF"c(y) com
!Y,X+Y(y,w) = fX+Y[Y=y(wjy)fy(y) = 2ie-ue- •• I(-oo,oo)(w)Ico,oo)(Y)·
9. Sejam Z = X + Y e W = X /Y. Via Jacobiano vem fz;w(z, w) = ~~:;;; I(o,oo)(z)I(o,oc)(w). I yEIR
~(y)
I y<2
o
I y?:21 e
1
yEIR
F'"(y )
y<2
o
y?:2 .
Obtenha as marginais: fz(z) = >. 2 z e->.z I(o,oo)(z) e fw(w) = (w~ 1 )2I(o,oo){w).
37. a. y E IR y <O O~ y <2
10. a. Lembrar que X é contínua. Fl"(y) = Fx ( JY) - Fx ( - JY). Derive aplicando a regra da Fl"(y) O , ! + l(11- 2) 1
cadeia e obtenha a densidade da Qui·quadrado com I gl: fy(y) = *~e-!11. b. Faça a partição b. P(Y < 3\Y ~ 2) = 1/4 e P(Y::; 3\Y > 2) = 1.
- O Temos Fl"(y) - a: 1F'1(y) + O:nrF"'(y) com
c. 0:d = 3/8'O:ac = 5/8 e a:,-
< Oe x
(
de domínio em x ~ O. Proceda como no Exemplo 3.30.
yER. y<3 y?:3 Ie I 11 E IR y<O o.::y < 2 1 2<11<3 I y >3 I

I
I

Seção 3.4 I ~(y) o I 1 :I


1 < w < 3/2
F"'(11) I
3/2 < w < 2
o i5
w?: 2 J.
I ~ + i<Y- 2) I 1 I
39. a. j wElR I w<l 1 1

1. Precisamos mostrar que [min(X, Y) ::; t] e [max(X, Y) ::; t] pertencem a :F, 'v't E R Para o I Fw(Y) I - o I ~ I !f 1 I
mm1mo trabalhe com [min(X, Y) > t] = [X> t] n [Y > t]. Para máximo use que
[max(X, Y) ::; t] = [X::; t] n [Y::; t].
3. Note que Ai = {w: IA.( w) = 1}. Verifique o resultado para a intersecção dos A;·, e correspondente
intersecção dos [IA;s = 1]. Os outros casos seguem similarmente.
S. a. Fx.v(x,y) = P[X::; x,h(X)::; y)] = P(X::; x,X::; h- 1 (y)) = min{Fx(x) , Fx(h- 1 (y)}
= min{Fx(x) ,Fh(X)(y)}. b. Fx,v(x,y) = P[X::; x,h(X)::; y)J = P(X::; x,X ~ h 1 (y))
Temos dois casos a considerar. Se .r::; h - 1 (y) então a probabilidade é zero. Se x > h 1 (y) então a
probabilidade é igual a Fx(x)- Fx{[(h- 1 (y)] } = Fx(x)- (1- F11 (x)(y)). Daí segue o
41. a. fy,.l" (y1 , y2 ) = 2>. 2 e >.(y,+y,) Ico,11,j(yt)I(o,oc)(Y2)· b. h;-v,[Y, (w) =
2
>.e->.w Ico,oo)(w).
resultado.
7. Note que P(X::; x) = P(X::; x, Y::; y) + P(X::; x, Y > y). Desenvolvendo obtenha que
43. Conjunta: Ju,v(u, v)= ~e-l!!P 1(-u,u)(v)I(o,oo)(u ). As margi~ais são as seguintes:
Fx.v(x, y) ~ Fx(x) + h(y)- 1. Por outro lado, Fx,v(x, y) ::; Fx(x ) e também fu(u) = e-~ (1 _ e-~)l(o,oo)( u) e fv( v) = Se''Ic-oo,o)(v) + Se-;''I[o,oo)(v). Não são
Fu (x, y)::; Fv(y). Daí Fx.v(x, y)::; JFx(x)F)-(y). independentes.
9. , Y_ E lit I y < o Io < y < 1 11 < y ;: 21 y> 2 ,. 45. fw,,w,(w 1 ,w2 ) = 4wlw2l[o,1J(wl)I[o,1](w2)·
2 1 (11)
. h·(y) . O . <.
2
. 3c • . 1 . 47. Conjunta: Ju,v(u, y) = ~ o' e- l!!:t!ll
• (0,1) (u )I(o,oo) (Y) . M argma1s:
. . ~" ( )
JU u = (ii+I)2 (0,1)
e

li. a. I
7
I 1}32 I ;;;2 I 25~32 I 1;;2 1· Jy(y) = !e-~ (1- e-!)I(o.oo)(y). Não são independentes.
a
49.a. Jw,z(w,z)=FA(w,z),A= {(
w,z; ) w+· 1,- 1 <z-w
-1 <'"2"< 2 < 1}·
b. 2 < y < 5/2 5/2 < y < 3 3 < y < 7/2 2
O
Fl"(y) 1/32 3/16 31/32
b. fw(w) = 2
1w
I(-2,o)(w) + 4"'I(o,2)(w) i
1
13. X e X Y têm a mesma distribuição: -1 e 1 com probabilidade 1/2. A conjunta (X,XY) tem /z[w(z\w) = 2 c2 ~w/C-2-w,2+w)(z) + 2(2-w/H+w,2-wj(z).
probabilidade 1/4 em cada um dos pares possíveis. Então X e XY são independentes.
1S. p/2- p.
384 Apêndtce B. Respostas dt E. -rt n wu Respostas: Capítulo 4

Assim.
51. Sejam['
r E
(ú)
li< fu
.\

-
1 e\
, ou u , 2
Õ -
IX.
1
D~

1 b1._ /
conjunta
•< o f
~
I)
f , (1•
u
:ln.l
< ,
,)
"" 11
+-=•[in(u) _T",2)'
I
?
11 )/ '' vem a ma1~ 11

E(X;
I

l:)P(X k)
k-0
53. Via Jacobiano, obtemos a conjunta abaixo e daí segue a verificação dos itens (a), (b) e (c).
n_ll(" "')
fu (w.t) [ w' (1-wJ' 1
/ (u•'"( t' 1
r 11
/ 11 10] TTIIL I
1 j r· I J
(~ !-)- 1l
7!
55. a. Use o método do Jacobiano com separação de domínio. Como as variáveis são contí lUa~.
independente' e identicamente distribuídas. vem fx x. x (.r., r 2 , ,) f(xJ)f< 2 )/\ <om
2. A variável IA as;ume os valores 1 e O com probabilidade P(A) e 1 - P(A), respectivamente. Daí.
a b. i - 1. 2, 3 c todos o~ .r diferentes. Entretanto, a transformação com as estatística; de
ordem não é bijetora. Por exemplo, com valores hipotéticos, se (Y1 } 1' (O, 1. 2), a amoM a o resultado segue.
poderia ter sido (X 1 X2. X ) (0. 2,1) ou. ainda, (X1 , X 2 , X 3 ) = (2, O, 1) ou · · . Portanto. pma 3. O quadrado tem área 1 e a região A corresponde a um círculo de raio 1/3. Logo
obter bijeção, precisamos particionar o domínio em conjuntos s.,J.< definidos por: E(A) P(A) Tr/9.
4. A variável X é discreta com ___:X~+:-,.;2;;.-~0::,.--i-1-;;:;--i2iln_e E(X)
s,J.~ {'tt.,J;}. l~;tl .r 2· 1 r; • b, todos diferentes}. p(x) 1 2 1/8 2/8 1/8
Por exemplo. para 82 1 temos a transformação: Y1 d·?, .ll• J' • Existem :l! (i de 5. A variável X é mista. Temo> E( X; - J; ~ d:r 2 >( ~
conjuntos, cujos correspondentes Jacobianos são iguais a 1 ou Daí o resultado segue, t.tzcndt a 6. X~ Gama( a, f]), temos
soma da> aplicações da transformação em cada subconjunto da partição.
"
h. n! TI!
E(XJ r v
r(o)
d:r
1
ir(o) lo
r J
f(a 1)
'T(n \
(} ' J.

i- 1
I (y 1 .... y lo
,, ~ 7.Par~X ~ Weibu//( n,A) calculeE(X) ft;xo>..r" 1
c d:r À f(1 ~';).
57. a. P(1í t) P (X 1 t, X t ... • "\, f) TIP(.\ t'' ' > }' "
~Exp(L,>..
o >
i-1
(
'
f I 8. A variável X é mi,ta. Temos E( X ) t\x( --) dx 1. J;x( ) d.c + 2 ~
min(X 1•• ·,X,) X,' min(X . . . X Note que essas duas variáveis ,;,o 9. Passe ao limite para obter as funções de distribuição marginais. Fx( ) = lim F( a·. y) e
ii-k
independentes. U~e a expressão da diferença para achar a densidade de Fl ,:r lim F( :r, y). Obtemos X e Y identicamente distribuídas seguindo o modelo U, (O, 1;
X k .min (:Y· · · Xn ). Integre na região ; oc, O) para obter a probabilidade de intere,,e. c. E(Y) 1/2.
1/k Logo, E(X)
10. Sendo E([X) a esperança de X existe. Como X é simétrica e contínua temos:
P(},. TI (1-c ').
P(X o ·1 P(X < a ·E =>;(a f(o-a·,
59. /J .1/; y 1.
Assim,
61. 2c l1rn

Capítulo4
E( X 1 :r j(l') r/r l X f(:r) d:r +1o:x. .r f(:<') dr

Seção 4.2 -1°(a-y)f(a-y)dy+


~ h
r (. . . njf(y~a)dy
I. X ~ Hgeo(lll. "· ,., Vamos w.ar a~ seguintes igualdades combinatória': 1 (a-ylf(y+a)dy. [''cu a;J(y+a)dy

IH
171 1) c 1l
11
1)
1 . ar~ f(y+a)dy ar"f(ll+a)dy
( k-1 ( I
~
Note que (, ) O se k O ou k , 1. Para facilitar a demonstração, com.ideramos o valor de /,
entre O e 7", desprezando os termo> que serão zerado!>. Enfatizamos que os valorc!> de k rs• .. n
aj" -0<.
f(z)d· al Q
J:ll•)dw

efetivamentl! entre max(O. r (11 - 111)) e min( r, 111 ). =a.


'
~
386 Apêndice B: Respostas de Exercícios Respostas: Capítulo 4
387
f

•• Seção4.3
Oe lXI, segue pela Proposição 4.4 que o valor esperado de ambas é finito. Logo E( X ) é finito por
definição.

• 1. Temos, para cada j


k
UA; n B j. Também, para cada i= 1, 2 ' ... '
= 1,2, . ··, B j = i=l A·= Ú B · nA
~ 1
5. Temos IE(X)I = [E(X+)- E(X)-] ~ E(X+) +E(X)- = E(IXI).
6. Como o ~ lXI ~ Y em f!, segue pela Proposição 4.4 que E(IXI) < oo. Pelo Exercício 4 acima

'
t J .
vem que E( X) < oo .

• Logo, como são uniões de conjuntos disjuntos, P(Bj) = tP( A; n Bi ) e P(A;) = tP(
•-1 }=I
Seção 4.4

• BJ n A; ) . Conseqüentemente
f-
1. a. UseTeorema4.5. E(X ) = J~[1- Ct + fu + ~~~)]dx- 2 to(x+2)dx = 41/20.

• r
f;YJP(BJ ) =
r k k
~Yi~P(A;n BJ) e ~x;P(A;) = ~x;~P( BJnA; ).
k r b. Use Teorema 4.7. Por derivação obtemos f(x) = toi(-2,o)(x) + (to+ ~;5 )J(o,s)(x). Então
E(X 2 ) = f~2 x2to dx + f;x 2 ( to+ f;;;)
dx = 491/60 .
'• Note que, para todo i e j, temos o resultado:
x;P(A; n BJ ) = Yi P( A; n BJ)·
c. Via definição, seja W = X 2 • Temos Fw(w) = F( .jW} -F(- y'w) (F é contínua).
Derivando e fazendo o cálculo para E(W) obtemos o mesmo valor de (b). Atenção com os
valores para w, que precisam ser repartidos em intervalos w < O, O ~ w < 4, 4 ~ w < 25 e
I
w > 25.


I
Pois se A; n Bi = 0 o resultado é imediato. Se A;
em que w E A; n B j.
Então
n BJ # 0, precisamos ter a· = b·- X(w )
I J
2. Temo-;; f(x, y) = !(x + y)J(o,2)(x)I(o,t)(Y)· Então pelo Teorema 4.7:
E( X + Y- 2XY) = J; J;(x + y- 2xy)i(x + y) dxdy = 4/9 .
3. Seja X ; = 1 ou O se a i-ésima carta foi colocada no envelope correto ou não, respectivamente.
Assim, P(X; = 1) = ~,\fi= 1, 2, .. ·, n. Então E;( X;)= ~· Seja X o número de cartas que foram
• k r
:Ex;P(A;) = LYi P(Bj), colocadas nos envelopes corretos. Temos X = X 1 + X2 + · · · + Xn e, portanto, E( X) = 1.

• i=l j=l 4. a. X simétrica ao redor do zero pois f(x) =f( -x) (ver solução do Exercício 4.2.10) .
b. E( X)= O. c. E( ex)= f~00 tf' (!~~~~)2dx = oo (use integração por partes).

I
e o valor de E( X ) não depende da representação.
2. Con~deran~o as várias possibili~ades de sinal de X e Y em pontos de f!, temos x+ > y~ e
X .~ Y em f!. Pela Propos1ção 4.4, E(X+) 2:: E(Y+) e E(X-) ~ E(Y-). Se E(X+) = oc
5. Temos E[(X- d) 2J = E(X 2) - 2dE(X) + d 2, que é uma função quadrática de d. Via derivação
obtemos o ponto de mínimo em d =E( X).
(assim, E(X) = oo) ou se E(Y-) = oo (assim, E(Y) = -oo), o resultado é imediato. Se não for 6. Não são verdadeiras as afirmações. a Tome X ~ Uc(1,2) então para 1/X temos F(z) = 2 - (D.
í esse o caso, de novo pela Proposição 4.4, E(X+), E(Y+), E(X- ) e E(Y-) são todas finitas e 1< W < 2 e f(z) = z- 2 , ~ < z < 1. Logo E(t) = -ln ~ ,que é diferente de E( X)=~-
va1e b. E( ~) = E(X)E( ~) #E( X) E(\-) a menos que E( X) = O ou Y = oo em f!. Para um contra-

!I
exemplo tome X~ Uc(O, 2) e Y ~ Uc(1, 2) independentes. Obtemos E(~) = In 2, enquanto

11
e o resultado está verificado.
3. Mostremos para n = 2. Temos
E(X)
que E(Y) = ã·
*
2

7. a. Calcule P( ~ z) separadamente para z < O, O ~ z < 1 e z 2: 1. Derive e obtenha a densidade


Uniforme Contínua em (0, 1).) Assim, E(~) = ~· b. E(~) = 0"" J: ~e-xdydx.
J
• (X+ Yt = ~ [IX +YI + ~ +Y)] ~ ~ [lXI + IY +X+ Y] =X+ +Y+ . 8. Temos a seguinte implicação de eventos [X 2:: a]=> [g(X) 2:: b], logo por Chebyshev velll
P(X 2: a)~ P(g(X) 2:: b) ~ E!9~ll.
"
~
Pela Proposição 4.4:
E( X + Y t ~ E( X+ + y +) = E( X+ ) + E(Y+ ) < oc .
9. P(IXI 2:: c) ~ P(g(IXI) 2:: g(c)) ~ El1i~I)J = Elg[~ll, pois g(IXI) = g(X) para funçao par.
n oc
10. Sejam r ";. = LX; e y = LX;. Temos 1';, 2:: O, r ';, ty e pelo Teorema da Convergência


il
De modo similar E( X+ Y )- < oo.
Use que (X + Yt + x- + y- = (X + Y)- + x+ + Y . De novo pela Proposição 4.4 vem Monótona,
i=1

lim
n-+oc
í=l

E(Y,, )= E( lim 1~.) =>


n-oc.
lim
n--+oo
E(Ex;) = E(Ex;)
i=l i=l
=} lim EE(X;) =
n-oo i=l

E[(X + YtJ - E[(X + Y)- = [E( X+)- E(Xn + [E(Y+)- E(Y- )];
E(f:x;) => f;E(X; )= E(Exi)·
-
iil e o resultado vale. O caso geral segue por indução.
4. Se E(X) < oc então E(X+) < oo .e E(X-) < oo. C orno lXI = x+ +X - , segue pela Propos1çao · -
t=l t=l t=l

• 4.4 que E( lXI) < 00. Para a outra Implicação, considere E( lXI) < oc. Como x+ ex- estão entre

'• 388 Apêndice B: Respostas de Exercícios Respostas: Capítulo 5 389



I
Seção4.5

1. 3.
Capítulo 5

Seção5.2.

•I 3. E( X ) = r(l;r).
5. 5/3.
7. a. Via densidade conjunta f(x, y), E( X + Y) = I~00 (x + y)f(x, y) dx dy = 1. Via marginais,
1. a. Do Capítulo 4, E(X) = (1- p)fp. Aplicando duas vezes a operação de troca entre derivação e
soma obtemos E(X2 ) = [(1- p)(2- p)]/r . Daí segue Var(X ) = (1 - p)/r.
b. A média foi obtida no Capítulo 4 e temos E(X) = z:;;r. É mais fácil calcular E(X(X -1)) e,


I
calcule E( X) e E(Y) e faça a soma delas. b. O.
9. Se E( lXI) = ao então E( IX - ai) = ao e o resultado vale trivialmente. Para E( lXI) < ao, separe
em casos a > m e a < m. Estude as posições relativas de X , a e m . Para a > m, temos que
então, obter a variância. Temos E(X(X -1)) =r( r -1)';:/~N· Assim,

(I X - ai - IX- mi) = m - a em [X $ m] e (IX - ai- IX- mi) 2: -(m - a) em [X > m]. Var( X)= E(X(X - 1)) + E( X) - E2(X ) = rm (n- m)(n- r).
n n(n -1)
• Conclua que E{( IX- ai-IX- ml)} 2: O, usando a definição de mediana. O caso a < m é
similar. Se a = m, o resultado é imediato.
c. Sendo X ~ Ganw(a:, /3), seu valor esperado é E(X) = a//3. (ver Exercício 7 na seção 4.2-
11. Use que [X > O] = U[X 2: ~]
n=l
e, portanto, pela monotonicidade desses conjuntos e pela Capítulo 4). Via integral vem E(X 2 ) = a(ptl J e, então, Var(X) = E(X 2 ) - &(X)= a/{32 •
continuidade da probabilidade P(X >O) = lim P(X 2: 1 ). Use Chebyshev para mostrar que d. Para Weibull: f(x) = >..o.x<>-le-.l.x", x > O. Via integral, com a conveniente troca de variáveis
(t)~r(1 + ~).
n-oo n
P( X 2: ~) = O. Logo, toda massa de probabilidade de X precisa estar em O.
x" = y e depois >..y = z obtenha E(X) = De modo similar,

13. E(X) = C oox dF(x) =I:- xdF(x ) $ bi:- dF(x) = b. De modo análogo, para f> O, E(X 2
) = (l}•r(1
1 +~ ). Então Var(X) = (l} ;;' [ r(1 + ~) - r 2 (1 + ~)] .
I:- xdF(x ) 2: (a- !)J:-
dF(x) = a - f. Como f pode ser arbitrariamente pequeno, o resultado 2. E(x k) = (k+l)(b-aJ
b'+1-a>+ 1 E -
. ntao Var
(X) = (b-a) 2 ·
12
segue. 3. E( X) = p,, Var( X) = 2/ >.. 2 •
15. Sendo X o número de jogadas até acabar e q = 1 - p , E(X ) = r+Ki~jl + l'f~~l.
2
4. Para o cálculo da covariância, obtemos E(X) = 15/8; E(Y) = 25/8 e E(XY) = 25/4. Assim,
17. E(X) = O,E(Y) = 1- 2p e E(XY) = O. Não são independentes, por exemplo: Cov(X, Y) = E(XY) - E(X)E(Y) = 25/64. Para o cálculo da correlação, precisamos obter
p(1, 1) =O f px(1)py(1) = p(1 - 2p). Var( X) e Var(Y). Temos Var( X)= 55/64; Var(Y) = 55/64 e, então, p(X, Y) = 5/11.
19 (Ào+.l.,)'->.,>.,
' -'o.l.,(.l.o+.l.,) • 5. Var[(X1 + X2)Xa] = 6.
21. E( X) = A/2, E(Y) = 3>../2 e E(XY ) = 2>.. 2 • 6. Aplique Cauchy-Schwarz com Y = 1 e X = Z~ para concluir o resultado.
23. E(W) = 1/4. 7. Para o cálculo da covariância, obtemos E( X)= 1/3; E(Y) = 2/3 e E(X Y ) = 1/4.Assim,
25. E(X) = O, E(Y) = 4/3 e E(XY) = O. Vale E(XY) = E(X)E(Y) mas X e Y não são Cov(X, Y) = E(XY)- E(X)E(Y) = 1/36. Para o cálculo da correlação, precisamos obter
independentes. Var( X) e Var(Y). Temos Var( X)= 1/18; Var(Y) = 1/18 e, então, p(X, Y) = 1/2. Não são
27. a. Via densidade conjunta, E[(X 2 + y2)] = J0 Jt(x 2 + y2 ) 2 dxdy = 2/3. Via marginais,
1
independentes.
obtenha E(X 2 ) = 1/ 6 e E(Y2 ) = 1/2 e faça a soma delas. b. E(X) = 1/3, E(Y) = 2/3 e 8. Desenvolva o quadrado, aplique propriedades da esperança e use que as médias são iguais.
E(XY) = 1/4. Assim, E(XY ) f E(X)E(Y). 9. Se p(X, Y) = Oentão a expressão da densidade da Normal Bivariada fatora em duas Normais
29.E[min(X, Y)] = 1/3eE[max(X, Y)] = 2/3. (univariadas). Por outro lado se X e Y são indepedntes então covariância é zero e
31. a. E(XY) = 5. b. a= -1/2. conseqüentemente p(X, Y) = O.
33. Sendo Xn a posição após a n-ésima etapa: E(Xn) = n [ap- b(1- p)]. 10. Seja A = [l X I $ t] e escreva X 2 = X 2 IA + X 2h . Portanto, X 2 $ t 2h+ M 2 IA'· Aplique
35. Se Yn = inf Xk então E(Y,, ) $E( inf Xk )· Use o Teorema da Convergência Monótona em 1~,. esperança dos dois lados da desigualdade. Lembre que O < t < 1 e M 2 2: 1 = E(X 2 ) logo
k >n k>n M 2 - t 2 > O. Daí segue o resultado.
r(n)r(!+l) - -
37
• rU+nl 11. Para O < s < t vale lXI' $ 1 + IXI 1• Aplique esperança dos dois lados.
39. a. E( X )= 19/20. b. E(Bônus) = 31b/20.
Seção5.3

1. Use Teorema 4.7 para escrever E(XIY = y) = I~00 (ax + b) dF(xiY = y). Aplique as
propriedades da integral para concluir.
2. Via propriedade básica da esperança condicional: E( X ) = 1 + p.
3. E(XIY = y) = CxxdF(xiY = y) = f:'ocxdF(x) pela independência. Logo E(XIY) = E( X).
4. E(XY ) = E[YE(XIY)] = E[Y(aY + b)] = aE(y2) + bE(Y).
Respostas: Capítulo 5 391
390 Apêndice B: Respostas de Exercfcios

'
5. Calcule as densidades condicionais. Então "
a. Poisson(E>..;). " p). c. BN(n, p).
b. B(En;,
E(XIY = y) = J:C,xf(xiY = y) dx = 3~2:!vl) => E(XjY) = a{2VJ1) · De modo similar
i=l i=l
10. Use a Proposição 5.12 em todos os itens.
.

E(YjX) = 3 &-+J:
1) ·
n n n
I 6. Contra exemplo. Tome X discreta qualquer e Y = 1 (constante com probabilidade 1). Elas são
a. Gama(Ea;,fJ). b. N(Ep.;, Eu!).
i=l â=l i=l
independentes e E(XjY) =E( X). Seja W = Y + 1. A variável W é constante igual a 2 e

'•
I
E(XjW) =E( X). Entretanto, E(XjY) + E(Xj1) =E( X)+ E( X)= 2E(X).
=
.
7. Da conjunta obtemos fy(y) 4ye-211Jco,oc)(Y) e fxJY(xjy) = Fco,11)(x). Segue que E(2XjY) = Y
e E(X 2 jY) = Y 2/3. Pelas propriedades, E(YjY = y) = y e então E[E(YjY)] = E(Y) = 1.
Seção5.5

1. 1/Jx(t) = E(e 11 x) = Eeitz P(X = x) = eitc P(X =c)= eitc.


8. E(X!Y = y) = Ex P(X = xjY = y) = E xP(!(;~)vJ · "
E(eitX) = E[cos(tX)] + iE[sen(tX)] = E[cos(tX)]- iE[sen(tX)}. Lembrando que
Z X 2. 1/Jx(t) =

' Então E[E(XIY)] = EE(X!Y = y)P(Y = y) = EE x


11
= EExP(X = x, Y = y) = ExP(X = x) = E(X).
" %
P(;(;~)") = cos(tX) = cos( -tX) e sen( -tX) = -sen(tX) vem:
1/Jx(t) = E[cos( -tX)] + iE[sen( - tX)J = 1/Jx( -t).
3. X e -X têm a mesma distribuição. Assim 1/Jx(t) = 1/J-x(t). Temos
r y r
1/J-x(t) = E(eit(-XJ) = E(ei(-tlX) = 1/Jx( -t) = 1/Jx(t) (exercício anterior). Se um número
9. E[Var(XjY)] + Var[E(XjY)] = E[E(X2jY)- E 2 (XjY)] + E[~(XjY)]- ~[E(XjY)]. Vale o
2 complexo é igual ao seu conjugado então sua parte complexa é zero. Ou seja, é um número real.
resultado pois os termos centrais se cancelam, o primeiro é igual a E(X2 ) e o último E (X).
Suponha agora que 1/Jx(t) é real. O mesmo cálculo acima mostra que ela é igual a 1/J-x(t). Logo
lO. a. Para x E (0, 2), E(YjX = x) = ~_:-;: e Var(YjX = x) = ~~ir,· X e -X têm a mesma distribuição e então X é simétrica ao redor do zero.
b. De fy(y) = 9Ic2,4J(Y) obtemos E(Y) =~· Por outro lado 4. 1/Jx(t) = l-(l~p)êll " Tomando as derivadas convenientes vem E( X) = e Var( X)= !::,! 7·
E[E(YIX)] = J;E(YjX = x)fx(x)dx = J;~..:-i: 3"4"' dx = ~· 5. Sendo Xi "' Bemoulli(p) temos 1/>x;(t) = 1- p + pei1, Vj. Seja Y = X1 + X2 + · · · + Xn então,
c. Para x E (0, 2), E(XYjX = x) = xE(YjX = x) = ~..:-:'. pela independência, I/Jy(t) =fi 1/Jx,(t) = (1- p + pe 11
)" indicando queY "'B(n,p).
j=l
Seção5.4 6.1/Jx(t) = f-ooeUz~e"dx + 0 eit"'le-"'dx = ··· = -d;r·
J 00

7. a. I/Jx-v(t) = E(eit(X-YJ) = E(eilXe-ilY) = E(eilX)E(e-itY) = 1/>x(t)I/Jy( -t) = Á~il Á~t· Em que


1. Mv(t) = ebt Mx(at).
usamos a independência e a expressão da função característica da Exponencial. Então
2. a. X"' Geo(p), Mx(t) = '!:.,v b. X"' Gama(a,fJ), Mx(t) = (~) a' t > fl.
1_( 1 1/Jx-v(t) = ~ que é real e, portanto, pelo Exercício 3 acima, X- Y é simétrica.
3. X "'Laplace(>..,p.), Mx(t) = 1_-;fJ' · Por derivação vem E( X) = fL e Var( X) = ÍI· b. Essa é a função característica do modelo Laplace com p. = O e>.. (ver Exercício 3 da Seção 5.4
4. Seja X Cauchy Padrão. Para t > O, temos com o cálculo da função geradora de momentos).
Mx(t) = J~00 e " ~ dx > ~/0 elr (H~r2) dx > ~J0 tx (IJr•) dx (pois e" > x para x > 0).
1 00 00
8. 1/Jx(t) = •"';;r;• - 1+(2~~ll•'"'. Para calcular 1/Jx(O) é preciso aplicar a regra de L'Ho~pital .•

I Mas essa última integral é igual a: ~J0x (t!:'J dx = i; h


idy = -{; J~r:!,log y = oo. Para t < O.
9. Seja y =XI + x2 + ... + Xn então, pela independência, 1/Jy(t) = n1/>x;(t) =eii"EI'i-~E~>~
n

j=l
J-l J-l • Jogo
use os limites -oo e O na integral e obtenha novamente que Mx(t) = oo. Pela definição de função
geradora de momentos, concluímos que Mx(t) só existe em t =O. a soma é N( ÊfL;, ÊuJ).
5. Mx-zv(t) = ..,;; . Então por derivação vem E( X- 2Y) = O e Var( X- 2Y) = ÍI· j=l j=l
1
6. U = X- Y "'N(O, 2), logo para W = W vem Mw(t) = .i-' efti''-li;-Jie -
2 f du = C ~21 ) ! , 10. Usando Exercício 4 da Seção 5.4 vem 1/Jx>(t) = ( 1 _~ 1 ) ' . A variável X 2 é Qui-quadrado com I
• !·
t < A vari~vel W é Qui-quadrado com I grau de liberdade.
00
grau de liberdade. Como forma alternativa, pode-se desenvolver a integral de modo similar ao que
foi feito no exercício mencionado. Nesse caso, assumimos, de modo informal, que i é uma
f 7. a. Mv.,v,(tJ, t2) = E(elít,H2t') = E(e(X,+X,Jt,+CX:+X1Jt, ) = E(eX•'•+X:t•) E(ex,t,+Xjt'). constante (real).
Como as variáveis X 1 e X 2 têm a mesma distribuição basta calcular um dos termos acima. Via
• • X X'
mtegral, obtemos E(e •1•+ •'') = ~. -oo
f•'f2(1-2l,)J
(l-2t,)!
< t 1 < oo, -oo < t 2 < 2I , e o resultado segue Seção5.6

'
I
elevando-se ao quadrado essa quantidade.
b. Temos Cov(Yh Y2) =O e, portanto, p(Y11 Y2 ) =O.
I
1. E(U) = O, E(V) = O e E(UV) =O. Logo Cov(U, V) = O e, portanto, Pu. v =O.
3. E(Sn) = (n- 1)#, Var(Sn) = (n- 1)#(1 - p)[1 + (n + l)p}.
8. Mxv(t) = (~) ' , -1 < t < 1. 5. Var(X) = E(X2 ) - ~(X)= O. Logo E[(X- a) ] =O. Mas (X- a) ~ O e pelo Exercício 11
2 2

~
• 9. Use a Proposição 5.12 em todos os itens. da seção 4.5, temos X = a.

•i
I
392 Apêndice B: Respostas de Exercícios Respostas: Capítulo 6 393

7. PX.Y = -0, 8.
9. Cov(X, Y) = I 6/225. As variáveis não são independentes.
1/iv(t) = I+~
63. a. </>u(t) = ( )-2n
. b. f/iu.v(t" t2) = (I +(~) 2) -n ( I +(~) 2) -n .
11. a. A independência implica que não são correlacionados. Para a outra implicação, impomos c. Cov(U.V) = O. Não são independentes.
covariância igual a zero e obtemos que P( X =I, Y =I)= pq. Daí segue que a conjunta (para
todos os valores) é fatorada pelo produto das marginais. Capítulo 6
13.1/ 36.
Seção 6.2
15. P(IX -~JI <f)~ <f)~ I- B(nn~~, 2 • Para n = 4, ll' e X tem o mesmo
I -.;;;, e P(IW -~JI
limite inferior. Para qualquer outro valor n > 2 e n -f 4, W terá limite mais baixo e, portanto, é 1. a. Mostre que, para f> O, P(IYnl >f)= (1- f)" e daí conclua.
pior estimador. b. Para f > O, obtenha P(IWn- l i ~f)= I n e passe ao limite.
17· a. E(xly) -- 4+9Y
6(1+31") •
b V. (XIY) -
• ar -
(1+2Y)
2(1+3Y) -
( 4+9Y ) 2
6(1+3Y) •
c. Vx E .IR, P(U,. ~ x) = P(Yn ~ xfn) = 1 - (I - ;J" ..
-::::;-&,I - e-x, que é a função de
distribuição da exponencial de parâmetro 1.
2
19• a • E(XIY -- y) -- (l-y)( +y) ·
3(l+y) b • E(XYIY -- y) -- Y l-u
2
< +u> · c •
3 l+y) Var(XIY -- l)
2 -- 89/I296 . d.Comoem(c), P(Vn ~ x) = P(n(I- Wn) ~ x) = 1 -P(Wn > I -;)= 1 - (I-;)".
21. a. E(XIY) = ~· b. Var(XIY) = fs· 2. Defina, para qualquer f > O, An = { w : IXn I < f}.
Por hipótese P( lim An) = 1, logo P ( lim sup A.. ) = 1 e também P( lim sup .4:;) = O. Os An's
23. E(XIY) = I - ,v_.:.-_'; e E(YIX ) = X + 1. n~oo

25. Px.z = O. As variáveis X e Z não são independentes. são independentes e pela 2a. parte do Lema de Borei-Cantelli (a negativa da tese implica a negativa
00 00
27. ad3. da hipótese), temos EP(A:;) = EP(IXnl ~f)< oo.
29. Temos XIS~ B(s,"'~",). Então E(XIS) = x~~l, e Var(XI S) = (:,~~~>,. n=l n=l

31. E(Y) = ~ e Var(Y ) = n(~; > · 2


3. Temos E( X .. )= Oe Var(Xn) = 1. Assim, E(!f:x.. ) = Oe Var( ~tx.. ) = 1/n.
ni=l i=l
33. Aproveite alguns cálculos do exercício 13 acima. Determine E(WI Z = z) usando a respectiva
condicional. n Vat{~f:x.)
35. Aproveite alguns cálculos do exercício 13 acima. E(sen(W Z)IW) = cos:(;:::f~j~~" · Pela Desigualdade Clássica de Chebyshev vem: P(I~EXn- OI ~ f)~
i= I
-T- ,.-:::;t, O.
37. E(Y IX ) = f·
b. Var(YIX) = fi· Logo temos convergência em probabilidade para O.
39. Cov(X,Y ) = ~· 4. Para qualquer x real, existe no tal que Fn(x) = O para todo n > no. Logo lim Fn (x) = O. Dessa
n-oc
41. Com X ~ Uc(a, b), Mx(t) = ~;:-=.~;· Via derivação (e depois com t =O) vem E( X)= b;• e forma, o limite de funções de distribuição pode não ser uma função de distribuição.
t
/._n\2
Var( X) = "'!f-· 5. Seja Y.. = frXk . A função caracteristica de X k é dada por: 1/>x.(t) = cos t. Assim,
43. a. MX'+l"' (t) = :fi::i b,· t < !· Via derivação (e depois com t = 0) vem E(X 2
+ Y 2) = 3. k=l
n t n sen(:!J,) senl
b. MX'.Y'(t~o t2) = J!~2t, J 1 ~ 412 ' t, < ~ e t2 < !· Obtenha a função geradora marginal e depois ti>I~(t) = llcos (21") = ll
2
2sen( AJ = 2"sen(Jd •
2
k=l k=l ~
derive. Aplicando em t = O, vem E(X 2 ) = 1. Passando ao limite obtemos se:t, que é a função caracteristica da Uc[-1, 1].
45. a. Mv(t) = e 2~'f+ 2"' 1 '. Via derivação (e depois com t = 0) vem E(Y) = 2~J e Var(X ) = 40' 2 •
6. Obtenha tf>x.(t) = ~(~~~~~~~J.) e passe ao limite, para n .... oo, para obter </>x(t) = 1
:;". Esta é a
47. Cov(X,Y) = I/6.
49. a. As três formas diferentes são: (I) Via função geradora de momentos conjunta de X, Y e Z. (2) função caracteristica da Uc[O, I], Jogo Xn.!!. Uc[O, I] pelo Teorema da Continuidade de Levy.
Via função densidade conjunta de X e Y. (3) Reconhecendo que X e Y são indepedentes, calcule a 7. Vale (X.. , Yn) .! (X, Y) (a prova é solicitada em exercício). Por proposição temos que funções
função geradora de momentos de X e depois a de Y e aplique propriedade conveniente. O contínuas preservam convergência. O resultado segue pois tomamos as seguintes funções em cada
resultado será: Mx,y(t~o t 2 ) = 6(t,-Il;''+ 1 (ti- 21'~2 )e'2- 2 • Para verificar que Mx,v(O, O)= I é item : a. g(x, y) = x + y. b. g(x, y) = xy. c. g(x, y) = xfy, y f O.
I 2
preciso aplicar a regra de L'Hospital. 8. A função característica de uma variável simétrica ao redor do zero é real. Logo, para qualquer t,
1/Jx.(t) é real e o mesmo ocorre com seu limite. Pelo Teorema da Continuidade de Levy, o limite
51. Mx(t) = e1', que corresponde à N(O, 2).
das funções caracteristicas é a função caracteristica de X. De novo, por propriedades da função
53. 1/Jx(t) = -'~it·
caracteristica, X é simétrica ao redor do zero.
55. Desenvolva E(eitXY) usando a densidade conjunta fx(x)fy(y) (são independentes).
57. 1/Jx-•(t) = e-..fiii.
59. </>x,+x,(t) =
{j
iJ+it
)Dtffl2 que corresponde a, Gama(a: 1 + a: , /3).
( 2
61. Use Exercício 57 e a independência das parcelas somadas.

I
394 Apêndice B: Respostas de Exercícios Respostas: Capítulo 6 395

9. Temos Para a implicação reversa, suponha que Xn; !. X; , para cada j = 1, 2, ... k. Assim,
IXm - Xnl = IXm- X - (Xn +X) I k
2 2 2
~ IXm -XI +IXn +XI P(II Xn- XI I?: f)= P(IIX..- Xll ?: f 2 ) = P (L)X,;- X;) ?: f ) =
~ 2 max{IXm- XI, IXn- XI}. :i=I
k k
Então = P( i}.)Xn;- X;) 1?: 2 2
E ) ~ P( EI(Xn;- X;)2 1?: t:2 ) ~
j=l J=l
IXm - x . r ~ 2rmax {IXm- xr, IXn- xn ~ 2r {IXm- X Ir+ IXn- xn
Aplicando esperança vem E(IXm- Xni') ~ 2'. {E(IXm- xn + E(IXn- X Ir)}. ~ tP[(Xn;-X;) 2
?: f]= tP(IX,;-X;I?: ~);
Passando ao limite para m e n indo ao infinito segue, por hipótese, que lim E(I Xm - Xnlr) = O.
m,n~oo e, este último termo vai a zero, para n -+ oo, por hipótese.
00 00
10. a. Seja An ={UI: IXn- XI?: t,}. Como }:P(An) ~ L:bn < oo, segue pelo Lema de Borel- qc
b. Suponha que Xn-+ X. Temos IIXn -XII =
( k
~(Xn;- X;) 2
)1/2 -+O, num conjunto de
n=l n=l J=l
Cantelli que P(An infinitas vezes) = O. Assim, se UI f/. A,. então IXn(UI)- X(UI)I < t'n para probabilidade 1. Isto implica que, em cada coordenada, Xn; - X;-+ O com probabilidade 1.
todo n > n(UI). Isto implica que Xn(w) -+ X(w) pois lim t'n = O. Mas o conjunto dessa
n-:x: Logo Xn;!;X;, para cada j = 1, 2, ... k.
convergência tem probabilidade 1 e então Xn !; X . Suponha agora que Xn; ~ X; , para cada j = 1, 2, ... k. Considere o conjunto intersecção definido
b. Definimos a sub-seqüência de X,. tomando os índices {nl·: k?: 1}, recursivamente, da k
seguinte forma: nk+! é qualquer n > nk tal que P(IXk+!- XI?: 1/k) ~ 1/2k. Por hipótese por A=n{UI :Xn; -+ Xj}· Temos P(A)=1 e como A C{UI:IIXn - XII-+ 0}, segue que
j=l
lim P(IXn - XI ?: t:) =O e, portanto, essa seqüência pode ser construída. Segue da parte (a)
n-oo
que Xn, ~X.
11. Este exercício é a versão para a convergência em probabilidade do critério de Cauchy para Seção 6.3
convergência de séries numéricas.
. p n
Suponha inicialmente que Xn !. X. Considere X, Y e Z variáveis quaisquer, temos: 1. Precisamos verificar que ~-E(~) -+ 0. Temos Var(Sn) = L: Var(Xk ) ~ nc, para alguma
UI E {IX- Yl?: t:} => w E {IX- z- (Y- Z)l?: t:} =>UI E {IX- Zl + IY- Zl?: f}. k=!
Istoimplicaque Ui estánaunião {IX- Zl?: ~f} U {IY- Zl?: ~€}.Assim, para € >O, constante c finita. Pela Desigualdade Clássica de Chebyshev vem, para f > O,
P(IXm- X. I ?: f) ~ P(IXm -XI ?: ~t:) + P(IX,.- XI ?: ~t:)m,n::.+ ocO.
Suponha agora que P(IXm - Xn I ?: t:) m,n-:::t oc O. Para todo inteiro positivo k, escolha inteiros
P(ISn- E(Sn)l ?: f)= P(IS.- E(S.)j?: m)
n
~ Va~(~n) ~
f n
+
E n
-+0.
positivos mk, com mk+ 1 > mk ..'r/k, tais que
oc V. r(f) n
2. Temos que E(Xn) = 1/n e Var(X,) = 1-1/n2 • Assim, L: • n " =L:(~-~)< oo. Logo, a
P(IXm - Xnl ?: 2-k) < 2-k, para m, n?: mk. n=l k=l
oc Primeira Lei Forte de Kolmogorov está satisfeita.
Para inteiros nk?: mk, k ?: 1, temos X:P(IXn,+,- Xn,l?: 2-k) < oo. Logo por Borel-Cantelli. s s p 2'
3. Vamos verificar que ::-E(':)-+0. Temos E(X;)= O e Var(Xj)=a: 1 • Ass1m, como a
o

k=!
com Ak = {!Xnw- Xn,l?: 2-k}, temos limsup P(A.) = O. Então Xn, ~X. para alguma covariância entre X; e X;. para i-# j é zero, temos Var(Sn) = f:var(X;) = a't:;"l. Pela
j=!
variável X e, conseqüentemente, X., !. X . Assim, concluímos, Desigualdade Clássica de Chebyshev vem, para f > O,
.P(IX.- XI> €) ~ P(IXn- x., l ?: 2) + P(IX.,- XI?: 2)n,k::+oc o.
{ {
ISn- E(Sn)l _ Var(Sn) _ a 2 (1- a 2")
P( ?: f) - P(IS" - E(Sn)l ?: m) ~ 2 2 - 2 2( 2) -+ 0.
n t:n fn 1 -o:
12. a. Suponha que X" !.x. Para todo real f> Oe j = 1, 2, ... k,
Logo vale a Lei Fraca.
4. Se a constante c existisse ela seria a média pela Lei Fraca de Khintchine. Como não existe a média
da Cauchy, a convergência não ocorre para nenhum c.
Então, Xn;!.Xi , para cada j = 1, 2, ... k.
I
c
396 Apêndice B: Respostas de Exercícios Respostas: Capítulo 6 397


S. Temos E(Xn) = 2-n/2 e Var(X.. ) = 2-". Com S .. = 'ÊX; temos Var( ~) = ~(1- 2-"). Pela
Seção 6.4
i=l
Desigualdade Clássica de Chebyshev vem: P(l~ - E( ~ )I 2': f) ::; va~!Jf) ..~O. Portanto vale a 100
Lei Fraca. 1. Temos EX; "'Binomial (n = 100; p = O, 4) e, portanto, com média 40 e variância 24. Pelo
j=l
6. Temos E( X;) = j e Var(Xj) = 2j. Com Sn = 'ÊX; temos Var(~) = ~ n(~+ll. Teorema Central do Limite vem
j=l
P(l~- E( ~ )12': f)::; va~!J:-J "J~i;P ..~O.
= 50) ~ P( '~ ::; Z ::; ·~ ) = O, 01;
Pela Desigualdade Clássica de Chebyshev: = 49 40 50 40
P(f:X;
Portanto, vale a Lei Fraca. j=l 24 24
n S I n
7. Temos E( X .. ) = Àn e Var(Xn) = Àn. Com Sn = EX; temos Var(~ ) = RI E .X;.
j=l j=l em que Z é a Normal Padrão.
Pela Desigualdade Clássica de Chebyshev vem, para f > O, 2. A probabilidade de retirar um ás é dada por 1/13. Seja X o número de azes obtidos em 1000
retiradas, independentes e com reposição. Temos que X é Binomial com n = 1000 e p = 1/13.
P(i§.. -E(§..)i >f)< Var!,fl ==I ~À-- O·
n n - - t tn L...! Jn-oo ' Sua média é 1 ~ e a variância ~~~~~J. Pelo Teorema Central do Limite vem:
j=l
n
1000 90 5 - 1000
pois, por hipótese ~E .X; ..~ O. Logo, vale a Lei Fraca. 64 5 -
j=l P(65
- < 90) ~ P( ' ~--
< X- 13
<Z < ' /lii.iJ13 ) =O 8755·
''
8. Vamos verificar que ~ -E(~) !. O. Temos Var(X;) = u 2 < oo e, como a covariância entre X; e V169 V 169
n
X; é zero, para i =I j, temos Var(Sn) = EVar(X;) = nu2 • Pela Desigualdade Clássica de em que Z é a Normal Padrão.
i=! 3. Tome X;. j 2': 1, variáveis i.i.d. Poisson de parâmetro 1. A variável Sn = X1 + X2 + ... + Xn tem
Chebyshev vem, para f > O, distribuição Poisson de parâmetro n, com média e variância iguais a n. Pelo Teorema Central do
. . vem S,-E S,) d N(O 1) A .
P( ISn- E( S.. ) i 2': f)= P(IS,.- E(S,.)i 2': m)::; Va~(~.. ) = ~2 -+0.
L urute Var(S,)-+ , • ss1m,
n fn fn

Logo vale a Lei Fraca. e-"L" 1n" = P(S.. ::; n) = P( S"r.;


k=Ok. vn
-n 1
::; O) =~(O) = -·
2
9. Temos E(X.. ) = J=.xe-<x+aldx = 1 - a. Logo as variáveis x .. ·s são i.i.d. com média finita e pela
Lei Forte de Kolmogorov ~ ~ 1 - a. 4. Obtenha E(X.. ) =O, E(X~) = 2n2 e E(X!) = 24n4 • Para aplicar a condição de Liapunov com
10. Temos Var(X;) = uj ::; M < oo e, como a covariância entre X; e X; é zero, para i =I j, temos 6 = 2, lembremos que = <'Ê 2k2 ) 2. Temos
s!
" n k=l
Var(Sn) = EVar(Xj) = EuJ::; nM. Pela Desigualdade Clássica de Chebyshev vem, para
j=l j=J
f> o.
P( IS.. - E(S,.)I 2': f) = f(IS,. - E(S.. )I 2': m) ::; Va~(~.. ) = ~ -+0.
n En En
Logo vale a Lei Fraca, isto é, ~ - E(~) =
X - Jin !. O. pois o numerador é da ordem de n 5 enquanto que o denominador da ordem de n 6 • Logo vale o

1
11. Temos log(f1 ~k) l/n = ~ ílogX~:. Note que P(-logX~:::; x) = 1- e-z e, portanto,
Teorema Central do Limite de Liapunov.
{
S. Obtenha E(X.. ) = O, E( X~) = 1. defina Yn = Xnl{lx.l=l}·
-log X~: ~ Exp (1 ). V amos aplicar a Lei Forte de Kolmogorov na seqüência ( -log X~: )k?:l para
concluir que ( =;!- 'ÊiogX~:- 1) ~0. Daí obtemos c= e- 1. --h'Ê(Xn- Y.. ) !. O(via Borel-Cantelli). Aplique Slustky.
k=l V"j=l
12. Os X .. 's são variáveis i.i.d. com média finita igual a J.t. Pela Lei Forte de Kolmogorov, temos
6. Temos -j;;'ÊX;.!!. N(O, 1) (TCL para variáveis i.i.d.). Mostre que -}.;f:Y;!. Oe aplique Slustky
X- J.t~O. Considere, agora, a seqüência (Xn- J.t) 2• Ela é de variáveis i.i.d. com média finita H ~
igual a u 2 • Pela Lei Forte de Kolmogorov vale (X,.- J.t) 2 ~u 2 • O item (a) segue pois a para concluir Tn .!!.N(O, 1). Mostre que não vale a condição de Lindeberg com f= 1/2.
convergência quase certa vale em cada coordenada do vetor. Para (b), aplicamos ao vetor de (a) a
função g(x, y) = x - y2, que é contínua.
398 Apêndice B: Respostas de Exercícios Respostas: Capítulo 6 399

7. Pelo TCL: -jn L~ (X~r -~J.d 2 - nu2] !!. N(O, 1). Rearranje o limite a ser calculado de modo que podemos considerar uma sub-seqüência Xn, que converge quase certamente para X. Assim,

E[(IX,.- Xl) 2] = E[liminf(IX. - Xn,l) 2]::; Iiminf E[(IX,.- X,.,I) 2]-+0, para n -+ oo.
fique P{IZI::; 1) com Z ~ N(O, 1). k-+OO k...-x.

8. a. E(IXIr) :5 max(lalr, lbl'). Seja An = (Xn- X 2': f] e aplique esperança em 19. Usando função característica vem: if>x.+a,.(t) = eit(X.+a..) = eitX.eito.,.n~eitZeita = e-í'f2eit•,
IXn -X Ir = IX,. -XI' lA. + IXn - Xlr [Ai· que corresponde à função característica da N(a, 1).
b. Para n 2': 1, como IXn - JLnl ::; b- a, temos
-2
21. Se Var(Xj) ::; M, temos E( X ) = Var( X) = ~ ~Var(Xj) ::;
- n

,FI
* n~ O, lembrando que as
E(IX. -~J.nl ) = E(IXn -~J..I(X,. -~J.n) ) ::; (b- a)u~.
3 2
variáveis Xj's são não correlacionadas.
Então, 23. Temos
O :5 E(~Ê(X;- E(X;)J2) = ~tE{(X; - E(X;)j2} + *EÊcov(X;,Xi) :5 ~ .-::;-t,O.
•=1 •=1 i=lf=l
iyfj
8
25. a. Temos E(Xn) = À e Var(Xn) =À. Segue que ·~.~~:~ = );f;,!!. N(O, 1), pelo Teorema
logo a condição de Liapunov está satisfeita com {j = 1. Central do Limite para variáveis i.i.d.
b. A seqüência X~ é de variáveis i.i.d. com E( X~)= À + À2 • Logo pela Lei Forte de
Seção6.5 ÊX'f-E(ÊX'fl p n p
Kolmogorov vem ;~• n ·~• -+O, portanto ~Xl-+ À + À2 •
1. É necessário p,.-+ 0 quando n-+ DO. i= I
3. Lembre que E(IA.) = P(A,.). Temos, para f> O, P(IIA.I2': t:)::; P<:·> .... o, para P(An)-+0. Por 27. Tome a função contínua g(x, y) = xy. Não vale para convergência em distribuição. Por exemplo:
outro lado, com f > O, {liA. I 2': f} é equivalente à ocorrência de A,.. Assim, tomando se Xn !!. X, X simétrica temos - Xn !!. X mas não é verdade que -X~ !!. X 2 •
probabilidade e passando ao limite a implicação segue. 29. a. Usando função característica vem:
5. Via funções características temos: E(eit(aX.+b}) = eitbif>x. (at) -+ eitbl/>x(at) = E(eit(aX+bl). O f1
11
A. ( ) - iiX;/lol _ rr" (.1. 1-e"/toi-l ) _ 1 eu 1-e;'.
'I'Yn t - . e - . 10 1-eU/tol - lll"(J-eMII') n~ it '
resultado segue pelo Teorema da Continuidade. ;=! ;=!
7. E((X -11-) 2] = ~ ,.-::t, o. que é a função característica da Uc(O, 1).
f:x· b. Temos Yn ::; Yn+! ::; 1, para todo n. Assim lim Y,. existe para todo w. Logo Yn converge
9. Usando função característica vem: E(eit~)=[4>(~)]"= (1+~+o(n- 1 ))-+ei~'~;que é a
n~oo

quase certamente para esse limite e, conseqüentemente também converge em distribuição. Como
função característica correspondente à função constante JL.Assim, X converge em distribuição pela parte (a) o limite em distribuição é a Y"' Uc(O, 1), o mesmo precisa ocorrer com o limte
para 11- e, nesse caso, isto implica convergência em probabilidade. quase certo.
ll.Parat: > O, P(IYn l >f)= P(IX1I >f, IX2I > f, ... IXnl > t:) = (1- f)". A convergência segue
tomando o limite para n indo ao infinito.
31. Sendo S. = EX; temos pela Desigualdade de Markov, para f> O, P(ISnl2': nf)::; ~·
13. a. P(Y.. >O)= P[C~1 X~rr'" >o)= flt(X~r = 1) = p";
i=l
Usando que X; tem média zero vem E(S~) = nE(Xt) + (;)E(X~ G) xn. em que os índices
são arbitrários pois as variáveis são i.i.d. Logo existe c tal que

E(Yn ) =E[ ( ITX1r r'"] = ITE((XIr)lfn] = p". ~ ISnl


Lf(-
~c
> t) ::; L.../"?. < oo;
k=J k=l
b. P(IY,.- OI >O)= P(Yn = 1) = p" -+0, para n indo ao infinito. n=l n n=l n

15. Temos E[(Yn-. X) 2] = E((Xn - 1-;,)2] + E((Xn - X) 2] - 2E((Xn - Yn)(Xn -X)]. - qc


Pelo Lema de Borel-Cantelli segue X -+O.
Observe que: IE((Xn- Yn)(X,.- X)]l ::; E(I(Xn - Yn)(X,.- X) I]
33. Pela Desigualdade de Markov, para f> O,
:5 {E((X,.- Yn) 2 JPI2{E((Xf}- X)2]pf2.
Passando ao limite o resultado segue.
f:P(IXn- XI >f) :5 f:E{(X; -}."(X;)]'} < DOj
17. Se Xn J.x temos E[(Xm- Xn) 2 ] ... o, param e n ... DO por exercício da Seção 6.2. n=l n=l
Por outro lado. se E[ (Xn - Xm )2] -+ O, para m e n ... DO, temos pela Desigualdade de Chebyshev
que (Xn- Xm)!.o (me n -+ DO). Por exercício da Seção 6.2: se Xn !.x para algum X, então Pelo Lema de Borel-Cantelli segue Xn ~0.
400 Apêndice B: Respostas de Exercidos Respostas: Capftulo 6 401

35. Use que a função característica da Cauchy Padrão é e-111. Logo t/J _~_. (t) = e-ltlfn. Então c. Não. Caso houvesse essa convergência, também teríamos W,. convergindo em distribuição
;;yt\X; para a constante zero, o que é contraditório com (b).
49. a. Temos E(XmY,.) - E(XY) = E[(Xm - X)Y] + E(Xm(Y,. - Y)J. Da Desigualdade de
lim t/J i
n-+oo

.,~xJ
(t) = f/Jx(t) = { ~·, set =O;
set #O.
Schwartz vem IE((Xm- X)Y]I 2 ::; E(y2)E((Xm- X) 2 j ... para m ... oo. Também vale o,
IE!Xm(Y,.- Y)]i2 ::; E(X!)E((Y,.- Y)2] ... o, param, n ... oo, se E{X!,) é limitada. Mas esse é
caso pois E( X!) ::; 2 E[{Xm - X) 2] + 2 E(X2) e lim E[(X,.- X) 2] =O. Concluímos que
m-oo
Como t/Jx não é contínua em O, logo ;;\(X1 + X 2 + ... +X,.) não converge em distribuição.
lim E(XmYn) = E(XY).
37. Desde que X,. ~X segue que IX,.- XI~O e, portanto (IX,.- Xl) 2 ~0. Se IX,. I::; Y para todo m,n-+oo

n então lXI::; Y. Assim (IX,.- Xl) 2 ::; 4y2, Pelo Teorema da Convergencia Dominada o b. Em (a) tome Y,. = X,..
resultado segue. c. Em (a) tome Y,. = 1.
39. Através do Teorema Central do Limite, aproxime para a Normal obtendo O, 8788. 51. Para 1 ::; s <r, temos pela Desigualdade de Uapunov: E(IX11 - Xj•) 11• ::; E(IX,. - Xl•) 11•. Daí
41. Sendo X,."' Gama (n, fJ), n ~ 1, com o uso de função característica vem: o resultado segue. A recíproca não vale. Como exemplo, sejam X,., n ;::: 1, uma seqüência de
variáveis independentes tais que P(X,. = n) = n-(r+•)/2 e P(X,. =O)= 1- n-<•+•l/2 •
Á-
'I' 1
(t) = E(eitX.fn) = E(e'~x.) = (~)" = (~)" _ eitf{J.
.X. {1-itfn 1-= n..., oo ' Verifique que E( IX~ I) = n<•-r)/2,.-::t,O mas E(IX;I) = n<•-•l/2,.-::t,oo.
que corresponde à variável constante igual a 1/fJ. Po~to, da convergência em distribuição para 53. As seqüências {X1: k;::: 1} e {(X,. -1) 2 : k ~ 1} são formadas por variáveis i.i.d. Temos
1/fJ temos ~X,. !.11fJ. · E(X:) = 1 e E[(Xt- 1)2) = 2 e podemos aplicar a Lei Forte de Kolmogorov em cada termo e
43. Note que g(x) = x/(1 + x) é uma função crescente em (0, oo). Para f >O vem depois tomar o quociente.

jX,.I f 1 +f ( IX.. I )
P(IX.. I>f)=P(1+jX,.I > 1 +f)::;-f-E 1+1Xnl I
55. a. Aplique o Teorema Central do Limite para obter -+
v•n
Êx,.2.N(O, 1). Pela Lei Forte de
lc=l
n qc • n qcrn
Kolmogorov temos ~ Ex: ... 2 e, portanto, -!.; ~ E X1 ... v 2 • Como esta última convergência
V2 Al=l
pela Desigualdade de Markov. Se a esperança tende a zero então X,. !o. k=l
também vale em probabilidade, aplicamos o Teorema de Slutsky para concluir sobre a
Supomos agora que X,. !. O. Então, para f > O,
convergência em distribuição para N(O, 1/2).

E( 1l~i.. l) ::; 1 : f P(IX,.I ::; t:) + 1 P(IX,.I > t:),.-::t, 1: f.


b. Use os cálculos de (a) e lembre que g(x) = /i,
x > O, é ~nção contínua Ajeite o quociente
para aplicar Slutsky, obtendo a convergência em distribuição paraN(O, 1).

Como f é arbitrário, e pode ser feito tão pequeno quanto desejamos, o limite da esperança é O. 57. Verifique que E(Y~o) = O e Var(Y,.) = 1/2, para qualquer k. Temos Ê V1Yt) < oo, pois
k=l
45. Note que R R qc
E b < oo. Pela la. Lei de Kolmogorov ~EYt ... o.
1~x A:~l lc=l
59. Os X,. são i.i.d. e pela Lei Forte de Kolmogorov X ~1-'· Logo pela continuidade da função
..
nL.J J
j=l
2
y'n(Xf +X~+ ... +~) quadrática, temos g(X) = X !;"'2 • Considere, agora, {X:: k;::: 1}. Essa seqüência também é
de variáveis i.i.d. e, de novo pela Lei Forte de Kolmogorov, temos ~EX: ~o-2
.. +·p,2• Portanto,
k=l
pela Lei Forte de Kolmogorov, o numerador converge quase certamente para E(Xj) = 1, "
~E(X,- X)2 =~EX:-
- "
x-2 ...qc 112 + ,_,2 _,_,2 = 112.
enquanto o denominador converge quase certamente para ../2 ,
pois E(X'j) = 2. O quociente vai k=l k=l
para 1/ ../2, quase certamente, por ser intersecção de conjuntos de probabilidade 1.
R
Logo ~E (X~o - X) 2
- ) ·qc
... 1. Como seno é função contínua o resultado segue.
47. A função característica da Cauchy Padrão é e-ltl. k=l
a. c/Jy, (t) = e-ltlnl. Então 61. Pela Lei Forte de Kolmogorov temos ~Ê Yt !; p, e, portanto, também em probabilidade. Aplique
k=l

lim t/JY. (t) = { 1, se t =O; o Teorema Central do Limite para obter -L Êx,.2.N(O, 1). O resultado segue através do
......ao • O, se t # O, "v" k=l
Teorema de Slutsky após conveniente rearranjo dos termos.
que não é contínua em O, logo -j;;(X1 + X 2 + ... +X,.) não converge em distribuição.
b. t/Jw. {t) = e-111, que é a função característica da Cauchy. Pelo Teorema da Continuidade W,.
converge em distribuição para a Cauchy.
402 Apêndice B: Respostas de Exerc{cios

63. Precisamos verificar que ~-E(~ ).!'.O. Sendo Var(X,.) 5 c< oo, temos pela Desigualdade '
Clássica de Olebyshev que, para r; > O,

P( IS.. - E(S,.)I ;::: r;) = P(IS,. - E(S,.)I 2:: m) 5 Va~~,.). Bibliografia


n r;n
a. Temos
n n n
~Var(Y:X;) = ~EVar(X;)
1=i i=l
+-!r l~i<j~l
E Cov(Xi,X;) 5 ~ ,.-:::-&,0. Apresentamos a seguir algumas referências que podem ser úteis ao leitor.
Elas foram objeto de consulta do autor na preparação deste trabalho, apesar de
b. Para 6 >O, existem tal que p(X;,X;) 56 se li- jj 2:: m. Então algumas delas, não terem sido referenciadas no texto.
1 ·n 1 n 1
2Var(EX;) = 2 Ecov(X;,X;) = 2 {
n j=t n iJ=l n
En

iJ:-U
Cov{X;,X;) +E
iJ-1
"
Cov(X~>X;) }·
li-JI~m li-J1<m Ash [72] Robert B. Ash, Real Analysis and Probability,
Academic Press, New York, 1972.
Note que Cov(X;, X;) 5 jp(X;, X;)IJVar{X;)Vaí"(X;), assim
Bhat [85] Ramdas Bhat, Modem Probability Theory- An
1 n 1
2VarCLX;) 5 2(2nmc+n2 6c),.-::::-tc,6c-+0; Introductory Text Book, John Wiley &
n i=l n Sons,New Delhi,1985.
desde que 6 > O~ arbitrário. Peter 1: Bickel e Kjell A. Doksun, Mathematical
Bickel e Doksun [01]
65. Seja Umn = {(X,.- n) - (Ym - m)JI Jm + n. Temos Statistics- Basic ldeas and Selested Topics vol.
log~u-(t) = n(eii/Jiii+ft- 1) + m(e•t/Jiii+ft- 1) + 'j;;.~: .,.,..,..-::t ""--!t2,; /, 3a. edição, Prentice Hall, Upper Saddle River,
d
Logo Um,.-+N(O, 1), param e n-+ oo. New Jersey, 2001.
Observe, agora, que X,. + Ym ~ Poisson de parâmetro m + n. Aplicando a Lei dos Grandes
Números verifique que X;,~~" ..!'. 1 e também Vmn = J
X;.!• ..!'. 1. Aplicando Slutsky em Billingsley [91] Patrick Billingsley, Probability and Measure, 2a.
edição, Jonh Wiley & Sons, Singapure, 1991.
tl.,.,./Vmn o resultado segue.
Bois [61] G. Petit Bois, Table of lndefinite Integrais,
Dover Publications Inc., New York, 1961.
Breiman [68] Leo Breiman, Probability, Addison Wesley,
Reading, 1968.
Brémaud [88] Pierre Brémaud, An Introduction to
Probabilistic Modeling, Springer-Verlag, New
York, 1988.
Cacoullos [89] Teophilos Cacoullos, Exercises in Probability,
Springer-Verlag, New York, 1989.
Chae [80] Soo Bong Chae, Lebesgue Integration,
Mareei Dekker, New York, 1980.
Chow e Teicher [88] Yuan Shih Chow e Henry Teicher, Probability
Theory- lndependence, Interchangeability,

403
404 Bibliografia Bibliografia 405

Martingales, 2a. edição, Springer-Verlag, New James [81] Barry R. James, Probabilidade: um curso em
York, 1988. nível intermediário, CNPq-IMPA Projeto
Chung [74] Kai Lai Chung, A course in Probability Theory, Euclides, Rio de Janeiro, 1981.
2a. edição, Acadernic Press, New York, 1974. Leite e Singer [90] José Galvão Leite e Julio da Motta Singer,
Clarke [75] L. E. Clarke, Random Variables, Longman Inc., Métodos Assintóticos em Estatística-
New York, 1975. Fundamentos e Aplicações, 9o. Simpósio
Brasileiro de Probabilidade e Estatística, ABE-
Dudewicz e Mishra [88] Edward J. Dudewicz e Satya N. Mishra, Modem Associação Brasileira de Estatística, São Paulo,
Mathematical Statistics, John Wiley & Sons, 1990.
New York, 1988.
Magalhães e Lima [05] Marcos N. Magalhães e Antônio Carlos P. de
( DeGroot e Schervich [02] Morris DeGroot e Mark J. Schervich, Probability Lima, Noções de Probabilidade e Estatística,
(I and Statistics, Addison Wesley, Boston, 2002. Edusp- Editora da Universidade de São Paulo, 6a.
( ~ Feldman e Fox [91] Dorian Feldman e Martin Fox, Probability- The edição revista, São Paulo, 2005.
Mathematics of the Uncertainty, Mareei Dekker, Miraglia [02] Francisco Miraglia Neto, Tópicos de Análise,
New York, 1991. USP (versão preliminar), São Paulo, 2002.
(
Feller [68] Willian Feller, An Introduction to Probability Mood, Graybill e Boes [74] Alexander M. Mood, Franklin A. Graybill e
I I Theory and /ts Applications vol. /, 3a. edição, Duane C. Boes, Introduction to the Theory
( I John Wiley & Sons, New York, 1968. of Statistics, 3a. edição, McGraw-Hill
I Feller [66] Willian Feller, An .Introduction to Probability Kogakusha, Tokio, 1974.
I Theory and Its Applications vol. li, John Wiley Neuts [73] Mareei Neuts, Probability, Allyn and Bacon Inc.,
& Sons, New York, 1966. Boston, 1973.
Gnedenko [76] Boris V. Gnedenko, The Theory of Probability, Pfeiffer [65] Paul E. Pfeiffer, Concepts of
I Mir Publishers, Moscow, 1976.
( Probability Theory, McGraw-Hill, New York,
I Grimmett e Stir~er [93] G. R. Grimmett e D. R. Stirzaker, Probability 1965.
(
I and Random Processes, 2nd edition, Oxford Rahman [83] N.A. Rahman, Theoretical Exercises in
(
UÔiversity Press Inc., New York, 1993 Probability and Statistics, 2a. edição, Charles
( Griffin, London, 1983.
Hoel, Port e Stone [71] Paul G. Hoel, Sidney C. Porte Charles J. Stone,
I
( lntroduction to Probability Theory, Houghton Rahman [72] N.A. Rahman, Practical Exercises in
I Mifflin Co., Boston, 1971. Probability and Statistics, Charles Griffin,
Hõnig [77] Chain S. Hõnig, A Integral de Lebesgue e suas London, 1972.
I Aplicações, 11° Colóquio Brasileiro de Rao [65] C. Radhakrishna Rao, Linear Statistical
( Matemática, Poços de Caldas, 1977. Inference and /ts Applications, John Wiley &
I
( Sons, New York, 1965.
I
I
(
I
.,
t: 406 Bibliografia
f
'
~
~
Rao [84] Malempati M. Rao, Probability Theory with
Applications, Academic Press, Londom, 1984. ,
lndice Remissivo
~ Ross [98] Sheldon Ross, A first course in Probability, 5a.
edição, Prentice Hall, Upper Saddle River, New
I Jersey, 1988. Convergência
t A em distribuição, 305
Roussas [73] George G. Roussas, A First Course in em lei, 305
l • Mathematical Statistics, Addison Wesley Pub . Absolutamente contínua, 70
Álgebra, 5
em média r, 303
Co., Reading, 1973. em probabilidade, 302
l Amostra aleatória, 181 quase certa, 30 I
Royden [68] H. L. Royden, Real Analysis, MacMillan Aproximação Normal p/ Binomial, 105, 339 uniforme, 300

'
I
I
Rudin [64]
Publishing Co., 2a. edição, New York, 1968.
Walter Rudin, Principies of Mathematical
Analysis, 2a. edição, MCGraw-Hill, New York,
Axiomas de probabilidade, 11

B
Convolução, I55
Covariância, 249
condicional, 264
Cramér-Wold, 315
1964. Critério

( I ' Shiryaev [96] Albert N. Shiryaev, Probability, 2a. edição,


Springer-Verlag New York Inc., New York,
Bayes, Teorema de, 30
Bernoulli
ensaios de, 82
variáveis de, 82
de independência
para eventos, 35
para variáveis, 288

( 1996. Beta, 107, 369


Binomial, ver distribuição Binomial D
( Taylor [97] John C. Taylor, An lntroduction to Measure Bochner-Khintchine, Teorema de, 288
and Probability, Springer-Verlag, New York, Bonferroni, desigualdade de, 60 Decomposição da função de distribuição, 75
( De Moivre, 102
1997. Borel, Lei Forte de, 327
Borel-Cantelli, Lema de, 43, 300 -Laplace, Teorema, 339
(
Tucker [67] Howard G. Tucker, A Graduate Course in Borelianos, 7 Densidade
Probability, Academic Press, London, 1967. Buffon, 178 de probabilidade, 70
do produto e do quociente, 160
Wasan [72] M.T. Wasan, Mathematical Probability, Queens condicional, 129
University Press, Ontário, 1972. c conjunta, 123
pelo método de Jacobiano, 161
Wise e Hall [93] Ga.ry L. Wise e Eric B. Hall, Counterexamples in Carathéodory, Teorema da Extensão de, 11 da soma e da diferença, 154
de um vetor aleatório, 123
Probability and Real Analysis, Oxford Cauchy, ver distribuição de Cauchy
Cauchy-Schwarz, desigualdade de, 257 do máximo, mínimo, 159
University Press, New York, 1993. marginal, 124
Coeficiente
de assimetria, 248 Desigualdade
de correlação, 254 de Bonferroqi, 60
de curtose, 248 de Cauchy-Schwarz, 257
de variação, 354 de Jensen, 224
Combinatória, I de Kolmogorov, 328
de Liapunov, 343
Continuidade
à direita da função de distribuição, 65 de Markov, 247
( da função de distribuição, 70 de Chebyshev
de probabilidade, 20, 27 básica, 225
( uniforme da função caracteóstica , 279 clássica, 246

407
li
!! 408 Índice Remissivo Índice Remissivo 409
.I
I
Desvio-padrão, 243 como integral de Riemann-Stieltjes; 195 L
Distribuição de função, 219
Beta, 107 de variável discreta, 180
G
Laplace, ver De Moivre-Laplace
Binomial, 83 de variável contínua, 186 Lebesgue, ver integral de
Gama, ver disuibuição gama
Binomial Negativa, 85 de variáveis não-negativas, 208 Lebesgue-Stieltjes, ver integral de
Gauss, 102
condicional, 128 do produto de v.a. independentes, 227
Geométrica, ver disuibuição geoméuica Lei
conjunta, 116 propriedades, 213 da Prob. Total, 31
probabilidade geométrica, I O
propriedades, 117 Estatísticas de ordem, ver máximo e mínimo de Morgan, 3
Glivenko, ver teorema
de Cauchy, 110 Eventos dos Grandes Números, 324
de Laplace, 111 aleatórios, 1 Fraca, 324
de Poisson, 89 disjuntos, 3
de Rayleigh, 111 independentes, 35
H Forte,324
( Forte dos Grandes Números, 324
de um vetor aleatório, 116 mutuamente exclusivos, 3 de Borel, 327
o--álgebra de, 5 Helly-Bray, Teorema de, 306
( de uma variável aleatória, 65 de Kolmogorov, 327
Experimento Hipergeométrica, ver distribuição
de Weibull, 111 primeira, 327
( de Erlang, lO I aleatório, 1 Fraca dos Grandes Números, 324
exponencial, 96 Exponencial, ver disuibuição exponencial
falta de memória, 98 I de Kbintchine, 327
de Chebyshev, 327
exponencial dupla, 111 Lema de Borel-Cantelli, 43
F-Snedecor, 177 F Independência
Levy-Paul, Teorema da Continuidade de, 308
( gama, 100 entre varios eventos, 35
de variáveis e vetores, 133 Liapunov, Teorema Central do Limite de, 338
geométrica, 83 Feller, Limite
( hipergeoméuica, 88 Lindeberg, teorema, 347 Indicador
de união e intersecção, 7 inferior, 4
logística, 111 Fórmula da inversão, 282 superior, 4
Maxwell, 111 Frequência relativa, 11 Infinitas vezes, 4
Integral Lindeberg, ver Feller, teorema
multinomial, 137 Função
( de Lebesgue, 199
normal, 102 absolutamente contínua, 192
( bivariada, 138 característica, 276 de Lebesgue-Stieltjes, 199 M
Pareto, 111 multidimensional, 288 de Riemann, 191
( Triangular, 11 O de Cantor, 72 de Riemann-Stieltjes, 179 Markov, ver desigualdade de
qui-quadrado, 101 de densidade de probabilidade, 70 Máximo, 159
siméuica, 199
t de Student, 177
de disuibuição, 65 J Média
amostrai, 287
condicional, 129
Uniforme de um vetor aleatório, 129 Jacobiano mediana, I 09
( discreta, 81 de uma variável aleatória, 77 método do, 161 Medida
contínua, 94 conjunta, 116 Jensen, desigualdade de, 224 de Lebesgue, 74
( propriedades, 117 Mensurável, 64
de um vetor aleatório, 116 Método do Jacobiano, 161
E Mínimo, 158
empírica, 334 K Modelo Probabilístico, 24
marginal, 119
Ensaios de Bernoulli, 82 Momento
de probabilidade, 11, 68 Kbintchine, Lei Fraca de, 327
Erro quadrático médio, 234 absoluto, 241
de variávei aleatória, 141 ver Bochner-Kbintchine, 288
Espaço central, 241
gama, 101 Kolmogorov
amostrai, 1 de variáveis aleatórias, 241
geradora de momentos, 266 desigualdade de, 328
de probabilidade, 11 Multinomial, ver distribuição Multinomial
multidimensional, 270, 272, 273 Lei Forte de, 332
( produto, 26 Mutuamente exclusivos, 3
indicadora, 7 Primeira Lei Forte de, 329
Esperança .
mista, 74, 126
( condicional, 260
I
' 410
• fndice Remissivo fndice Remissivo 411

N s v
(
Não-correlacionadas, 258 a--álgebra, 5 Valor esperado
( Normal, ver distribuição normal das partes de !1, 6 caso geral, 209
Números pseudo-aleatórios, !52 de Borel, 7 da função indicadora, 20 I
( Singular, 145 Integral de Lebesgue-Stieltjes, 199
( o Slutsky, Teorema de, 319
Stieltjes, ver integral de
Integral de Riemann-Stieltjes, 195
para variáveis discretas, 180
( para variáveis contínuas, 186
Observada,
para variáveis não-negativas, 208
freqüência, 90
( T propriedades, 213
Variância, 243
( p Taxa de falha, 107 amostrai, 320
Teorema condicional, 264
( Central do Limite, 337 de uma constante, 244
Partição do espaço amostrai, 3 de uma soma, 252
de De Moivre-Laplace, 339
Permutações, 9 propriedades, 243
de Liapunov, 341
Poisson, ver distribuição de Poisson Variável aleatória, 63
de Lindeberg-Feller, 347
Princípio contínua, 70
para variáveis i.i.d., 338
( fundamental da contagem, 9 discreta, 68
da Continuidade de Paul Lévy, 308
Probabilidade função de distribuição, 65
da Convergência Dominada, 232
( axiomas de, li
da Convergência Monótona, 230 independentes, 133
condicional, 30 mista, 74, 126
( da Extensão de Carathéodory, 11
geométrica, I O n-dimensional, 115
da Probabilidade Total, 29
propriedades, 20 não-correlacionadas, ver correlação
( da Unicidade, 286
total, lei da, 31 partes positiva e negativa, 209
de Bayes, 30
de Bochner-Khintchine, 288 simétrica, 199, 242
Q de Crarnér-Wold, 315 singular, 72
( de Glivenko-Cantelli, 336 V:etor aleatório
Quase de Kolmogorov contínuo, 123
( Lei Forte de, 332 discreto, 120
certamente, 301
( toda parte, 74, 301 Primeira Lei Forte de, 329 distribuição conjunta, 116
Qui-quadrado, ver distribuição qui-quadrado de Helly-Bray, 306
de Lindeberg-Feller, 347
de Polya, 310
( R de Radon-Nikodym, 260
de Slutsky, 319
(
Radon-Nikodyn, 260
( Resultados
equiprováveis, 18
u
( Riemann, ver integral de uniforme, ver distribuição uniforme
Riemann-Stieltjes, ver integral de
(

Potrebbero piacerti anche