Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Volta Redonda - RJ
2014
Renato Ricardo de Paula
Volta Redonda - RJ
2014
Renato Ricardo de Paula
Método de Monte Carlo e Aplicações/ Renato Ricardo de Paula. – Volta
Redonda - RJ, 2014-
81 p. : il. ; 30 cm.
CDU 02:141:005.7
Renato Ricardo de Paula
Volta Redonda - RJ
2014
À minha família.
Agradecimentos
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1 ELEMENTOS DE PROBABILIDADE . . . . . . . . . . . . . . . . . 21
1.1 Variáveis aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.1.1 Variável aleatória discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.1.2 Variável aleatória contínua . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.1.3 Funções de uma variável aleatória . . . . . . . . . . . . . . . . . . . . . . 25
1.2 Propriedades da Esperança . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3 Variância e desvio-padrão . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Distribuições contínuas e discretas . . . . . . . . . . . . . . . . . . . . 28
1.4.1 Variável aleatória de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.4.2 Variável aleatória uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.3 Variável aleatória exponencial . . . . . . . . . . . . . . . . . . . . . . . . 29
1.4.4 Variável aleatória normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.5 Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4.6 Processo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 NÚMEROS ALEATÓRIOS . . . . . . . . . . . . . . . . . . . . . . . 43
3.1 Geração de números pseudoaleatórios . . . . . . . . . . . . . . . . . . 43
3.2 Geração de Variáveis Aleatórias Discretas e Contínuas . . . . . . . . 44
3.3 Geração de um processo de Poisson . . . . . . . . . . . . . . . . . . . 48
Conclusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
19
Introdução
Uma definição formal de Método de Monte Carlo foi dada por Halton (1970). Ele
definiu o método como uma técnica para representar a solução de um problema como um
parâmetro de uma população hipotética e, que usa uma sequência aleatória de números
para construir uma amostra da população da qual estimativas estatísticas desse parâmetro
possam ser obtidas.
O primeiro trabalho com método de Monte Carlo foi em 1947 com Jon Von Neu-
man e Stanislaw Ulam. Conforme colocado em (ULAM J. VON NEUMANN, 1947) e
posteriormente em (METROPOLIS, 1949), eles propuseram usar uma simulação computa-
cional em uma parte do projeto Manhattan, na Segunda Guerra Mundial. No projeto de
construção da bomba atômica, Ulam e Jon Von Neumann consideraram a possibilidade de
utilizar o método, que envolvia a simulação direta de problemas de natureza probabilística
relacionados com o coeficiente de difusão do nêutron em certos materiais.
O nome do método se originou pelo uso da aleatoriedade e da natureza repetitiva
das atividades realizadas em cassinos em Monte Carlo, Mônaco. O método de Monte
Carlo tem sido utilizado há bastante tempo como forma de obter aproximações numéricas
de funções complexas. Estes métodos tipicamente envolvem a geração de observações de
alguma distribuição de probabilidades e o uso da amostra obtida para aproximar a função
de interesse. O método é também referido como simulação estocástica e é um método
relativamente simples e fácil de implementar.
Neste trabalho, apresenta-se a aproximação de Monte Carlo para o cálculo de
integrais unidimensionais e multidimensionais, com limites de integração finitos e infinitos;
para simulação de eventos discretos, isto é, para representar um sistema arbitrário conforme
ele se desenvolve ao longo do tempo. Um sistema de eventos discretos é definido como o
sistema no qual a variável temporal é discreta e as variáveis de estado são discretas ou
contínuas. Correspondentemente, um sistema de eventos contínuos é o sistema no qual o
tempo é uma variável contínua e todas as variáveis de estado são contínuas. A característica
essencial de um sistema de eventos discretos é que o estado entre pontos discretos(eventos)
consecutivos mantém-se inalterado. Na simulação de um tal processo, isso é necessário
somente para avançar o tempo de um evento para o próximo sem se preocupar com tempos
intermediários.
Assim, será estudado o Método de Monte Carlo e aplicações. A simulação de Monte
Carlo será utilizada ao longo do trabalho para resolver os seguintes problemas: Cálculo de
integrais; Risco de uma empresa de seguros; Modelo de controle de estoque de uma loja;
Ganho esperado em possuir uma opção de compra de ações. Todas essas aplicações podem
20 Introdução
1 Elementos de Probabilidade
Axioma 2.
P (Ω) = 1
Axioma 3.
Para cada sequência de eventos mutuamente exclusivos E1 , E2 , . . . (isto é, eventos
para os quais Ei Ej = ∅ quando i 6= j),
∞ ∞
!
[ X
P Ei = P (Ei ).
i=1 i=1
2. F é não-decrescente;
1, se ω = cara;
X(ω) =
0, se ω = coroa.
0,
se x < 0;
F (x) = 1/2,
se 0 ≤ x < 1;
1, se x ≥ 1.
Note que as propriedades de função de distribuição são facilmente verificadas e que F (x) é
não decrescente para todo x real e, assim, vale a propriedade 2.
Exemplo 2. Suponha que, após um exame médico, pessoas sejam diagnosticadas como
tendo diabetes (D) e não tendo diabetes (N). Admita que três pessoas sejam escolhidas ao
acaso e classificadas de acordo com esse esquema.
O espaço amostral é dado por Ω = {DDD, DDN, DN D, N DD, N N D, N DN, DN N, N N N }.
O objetivo é saber quantas pessoas com diabetes foram encontradas, não interessando a
ordem em que tenham sido selecionadas. Isto é, deseja-se estudar a variável aleatória X, a
qual atribui a cada resultado ω ∈ Ω o número de pessoas com diabetes. Consequentemente,
o conjunto dos possíveis valores de X é {0, 1, 2, 3}, ou seja, X é uma variável aleatória
discreta.
Definição 6. Seja X uma variável aleatória discreta que assume os valores {x1 , x2 , . . .}
e seja p(x) a função de probabilidade de X, isto é, p(xi ) = P (X = xi ). Então, o valor
esperado de X, também chamado de esperança de X e denotado por E(X), é definido por
∞
X ∞
X
E(X) = xi p(xi ) = xi P (X = xi ).
i=1 i=1
Observa-se que o valor esperado E(X) só está definido se a série acima for absolutamente
convergente, ou seja, se
∞
X
E(X) = |xi |P (X = xi ) < ∞.
i=1
Observações:
Definição 9. Seja X uma variável aleatória contínua com função densidade de pro-
babilidade f (x). Define-se o valor esperado ou esperança matemática ou média de X
por
Z ∞
E(X) = xf (x)dx,
−∞
desde que a integral esteja bem definida. Caso E(X) seja finita, diz-se que X é integrável.
Observações:
P (Y ∈ A) = P (g(X) ∈ A),
Neste caso pode-se escrever g −1 (y) em vez de g −1 ({y}). A quantidade g −1 (y) pode ser um
conjunto, desde que exista mais do que um valor x para os quais g(x) = y. Caso exista
um único x para o qual g(x) = y, então g −1 ({y}) é o conjunto com um único ponto {x}
e escreve-se g −1 (y) = x. Considere a variável aleatória Y definida por Y = g(X), para
qualquer conjunto A ∈ Y,
P (Y ∈ A) = P (g(X) ∈ A)
= P ({x ∈ X : g(x) ∈ A})
= P (X ∈ g −1 (A)).
Isto define a distribuição de probabilidade de Y.
Definição 10. Seja f (x) a função densidade de probabilidade ou, a função massa de
probabilidade de uma variável aleatória X se X é contínua ou discreta, respectivamente.
O valor esperado ou média de uma variável aleatória g(X), denotada por E(g(X)), é
Z ∞
g(x)f (x)dx, se X é contínua
−∞
E(g(X)) = X X
g(x)f (x) = g(x)P (X = x), se X é discreta
x∈X x∈X
26 Capítulo 1. Elementos de Probabilidade
1. Se X = c então E(X) = c.
2. E(cX) = cE(X).
5. E(X ± c) = E(X) ± c.
Isto é,
Var(X) = E X 2 − [E(X)]2 .
Exemplo 5. Suponha que X seja uma variável aleatória contínua com função densidade
de probabilidade
1 + x, se − 1 ≤ x ≤ 0;
f (x) =
1 − x, se 0 ≤ x ≤ 1.
Calcule Var(X).
1.3. Variância e desvio-padrão 27
Tem-se
!0 !1
Z 0 Z 1
x3 x2 x2 x3
E(X) = x(1 + x)dx + x(1 − x)dx = + + − =0
−1 0 3 2 −1
2 3 0
e
!0 !1
Z 0 Z 1
x4 x3 x3 x4 1
E(X 2 ) = x2 (1 + x)dx + x2 (1 − x)dx = + + − = .
−1 0 4 3 −1
3 4 0
6
Portanto,
1
Var(X) = E(X 2 ) − [E(X)]2 = .
6
Propriedades da Variância
Var(X + c) = Var(X).
De fato,
Portanto,
Var(X + c) = E(X 2 ) − [E(X)]2 = Var(X).
Var(cX) = c2 Var(X).
De fato,
Var(cX) = c2 E(X 2 ) − c2 [E(X)]2 = c2 Var(X).
De fato,
Var(X + Y ) = E[(X + Y )2 ] − [E(X + Y )]2 ,
ou seja,
Definição 13. Uma variável aleatória discreta X, que toma valores 0, 1, 2, . . . é dita ser
de Poisson com parâmetro λ > 0, se:
e−λx (λt)k
P (X = k) = .
k!
O valor esperado e a variância são dados por:
Definição 14. Uma variável aleatória contínua X tem distribuição uniforme no intervalo
(a, b) se sua função densidade de probabilidade for dada por:
1
b−a
, se a ≤ x ≤ b;
f (x) =
0, caso contrário.
a+b (b − a)2
E(X) = Var(X) =
2 12
1.4. Distribuições contínuas e discretas 29
Definição 15. Uma variável aleatória contínua com função densidade de probabilidade
para algum λ > 0 é dita ser uma variável aleatória exponencial com parâmetro λ.
Notação: X ∼ exp(λ).
A função de distribuição acumulada é
F (x) = 1 − e−λx .
Definição 16. Uma variável aleatória contínua X é dita ser normalmente distribuída
com média µ e variância σ 2 se sua função densidade de probabilidade for dada por:
" 2 #
1 1 x−µ
f (x) = √ exp − , x ∈ (−∞, ∞).
2πσ 2 2 σ
Notação: X ∼ N (µ, σ 2 ).
Não é difícil mostrar que os parâmetros µ e σ 2 são iguais à esperança e à variância
da normal. Isto é,
E[X] = µ e Var(X) = σ 2 .
30 Capítulo 1. Elementos de Probabilidade
1 Z x −x2 /2
Φ(x) = √ e dx, −∞ < x < ∞.
2π −∞
F (x) = P {X 6 x}
X −µ x−µ
= P ≤
σ σ
x−µ
= P Z≤
σ
x−µ
= Φ .
σ
1.4. Distribuições contínuas e discretas 31
Definição 17. Suponha que eventos estejam ocorrendo em intervalos de tempo aleatórios
e seja N (t) o número de eventos que ocorrem no intervalo de tempo [0, t]. Estes eventos
são ditos constituírem um processo de Poisson de taxa λ > 0, se :
4. limh→0 P (N (h)=1)
h
= λ, isto é, em um intervalo pequeno de comprimento h, a probabi-
lidade de um evento ocorrer é aproximadamente λh.
5. limh→0 P (N (h)≥2)
h
= 0, isto é, em um intervalo pequeno de comprimento h, a probabi-
lidade de dois ou mais eventos ocorrerem é nula.
Definição 20. A média amostral é a média aritmética dos valores em uma amostra
aleatória. Isso é denotado geralmente por
n
X 1 + · · · + Xn 1X
X= = Xi .
n n i=1
Definição 21. A variância amostral é a estatística definida por
n
1 X
S2 = (Xi − X)2 .
n − 1 i=1
√
O desvio-padrão amostral é a estatística definida por S = S 2.
34 Capítulo 2. Um pouco de Inferência Estatística
n n
(xi − a)2 = (xi − x)2 ,
X X
1. min
a
i=1 i=1
n
2. (n − 1)s2 = i = 1n (xi − x)2 = x2i − nx2 .
X
i=1
1. E(X) = µ,
σ2
2. V arX = n
,
3. E(S 2 ) = σ 2 .
Demonstração. Para provar (1), seja g(Xi ) = Xi /n, então E(g(Xi )) = µ/n. Logo,
n n
! !
1X 1 X 1
E(X) = E Xi = E Xi = nE(X1 ) = µ.
n i=1 n i=1 n
Segue que
√ (X − µ)
!
P −zα/2 < n < zα/2 ≈ 1 − α.
S
O que equivale a
!
S S
P −zα/2 √ < X − µ < zα/2 √ ≈ 1 − α.
n n
√
Ou seja, com probabilidade 1 − α, µ estará na região X ± zα/2 S/ n.
Como z0.025 = 1.96, pode-se afirmar com 95% de confiança que X não difere de µ por mais
√
de 1.96S/ n.
Observação: A probabilidade do intervalo a ser escolhido conter o verdadeiro valor da
média é igual a 1 − α. Em outras palavras, obtendo várias amostras e, para cada uma delas,
calculando-se o correspondente intervalo de confiança para µ, tem-se que 100(1 − α)% das
amostras conterão o valor de µ e 100α% das amostras não conterão a média populacional.
E(X)
P (X ≥ t) ≤ .
t
Demonstração. Por conveniência, assuma que X tem uma distribuição discreta para a
qual a função de probabilidade é f . A prova para uma distribuição contínua ou tipos mais
36 Capítulo 2. Um pouco de Inferência Estatística
Como X só pode ter valores não negativos, então todos os valores do somatório são não
negativos. Logo,
X X
E(X) ≥ xf (x) ≥ tf (x) = tP (X ≥ t),
x≥t x≥t
Portanto,
E(X)
≥ P (X ≥ t).
t
Corolário 11 (Desigualdade de Chebyshev). Seja X uma variável aleatória tal que Var(X)
existe. Então, para cada número t > 0,
Var(X)
P (|X − E(X)| ≥ t) ≤ .
t2
Demonstração. Seja Y = [X − E(X)]2 . Então P (Y ≥ 0) = 1 e E(Y ) = Var(X). Aplicando
a desigualdade em Y , obtém-se
Var(X)
P (|X − E(X)| ≥ t) = P (Y ≥ t2 ) ≤ .
t2
Pode ser visto a partir desta prova que a desigualdade Chebyshev é simplesmente
um caso especial da desigualdade de Markov. Portanto, os comentários que foram dados
após a prova da desigualdade de Markov podem ser aplicados também à desigualdade
de Chebyshev. Por causa de sua generalidade, estas desigualdades são muito úteis. Por
exemplo, se Var(X) = σ 2 e ao tomar t = 3σ, então a desigualdade de Chebyshev produz:
1
P (|X − µ| ≥ 3σ) ≤ .
9
2.4. Lei dos grandes números 37
lim P (|Zn − Z| ≥ ε) = 0.
n→∞
P
Notação: Zn −
→ Z.
A principal ideia da convergência em probabilidade é que, quando n é arbitraria-
mente grande, a probabilidade da diferença |Zn − Z| ser maior do que qualquer número
positivo ε tende a zero.
P lim Zn = Z = 1,
n→∞
ou equivalentemente,
P {ω ∈ Ω : lim Zn (ω) = Z(ω)} = 1.
n→∞
q.c.
Notação: Zn −−→ Z.
Este resultado nos diz que, o conjunto dos ω em que Zn 9 Z tem probabilidade
zero. A convergência quase certa é uma convergência pontual em um conjunto de medida
1, ou seja, Zn (ω) → Z(ω) para quase todo ω, exceto aqueles dentro de um conjunto
de medida nula, ao contrário da convergência em probabilidade, que não diz respeito à
38 Capítulo 2. Um pouco de Inferência Estatística
Teorema 13 (Lei dos Grandes Números). Suponha que X1 , . . . , Xn forma uma amostra
aleatória de uma distribuição cuja média é µ e a variância é finita. Denote por X n a média
amostral. Então
P
Xn −→ µ.
Agora pode-se formular a Lei dos Grandes Números de uma maneira mais geral do
que a vista anteriormente.
Sejam X1 , X2 , . . . variáveis aleatórias integráveis e sejam S1 , S2 , . . . as somas parciais,
definidas por Sn = X1 + · · · + Xn .
Definição 24. Diz-se que X1 , X2 , . . . satisfazem a Lei Fraca dos Grandes Números se
Sn − E(Sn ) P
−
→ 0,
n
ou, equivalentemente, se
!
X
1 + · · · + Xn − (E(X1 ) + · · · + E(Xn ))
P ≥ ε → 0, ∀ε > 0.
n
Definição 25. Diz-se que X1 , X2 , . . . satisfazem a Lei Forte dos Grandes Números se
Sn − E(Sn ) q.c
−→ 0
n
2.4. Lei dos grandes números 39
ou, equivalentemente, se
Sn
→p em probabilidade.
n
Demonstração. Seja
1, se o n-ésimo ensaio é sucesso,
Xn =
0, se o n-ésimo ensaio é fracasso.
Sn − np P
−
→ 0,
n
ou equivalentemente,
Sn P
−
→ p.
n
40 Capítulo 2. Um pouco de Inferência Estatística
Sn
→µ em probabilidade.
n
Proposição 17 (Lema de Borel-Cantelli). Seja {An }n≥1 uma sequência de eventos alea-
tórios. Temos que:
∞
X
1. Se P (An ) < ∞, então P n→∞
lim sup An = 0.
n=1
∞
X
2. Se P (An ) = ∞ e os eventos {An }n≥1 são independentes, então P lim sup An =
n→∞
n=1
1.
|Sn | |X1 + · · · + Xn |
= , n = 1, 2, . . . ,
n n
não é limitada.
Sn
Observação: A Lei Forte afirma que as Xn são integráveis, então converge para um
n
limite finito (= E(X1 )) com probabilidade 1. A recíproca diz que se as Xn não forem
Sn
integráveis, então, com probabilidade 1, não convergirá para um limite finito.
n
" #
|Xn |
Por independência das Xn , os eventos An = ≥ k são independentes, e a Proposição
n
de Borel-Cantelli implica
!
|Xn |
P ≥ k = 1, ∀k ∈ N.
n
" #
|Xn |
Fazendo Bk = ≥ k , tem-se
n
∞
!
\
P Bk = 1,
k=1
|Sn−1 | |Sn−1 | (n − 1)
= .
n (n − 1) n
|Sn |
e 12 ≤ n−1
n
< 1, de modo que |Sn−1 |/n é ilimitada se, e somente se também o é (note
n
que |Sn−1 |/n − 1, para n ≥ 2, forma a mesma sequência que |Sn |/n, n ≥ 1).
Para provar a Lei Forte, primeiro será vista uma extensão da desigualdade de
Chebyshev.
n
1 1 X
P max |Sk | ≥ λ ≤ Var (Sn ) = Var Xk ,
1≤k≤n λ2 λ2 k=1
onde Sk = X1 + · · · + Xk .
∞
X Var (Xn )
< +∞.
n=1 n2
42 Capítulo 2. Um pouco de Inferência Estatística
X1 + · · · + Xn (E(X1 ) + · · · + E(Xn ))
− → 0 quase certamente.
n n
Corolário 21. A Lei Forte é satisfeita por toda sequência de variáveis aleatórias indepen-
dentes e uniformemente limitadas.
X1 + · · · + Xn q.c
−→ µ.
n
Corolário 23 (Lei Forte de Borel). Sejam X1 , X2 , . . . variáveis aleatórias independentes e
identicamente distribuídas tais que P (Xn = 1) = p, P (Xn = 0) = 1 − p. Então Sn /n → p
quase certamente, onde Sn = X1 + · · · + Xn .
43
3 Números Aleatórios
1. Para qualquer semente inicial, a sequência resultante deve ter a “aparência” de uma
sequência de variáveis aleatórias uniformes (0,1) independentes.
2. Para qualquer semente inicial, o número de variáveis que podem ser geradas antes
da repetição ocorrer deve ser grande.
λi
pi = P {X = i} = e−λ
, i = 0, 1, . . .
i!
A chave para usar o método da transformada inversa para gerar uma tal variável aleatória
é dada pela seguinte identidade:
λ
pi , i ≥ 0.
pi+1 =
i+1
Ao utilizar a recursão acima para calcular as probabilidades de Poisson quando elas são
necessárias, o algoritmo da transformada inversa para gerar uma variável aleatória de
Poisson com média λ pode ser expresso como segue.
Passo 2. i = 0, p = e−λ , F = p.
Suponha agora que se quer gerar uma variável aleatória contínua tendo função distribuição
F.
Proposição 25. Seja U uma variável aleatória uniforme (0,1). Para qualquer função
distribuição contínua F, a variável X definida por X = F −1 (U ) tem distribuição F . [F −1 (u)
é tal que F (x) = u].
Essa proposição mostra que pode-se gerar uma variável aleatória X de uma função
distribuição contínua F gerando um número aleatório U e tomando X = F −1 (U ).
Se X é uma variável aleatória exponencial com taxa 1, então sua função distribuição é
dada por
F (x) = 1 − e−x .
u = F (x) = 1 − e−x
ou
1 − u = e−x
x = − ln(1 − u).
Daí, pode-se gerar uma exponencial com parâmetro 1 gerando um número aleatório U e
em seguida fazendo
X = F −1 (U ) = − ln(1 − U ).
Uma pequena economia de tempo pode ser obtida notando que 1−U também é uma uniforme
em (0, 1) e assim, − ln(1 − U ) tem a mesma distribuição que − ln(U ). Isto é, o logaritmo
negativo de um número aleatório é exponencialmente distribuído com taxa 1.
46 Capítulo 3. Números Aleatórios
Além disso, note que se X é uma exponencial com média 1, então para qualquer
constante c, cX é uma exponencial com média c. Assim, uma variável aleatória exponencial
X com taxa λ (média λ1 ) pode ser gerada através da geração de um número aleatório U e
fazendo
1
X = − ln U.
λ
Técnica da aceitação-rejeição
Suponha que se tenha um método eficiente para simular uma variável aleatória com
função massa de probabilidade {qj , j ≥ 0}. Pode-se usar essa variável como a base para
simular uma variável da distribuição tendo função massa de probabilidade {pj , j ≥ 0}.
Primeiro, gera-se uma variável aleatória Y com função massa de probabilidade {qi } e então
aceita-se este valor simulado com uma probabilidade proporcional a pY /qY .
Especificamente, seja c uma constante tal que pqjj ≤ c, ∀j ≥ 0 com pj > 0.
Seja o método para simular uma variável aleatória X com função massa de probabilidade
pj = P (X = j).
Teorema 27. O algoritmo da aceitação-rejeição gera uma variável aleatória X tal que
P (X = xj ) = pj , j = 0, 1, . . .. Ademais, o número de iterações do algoritmo necessárias
para obter X é uma variável aleatória geométrica com média c.
Suponha que existe um método para gerar uma variável aleatória tendo função
densidade de probabilidade g(x). Pode-se usá-lo como base para gerar uma variável
aleatória de uma distribuição contínua com função densidade de probabilidade f (x).
f (y)
Especificamente, seja c uma constante tal que ≤ c, ∀j ≥ 0.
g(y)
Teorema 28. Considere o algoritmo aceitação-rejeição, que gera uma variável aleatória
com função densidade f (x) a partir de uma variável aleatória com função densidade g(x).
Pode-se afirmar que:
2 2
f (x) = √ e−x /2 0 < x < ∞.
2π
O algoritmo a seguir gera uma exponencial com taxa 1 e variável aleatória normal padrão
independente.
Y1 ,
se U ≤ 12 ,
Z=
−Y1 , se U > 12 .
Detalhes de como o algoritmo foi obtido podem ser encontrados em (ROSS, 2006).
48 Capítulo 3. Números Aleatórios
Passo 1. t = 0, I = 0.
O valor final de I no algoritmo acima vai representar o número de eventos que ocorrem no
tempo T , e os valores S(1), . . . , S(I) serão os tempos dos I eventos em ordem crescente.
Esses resultados podem ser vistos com mais detalhes em (ROSS, 2006).
49
θ = E(X).
Suponha, além disso, que possam ser gerados valores de variáveis aleatórias independentes
com a mesma distribuição de probabilidade de X. Cada vez que for gerado um novo valor,
diz-se que uma simulação foi concluída. Suponha que vão ser realizadas n simulações,
assim, serão gerados X1 , X2 , . . . , Xn . Se
n
1X
X= Xi
n i=1
for sua média, então pela lei forte dos grandes números, X será usado como um estimador
para θ. Seu valor esperado e sua variância são dados a seguir. Para o valor esperado tem-se
n
1X
E(X) = E(Xi ) = θ.
n i=1
Fazendo
σ 2 = V ar(X),
tem-se
σ2
Var(X) = .
n
Além disso, decorre do Teorema Central do Limite que, para n grande, X terá
√
uma distribuição normal aproximada. Assim, se σ/ n é pequeno, então X tende a estar
próximo de θ e, quando n for grande, X será um bom estimador para θ. Esta abordagem
para estimar um valor esperado é conhecida como a simulação de Monte Carlo. Mais
detalhes podem ser vistos em (ROSS, 2011) e (RUBINSTEIN, 1981).
A seguir faz-se uma estimativa do valor de π utilizando o método de Monte Carlo
(ROSS, 2006).
Figura 7: Quadrado
Então,
π
E(I) = P {X 2 + Y 2 ≤ 1} = .
4
Assim, pode-se estimar π/4 gerando um grande número de pares de números aleatórios
u1 , u2 e estimando π/4 pela fração dos pares para os quais (2u1 − 1)2 + (2u2 − 1)2 ≤ 1.
mais do que 1.96d. Pode-se então continuar a gerar novos dados até terem sido gerados n
√ √
dados nos quais o estimador de σ/ n, a saber, S/ n, seja menor que o valor aceitável d.
Como o desvio-padrão amostral S pode não ser particularmente um bom estimador de
σ quando o tamanho da amostra é pequeno, recomenda-se o procedimento a seguir para
determinar quando parar de gerar novos dados.
Passo 3. Continue gerando valores de dados adicionais, parando quando tiver gerado
√
n valores e S/ n < d, onde S é o desvio-padrão amostral baseado naqueles n valores.
n
X
Passo 4. A estimativa para θ é dada por X = Xi /n.
i=1
a média amostral e variância amostral dos primeiros j valores. Para calcular sucessivamente
o valor atual da média e variância amostral, pode-se utilizar a recursão seguinte.
Com S12 = 0, X 0 = 0, tem-se:
Xj+1 − X j
X j+1 = X j + ,
j+1
!
2 1
Sj+1 = 1− Sj2 + (j + 1)(X j+1 − X j )2 .
j
n
X
Como X = Xi /n é um estimador não-viesado para θ, segue-se que o erro
i=1
quadrado médio é igual a sua variância. Isto é,
Var(X)
E((X − θ)2 ) = Var(X) = .
n
Assim, se for possível obter uma estimativa não-viesada para θ com uma variância
menor do que a de X, conseguiria-se um estimador melhorado. Baseado nisto, são utilizadas
as técnicas de redução de variância, que podem ser vistas em (ROSS, 1997), (KROESE
DIRK P.; TAIMRE, 2011), (CASELLA G.; BERGER, 2001), (RUBINSTEIN, 1981),
(ROBERT C. P.; CASELLA, 1999) e (KAHN H.; MARSHALL, 1953), que buscam um
estimador com uma variância menor que a de X.
53
5.1.1 Objetivo
Calcular algumas integrais unidimensionais e multidimensionais com diferentes
limites de integração, incluindo −∞ e + ∞. Os resultados obtidos serão comparados com
a solução analítica e também será considerado o número de simulações necessárias para se
obter um estimador com desvio padrão menor do que uma cota dada.
5.1.2 Modelo
Seja g(x) uma função e suponha que se quer calcular θ onde:
Z 1
θ= g(x)dx.
0
k
X g(Ui )
−→ E[g(U )] = θ,
i=1 n
onde n −→ ∞.
Assim, pode-se aproximar θ gerando uma grande quantidade de números aleatórios
ui e tomar como aproximação o valor médio de g(ui ).
Z b
5.1.2.1 Cálculo de g(x)dx
a
Z b
x−a dx
Para calcular g(x)dx basta realizar uma substituição y = , dy = .
a b−a (b − a)
Assim, obtém-se: Z 1 Z 1
θ= g(a + [b − a]y)(b − a)dy = h(y)dy,
0 0
g( y1 − 1)
onde h(y) = .
y2
Tem-se que θ pode ser expresso como θ = E[g(U1 , . . . , Un )], onde U1 , . . . , Un são
variáveis aleatórias uniformes (0,1) independentes. Portanto, para calcular θ é preciso
gerar k conjuntos independentes, cada um consistindo de n variáveis uniformes (0,1)
independentes:
5.1. Simulação de Monte Carlo para o cálculo de integrais 55
U11 , . . . , Un1
U12 , . . . , Un2
..
.
U1k , . . . , Unk .
5.1.3 Experimentos
Foram realizados cálculos de integrais simples e múltiplas, com diferentes limites de
integração, com 100 simulações e com N simulações, onde N está relacionado com o desvio
padrão da média, isto é, N representa o número de simulações realizadas até o desvio
padrão da média ficar abaixo de uma cota d fornecida pelo usuário. Neste experimento,
foi considerado d = 0.0051, pois, neste caso, pode-se garantir com 95% de confiança que a
média amostral não diferirá do valor da integral por mais de 0.01.
Gráficos - Pontos gerados de uma função f
A seguir, serão exibidas algumas funções f (x) e os pontos gerados de cada uma delas.
Em cada caso, a média amostral dos valores de f (x) obtidos foi usada como estimativa da
integral. Para cada uma das funções, inicialmente, foram gerados 100 pontos e em seguida,
o número de pontos gerados foi o número de simulações N necessárias para que o desvio
padrão da média ficasse abaixo de uma dada cota.
1.0 1.0
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
0.5 0.5
0.4 0.4
0.3 0.3
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
2.0
1.5
1.0
0.5
0.0
0.5
1.2
1.0
0.8
0.2 0.0 0.6
0.2 0.4 0.4
0.6 0.8 0.2
1.0 1.2 0.20.0
1.2
1.0
0.8
0.6
0.4
0.2
0.0
0.2
1.2
1.0
0.8
0.2 0.0 0.6
0.2 0.4 0.4
0.6 0.8 0.2
0.0
1.0 1.2 0.2
x y
Figura 15: Gráfico da função f5 (x, y) = + , x ∈ [1, 4], y ∈ [1, 2]
y x
11
10
9
8
7
6
5
2.2
2.0
1.8
0.5 1.0 1.6
1.5 2.0 1.4
2.5 3.0 1.2
3.5 4.0 1.0
4.5 0.8
x y
Figura 16: Gráfico de f5 (x, y) = + , x ∈ [1, 4], y ∈ [1, 2] gerado com N = 100 e
y x
N = 68638
58 Capítulo 5. Aplicações do Método de Monte Carlo
Variáveis
2. Variáveis contadoras - Essas variáveis contam o número de vezes que certo evento
ocorreu num tempo t.
Sempre que ocorre um “evento”, os valores das variáveis acima são alterados ou
atualizados, e todos os dados de interesse são coletados. Para determinar quando o próximo
evento vai ocorrer, mantém-se uma “lista de eventos”, que lista os próximos eventos e
quando eles estão programados para ocorrer. Sempre que ocorrer um evento, é preciso
restabelecer a variável temporal, assim como todas as variáveis de estado e as variáveis
contadoras, e por fim coletar os dados relevantes. Desta forma, é possível acompanhar o
sistema conforme ele evolui ao longo do tempo.
Com o exposto acima, pode-se dar uma ideia geral dos elementos de uma simulação
de eventos discretos. Entretanto, é útil, para entender melhor, olhar alguns exemplos. Neste
trabalho, apresentam-se três exemplos de simulação de eventos discretos: Um modelo de
controle de estoque de uma loja, um modelo de risco de uma empresa de seguros e um
modelo de compra de opções. Em todos será utilizado o Método de Monte Carlo.
5.2.1.2 Modelo
• Cada segurado existente permanece na empresa por um tempo dado por uma
distribuição exponencial com taxa µ.
• Cada segurado paga à empresa de seguro um valor fixo c por unidade de tempo.
Variável Tempo: t
Vale observar que se (n, a) representa o estado do sistema no momento t então, de-
vido ao fato do mínimo de variáveis aleatórias exponenciais também ser exponencial, o
tempo em que o próximo evento vai ocorrer será igual a t + X, onde X é uma variável
aleatória exponencial com taxa v + nµ + nλ. Além disso, não importa quando ocorre este
próximo evento, ele vai resultar de
v
• Um novo segurado, com probabilidade .
v + nµ + nλ
nµ
• A saída de um segurado, com probabilidade .
v + nµ + nλ
nλ
• Um sinistro, com probabilidade .
v + nµ + nλ
v
J = 1, com probabilidade .
v + nµ + nλ
nµ
J = 2, com probabilidade .
v + nµ + nλ
nλ
J = 3, com probabilidade .
v + nµ + nλ
Variável de Saída: I
I = 1, se o capital da empresa é não negativo no intervalo [0, t].
I = 0, caso contrário.
5.2.1.3 Algoritmo
Inicializar:
Primeiro inicialize
t = 0, a = a0 , n = n0
tE = X
Para atualizar o sistema é preciso se deslocar até o próximo evento. Será feita no
mínimo 100 simulações.
Etapa de Atualização:
Caso 1: tE > T :
Faça I = 1 e termine a execução.
Caso 2: tE 6 T :
Atualize
a = a + nc(tE − t)
t = tE
Gere J:
J = 1: faça n = n + 1
J = 2: faça n = n − 1
J = 3: Gere Y.
62 Capítulo 5. Aplicações do Método de Monte Carlo
Número de simulações
Caso no final das 100 simulações iniciais, o desvio padrão da variável de saída I for
maior do que 0.02, todo o processo será repetido até o desvio padrão ser menor do que
0.02. Para isso, ao término de cada nova simulação atualiza-se a média e o desvio padrão
de I fazendo:
!
Ij+1 − I j 1
I j+1 = Ij + e S2 = 1 − Sj2 + (j + 1)(I j+1 − I j )2
j+1 j
5.2.1.4 Experimentos
Caso A Caso B
Capital da empresa (x 1000) 300 500 700 1000 700 700 700 700
Valor pago pelo seguro 120 120 120 120 105 110 115 130
Número de simulações 340 604 540 228 138 403 618 110
Probabilidade de capital não negativo 14% 42% 75% 89% 7% 20% 44% 95%
Tabela 3: Tabela do risco de uma empresa de seguros
5.2.2.2 Modelo
• A quantidade pedida por cada cliente é uma variável aleatória com distribuição G.
• O gerente de estoque usa uma política de encomenda (s, S); ou seja, sempre que
o estoque for inferior a s e não houver nenhum pedido, então pede-se determinada
quantidade para que o estoque cresça até S, onde s < S.
Será utilizada simulação para estimar o ganho esperado da loja até certo tempo
fixo T . Para isso, primeiro serão definidas as variáveis e os eventos da seguinte maneira.
Variável temporal: t
Variável de estado do sistema: (x, y), onde x é a quantidade disponível no
estoque e y a quantidade solicitada.
Variáveis de contagem:
C, valor total dos custos dos pedidos até t;
H, valor total dos custos de manutenção do estoque até t;
R, rendimento total até t.
5.2.2.3 Algoritmo
Número de simulações
Caso no final das 100 simulações iniciais, o desvio padrão da variável de saída P for maior
do que 0.51, todo o processo será repetido até o desvio padrão ser menor do que 0.51. Esse
valor foi escolhido pois, desse modo, pode-se garantir com 95% de confiança que a média
amostral não diferirá da média θ por mais de 1.
5.2.2.4 Experimentos
• Custo por unidade de tempo por produto que a loja gasta para manter o produto no
estoque: $ 5, 00
mercadorias (boi gordo, café arábica, milho e soja). Mais detalhes podem ser vistos em
(ADVFN, ).
5.2.3.1 Objetivo
Usar simulação de Monte Carlo para calcular o ganho esperado em possuir uma
opção de compra baseado em uma política para exercício dessa opção.
5.2.3.2 Definições
Definição 26. Uma opção é o direito de comprar ou vender um ativo específico, por um
preço, adquirido mediante o pagamento de um valor (o prêmio), para ser exercido em uma
data preestabelecida (data de vencimento).
Definição 27. O comprador de uma opção de compra americana pode exercer seu
direito a qualquer momento até a data de exercício (vencimento).
Definição 28. O comprador de uma opção de compra europeia pode exercer seu
direito apenas na data de exercício (vencimento).
• Você compra por R$ 2 uma opção PETRL32 que te dá o direito de adquirir ações da
Petrobrás por R$ 32 no dia 18/12/14.
• Se no dia 18/12 a ação custar R$ 31, você não exerce seu direito.
Definição 29. Considere o tempo atual igual a 0 e S(y) o preço de um título no tempo
y a partir do tempo atual. Diz-se que uma coleção de preços S(y), 0 ≤ y ≤ ∞ segue um
movimento browniano geométrico (MGB) com parâmetros de tendência (“drift”) µ
e volatilidade σ se, para todos os valores não- negativos de y e t, a variável aleatória
S(t + y)
S(y)
é independente de todos os preços até o tempo y; e, se além disso,
!
S(t + y)
log
S(y)
Uma consequência da definição acima é que uma vez que µ e σ estão determinados,
apenas o preço presente - e não a história dos preços passados - que afeta as probabilidades
dos preços futuros.
5.2.3.3 Modelo
Sn = S0 exp{X1 + · · · + Xn }, n ≥ 0,
• Esse modelo supõe que a cada dia o aumento percentual do preço em relação ao dia
anterior tem uma distribuição comum.
70 Capítulo 5. Aplicações do Método de Monte Carlo
σ2
• Seja α = µ + e suponha que uma pessoa possui uma opção de compra de uma
2
unidade desta ação a um preço fixo K, chamado o preço de exercício (striking price),
ao final de qualquer um dos próximos N dias.
Com base na figura 21, pode-se obter as conclusões a seguir. Para detalhes sobre
precificação de opções, consulte (BLACK F.; SCHOLES, 1973).
Figura 21: Relação entre o valor da opção e o preço de um ativo, (BLACK F.; SCHOLES,
1973).
• Linha B representa o valor mínimo da opção, desde que seu valor não pode ser
negativo e não pode ser menor do que o preço da ação menos o preço de exercício.
5.2. Simulação de Eventos Discretos 71
O ganho esperado ao possuir a opção (a qual não será exercida a menos que o
preço da ação exceda K, durante o período de tempo de interesse) depende da política
empregada para o exercício da opção.
Política quando α ≥ 0:
Pode-se mostrar que se α ≥ 0 então a política ótima é esperar até o último momento
possível N para exercer a opção, desde que o preço exceda K e, não exercer, caso contrário.
√
Pm > K + Pm eiα Φ(σ i + bi ) − KΦ(bi ),
iµ − ln(K/Pm ) 1 Z x −t2 /2
com bi = √ e Φ(x) = √ e dt.
σ i 2π ∞
• Seja SP o preço da ação quando a opção é exercida, caso ela seja exercida e, considere
SP igual a K, se a opção nunca é exercida.
• Para simular o preço da ação em dias separados, basta gerar uma variável aleatória
normal X com média µ e desvio padrão σ e então usar a relação Pm−1 = Pm ex .
• Se Pm é o preço com m dias para a opção expirar e a política não indica o exercício
da opção naquele momento, então deve-se gerar X, determinar o novo preço Pm−1 e
avaliar se a opção será exercida neste momento.
5.2.3.4 Algoritmo
σ2
Entrada: µ, σ, K, N, S0, α = µ + 2
Inicializar: m = N, P = S0, I = 0
While I = 0 e m > 0, atualize P :
√
Calcule V = maxm iα
i=1 (K(1 − Φ(bi )) + P e Φ(σ i + bi ))
Se P < max(K, V ):
gere X ∼ Normal(µ, σ 2 )
P = P eX
m=m−1
Caso contrário, I = 1
Saída:
Se I = 1, retorne P K =max(P − k, 0) e N − m
Caso contrário, retorne 0.
Ao final das simulações obteremos E[P − K] e E[N − m].
Número de simulações
Caso no final das 100 simulações iniciais, o desvio padrão da variável de saída P K for
maior do que 0.51, todo o processo será repetido até o desvio padrão ser menor do que
0.51. Esse valor foi escolhido pois, desse modo, pode-se garantir com 95% de confiança que
a média amostral não diferirá da média θ por mais de 1. Para isso, ao término de cada
nova simulação atualiza-se a média e o desvio padrão de P K fazendo:
P Kj+1 − P K j
P K j+1 = P K j + e
j+1
!
2 1
S = 1− Sj2 + (j + 1)(P K j+1 − P K j )2
j
5.2.3.5 Experimentos
Foi realizado um experimento para avaliar o ganho esperado em exercer uma opção
de compra dada a política de exercício anteriormente descrita. Os resultados estão na
tabelas 6 e 7, que mostram, respectivamente, o ganho médio e o tempo médio para o
exercício de uma opção de compra. Já o gráfico 22 é o intervalo de confiança para a média
do ganho esperado em exercer uma opção de compra. Foram considerados µ = −0.04,
σ = 0.25, N = 20(tempo até o vencimento da opção), K = 100(preço de exercício), S0 =
5.2. Simulação de Eventos Discretos 73
M 100 142
Tempo√médio 16.56 16.59
σ/ M 0.61 0.50
Tabela 7: Tempo médio para exercer uma opção dada a política descrita.
Figura 22: Intervalo de confiança para a média do ganho esperado em exercer uma opção
segundo a política descrita.
75
Conclusão
Variáveis Antitéticas,
Variável de Controle,
Referências
KROESE DIRK P.; TAIMRE, T. B. Z. I. Handbook for Monte Carlo methods. [S.l.]: Wiley,
2011. (Wiley Series in Probability and Statistics). Citado 3 vezes nas páginas 20, 43 e 52.
RAO, C. R. Linear Statistical Inference and its Applications. Second edition. [S.l.]: John
Wiley and Sons, 1973. Citado 2 vezes nas páginas 33 e 43.
ROBERT C. P.; CASELLA, G. Monte Carlo Statistical Methods. [S.l.]: Springer, 1999.
Citado 2 vezes nas páginas 35 e 52.
ROSS, S. M. Simulation. Fourth edition. [S.l.]: Elsevier Academic Press, Inc, 2006. Citado
5 vezes nas páginas 20, 33, 47, 48 e 49.
ROSS, S. M. A First Course in Probability. Eight edition. [S.l.]: Pearson, 2008. Citado 3
vezes nas páginas 21, 31 e 33.
RUBINSTEIN, R. Simulation and the Monte Carlo Method. [S.l.]: John Wiley and Sons,
1981. Citado 2 vezes nas páginas 49 e 52.
TANNER, M. Tools for Statistical Inference. Third edition. [S.l.]: Springer, 1996. Citado
na página 33.
Referências 81