Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
João B. R. do Val
Depto. de Telemática – FEEC – UNICAMP
1 de julho de 2005
INTRODUÇÃO À PROBABILIDADE
INTRODUÇÃO À PROBABILIDADE
(iii) Ω ∈ F
INTRODUÇÃO À PROBABILIDADE
P ROBABILIDADE
E SPAÇO DE P ROBABILIDADE
P ROBABILIDADE C ONDICIONAL
• Seja B um evento tal que P(B) > 0, então para todo evento A
P(A ∩ B)
P(A|B) =
P(B)
“é a probabilidade de A dado que B ocorreu”
P(·|B) é probabilidade ?
Exemplo: Selecionar 3 cartas sem reposição e obter três azes.
INTRODUÇÃO À PROBABILIDADE
Prova
• Regra de Bayes:
P(B|A j ) · P(A j )
P(A j |B) = n
∑ P(B|Ai) · P(Ai)
i=1
I NDEPEND ÊNCIA
Dois eventos A e B são independentes se
P(A ∩ B) = P(A) · P(B)
INTRODUÇÃO À PROBABILIDADE
P ROBABILIDADE C ONJUNTA
P ROBABILIDADE C ONJUNTA
• Probabilidade marginal:
Para A1 ∪ A2 ∪ . . . ∪ An = Ω e B1 ∪ B2 ∪ . . . ∪ Bm = Ω
n
P(B j ) = ∑ P(Ai, B j ) = P(Ω, B j )
i=1
m
P(Ai) = ∑ P(Ai, B j) = P(Ai, Ω)
j=1
e n m
∑ ∑ P(Ai, B j) = 1
i=1 j=1
INTRODUÇÃO À PROBABILIDADE
Ω R
△
FX (x) = P({X(ω) ≤ x})
• Propriedades:
⋆ FX (−∞) = 0
⋆ FX (+∞) = 1
⋆ Se x2 > x1, então FX (x2) ≥ FX (x1) (função monotônica não decrescente)
Prova:
INTRODUÇÃO À PROBABILIDADE
d△
pX (x) = FX (x)
dx
definida para x → FX (x) contı́nua e diferenciável em x
Ex: distribuição uniforme
• Variável aleatória contı́nua
Zx
⋆ FX (x) = pX (y) dy uma vez que FX (−∞) = 0
−∞
⋆ pX (x) ≥ 0 pois FX (x) é monótona não decrescente
Propriedades:
Z+∞ Z+∞
⋆ f (t) δ(t) dt = f (0), δ(t) dt = 1
−∞
−∞
Zt 1, t > 0
⋆ δ(s) ds = u(t) = ( função degrau u(t))
0, t < 0
−∞
d △
“ u(t) = δ(t) ′′
dt
INTRODUÇÃO À PROBABILIDADE
n
pX (x) = ∑ P{X = xi} · δ(x − xi)
i=1
desta forma,
Zx n Zx
FX (x) = pX (y) dy = ∑ P{X = xi} · δ(y − xi) dy
i=1
−∞ −∞
• v. a. mista (contı́nua/discreta)
A LGUMAS P ROPRIEDADES DE FX E pX
Z−∞
P{X > x} = 1 − FX (x) = pX (y) dy
x
Zx 2
Z+∞
pX (y) dy = 1 = FX (+∞) − FX (−∞)
−∞
INTRODUÇÃO À PROBABILIDADE
• v.a.’s contı́nuas:
Exponencial, Gama, Cauchy
• v.a.’s discretas:
Binomial, Geométrica, Poisson
∂2 FXY (x, y)
△
pXY (x, y) =
∂x ∂y
⋆ Propriedades:
– FXY (−∞, y) = 0
– FXY (x, −∞) = 0
– FXY (+∞, +∞) = 1
Prova:
INTRODUÇÃO À PROBABILIDADE
⋆ Mais Propriedades:
d d
Zx Z+∞
⋄ pX (x) = FXY (x, +∞) = pXY (z, y) dy dz
dx dx
−∞ −∞
Z+∞
1 x
Assim,
INTRODUÇÃO À PROBABILIDADE
f (x)
y + ∆y
x x + ∆x x
d f (x)
– Suponha agora < 0 (monotônica decrescente)
dx
pX (x)
pY (y) =
d f (x)
−
dx x= f −1(y)
– Portanto, no caso geral de função biunı́voca:
pX (x)
pY (y) =
d f (x)
dx
x= f −1 (y)
INTRODUÇÃO À PROBABILIDADE
Y
FX
Y1
X1 X
INTRODUÇÃO À PROBABILIDADE
FUNÇ ÃO DE VARI ÁVEL ALEAT ÓRIA : FUNÇ ÃO N ÃO BIUN ÍVOCA
INTRODUÇÃO À PROBABILIDADE
r
θ
x2
1
pX (x) = √ exp(− 2 )
2πσ 2σ independentes, desejamos determinar pR,Θ(r, θ)
1 y2
pY (y) = √ exp(− 2 )
2πσ 2σ
INTRODUÇÃO À PROBABILIDADE
M OMENTOS
1 1
Ex: V.A. de Cauchy pX (x) = · , porém E[|X|] = ∞.
1 + x2 π
M OMENTOS
+∞ Z+∞
E[X] = ∑ P{X = xk } · x δ(x − xk ) dx
k=−∞ −∞
então
+∞
E[X] = ∑ xk · P{X = xk }
k=−∞
INTRODUÇÃO À PROBABILIDADE
M OMENTOS
M OMENTOS
• momentos de ordem k
△
Z+∞
mk = E[X k ] = xk · pX (x) dx < +∞
−∞
INTRODUÇÃO À PROBABILIDADE
M OMENTOS
M OMENTOS
– Se X e Y são independentes:
INTRODUÇÃO À PROBABILIDADE
INTRODUÇÃO À PROBABILIDADE
△
Z
Φ(u) = E[exp( juX)] = exp( jux) · pX (x) dx
√
j= −1 e u parâmetro real. Note que
Z+∞
Φ(−u) = exp(− jux) · pX (x) dx
−∞
é a transformada de fourier de pX (x)
PX (u) = F[pX (x)] = Φ(−u)
PX (u) ou Φ(u) são igualmente utilizadas.
• Se X e Y são independentes e Z = X +Y
PZ (u) = PX+Y (u) = PX (u) · PY (u)
pZ (z) = F−1[PX (u) · PY (u)] = pX (z) ∗ pY (z)
38/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
39/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
△ d △ d
pX (x) = FX (x), ; pX (x|A) = FX (x|A)
dx dx
Tomando A = {X ≥ a}:
P{X ≤ x , X ≥ a}
FX (x|X ≥ a) =
P{X ≥ a}
• para x < a ⇒ FX (x|X ≥ a) = 0
40/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
• para x ≥ a
P{a ≤ X ≤ x}
Zx Za
FX (x|X ≥ a) = = pX (y) dy 1− pX (y) dy
P{X ≥ a}
a −∞
Z x Z+∞
= pX (y) dy pX (y) dy
a a
Portanto,
pX (x)
pX (x|X ≥ a) = +∞
Z · u(x − a)
pX (y) dy
a
41/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
42/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
43/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
E SPERANÇA C ONDICIONAL
△
Z+∞
E[X|A] = x · pX (x|A) dx para A ∈ F e P(A) > 0.
−∞
Z+∞
Z+∞ a
x · pX (x) dx
E[X|X ≥ a] =
−∞
x · pX (x|X ≥ a) dx =
Z+∞
pX (x) dx
a
E SPERANÇA C ONDICIONAL
• Caso Discreto: ∞
E[X|Y = y] = ∑ xiP(X = xi|Y = y)
i=−∞
INTRODUÇÃO À PROBABILIDADE
E SPERANÇA C ONDICIONAL
• Propriedades:
⋄ E[E[Y |X]] = E[Y ] (lei das esperanças iteradas)
Obtida das expressões
Z∞
E[Y ] = E[Y |X = x]pX (x) dx (caso contı́nuo)
−∞
∞
E[Y ] = ∑ E[Y |X = xi]P(X = xi) (caso discreto)
i=−∞
E SPERANÇA C ONDICIONAL
47/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
−3σ −2σ −σ x̄ σ 2σ 3σ
48/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
• Função Caracterı́stica:
1
Φx(u) = exp( jux̄ − u2σ2)
2
resultado: combinação linear de v.a’s gaussianas independentes é v.a. gaus-
siana.
Se Y = α1 X1 + α2X2 + · · · + αn Xn , αi são escalares e as v.a’s Xi são independentes entre si e Xi ∼ N(x̄i , σ2i ),
podemos re-definir
n
Zi = αi Xi , i = 1, . . . , n ⇒ Y = ∑ Zi
i=1
e tem-se que
49/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
50/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
51/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
σ21 cov(X1, X2) · · · cov(X1, Xn)
σ 2
cov(X2, X1) 2
=
.. ... ..
cov(Xn, X1) ··· σn 2
σ21 ρX1X2 σ1σ2 · · · ρX1Xn σ1σn
ρX2X1 σ2σ1 σ 2
2
= .. ... ..
ρXnX1 σnσ1 ··· σn 2
52/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
53/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
• Propriedade importante:
as v.a.’s Xi’s são não-correlatadas ⇐⇒ cov(Xi, X j ) = 0 para todo i 6= j. Neste caso,
e
!
1 1 n (xi − x̄i)2
pZ (z) = p exp − ∑
(2π)nσ21σ2n · · · σ2n 2 i=1 σ2i
(x1 − x̄1)2 (xn − x̄n)2
1
=p exp − 2
· · · exp −
2σ2n
p p
2 2 2 2σ
2πσ1 2πσ2 · · · 2πσn 1
=pX1 (x1)pX2 (x2) · · · pXn (xn)
resultado: Se uma famı́lia de v.a.’s gaussianas são não correlatadas =⇒ elas são
independentes entre si.
54/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
55/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
56/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
2. Segundo Momento
′ ∂2ΦZ
E[ZZ ] = −
∂u2 u=0
1 1
=[( jz̄ − Σu) exp( ju′z̄ − u′Σu)( jz̄ − Σu)′ − Σ exp( ju′z̄ − u′Σu)]u=0
2 2
=z̄z̄ + Σ
′
e note que
E[(Z − z̄)(Z − z̄)′] = z̄z̄′ + Σ − z̄z̄′ = Σ
57/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
3.
E[z] = z̄
E[(z − z̄)2] = σ2z
E[(z − z̄)2k+1] = 0
E[(z − z̄)2k ] = 1 · 3 · 5 · · · (2k − 1)σ2k
z
58/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
Resumo de propriedades:
(a) |σi j | ≤ σiσ j , ∀i, j
59/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
60/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
61/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
62/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
y
1
exp− 2 (z−z̄) Σz (z−z̄)
1 ′ −1
pX,Y (x, y) = pZ (z) = p
(2π)r |Σz|
E neste caso,
" # " #
Σx 0 Σ−1 0
Σz = → Σ−1
z =
x
, |Σz| = |Σx||Σy|
0 Σy 0 Σ−1
y
63/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
Assim,
1 1
pZ (z) = p p ·
(2π)n|Σx| (2π)m|Σy|
1 1
exp(− (x − x̄)′Σ−1
x (x − x̄)) exp(− (y − ȳ) Σy (y − ȳ))
′ −1
2 2
= pX (x)pY (y) ✔
64/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
x
" #
A11 A12
Para uma matriz inversı́vel A qualquer dividida em blocos: A = onde tomamos A11 e A22 como
A21 A22
matrizes quadradas de dimensões quaisquer, podemos expressar a inversa de A em termos dos blocos como
" #−1 " #
−1 A11 A12 (A11 − A12 A−1
22 A21 )
−1 −A−1 −1
11 A12 (A22 − A21 A11 A12 )
−1
A = =
A21 A22 −(A22 − A21 A−1 −1 −1
11 A12 ) A21 A11 (A22 − A21 A−1
11 A12 )
−1
Utilizando essas relações, junto com o fato que Σz é matriz simétrica, e portanto Σxy = Σ′yx , podemos avaliar:
" #−1 " #
Σy Σyx (Σy − Σyx Σ−1
x Σyx )
′ −1
y Σyx (Σx − Σyx Σy Σyx )
−Σ−1 ′ −1 −1
Σ−1
z = =
Σ′yx Σx −(Σx − Σ′yx Σ−1
y Σyx ) Σyx Σy
−1 ′ −1 (Σx − Σ′yx Σ−1
y Σyx )
−1
65/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
Portanto
(z − z̄)′ Σ−1
z (z − z̄) = (x − x̄) (Σx − Σyx Σy Σyx ) (x − x̄)
′ ′ −1 −1 ′
como os últimos dois termos acima só involvem y0 e ȳ que são constantes, podemos finalmente escrever:
1
pX (x|y0 ) = cte · exp − [x − x̄ − Σxy Σ−1 y (y0 − ȳ)] (Σx − Σxy Σy Σyx ) [x − x̄ − Σxy Σy (y0 − ȳ)]
′ −1 −1 −1
2
É evidente que essa distribuição é gaussiana pois em se tratando de distribuição a constante não avaliada deve
ser tal que Z Z +∞
··· pX (x|y0 ) dx1 dx2 . . . dxn = 1
−∞
além disso, denotando,
µ = x̄ + ΣxyΣ−1
y (y0 − ȳ), Λ = Σx − Σxy Σy Σyx
−1
então, pX (x|y0 ) = cte · exp − 21 [x − µ]′ Λ−1 [x − µ] é evidentemente gaussiana já que Λ = Λ′ e Λ é matriz definida
positiva. 2
66/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
67/73
BACK N EXT
INTRODUÇÃO À PROBABILIDADE
EXERC ÍCIOS
T / pode-se concluir algo sobre a independência de A e B?
1.(a) Se A B = 0,
(b) Mostre que um evento de probabilidade nula ou de probabilidade 1 é inde-
pendente de outro evento qualquer.
2. Feita uma pesquisa com alunos(as) da Unicamp, descobriu-se que 85% dos alunos
do sexo masculino (sm) e 92% do sexo feminino (sf) gostam de ir ao cinema.
Destes, descobriu-se que as preferências se distribuem pelos gêneros investigados
da seguinte forma:
gênero sm sf
aventura: 85% 60%
romance: 45% 97%
terror: 20% 12%
Suponha que as populações masculinas e femininas sejam de mesmo tamanho,
já subtraindo você mesmo.
68/73
INTRODUÇÃO À PROBABILIDADE
(a) Qual é a probabilidade que a sua colega Elizelda goste de filmes de romance?
(b) Qual é a probabilidade que o 1o. estudante que passe por você seja uma
aluna que goste de filmes de aventura?
(c) Qual é a probabilidade que seu colega José goste de filmes de aventura e
de terror, sendo que o total de estudantes do sm que gostam de cinema de
aventura ou de terror totalizam 100%?
3. (probabilidade total) Suponha que a ocorrência ou não de chuva dependa das
condições do tempo no dia imediatamente anterior. Admita-se que se chove hoje,
choverá amanhã com probabilidade 0,7 e que se não chover hoje, choverá amanhã
com probabilidade 0,4. Sabendo-se que choveu hoje, calcule a probabilidade de
que choverá depois de amanhã.
69/73
INTRODUÇÃO À PROBABILIDADE
4. (probabilidade total) Numa rede com chaves como na figura abaixo, as chaves
operam independentemente, fechando-se com probabilidade p e mantendo-se
abertas com probabilidade 1 − p.
A
B
entrada E saída
C D
70/73
INTRODUÇÃO À PROBABILIDADE
r
θ
(a) Determine pR,Θ(r, θ). Mostre que R e Θ são independentes entre si.
(b) Faça um programa Matlab que simule os lançamentos de dardos, utilizando
somente a rotina rand para gerar valores aleatórios. Para construir a figura
de um alvo utilize o seguinte código:
71/73
INTRODUÇÃO À PROBABILIDADE
theta=(0:.01:2*pi)’;
polar(theta,20*ones(size(theta)),’:k’)
hold on
72/73
INTRODUÇÃO À PROBABILIDADE
observação y da v.a. Y .
8. (distribuição condicional de v.a. gaussiana) Considere novamente o problema do
jogo de dardos supondo agora um modelo mais elaborado para os lançamentos.
As coordenadas X e Y são duas v.a.’s gaussianas X ∼ N(0, σ2x ) e Y ∼ N(0, σ2y ),
e elas são dependentes entre si, com cov(X,Y ) = σxy. Calcule a distribuição
conjunta nas coordenadas ortogonais. Supondo que ao lançar-se um dardo se
conheça a abcissa Y (ω) = 4mm determine:
(a) a distribuição condicional de X,
(b) a média condicional de X,
(c) a variância condicional de X.
(d) Sabendo que a mosca do alvo tem 1 cm de diâmetro, indique a probabilidade
de se ter atingido a mosca. Utilize σ2x = σ2y = 25 e σxy = 15 e expresse o
resultado empregando da função Erf(x).
73/73