Sei sulla pagina 1di 48

3

Reviso de Probabilidade e Estatstica

O nosso estudo dos sistemas microscpicos e seus reexos nos sistemas macroscpicos evidenciou a necessidade de realizarmos um tratamento estatstico para o problema. No h a menor possibilidade de calcularmos a dinmica das partculas individuais. O grande nmero de partculas envolvidas, o grande nmero de eventos (p.ex., colises) em um certo intervalo de tempo e a perda de informao (preciso) em qualquer clculo envolvendo essas partculas e eventos torna impossvel qualquer tentativa de acompanhar a dinmica das partculas individualmente. Temos, portanto, que trabalhar com mdias estatsticas e conceitos de probabilidade tornam-se importantes (como j mencionamos, Maxwell chegou a essa concluso em torno de 1850 quando comeou a buscar uma descrio para a termodinmica em termos das partculas elementares). Para nos equiparmos para essa tarefa, ser til revisarmos alguns conceitos e elementos da teoria de probabilidade e estatstica elementar. O livro do Salinas (ref. 1), os dois livros do Reif (refs. 2e 3) e o livro da S. Vauclair trazem uma reviso do assunto. Novamente, o projeto STP (ref. ) trs um captulo sobre o assunto e algumas simulaes que utilizaremos para ilustrar os conceitos. Para uma consulta mais detalhada sobre probabilidade e estatstica, ver a ref. 6.

3.1

Probabilidade
probabilidade. Para denirmos a probaamostragem, ou seja, um

O primeiro conceito que temos que denir o de

bilidade que um evento ocorra, necessrio a existncia de uma conjunto nito de eventos possveis.

Como exemplo, consideremos uma moeda, com duas

possibilidades de resultados aps ser jogada ao ar: cara ou coroa. A elementos. do dado.

amostragem tem dois

Ou um dado normal, onde a amostragem possui seis elementos, as seis faces A denio de probabilidade

o nmero que expressa de forma quantitativa a

possibilidade que o evento escolhido ocorra no decorrer de uma experincia. Consideremos


uma amostragem com

possveis resultados do experimento, ou ventos. Os resultados do

experimento so denominados cada evento

varivel aleatria ou varivel estocstica. Vamos associar para

uma probabilidade

P (i)

de que ele ocorra quando realizamos um experimento.

O conjunto de valores de

P (i)

chamado de

distribuio de probabilidades da varivel esmutuamente exclusivo, isto , a ocorrncia de

tocstica. Vamos assumir que cada evento

um evento impede a ocorrncia de outro evento no mesmo experimento. O conjunto de A probabilidade

P (i)

deve satisfazer algumas condies:

P (i) 0
e,

(1)

P (i) = 1
i
onde

(2)

P (i) = 0

signica que o evento nunca ocorre e

P (i) = 1

que o evento sempre

ocorre. A normalizao (eq. 2) nos diz que a soma das probabilidades de todos os eventos mutualmente exclusivos

1.

Utilizando o exemplo da moeda ou do dado podemos facilmente encontrar algumas regras de operao da probabilidade. Para eventos mutualmente exclusivos, se queremos conhecer a probabilidade que um experimento seja ou

ou

j,

ento,

P (i

ou

j ) = P (i) + P (j )

(regra de adio)

(3)

Essa operao pode ser facilmente generalizada para mais do que dois eventos. regra, extramos que

Dessa

P (no

ocorrer

i) = 1 P (i)

(4)

Para o caso de um dado, com seis faces, assumindo a

simetria entre todos os eventos (isto

, eles so igualmente provveis), a probabilidade que ocorra uma das faces

P (i) = 1/6.

Ento, a probabilidade de tirarmos, em um nico experimento,

ou

6,

por exemplo,

P (3

ou

6) = 1/6 + 1/6 = 1/3.

Se considerarmos agora dois experimentos e assumindo que a ocorrncia dos eventos so independentes, a probabilidade que no primeiro experimento tenhamos o evento segundo experimento o evento

e no

j,

P (i

j ) = P (i)P (j )

(regra de multiplicao)

(5)

Para que essa regra seja vlida, importante enfatizar a independncia entre os eventos, ou seja, o resultado do segundo experimento no pode depender do resultado do primeiro experimento. Isso facilmente vericvel no caso de uma moeda ou do dado. No entanto, vamos considerar um exemplo diferente. O objetivo determinar a probabilidade de encontrar, aleatoriamente, uma mulher de mais de 1,8 m de altura. Vamos supor que a probabilidade de encontrar uma pessoa de 1,8 m seja her

P (1, 8) = 1/10. A probabilidade que uma pessoa seja mulP (mulher + 1, 8 m) = P (m)P (1, 8) =
1 2 1 10 = 1 . 20

P (m) = 1/2.

Ento, da eq. 5 temos

O mesmo clculo valeria para um homem. menos, que esse resultado est errado. mulher e ter mais de

No entanto, sabemos, intuitivamente, pelo

Isso porque a ocorrncia dos dois eventos - uma

1, 8 m

de algura - no so independentes. Por outro lado, se quissse-

mos encontrar uma mulher que tivesse nascido em um determinado dia do ano, teramos

P (m + dia

do ano)

= P (m)P (dia

do ano)

1 2

1 365

1 , uma vez que as ocorrncias so 730

independentes (pelo menos, dentro do nosso melhor conhecimento). Precisamos ainda encontrar uma forma de estimar ou determinar o valor das probabilidades. Consideremos dois eventos,

E1

E2 .

Se

E1

mais provvel de ocorrer que

E2 ,

ento,

P (E1 ) > P (E2 ).

A probabilidade est associada a um certo grau de conana que o evento No temos, no entanto, uma nica regra

v ocorrer e trs consigo um grau de incerteza. para determinarmos o valor de

P (E ).

H vrias formas de buscarmos uma associao en-

tre nosso conhecimento sobre a possibilidade de ocorrer os eventos e encontrarmos um valor para a probabilidade. Vamos considerar o exemplo de uma moeda e tirarmos cara ou coroa

(ou o exemplo do dado). a

Uma forma de designarmos um valor para

P (E )

utilizarmos

simetria. Essencialmente, no temos, a priori, nenhuma razo que a probabilidade dos

eventos ocorrerem seja diferentes e, portanto, associamos a mesma probabilidade para cada um dos eventos, ou seja, moeda, pela

P (i) = 1/n,

onde

o evento e

a amostragem. No exemplo da

P (cara) = P (coroa) = 1/2.

Uma outra forma de designarmos os valores de

P (E )

frequncia, ou seja, por meio do conhecimento ou informao adquirida de experimentos

j realizados. Nesse caso, para uma amostragem independente, mutualmente exclusivos, se realizarmos

experimentos, a probabilidade

P (i)

de ocorrer o evento

expressa por,

P (i) = lim
onde

Ni N i ocorreu em N

(6)

Ni

representa o nmero de vezes em que o evento

experincias. Essa

denio de probabilidade bastante comum e nos ser til. Observe que a probabilidade medida por meio de eventos j realizados, ou seja, utilizando um conhecimento que j possuamos. Uma outra forma, ainda, por meio de o programa

simulaes. Por exemplo, vamos utilizar

MultipleCoins. A gura mostra o resultado obtido lanando 50 moedas cem vezes.

O resultado pode nos dar uma estimativa para com a frequncia (eq. 6).

P (E ), da mesma forma que o resultado obtido P (E )


por meio de

Podemos ainda encontrar

clculos tericos.

O valor da probabilidade, portanto, depende da forma como a determinamos, de quem a determina e do conhecimento existente anteriormente. Portanto, o que podemos associar a probabilidade do evento

tendo a informao

I , P (E |I ).

E, dependendo da amostragem,

diferentes observadores podem associar diferentes valores das probabilidades. Talvez o caso mais ilustrativo seja o caso dos operadores de aes na bolsa de valores. Nos ltimos anos, a teoria de informao bayesiana tem sido utilizada para designar o valor da probabilidade. Essa teoria, baseada em um trabalho do clrigo e matemtico

amador Thomas Bayes de 1763 (T. Bayes morreu em 1761, o artigo foi encontrado entre a documentao que ele deixou e foi publicado postumamente) e procura determinar uma forma de associar valores de probabilidade para probabilidades condicionadas (para uma discusso

sobre a inferncia bayesiana ver a ref. 5). A denio baseada nas frequncias, eq. 6, uma das mais utilizadas na prtica. No

entanto, importante no esquecermos que ela uma estimativa, uma vez que depende de uma deciso sobre a forma de fazermos a designao que

a probabilidade. importante observar

no h uma forma de realizarmos um experimento para medirmos o valor de P(E). No

caso da frequncia, os dados utilizados, resultados de experimentos, so eventos realizados com certeza e, portanto, os conceitos de probabilidade no se aplicam. probabilidade h, inerentemente, uma incerteza. mais. Na designao da

Vamos explorar esse conceito um pouco

Figura 1: (Superior) Resultados de simulao de obtermos cara ao lanarmos uma moeda 50 vezes, 100 vezes e 5.000 vezes cem vezes e de lanarmos simultaneamente 50 moedas 10 vezes e 100 vezes. (simulao baseada no programa

MultipleCoins, ref. 5).

3.2

Informao e incerteza

Esta seo est baseada na ref. 5. Discutimos as ideias bsicas de probabilidade e o fato que sempre temos suposies associadas s designaes de valores para as probabilidades. til discutirmos uma forma de

associarmos o grau de incerteza existente nos experimentos. experimentos com dois eventos possveis,

Para isso, consideremos dois

E1

E2

com probabilidades

P1

P2 ,

respectiva-

mente. O experimento pode ser o de jogar uma moeda para o alto. No primeiro experimento vamos assumir eventos simtricos e temos ento

P1 = P2 = 1/2.

No segundo experimento,

por alguma razo (a moeda entortou) a simetria foi perdida e temos

P1 = 1/5

P2 = 4/5.

Qual experimento temos maior incerteza? Intuitivamente, diremos que o primeiro, uma vez que podemos estimar com maior segurana o resultado no segundo experimento. Seguindo esse raciocnio, consideremos mais dois experimentos. eventos, simtricos, com O terceiro tem quatro

P1 = P2 = P3 = P4 = 1/4

e o segundo seis eventos simtricos com

P1 = P2 = P3 = P4 = P5 = P6 = 1/6.

Novamente, nossa intuio nos diz que o quarto

experimento o mais incerto uma vez que temos um maior nmero de resultados possveis, igualmente provveis. No cmputo geral, o quarto experimento o mais incerto e o segundo o menos incerto. Para avanarmos, precisamos associar uma medida ao conceito de incerteza. designar a funo Vamos

S (P1 , P2 , ..., Pi , ...),

onde

Pi

a probabilidade do evento

i,

como sendo a

funo incerteza. Consideremos o caso simtrico, onde todas as probabilidades so iguais,

P1 = P2 = ... = Pi = ... = 1/, onde o nmero de eventos possveis.


escrever simplesmente

Nesse caso, podemos

S (1/, 1/, ...) = S ()


A funo

(7)

S ()

deve satisfazer algumas condies simples.

1. Se temos apenas um evento possvel, isto ,

= 1,

ento

S ( = 1) = 0
2. Temos tambm,

(8)

S (1 ) > S (2 )
3. Consideremos agora a forma de moeda e jogar um dado, com

se

1 > 2

(9)

para mltiplos eventos.

Por exemplo, atirar uma

1 e 2

possveis eventos, respectivamente. O nmero to-

tal de resultados possveis ao realizar os dois experimentos

1 2 .

Imaginemos agora

que conhecemos o resultado de atirar a moeda. Essa incerteza zero, portanto. No entanto, permanece a incerteza de jogarmos o dado. Da mesma forma, se conhecemos o resultado de atirar o dado, permanece a incerteza de jogarmos a moeda. Essas consideraes sugerem

ter a forma

S (1 2 ) = S (1 ) + S (2 )

(10)

Questo : voc consegui imaginar outra forma para

para a condio 3? Tente.

As trs condies discutidas acima permitem apenas uma nica forma funcional. Para encontr-la, vamos escrever a eq. 10 utilizando variveis contnuas:

S (xy ) = S (x) + S (y )
onde chamar

(11)

x, y

so variveis contnuas (essa simplicao no altera o resultado). e calcular as derivadas parciais de

Vamos

z = xy

S:

S (z ) z dS (z ) dS (z ) = =y x x dz dz

(12)

S (z ) z dS (z ) dS (z ) = =x y y dz dz
Da eq. 10, temos,

(13)

S (z ) dS (x) = x dx

(14)

S (z ) dS (y ) = y dy
Comparando os lados direitos das equaes 12-13 e 14-15, temos,

(15)

dS (x) dx

=y

dS (z ) dz

(16)

dS (y ) dy Multiplicando a eq. 16 por

=x

dS (z ) dz temos,

(17)

e a eq. 17 por

y,

dS (x) dx

=y

dS (y ) dy

=z

dS (z ) dz

(18)

O primeiro termo na eq. 18 depende somente de

enquanto que o segundo somente de

y.

Como

so variveis independentes, os trs termos na eq. 18 devem ser iguais a uma

constante:

x
Integrando a equao 19, temos,

dS (x) dx

=y

dS (y ) dy

=A

(19)

S (x) = Alnx + B
A constante de integrao constante

(20)

deve ser nula para satisfazer a condio 1) (eq.

8).

arbitrria e podemos escolher

A = 1.

A incerteza

para uma amostragem

simtrica escreve-se na forma,

S () = ln

(21)

A expresso 21 foi deduzida para amostragem simtrica. Como ca o caso geral? No vamos deduzir aqui mas para quem estiver interessado, ver o Apndice F da ref. resultado , 7. O

S=
i

Pi lnPi

(22)

Vamos analisar o caso que deduzimos. Se todas as probabilidades so iguais, temos,

Pi =
e ento,

(para todos

i)

(23)

S=
i
fcil vericar que se o resultado

1 1 1 ln = ln = ln j
uma certeza absoluta, ento,

(24)

Pj = 1

Pi = 0

se

i=j

e ento

S = 1ln1 = 0,

como era de se esperar:

tendo certeza do resultado, no h

falta de informao.
O resultado da eq. 22 nada mais que a entropia de Shannon, que introduzimos antes. No zemos (ainda) nenhuma demonstrao em termos de entropia nem identicamos a constante que precede a expresso para a incerteza

S.

Apenas derivamos - ou melhor, indicamos

- um resultado para a incerteza em termos das probabilidades de transmisso da informao. Sabemos agora como calcular a incerteza ou falta de informao probabilidades

se conhecemos as

Pi .

Em geral, nosso problema conhecer as probabilidades. Consideremos o

caso mais simples, de uma moeda jogada. Nesse caso, por simetria, ou intuio (assumir que a moeda simtrica e no viciada), esperamos o resultado

P1 (cara) = P2 (coroa) = 1/2.

alteraramos essa expectativa se tivssemos alguma informao a mais. Na prtica, utilizamos

intuitivamente o que se conhece como princpio de como se aplica para esse caso, lembrando que

menor vis ou mxima incerteza. Vejamos


O valor de

P1 + P2 = 1.

S =
i

Pi lnPi = (P1 lnP1 + P2 lnP2 )


(25)

= [P1 lnP1 + (1 P1 )ln(1 P1 )]

Para maximizarmos a incerteza, temos que ter,

dS dP1

= [lnP1 + 1 ln(1 P1 ) 1] = ln

P1 =0 1 P1

P1 = 1 1 P1 1 = P1 = 2

(26)

Para vericarmos que temos um mximo, basta calcular a segunda derivada:

2 d S 2 dP1

1 1 + = 4 < 0 P1 1 P 1

(27)

Exerccio: Considere um experimento de jogar um dado de trs faces com trs possveis
resultados (eventos):

E1 , E2

E3 ,

com faces

1, 2

3,

respectivamente. Aps jogar vrias

vezes o dado, sabemos que o nmero mdio de pontos probabilidades individuais. Quais so os valores de e que seja consistente com a informao que

f = 1, 9,
e

mas no conhecemos as

P1 , P2

P3

que maximizam a incerteza

f = 1, 9?

(ver ref. 5)

10

3.3

Valores mdios
distribuio das probabilidades

A especicao da

P (1), P (2), ..., P (n)

para os

possveis

valores da varivel estocstica (aleatria) a descrio mais completa possvel do sistema. No entanto, em muitos casos, prefervel descrever a distribuio dos possveis valores da varivel com menos detalhes. A forma mais comum chamar de

o nmero mdio de

x,

que podemos

x =< x >:

x x1 P (1) + x2 P (2) + ... + xn P (n)


n

=
i=1

xi P (i)

(28)

Da mesma forma, uma funo

f (x)

de

tem sua mdia calculada por,

f (x) =
i=1
fcil vericar que,

f (xi )P (i)

(29)

f (x) + g (x) = f (x) + g (x)

(30)

cf (x) = cf (x)
onde

(31)

so duas funes de

uma constante.

Denimos os

momentos da distribuio de probabilidades

P,

xm
onde zemos simplesmente

i=1

xm i P (i)

(32)

f (x) = xm .

Obviamente, o valor mdio da distribuio de

probabilidades o seu primeiro momento.

11

O desvio dos valores do experimento em relao ao seu valor mdio tem grande importncia na estatstica. O desvio de

denido como

x x x
e, obviamente,

(33)

x = (x x) = x x = 0
A largura mdia de uma distribuio onde o evento

(34)

seja o nico possvel, isto ,

P (i) =

1, i = j ,

e zero em todos os outros casos, tem uma largura nula.

Podemos expressar a

largura da distribuio dos valores dos experimentos em torno da mdia calculando o

desvio

quadrtico :

x2 (x x)2 = (x2 2xx + x2 ) = x2 2xx + x2 = x2 x2


(35)

Essa grandeza tambm conhecida como o

disperso ou varincia e a sua raiz quadrada

desvio padro. Podemos tambm denir os momentos de ordem

em relao a mdia,

xm = (x x)m

(36)

possvel reconstruir a distribuio de probabilidades se conhecemos momentos de todas as ordens.

12

3.4

O processo de Bernoulli e a distribuio binomial: analisando um conjunto de spins no-interagentes ou o caminho do bbado

Nosso objetivo agora aprender como calcular probabilidades e avanarmos na compreenso dos sistemas com muitas partculas. Vamos estudar o caso fundamental da

distribuio

binomial.

Esse caso aplica-se para sistemas estatsticos (ou fsicos) para os quais existe

apenas dois resultados possveis para o experimento. Consideremos alguns exemplos.

Jogar uma moeda

J vimos utilizando esse exemplo e o mais simples de todos. Temos Cada vez que atiramos a moeda, o resultado

dois resultados possveis, cara ou coroa.

independente dos resultados anteriores. Chamemos de

a probabilidade de sair cara e

probabilidade de sair coroa. Para uma moeda no-viciada, temos O que queremos determinar , jogando coroa, por exemplo.

p = 1/2

q = 1 p = 1/2. n vezes

vezes a moeda, qual a probabilidade de sair

Momentos magnticos no-interagentes


sideremos um sistema com

Esse um problema comum na fsica. Con-

dipolos magnticos no-interagentes com momento magntico

na presena de um campo magntico externo

B.

Orientemos o eixo de coordenadas tal

que

B/|B | = z .

Da mecnica quntica, sabemos que a energia do momento de dipolo par-

alelo ou anti-paralelo ao campo magntico. A energia de interao do momento magntico

E = B ,

onde o sinal superior (inferior) refere-se ao momento de dipolo paralelo (anti-

paralelo). Podemos escrever na forma

E = sB , onde s = 1, onde o sinal +(-) refere-se ao s de spin


do momento magntico.

momento de dipolo paralelo (anti-paralelo). Vamos chamar

Nota: Em sistemas reais, os momentos magnticos interagem entre si. O modelo que
estamos discutindo aqui ilustra um caso extremo e permite aplicar a distribuio binomial. Se estivssemos considerando um gs de eltrons, o momeno magntico seria

B =
e

magneto de Bohr =e

/2me ,

a energia de interao

E = gs B s B ,

onde

gs 2

1 s = 2 z .

13

Vamos chamar de forma que

a probabilidade do spin ser

+1

a probabilidade de ser

1,

de

p + q = 1.

Na ausncia de um campo magntico, devemos esperar uma distribuio O que queremos saber conhecer a probabilidade que a

aleatria, ou seja,

p = q = 1/2. N

magnetizao do sistema

momentos magnticos tenha uma certa magnetizao

M,

M = (s1 + s2 + ... + sN ) =
i=1

si

(37)

O problema equivalente ao problema de atirarmos uma moeda.

Caminho aleatrio ou o andar de bbado (drunkark

walk )

Consideremos um

bbado que inicia sua caminhada a partir de um poste de luz e segue erraticamente, realizando passos sucessivos em direes aleatrias. A questo que se faz

a que distncia ele

encontra-se do poste aps

passos?

Vamos considerar um caso ideal, simplicado, onde

o bbado pode andar apenas em linha reta (uma nica dimenso). Assumimos que cada passo seja igual em distncia,

e que a cada intervalo de tempo (idntico,

t)

ele d um

passo ou para a direita com probabilidade

p ou para a esquerda com probabilidade q = 1 p.

A direo de cada novo passo independe dos passos anteriores. Aps um certo intervalo de tempo, tendo realizado esquerda, tais que

passos no total, ele ter dado

passos a direita e

passos a

n + n = N.

(Para quem tiver interesse, a histria desse problema est

descrita na Parte I da ref. 8).

Os trs problemas mencionados acima tem a mesma estrutura matemtica e, portanto, a mesma soluo. Esse tipo de problema conhecido como

processo de Bernoulli (do

matemtico Jacob Bernoulli, 1654-1705). O que queremos conhecer qual a probabilidade

PN (n)
dado

que o sistema - vamos utilizar como exemplo o caso do caminhar do bbado - tenha passos a direita. Podemos escrever

PN (n)

como sendo,

PN (n) = WN (n, n )pn q n

(38)

14

H vrias formas de determinarmos o valor de nmero de

WN (n, n ), n

que nada mais do que o

microestados de

passos com

direita e

esquera. Ou, se recordarmos o

exemplo das partculas na caixa com uma partio central, da direita e

partculas no compartimento

no compartimento da esquerda. J estudamos o caso particular de

N =2

N = 16

(ver Captulo 2). Para o caso geral, vamos resolver o problema inicialmente utilizar

uma relao de recorrncia entre esquerda de um total de

WN

WN 1 .

Um total de

passos direita e

passos

passos, pode ser encontrado adicionando um passo a

N 1

passos. Sequncias em que a probablidade em um dado instante depende apenas dos valores das probabilidades no instante anterior so conhecidas como

cadeias de Markov e tm grande

importncia na fsica. H duas possibilidades para o prximo passo: 1) um passo direita, se j temos

(n 1) n

passos direita e

passos esquerda; passos esquerda.

2) um passo esquerda, se j temos Temos

passos direita e

(n 1)

WN (n 1, n )

possveis maneiras de estarmos no primeiro caso e

WN 1 (n, n 1)

de estarmos no segundo caso. Logo,

WN (n, n ) = WN 1 (n 1, n ) + WN 1 (n, n 1)
Os valores iniciais so conhecidos: deles, podemos construir

(39)

W0 (0, 0) = 0, W1 (1, 0) = W1 (0, 1) = 1. N:

A partir

WN (n, n )

para qualquer valor de

W2 (2, 0) = W1 (1, 0) + W1 (2, 1) = 1 + 0 = 1 W2 (1, 1) = W1 (0, 1) + W1 (1, 0) = 1 + 1 = 2 W2 (0, 2) = W1 (1, 2) + W1 (0, 2) = 0 + 1 = 1


(40)

Podemos continuar essa sequncia indenidamente. Arranjando-a geometricamente, temos uma estrutura piramidal ou como conhecido, o tringulo de Pascal, representado na gura , onde a

N e sima

linha corresponde aos valores de

WN (n, n ),

iniciando com

WN (N, 0),

15

esquerda e indo at

WN (0, N )

direita.

Figura 2:

Construo do tringulo de Pascal que reproduz os valores dos coecientes acima, esquerda e diiniciando com

WN (n, n ). Cada componente a soma dos dois componentes reita. A N e sima linha corresponde aos valores de WN (n, n ), esquerda e indo at WN (0, N ) direita. (extrado da ref. 5)

WN (N, 0),

Por induo, a soluo geral se escreve,

WN (n, n ) =
onde utilizamos

N! N! = n!n ! n!(N n)! PN (n)


,

(41)

0! = 1.

O resultado para

PN (n) =
que a

N! pn q (N n) n!(N n)! p = q = 1/2,


temos,

(42)

distribuio binomial. Para o caso particular em que

PN (n) =

N! 2N n!(N n)!

(43)

16

Anlise combinatria

Poderamos ter chegado ao mesmo resultado partindo da anlise

combinatria. J vimos que se temos dois estados possveis para cada experimento, o nmero de estados possveis para um sistema com

elementos (experimentos)

2N

e, considerando

todos os estados igualmente provveis, a probabilidade do sistema encontrar-se em um desses estados ordem.

1/2N .

permutao de

elementos o arranjo desses elementos em uma certa temos

O nmero de permutaes se calcula facilmente:

possibilidades para o

primeiro elemento (resultado), o terceiro, e assim por diante.

N 1

possibilidades para o segundo elemento,

N 2

para

O nmero total de permutaes ser

N !.

Consideremos o

caso em que queremos ordenar apenas primeiro elemento, para o

elementos. Ento, temos

possibilidades para o possibilidades

N 1

para o segundo, e assim por diante, at

N n+1

n-simo

elemento. O nmero de arranjos

de

elementos ,

An N =
Consideremos agora que os

N! (N n)!

(44)

n elementos sejam indistinguveis (como o caso no nosso ex-

emplo - tanto faz qual a ordem dos elementos, o resultado macroscpico nal o mesmo). Temos que calcular o nmero possvel de sub-conjuntos de mos esse nmero de

contendo

n elementos.

Chamare-

combinaes possveis de

elementos em

n . N : CN

O nmero que en-

contramos anteriormente, permutaes possveis dos

An N n

o nmero de combinaes

n CN

multiplicado pleo nmero de

elementos do sub-conjunto considerado (ou seja, o nmero de

variaes possveis dos objetos indistinguveis):

n An N = C N n!

(45)

e ento,

n CN =

N! n!(N n)! N
passos, por exemplo.

(46)

que o nmero estados possveis com

passos direita em

17

O resultado que obtivemos tem seu nome no fato que o resultado o mesmo que obtemos em um

desenvolvimento binomial :

N! 1 xN n y n + ... + y N (x + y )N = xN + N xN 1 y + N (N 1)xN 2 y 2 + ... + 2 n!(N n)!


N

=
n=0

N! xN n y n n!(N n)!
temos,

(47)

Escolhento,

x = y = 1,

N n CN = 2N n=0
que o nmero de estados possveis do sistema. A equao 47 nos mostra tambm a normalizao de (48)

WN (n, n ):

(p + q )N =
n=0
onde utilizamos

N! p n q N n = 1 n!(N n)!

(49)

p + q = 1.

Antes de avanarmos na nossa anlise, vamos examinar alguns resultados de simulaes. Para isso, vamos utilizar o programa da simulao para

stp_binomial da ref. 5. A gura 3 mostra o resultado


e

N = 20, 40, 60, 80, 100

p = 0, 5

0, 7.

18

Figura

3: Resultados de simulaes da distribuio binomial, PN (n) em funo de n e n/n, para N = 20(preto), 40(azul), 60(vermelho), 80(verde), 100(cinza), e p = 0, 5 (superior) e 0, 7 (inferior). Calculadas com o programa stp-binomial da ref. 5.

Vamos analisar os resultados. Olhando os dados para mximo desloca-se para a direita com da distribuio aumenta com com

p = 0, 5,

observamos que o valor

N,

o que de se esperar. Ao mesmo tempo, a largura

N.

Quando observamos em funo de diminui com

n/n,

a largura diminui

N.

O valor mximo de

PN (n)

N.

Quando alteramos a distribuio de

uma distribuio simtrica para

p = 0, 7,

vemos um deslocamento do valor mximo para a

direita ao mesmo tempo que o valor da largura diminui quando gracado em funo de

n/n

19

em relao aos valores para

p = 0, 5.

O resultado para

p = 0, 7

pode ser interpretado, no

nosso exemplo de spins no-interagentes, como sendo o conjunto de spins na presena de um campo magntico. Podemos analisar esses resultados quantitativamente, uma vez que conhecemos a distribuio de probabilidades. o que faremos agora.

Valores mdios e desvio padro do caminhar do bbado


os resultados obtidos at agora. De posse do valor de

Vamos analisar um pouco

PN (n) podemos calcular alguns valores

que caracterizam o sistema fsico desejado (ou melhor, qualquer um dos problemas mencionados inicialmente). Inicialmente, vamos calcular o valor mdio,

n: N! pn q N n n!(N n)!

n=
n=0

nPN (n) =
n=0

(50)

Para isso, vamos utilizar a relao,

p
e ento,

d dp

pn = npn

(51)

n =
n=0

N! (p pn )q N n n!(N n)! p
N

= p p = p

n=0

N! pn q N n n!(N n)!

(p + q )N p

= pN (p + q )N 1 = pN
(52)

e, da mesma forma,

20

n = qN = (1 p)N
Para determinar o desvio padro, procedemos da mesma forma.

(53)

n2

=
n=0 N

n2

N! pn q N n n!(N n)!

=
n=0

N! (p )2 pn q N n n!(N n)! p
N

= ( p )2 p = = =

n=0

N! pn q N n n!(N n)!

(p )2 (p + q )N p p pN (p + q )N 1 p p N (p + q )N 1 + pN (N 1)(p + q )N 2
(54)

e, com

(p + q ) = 1,

n2 = p [N + pN (N 1)] = p pN 2 + N (1 p) = (pN )2 + p(1 p)N = n2 + pqN


(55)

A varincia ,

2 n = (n)2 = n2 n2 = pqN

(56)

e o desvio padro ,

21

n =

pq N N.
A probabilidade relativa,

(57)

que o resultado conhecido, proporcional a

n /n

n = n

pqN = pN

q p

1/2

1 N N

(58)

A distribuio binomial torna-se muito na a medida que valor mdio

cresce, centrando em torno do

n. N. p

Podemos comparar os resultados das eqs. 52, 57 e 58 com os resultados da gura 3. Vemos que, efetivamente,

aumenta com

enquanto que

aumenta com

Por outro lado, e

n /n
para e

diminui com

1/ N .

Da mesma forma, vemos que

aumenta com

p = 0, 5 e n = 0, 458 N para p = 0, 7. Da mesma forma, = 0, 655/ N (p = 0, 7). A diminuio das larguras de n e n /n p = 0, 5


visvel na gura 3.

n = 0 , 5 N n /n = 1/ N (p = 0, 5)
de

p = 0, 7

quando

comparado com

De volta ao caminhar do bbado.

Vamos retornar a um dos nossos problemas. As

perguntas que gostaramos de responder so do tipo qual a distncia mdia percorrida pelo bbado aps um nmero

de passos?, ou qual a probabilidade de, aps executar

passos

o bbado encontra-se a uma distncia igual a

da origem?.

Como conhecemos agora a

distribuio de probabilidades, podemos responder facilmente a essas questes (Exerccio : responda!). Vamos utilizar a simulao resultados desse problema.

RandomW alk 1D

da ref. 5 para exercitarmos um pouco os

Essa simulao baseada no

Mtodo Monte Carlo.

A cada

passo, o caminhante d um passo direita com probabilidade probabilidade

ou para a esquerda com

q.

Cada passo em a mesma distncia e no depende dos passos anteriores.

Cada passo decidido baseado na gerao de um nmero aleatrio entre 0 e 1. Se o nmero aleatrio for inferior a

ento o passo direita, se for superior ento esquerda, e

assim sucessivamente. A simulao realiza vrios caminhos aleatrios de

passos e calcula a

22

distncia nal percorrida

x = nn

e o valor de

< x2 >.

A gura 4 mostra alguns exemplos.

Figura 4: Histogramas obtidos das simulaes do caminho de bbado baseadas no programa

RandomW alk 1D

(ref. ) para

N = 4, 16, 32

(da esquerda para direita) com

10, 50, 100, 1000

(de cima para baixo).

23

Exerccio. Baseado nessa gura, discuta as seguintes questes:


(a) Por qu realizar vrias simulaes? Qual o signicado de uma nica simulao? (Uma simulao representa uma caminhada com

passos)

(b) A simulao Monte Carlo reproduz a distribuio de probabilidade? (c) Qual o valor mais provvel de

em cada caso? Como

(d) Qual aproximadamente a largura da distribuio (largura a meia-altura)? esse valor muda para

xo em funo de

N? N

(e) Como o histograma muda em funo do nmero de simulaes/caminhadas para xo e em funo de

N?

importante sempre enfatizarmos o que estamos calculando e o que podemos calcular. Na simulao, realizamos para um determinado nmero de passos,

N,

um grande nmero de

experimentos. Se realizssemos apenas um nico caminhar, no temos como sabe o resultado nal, embora possamos calcular a probabilidade dos possveis resultados. No entanto, podemos calcular o resultado mdio de um grande nmero de experimentos. Quanto maior for o nmero de experimentos, mais nos aproximamos do valor mdio, que previsvel se conhecemos a distribuio de probabilidades. O que possvel conhecer, portanto, so valores estatsticos, como a mdia, em relao a um grande nmero de experimentos ou conjunto de experimentos.

Nota avanada: caminho aleatrio bidimensional


A gura mostra de um caminho aleatrio (o andar de bbado) em duas dimenses, extrado da ref. de passos, desde 9. Os caminhos aleatrios representam a evoluo em funo do nmero passos at

31

32.000

passos. A forma de obter as diferentes trajetrias Em todos os

tomar o primeiro quarto do caminho anterior e ampliar por um fator dois.

casos, observamos um caminho entrecortado. O objetivo dessa sequncia indicar uma autosimilaridade do sistema, isto , os caminhos aleatrios parecem similares em todas as escalas,

24

ou seja so aps

invariante na escala (comente!). A gura (esquerda) mostra o caminho aleatrio


passos. Novamente, o caminho parece completamente entrecortado. O ponto

128.000

importante para ns a impossibilidade de prevermos um caminho aleatrio qualquer. No entanto, podemos entender (e fazer previses sobre) o comportamento de um conjunto desses caminhos. A gura (direita) mostra os pontos nais de um grande nmero de caminhos

aleatrios todos partindo da origem. Voc pode exercitar sua compreenso sobre isso com a simulao

stp RandomW alk 2D

da ref. 5.

25

Figura 5: Caminho aleatrio bidimensional. Cada caminho obtido do anterior tomando-se o primeiro quarto e ampliando por um fator dois. O caminho mais curto tem 31 passos e o caminho mais longo 32.000 passos. (ref. 9)

26

Figura 6: (Esquerda) Caminho aleatrio bidimensional com 128.000 passos. (Direita) Distribuio do ponto de chegada a partir da origem para um grande nmero de caminhos aleatrios. (ref. 9)

Distribuio binomial para valores grandes de

A gura 3 mostra que a distribuio

binomial adquire uma forma suave, quase contnua, a medida que de

aumenta. Vamos chamar

n o valor mximo de PN (n).

Vemos que

PN

varia rapidamente em torno de

n para N

1.

mais fcil trabalhar com o lnPN que deve ser uma funo lentamente varivel. Efetivamente, utilizando a simulao gura 7.

stp-binomial, podemos calcular lnPN

n,

que est representada na Podemos esperar poder

fcil visualizar que essa curva parece uma parbola.

aproxim-la por uma relao do tipo lnPN ajuste.

= A + B (n n)2 ,

onde

so parmetros de

27

Figura 7: Grco de lnPN em funo de

para

N = 60.

Calculado com a simulao

stp-

binomial (ref. 5).

Para obter uma expresso quantitativa para lnPN , vamos expandi-la em srie de Taylor, em torno de

n=n :

lnPN (n)

= lnPN (n = n ) + (n n )

dlnPN (n) dn

2 1 2 d lnPN (n) |n= ) |n= n + (n n n + ... 2 dn2

(59)

Pelo resultado da gura 7, a primeira derivada deve se anular (ponto de extremo) e a segunda derivada deve ser negativa (valor mximo). Se desprezarmos as derivadas de ordem superior e escrevermos,

A =

lnPN (n

=n ) |n= n
(60)

B =

2 d lnPN (n)
dn2

podemos escrever,

28

lnPN (n)

1 A B (n n )2 2

(61)

e,

) PN (n) Ae 2 B (nn

(62)

Para avanarmos, temos que encontrar os valores das expresses em 60. Para isso, vamos utilizar a aproximao de Stirlig para lnN ! para valores grandes de

N:

lnN !

N lnN N +

1 ln(2N ) 2

(aproximao de Stirling)

(63)

Nota : o correto chamarmos essa aproximao de de Moivre-Stirling. Abraham de Moivre


(16l7-1754), matemtico francs chegou at a expresso

n! c nnn /en .

A contribuio de

James Stirling (matemtico escocs, 1692-1770) foi determinar o valor da constante No entanto, a expresso 63 conhecida simplesmente por aproximao de Stirling. A eq. 63 pode ser aproximada, para valores muito grandes de

c = 2 .

N,

na forma,

lnN !

N lnN N

(64)

Demonstrao da aproximao de Stirling :


Essa demonstrao segue os passos da ref. 4. Inicialmente, vamos demonstrar que

n! =
0
Para isso, vamos integrar por partes,

x n dx e x
(65)

29

dx e

x n

x n n x = |x x=0

+n
0

x n1 dx e x

d(e )x = x e = 0 x n1 dx e x = n

(66)

e, por recorrncia, temos a eq. 65. Analisando a funo do integrando,

f (x) = xn ex
vemos que enquanto Logo, a funo

(67)

xn

rapidamente crescente com

x, ex

rapidamente decrescente. Para encontr-lo, vamos

f ( x)

tem um ponto de mximo em algum valor

x0 .

calcular a derivada do logartmo da funo

f,

d [lnf (x)] dx d dx

= 0 n 1=0 x
(68)

(nlnx x) =

ou seja,

x0 = n
Vamos expandir o logartmo do integrando em torno do ponto de mximo,

(69)

x = n + ,

lnfn ( )

= nln(n + ) (n + )

(70)

Expandindo o termo logartmico,

30

ln(n

+ ) ln n + ln 1 + = ln n +

n
(71)

1 2 + ... n 2 n2

onde utilizamos o resultado,

ln x = (x 1) +

1 1 (x 1)2 + (x 1)3 + ... 2 3 1 (1)n1 (x 1)n (vlido para 0 < x 2) = n n=1

(72)

Temos ento,

1 2 ln fn ( ) n ln n n 2n
e,

(73)

fn ( ) nn en e

2 /2n

(74)

Podemos agora calcular aproximadamente a equao 65, substituindo e adaptando os limites de integrao,

fn (x)dx por fn ( )d

x [0, ] [n, ],

n!
n
Como a funo

nn en e

2 /2n

(75)

fn ( ) praticamente desprezvel para < n, podemos substituir o limite ,

inferior da integrao por

31

n! n e = n e
n n n n

2 /2n

2n

(76)

que a aproximao de Stirling. A aproximao de Stirling, na sua forma forte (eq. 63) tem uma preciso melhor que 2% para

N >5

e, na sua forma fraca (eq. 64) uma preciso melhor que 2% para

N > 50.

Podemos agora calcular os coecientes.

lnPN (n)

= lnN ! lnn! ln(N n)! + nlnp + (N n)lnp

(77)

e,

d(lnPN (n)) dn O valor mximo de

= lnn + ln(N n) + lnp lnq = 0.


Ento,

(78)

n (n )

encontrado com a condio dlnPN (n)/lnn

q N n = n p
Utilizando a relao

(79)

(p + q ) = 1,

(N n )p = n q = N p = n (p + q ) = n
(80)

que era o resultado esperado (por qu?), ou seja, o mximo tambm o seu valor mdio.

n = n,

o valor de

para o qual

PN (n)

32

Para a segunda derivada temos,

2 d (lnPN (n))
dn2 e o coeciente

1 1 n N n

(81)

B =

1 N 1 + = n N n n (N n ) N 1 = = (N p)N (1 p) N pq
dn2

2 d (lnPN (n))

|n= n =

(82)

e da eq. 56, temos

B=
Para calcularmos o valor de para

1 2 n

(83)

A,

temos que utilizar a eq. 60 e a aproximao de Stirling

n=n

e usando

n = pN ,

lnA

lnPN ( n)

= lnN ! lnn ! ln(N n )! + n lnp + (N n )lnq

= N lnN N +

= = A =

1 1 ln(2N ) n lnn +n ln(2 n ) 2 2 1 (N n )ln(N n ) + (N n ) ln[2 (N n )] + n lnp + (N n )lnq 2 1 1 N lnN + ln(2N ) pN ln(pN ) ln(2pN ) 2 2 1 N q ln(qN ) ln(2qN ) + pN lnp + N q lnq 2 1 1 N lnN + ln(2N ) pN lnp pN lnN ln(2pN ) 2 2 1 qN lnq qN lnN ln(2qN ) + pN lnp + N q lnq 2 1 2N 1 ln = ln 2 (2 )2 pqN 2 2N qp 1 1 = 2N pq (2 2 )1/2
33

(84)

A probabilidade da distribuio binomial identica-se com a

distribuio Gaussiana de

probabilidades,

PN (n) =

1 2 2

e(nn)

2 /2 2

(85)

interessante observar que a aproximao fraca de Stirling, eq. 64, daria simplesmente

A = 0.

necessrio utilizar a aproximao em toda a sua expresso, i.e., eq. 63.

Exerccio: Conra a normalizao da equao 85, isto ,

N n=0

PN (n) = 1.

Vamos analisar a validade da aproximao gaussiana. vlida para valores de

Em princpio, ela s deveria ser No entanto, os resultados so

grandes e em torno de

n = n. N

bons mesmo para valores relativamente pequenos de

e para a maioria dos valores de

n.

A principal caracterstica da probabilidade gaussiana est na dependncia de sua largura relativa,

n /n

que decresce com

N 1/2 ,

da mesma forma que a distribuio binomial.

distribuio gaussiana e a distribuio binomial possuem o mesmo valor mdio e a mesma varincia. Para vericarmos a validade da aproximao, vamos calcular a terceira derivada de

PN (n):
3 d PN (n)
dn3 e, em

1 1 +0 2 n (N n)2

1 n3

(86)

n = n,

para

grande,

3 d PN (n)
dn3

1 1 N 2 (p + q )(q p) = 2 2 2 2 = pN q N p2 q 2 N 4 qp = 2 2 2 pq N

(87)

A aproximao deve ser suciente sempre que o termo de terceira ordem for muito inferior

34

ao termo de segunda ordem, ou seja,

1 (n n)2 2N pq = (n n)

|q p| (n n)3 2 2 2 6N p q 3N pq |q p|

(88)

que a condio de validade da aproximao gaussiana. A Tabela mostra uma comparao entre a distribuio binomial e a aproximao gaussiana para

P10 (n)

p = q = 1/2.

Tabela 1: Comparao entre os valores exatos, distribuio binomial, e a aproximao gaussiana para

P10 (n)

para

p = q = 1/2.

Tabela extrada da ref. 5.

Exerccio: O que acontece com a condio da eq. 88 quando

p = q = 1/2?

Em que etapa

da derivao zemos uma inconsistncia nesse caso? Encontre a condio de validade da aproximao gaussiana nesse caso. Mostre, baseado nesse resultado e no da equao 88 que a aproximao gaussiana justicvel se ordem justicvel se

|n n|

N pq .

Explique porque parando em segunda

N pq

1.

35

3.5

Distribuies contnuas de probabilidade


O exemplo

Em muitos casos prticos, as variveis aleatrias (estocsticas) so contnuas.

mais tpico para ns, por exemplo, a posio e velocidade das partculas de um gs. Na simulao que zemos no captulo 2 do gs interagente distribuindo-se em duas metades de uma caixa, utilizamos a posio em uma ou outra metade como a informao desejada e, dessa forma, discreta. No entanto, se estamos interessados em grandezas termodinmicas, como a presso (impossvel na nossa simulao devido s condies de contorno peridicas) ou a temperatura, as variveis microscpicas aleatrias deveriam ser a posio e velocidade de cada partcula (seis variveis independentes). Dos trs exemplos que consideramos para o desenvolvimento da distribuio binomial, o caminhar do bbado na verdade um caso de varivel aleatria contnua. Mesmo com a simplicao unidimensional, zemos uma

outra simplicao mais drstica, que foi considerar os passos idnticos em tamanho. Isso permitiu tratar o problema discretamente e como uma distribuio binomial. Na realidade, devemos esperar que os passos sejam de comprimento varivel e contnuos. (Os outros dois casos, momentos de dipolos magnticos e jogar uma moeda, so difceis de se imaginar como variveis contnuas). Vamos estender nossa anlise da distribuio binomial para o caso das variveis contnuas e utilizar o caminhar do bbado como exemplo. uma probabilidade Novamente, consideramos que ele tem

de dar um passo direita, mas agora a distncia percorrida um

valor aleatrio entre zero e uma distncia mxima

a.

O deslocamento

, portanto, uma

varivel contnua. Consideremos uma simulao do caminhar, similar a que zemos na gura 4, mas agora com passos variveis, anotando o nmero de vezes desloca-se a partir da origem, aps e

H ( x)

que o caminhante

passos, at uma distncia com intervalo

x,
e

entre

x + x.

A gura 8 exemplica esse caso para

x = 0, 5

N = 16

x = 1, 0
5.

N = 32

e foi obtida a partir do programa histograma intervalo

stp-RandomWalk1DContinuous da ref.

O valor do

H (x)

proporcional a probabilidade estimada que o caminhante encontra-se no

a distncia

da origem aps

passos. Para obter a probabilidade, dividimos

36

H (x)

pelo nmero de passos

N.

Aqui importante observar que a escolha do intervalo

parece arbitrria mas possui algumas restries. O valor no pode ser muito pequene porque nesse caso, para um nmero nito de caminhadas, a posio pode se encontrar vazia, isto , nenhuma das caminhadas nalizar naquele intervalo e a estimativa do nmero de caminhadas em cada intervalo caria imprecisa. Por outro lado, no pode ser muito grande, caso contrrio as caractersticas do histograma cam perdidas. Como devemos esperr que o nmero de

caminhadas em um certo intervalo proporcional ao intervalo, escrevemos,

p(x)x =
e a grandeza

H (x) N

(89)

p ( x)

conhecida como a

densidade de probabilidade.

Figura 8: e

Histograma onde

H ( x)
e

do nmero de vezes que o deslocamento de um caminhante

aleatrio tem seu deslocamento, aps

N = 16

(esquerda) e

N = 32

(direita) passos, entre

x + x,

= 0, 5

= 1, 0,

respectivamente. A distncia de cada passo escolhida

aleatoriamente entre zero e um. Cada histograma foi gerado com a simulao

1000 caminhadas, utilizando

stp-RandomWalk1DContinuous da ref. 5. Os valores mdios estatsticos foram

x = 0, 00 (isto , x

0(103 )) e x2 = 5, 18 para N = 16 e x = 0, 02 e x2 = 10, 7 para N = 32. x

No limite deslocamento

x 0, H (x) x

torna-se uma funo contnua de

e a probabilidade do

do caminhante encontrar-se entre

a
b

(ver gura ), ,

P (a < x < b) =
a

dx p(x)

(90)

37

Figura 9: A Probabilidade que sombreada. (extrado da ref. 5)

encontre-se entre

determinada pela rea da regio

A densidade de probabilidade da distncia.

p(x) no-negativa e tem unidades do inverso da dimenso

As propriedades da densidade de probabilidade podem ser obtidas generalizando o caso discreto. A normalizao se escreve na forma,

dx p(x)

=1

(91)

O valor mdio da funo

f (x)

f=

dx f (x)p(x) (92)

e assim por diante.

3.6

Teorema do Limite Central

At agora, discutimos as estimativas das probabilidades de uma amostragem de resultados sem entrar em maiores detalhes, isto , empriicamente. Nas guras 4 e 8 mostramos his-

togramas de um conjunto de experimentos (no caso, caminhadas aleatrias) e a altura do histograma foi identicada com a probabilidade de ocorrer aquele resultado (a menos de fa-

38

tores). Esperamos que quanto maior o nmero de experimentos mais prximo ser a mdia obtida do resultado exato. Essa ideia o que conhecemos como

lei dos grandes nmeros.

Sabemos que um resultado particular, no entanto, pode diferir desse valor mdio. Situao similar j havia sido discutida por ocasio das simulaes das partculas na caixa com divisria (captulo 2). Naquele caso, observamos a evoluo temporal do sistema e sua tendncia a convergir para uma situao de equilbrio (a menos de utuaes). Quando executamos uma medida experimental, a medida realizada durante um certo intervalo de tempo e o sistema evolue rapidamente para diferentes conguraes nesse tempo. Como consequncia, o resultado da medida uma mdia sobre essas vrias conguraes. Utilizamos o princpio ergdico para identicar uma mdia temporal sobre um tempo sucientemente longo com a mdia sobre o conjunto (ensemble ) de conguraes microscpicas do sistema. Isso equivale a fazermos uma mdia sobre vrios caminhos aleatrios, como comentamos acima. At aqui, esse resultado tem sido adotado de forma emprica. No entanto, podemos avanar e encontrar a forma da distribuio de probabilidades que mede o quanto uma medida especca (um caminho executado pelo caminhante ou uma certa medida de um gs) difere do seu valor mdio exato. A forma dessa distribuio de probabilidades o

teorema do limite central.

Para simplicar a discusso, vamos considerar um exemplo simples e depois desenvolveremos para o caso do caminhante aleatrio. Nosso objetivo estimar a probabilidade de, ao jogar um dado, encontrar, por exemplo, a face com o nmero

5.

Sabemos que o resultado

1/6 signica que, se realizarmos o experimento


Nossa questo determinar

vezes, deveremos ter,

aproximadamente,

N/6 vezes o nmero 5. S

o signicado desse

aproximadamente. Seja

nmero total de vezes que o

aparece em

experimentos. Temos,

S=
i=1
onde,

si

(93)

39

si =

1 0

se a

i -sima jogada der

5
(94)

em qualquer outra situao

Vimos nas simulaes que a razo

S/N

aproxima-se de

1/6

para valores grandes de

N,

como esperaramos intuitivamente. A questo que nos colocamos

qual a taxa na qual esse

limite se aproxima ? A forma de respondermos essa pergunta, experimentalmente, medirmos

vezes (como zemos nos histograma). Como

Ateno : cada medida signica realizar

jogadas

do dado.

uma varivel aleatria em si mesma, sabemos que as medidas de

no sero idnticas. A gura 10 mostra os resultados para

M = 10.000

medidas de

para

N = 100

N = 800.

Vemos que a forma aproximada da distribuio dos valores de

gaussiana. (Podemos fazer a mesma armao em relao a gura 4?) (Qual o valor relativo da largura da curva em cada caso?).

M = 10.000 medidas diferentes da soma S para N = 100 e N = 800 termos na soma. A grandeza S o nmero de vezes que a face 5 aparece em N jogadas de um dado. Para N = 100, os valores medidos so S = 16, 67, S 2 = 291, 96 e S = 3, 74. Para N = 800, temos S = 133, 31, S 2 = 17881, 2 e S = 10, 52. (extrado da ref.
Figura 10: Distribuio de 5).

Podemos encontrar uma expresso para medirmos o valor

p(S ),

isto , a densidade de probabilidade de

aps

jogadas do dado para obtermos um resultado especco em cada

jogada? Ou seja, possvel demonstrar que

p(S )
40

uma distribuio gaussiana? A resposta

positiva e uma demonstrao pode ser encontrada na seo 3.11.2 da ref. 5. Vamos apenas discutir aqui o resultado e detalhar para o caso especco do caminho aleatrio. dissemos, pode-se mostrar que, Como ,

no limite

N , 1
2 2S

a densidade de probabilidade

p( S )

p(S ) =
onde,

e(S S )

2 /2 2 S

(95)

S = Ns

(96)

2 S = N 2

(97)

onde,

2 = s2 s2
A grandeza

(98)

p(S )S

a probabilidade que o valor da soma

N i=1

si

esteja entre

S + S .

A equao 95 o

teorema do limite central. A forma gaussiana vale apenas para

valores grandes de

e para valores de

prximos do valor mais provvel (valor mdio).

A origem do nome signicativa: enquanto que

central indica a validade para valores prximos da mdia

limite indica a validade para

muito grande.

O teorema do limite central um dos resultados mais importantes da teoria de probabilidades. Ele estabelece, na sua forma mais simples, que a distribuio de probabilidades do valor de uma soma de um grande nmero de variveis aleatrias aproximadamente gaussiana. A aproximao melhor quanto maior for o nmero de variveis na soma. esse teorema que nos permite que o limite termodinmico, clssico e macroscpico, faa sentido. Vamos voltar agora ao caso do caminhar do bbado ou o caminho aleatrio. o deslocamento do caminhante depois de

S representa

passos.

o desvio padro do deslocamento de

41

um nico passo. No teorema do limite central, encontramos que a densidade de probabilidade do deslocamento ser uma gaussiana (ver gura 7 para o caso bidimensional). Esse resultado equivalente ao que encontamos para caminhos aleatrios no limite de um nmero grande de passos

N.

O mesmo raciocnio pode ser feito para o caso de jogarmos moedas ou dos momen-

tos magnticos. O deslocamento do caminho aleatrio depois de de um sistema de

passos e a magnetizao

spins so exemplos de

processos aleatrios aditivos. A distribuio dos

caminhos aleatrios, dos spins ou das mltiplas jogadas de moeda dada pela eq. 95, e o nosso trabalho reduz-se a encontrar as expresses para o que determina completamente a eq. 95. Vamos desenvolver o caso particular do caminho aleatrio (ver ref. consideramos uma sequncia de tenha o comprimento aleatrio sequncia de passos 1). Novamente,

2,

para o problema de interesse,

N passos, si

assumindo que o deslocamento do

i-simo

passo

o qual ocorre com a probabilidade

(si )dsi .

Para uma

N,

a posio do caminhante ,

x=
i=1

si x
e

A probabilidade de encontrar o caminhante entre

x + dx

dada por

pN (x)dx =
x<s1 +s2 +...+sN <x+dx

(s1 )ds1 ... (sN )dsN

(99)

onde as integraes so realizadas entre

(, +)

com as restries explicitadas. pode-

mos remover a restrio substituindo-a por funes

de Dirac:

(x) =

1/

para

/2 < x < /2,


(100)

para

|x| > /2

0.

Temos ento,

pN (x) =

...

(s1 )ds1 ... (sN )dsN x


i=1
42

si

(101)

Utilizando a representao integral da funo

1 (x) = 2
temos,

+
dk

eikx

(102)

1 p N ( x) = 2
onde,

+
dk

eikx [ (k )]N

(103)

(k ) =

+ ikx ds (s)e
(104)

Vamos obter agora

pN (x)

no limite de

muito grande. Como temos um fator oscilante,

e+iks , (k ) [ (k )]N ,

s signicativa na vizinhana de

k = 0.

Essa condio ca reforada para

com

grande. Podemos aproximar

(k )

pela expanso,

(k )

+
ds (s)e

ikx

1 1 + iks k 2 s2 + ... 2 1 = 1 + iks k 2 s2 + ... 2


ds

(105)

E temos ento,

[ (k )]N = exp [N ln (k )] = exp N iks + 1 2 2 k s s2 + 0 k 3 2


(106)

Desprezando os termosk^{2}\overline{s}^{2}-\overline{s^{2}} de ordem superior a temos,

k2,

43

1 p ( x) = 2

+
dk

1 exp ikx + N iks N (s)2 k 2 2

(107)

que pode ser escrita na forma,

1 (x )2 p(x) = exp 2 2 2 2
onde,

(108)

= Ns
e,

(109)

2 = N (s)2
e recuperamos, para o caso do caminhante aleatrio o resultado do

(110)

teorema do limite

central (eqs. 95-97).

Exerccio: Verique que podemos recuperar a distribuio binomial para um caminho


aleatrio em uma dimenso com passos de mesmo comprimento l , onde

(s)

dada por,

(s) = p (s l) + q (s + l)

(111)

Podemos deduzir

pN (x)

a partir da generalizao para passos variveis e contnuos da

equao estocstica de diferenas para caminhos aleatrios com passos iguais que utilizamos anteriormente para a distribuio binomial (eq. 39). A equao generalizada de recorrncia se escreve na forma,

pN (x) =

+
ds pN 1 (x

s) (s)

(112)

44

Introduzindo a transformada de Fourier,

p N (k ) =

+
dx pN (x)e

ikx

(113)

e com

(k )

dada pela eq. 104, temos,

p N +1 (k ) = p N (k ) (k )
Como no instante inicial (i.e., para

(114)

N = 0) o caminhante est na origem, ou seja, p0 (x) =

(x),

3.7

Equao de difuso

No limite contnuo, podemos recuperar resultados macroscpicos considerando escalas de distncia e tempo sucientemente longas. Nesse caso, um comportamento relativamente simples

emerge a partir do movimento catico dos estados microscpicos, isto , do movimento das
partculas ou do caminho errtico do caminhante aleatrio. Vamos derivar um caso simples, a partir dos resultados que trabalhamos at aqui, que a

equao de difuso. Partimos do

limite contnuo de um conjunto (ensemble ) de caminhadas aleatrias. Consideremos um caso geral, de caminhos aleatrios no-correlacionados - o que zemos at agora - onde para cada passo temporal

a partcula na posio

muda de posio por um passo

s:

x(t + t) = x(t) + s(t)


Vamos designar a distribuio de probabilidade para cada passo por Assumimos portanto que de

(115)

(s)

(ver eq. 111).

( s)

tem mdia nula e desvio padro

Os primeiros momentos

(s)

so:

45


ds (s)

= 1 = 0 = 2
(116)

ds (s)s

ds (s)s

Nossa tarefa encontrar a distribuio de probabilidade temporal uma vez conhecida a distribuio de probabilidade Para que a partcula mova-se de

(x, t + t) (x , t).

no prximo passo

no tempo

t para a posio x no tempo t + t,

o passo

s(t) deve ser igual a x x .


probabilidade

Isso acontece com a probabilidade

(x x ) vezes a densidade de x,
temos,

(x , t)

que ela tenha iniciado em

x.

Integrando sobre as posies

(x, t + t) =

+
dx

(x , t) (x x ) s, t) (s)
(117)

ds(x

Vamos assumir agora que

seja uma funo bastante extendida no espao, de tal forma

que o tamanho do passo seja pequeno na escala na qual expanso em srie de Taylor,

varia. Podemos ento fazer uma

(x, t + t)

s2 2 + (s) (x, t) s x 2 x2 1 2 = (x, t) ds (s) ds s (s) + x 2 x2 1 2 2 = (x, t) + 2 x2


ds

2 ds s (s)

(118)

Assumindo tambm que aproximar,

varie lentamente no intervalo do passo temporal, t,

podemos

46

(x, t + t) (x, t)
e ento,

t t

(119)

2 =D 2 t x
onde escrevemos,

(120)

D=

2 coeciente 2t

de difuso

(121)

A equao de difuso aplica-se, para o comportamento macroscpico, de qualquer sistema fsico semelhante ao caminho aleatrio, guardada as condies que a funo de distribuio de probabilidades varie lentamente na escala dos passos espacial e temporal. Essa equao tem grande aplicao. Para o caso de partculas, a densidade de probabilidade descreve uma partcula individual a medida que ela evolue no espao de forma aleatria. Para partculas no-interagentes, a probabilidade de distribuio de uma partcula descreve a densidade de todas as partculas.

47

Referncias
[1] Slvio R. A. Salinas,

Introduo Fsica Estatstica, EdUSP, 1997.

[2] Federik Reif, 1965.

Fundamentals of Statistical and Thermal Physics, McGraw-Hill,

[3] Federik Reif,

Fsica Estadstica, Berkeley Physics Course vol. 5, Editorial Revert. lements de physique statistique: Hasard, organisation, volu-

[4] Sylvie Vauclair,

tion, InterEditions, 1993.


[5] Harvey Gould e Jan Tobochnik,

Statistical and Thermal Physics, Princeton Uni-

versity Press, 2010 e http://www.compadre.org/stp (Statistical and Thermodynamic Project, apoiado pela National Science Foundations  EUA).

[6] Paul L. Meyer,

Probabilidade: Aplicaes a Estatstica, 2a. ed., LTC, 2000. Statistical Thermodynamics Based on Information: A Farewell

[7] Arieh Ben-Naim,

to Entropy, World Scientic, 2008.


[8] Elliot W. Montroll e Michael F. Shlesinger, On the Wonderful World of Random Walks, Captulo 1 em

Studies in Statistical Mechanics vol. XI Nonequilibrium Phenom-

ena II From Stochastics to Hydrodynamics, Eds. E. W. Montroll e J.L. Lebowitz,


North-Holland Physics Publishing, 1984.

[9] James P. Sethna,

Statistical Mechanics: Entropy, Order Parameters, and Com-

plexity, Oxford Master Series, 2006.

48

Potrebbero piacerti anche