Sei sulla pagina 1di 11

1.4.

2 Distribución gaussiana

La distribución gaussiana se aplica en el caso de eventos continuos. Cuando N es


muy grande y, por tanto, también lo es n, la distribución se pude considerar
continua. La densidad de probabilidad W(n) para la distribución gaussiana de
probabilidad se puede derivar a partir de la distribución de probabilidad binomial,
lo cual se hará a continuación. Para ello se desarrolla la función LnP(N,n) en
series de Taylor alrededor del valor máximo, donde ñ  n se cumple para N,n>>.
Así,

 dLnP( N , n) 
LnP( N , n)  LnP( N , ñ)    (n  ñ) 
 dn ñ

 d 2 LnP( N , n)  (n  ñ) 2
   
 dn 2  ñ 2!

 d 2 P ( N , n)  ( n  ñ ) 2
 LnP( N , ñ)   2 
 dn  ñ 2!

Donde
d 2 LnP( N , n) d  N  n p
2
  Ln  Ln 
dn dn  n q

1 1 N
  
N n n ( N  n) n
Luego,
 d 2 LnP( N , n)  N
  
 dn 2
 ñ ( N  n) n

N

( N  Np) Np
N

( N  Np) Np
1

Nqp
1

n 2
Así,
1 1
LnP( N , n)  LnP( N , ñ)  ( n  n) 2
2 n 2

1
( nn )2

P( N , n)  Ae 2 n 2

Como
P ( N , n)
WN (n)  , y, n  1
n
Finalmente,
( nn )2

WN (n)  Ae 2 n 2
(1.21)
Que es la función de distribución de Gauss. Donde A es una constante que se determina
mediante la condición de normalización de W(n), n el valor central de la distribución y
σ=Δ*n el ancho a media altura de la distribución de W(n). En la Figura 1.1 se observa la
curva de la distribución de probabilidad gaussiana.

W(n)

Figura 1.1-Densidad de probabilidad gaussiana W(x) representada con n =ñ=1 y σ=1


Para determinar A, entonces, utilizamos la condición de normalización
( nn )2
  
1   WN (n)dn  A e 2 2
 A 2 2 (1.22)
 

Para resolver dicha integral se hace u=n- n y se utiliza la solución


 
 e au du 
2
(1.23)
 a
1
De donde se deduce A=
2  
El valor medio de n es n =ñ.
Luego, en forma explícita, la Función de Distribución de Gauss quda
1 ( nn )2
 
 
____ ____
2
2 n 2
WN (n)   2 n 2
 e
 

2
Probabilidad de un desplazamiento “x”
La función de distribución de probabilidad de Gauss, dependiente de “n”, deducida
anteriormente
(nn )2

1 
 
____ ____
2
2 n 2
PN (n)   2 n 2  e
 
En función de “m” (número neto de pasos a la derecha), con m  2n  N , queda de la
siguiente manera
1
( mm )2
4 ____

 ____ 1 1
 2 m 2
P(m)  ( m ) e 2 2 4
2
Tomando x=ml, la función de probabilidad queda dependiente del desplazamiento “x”,
( x x )2

 x 2 1
 ____

P( x)  ( 2
) e 2 x 2
2 l2
Dado que la densidad de probabilidad está dada por
P( x)
W ( x) 
x
y x=2l (ver figura), finalmente, la densidad de probabilidad para un desplazamiento
“x”, queda de la forma
( x x )2
1 
 ____

W ( x)  (2 x 2 ) e 2 2 x 2

x=ml=2l

mx (m+1)x

Así, la probabilidad de darse un desplazamiento “x” entre “x” y “x+dx” estará dado por
O sea, conociéndose la densidad de probabilidad se puede determinar la probabilidad de
presentarse cualquier desplazamiento “x”.

1.4.3 Ley de Poisson

3
Dada la probabilidad
P(x)=W(x)dx

Cuando la probabilidad de que se presente un evento es muy pequeña comparada


con 1 (P<<), o sea un evento raro, la probabilidad de que n eventos de este tipo
(con N>>n>>1) tengan lugar está dada por la ley de Poisson.
n e  
P ( n)  (1.24)
n!
donde λ es una constante que no es más que el valor medio de n (λ=NPA). P(n) cumple
con la condición de normalización
 
n e   
n
 P ( n)  
n 0 n 0 n!
e  
n 0 n!
e  e   1 (1.25)

La ley de Poisson se obtiene a partir de la distribución binomial aproximándola para


valores de la probabilidad del evento pequeña (P<<), y N>>n>>1. Para 9 la
distribución de Poisson se aproxima a la Distribución normal o de Gauuss.

1.5 Estados microscópicos y estados macroscópicos

1.5.1 Número de estados microscópicos

Ele estado microscópico de un sistema se define a través de los estados


individuales de las partículas que componen el sistema. Estos estados individuales
están definidos por los parámetros característicos del sistema. Como ejemplo
tomemos, el estado microscópico de un átomo definido por los estados de sus
electrones donde cada uno está definido por sus cuatro números cuánticos
(n,l,ml,ms), el estado microscópico de un sistema aislado de energía constante
descrito por la repartición de esta energía en cada una de sus partículas, el estado
microscópico de un sistema de N partículas clásicas de masa m el cual está
descrito por las posiciones y las cantidades de movimiento de las partículas, el
estado microscópico de un sistema de partículas cuánticas independientes descrito
por los vectores de onda de las partículas, etc.
Es evidente que para cada sistema hay un gran número de estados microscópicos
que cumplen con las condiciones externas impuestas al sistema. Estos estados son
los denominados estados microscópicos accesibles al sistema.
Es de importancia poder contar el número de estos estados. Los casos de las
particulas independientes clásicas y cuánticas son considerados en detalle en el
próximo capitulo. Aquí estudiaremos un ejemplo simple de algunas formas de
contar los estados microscópicos. En general, diferenciaremos las partículas
discernibles de las partículas indiscernible. Las partículas discernibles son
aquellas que se pueden distinguir (por ejemplo, las partículas numeradas o las
partículas de colores diferentes). Las partículas indiscernibles son aquellas que no
se pueden distinguir (por ejemplo los átomos de un gas monoatómico o los
electrones en un metal).
Ejemplo: Dado un sistema aislado de energía total igual a 3 (donde  es la
mínima unidad de energía del sistema). El sistema cuenta con tres partículas

4
discernibles marcadas con las letras A, B y C las cuales pueden ocupar los niveles
con energía 0,  , 2 y 3. Como el sistema se restringe a una energía total de
3 , las posibles formas en que se pueden distribuir las partículas en cada uno de
los niveles de energía nos proporcionan una cantidad de 10 estados microscópicos
para el sistema como se ilustra en la Figura 1.2.

3 A 3 3

2 2 A 2

  B  A,B,C

0 B,C 0 C 0

(3 estados) (6 estados) (1 estado)

Figura 1.2-Sistema de 3 partículas (A, B y C) con energía total E=3 distribuida en 4


niveles energéticos de energía 0,  , 2 y 3.
Es de tenerse en cuenta que las permutaciones de partículas dentro de un mismo nivel
no representan un nuevo estado.
Para determinar el número de estados en cada una de las ocupaciones del sistema,
también se puede utilizar la expresión combinatoria
N!
 (1.26)
no !n1!n2 !...
donde ni (i=0,1,2,…) corresponde al número de partículas que ocupan el i-ésimo nivel y
N el número total de partículas.
El número total de estados microscópicos para este caso es de 10. En forma general,
para determinar el número total de estados microscópicos de un sistema de N partículas
con energía total E unidades, se utiliza el siguiente razonamiento:
Se tienen E=11 unidades de energía para distribuir entre N=5 partículas. Cada unidad
de energía se representa por una bola negra. Las N partículas están representadas por
una hilera de N casillas separadas por las bolas blancas: hay N-1 paredes (Figura 1.3). El
número total distribuciones de energía corresponde al de permutaciones de E+N-1 bolas
negras y bolas blancas. Deben restarse las permutaciones de N-1 bolas blancas debido a
que ellas no representan nuevas distribuciones de energía. De la misma forma, también
deben omitirse las permutaciones de E bolas negras.
Así, se tiene
( N  E  1)!
( E )  (1.27)
( N  1)! E!

5
Figura 1.3-Dos ejemplos de distribución de 11 unidades de energía entre 5 partículas.
Las unidades de energía están representadas por las bolas negras, las paredes entre las
partículas por las bolas blancas. En el esquema superior, las energías de las partículas de
izquierda a derecha son 2, 3, 4, 1 y 1. La permutación de una bola negra con una blanca
genera una nueva distribución de energía. Por ejemplo, en el esquema inferior, la nueva
distribución es 4, 1, 4, 1 y 1.
Otra forma de deducir la Ec.(1.27) es considerando que las N partículas y la energía E se
distribuyen en todos los estados (formas) posibles. Comenzando por una partícula
existen N formas de comenzar y en cada una de estas formas las (N+E-1) pueden
formas restantes pueden distribuirse en cualquier orden. Así el número de formas
posibles es N(N+E-1)!. Como no se tiene en cuenta el orden en que se toman la
partículas o los niveles, dividimos por N! y E!, generándose la expresión.

(3  3  1)!
Para el ejemplo expuesto N=3 y E=3, entonces tenemos ( E )   10 . Dado el
(3  1)!3!
caso en que las partículas sean completamente indiscernibles, el número de estados
microscópicos se reduce a 3, pues para cada ocupación del sistema las permutaciones
entre partículas de niveles diferentes no generan nuevas distribuciones o estados
microscópicos.
El conocimiento del número de estados permite calcular las propiedades físicas de los
sistemas aislados como será abordado en el capitulo 2. También se estudiará otra forma
de determinar el número de estados utilizando la densidad de estados.
Los estados microscópicos diferentes con la misma energía se denominan estados
degenerados. El número de estados degenerados se denomina la degeneración. En el
ejemplo anterior, la degeneración es 10 para la energía E=3.
Cada estado microscópico i tiene una probabilidad Pi. Conociendo Pi, puede calcularse
los valores medios de las cantidades físicas lo cual se realizará en los capítulos
siguientes. El objetivo principal de la mecánica estadística es el de determinar Pi
dependiendo de las condiciones en las cuales se encuentre el sistema sometido a estudio.
Es de importancia tener en mente que las partículas cuánticas son, debido a su
naturaleza, partículas indiscernibles. Se distinguen dos tipos de partículas: Los bosones
y los fermiones. Los bosones son las partículas de spin entero (0, 1, 2,…) y los
fermiones son las partículas de spin semi-entero(1/2, 3/2, 5/2,…). Uno de los postulados
de la mecánica cuántica establece que la función de onda de los bosones es invariante
respecto a la permutación de dos partículas, mientras que la de los fermiones cambia de
signo a cada permutación. La consecuencia de este postulado es que un estado cuántico
puede contener cualquier número de bosones mientras que él solo puede contener un
fermión a lo máximo. Esto tiene influencia evidente en el conteo de los estados.
1.5.2 Estados macroscópicos

6
Un estado macroscópico está definido por un conjunto de estados microscópicos
que tienen una propiedad macroscópica común. Existen muchas formas de definir
un estado macroscópico. En el ejemplo de la Figura 1.2, se pueden definir los
estados macroscópicos por los números de ocupación de los niveles de energía:
hay tres estados macroscópicos correspondientes a los números de ocupación de
los cuatro niveles (2,0,0,1), (1,1,1,0), (0,3,0, 0) (Figura 1.2, de izquierda a
derecha). Igualmente puede definirse el estado macroscópico como un estado con
energía E=3. Este estado macroscópico contiene entonces el conjunto de los 10
estados microscópicos.
En general, un estado macroscópico es una mezcla estadística de estados
microscópicos. Un valor macroscópico de una magnitud física corresponde al
promedio estadístico de dicha magnitud a lo largo de sus estados microscópicos.
1.5.3 Medias estadísticas y principio de ergodicidad

Cuando un sistema está en equilibrio macroscópico, las variables macroscópicas


no varían a lo largo del tiempo pero el sistema experimenta fluctuaciones
microscópicas alrededor de sus valores microscópicos. Se define entonces el valor
medio a lo largo del tiempo de una variable f por
~ 1 to 
f  lim  f (t )dt (1.28)
 0  to

aquí  es el tiempo a lo lago del cual se promedia.


Por otro lado, como se mencionó anteriormente, el promedio de una magnitud se puede
calcular a lo largo del conjunto de todos los estados microscópicos accesibles al
sistema. Dada Pr como la probabilidad del estado microscópico r en el cual la variable f
es igual a fr. Se define la media, o media del conjunto, de f como
f   Pr f r (1.29)
(r )

El principio de ergodicidad de la mecánica estadística del equilibrio establece una


equivalencia entre el promedio de un conjunto y el promedio en el tiempo. La valides de
este principio se verifica en la mayoría de los casos. Para los sistemas donde el tiempo
de relajación es extremadamente grande, este principio no es fácil de verificar debido a
que el tiempo de promedio  debe ser demasiado grande. Ciertos casos requieren de un
tiempo inaccesible experimental y numéricamente.
1.6 Entropía estadística

Consideremos un sistema cualquiera. En mecánica estadística, una magnitud que


juega un papel muy importante es la entropía estadística definida por
S  k  Pr ln Pr (1.30)
r

Donde Pr es la probabilidad del estado microscópico r del sistema y k la constante de


Boltzmann.
En los capítulos subsecuentes se podrá observará como esta definición de S coincide
con la entropía termodinámica introducida desde un punto de vista macroscópico en el
segundo principio de la termodinámica. Una de las ventajas de la definición (1.30) es
que el sentido físico de la entropía es más claro

7
 Como 0 ≤ Pr ≤ 1, S ≥ 0
 Cuando se puede presentar un evento con total certeza, es decir cuando una de
las probabilidades es igual 1 (y las otras probabilidades son, pues, nulas), se
encuentra que S es mínima lo que quiere decir que S=0. Cuando todas las
probabilidades son iguales, es decir cuando la incertidumbre sobre el resultado
es completa, se puede demostrar que S es máxima.

Ejercicio 11
De otra forma S representa la incertidumbre, o la falta de información, acerca del
sistema. Con esta definición, se comprende fácilmente que en termodinámica, la
entropía S es asimilable al desorden del sistema.
La entropía estadística es aditiva: consideremos dos conjuntos de eventos
independientes (o dos sistemas macroscópicos con sus estados microscópicos) {em;
m=1,…M} y {en; n=1,…N} de probabilidades respectivas {Pm; m=1,…,M} y {Pn´;
n=1,…,N} La probabilidad de presentarse los eventos em y en´ es P(m,n)= Pm Pn´. La
entropía será

S (e, e´)  k  Pm Pn ´ ln( Pm Pn )  k  Pm Pn ´(ln Pm  ln Pn ´)


m,n m,n

 k  Pm ln Pm  Pn ´  k  Pn ´ln Pn ´ Pm
m n n m

 S (e)  S (e´)
(1.31)

como m
Pm  1 y  n
Pn ´ 1 . La entropía total es entonces la suma de las entropías.

1.7 Ejercicios y problemas

1-¿Cuál es la probabilidad de obtener seis puntos o menos lanzando tres dados.


(Soln. 0,0925)
2-Consideremos el juego en el que se lanzan seis dados. Determinar la probabilidad de
obtener
a) Exactamente un as (Soln. 0,4018)
b) Al menos una as (Soln. 0,66)
c) Exactamente dos ases (Soln. 0,2)

3- Determine la probabilidad de obtener 6 o menos de 6 puntos al lanzar 5 dados.


4-Se toma un número al azar entre 0 y 1. ¿Cuál es la probabilidad de que exactamente 5
de sus primeras cifras decimales estén constituidas por dígitos menores de 5?
(Soln. 0,246)
5-Un borracho parte de un farol en el centro de una calle, dando pasos de igual longitud
a la derecha o a la izquierda con igual probabilidad. ¿Cuál es la probabilidad de que esté
nuevamente en el farol después de dar N pasos,
a) si N es par,

8
b) si N es impar?

6-En el juego de la ruleta rusa (no recomendado por el autor) se introduce un solo
cartucho en el tambor de un revólver, dejando libres las otras cinco cámaras. Se hace
girar el tambor, se apoya el cañón en la sien y se aprieta el gatillo.
a) ¿Cuál es la probabilidad de estar con vida después de jugar N veces?
b) ¿Cuál es la probabilidad de sobrevivir a N-1 jugadas, produciéndose el
disparo la N-ésima vez que se aprieta el gatillo?
c) ¿Cuál es el número medio de veces que un jugador tiene oportunidad de
apretar el gatillo en este macabro juego?

7-Consideremos el problema del camino aleatorio del problema 4 con PA=PB (PA
probabilidad de dar un paso a la derecha y PB probabilidad de dar un paso a al
izquierda), nA: número de pasos a la derecha y nB: número de pasos a la izquierda. Sea
m= nA- nB el número neto de pasos hacia la derecha. Después de un total de N pasos,
calcular los valores medios siguientes: m , m 2 , m 3 y m 4 .
8-Dos borrachos parten juntos del origen, teniendo cada uno la misma probabilidad de
dar un paso a la derecha o a la izquierda a lo largo del eje x. Determinar la probabilidad
de que vuelvan a encontrarse después de N pasos. Se sobreentiende que los dos dan sus
pasos simultáneamente.

2 N !  1  2 N )
(Soln.  
( N !) 2  2 
9-Consideremos un gas de No moléculas sin interacciones mutuas encerrado en un
recipiente de volumen Vo. Enfoquemos nuestra atención en un subvolumen cualquiera V
de este recipiente y designemos por N el número de moléculas contenidas en este
subvolumen. Cada molécula tiene la misma probabilidad de encontrarse en un punto
cualquiera del recipiente; en consecuencia, la probabilidad de que una molécula dada
esté situada dentro del subvolumen V es sencillamente igual a V/Vo.
a) ¿Cuál es el número medio N de moléculas dentro de V? Expresar el
resultado en términos de No, Vo y V.

b) Determinar la dispersión N 2  N 2 1/ 2
/ N relativa en el número de
moléculas situadas dentro de V. Expresar el resultado en términos de No, Vo y
V.
c) ¿Cómo quedaría el resultado anterior si V<<Vo?
d) ¿Qué valor tomaría la dispersión N  N  si V→ Vo?
2

10- Un foco de radioactividad emite partículas α durante un cierto tiempo t. Podemos


imaginar que este intervalo de tiempo está subdividido en muchos intervalos Δt. Como
las partículas alfa se emiten en tiempos aleatorios, la probabilidad de que una
desintegración radiactiva tenga lugar dentro de uno cualquiera de estos Δt es
completamente independiente de las desintegraciones ocurridas en otros tiempos.
Podemos imagina, además, que Δt se elige lo suficientemente pequeño para que la
probabilidad de que en este tiempo ocurra más de una desintegración sea
despreciablemente pequeña. Esto significa que existe cierta probabilidad p de que haya
una desintegración durante un tiempo Δt (con p<<1, puesto que Δt se ha elegido
suficientemente pequeño) y una probabilidad 1-p de que no haya desintegración en este

9
espacio de tiempo. Cada intervalo Δt puede considerarse como un experimento
independiente, habiendo un total de experimentos durante el tiempo t, igual a N=t/ Δt.
a) Demostrar que la probabilidad P(n) de n desintegraciones durante el tiempo t
viene dada por la distribución de Poisson.
b) Suponer que la intensidad del foco radiactivo es tal que el número medio de
desintegraciones por minuto es de 24. ¿Cuál es la probabilidad de obtener n
de ellas en 10 s? Dar valores numéricos para valores enteros de n desde 0
hasta 8.

11-Movimiento aleatorio en tres dimensiones. Considere una partícula desplazándose en


tres dimensiones a longitudes discretas de longitud variable l y una densidad de
probabilidad independiente de la dirección del desplazamiento. Cada paso está asociado
a un cambio en la dirección del movimiento de la partícula que es debida a la colisión
con otra partícula. Este es el modelo del movimiento Browniano. (hacerlo como parte
del aula)
a) Calcular las componentes características (X,Y,Z) de la posición después de N
desplazamientos. Calcular los valores medios ( X , Y , Z ) y las variacias
correspondientes X 2 , Y 2 y Z 2 . Deducir la media de la longitud al
cuadrado del desplazamiento l 2 .
b) ¿Cuál es la densidad de probabilidad de encontrar la partícula en (x,y,z)
después de N pasos?
c) Haciendo X 2 =2Dt donde D es el coeficiente de difusión y t el tiempo del
1 l2
movimiento de la partícula, demostrar que D  donde  es el tiempo
6
medio de colisión entre las partículas.

12. Consideremos dos sistemas aislados. El primero A1 con N1=2 partículas y


energía 3 El segundo A2 con N2=4 partículas y energía 5 Cada partícula puede
tomar energías 0, , 2, 3 …..

a) Determine el número de estados microscópicos de un sistema compuesto por


los dos sistemas separados por una pared aislante. (Soln. 224)
b) Retirándose la pared aislante, se obtiene el sistema total A= A1+ A2, aislado.
Determinar el número de estados microscópicos del sistema total A en esta
nueva situación. (Soln. 1287)
c) Bajo la situación del numeral anterior, calcule el número de estados
microscópicos en los cuales hay por lo menos 2 partículas con energía 2
cada una. Deducir la probabilidad del sistema en esta situación.
(Soln. 525/1287)
13. a) Una partícula tiene la misma probabilidad de estar en un punto cualquiera de
una circunferencia. Tomemos como eje z una línea recta del plano de la
circunferencia y que pase por su centro. Designemos por  el ángulo que forma el eje
z con la recta que une el centro de la circunferencia con la partícula. ¿Cuál es la
probabilidad de que este ángulo esté entre y d ?
b) Una partícula puede estar con la misma probabilidad sobre un punto cualquiera
de una esfera. Tomemos una línea cualquiera que pasa por su centro como eje z.
Designemos por  el ángulo formado con este eje por la línea recta que une el centro

10
de la esfera con la partícula. ¿Cuál es la probabilidad de que este ángulo esté entre
y d ?

11

Potrebbero piacerti anche