Sei sulla pagina 1di 32

Haken, Sinergtica una

Introduccin


Este es el resumen del libro de Haken, sinergetics an
Introduction, el cual nos lleva a tema de auto-
organizacin, sinergia, y esto es importante en el
modelado de un sistema, ya que se debe tener en
claro las variables y funciones que dominan el
sistema.

: Josu Prez Lucero


Modelado y simulacin
Haken, Sinergtica una Introduccin
1
Josu Prez Lucero

Contenido
1. ORDEN Y DESORDEN: ALGUNOS FENOMENOS TIPICOS ....................................... 3
LA ENTROPIA ............................................................................................................... 3
LA INESTABILIDAD DE CONVECCIN ........................................................................ 3
ALGUNOS PROBLEMAS TIPICOS Y SUS DIFICULTADES ......................................... 4
COMO SE PROCEDE .................................................................................................... 4
2. Probabilidad ................................................................................................................... 4
Objeto de nuestra investigacin: El espacio muestral. .................................................... 4
Variables aleatorias ........................................................................................................ 6
Probabilidad ................................................................................................................... 6
Distribuciones ................................................................................................................. 6
Variables Aleatorias con densidades .............................................................................. 7
Probabilidad Conjunta .................................................................................................... 8
Esperanza Matemtica E(X), y Momentos ..................................................................... 8
Probabilidades condicionales ......................................................................................... 8
Variables Aleatorias dependientes e independientes. .................................................... 9
Generacin de funciones y funciones caractersticas ..................................................... 9
Distribucin Binomial .................................................................................................... 10
Distribucin de Poisson ................................................................................................ 10
Distribucin Normal(Gaussiana) ................................................................................... 10
3. Informacin .................................................................................................................. 11
4. Aleatoriedad................................................................................................................. 14
Un Modelo de Movimiento Browniano .......................................................................... 14
El Modelo Aleatorio de Caminado y su Ecuacin Maestra ............................................ 17
Probabilidad Conjunta y Rutas. Procesos de Markov. La Ecuacin Chapman-
Kolmogorov. Rutas de Integrales. ................................................................................ 20
Modelado y simulacin
Haken, Sinergtica una Introduccin
2
Josu Prez Lucero

Cmo Utilizar Probabilidades Conjuntas. Momentos. Funcin Caracterstica. Procesos
Gaussianos .................................................................................................................. 22
La Ecuacin Maestra .................................................................................................... 24
Solucin exacta estacionaria de la ecuacin maestra para los sistemas en balance
detallado ...................................................................................................................... 25
La Ecuacin maestra con balance detallado. Simetrizacin, Eigenvalores y
Eigenestados ............................................................................................................... 26
Solucin de la ecuacin maestra con el mtodo de Kirchhoff ....................................... 27
Teoremas sobre la solucin de la ecuacin maestra. ................................................... 28
El sentido del proceso aleatorio. Estado estacionario, fluctuaciones, recurrencia en el
tiempo .......................................................................................................................... 29
Ecuacin Maestra y limitaciones de la irreversibilidad termodinmica .......................... 30


Modelado y simulacin
Haken, Sinergtica una Introduccin
3
Josu Prez Lucero

1. ORDEN Y DESORDEN: ALGUNOS FENOMENOS TIPICOS

Fenmenos de l a vida di aria:
Cuando llevamos un cuerpo caliente en contacto con un cuerpo frio, ambos intercambian el
calor y adquieren una misma temperatura, el sistema se convierte en homogneo
macroscpicamente. Sin embargo el proceso inverso no es observado en la naturaleza, es
decir que el proceso solo lleva una nica direccin. NO ES REVERSIBLE.
Otro proceso es el de tener en un recipiente tomos de gas y se mueve el pistn del gas
para llenarse todo el espacio. El proceso opuesto no puede ocurrir, es decir que no puede
cerrar el pistn y que las partculas se vuelvan a comprimir en el lugar inicial.
Si una gota de tinta le dejramos caer agua se extendera la mancha, pero el proceso
reversible no puede ocurrir, es decir q no se puede secar el agua y ver de nuevo la gota
inicial de tinta.

LA ENTROPIA
Se le llama as a la medida del grado de desorden. Las leyes de la termodinmica que estn en un
sistema cerrado la entropa incrementa a su valor mximo, en cambio si nosotros manipulamos un
sistema, podemos cambiar el grado de orden del mismo.
Un ejemplo importante es el vapor de agua, que puede pasar de partculas de gas a un estado
lquido si bajamos la temperatura y aun ms extremo a un estado de cristalizacin si se sigue
disminuyendo la temperatura; pero se puede llegar al estado inicial si incrementa la temperatura.
Otro ejemplo muy significativo es el de ferromagnetos. Cuando se aumenta temperatura pierden el
sentido o direccin es decir que pierden su magnetizacin, si se vuelve a disminuir la temperatura
regresa a su estado inicial magnetizado. La fase de cambiar bruscamente de estar magnetizado a
no estarlo se le llama FASE DE TRANSICIN

LA INESTABILIDAD DE CONVECCIN
Consideramos un fluido de capa caliente desde abajo y manteniendo a una temperatura fija desde
arriba. Una pequea diferencia de calor es trasportada por conduccin y el fluido permanece
inactivo. Cuando la temperatura llega a degradarse a un valor critico, el fluido comienza un
movimiento macroscpico. Desde que se expanden las partes calientes, estas se mueven por que
flotan. Despus se enfran y vuelven a la parte inferior, todos los movimientos son regulados, se
observan los rollos o hexgonos, asi de un estado homogneo emerge un patrn espacial de orden
dinmico. Cuando la temperatura es rpidamente incrementada este fenmeno vuelve a ocurrir.
Modelado y simulacin
Haken, Sinergtica una Introduccin
4
Josu Prez Lucero

Los rollos inician un movimiento ondulado a lo largo de sus ejes. Este fenmeno es usado en
meteorologa para determinar el movimiento del aire y la formacin de nubes.
Existen otros fenmenos relacionados con la fsica como la INSTABILIDAD DE TAYLOR aqu un
fluido es puesto entre dos cilindros , este fenmeno es crtico en su velocidad de rotacin.
La reaccin qumica de BELOUSOV-ZHABOTINSKY en este fenmeno unas gotas de ferroina son
mezcladas y agitadas, los resultados son mezclas homogneas, se ponen en un tobo de ensayo
donde ocurren oscilaciones temporales y la solucin cambia de color peridicamente a rojo si
existe un exceso de Ce
3+
y cambia a azul indicando un exceso de Ce
4+



ALGUNOS PROBLEMAS TIPICOS Y SUS DIFICULTADES
Trataremos de analizar qu caractersticas son comunes al sistema de no-equilibrio que
hemos descrito anteriormente, los lseres, la dinmica de fluidos, reacciones qumicas, etc. En
todos estos casos, el total del sistema se compone de muchos subsistemas, tomos, molculas,
clulas, etc. Bajo ciertas condiciones estos subsistemas realizan un movimiento bien
organizado colectivo o de la funcin.


COMO SE PROCEDE
En muchos casos la AUTO-ORGANIZACIN ocurre fuera de estados caticos, Tenemos que
desarrollar mtodos los cuales describen sus estados, obviamente los estados caticos llevan en si
mismos la incertidumbre, si conocemos sus cualidades se deeberia de hacer una lista de ellos
encontrando roles para sus acuerdos, es decir podramos aplicar probabilidades.
Si aplicamos fsica recuperamos relaciones bsicas de termodinmica, de aqu se lleva la idea de
entropa.
Iniciamos con simples ejemplos de procesos causados por eventos aleatorios y desarrollamos
matemticamente el tratamiento adecuado Despus de que hemos tratado con el AZAR. Pasamos
por encima de la NECESIDAD. el tratamiento de MOVIMIENTO completamente determinista.

2. Probabilidad
Objeto de nuestra investigacin: El espacio muestral.

Modelado y simulacin
Haken, Sinergtica una Introduccin
5
Josu Prez Lucero

Objetivo: Ocuparnos de Subsistemas y algunos definiciones. Un simple subsistema:
tomo, molculas, plantas, etc.,

Espacio Muestral conjunto de todos los posibles resultados en un experimento
Evento un simple punto del experimento
Conjunto vaco denotado por
Nmero de elementos del conjunto S denotado por |S|
Contencin de
Conjuntos
Si todos los elementos del conjunto A estn
contenidos en el conjunto B
Igualdad de Conjuntos = Si los elementos del conjunto A son los
mismos que los elementos del conjunto B
Unin de Conjuntos
= {| }
Es el nuevo conjunto formado por
elementos que pueden pertenecer a A o
pueden pertenecer a B
Interseccin de
Conjuntos

= {| }
Es el nuevo conjunto formado por
elementos que pertenecen a A y
pertenecen a B
Conjunto Complemento

= {| } Todos los elementos del espacio muestral


los cuales no estn contenidos en el
conjunto A

A y B son disjuntos si no tienen elementos en comn. Es decir si = Ej.

=
Espacio Muestral Discreto si los elementos del espacio muestral son finitos.

Otras propiedades de conjuntos
Transitividad , entonces
Asociatividad ( ) = ( )
( ) = ( )
Interseccin de
Conjuntos
= {| }
Conjunto Complemento

= {| }

Entre otras como ley de Morgan, distributividad, conmutatividad y dems estudiadas en
teorade conjuntos.
Modelado y simulacin
Haken, Sinergtica una Introduccin
6
Josu Prez Lucero

Variables aleatorias

Podemos atribuir un valor numrico a una funcin al punto de muestreo w. En
trminos matemticos () a esta funcin le llamamos funcin llamaremos variable
aleatoria, porque el punto de muestreo w es escogido de manera aleatoria.

Una vez que el punto muestral es elegido, () es determinado.
Si y son variables aleatorias, entonces tambin la combinacin lineal + , el
producto , / ( 0) tambin son variables aleatorias.


Probabilidad
Sea una moneda no balanceada al tirarla al aire tenemos dos posibles eventos: cara o
cruz. La favorabilidad de que caiga o cara cruz es = .
Es decir () = 1/2, () = 1/2

Ejemplo Ilustrativo 1
Espacio muestral = {1, 2, 3, 4, 5, 6}
Probabilidad () =
1
6
= 1: 6
Sea el evento A = {2, 4, 6}
La Probabilidad del evento A es () = (2) + (4) +(6) =
1
6
+
1
6
+
1
6
=
3
6
=
1
2

Se cumplen los tres axiomas siguientes: (I)
1) Para cada conjunto
() 0
2) Para dos conjuntos disjuntos y ( = )
( ) = () + ()

3) El valor de la funcin es 1
() = 1

Distribuciones
Sea X una variable aleatoria, a y b dos nmeros constantes, entonces nosotros estamos
buscando el subconjunto de puntos muestrales w para los cual ()
{ } = {| () }
Modelado y simulacin
Haken, Sinergtica una Introduccin
7
Josu Prez Lucero

Asumimos que


Del Ejemplo Ilustrativo 1
La probabilidad del intervalo 2 a 5 es P({2, 3, 4, 5})=4/6 = 2/3
Pero la probabilidad del intervalo de X = {1, 3, 5}, en ese caso, X no se deriva
de un intervalo, pero a partir de un cierto bien definido subconjunto, A, por lo que definimos ahora
bastante general
( ) = ({ > | () })
Donde A es un conjunto de nmeros reales.
Considerando que el valor de la variable aleatoria X esta dada por X=x . En este caso reducimos
( = ) = ( {})
Usando los axiomas (I) deducimos que ( )
La distribucin de probabilidad de una variable aleatoria es una funcin que asigna a cada
suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La
distribucin de probabilidad est definida sobre el conjunto de todos los sucesos, cada uno de los
sucesos es el rango de valores de la variable aleatoria.

Variables Aleatorias con densidades

En muchas prcticas las variables aleatorias no son discretas sino continuas.
Ejemplo Ilustrativo:
Una aguja gira alrededor de un eje; cuando la aguja se detiene, necesitamos calcular la posicin
final considerada como una variable aleatoria. Si describimos la posicin por el angulo es una
variable aleatoria. Realizamos el siguiente mapeo () donde () definida de : + y
adems debe cumplir:
1) () 0
2) ()

= 1
Nosotros llamaremos a funcin de densidad y este tramo es continuo si esta integral ()


existe.
Sea X una variable aleatoria definida en con (). La probabilidad se describe como:
( )= ()



Del ejemplo la variable toma los valores de 0 a 2
Modelado y simulacin
Haken, Sinergtica una Introduccin
8
Josu Prez Lucero

Si se excluye, por ejemplo, los efectos gravitacionales de forma que se puede suponer que todas
las direcciones tienen la misma probabilidad. La probabilidad de encontrar la aguja en una cierta
direccin en el intervalo
0
y
0
+ es
1
2
. Entonces la probabilidad para encontrar en el
intervalo
1
y
2
esta dado por

(
1

2
)=
1
2

1
=
1
2
(
2

1
)
Si A consiste en la unin de intervalos entonces () = ()

.
En particular si f es continua encontraremos:

() =

()

Probabilidad Conjunta

Sea el conjunto S consistente de todos los pares (u, v) que las variables aleatorias (X,
Y) adquirir. Para cualquier subconjunto , definimos la probabilidad conjunta
((, )

) = ({|((), ()) })

Esperanza Matemtica E(X), y Momentos
E(x) es la cantidad conocida como valor esperado, media o el primer momento.
Consideramos que una variable aleatoria X se define en un espacio numerable P.
Y se define como
() = ()({})


Donde () es una variable aleatoria, P es la probabilidad de el punto muestral w, y la suma corre
todos los puntos del muestreo del conjunto .
Generalizando esta definicin a variables continuas tenemos:
( ()) = ()()


Cuando nosotros ponemos () =

es llamado el r-momento de X.
La derivacin estndar es , la raz de

2
= {( ())
2
}

Probabilidades condicionales

Modelado y simulacin
Haken, Sinergtica una Introduccin
9
Josu Prez Lucero

Si es finito y los puntos muestrales tienen el mismo peso, entonces la probabilidad
esta dada por:
P(A) =
|A|
||

Esta regla pude ser generalizada del siguiente modo
P(A) =
()

()


La probabilidad condicional esta dada por
P(A|S) =
()

()


O bien
P(A|S) =
()
()

Y se lee la probabilidad de A respecto a S.
Variables Aleatorias dependientes e independientes.

Variable independiente es una variable que no depende de otra, por lo general, es el objeto o
evento en el que se centra la investigacin.
Variable dependiente es una variable que depende de otra o est subordinada a otra variable
Correlacin
(, ) =
() ()()
()()


Sean X, Y las variables independientes, usamos la definicin de varianza, mostramos
que

2
( +) =
2
(X) +
2
(Y)


Generacin de funciones y funciones caractersticas

Considere una variable aleatoria X toma valores enteros no
negativos solamente. Supongamos que la distribucin de probabilidad de X dada por una funcin
que genera (), tal que () = (

).
Modelado y simulacin
Haken, Sinergtica una Introduccin
10
Josu Prez Lucero

La definicin de la funcin generadora se presta a una generalizacin de variables aleatorias ms
generales. As define una de variables no-negativas en funcin de generacin mediante la
sustitucin de z por


Transformada de Laplace

; (

) (

)
Y para una variable aleatoria arbitraria por el remplazo por


Transformada de Fourier

; (

) (

)

Distribucin Binomial
Probabilidad de k sucesos

(, ) = (


Esperanza () =
Varianza
2
=


Distribucin de Poisson
Probabilidad de k sucesos

(, ) =
(1)(2)(+1)
!
(

(1

(1



Esperanza () =

(1) =
Varianza
2
=

Distribucin Normal(Gaussiana)
Funcin de distribucin
= o bien

() =

(, )

Funcin de densidad

F(x)=
1
2

0.5(

)
2
donde

Modelado y simulacin
Haken, Sinergtica una Introduccin
11
Josu Prez Lucero

3. Informacin
En teora de la informacin el objetivo es encontrar una medida para alguna cantidad de
informacin.
Para ver esto, veamos el siguiente ejemplo, considerando como R0 a los diferentes eventos
posibles, los cuales tienen una igual probabilidad de suceder. Teniendo as que cuando arrojamos
una moneda tenemos dos eventos 1 y 0, y R0 =2. En el caso de un dado se tiene seis salidas y R0
=6. Por lo tanto, la salida de arrojar una moneda o un dado es interpretada como un mensaje si
alguna de las salidas de R0 es realizada.
Por lo tanto se podra interpretar el procedimiento entero de la siguiente manera: en una situacin
inicial no se tendra informacin I0=0 con R0 teniendo salidas igualmente probables.
En la situacin final se tendra informacin I10 con R1 = 1. Nosotros ahora queremos introducir una
medida para la cantidad de informacin I la cual aparentemente debe estar conectada con R0. Para
tener una idea de como es la conexin entre R0 y I, se requiere que I sea agregada para eventos
independientes.
Entonces cuando tenemos dos conjuntos de salidas con R01 o R02 as que le numero total de
salidas es
R0 = R01R02
Donde se requiere
I(R01R02)= I(R01)+ I(R02)
Esta relacin puede ser complementada como
I=KlnR0
Donde k es una constante. Donde k es arbitraria y puede ser fijada por alguna definicin. Ahora
nosotros queremos identificar I con n con el sistema binario. Nosotros requerimos I
2 = , la cual es completada con k = 1/Ln2=loge.
Con esta opcin de K, otra forma de leer I = logR.
La informacin I es ahora dada directamente en bits. Esto si R=8 = 2
3
, nosotros encontramos I=3
bits y en general para R = 2

, I = n bits. La definicin de informacin puede ser fcilmente


generalizado para este caso cuando nosotros tenemos inicialmente R0 igualmente probable y
finalmente R1 con igualmente probable casos. En este caso la informacin es I= KlnR0- KlnR1.
La expresin para la informacin puede ser vista de dos maneras diferentes. Por un lado se asume
que pi es dada por sus valores numricos denotando a I con la siguiente frmula I=KlnR0. Sin
embargo otra consideracin trata a I como una funcin de pi lo que significa que si se cambia los
valores de pi los valores de I cambian igualmente.
Para entender mejor esto, se tratara la siguiente aplicacin, considerando los tomos de un gas
movindose libremente en una caja, siendo el inters el conocer la distribucin de los tomos del
gas. Nos enfrentamos con el problema de dividir el contenedor en M celda de igual tamao y
Modelado y simulacin
Haken, Sinergtica una Introduccin
12
Josu Prez Lucero

denotamos el numero de partculas en la celda k como

. El numero total de partculas es N. la


relativa frecuencia de una partcula para ser encontrada en una celda k es dada por

=
;
= 1,2, ,

;
podra ser considerada como una funcin de distribucin de las partculas alrededor de la celda
k.
Debido a que las celda tienen el mismo tamao, el determinar si una partcula est en una celda,
se tiene la siguiente probabilidad.

= 1/
Ahora a partir de un conjunto de contenedores M, cada uno con N tomos de gas. Nosotros
asumimos que en cada contenedor la distribucin de partculas corresponde a un conjunto de
funciones de distribucin.

(1)
,

(2)
,
Teniendo as que pi = 1/M.
3.2 ganancia de informacin
Se considera ahora una distribucin de bolas entre cajas las cuales son marcada 1,2,, ahora nos
preguntamos de cuantas manera podemos distribuir las bolas entre las cajas as que finalmente
tenemos N1, N2, .. bolas en las correspondientes cajas. Teniendo as que el nmero de
configuraciones es

1
=
!

!

Obteniendo el logaritmo de Z1 se obtiene la informacin. Ahora consideremos la misma situacin
con dos tipos de bolas unas de color negro y otras de color blanco. Ahora las bolas negras forman
un subconjunto de las bolas. El numero de las bolas negras es N, y el numero en las cajas k es
Nk. Ahora encontraremos el nmero de configuraciones las cuales encontraremos si distinguimos
entre bolas negras y blancas. En cada caja ahora debemos Nk en Nk y Nk-Nk, teniendo as

2
=
!

)!
(

)!

Ahora considerando el radio entre el numero de realizaciones
=

2

Usando las formulas anteriores se tiene
=
!

!
!

)!
(

)!

Usando la formula de Stirlings
!
(

)!


Modelado y simulacin
Haken, Sinergtica una Introduccin
13
Josu Prez Lucero

Y

!
(

)!


Y por tanto
=

!
1


Usando de nuevo la formula de Stirlings de nuevo se tiene
=


Y usando


Nosotros tenemos
=


Lo cual puede ser escrito de la forma
=

/

Introduciendo ahora las frecuencias relativas se tiene


Dividiendo todo entre N, se tiene la formula final para la ganancia de informacin como
(, ) =


Donde

= 1 y

= 1 la ganancia de informacin tiene la siguiente propiedad (, ) 0.


La igualdad de signos se mantiene si
PP, Y PKPK para todas las k.
3.3 la entropa de la informacin y reglas
En esta seccin se utilizara S para denotar la informacin, se tendr como expresin bsica de la
entropa de informacin a
=


Los ndices i podran ser considerados para describir caractersticas individuales de partculas o
subsistemas. El ndice i puede describir, para alguna instancia, la posicin de una partcula de gas
o podra describir la velocidad de una partcula.
Veamos un ejemplo, considerando un gas ideal en una dimensin, lo que podramos medir, en esta
instancia es el centro de gravedad. En este caso, nosotros podremos tener como regla la siguiente
expresin
Modelado y simulacin
Haken, Sinergtica una Introduccin
14
Josu Prez Lucero


Donde

mide la posicin de la clula i, M es fijado cuantitativamente igual Q/N, donde Q es la


coordenada del centro de gravedad y N el nmero de partcula.

4. Aleatoriedad
Qu tan lejos puede caminar un ebrio?
Mientras en el Captulo 2 tratbamos con una medida de probabilidad fija, ahora se estudiaran los
procesos estocsticos en los cuales la medida de probabilidad cambia con el tiempo. Primero se
trataran con modelos de movimiento Browniano. Posteriormente se mostrarn como ms y ms
restricciones, por ejemplo en el marco de una ecuacin maestra, hacer del proceso estocstico un
proceso cada vez ms determinista.

Un Modelo de Movimiento Browniano
Propsitos del captulo:
1. Ofrecer un ejemplo muy sencillo de proceso estocstico.
2. Mostrar como una probabilidad puede ser derivada explcitamente en este caso.
3. Mostrar que sucede si los efectos de mltiples eventos independientes se apilan.
La distribucin binomial desarrollada en secciones anteriores permite ahora tratar al Movimiento
Browniano de forma agradable.
Movimiento Browniano: cuando una partcula pequea est inmersa en un lquido, se puede
observar mediante un microscopio un movimiento en zigzag de esta partcula. En nuestro modelo
se asume que una partcula se mueve a lo largo de una cadena un-dimensional donde esta quizs
salta desde un punto hacia alguno de sus dos vecinos con igual probabilidad. Entonces la
pregunta es: Cul es la probabilidad de que despus de n pasos la partcula alcance cierta
distancia, x, desde el punto donde esta comenz? Al llamar a un movimiento a la derecha, exitoso,
y un movimiento a la izquierda, fallido, la posicin final, x, de la partcula que es alcanzada
despus, es decir, s exitosos y (n - s) fallidos. Si la distancia para un paso elemental es a, la
distancia, x, alcanzada se lee:
= ( ( )) = (2 )
de la cual se puede expresar el nmero de xitos con
=

2
+

2

Denotando a la transicin de tiempo por paso elemental como , entonces se tiene que para el
tiempo t despus de n pasos lo siguiente:
(4.1)
(4.2)
(4.3)
Modelado y simulacin
Haken, Sinergtica una Introduccin
15
Josu Prez Lucero

=
La probabilidad de encontrar la configuracin con n pruebas fuera de las cuales s son exitosas, se
lee como.

(, ) = (

) (
1
2
)


Dado que = = 1/2. Reemplazando s y n en (4.4) directamente por las cantidades medibles x
(distancia), y t (time) usando (4.2) y (4.3) se obtiene

(, ) (, ) = (

2
+

) (
1
2
)


Aparentemente, esta frmula no es tan til y, de hecho, difcil de evaluar de forma exacta. Sin
embargo, en muchos casos de inters prctico podemos crear nuestras propias mediciones en
tiempos t que contengan muchos pasos elementales de modo que n puede ser considerado como
un nmero largo. Similarmente se puede asumir que la posicin final de x requiere muchos pasos s
de modo que tambin s puede ser considerado un nmero largo.
Para evaluar (4.4) para s y n largas se escribe lo siguiente.
!
! ( )!
(
1
2
)


Aplicando la frmula de Stirling para calcular el factorial. Se debe utilizar la siguiente ecuacin
! =

2
Por lo tanto se obtiene.

(, ) (, ) =
Donde.
=

()
= 1
= exp [ ln( ) ln( ( )) ln( )]
=
1 2
(2( ))
1 2

= exp ( ln2)
Insertando los resultados intermedios despus de un par de clculos obtenemos.
(, ) = (2)
1 2
2
1 2

1 2
exp {

2
2
}
La ocurrencia del factor
1 2
es preocupante debido a que se necesita permitir 0. Este
problema puede ser resuelto, sin embargo, si se tiene en cuenta que esto no tiene sentido al
introducir una variable continua
1
y se busca una probabilidad para encontrar un valor especifico
x. esta probabilidad debe necesariamente tender a cero. Por lo tanto es necesario preguntarse cul
es la probabilidad de encontrar la partcula despus del tiempo t en un intervalo [
1
,
2
], en las
coordenadas originales entre [
1
,
2
]. Por consiguiente de tiene que evaluar:
(4.4)
(4.4a)
(4.5)
(4.7)
(4.8)
(4.6)
Modelado y simulacin
Haken, Sinergtica una Introduccin
16
Josu Prez Lucero


(, )

1
= (
1

2
) = (, )

1

De lo que se obtiene
(, )

1
=

(, )
1
2

1

Pero como se ver ms adelante, es til abreviar de la siguiente manera.
1
2

(, ) = (, )
De este modo (4.8) se escribe como.
(, )

1
= (, )

1

Ahora se observa que si se inserta la distribucin de probabilidad (4.7) a (4.9) el factor
1 2
ocurre
simultneamente con 1 . Por lo tanto
(, ) = (2)
1 2
exp {

2
2
}
Se identifica como densidad de probabilidad (Figura 1).

Figura 1. La funcin de distribucin (4.13) como una funcin del punto de espacio x para 3
tiempos diferentes.
En el lenguaje de los fsicos (, ) nos da la probabilidad de encontrar la partcula despus del
tiempo t en el intervalo + .Todo lo anterior se abrevia como sigue. Suponiendo de nuevo
una variacin lenta y continua de (, ) y de f, la suma en 1 hr. de (4.13) es escrita como:
(, )
2

1

Mientras el rhs de (4.13) es escrito como.
(, )
2

1

El paso a intervalos infinitesimales de (4.13) est dado por la forma.
(, ) = (, )
(4.9)
(4.10)
(4.11)
(4.12)
(4.13)
(4.14)
Modelado y simulacin
Haken, Sinergtica una Introduccin
17
Josu Prez Lucero

Ejemplos explcitos pueden ser encontrados en numerosas disciplinas. Esto muestra que cuando
muchos eventos independientes apilan la probabilidad de la cantidad resultante (distancia x) est
dada por (4.13), es decir, la distribucin normal. Un buen ejemplo para (4.4) o (4.13) es
proporcionado por las mquinas de juegos de azar, ver Figura 2. Otro resultando importante: En el
lmite de variables variando continuamente, la probabilidad original toma una forma muy simple.

Figura 2. Camino aleatorio de una bola en una mquina de juegos que produce una
distribucion binomial, donde n=4. Es mostrado un nmero promedio de bolas en las cajas
finales.
Movimiento Browniano Restringido: Nuevamente se trata un proceso de salto, pero insertando
entre cada dos puntos un diafragma de modo que la partcula solamente puede saltar en una
direccin, por ejemplo, a la derecha. Consecuentemente:
= 1 y = 0
En este caso, el nmero, s, de coincidencias exitosas con el nmero, n, de saltos
=
Entonces la medida de probabilidad es.
(, ) =
,

Aqu otra vez se introduce una coordenada x para y tiempo por = , y sea 0, 0, tal
que x y t llegan a ser variables continuas. Usando (4.14) se obtiene una densidad de probabilidad.
(, ) = ( ), =


Debido a Kronecker llega a ser la funcin- de Dirac en el continuo. Ntese que
0
y
0

se debe tomar de tal manera que = / permanezca finito.
El Modelo Aleatorio de Caminado y su Ecuacin Maestra
El objetivo es derivar una ecuacin para la medida de probabilidad o, ms precisamente, se desea
establecer una ecuacin para la probabilidad que despus de + 1 empujes las partculas estn
en la posicin , = 0, 1, 2, 3. Esta probabilidad se denota como (; + 1). Ya que la
Modelado y simulacin
Haken, Sinergtica una Introduccin
18
Josu Prez Lucero

partcula puede saltar en un acto elemental slo a una distancia de 1, este debe haber sido
despus de n empujes en 1 o +1 que ahora alcanza exactamente la posicin m. Se ha
llegado con probabilidades de (1; ) o (+ 1; ). Entonces (; +1) consiste de dos
partes derivadas de dos posibilidades para el salto de la partcula. La partcula se mueve de 1
a con la probabilidad de transicin.
(, 1) =
1
2
(= )
La probabilidad, (; + 1), de encontrar la partcula en despus de + 1 empujes cuando
esta ha ocurrido en el tiempo n, para 1 esta dado por el producto de
(, 1) ( 1; )
Una expresin completamente anloga puede ser derivada cuando la partcula viene desde + 1.
Dado que la partcula debe venir tambin desde 1 o +1 y estos son eventos
independientes, (; + 1) puede ser escrito de la forma:
(; + 1) = (, 1)( 1; ) + (, + 1)( + 1; )
Donde
(, + 1) = (, 1) =
1
2

+ = (, + 1) + (, 1) = 1
El presente ejemplo permite explicar algunos conceptos de forma simple. Considerando un ejemplo
de probabilidad (, + 1;

, ) para encontrar la partcula en el paso en el punto y en el


paso +1 en el punto . Esta probabilidad consiste de las dos partes de las que ya se ha
discutido antes.
La partcula debe estar en el paso en el punto lo cual es descrito por la probabilidad (

, ).
Entonces esta debe pasar desde hasta con probabilidad de transicin (, ). Entonces la
probabilidad conjunta puede ser escrita generalmente de la forma:
(, + 1;

, ) = (, )(

; )
Resulta que (,

) = 0 almenos

= 1. Regresando a (4.17) la cual queremos transformar


an ms. Se pone.
(, 1) = (, 1)
Y debe referirse a (, 1) como probabilidad de transicin por segundo (o por unidad de
tiempo). Ahora se resta (; ) de ambos lados de (4.17) y dividir ambos por .
(; + 1) (; )


= (, 1)( 1; ) + (, + 1)( + 1; )
((+ 1, ) +( 1, ))(; )
(4.16)
(4.17)
(4.18)
(4.19)
Modelado y simulacin
Haken, Sinergtica una Introduccin
19
Josu Prez Lucero

Para este ejemplo las son ambas iguales a 1/(2). Ahora se relacionada variable discreta n con
la variable de tiempo t escribiendo = y en consecuencia se introduce una medida de
probabilidad

poniendo.

(, ) = (; ) (; /)
Ahora se aproxima la diferencia sobre el lhs de (4.18) mediante la derivada respecto del tiempo.
(; + 1) (; )


Dado que la ecuacin original (4.17) toma la forma.

(, )


= (, 1)

( 1; ) + (, + 1)

( + 1; )
((+ 1, ) + ( 1, ))(; )
Esta ecuacin es conocida en la literatura como Ecuacin Maestra.

Figura 3. Como visualizar balance detallado
Ahora se debe considerar el estado estacionario en el cual la probabilidad P es independiente del
tiempo. Cmo puede ser realizada a pesar del proceso de salto realizado sobre todo el tiempo?
Considrese la lnea entre y + 1. Entonces P no cambia, si el mismo nmero (por unidad de
tiempo) de transiciones ocurren en la derecha y en la izquierda. Este requerimiento es llamado
Principio de Balance Detallado (Figura 3) y puede ser escrito de forma matemtica como:
(,

)(

; ) = (

, )(; )
Como se hizo en la seccin 4.1 es ventajoso realizar una serie de sustituciones. Por lo tanto, se
debe remplazar 1 por para tratar el siguiente caso especial.
(, + 1) = (, 1) =
1
2

De este modo lo que est a mano derecha de (4.19) se lee como.
1
2
(

( , ) +

( , ) 2

(, ))
Expandiendo con la ayuda de la Serie de Taylor de segundo orden en , se llega a una ecuacin
fundamental.
(, )

=
1
2

2
(, )

2
, =


(4.20)
(4.21)
(4.22)
(4.23)
(4.24)
(4.25)
(4.26)
Modelado y simulacin
Haken, Sinergtica una Introduccin
20
Josu Prez Lucero

A la cual debemos referirnos como ecuacin de difusin. Como se ver ms adelante, esta
ecuacin es un ejemplo muy simple la tan mencionada Ecuacin de Fokker-Planck.
La solucin de (4.26) es mucho ms fcil de encontrar que la de la Ecuacin Maestra. La
expansin de depende de una propiedad de escalamiento. Se puede por tanto repetir los pasos
anteriores de una manera ms formal, introduciendo la escala de longitud a como parmetros de
expansin. Tal que / = se pone.

(, ) = (, )
Y concurrentemente tal que +1 implica +:

( 1, ) = ( , )
Insertando (4.27a) y (4.27b) en (4.19) o (4.25), despus de expandir f a su segundo orden en a, de
nuevo (4.26). El procedimiento anterior es vlido solamente bajo la condicin de a fija, y la funcin f
varia muy lentamente sobre la distancia = . Entonces dicho procedimiento implica un
requerimiento de auto-consistencia.
Probabilidad Conjunta y Rutas. Procesos de Markov. La Ecuacin Chapman-
Kolmogorov. Rutas de Integrales.
Para explicar las ideas principales de esta seccin, se debe considerar el ejemplo de las dos
secciones anteriores: Una partcula saltando aleatoriamente a lo largo de una cadena. Cuando se
siguen las diferentes posiciones que ocupa la partcula en un experimento especfico, quizs se
pueda dibujar esta grfica Figura 4. Para los tiempos
1
,
2
, ,

la partcula se encuentra en
posiciones especficas
1
,
2
, ,

. Si se repite el experimento, se debe encontrar alguna otra


construccin. Ahora se preguntar por la probabilidad de encontrar la partcula en los tiempos

1
,
2
, ,

para los puntos correspondientes


1
,
2
, ,

. Esta probabilidad se denota por:

;
1
,
1
; . . . ;
1
,
1
)

Figura 4. Dos partes de una partcula Browniana con t1=0, m1=4, n=7
(4.27a)
(4.27b)
(4.28)
Modelado y simulacin
Haken, Sinergtica una Introduccin
21
Josu Prez Lucero

Aparentemente

es una probabilidad conjunta. Una vez que se conoce la probabilidad conjunta


con respecto a diferentes tiempos, se puede encontrar fcilmente otra distribucin de
probabilidad que contenga un menor nmero de argumentos

.
Entonces por ejemplo si se est interesado solamente en la probabilidad conjunta para los tiempos

1
,
2
, ,
1
se tienen que sumar (4.28) sobre

1
(
1
,
1
; . . . ;
1
,
1
) =


Algunos otros ejemplos son los siguientes:

Probabilidad de encontrar la partcula en el tiempo

en la posicin

y para el tiempo
1

en la posicin
1
.

2
(

;
1
,
1
) =

;
1
,
1
; . . . ;
1
,
1
)

3

1

Probabilidad de encontrar la partcula en el tiempo

en la posicin

si se sabe que la
partcula fue encontrada en los tiempos
1
,
2
, ,
1
en las posiciones correspondientes

1
,
2
, ,
1
. (Probabilidad condicional)
(

|
1
,
1
;
2
,
2
; . . . ;
1
,
1
) =

;
1
,
1
; . . . ;
1
,
1
)

1
(
1
,
1
; . . . ;
1
,
1
)

Aunque esto puede aplicarse para cualquier proceso, considerando los ejemplos de la seccin 4.1
y 4.2 puede observarse rpidamente que la probabilidad para la posicin final

depende
nicamente de la distribucin de probabilidad en el tiempo
1
y no de cualquier otro tiempo
temprano. En otras palabras, la partcula pierde su memoria. En este caso la probabilidad
condicional (4.31) depende solamente de los argumentos en los tiempos

y
1
de modo que se
puede escribir:
(

|
1
,
1
;
2
,
2
; . . . ;
1
,
1
) =

,
1
(

,
1
)
Si la probabilidad condicional obedece la ecuacin (4.32) el proceso correspondiente es llamado un
Proceso de Markov.
As la probabilidad conjunta de un Proceso de Markov puede ser obtenida como un mero producto
de las probabilidades de transicin.

;
1
,
1
; . . . ;
1
,
1
) =

,
1
(

,
1
)

1
,
2
(
1
,
2
)

2
,
1
(
2
,
1
)
1
(
1
,
1
)
Entonces la probabilidad de encontrar una partcula en la posicin

para una secuencia de


puede ser obtenida simplemente siguiendo la ruta de la partcula y utilizando las probabilidades de
transicin individuales desde un punto al siguiente.
Para derivar la Ecuacin de Chapman-Kolmogorov deben ser considerados tres tiempos arbitrarios
sujetos a la condicin
1
<
2
<
3
y esta descrita por:
(4.29)
(4.30)
(4.31)
(4.32)
(4.33)
(4.34)
Modelado y simulacin
Haken, Sinergtica una Introduccin
22
Josu Prez Lucero

3
,
1
(
3
,
1
) =

3
,
2
(
3
,
2
)

2
,
1
(
2
,
1
)

2

La relacin (4.34) puede ser generalizada de varias formas:


Reemplazando

por el vector M-dimensional

. Por lo tanto se tiene que

llega a ser
una variable continua

de modo que P llega a ser una funcin de distribucin (densidad).

3
,
1
(
3
,
1
) =

3
,
2
(
3
,
2
)

2
,
1
(
2
,
1
)

2

Para variables continuas. Multiplicando (
1
,
1
) y sumando hasta
1

(, ) =
,
(, )(, )


Considerando intervalos de tiempo infinitesimales, se debe tomar =

+ con lo que obtenemos


la tan nombrada Ecuacin Maestra:

(, ) = (, )(

, )

(, ) (, )


Ntese que esta ecuacin se ha generalizado remplazando por el vector .
Cmo Utilizar Probabilidades Conjuntas. Momentos. Funcin Caracterstica.
Procesos Gaussianos
Una vez familiarizados con las probabilidades conjuntas para procesos dependientes del tiempo.

;
1
,
1
; . . . ;
1
,
1
)
Es posible definir Momentos generalizando los conceptos de la Seccin 2.7 usando (4.36).

1
=

1
(

;
1
,
1
; . . . ;
1
,
1
)

1
,,


Un caso particularmente importante es proporcionado por.

1
=

1
(

;
1
,
1
)

1

Como los ndices = 1 se refieren a los tiempos, es posible escribir (4.36) de la forma.

1
(
1
)
Si las

llegan a ser una secuencia continua de tiempo, entonces se pueden perder los sufijos j y
usar t o t.

()

()
De forma completamente anloga se puede repetir (4.37) de modo que se obtiene la siguiente
relacin:
(4.35)
(4.36)
(4.35)
(4.36)
(4.37)
(4.38)
(4.39)
(4.40)
Modelado y simulacin
Haken, Sinergtica una Introduccin
23
Josu Prez Lucero

()

) =

()

)((), ; (

), )
(),(

)

Otra forma de escribir esta ecuacin es usando

en lugar de (). Como ya se mencion se


puede permitir que llegue a ser una variable continua , en dicho caso P se convierte en una
densidad de probabilidad.

, |

, )(

, )


En analoga con la Seccin 2.10 se introduce la Funcin Caracterstica para el caso de una
secuencia continua de tiempo.
exp {

0
} = ({

})
Obteniendo derivaciones funcionales se pueden recuperar fcilmente los Momentos para el caso
de una sola variable.
1

({u

})|
=0
=


Y en el caso de variables para diferentes tiempos se tiene.
()

1
++

1
++

|
=0
=

1

Adems de definen los Cumulantes como:
(u

, t

; ; u
1
, t
1
) = exp {

1
, ,

1
, ,

1
,,

=1

=1
}
Se llama a un Proceso Gaussiano si todos los Cumulantes excepto los primeros dos desaparecen,
es decir, si:

3
=
4
= = 0
En el caso del proceso Gaussiano, la funcin caracterstica entonces puede ser escrita de la forma
(u

, t

; ; u
1
, t
1
) = exp {
1
(

=1

1
2

2
(

,=1
}
Como ya se sabe, todos los momentos pueden ser expresados por los primeros dos Cumulantes o
todos los momentos ms altos pueden ser expresados por los primeros dos Momentos.
La gran utilidad de la probabilidad conjunta de funciones correlacionadas, reside en el hecho de
que estas cantidades permiten estudiar las correlaciones dependientes del tiempo.
Considrese por ejemplo la funcin de correlacin.

, >
Y se asume que los valores medios para los dos tiempos t y t son

= 0,

= 0
Y desaparecen. Si no existe correlacin entre las en tiempos diferentes se puede dividir la
probabilidad conjunta en un producto de probabilidades de dos tiempos. Por otro lado si hay
(4.41)
(4.42)
(4.43)
(4.44)
(4.45)
(4.46)
(4.47)
(4.48)
(4.49)
Modelado y simulacin
Haken, Sinergtica una Introduccin
24
Josu Prez Lucero

efectos de correlacin entonces la probabilidad conjunta no puede ser dividida en un producto y en
general no desaparece. Si los valores medios de no desaparecen, se pueden remplazar por:
(

)(

)
Con el fin de verificar las correlaciones.

La Ecuacin Maestra
Nosotros podemos determinar la ecuacin maestra la cual es uno de los ms importantes medios
para determinar la distribucin de probabilidad de un proceso. La probabilidad de encontrar en el
sistema en el punto m en el tiempo t, incrementan cuando de otros puntos m al punto en
consideracin y decrementa cuando las transiciones dejan este punto, tenemos la siguiente
relacin general.
(m, t) = tasa de entrada tasa de salida.
La tasa de entrada consiste de todas las transiciones de los puntos iniciales m a m, esto est
compuesto por la suma de los puntos iniciales, donde cada termino tiene provisto de una
probabilidad al encontrar la partcula en el punto m, tenemos.
Tasa de entrada = w(m, m) P(m

, t)


De forma similar tenemos nuestra relacin de transiciones de salida
Tasa de salida = P(m

, t) w(m, m)


Ahora obtenemos
(m, t) = w(m, m) P(m

, t)

P(m

, t) w(m, m)


Tambin llamada La ecuacin maestra.
Ejemplo de una red de la ecuacin
maestra.








Modelado y simulacin
Haken, Sinergtica una Introduccin
25
Josu Prez Lucero

Solucin exacta estacionaria de la ecuacin maestra para los sistemas en
balance detallado
El principio del balance detallado requiere que sean muchas las transiciones de por segundo del
estado m al estado n como n a m por el proceso inverso, o en su forma matemtica:
(, )P(m) = (, )P(n).
En fsica, el principio de balance detallado puede ser derivado por un sistema en equilibrio trmico,
usando micro-reversibilidad, podemos escribir la ecuacin anterior como:
P(m)
()

(, )
(, )

Escribiendo m = n j+1, n =n j, pasamos de n0 a nN para un cambio de estados intermedios. Ya que
solo existe una solucin, entonces encontramos
P(

)
(
0
)
=
(
+1
,

)
(

,
+1
)
1
=0
() = exp ()
Donde es el factor de normalizacin.
Un ejemplo es el considerar un cambio linear con transiciones a los vecinos ms prximos,
podemos abreviar las transiciones de probabilidad por
(, 1) =
+
() (, + 1) =

()

Encontramos
() = (0)
(

+1, m

)
(

, m+ 1

)
1

=0
= (0)

+
(

+ 1)

()
1

=0


En muchos casos prcticos
+
,

, son funciones de suavizado de m, donde m es muy grande de


comparar con las regiones de inters, graficando P(m) obtenemos una curva suavizada
mostrando sus puntos extremos. Nosotros establecemos las condiciones para estos
puntos.
Un punto extremo (valor estacionario) ocurre si
(
0
) = (
0
+ 1)
(
0
) es mximo si
() < (
0
), para m >
0
y
0
> m

Equivalentemente tenemos (
0
) es mximo si
y solo si

+
(

+ 1)

)
> 1 m <
0
;

+
(

+ 1)

)
< 1 m >
0


Modelado y simulacin
Haken, Sinergtica una Introduccin
26
Josu Prez Lucero

La Ecuacin maestra con balance detallado. Simetrizacin, Eigenvalores y
Eigenestados
Escribimos a la ecuacin maestra en la forma

() = (m), donde
,
= (, )
,
(, )


La ecuacin maestra representa un conjunto de ecuaciones diferenciales lineales de primer orden,
las transformamos en ecuaciones algebraicas ordinarias.
() =

, donde

es el tiempo independiente, ahora tenemos



,

()
=

()
, el ndice adicional es para las ecuaciones algebraicas dado por un
conjunto de Eigenvalores y los Eigenestados

, los cuales deben ser distinguidos por el ndice


.
Como la matriz
,
no es simtrica a los eigenvectores, tenemos que llevarla a su forma Bi-
Ortonormal
(
()
, (
()
)

()

()
=

,

Por lo que podemos escribir
,
como:

,
=

()

()

, con esto podemos simetrizar nuestra matriz, la cual definimos como:



,

= (, )

1
2()

1
2()
para m n, esto es para asumir la condicin de balance.

= (, )

1
2()

1
2()
, con estas condiciones encontramos otra relacin:

= (, )
()
1
2
()
()
1
2
()


Una vez obtenida nuestra matriz simetrizada
,

y teniendo los Eigenvalores podemos


determinar por las siguientes variaciones principales como se muestra por el teorema del lgebra
linear, la siguiente expresin debe ser un extremo.
= {
(

} = {
()

}
Los Eigenvalores son no negativos, podemos tener el principio de la variacin puede ser dado de
la siguiente forma
= {
1
2
(

)
2
(,)()
,
(

)
2
()

} 0!, es evidente que

es una constante, y que obtenemos el


eigenvalor = 0.


Modelado y simulacin
Haken, Sinergtica una Introduccin
27
Josu Prez Lucero

Solucin de la ecuacin maestra con el mtodo de Kirchhoff

Consideremos un sistema con 3 estados 1, 2, 3, los cuales tienen las siguientes tasas de transicin
(1,2), (2,3), (3,1), las cuales son no nulas.
Tenemos que P(1) y P(2) 0, pero debido a w(2,1) = 0, la
ecuacin para el balance no puede ser cumplida, as que se
necesitan otros mtodos para la solucin de la ecuacin
maestra.
Utilizaremos el mtodo desarrollado por Kirchhoff,
originalmente para redes elctricas, para encontrar la solucin
estacionaria P(n) de la ecuacin maestra.
(, )() ()

=1
(, ) = 0

=1

Con la condicin de normalizacin () = 1

=1

Podemos definir un grafo , el cual contiene todos los vrtices y la aristas talque w(m,n) 0, para
la solucin debemos considerar una parte del grafo, la cual obtenemos omitiendo algunas aristas.
Este subgrafo llamado rbol Maximal T(), es definido como:
1. () subgrafo talque:
a. Todas las aristas de () estn en .
b. ()) contiene todos los vrtices de .
2. () esta conectado.
3. () no contiene circuitos (secuencias cclicas de aristas)
EJEMPLOS
Grafos con 3 y 4 vrtices.


Sub grafos (), rbol
Maximal de la figura a.


Sub grafos (), rbol Maximal de la figura b.

Ya visto esto, ahora podemos dar una forma en la cual
construiremos la solucin estacionaria P(n), al final
diremos que cada rbol Maximal es un valor numrico llamado : (

()), este es el valor que se


obtiene de multiplicar todas las tasas de transiciones w(n,m), cuyas aristas estn en

() en la
correspondiente direccin. Por ejemplos obtenemos as los arboles maximales directos.
Modelado y simulacin
Haken, Sinergtica una Introduccin
28
Josu Prez Lucero

Los rboles directos maximales
1
y n = 1.

1
(1)
: (1,2)(2, 3) =
1
(1)

1
(2)
: (1,3)(3, 2) =
1
(2)

1
(3)
: (1,2)(1, 3) =
1
(3)

Lo mejor es leer todos los argumentos de derecha a
izquierda, en este ejemplo tenemos (3,2) = (1, 3) = 0. Definimos a

como la suma de todos


los arboles maximales directos con el mismo ndice n.

= (

())
11

()
.
En nuestro ejemplo tendramos como instancia,

1
= (1,2)(2, 3) + (1,3)(3, 2) + (1,2)(1, 3) = (1,2)(2, 3); (3,2), (1, 3) = 0
La frmula de Kirchhoff para la distribucin de probabilidad

es dada por

=1

En nuestro ejemplo tenemos:

1
=
(1,2)(2, 3)
(1,2)(2, 3) + (1,3)(3, 2) + (1,2)(1, 3)

SI tenemos una gran cantidad de vrtices este proceso se vuelve tedioso adems que se tiene que
profundizar an mas para la construccin de la solucin, adems que eso nos permite
descomponer el problema en muchas partes, por ejemplos si la ecuacin maestra tiene algunos
crculos cerrados, solamente es conectado por una simple lnea.


Teoremas sobre la solucin de la ecuacin maestra.
Veremos algunos teoremas los cuales son importantes en la aplicacin de la ecuacin maestra.
Para esto asumiremos que ws son independientes del tiempo.
1. Existe por lo menos una solucin estacionaria P(m), (m) = 0.
2. Esta solucin estacionaria es nica, dada el grafo la ecuacin maestra esta conectada.
3. Si un tiempo inicial, t=0,
0 (, 0) 1, para todo m y
(, 0)

= 1, esto es para todo tiempo t > 0


0 (, ) 1 y (, )

= 1
Con esto la propiedad de normalizacin y la positividad de la probabilidad son garantizadas todo el
tiempo.
4. Insertando (, ) =

exp () en el rendimiento de la ecuacin maestra un conjunto de


ecuaciones lineales algebraicas por

con Eigenvalores .
Modelado y simulacin
Haken, Sinergtica una Introduccin
29
Josu Prez Lucero

5. Si la solucin estacionaria es nica, entonces el tiempo-dependiente de la solucin (, )
para cualquier distribucin inicial
0
(), (esto es (, 0) =
0
() ) tiende de a una
solucin estacionaria.

El sentido del proceso aleatorio. Estado estacionario, fluctuaciones, recurrencia
en el tiempo
Consideremos que pasa cuando traemos dos cajas llenas de gas. Entonces los tomos de gas de
una caja se difunden en la segunda caja y viceversa. Las transiciones podemos decir que son
aleatorias ya que son muchos los impulsos que sufren los tomos del gas. Por lo tanto no es
sorprende que existan procesos aleatorios en diferentes disciplinas y por lo cual es importante
entender este fenmeno.
Para tener en claro, utilizaremos el modelo de urna de Ehrenfest .
Consideremos que tenemos dos cajas o urnas, A,B, llenas con N bolas, estas tienen etiquetas de
1,2,3, , , empecemos con una distribucin inicial, con
1
bolas en la caja A y
2
bolas en la caja
B, asumimos que tenemos un mecanismo que selecciona uno de los nmeros 1,2,3, , ; con la
misma probabilidad
1

, y repite este proceso de seleccin en intervalos de tiempo regulares . El


nmero seleccionado cambia de caja, se tiene el inters de cambiar
1
y
2
en el curso del
tiempo, si
2
es dado por
1
. Denotamos la probabilidad de encontrar
1
despues de s
pasos en el tiempo t. = para (
1
, ).
La distribucin de probabilidad es cambiada en dos formas, si una bola se agrega a la caja A o se
quita de la caja A. As que la probabilidad total (
1
, ) es la suma de las probabilidades de esos
dos eventos. Tenemos la siguiente relacin:
(
1
, ) = (
1
,
1
1)(
1
1, 1) + (
1
,
1
+ 1)(
1
+1, 1)
Como la probabilidad de escoger un nmero es
1

y que estn en la caja B es


2
+ 1 =
1
+
1 , la tasa de transicin (
1
,
1
1) es dado por
(
1
,
1
1) =

2
+ 1

=

1
+ 1



Correspondiente a la tasa de transicin para escoger una bola en la caja A es dada por
(
1
,
1
+ 1) =

1
+ 1


Ahora tenemos
(
1
, ) =

1
+ 1

(
1
1, 1) +

1
+ 1

(
1
+ 1, 1)
Si cualquier distribucin de las bolas sobre las cajas, podramos preguntar cual es la distribucin
final, ay que solo hay una nica solucin estacionaria, esta solucin es dada por
Modelado y simulacin
Haken, Sinergtica una Introduccin
30
Josu Prez Lucero

lim

(
1
, ) (
1
) =
!

1
! (
1
)!

!

1
!
2
!

Donde la constante de normalizacin es dada por la condicin (
1
, )

1
= 1 y es fcil
determinar = 2

.
Debemos tener en claro cuando tenemos un sistema simple y cuando un ensamble de sistemas.
Cuando es un sistema simple adquiere
1
los siguientes valores
1
(1)
( = 1),
1
(2)
( =
2), ,
1
()
,
Un sistema ensamblado es el correspondiente de sistemas individuales que van a un punto de
muestra, hay una pregunta, S un sistema est bajo procesos aleatorios por un gran tiempo, el
promedio temporal coincide con el promedio del ensamble? El promedio del ensamble podemos
decir que esta definido como el promedio de los valores de cualquier funcin de las variables
aleatorias con respecto a la probabilidad conjunta.
Si no tenemos

2
bolas en la caja A y

2
en la caja B, tendremos una fluctuacin ya que en una caja
tendremos mas que en la otra, este caso es cuando es impar el nmero de las bolas y no se puede
tener mitad de una bola.
Consideremos que N es un nmero muy grande, como N es muy grande podemos decir
rpidamente que
1
=

2
o que tenemos una funcin de distribucin como tenemos
!

1
!
2
!
tenemos la entropa dada por =

1
!
2
!
o =

(
1

1
+
2

2
) donde


Podemos afirmar lo siguiente: si N es muy grande
1
no est arreglado pero podra ser fluctuante.
El estado ms probable es
1
=

2
. Para resolver contradicciones siempre tenemos que buscar el
estado de equilibrio, aunque muchas de las fluctuaciones dependen de como se prepar el sistema
con los estados iniciales y los procesos que se toman, aunque la fluctuacin juega un rol
importante dentro de los sistemas.

Ecuacin Maestra y limitaciones de la irreversibilidad termodinmica
Sea un sistema compuesto de subsistemas, puede ser descrito por una ecuacin maestra,
deseamos utilizar la irreversibilidad de la termodinmica. El punto principal puede ser demostrado
si solamente tenemos dos subsistemas. Estos subsistemas no necesitan necesariamente estar
separados en el espacio. Denotaremos como subsistema, y a como el otro subsistema, la
ecuacin maestra es

(,

, ), (, ) se lee como


:

Donde encontramos que la entropa S es construida por la distribucin de probabilidad

, y S es
dada por

debemos asumir que estas entropas son aditivas, y que esa aditividad

se puede
factorizar como

, tenemos la suposicin

()
+

(2)

Modelado y simulacin
Haken, Sinergtica una Introduccin
31
Josu Prez Lucero

Esto implica que no hay una interaccin entre los dos sistemas, nuestro ejemplo muestra que la
irreversibilidad termodinmica es vlida si la correlacin entre los dos subsistemas no es esencial y
puede ser tomada de una manera ms global con enfoque de campo auto-consistente.

Potrebbero piacerti anche