Sei sulla pagina 1di 43

Entropa (desambiguacin)

En termodinmica, la entropa (simbolizada como S) es una magnitud fsica que,


mediante clculo, permite determinar la parte de la energa que no puede
utilizarse para producir trabajo. Es una funcin de estado de carcter extensivo y
su valor, en un sistema aislado, crece en el transcurso de un proceso que se d
de forma natural. La entropa describe lo irreversible de los
sistemas termodinmicos. La palabra entropa procede del griego () y
significa evolucin o transformacin. Fue Rudolf Clausius quien le dio nombre y la
desarroll durante la dcada de 1850; y Ludwig Boltzmann, quien encontr en
1877 la manera de expresar matemticamente este concepto, desde el punto de
vista de la probabilidad.

I.

EVIDENCIAS

Cuando se plantea la pregunta: Por qu ocurren los sucesos en la Naturaleza


de una manera determinada y no de otra manera?, se busca una respuesta que
indique cul es el sentido de los sucesos. Por ejemplo, si se ponen en contacto
dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo
caliente se enfriar, y el trozo fro se calentar, finalizando en equilibrio trmico. El
proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo fro
es muy improbable que se presente, a pesar de conservar la energa. El universo
tiende a distribuir la energa uniformemente; es decir, a maximizar la entropa.
La funcin termodinmica entropa es central para la segunda Ley de la
Termodinmica. La entropa puede interpretarse como una medida de la
distribucin aleatoria de un sistema.
Se dice que un sistema altamente distribuido al azar tiene alta entropa. Un
sistema en una condicin improbable tendr una tendencia natural a
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 1

reorganizarse a una condicin ms probable (similar a una distribucin al azar),


reorganizacin que dar como resultado un aumento de la entropa. La entropa
alcanzar un mximo cuando el sistema se acerque al equilibrio, y entonces se
alcanzar la configuracin de mayor probabilidad.
Una magnitud es una funcin de estado si, y slo si, su cambio de valor entre dos
estados es independiente del proceso seguido para llegar de un estado a otro.
Esa caracterizacin de funcin de estado es fundamental a la hora de definir la
variacin de entropa.
La variacin de entropa nos muestra la variacin del orden molecular ocurrido en
una reaccin qumica. Si el incremento de entropa es positivo, los productos
presentan un mayor desorden molecular (mayor entropa) que los reactivos. En
cambio, cuando el incremento es negativo, los productos son ms ordenados. Hay
una relacin entre la entropa y la espontaneidad de una reaccin qumica, que
viene dada por la energa de Gibbs.

II.

ECUACIONES

Esta idea de desorden termodinmico fue plasmada mediante una funcin ideada
por Rudolf Clausius a partir de un proceso cclico reversible. En todo proceso
reversible la integral curvilnea de slo depende de los estados inicial y final, con
independencia del camino seguido (Q es la cantidad de calor absorbida en el
proceso en cuestin y T es la temperatura absoluta). Por tanto, ha de existir
una funcin del estado del sistema, S=f(P,V,T), denominada entropa, cuya
variacin en un proceso reversible entre los estados 1 y 2 es:
.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 2

Tngase en cuenta que, como el calor no es una funcin de estado, se usa Q, en


lugar de dQ.

La entropa fsica, en su forma clsica, est definida por la ecuacin


siguiente:

o, ms simplemente, cuando no se produce variacin


de temperatura (proceso isotrmico):
Donde S es la entropa,

la cantidad de calor intercambiado entre el sistema

y el entorno y T la temperatura absoluta en kelvin.


Cuando un sistema termodinmico pasa, en un proceso reversible e isotrmico,
del estado 1 al estado 2, el cambio en su entropa es igual a la cantidad
de calor intercambiado entre el sistema y el medio dividido por
su temperatura absoluta.
Unidades: S=[cal/K]
Los nmeros 1 y 2 se refieren a los estados iniciales y finales de un sistema
termodinmico.
A) Significado
El significado de esta ecuacin es el siguiente:

De acuerdo con la ecuacin, si el calor se transfiere al sistema, tambin lo har la


entropa, en la misma direccin. Cuando la temperatura es ms alta, el flujo de
calor que entra produce un aumento de entropa menor. Y viceversa.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 3

Las unidades de la entropa, en el Sistema Internacional, son el J/K (o Clausius),


definido como la variacin de entropa que experimenta un sistema cuando
absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin.
Cuando el sistema evoluciona irreversiblemente, la ecuacin de Clausius se
convierte en una inecuacin:

Siendo el sumatorio de las i fuentes de calor de las que recibe o transfiere calor el
sistema y la temperatura de las fuentes. No obstante, sumando un trmino
positivo al segundo miembro, podemos transformar de nuevo la expresin en una
ecuacin:

Al trmino

, siempre positivo, se le denomina produccin de entropa, y es

nulo cuando el proceso es reversible salvo irreversibilidades fruto de


transferencias de calor con fuentes externas al sistema. En el caso de darse un
proceso reversible y adiabtico, segn la ecuacin, dS=0, es decir, el valor de la
entropa es constante y adems constituye un proceso iso-entrpico.

III.

CERO ABSOLUTO

Solo se pueden calcular variaciones de entropa. Para calcular la entropa de un


sistema, es necesario fijar la entropa del mismo en un estado determinado.
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 4

La tercera ley de la termodinmica fija un estado estndar: para sistemas


qumicamente puros, sin defectos estructurales en la red cristalina, de densidad
finita, la entropa es nula en el cero absoluto (0 K) o (-273.16C)
Esta magnitud permite definir la segunda ley de la termodinmica, de la cual se
deduce que un proceso tiende a darse de forma espontnea en un cierto sentido
solamente. Por ejemplo: un vaso de agua no empieza a hervir por un extremo y a
congelarse por el otro de forma espontnea, an cuando siga cumplindose la
condicin de conservacin de la energa del sistema (la primera ley de la
termodinmica).

IV.

ENTROPA Y REVERSIVILIDAD

La entropa global del sistema es la entropa del sistema considerado ms la


entropa de los alrededores. Tambin se puede decir que la variacin de entropa
del universo, para un proceso dado, es igual a su variacin en el sistema ms la
de los alrededores:

Si se trata de un proceso reversible, S (universo) es cero, pues el calor que el


sistema absorbe o desprende es igual al trabajo realizado.

Pero esto es una situacin ideal, ya que para que esto ocurra los procesos han de
ser extraordinariamente lentos, y esta circunstancia no se da en la naturaleza. Por
ejemplo, en la expansin isotrmica (proceso isotrmico) de un gas, considerando
el proceso como reversible, todo el calor absorbido del medio se transforma en
trabajo y Q= -W. Pero en la prctica real el trabajo es menor, ya que hay prdidas
por rozamientos, por lo tanto, los procesos son irreversibles.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 5

Para llevar al sistema nuevamente a su estado original, hay que aplicarle un


trabajo mayor que el producido por el gas, lo que da como resultado una
transferencia de calor hacia el entorno, con un aumento de la entropa global.
Como los procesos reales son siempre irreversibles, siempre aumentar la
entropa. As como la energa no puede crearse ni destruirse, la entropa puede
crearse pero no destruirse. Es posible afirmar entonces que, como el Universo es
un sistema aislado, su entropa crece constantemente con el tiempo. Esto marca
un sentido a la evolucin del mundo fsico, que se conoce como principio de
evolucin.
Cuando la entropa sea mxima en el Universo, esto es, cuando exista un
equilibrio entre todas las temperaturas y presiones, llegar la muerte trmica del
Universo(enunciada por Clausius).
En el caso de sistemas cuyas dimensiones sean comparables a las dimensiones
de las molculas, la diferencia entre calor y trabajo desaparece y, por tanto,
parmetros termodinmicos como la entropa, la temperatura y otros no tienen
significado. Esto conduce a la afirmacin de que el segundo principio de la
termodinmica no es aplicable a estos microsistemas, porque realmente no son
sistemas termodinmicos. Se cree que existe tambin un lmite superior de
aplicacin del segundo principio, de tal modo que no se puede afirmar su
cumplimiento en sistemas infinitos como el Universo, lo que pone en controversia
la afirmacin de Clausius sobre la muerte trmica del Universo.

V.

HISTORIA DE LA ENTROPA

El concepto de entropa desarrollado en respuesta a la observacin de que una


cierta cantidad de energa liberada de funcionales reacciones de
combustin siempre se pierde debido a la disipacin o la friccin y por lo tanto no
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 6

se transforma en trabajo til. Los primeros motores de calor como Thomas


Savery (1698), el Newcomen motor (1712) y el Cugnot de vapor de tres ruedas
(1769) eran ineficientes, la conversin de menos de dos por ciento de la energa
de entrada en produccin de trabajo til; una gran cantidad de energa til se
disipa o se pierde en lo que pareca un estado de aleatoriedad inconmensurable.
Durante los prximos dos siglos los fsicos investigaron este enigma de la energa
perdida, el resultado fue el concepto de entropa.
En la dcada de 1850, Rudolf Clausius estableci el concepto de sistema
termodinmico y postula la tesis de que en cualquier proceso irreversible una
pequea cantidad de energa trmica Q se disipa gradualmente a travs de la
frontera del sistema. Clausius sigui desarrollando sus ideas de la energa
perdida, y acu el trmino "entropa". Durante el prximo medio siglo se llev a
cabo un mayor desarrollo, y ms recientemente el concepto de entropa ha
encontrado aplicacin en el campo anlogo de prdida de datos en los sistemas
de transmisin de informacin.

VI.

INTERPRETACIN ESTADSTICA DE LA ENTROPA

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 7

Tumba de Boltzmann en el Cementerio central de


Viena con la frmula de entropa.

En los aos 1890 - 1900 el fsico austraco Ludwig


Boltzmann y otros desarrollaron las ideas de lo que hoy se conoce como
mecnica estadstica, teora profundamente influenciada por el concepto de
entropa. Una de las teoras termodinmicas estadsticas (la teora de MaxwellBoltzmann) establece la siguiente relacin entre la entropa y la probabilidad
termodinmica:
,

donde S es la entropa, k la constante de Boltzmann y el nmero de micro


estados posibles para el sistema (ln es la funcin logaritmo neperiano). La
ecuacin asume que todos los micro estados tienen la misma probabilidad de
aparecer.
La ecuacin se encuentra grabada sobre la lpida de la tumba de Ludwig
Boltzmann en
El Zentralfriedhof (el cementerio central) de Viena. Boltzmann se suicid en 1906,
profundamente deprimido, quiz por la poca aceptacin de sus teoras en el
mundo acadmico de la poca.4

El significado de la ecuacin es el siguiente:

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 8

La cantidad de entropa de un sistema es proporcional al logaritmo natural del


nmero de microestados posibles.
Uno de los aspectos ms importantes que describe esta ecuacin es la posibilidad
de dar una definicin absoluta al concepto de la entropa. En la descripcin clsica
de la termodinmica, carece de sentido hablar del valor de la entropa de un
sistema, pues slo los cambios en la misma son relevantes. En cambio, la
teora estadstica permite definir la entropa absoluta de un sistema.
La entropa es una magnitud fsica bsica que dio lugar a diversas
interpretaciones, al parecer a veces en conflicto. Han sido, sucesivamente,
asimilados a diferentes conceptos, como el desorden y la informacin. La entropa
mide tanto la falta de informacin como la informacin. Estas dos concepciones
son complementarias. La entropa tambin mide la libertad, y esto permite una
interpretacin coherente de las frmulas de entropa y de los hechos
experimentales. No obstante, asociar la entropa y el desorden implica definir el
orden como la ausencia de libertad.5 El desorden o la agitacin guardan relacin
con la temperatura.

A) Entropa y desorden

Cuando la energa es degradada, dijo Boltzmann, se debe a que los tomos


asumen un estado ms desordenado. Y la entropa es un parmetro del desorden:
sa es la concepcin profunda que se desprende de la nueva interpretacin de
Boltzmann. Por extrao que parezca, se puede crear una medida para el
desorden; es la probabilidad de un estado particular, definido aqu como el nmero
de formas en que se puede armar a partir de sus tomos
Jacob Bronowski. El ascenso del hombre (The Ascent of Man). Bogot, Fondo
Educativo Interamericano, 1979, p. 347, captulo 10 "Un mundo dentro del
mundo".
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 9

Coloquialmente, suele considerarse que la entropa es el desorden de un sistema,


es decir, su grado de homogeneidad. Un ejemplo domstico sera el de lanzar un
vaso de cristal al suelo: tender a romperse y a esparcirse, mientras que jams
ser posible que, lanzando trozos de cristal, se construya un vaso por s solo. Otro
ejemplo domstico: imagnense dos envases de un litro de capacidad que
contienen, respectivamente, pintura blanca y pintura negra; con una cucharita, se
toma pintura blanca, se vierte en el recipiente de pintura negra y se mezcla; luego
se toma pintura negra con la misma cucharita, se vierte en el recipiente de pintura
blanca y se mezclan; el proceso se repita hasta que se obtienen dos litros de
pintura gris, que no podrn reconvertirse en un litro de pintura blanca y otro de
pintura negra; la entropa del conjunto ha ido en aumento hasta llegar a un
mximo cuando los colores de ambos recipientes son sensiblemente iguales
(sistema homogneo).
No obstante, considerar que la entropa es el desorden de un sistema sin tener en
cuenta la naturaleza del mismo es una falacia. Y es que hay sistemas en los que
la entropa no es directamente proporcional al desorden, sino al orden.

B) Entropa como creadora de orden

A pesar de la identificacin entre la entropa y el desorden, hay muchas


transiciones de fase en la que emerge una fase ordenada y al mismo tiempo, la
entropa aumenta.
En este artculo se muestra que esta paradoja se resuelve haciendo una
interpretacin literal de la famosa ecuacin de Boltzmann S = k log W. Podemos
verlo en la segregacin de una mezcla tipo coloide, por ejemplo cuando el agua y
aceite tienden a separarse. Tambin en la cristalizacin de esferas duras: cuando
agitamos naranjas en un cesto, stas se ordenan de forma espontnea. De estos
casos se deduce el concepto de fuerza entrpica o interaccin, muy til en la
ciencia de polmeros o ciencia coloidal.6
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 10

C) Relacin de la entropa con la teora de la informacin

Recientes estudios han podido establecer una relacin entre la entropa fsica y
la entropa de la teora de la informacin gracias a la revisin de la fsica de los
agujeros negros. Segn la nueva teora de Jacob D. Bekenstein el bit de
informacin sera equivalente a una superficie de valor 1/4 del rea de Planck. De
hecho, en presencia de agujeros negros la segunda ley de la termodinmica slo
puede cumplirse si se introduce la entropa generalizada o suma de la entropa
convencional (Sconv) ms un factor dependiente del rea total (A) de agujeros
negros existente en el universo, del siguiente modo:

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es


la constante de la gravitacin y

es la constante de Planck racionalizada.

Los agujeros negros almacenaran la entropa de los objetos que engulle en la


superficie del horizonte de sucesos. Stephen Hawking ha tenido que ceder ante
las evidencias de la nueva teora y ha propuesto un mecanismo nuevo para la
conservacin de la entropa en los agujeros negros.
Simplemente, al realizar un trabajo, se ocupa muy poca energa; la entropa se
encarga de medir la energa que no es usada y queda reservada en un cuerpo.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 11

En el mbito de la teora de la informacin la entropa, tambin


llamada entropa de la informacin y entropa de Shannon (en
honor a Claude E. Shannon), mide la incertidumbre de una fuente de
informacin.
La entropa tambin se puede considerar como la cantidad de
informacin promedio que contienen los smbolos usados. Los smbolos
con menor probabilidad son los que aportan mayor informacin; por
ejemplo, si se considera como sistema de smbolos a las palabras en un
texto, palabras frecuentes como "que", "el", "a" aportan poca
informacin, mientras que palabras menos frecuentes como "corren",
"nio", "perro" aportan ms informacin. Si de un texto dado borramos
un "que", seguramente no afectar a la comprensin y se
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 12

sobreentender, no siendo as si borramos la palabra "nio" del mismo


texto original. Cuando todos los smbolos son igualmente probables
(distribucin de probabilidad plana), todos aportan informacin relevante
y la entropa es mxima.
El concepto entropa es usado en termodinmica, mecnica
estadstica y teora de la informacin. En todos los casos la entropa se
concibe como una "medida del desorden" o la "peculiaridad de ciertas
combinaciones". La entropa puede ser considerada como una medida
de la incertidumbre y de la informacin necesarias para, en cualquier
proceso, poder acotar, reducir o eliminar la incertidumbre. Resulta que el
concepto de informacin y el de entropa estn bsicamente
relacionados entre s, aunque se necesitaron aos de desarrollo de
la mecnica estadstica y de la teora de la informacin antes de que
esto fuera percibido.
ndice

1 Relacin con la entropa termodinmica

2 Concepto intuitivo

3 Definicin formal
o 3.1 Ejemplos
o 3.2 Informacin mutua

4 Propiedades

5 Codificador ptimo
o 5.1 Ejemplo

6 Entropa condicional
o 6.1 Aplicacin en criptoanlisis
o 6.2 Ejemplo

7 Entropa de un proceso estocstico


o 7.1 Ratio de entropa

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 13

8 Referencias
o 8.1 Bibliografa

Relacin con la entropa termodinmica

La entropa de la teora de la informacin est estrechamente


relacionada con la entropa termodinmica. En la termodinmica se
estudia un sistema de partculas cuyos estados X (usualmente posicin y
velocidad) tienen una cierta distribucin de probabilidad, pudiendo
ocupar varios microestados posibles (equivalentes a los smbolos en la
teora de la informacin). La entropa termodinmica es igual a la
entropa de la teora de la informacin de esa distribucin (medida
usando el logaritmo neperiano) multiplicada por la constante de
Boltzmann k, la cual permite pasar de nats (unidad semejante al bit) a
J/K. Cuando todos los microestados son igualmente probables, la
entropa termodinmica toma la forma k log(N). En un sistema aislado, la
interaccin entre las partculas tiende a aumentar su dispersin,
afectando sus posiciones y sus velocidades, lo que causa que la entropa
de la distribucin aumente con el tiempo hasta llegar a un cierto
mximo (cuando el mismo sistema es lo ms homogneo y
desorganizado posible); lo que es denominado segunda ley de la
termodinmica. La diferencia entre la cantidad de entropa que tiene un
sistema y el mximo que puede llegar a tener se
denomina neguentropa, y representa la cantidad de organizacin
interna que tiene el sistema. A partir de esta ltima se puede definir
la energa libre de Gibbs, que indica la energa que puede liberar el
sistema al aumentar la entropa hasta su mximo y puede ser
transformada en trabajo (energa mecnica til) usando una mquina
ideal de Carnot. Cuando un sistema recibe un flujo de calor, las
velocidades de las partculas aumentan, lo que dispersa la distribucin y
hace aumentar la entropa. As, el flujo de calor produce un flujo de
entropa en la misma direccin.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 14

Concepto intuitivo

Entropa de la informacin en unensayo de


Bernoulli X (experimento aleatorio en que X
puede tomar los valores 0 o 1). La entropa
depende de la probabilidad P(X=1) de que X
tome el valor 1. Cuando P(X=1)=0.5, todos los
resultados posibles son igualmente probables,
por lo que el resultado es poco predecible y la
entropa es mxima.
El concepto bsico de entropa en teora de la
informacin tiene mucho que ver con
la incertidumbre que existe en cualquier experimento o seal aleatoria.
Es tambin la cantidad de "ruido" o "desorden" que contiene o libera un
sistema. De esta forma, podremos hablar de la cantidad de informacin
que lleva una seal.
Como ejemplo, consideremos algn texto escrito en espaol, codificado
como una cadena de letras, espacios y signos de puntuacin (nuestra
seal ser una cadena de caracteres). Ya que, estadsticamente, algunos
caracteres no son muy comunes (por ejemplo, 'w'), mientras otros s lo
son (como la 'a'), la cadena de caracteres no ser tan "aleatoria" como
podra llegar a ser. Obviamente, no podemos predecir con exactitud cul
ser el siguiente carcter en la cadena, y eso la hara aparentemente
aleatoria. Pero es la entropa la encargada de medir precisamente esa
aleatoriedad, y fue presentada por Shannon en su artculo de 1948, A
Mathematical Theory of Communication ("Una teora matemtica de la
comunicacin", en ingls).
Shannon ofrece una definicin de entropa que satisface las siguientes
afirmaciones:

La medida de informacin debe ser proporcional (lineal continua).


Es decir, el cambio pequeo en una de las probabilidades de
aparicin de uno de los elementos de la seal debe cambiar poco
la entropa.

Si todos los elementos de la seal son equiprobables a la hora de


aparecer, entonces la entropa ser mxima.
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 15

Ejemplos de mxima entropa: Suponiendo que estamos a la espera de


un texto, por ejemplo un cable con un mensaje. En dicho cable slo se
reciben las letras en minscula de la a hasta la z, entonces si el mensaje
que nos llega es "qalmnbphijcdgketrsfuvxyzwo" el cual posee una
longitud de 27 caracteres, se puede decir que este mensaje llega a
nosotros con la mxima entropa (o desorden posible); ya que es poco
probable que se pueda pronosticar la entrada de caracteres, pues estos
no se repiten ni estn ordenados en una forma predecible.

Definicin formal

Supongamos que un evento (variable aleatoria) tiene un grado de


indeterminacin inicial igual a (i.e. existen estados posibles) y
supongamos todos los estados equiprobables. Entonces la probabilidad
de que se d una de esas combinaciones ser
representar la expresin como:

. Luego podemos

Si ahora cada uno de los estados tiene una probabilidad , entonces la


entropa vendr dada por la suma ponderada de la cantidad de
informacin:1

Por lo tanto, la entropa de un mensaje , denotado por


, es el
valor medio ponderado de la cantidad de informacin de los diversos
estados del mensaje:

que representa una medida de la incertidumbre media acerca de una


variable aleatoria y por tanto de la cantidad de informacin.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 16

Nota: Obsrvese que se usa el logaritmo en base 2 porque se


considera que la informacin se va a representar mediante cdigo
binario (se quiere representar conbits). Si para representar la
informacin se usaran valores en una base entonces sera
conveniente utilizar el logaritmo en base .

Nota 2: Observese que es una cantidad adimensional, es decir no lleva


unidad.

a) Ejemplos

La entropa de un mensaje M de longitud 1 carcter que utiliza el


conjunto de caracteres ASCII, suponiendo una equiprobabilidad en
los 256 caracteres ASCII, ser:

Supongamos que el nmero de estados de un mensaje es igual a


3, M1, M2 y M3 donde la probabilidad de M1 es 50%, la de M2 25% y
la de M3 25%. Por tanto la entropa de la informacin es:

b) Informacin mutua

La entropa puede verse como caso especial de la informacin mutua.


La informacin mutua de dos variables aleatorias, denotado por I(X;Y),
es una cantidad que mide la dependencia mutua de las dos variables; es
decir, mide la reduccin de la incertidumbre (entropa) de una variable
aleatoria, X, debido al conocimiento del valor de otra variable aleatoria,
Y.2 De la definicin podemos concluir que si X e Y son iguales, entonces
I(X;X)=H(X).

Propiedades
La entropa tiene las siguiente propiedades:
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 17

1. La entropa es no negativa. Esto es evidente ya que al ser


probabilidad entonces
que
2.

una

. Por tanto podemos decir

y por tanto

Es decir, la entropa H est acotada superiormente


(cuando es mxima) y no supone prdida de informacin.

3. Dado un proceso con posibles resultados {A1,..,An} con


probabilidades relativas p1,...,pn, la funcin

es

mxima en el caso de que


. El resultado es
intuitivo ya que tenemos la mayor incertidumbre del mensaje,
cuando los valores posibles de la variable son equiprobables
4. Dado un proceso con posibles resultados {A1,..,An} con
probabilidades relativas p1,...,pn, la funcin
en el caso de que

es nula

para todo i, excepto para una clase, tal

que:
. De forma intuitiva podemos pensar que cuando uno o
ms estados tienen una probabilidad alta, disminuye
significativamente la entropa porque, como es lgico, existe una
menor incertidumbre respecto al mensaje que se recibir.

Codificador ptimo

Un codificador ptimo es aquel que utiliza el mnimo nmero de bits


para codificar un mensaje. Un codificador ptimo usar cdigos cortos
para codificar mensajes frecuentes y dejar los cdigos de mayor
longitud para aquellos mensajes que sean menos frecuentes. De esta
forma se optimiza el rendimiento del canal o zona de almacenamiento y
el sistema es eficiente en trminos del nmero de bits para representar
el mensaje.
Por ejemplo, el cdigo Morse se aprovecha de este principio para
optimizar el nmero de caracteres a transmitir a partir del estudio de las
letras ms frecuentes del alfabeto ingls. El cdigo Morse no es un
codificador ptimo pero s asigna a las letras ms frecuente cdigo ms
cortos. Otro ejemplo sera el algoritmo de Huffmande codificacin que
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 18

sirve para compactar informacin.3 Este mtodo se basa en


el codificador ptimo. Para ello lo primero que hace es recorrer toda la
informacin para encontrar la frecuencia de los caracteres y luego a
partir de esta informacin busca el codificador ptimo por medio de
rboles binarios. Algunas tcnicas de compresin
como LZW o deflacin no usan probabilidades de los smbolos aislados,
sino que usan las probabilidades conjuntas de pequeas secuencias de
smbolos para codificar el mensaje, por lo que pueden lograr un nivel de
compresin mayor.
Podemos construir un codificador ptimo basndonos en la entropa de
una variable aleatoria de informacin X. En efecto, la entropa nos da
el nmero medio de bits (si usamos logaritmos de base 2) necesarios
para
codificar el mensaje a travs de un codificador ptimo y por tanto nos
determina el lmite mximo al que se puede comprimir un mensaje
usando un enfoque smbolo a smbolo sin ninguna prdida de
informacin (demostrado analticamente por Shannon), el lmite de
compresin (en bits) es igual a la entropa multiplicada por el largo del
mensaje. Reescribiendo la ecuacin de clculo de la entropa llegamos a
que:

Por lo tanto, la informacin (que se encuentra definida en bits, dado que


la base del logaritmo es 2) que aporta un determinado valor o smbolo
de una variable aleatoria discreta
se define como:

Esta expresin representa el nmero necesario de bits para codificar el


mensaje x en el codificador ptimo y por tanto la entropa tambin se
puede considerar como una medida de la informacin promedio
contenida en cada smbolo del mensaje.

a) Ejemplo

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 19

Supongamos que el nmero de estados de un mensaje es igual a 3 M1,


M2 y M3 donde la probabilidad de M1 es 50%, la de M2 25% y la de
M3 25%.
Para M1 tenemos que
Para M2 tenemos que
Para M3 tenemos que
Por tanto en el codificador ptimo para transmitir M1 har falta un bit y
para M2 y M3 ser necesario contar con dos bits. Por ejemplo podramos
codificar M1 con "0", M2 con "10" y M2 con "11". Usando este convenio
para codificar el mensaje M1M2M1M1M3M1M2M3 usaramos
"010001101011" y por tanto 12 bits. El valor de la entropa sera:

Por tanto el codificador ptimo necesita de media 1,5 bits para


codificar cualquier valor de X.

Entropa condicional

Supongamos que en vez de tener una nica variable aleatoria X, existe


otra variable Y dependientes entre s, es decir el conocimiento de una
(por ejemplo Y) entrega informacin sobre la otra (por ejemplo X). Desde
el punto de vista de la entropa de la informacin podemos decir que la
informacin de Y disminuir la incertidumbre de X. Por tanto podemos
decir que la entropa de X ser condicional a Y. y por tanto:

Como por el teorema de Bayes tenemos que p(x,y)=p(y)p(x|y) donde


p(x|y) es la probabilidad de que se d un estado de X conocida Y,
podemos decir:

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 20

Aplicacin en criptoanlisis

El concepto de entropa condicional es muy interesante en el campo


del criptoanlisis. Proporciona una herramienta para evaluar el grado de
seguridad de los sistemas. Por ejemplo para un sistema de cifrado hay
dos entropas condicionales interesantes:4 Supongamos

Un mensaje M1 es sometido a un proceso de cifrado usando la


clave K1 obteniendo E(K1,M1)=C1.

representan la probabilidad condicional de la clave K dado


el criptograma recibido C. A veces tambin se denota por

representan la probabilidad condicional del mensaje M


dado el criptograma recibido C. A veces tambin se denota
por

Entonces:

Podemos calcular la entropa del conocimiento de la clave una vez


conocido el texto cifrado, y por tanto medir la equivocacin del
mensaje (en ingls message equivocation),
denotada por

, tambin

, mediante la frmula:

La primera igualdad es por la definicin de la entropa condicional y la


segunda por aplicacin del teorema de Bayes.
Observar que si
significa que se podr romper el cifrado
pues ya no hay incertidumbre. Esta anulacin nos introduce en el
concepto de distancia de unicidad.
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 21

Podemos calcular la entropa del conocimiento del mensaje una


vez conocido el texto cifrado, y por tanto medir la equivocacin
de la clave (en ingls key equivocation),
denotada por

, tambin

, mediante la frmula:

La primera igualdad es por la definicin de la entropa condicional y la


segunda por aplicacin del teorema de Bayes.

a) Ejemplo
Supongamos una variable X con cuatro estados:
equiprobables y por tanto
con tres estados;
y

todos

. Existe adems otra variable Y


con probabilidades

. Se conocen adems las siguientes dependecias:

Si

entonces los posibles valores de x son

Si

entonces los posibles valores de x son

Si

entonces los posibles valores de x son

Aplicando las frmulas tenemos:

En este caso el conocimiento de la dependencia de X respecto Y reduce


la entropa de X de 2 a 1,5.

Entropa de un proceso estocstico


Un proceso estocstico
es una secuencia indexada de variables
aleatorias. En general, puede haber dependencias entre las variables

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 22

aleatorias. Para estudiar la probabilidad de cierto conjunto de valores se


suele adoptar el siguiente convenio:

Sea
sea
de

un proceso estocstico de n variables aleatorias, y


el conjunto de la posibles combinaciones de valores
. Se define laentropa del proceso estocstico, tambin

llamada entropa del n-grama y denotado por

, como:

Ratio de entropa

La ratio de entropa de una secuencia de n variables aleatorias


(proceso estocstico) caracteriza la tasa de crecimiento de la entropa
de la secuencia con el crecimiento de n.
La ratio de entropa de un proceso estocstico
la ecuacin:

viene definida por

Siempre que dicho lmite exista.

1. Concepto de Entropia
2. Caracteristicas
3. Transferencia de Entropia
4. Irreversibilidad y Entropia
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 23

5. Principio de aumento de entropia


6. Calculo de variaciones de Entropia

Concepto de Entropia .
1.- Desigualdad de Clausius:
La desigualdad de Clausiu es una relacion entre las temperasturas de un numero
arbitrario de fuentes termicas y las cantidades de calor entregadas o absorbidas
por ellas, cuando a una sustancia se le hace recorrer un proceso ciclico arbitrario
durante el cual intercambie calor con las fuentes. Esta desigualdad viene dada
por:
dQ / T <= 0

en el caso de una cantida dinfinita de fuentes.

2.- Entropia:
En la desigualdad de Clausius no se han impuesto restricciones con respecto a la
reversibilidad o no del proceso, pero si hacemos la restriccion de que el proceso
sea reversible podemos ver que no importa el camino que usemos para recorrer el
proceso, el cambio de calor dQ va a hacer iqual en un sentido o en otro por lo que
llegaremos a que:

dQ / T = 0
Como estamos imponiendo que usemos un camino cualquiera esta diferencial es
una diferencial exacta y diremos que representa a una funciopn de estado S que
pude representarse por dS. Esta cantidad Srecibe el nombre de Entropia del
sistema y la ecuacion :

dQ / T = dS
establece que la variacion de entropia de un sistema entre dos estados de
equilibrio cualesquiera se obtiene llevando el sistema a lo largo de cualquier
camino reversible que una dichos estados, dividiendo el calor que se entrega al
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 24

sistema en cada punto del camino por la temperatura del sistema y sumando los
coeficientes asi obtenidos.
En la practica, generalmente los procesos no son del todo reversibles por lo que
la entropia aumenta , no es conservativay ello es en gran parte el misterio de este
concepto.

Caracteristicas asociadas a la entropia.


La entropia se define solamente para estados de equilibrio.
Solamente pueden calcularse variaciones de entropia. En
muchos problemas practicos como el diseno de una
maquina de vapor , consideramos unicamente diferencias
de entropia. Por conveniencia se considera nula la entropia
de una sustancia en algunestado de referencia
conveniente. Asi se calculan las tablas de vapor, e donde
se supone cero la entropia del agua cuando se encuentra
en fase liquida a 0'C y presion de 1 atm.
La entropia de un sistema en estado se equilibrio es
unicamente funcion del estado del sistema, y es
independiente de su historia pasada. La entropia puede
calcularse como una funcion de las variables
termodinamicas del sistema, tales como la presion y la
temperatura o la presion y el volumen.
La entropia en un sistema aislado aumenta cuando el
sistema experimenta un cambio irreversible.
Considerese un sistema aislado que contenga 2 secciones
separadas con gases a diferentes presiones. Al quitar la
separacion ocurre un cambio altamente irreversible en el
sistema al equilibrarse las dos presiones. Pero el mediono
ha sufrido cambio durante este proceso, asi que su energia
y su estado permanecen constantes, y como el cambio es
irreversible la entropia del sistema a aumentado.

Transferencia de entropia.
La entropia esta relacionada con la aleatoriedad del movimiento molecular
(energia termica) , por esto, la entropia de un sistema no decrece si no hay cierta
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 25

interaccion externa. Ocurre que la unica manrea que el hombre conoce de reducir
la energia termica es transferirla en forma de calor a otro cuerpo, aumentando asi
la energia termica del segundo cuerpo y por ende su entropia.
Por otro lado transfiriendo energia termica es posible reducir la entropia de un
cuerpo. Si esta transferencia de energia es reversible, la energia total permanece
constante, y si es irreversible la entropia aumenta.
De lo anterior se concluye que el calor es un flujo de entropia. En el caso de la
transferencia de energia mecanica, i.e. fde trabajo, no hay un flujo directo de
entropia.
Si la transferencia de energia mecanica en un sistema se realiza con
irreversibilidad se producen aumentos de entropia en el sistema, es decir se
generan entropia. Esta generacion de entropia trae consigo una perdida de trabajo
utilizable debido a la degradacionde la energia mecanica producido por la
irreversibilidades presentes como lo es el roce.

Irreversibilidad y entropia.
Ahora nos podriamos preguntar : De que depende la reversibilidad de un
proceso??. Una respuesta a esto es decir que la variacion de entropia es el criterio
que permite establecer el sentido en que se produciran un proceso determinado
que cumpla con el primer principio de la termodinamica.
Asi, el ingeniero mecanico esta interesado en la reversibilidad y en las
variaciones de entropia por que desde su punto de vista algo se ha "perdido"
cuandoo se ha producido un prceso irreversible, en una maquina de vapor io en
una turbina. Lo que se ha perdido, sin embargo, no es enrgia, sino una
oprtunidad. La oprtunidad de transformar energia termica en energia mecanica.
Puesto que la energia interna de una sustancia que evoluciona en una maquina
termica se recupera generalmente por absorcion del calor, decimos que lo que se
pierde es una oprtunidad de converretir calor en trabajo mecanico.
Es imposible extraer calor de una unica fuente y hacer funcionar una maquina
ciclica; en cambio podriamos hacer hacer funcionar una maquina etre dos
fuentes, una caliente y otra fria, extrayendo calor de una y entregandosela a la
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 26

otra, y disponiendo de una parte de ese calor para producir trabajo mecanico. Una
vez que las fuentes han alcanzado la misma temperatura, esta oprtunidad esta
irremediablemente perdida. Por lo tanto cualquier proceso irreversible en una
maquina termica disminuye su rendimiento, es decir, reduce la cantidad de
trabajo mecanico que puede obtenerse con una cierta cantidad de calor absorbido
por la sustancia que evoluciona.

Principio del aumento de


entropia.
Todos los procesos reales son irreversibles. Se producen a una velocidad con
diferencia s finitas de temperaturay de presionentre loa diferentes partes de un
sistema o entre un sistema y el medio ambiente. En mecanica se introducen los
conceptos de energia, cantidad de movimiento y otros por que se conservan. La
entropia no se conserva , sin embargo, excepto en los procesos reversibles y esta
propiedad no familiar, o falta de propiedad de la funcion entropia, es una razon
del por que existe cierto misterio sobre el concepto de entropia. Cuando se
mezcla un vaso de agua caliente con uno de agua fria, el calor entregado por el
agu caliente es igual al recibido por el agua fria, sin embargo la entropia del agua
caliente disminuye y la del agua fria aumenta; pero el aumento es mayor quer la
disminucion por lo que la entropia total del sistema aumenta. De donde ha salido
esta entropia adicional?. La respusta es que ha sido creada durante el proceso de
mezcla. Por otra parte, una vez que fue creada, la entropia no puede seer
destruida. El universo debe cargar con este aumento de entropia.
"La energia no puede ser4 creada ni destruida",nos dice el primer principio de
la termodinamica. " La entropia no puede ser destruida, pero puede ser
creada", nos dice el segundo principio.

Calculo de variaciones de
entropia.
a)

Proceso isotermico: Como la temperatuar es constante se


saca fuera de la integral y quedaria:
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 27

S2 - S1 =q / T
b)

Proceso no isotermico: En muchos procesos, la absorcion


reversible de calor esta acompanada por un cambio de temperatura,
es este caso expresamos el calor en funcion de la temperatura
integramos y obtendremos:

En un proceso a volumen constante:

dq = cv dT
S2 -S1 = cv ln T2/T1

Entonces

En un proceso a presion constante :

dq = cp dT

Entonces

S2 -S1 = cp ln T2/T1

c)

Proceso adiabatico: En un proceso adiabatico como no


existe transferencia de calor la variacion de entropias es cero.

Entropa
Etimolgicamente entropa, asociada a la termodinmica, surgi como palabra
acuada del griego, de em (en: en, sobre, cerca de...) y sqopg (trope: mudanza, giro,
alternativa, cambio, evolucin).
La termodinmica, por definirla de una manera muy simple, fija su atencin en el
interior de los sistemas fsicos, en los intercambios de energa en forma de calor que
se llevan a cabo entre un sistema y otro y tiene sus propias leyes.
Uno de los soportes fundamentales de la Segunda Ley de la Termodinmica es la
funcin denominada entropa que sirve para medir el grado de desorden dentro de un
proceso y permite distinguir la energa til, que es la que se convierte en su totalidad
en trabajo, de la intil, que se pierde en el medio ambiente.
La segunda ley de la termodinmica fue enunciada por S. Carnot en 1824. Se puede
enunciar de muchas formas, pero una sencilla y precisa es la siguiente:

Rudolf Emanuel
Clausius.

La evolucin espontnea de un sistema aislado se traduce siempre en un aumento de su entropa.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 28

La palabra entropa fue utilizada por Clausius en 1850 para calificar el grado de desorden de un sistema. Por
tanto la segunda ley de la termodinmica est diciendo que los sistemas aislados tienden al desorden, a la
entropa.
Este desorden se grafica en la mayor o menor produccin de energa disponible o no
disponible, y sobre esta base, tambin podemos definir la entropa como el ndice de
la cantidad de energa no disponible en un sistema termodinmico dado en un
momento de su evolucin.
Segn esta definicin, en termodinmica hay que distinguir entre energa disponible o
libre, que puede ser transformada en trabajo y energa no disponible o limitada, que no
puede ser transformada en l.
Para comprender conceptualmente lo dicho, analicemos el ejemplo de un reloj de
arena, que es un sistema cerrado en el que no entra ni sale arena.
La cantidad de arena en el reloj es constante; la arena ni se crea ni se destruye en ese
reloj. Esta es la analoga de la primera ley de la termodinmica: no hay creacin ni
destruccin de la materia-energa.

Abajo, aumenta
la entropa.

Aunque la cantidad de arena en el reloj es constante, su distribucin cualitativa est


constantemente cambiando: la cavidad inferior se va llenando, mientras la cavidad
superior se vaca. Esta es la analoga de la segunda ley de la termodinmica, en la que
la entropa (que es la arena de la cavidad inferior) aumenta constantemente.

La arena de la cavidad superior (la menor entropa) es capaz de


hacer un trabajo mientras cae, como el agua en la parte superior
de una catarata. La arena en la cavidad inferior (alta entropa) ha agotado su
capacidad de realizar un trabajo. El reloj de arena no puede darse la vuelta: la energa
gastada no puede reciclarse, a menos que se emplee ms energa en ese reciclaje
que la que ser desarrollada por la cantidad reciclada.
Tambin podemos hacer el anlisis tomando como ejemplo una cadena trfica.
En las cadenas trficas al ir subiendo de nivel (de productores a consumidores) se va
perdiendo energa qumica potencial. A medida que subimos en los niveles de la
cadena, el contenido total de este tipo de energa es menor pero va aumentando la
liberacin de otro tipo de energa: El calor. Este ltimo es un tipo de energa con menor
probabilidad de aprovecharse ya que podemos generar menos trabajo con este tipo de
energa que con la energa qumica potencial.
Al proceso por el cual la energa pierde su capacidad de generar trabajo til o, mejor
dicho, se transforma en otra energa que es menos aprovechable, se le
llama entropa.

La entropa
acabar con el
Universo.

Mirado desde otro punto de vista, y para una comprensin y aplicacin ms general del
concepto, la entropa se entiende como el grado de desorden de un sistema, as, por ejemplo, en la
medida en que vamos subiendo niveles en la cadena trfica, cada vez tenemos menos control sobre la
energa qumica potencial que sirve para generar trabajo ya que sta se ha ido transformando en calor y
nosotros podemos aprovechar (controlar) menos este tipo de energa, es decir va aumentando el grado de
descontrol (desorden) que tenemos sobre la cadena trfica.
Por eso se dice que todo sistema biolgico tiende a la entropa; es decir, al desorden.
Como podemos apreciar, la entropa es el elemento esencial que aporta la termodinmica, ciencia de
los procesos irreversibles, es decir orientados en el tiempo.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 29

Ejemplos de procesos irreversibles pueden ser: la descomposicin radioactiva, la


friccin o la viscosidad que modera el movimiento de un fluido. Todos estos procesos
poseen una direccin privilegiada en el tiempo, en contraste con los procesos
reversibles.
Precisamente, la distincin entre procesos reversibles e irreversibles la introduce en
termodinmica el concepto de entropa, que Clausius asocia ya en 1865 al segundo
principio de la termodinmica.
Todos hemos visto alguna vez un plato que se cae desde una mesa y se hace aicos
contra el suelo. Lo que antes estaba ordenado en una nica pieza de porcelana, se
convierte en una multitud de fragmentos desordenados. Pero la situacin contraria, la
recomposicin de un plato a partir de sus fragmentos de manera espontnea, al menos
que se sepa, no la ha visto nadie.

Fragmentos de
plato con alta
entropa.

La ruptura del plato es un suceso natural e irreversible, una secuencia temporal


adecuada; su recomposicin, en cambio, no lo es. Es la evolucin natural del orden al
desorden o, en trminos cientficos, la natural tendencia del Universo a aumentar su
entropa.
Todos tenemos una cierta idea, intuitiva, de lo que significa orden y desorden, pero
desconocemos que el paso de una situacin a la otra implica, de forma indefectible, el
final de todo movimiento, la muerte del Universo.

LA VERDAD SOBRE LA ENTROPA


Segn las enseanzas de Johnakan Ur-el
La entropa es el segundo principio de la termodinmica que puede definirse
esquemticamente como el "progreso para la destruccin" o "desorden inherente a un
sistema.
La entropa significa, expresado en trminos vulgares, que todo va para peor o, lo
que es lo mismo, que todo empeora o se arruina irremisiblemente.
La Segunda Ley de la Termodinmica es la ms universal de las leyes fsicas. En su
interpretacin ms general establece que a cada instante el Universo se hace ms
desordenado. Hay un deterioro general pero inexorable hacia el caos.
Uno de los patrones fundamentales de comportamiento que encontramos en el
mundo fsico es la tendencia de las cosas a desgastarse y agotarse. Los edificios se
derrumban, la gente envejece, las montaas y las costas se erosionan, los recursos
naturales se agotan. Y todo sin retorno.
Originalmente, "entropa" surgi como palabra acuada del griego, de em (en-en,
sobre, cerca de...) y sqopg (trope-mudanza, giro, alternativa, cambio, evolucin...).
El trmino fue usado por primera vez en 1850 por el fsico alemn Rudolf Julius

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 30

Emmanuel Clausius (1822-1888).


El fsico Enrico Fermi, por su parte, uno de los padres de la bomba atmica, en su
Thermodynamics, dice: "La primera ley de la termodinmica es esencialmente la afirmacin
del principio de conservacin de la energa para sistemas termodinmicos. Como tal, puede
expresarse del siguiente modo:

'La variacin de energa en un sistema durante cualquier transformacin es igual a


la cantidad de energa que el sistema intercambia con el ambiente'. Esta primera ley no
pone limitaciones a las posibilidades de transformacin de energa de una forma para otra".

Esa posibilidad ilimitada de transformacin es la base de toda la civilizacin del


progreso.
La segunda ley de la termodinmica ya impone severas limitaciones:

"Es imposible una transformacin cuyo resultado final sea transformar en trabajo
todo el calor extrado de una fuente" (postulado de Kelvin).

La entropa del universo, por lo tanto, siempre aumenta y nada puede hacerse para
evitarlo. Todo lo que existe pasa gradualmente de un estado ordenado a otro catico y de
este estado catico no hay regreso.
El aumento de la entropa es, pues, irreversible y el destino del universo ya est
trazado.
Se han utilizado muchos ejemplos para explicar la alteracin o ruina irreversible de
todas las cosas. Uno de ellos seala que si se rompe un frasco de perfume y todo su
contenido se evapora, para que espontneamente se vuelvan a reunir los pedazos e
introducirse en el frasco otra vez su contenido, tal como estaba, segn la ley de las
probabilidades, es de una en uno seguido de un milln de ceros... ms que la edad del
universo!
Esto significa, lisa y llanamente, que tal acontecimiento es imposible. Tan imposible
como que, en el juego del Truco, un cuatro le gane al as de espadas.
Todo el universo conocido, creado por el Absoluto, est regido por esta ley
inexorable. Los seres encarnados gastamos energa, y al reponerla mediante la comida
siempre gastamos ms de lo que damos.
Este principio tambin sucede con las mquinas, que consumen ms de lo que
rinden. Este es otro aspecto de la ley de entropa. Vemos, por ejemplo, un motor. El motor

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 31

necesita de una fuente de energa para poder convertirla en trabajo.


Si pensamos especficamente en un automvil, la gasolina, junto con el sistema de
chispa del motor, proporciona la energa (qumica) de combustin, capaz de hacer que el
vehculo se mueva. Qu tiene que ver la entropa aqu?
La energa que el coche "utiliz" para realizar trabajo y moverse se gast, es decir,
se torn inservible, porque la energa liberada mediante un proceso qumico ya no es
utilizable para que un motor produzca trabajo. Esto es la entropa.
Ahora veamos el segundo aspecto de esta cuestin. Cuando el espritu evoluciona
genera energa. Esto es una constante invariable.
Si el espritu es del Error, es decir, de los planos vibratorios 2 y 3, la energa que
genera es negativa y esa energa que despide llega hasta los confines del universo,
aumentando, por lo tanto, la entropa de ste.
Pero a medida que el espritu evoluciona va generando nuevas energas, ahora
positivas, es decir, de Luz, que al "salpicar", para decirlo de alguna manera, a todo el
Cosmos compensan la vibracin entrpica demorando el Big Crunch.
Si esto no sucediera, es decir, si el universo espiritual no se elevara, aunque sea en
un porcentaje mnimo, el universo tendera a colapsarse en un Big Crunch mucho ms
rpidamente y los espritus no podran completar su evolucin.
Esto, por lo tanto, es un axioma de la Creacin: la elevacin del universo espiritual
retarda el colapso del universo fsico hasta que todos los espritus completen su evolucin
y se consustancien con el Absoluto, en cuyo momento el universo fsico est preparado
para el Big Crunch.
Qu sucedera, entonces, si no hubiera evolucin espiritual? Pues que la entropa
sera tan grande, tan grande, que el Big Crunch se colapsara con una energa a tal punto
inconmensurable que por la ley entrpica no tendra fuerza para hacer detonar otro Big
Bang.
El Absoluto, como puede observarse, crea las leyes fsicas y luego se somete a
ellas, de la misma forma que el inventor de un juego tambin queda sometido a sus propias
reglas.
De lo expuesto surge que estn erradas las teoras que hablan de un solo Big Bang,
as como tambin las que sugieren un universo en permanente expansin.
Cada Big Bang dura aproximadamente 40.000 millones de aos y el universo se
expande hasta los 20.000 millones, momento en el cual comienza la contraccin hasta la
Singularidad o Big Crunch, sucedindole de inmediato otro Big Bang, pero de una octava
ms alta, y as sucesivamente.
Es decir que hubo infinitos Big Bang, seguidos de sus correspondientes Big
Crunch, y en el futuro habr infinitos Big Bang seguidos tambin de sus correspondientes
Big Crunch y consecuente elevacin vibratoria. El Absoluto se supera a s mismo en cada
ciclo.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 32

Otra de las preocupaciones de los cientficos se centra en la desaparicin de los


seres humanos junto con el universo fsico a causa de la ley de entropa.
Esta preocupacin parte del error de considerar al ser humano solamente como
materia. El organismo fsico es meramente una mquina que le sirve al espritu, que es
inmortal, para desenvolverse en el plano fsico, y as aprender y evolucionar.
Esto significa que el espritu utiliza un determinado organismo mientras le sirva a
sus fines evolutivos. Cuando ya no le sirve, simplemente lo desecha y toma otro ms
sofisticado. ste es el motivo de la ley universal de la reencarnacin.
De ms est decir que el nacimiento en el planeta Tierra es solamente una de las
alternativas que tiene el espritu para evolucionar, ya que hay innumerables mundos donde
puede hacerlo.
Esto ya lo dijo el Maestro Jess hace dos mil aos para aquellos que estuvieran en
tiempo de comprender: "En la casa de mi Padre hay muchas moradas...".
El organismo fsico humano, por otra parte, es solamente uno de los miles de
millones que existen en los mundos manifestados, de modo que el espritu tiene una
inmensa variedad de cuerpos para elegir de acuerdo a sus necesidades evolutivas.
El colapso del universo, por lo tanto, no afecta en nada al espritu, porque siendo
inmortal no depende en lo ms mnimo de la materia para sobrevivir.

Sexta pagina
La termodinmica y el concepto de Entropa
efinicin de algunos conceptos
La termodinmica, por definirla de una manera muy simple, fija su atencin en el interior de los sistemas
fsicos, en los intercambios de energa en forma de calor que se llevan a cabo entre un sistema y otro. A las
magnitudes macroscpicas que se relacionan con el estado interno de un sistema se les llama coordenadas
termodinmicas; stas nos van a ayudar a determinar la energa interna del sistema. En resumen, el fin ltimo
de la termodinmica es encontrar entre las coordenadas termodinmicas relaciones generales coherentes con
los principios bsicos de la fsica (recurdese el principio de la conservacin de la energa que tratamos en el
nmero 3 de "Horizonte Social).
La termodinmica basa sus anlisis en algunas leyes: La Ley "cero", referente al concepto de temperatura, la
Primera Ley de la termodinmica, que nos habla de el principio de conservacin de la energa, la Segunda
Ley de la termodinmica, que nos define a la entropa. A continuacin vamos a hablar de cada una de estas
leyes, haciendo hincapi en la segunda ley y el concepto de entropa.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 33

La Ley cero
La Ley cero de la termodinmica nos dice que si tenemos dos cuerpos llamados A y B, con diferente
temperatura uno de otro, y los ponemos en contacto, en un tiempo determinado t, estos alcanzarn la misma
temperatura, es decir, tendrn ambos la misma temperatura. Si luego un tercer cuerpo, que llamaremos C se
pone en contacto con A y B, tambin alcanzar la misma temperatura y, por lo tanto, A, B y C tendrn la
misma temperatura mientras estn en contacto.
De este principio podemos inducir el de temperatura, la cual es una condicin que cada cuerpo tiene y que el
hombre ha aprendido a medir mediante sistemas arbitrarios y escalas de referencia (escalas termomtricas).
La Primera Ley
La Primera ley de la termodinmica se refiere al concepto de energa interna, trabajo y calor. Nos dice que si
sobre un sistema con una determinada energa interna, se realiza un trabajo mediante un proceso, la energa
interna del sistema variar. A la diferencia de la energa interna del sistema y a la cantidad de trabajo le
denominamos calor. El calor es la energa transferida al sistema por medios no mecnicos. Pensemos que
nuestro sistema es un recipiente metlico con agua; podemos elevar la temperatura del agua por friccin con
una cuchara o por calentamiento directo en un mechero; en el primer caso, estamos haciendo un trabajo
sobre el sistema y en el segundo le transmitimos calor.
Cabe aclarar que la energa interna de un sistema, el trabajo y el calor no son ms que diferentes
manifestaciones de energa. Es por eso que la energa no se crea ni se destruye, sino que, durante un
proceso solamente se transforma en sus diversas manifestaciones.
La Segunda Ley
Por ltimo, vamos a ver el contenido de la segunda ley de la termodinmica. En trminos ms o menos
sencillos dira lo siguiente: "No existe un proceso cuyo nico resultado sea la absorcin de calor de una
fuente y la conversin ntegra de este calor en trabajo". Este principio (Principio de Kelvin-Planck) naci
del estudio del rendimiento de mquinas y mejoramiento tecnolgico de las mismas. Si este principio no fuera
cierto, se podra hacer funcionar
una central trmica tomando el calor del medio ambiente; aparentemente no habra ninguna contradiccin,
pues el medio ambiente contiene una cierta cantidad de energa interna, pero debemos sealar dos cosas:
primero, la segunda ley de la termodinmica no es una consecuencia de la primera, sino una ley
independiente; segundo, la segunda ley nos habla de las restricciones que existen al utilizar la energa en
diferentes procesos, en nuestro caso, en una central trmica. No existe una mquina que utilice energa
interna de una sola fuente de calor.
El concepto de entropa fue introducido por primera vez por R. J. Clausius a mediados del siglo XIX. Clausius,
ingeniero francs, tambin formul un principio para la Segunda ley: "No es posible proceso alguno cuyo
nico resultado sea la transferencia de calor desde un cuerpo fro a otro ms caliente". En base a este
principio, Clausius introdujo el concepto de entropa, la cual es una medicin de la cantidad de restricciones
que existen para que un proceso se lleve a cabo y nos determina tambin la direccin de dicho proceso.
Vamos ahora a hablar de las tres acepciones ms importantes de la palabra entropa.
La entropa, el desorden y el grado de organizacin.
Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada divisin se
encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 34

movibles as que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas.
Lo que estoy haciendo dentro del punto de vista de la entropa es quitar un grado o ndice de restriccin a mi
sistema; antes de que yo quitara la primera divisin, las canicas se encontraban separadas y ordenadas
en colores: en la primera divisin las azules, en la segunda las amarillas y en la tercera las rojas, estaban
restringidas a un cierto orden.
Al quitar la segunda divisin, estoy quitando tambin otro grado de restriccin. Las canicas se han mezclados
unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringan han
sido quitadas.
La entropa de este sistema ha aumentado al ir quitando las restricciones pues inicialmente haba un orden
establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden
alguno dentro de la caja.
La entropa es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de
restriccin; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna
restriccin, y volverla a medir al final del proceso que sufri el sistema.
Es importante sealar que la entropa no est definida como una cantidad absoluta S (smbolo de la entropa),
sino lo que se puede medir es la diferencia entre la entropa inicial de un sistema Si y la entropa final del
mismo Sf. No tiene sentido hablar de entropa sino en trminos de un cambio en las condiciones de un
sistema.
Entropia, procesos reversibles y procesos irreversibles.
Volviendo al ejemplo anterior de la caja con separaciones y canicas, vamos a explicar qu es un proceso
reversible y qu un proceso no reversible.
Llamamos proceso reversible al que se puede invertir y dejar a nuestro sistema en las mismas condiciones
iniciales. Teniendo en cuenta
nuestra caja ya sin las separaciones, tenemos a las canicas revueltas unas con otras, es decir, sin un orden.
Si el proceso que efectuamos de quitar las divisiones fuera reversible, las canicas tendran que ordenarse
espontneamente en azules, amarillas y rojas, segn el orden de las divisiones. Esto no ocurrir.
El proceso que efectuamos con nuestra caja de canicas fue un proceso no reversible, en donde una vez
terminado, el orden que haba en las condiciones iniciales del sistema ya nunca volver a establecerse. El
estudio de este tipo de procesos es importante porque en la naturaleza todos los procesos son irreversibles.
La entropa y la energa "gastada".
En el principio enunciado por Clausius que anteriormente citamos, podemos encontrar la relacin con la
entropa y la energa liberada en un proceso. Pensemos en un motor. El motor necesita de una fuente de
energa para poder convertirla en trabajo. Si pensamos en un coche, la gasolina, junto con el sistema de
chispa del motor, proporciona la energa (qumica) de combustin, capaz de hacer que el auto se mueva.
qu tiene que ver la entropa aqu?
La energa que el coche "utiliz" para realizar trabajo y moverse, se "gast", es decir, es energa liberada
mediante un proceso qumico que ya no es utilizable para que un motor produzca trabajo.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 35

Este es uno de los conceptos ms difciles de entender de la entropa, pues requiere un conocimiento un poco
menos trivial del funcionamiento de motores, frigorficos y el ciclo de Carnot. Pero para nuestros fines con esta
explicacin es suficiente.
Para qu sirve la entropa?
La entropa, como medida del grado de restriccin o como medida del desorden de un sistema, o bien
en ingeniera, como concepto auxiliar en los problemas del rendimiento energtico de las mquinas, es una de
las variables termodinmicas ms importantes. Su relacin con la teora del caos le abre un nuevo campo de
estudio e investigacin a este tan "manoseado" concepto.

Leer ms: http://www.monografias.com/trabajos/termoyentropia/termoyentropia.shtml#ixzz3GSUXI3TI

Tercer principio de la termodinmica


El tercer principio de la termodinmica o tercera ley de la termodinmica, ms
adecuadamente Postulado de Nernst afirma que no se puede alcanzar el cero absoluto en
un nmero finito de etapas. Sucintamente, puede definirse como:

al llegar al cero absoluto, 0 K, cualquier proceso de un sistema fsico se detiene.

al llegar al cero absoluto la entropa alcanza un valor mnimo y constante.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 36

Historia

La tercera ley fue desarrollada por el qumico Walther Nernst durante los aos 1906-1912, por
lo que se refiere a menudo como el teorema de Nernst o postulado de Nernst. La tercera
ley de la termodinmica dice que la entropa de un sistema en el cero absoluto es una
constante definida. Esto se debe a que un sistema a temperatura cero existe en su estado
fundamental, por lo que su entropa est determinada slo por la degeneracin del estado
fundamental . En 1912 Nernst estableci la ley as: Es imposible por cualquier procedimiento
alcanzar la isoterma T = 0 en un nmero finito de pasos1 Una versin alternativa de la tercera
ley segn lo establecido por Gilbert N. Lewis y Merle Randall en 1923:
(Si la entropa de cada elemento en algun (perfecto) estado cristalins tomarse cero en el cero absoluto de
temperatura, cada sustancia tiene una entropa finita y positiva; pero en el cero absoluto de temperatura, la entropa
puede llegar a ser cero, y eso lo hace convertirse en el caso de una sustancia cristalina perfecta.)

Esta versin manifiesta no slo que S llegar a cero en el 0 K, si no que S mismo tambin
llegar a cero siempre que el cristal tenga un estado fundamental con una sola configuracin.
Algunos cristales forman defectos que provocan una entropa residual. Esta entropa residual
desaparece cuando se superan las barreras cinticas a la transicin a un estado fundamental. 2
Con el desarrollo de la mecnica estadstica, la tercera ley de la termodinmica (como las
otras leyes) pas de ser una ley fundamental (justificada por experimentos) a una
ley derivada (derivada de leyes an ms bsicas). La ley bsica de la que deriva
principalmente es la definicin estadstico-mecnica de la entropa de un sistema grande:

donde:

S es la entropa,

kB es la constante de Boltzmann, y

es el nmero de microestados consistentes con la configuracin macroscpica.

El recuento de estados es desde el estado de referencia del cero absoluto, que corresponde a
la entropa de S0..

Descripcin
FISICOQUMICA: Entropa y 3 ley de termodinmica
Pgina 37

En trminos simples, la tercera ley3 indica que la entropa de una sustancia pura y cristalina en
el cero absoluto es nula. Por consiguiente, la tercera ley provee de un punto de referencia
absoluto para la determinacin de la entropa. La entropa relativa a este punto es la entropa
absoluta.
Un caso especial se produce en los sistemas con un nico estado fundamental, como
una estructura cristalina. La entropa de un cristal perfecto definida por elteorema de Nernst es
cero (dado que el
). Sin embargo, esto desestima el hecho de que los cristales
reales deben crecer en una temperatura finita y poseer una concentracin de equilibrio por
defecto. Cuando se enfran generalmente son incapaces de alcanzar la perfeccin completa.
Esto, por supuesto, se mantiene en la lnea de que la entropa tiende siempre a aumentar
dado que ningn proceso real es reversible.
Otra aplicacin de la tercera ley es con respecto al momento magntico de un material. Los
metales paramagnticos (con un momento aleatorio) se ordenarn a medida de que la
temperatura se acerque a 0 K. Se podran ordenar de manera ferromagntica (todos los
momentos paralelos los unos a los otros) o de manera antiferromagntica.

Tercera Ley de la Termodinamica


y Ley Cero de la Termodinamica
Adems de la primera y segunda leyes de la termodinmica, existen la leycero
y la tercera ley de la termodinmica.

Ley Cero de la Termodinmica (de Equilibrio):


"Si dos objetos A y B estn por separado en equilibrio trmico con un tercer
objeto C, entonces los objetos A y B estn en equilibrio trmico entre s".
Como consecuencia de esta ley se puede afirmar que dos objetos en equilibrio
trmico entre s estn a la misma temperatura y que si tienen temperaturas
diferentes, no se encuentran en equilibrio trmico entre s.
Tercera Ley de la Termodinmica.
La tercera ley tiene varios enunciados equivalentes:
"No se puede llegar al cero absoluto mediante una serie finita de procesos"
Es el calor que entra desde el "mundo exterior" lo que impide que en los
experimentos se alcancen temperaturas ms bajas. El cero absoluto es la

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 38

temperatura terica ms baja posible y se caracteriza por la total ausencia de


calor. Es la temperatura a la cual cesa el movimiento de las partculas. El cero
absoluto (0 K) corresponde aproximadamente a la temperatura de - 273,16C.
Nunca se ha alcanzado tal temperatura y la termodinmica asegura que es
inalcanzable.
"La entropa de cualquier sustancia pura en equilibrio termodinmico tiende a
cero a medida que la temperatura tiende a cero".
"La primera y la segunda ley de la termodinmica se pueden aplicar hasta el
lmite del cero absoluto, siempre y cuando en este lmite las variaciones de
entropa sean nulas para todo proceso reversible".

Tercera pagina
TERCER PRINCIPIO DE LA TERMODINAMICA
El segundo principio sugiere la existencia de una escala de temperatura absoluta con un cero absoluto
de temperatura. El tercer principio de la termodinmica afirma que el cero absoluto no puede
alcanzarse por ningn procedimiento que conste de un nmero finito de pasos. Es posible acercarse
indefinidamente al cero absoluto, pero nunca se puede llegar a l. En el cero absoluto el sistema tiene
la mnima energa posible(cintica ms potencial).

Cero absoluto
Es la menor temperatura tericamente posible. El cero absoluto corresponde a -273,15 C, o cero en la
escala termodinmica o Kelvin (0 K).
El concepto de un cero absoluto de temperatura surgi por vez primera en relacin con experimentos
con gases; cuando se enfra un gas sin variar su volumen, su presin decrece con la temperatura.
Aunque este experimento no puede realizarse ms all del punto de condensacin del gas, la grfica de
los valores experimentales de presin frente a temperatura se puede extrapolar hasta presin nula. La
temperatura a la cual la presin sera cero es el cero absoluto de temperatura. Posteriormente se
demostr que este concepto deducido experimentalmente era consistente con las definiciones tericas
del cero absoluto.
Los tomos y molculas de un objeto en el cero absoluto tendran el menor movimiento posible. No
estaran completamente en reposo, pero no podran perder ms energa de movimiento, con lo que no
podran transferir calor a otro objeto.
Segn la tercera ley de la termodinmica, la entropa (o desorden) de un cristal puro sera nula en el
cero absoluto; esto tiene una importancia considerable en el anlisis de reacciones qumicas y en la
fsica cuntica. Los materiales presentan propiedades extraas cuando se enfran a temperaturas muy
bajas. Algunos pierden por completo su resistencia elctrica.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 39

No se puede llegar fsicamente al cero absoluto,pero es posible acercarse todo lo que se quiera. Para
alcanzar temperaturas muy fras, o criognicas, se necesitan procedimientos especiales. El helio
lquido, que tiene un punto de ebullicin normal de 4,2 K (-268,9 C), puede obtenerse mediante
criostatos, unos recipientes extremadamente bien aislados. Si este helio se evapora a presin reducida,
se pueden alcanzar temperaturas de hasta 0,7 K. Para temperaturas ms bajas es necesario recurrir a
la magnetizacin y desmagnetizacin sucesiva de sustancias paramagnticas (poco magnetizables),
como el alumbre de cromo. Este mtodo, emplea un campo magntico que alinea los espines
electrnicos del material, que se enfra en un bao de helio lquido. Cuando se elimina el campo
magntico, los espines vuelven a adoptar una orientacin aleatoria, lo que reduce la energa trmica del
material y por tanto su temperatura. Con la desmagnetizacin de sales paramagnticas se han
alcanzado temperaturas de slo 0,002 K, y la desmagnetizacin de ncleos atmicos ha permitido
obtener temperaturas de slo 0,00001 K.
La medida de las temperaturas en valores cercanos al cero absoluto presenta problemas especiales.
Los termmetros de gas slo pueden usarse por encima del punto de condensacin del helio. A
temperaturas ms bajas hay que usar medidas elctricas y magnticas para determinar la temperatura
real.
El concepto de cero absoluto tambin es importante desde el punto de vista terico. Segn la tercera
ley de la termodinmica, la entropa - o desorden - de un cristal puro sera nula en el cero absoluto; esto
tiene una importancia considerable en el anlisis de reacciones qumicas y en la fsica cuntica. Los
materiales presentan propiedades extraas cuando se enfran a temperaturas muy bajas. Algunos
pierden por completo su resistencia elctrica. Este efecto se observ por primera vez en el mercurio a
unos pocos grados por encima del cero absoluto, pero se estn obteniendo a temperaturas cada vez
ms altas con nuevos materiales.
Criogenia
Estudio y utilizacin de materiales a temperaturas muy bajas. No se ha acordado un lmite superior para
las temperaturas criognicas, pero ha sugerido que se aplique el trmino de criogenia para todas las
temperaturas inferiores a -150 C (123 K). Algunos cientficos consideran el punto de ebullicin normal
del oxgeno (-183 C) como lmite superior. Las temperaturas criognicas se obtienen por la
evaporacin rpida de lquidos voltiles o por la expansin de gases confinados a presiones de entre
150 a 200 atmsferas. La expansin puede ser simple, es decir, a travs de una vlvula que comunica
con una regin de menor presin, o tener lugar en el cilindro de un motor alternativo, donde el gas
impulsa el pistn del motor. El segundo mtodo es ms eficiente, pero tambin es ms difcil de aplicar.
Humphry Davy y Faraday generaron gases calentado una mezcla adecuada en un extremo de un tubo
estanco con forma de V invertida. El otro extremo se mantena en una mezcla de hielo y sal para
enfriarlo. La combinacin de temperaturas reducidas y altas presiones haca que el gas generado se
licuara. Al abrir el tubo, el lquido se evaporaba rpidamente y se enfriaba hasta su punto de ebullicin
normal. Evaporando a bajas presiones dixido de carbono slido mezclado con ter, Faraday lleg a
lograr una temperatura de aproximadamente 163 K (-110 C).
Si un gas a temperatura moderada se expande a travs de una vlvula, su temperatura aumenta. Pero
si su temperatura inicial est por debajo de la llamada temperatura de inversin, la expansin provoca
una reduccin de temperatura: es lo que se llama efecto Joule-Thomson. Las temperaturas de inversin
del hidrgeno y el helio, dos gases criognicos fundamentales, son extremadamente bajas, y para
lograr una reduccin de temperatura por expansin,deben enfriarse primero por debajo de sus
temperaturas de inversin: el hidrgeno mediante aire lquido y el helio mediante hidrgeno lquido.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 40

Generalmente, este mtodo no logra la licuefaccin de gases en un solo paso, pero encadenando los
efectos en cascada Cailletet y Pictet, de forma independiente, lograron producir algunas gotas de
oxgeno lquido. El xito de estos investigadores marc el final del concepto de gases permanentes, y
estableci la posibilidad de licuar cualquier gas mediante una compresin moderada a temperaturas
inferiores a la temperatura de inversin.
El fsico Onnes mont la primera planta de produccin de aire lquido, utilizando el principio de cascada.
Con el paso de los aos, distintos investigadores desarrollaron diversas mejoras del proceso. El
qumico Dewar fue el primero en licuar el hidrgeno, y Onnes hizo lo propio con el helio, el gas ms
difcil de licuar. Uno de los retos ha seguido siendo mejorar la eficiencia haciendo que el gas
refrigerante opere en un motor alternativo o una turbina. Fueron notables los trabajos del Kapitsa y
Collins. Un licuador de helio basado en el diseo de Collins ha hecho posible que muchos laboratorios
no especializados puedan realizar experimentos en el punto de ebullicin normal del helio, 4,2 K (-268,9
C).
Desmagnetizacin adiabtica
La evaporacin de helio lquido a presin reducida produce temperaturas de hasta 0,7 K (-272,45 C).
Es posible alcanzar temperaturas an menores mediante la desmagnetizacin adiabtica. En este
proceso se establece un campo magntico en torno a una sustancia paramagntica mantenida en helio
lquido para enfriarla. El campo alinea los espines electrnicos; al desconectarlo, los espines recuperan
su orientacin aleatoria, con lo que reducen la energa trmica de toda la muestra. Con ello se logra
que la temperatura baje hasta niveles de slo 0,002 K. Del mismo modo, el alineamiento de los espines
nucleares seguido de la desconexin del campo magntico ha producido temperaturas cercanas a
0,00001 K.
Los frascos Dewar o termos han demostrado su utilidad para almacenar lquidos a temperaturas
criognicas. Estos recipientes estn formados por dos frascos, uno dentro de otro, separados por un
espacio en que se ha hecho el vaco. El exterior del frasco interno y el interior del frasco externo estn
recubiertos de una capa reflectante para evitar que el calor atraviese el vaco por radiacin. Las
sustancias ms fras que el aire lquido no pueden manejarse en frascos Dewar abiertos, porque el aire
se condensara sobre la muestra o formara un tapn slido que impedira la salida de los vapores
liberados; stos se acumularan y terminaran por romper el recipiente.
La medida de temperaturas en la zona criognica presenta dificultades. Un procedimiento consiste en
medir la presin de una cantidad conocida de hidrgeno o helio, pero este mtodo falla en las
temperaturas ms bajas. El empleo de la presin de vapor del helio 4, es decir, helio de masa atmica
4, o del helio 3 (masa atmica 3), mejora el procedimiento anterior. La determinacin de la resistencia
elctrica o las propiedades magnticas de metales o semiconductores ampla an ms la escala de
temperaturas medibles.
Cambio de propiedades
A temperaturas criognicas, muchos materiales se comportan de forma desconocida en condiciones
normales. El mercurio se solidifica y la goma se hace tan quebradiza como el vidrio. El calor especfico
de los gases y los slidos disminuye en una forma que confirma las predicciones de la teora cuntica.
La resistencia elctrica de muchos metales y metaloides (aunque no de todos) cae bruscamente hasta
cero a temperaturas de unos pocos kelvins. Si se introduce una corriente elctrica en un anillo metlico
enfriado hasta hacerlo semiconductor, la corriente sigue circulando por el anillo y puede ser detectada
horas despus. La capacidad de un material semiconductor para mantener una corriente ha permitido

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 41

disear mdulos experimentales de memoria de ordenador que funcionan a estas temperaturas bajas.
No obstante, las computadoras superrefrigeradas an no resultan prcticas, incluso con el
descubrimiento de materiales que presentan superconductividad a temperaturas algo mayores que las
del helio lquido.
El comportamiento del helio 4 a bajas temperaturas es sorprendente en dos aspectos. En primer
lugar,permanece lquido incluso despus de un enfriamiento extremo. Para solidificar el helio 4 es
necesario someter el lquido a una presin superior a 25 atmsferas. Adems, el helio 4 lquido alcanza
un estado de superfluidez a temperaturas por debajo de 2,17 K (-270,98 C). En este estado, su
viscosidad parece ser casi nula. Forma una pelcula en la superficie del recipiente, por donde fluye sin
resistencia. El helio 3 tambin presenta superfluidez, pero slo a temperaturas inferiores a 0,00093 K.
Aplicaciones
Entre las muchas aplicaciones industriales importantes de la criogenia est la produccin a gran escala
de oxgeno y nitrgeno a partir del aire. El oxgeno tiene muchos usos: por ejemplo, en motores de
cohetes, en los altos hornos, en sopletes de corte y soldadura o para hacer posible la respiracin en
naves espaciales y submarinos. El nitrgeno se emplea en la produccin de amonaco para fertilizantes
o en la preparacin de alimentos congelados que se enfran con suficiente rapidez para impedir que se
destruyan los tejidos celulares. Se usa tambin como refrigerante y para el transporte de alimentos
congelados.
La criogenia ha hecho posible el transporte comercial de gas natural licuado. Sin la criogenia, la
investigacin nuclear carecera de hidrgeno y helio lquidos para los detectores de partculas y para los
potentes electroimanes necesarios en los grandes aceleradores de partculas. Estos imanes tambin se
emplean en la investigacin de fusin nuclear. Algunos dispositivos infrarrojos, mseres y lseres
tambin requieren temperaturas criognicas.
La ciruga criognica o criociruga se emplea en el tratamiento de la enfermedad de Parkinson: se
destruye tejido selectivamente congelndolo con una pequea sonda criognica. Una tcnica similar
tambin se ha empleado para destruir tumores cerebrales y detener el avance del cncer de cuello de
tero.
Fundamentos microscpicos de la termodinmica
El descubrimiento de que toda la materia est formada por molculas proporcion una base
microscpica para la termodinmica. Un sistema termodinmico formado por una sustancia pura puede
describirse como un conjunto de molculas iguales, cada una de las cuales tiene un movimiento
individual que puede describirse con variables mecnicas como la velocidad o el momento lineal. En
ese caso, debera ser posible, al menos en principio, calcular las propiedades colectivas del sistema
resolviendo las ecuaciones del movimiento de las molculas. En ese sentido, la termodinmica podra
considerarse como una simple aplicacin de las leyes de la mecnica al sistema microscpico.
Los objetos de dimensiones normales, a escala humana, contienen cantidades inmensas de molculas
(segn el Avogadro del orden de 1024). Suponiendo que las molculas fueran esfricas, haran falta tres
variables para describir la posicin de cada una y otras tres para describir su velocidad. Describir as un
sistema macroscpico sera una tarea que no podra realizar ni siquiera la mayor computadora
moderna. Adems, una solucin completa de esas ecuaciones nos dira dnde est cada molcula y
qu est haciendo en cada momento. Una cantidad tan enorme de informacin resultara demasiado
detallada para ser til y demasiado fugaz para ser importante.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 42

Por ello se disearon mtodos estadsticos para obtener los valores medios de las variables mecnicas
de las molculas de un sistema y deducir de ellos las caractersticas generales del sistema. Estas
caractersticas generales resultan ser precisamente las variables termodinmicas macroscpicas. El
tratamiento estadstico de la mecnica molecular se denomina mecnica estadstica, y proporciona a la
termodinmica una base mecnica.
Desde la perspectiva estadstica, la temperatura representa una medida de la energa cintica media de
las molculas de un sistema. El incremento de la temperatura refleja un aumento en la intensidad del
movimiento molecular. Cuando dos sistemas estn en contacto, se transfiere energa entre sus
molculas como resultado de las colisiones. Esta transferencia contina hasta que se alcance la
uniformidad en sentido estadstico, que corresponde al equilibrio trmico. La energa cintica de las
molculas tambin corresponde al calor, y, junto con la energa potencial relacionada con las
interacciones entre las molculas, constituye la energa interna de un sistema.
La ley de la conservacin de la energa se transforma en el primer principio de la termodinmica, y el
concepto de entropa corresponde a la magnitud del desorden a escala molecular. Suponiendo que
todas las combinaciones de movimientos moleculares son igual de probables, la termodinmica
demuestra que cuanto ms desordenado sea el estado de un sistema aislado, existen ms
combinaciones que pueden dar lugar a ese estado, por lo que ocurrir con una frecuencia mayor. La
probabilidad de que se produzca el estado ms desordenado es abrumadoramente mayor que la de
cualquier otro estado. Esta probabilidad proporciona una base estadstica para definir el estado de
equilibrio y la entropa.
Por ltimo, la temperatura puede disminuirse retirando energa de un sistema, es decir, reduciendo la
intensidad del movimiento molecular. El cero absoluto corresponde al estado de un sistema en el que
todos sus componentes estn en reposo. Sin embargo, este concepto pertenece a la fsica clsica.
Segn la mecnica cuntica,incluso en el cero absoluto existe un movimiento molecular residual. Un
anlisis de la base estadstica del tercer principio se saldra de los lmites de esta discusin.

FISICOQUMICA: Entropa y 3 ley de termodinmica


Pgina 43

Potrebbero piacerti anche