Sei sulla pagina 1di 10

Por definición, el equilibrio se logra cuando los parámetros relevantes dejan de

variar con el tiempo.

Si un mamífero muere en un ambiente fresco y seco, su cuerpo, inicialmente más


cálido que su entorno, gradualmente llega al equilibrio térmico con ellos.

En una escala de tiempo mucho más larga, su contenido de agua cae a varios por
ciento: se está acercando al equilibrio hidráulico.

Por lo general, dos células adyacentes están extremadamente cercanas tanto al


equilibrio térmico como al equilibrio hidráulico debido a su proximidad: si hubiera
una diferencia de temperatura en la pequeña distancia entre ellas, el calor
generalmente fluiría rápidamente del más caliente al más frío.

De manera similar, el agua generalmente puede salir y entrar a las células con
relativa rapidez, debido a la permeabilidad de las membranas al agua. Por lo tanto,
si las celdas están cerca, la difusión de agua, en la fase líquida o de vapor, puede
permitir un acercamiento rápido al equilibrio hidráulico.

En un sistema en estado estable, la energía y / o la materia ingresan al sistema y


salen del sistema a la misma velocidad. La energía puede salir en una forma
diferente o a una temperatura diferente.

Por ejemplo, una parte de la piel humana se aproxima al estado estable con
respecto a algunas variables: está perdiendo calor por radiación y evaporación, pero
está recibiendo calor por conducción desde el tejido subcutáneo y el flujo de sangre;
pierde agua y algunos volátiles por evaporación, pero los recibe a través del flujo a
granel, difusión y permeación.

En estado estacionario, la mayoría de los parámetros del sistema no cambian con


el tiempo. El estado estable es una aproximación más obvia a los comportamientos
que interesan a los biólogos, aunque no incluye características tan importantes
como el crecimiento.

El mantenimiento de un estado estable requiere un rendimiento continuo de energía,


que se esquematiza en la Figura 1. Elimine la fuente o el sumidero de energía, y el
sistema viviente llega al equilibrio: muere.

Como la materia, la luz no es infinitamente divisible. La luz de un color dado (y, por
lo tanto, dada la frecuencia y la longitud de onda) tiene una cantidad o cantidad
mínima de energía. Esto es transmitido por un fotón. Se puede imaginar un fotón
como un "paquete de energía" mínimo, mientras está en tránsito como luz. La
energía de un fotón es hc / l, donde h es la constante de Planck, c es la velocidad
de la luz y l es la longitud de onda.

La cantidad de energía de la luz visible (y especialmente la ultravioleta) es


comparable con la separación de los niveles de energía cuantificados de electrones
en átomos y moléculas. Los fotones con esta energía pueden activar muchas
reacciones químicas directamente, como en la fotosíntesis y la visión.

La energía cuántica de la radiación infrarroja de un cuerpo a 300 K ( 10 kJ por mol)


es comparable con las energías cinéticas típicas de las moléculas debido a su
movimiento térmico. Esta energía generalmente solo puede activar una reacción
indirectamente: las reacciones que ocurren a temperaturas de 300 K se activan
por el movimiento térmico de las moléculas, pero, como veremos, generalmente es
solo una pequeña proporción de moléculas, que tienen más de La energía
promedio, que produce la reacción.

Esta diferencia entre la energía químicamente "útil" (luz o UV) y la energía "residual"
(calor infrarrojo) puede cuantificarse utilizando el concepto de entropía.

Cuando se transfiere una cantidad de calor DQ a la temperatura T, el sistema que


obtiene el calor aumenta su entropía en DQ / T.

Así, la luz solar (que tiene, más o menos, una temperatura de radiación de 6000
K) es radiación con baja entropía. Un julio de radiación térmica de la superficie de
un organismo a 300K ( 20 veces más frío) transmite 20 veces más entropía que
un julio de radiación solar.

Este tema es común en biología: la energía se adquiere de fuentes de baja entropía


y se utiliza en una variedad de mecanismos bioquímicos, fisiológicos y ecológicos
diferentes. En última instancia, la energía se pierde en un "sumidero" para obtener
energía a baja temperatura y, en consecuencia, entropía alta. La termodinámica
tradicional analiza las máquinas térmicas (como las turbinas de vapor en las
centrales térmicas) que toman calor de la fuente de alta temperatura, convierten
parte de ella en trabajo y rechazan el resto como calor en el sumidero de baja
temperatura (la torre de enfriamiento) y generando entropía al hacerlo.

La biología de (la mayoría de) la biosfera depende, por lo tanto, no solo de la energía
del sol (una fuente en T 6000 K) sino también del sumidero de energía final, el
cielo nocturno (en 3 K). Ver Figura 1.

Una célula es, para nuestros propósitos, un objeto macroscópico. Contiene quizás
1014 moléculas, y podemos definir y medir parámetros tales como su temperatura,
la presión dentro de una vacuola, la tensión en una membrana, etc. Este es el
dominio de la termodinámica.

El poder de esta disciplina se deriva del hecho de que a menudo se puede aplicar
la termodinámica al comportamiento general de los sistemas sin conocer los detalles
moleculares
Para una sola molécula pequeña, por otro lado, la temperatura y la presión no están
bien definidas ni son medibles.

La disciplina complementaria de la mecánica estadística aplica las leyes de la física


a moléculas individuales, átomos y fotones y, al considerar el comportamiento
estadístico de grandes números, deduce el comportamiento de los sistemas
macroscópicos. Por lo tanto, relaciona la termodinámica con las leyes newtonianas
o de mecánica cuántica a nivel molecular.

De las células a la ultraestructura a las moléculas, pasamos de los puntos de vista


macroscópico a microscópico. Por ejemplo, el trabajo, la energía cinética y el calor
son formas de energía y, en el mundo macroscópico, se distinguen claramente. Esta
diferencia casi desaparece a nivel molecular.

Las leyes de la termodinámica se aplican a los sistemas macroscópicos.

La Ley Zeroth establece que si un sistema está en equilibrio térmico con un


segundo, y el segundo está en equilibrio térmico con un tercero, el primero y el
tercero están en equilibrio térmico.

Esta ley hace que la temperatura sea un concepto útil: la temperatura se define
como la cantidad que es igual en dos sistemas en equilibrio térmico.

La Primera Ley es la declaración de conservación de la energía a nivel


macroscópico y térmico

. Establece que la energía interna U de un sistema aumenta por la cantidad neta de


calor DQ que se le agrega y disminuye por la cantidad de trabajo DW que el sistema
realiza en su entorno: DU = DQ 2 DW, y que la energía interna de un sistema es
una función de sus parámetros físicos (es decir, es una función de estado).

La Segunda Ley establece que la entropía total generada por un proceso es mayor
o igual a cero. Es posible que la entropía de un sistema disminuya (por ejemplo, el
contenido de un refrigerador durante el enfriamiento), pero al hacerlo, la entropía de
los alrededores aumenta (el refrigerador calienta el aire en la cocina).

La Tercera Ley establece que ninguna serie finita de procesos puede alcanzar la
temperatura absoluta cero. (Son posibles declaraciones diferentes pero
equivalentes de la segunda y tercera ley).

Estas leyes se aplican a los sistemas macroscópicos, donde la entropía y la


temperatura tienen un significado claro, y donde el calor se distingue claramente de
otras formas de energía.

A nivel microscópico, pueden aplicarse a un gran número de moléculas de forma


estadística, pero no a moléculas individuales. Por ejemplo, la energía cinética de
una molécula pequeña es el calor. Si se acelera por la interacción con otra molécula,
¿se ha trabajado en ella o se le ha dado calor? Sin embargo, para una gran
colección de moléculas, el movimiento organizado colectivo (digamos una corriente
de aire) puede funcionar, mientras que el movimiento individual aleatorio (en un gas
estacionario caliente) puede suministrar calor.

La segunda ley puede expresarse así en términos moleculares: en promedio, los


sistemas pasan de estados improbables (estados que tienen un pequeño número
de configuraciones posibles) a estados probables (que tienen muchas
configuraciones posibles). Sin embargo, para cantidades muy pequeñas de
moléculas, lo improbable es posible. Si arrojas 10 monedas, ocasionalmente (0.1%
del tiempo) obtendrás 10 caras. Si pudieras lanzar 6 1023 monedas, nunca tirarías
6 1023 cabezas.

¿Cómo se distribuye la energía entre las moléculas? ¿Cómo se distribuyen las


moléculas en estados o regiones que tienen diferentes energías? ¿Cómo
comprometen los sistemas entre maximizar la entropía y minimizar la energía? (Las
distinciones entre energía interna, entalpía y energía libre se presentan más
adelante). En el equilibrio, la respuesta a estas preguntas generalmente viene dada
por la distribución de Boltzmann. Esta distribución, que se muestra en la Figura 2,
explica varios fenómenos importantes (equilibrio químico e iónico, velocidades de
reacción, presión osmótica y más). Puede verse como un compromiso o equilibrio
que involucra energía y entropía: un tema importante en la física celular y la
bioquímica. En el estado de mayor entropía, todas las moléculas o átomos se
distribuirían homogéneamente en el espacio. El estado de menor energía es
igualmente poco interesante para los biólogos: la biosfera consistiría en grandes
cristales de nitrógeno, oxígeno, hielo y otras sustancias. El equilibrio es un
compromiso entre los dos extremos. Como la entropía es calor (energía) dividida
por la temperatura, la entropía aparece multiplicada por T en las ecuaciones
relacionadas con el equilibrio (el producto que tiene unidades de energía). En
consecuencia, los efectos entrópicos tienden a dominar a altas temperaturas, es
decir, las moléculas se extienden para lograr el desorden molecular máximo. A baja
temperatura, minimizar la energía es más importante, por lo que las moléculas se
distribuyen más fuertemente en los estados de menor energía.

La figura 2 muestra que, a cualquier temperatura, las moléculas se concentran en


estados con baja energía. Un ejemplo familiar es la concentración de gas en la
atmósfera, donde la concentración es alta a nivel del suelo (energía potencial
gravitacional baja), y cae a medida que aumenta la altitud h. La energía potencial
gravitacional es Mgh por mol, donde g es la magnitud del campo gravitacional y M
es la masa molar. Si descuidamos la variación de temperatura, podemos derivar la
distribución de Boltzmann fácilmente en este caso. Si consideramos el elemento de
volumen con espesor dh y área A, la diferencia de presión dP que actúa sobre el
área A soporta el peso del elemento, entonces A dP 5 2 rgA dh, donde r es la
densidad del gas
Resolver la ecuación da P 5 P0 exp (2 Mgh / RT), y
la sustitución en la ecuación de estado da C 5 C0 exp (2 Mgh / RT). Por lo tanto, a
baja altitud, la energía potencial es baja, la concentración es alta y la entropía por
mol es baja, y viceversa a grandes altitudes.
Una concentración más alta, como veremos, implica una entropía más baja. La
distribución de Boltzmann da la proporción de moléculas en estados particulares en
función de la energía del estado. En muchos casos, esto corresponde a la
concentración c en una región con energía E (ecuaciones [1a, b]).

Aquí co o Co es la concentración de referencia a la que E 5 0. La relación se da en


dos formas. La ecuación [1a] se refiere a las moléculas, por lo que E es la energía
por molécula yk es la constante de Boltzmann. La ecuación [1b] se refiere a moles,
por lo que Em aquí es la energía por mol y R 5 NAk es la constante de gas, donde
NA es el número de Avogadro. La aplicación de esta ecuación es más amplia: para
cualquier región con una energía potencial dada, también proporciona la distribución
de moléculas entre estados con diferentes energías cinéticas (Landau y Lifschitz,
1969).

En un gas o una solución, la cantidad de moléculas en un estado que tiene una


energía dada también viene dada por la ecuación [1]: muy pocas moléculas tienen
una energía más de varias veces kT por molécula o RT por mol, que tienen los
valores de aproximadamente 4 10221 Jpermoleculeand2kJmol21 respectivamente
para temperaturas normales. Las personas que tratan o piensan en moléculas
tienden a usar la primera forma, y aquellos que piensan en cantidades
macroscópicas tienden a usar la última, por lo que es útil poder convertir entre ellas.
kT se llama energía térmica porque los diversos movimientos térmicos de las
moléculas tienen energías de este orden.

La Figura 2 también nos muestra que, a temperaturas más altas, la distribución varía
menos fuertemente con la energía. En el nivel molecular de explicación, la alta
temperatura corresponde a altos niveles promedio de energía molecular. Para
aumentar la energía promedio, menos moléculas tienen poca energía y más tienen
alta. Alternativamente, podríamos decir que la entropía se vuelve más importante a
temperaturas más altas. La entropía aumenta si las moléculas se distribuyen de
manera más uniforme entre las diferentes energías. A nivel macroscópico,
podríamos decir que la temperatura se eleva al poner calor, y que, por definición,
aumenta la entropía.

En algunos sistemas, la variación de concentración con energía puede incluir otros


términos, aunque el factor de Boltzmann, eqn [1], siempre está presente. En algunos
sistemas, el número de estados disponibles puede variar en función de la energía;
sin embargo, en tales sistemas el término de Boltzmann domina a altas energías.
En los sistemas concentrados hay otras complicaciones, que se analizan a
continuación en "Efectos osmóticos". En la mayoría de los textos sobre
termodinámica y química física, el factor de Boltzmann aparece a través del
potencial químico, que introduciremos más adelante en este desarrollo a nivel
molecular.
Las tasas de reacciones unidireccionales a menudo están determinadas por el
término de Boltzmann (siempre que el túnel cuántico sea insignificante). Si la
energía de activación de una reacción es E * en una dirección, la inspección de la
Figura 2 muestra que la proporción de moléculas que tienen más de esa energía es
proporcional a la porción sombreada del área bajo la curva. Cualitativamente, vemos
de inmediato por qué las velocidades de reacción aumentan a alta temperatura: más
moléculas (mayor área sombreada) tienen suficiente energía para reaccionar.
Cuantitativamente, la integración de E * a 1 da esta proporción como exp (2 E * /
kT). La velocidad de reacción hacia delante r es proporcional a este factor, así como
a otros, como la velocidad de colisión, la fracción que tiene la orientación adecuada,
etc. Tomar registros proporciona la ecuación [2].

Si solo se considera una dirección de una reacción y todos los demás efectos son
independientes de la temperatura, entonces la velocidad de reacción viene dada por
la ecuación [2], que es la ley de Arrhenius. Por lo tanto, la pendiente negativa de
una gráfica de A r rrhenius: una gráfica de ln (velocidad de reacción) vs 1 / T (en
kelvin) da la energía de activación dividida por k o R, sujeto a las advertencias
anteriores, es decir, una reacción unidireccional y ninguna otra efectos
dependientes de la temperatura. Las advertencias son importantes y rara vez se
satisfacen en biología. Por ejemplo, muchas enzimas se vuelven inactivas a
temperaturas muy bajas y muy altas, debido a procesos tales como
desnaturalización, desolomerización y encapsulación en hielo o soluciones
vitrificadas. Entonces, la pendiente de una gráfica típica de A rrhenius va de más
infinito a menos infinito en varias decenas de kelvins. Esto no implica que la energía
de activación sea infinita y / o negativa: más bien significa que la pendiente local de
dicha gráfica, dividida por k o R, generalmente debería llamarse una energía de
activación "aparente".

Además, es raro que una reacción proceda en una sola dirección. Si la


concentración de los productos de reacción es inicialmente cero, entonces la
velocidad de reacción inicial es la de la reacción directa. Si no se suministran o
eliminan reactivos o productos, la velocidad de la reacción inversa aumenta hasta
que se alcanza el equilibrio químico, cuando la velocidad de reacción neta es cero.
La aplicación del factor Boltzmann conduce a las ecuaciones de equilibrio químico,
que se analizan en el artículo Termodinámica en bioquímica.
Para hacer frente a los procesos químicos y bioquímicos, necesitamos un "sistema
de contabilidad" de energía que incluya la posibilidad de que una reacción implique
trabajar en el medio ambiente y / o recibir calor del medio ambiente. Para este
propósito, se introduce la entalpía y la energía libre de Gibbs.

La entalpía se define como H 5 U 1 PV, donde U es la energía interna, P es la


presión y V es el volumen molecular o molar. Esta cantidad aparece porque, bajo
condiciones usuales tales como presión constante (atmosférica u otra), los
volúmenes moleculares pueden cambiar durante los procesos bioquímicos. Un
cambio en el volumen DV a la presión P requiere el desempeño del trabajo P DV,
que es el trabajo requerido para alejar los alrededores para permitir la expansión
DV. En una reacción, la energía para este trabajo debe ser proporcionada por las
moléculas que reaccionan, por lo que un aumento en V del estado activado hará
que la reacción sea un poco más lenta, y un DV positivo de reacción conducirá a
una constante de equilibrio más pequeña. Por ejemplo, en el proceso de
evaporación del agua a presión atmosférica, un mol de agua líquida (0.018 L) se
expande para convertirse en un mol de vapor de agua ( 20-30 L, dependiendo de
la temperatura), por lo que el trabajo realizado en ' empujar la atmósfera fuera del
camino 'es 2–3 kJ mol 2 1. A presiones más bajas, se requiere menos trabajo y,
por lo tanto, la temperatura de ebullición es más baja.

Sin embargo, en los procesos bioquímicos a presión atmosférica que no involucran


la fase gaseosa, el valor de P DV generalmente es insignificante. Un cambio de
volumen molecular de un nanómetro cúbico (el volumen de treinta moléculas de
agua) sería muy grande en la mayoría de los contextos bioquímicos, pero aquí P
DV es solo 10 2 22 J por molécula, que es 40 veces más pequeño que kT, la
característica térmica Energía de las moléculas.

Los procesos bioquímicos a menudo ocurren a temperatura constante: esto significa


que el calor generado se transfiere a otros lugares (generalmente por conducción),
y que el calor absorbido en un proceso también se proporciona desde las regiones
vecinas. Para tales casos, es útil utilizar la energía libre de Gibbs, definida como
G5H2TS5U1PV2TS, donde S es la entropía. Ahora T DS es el calor ganado a
temperatura constante (ver arriba), por lo que la energía libre de Gibbs agrega a la
energía interna el trabajo realizado en los cambios de volumen y también el calor
que el proceso pierde en su entorno. En el espíritu de este artículo, sin embargo,
debemos explicar por qué G es la contabilidad de energía adecuada a nivel
molecular, donde desaparece la distinción entre calor y otra energía.

Para esto, necesitamos la definición microscópica de entropía de Boltzmann, S 5 k


ln w, donde w es el número de diferentes configuraciones posibles de un sistema.
Esta expresión da lugar a la idea de que la entropía cuantifica el desorden a nivel
molecular. Por ejemplo, cuando un sólido se derrite, pasa de un estado ordenado
(cada molécula en un lugar particular) a un estado en el que las moléculas pueden
moverse, por lo que el número de configuraciones posibles aumenta enormemente.
La entropía producida por la fusión de equilibrio es solo el calor latente dividido por
la temperatura. Para 1 g de hielo a 273 K, esto da 1.2 J K 2 1. Tenga en cuenta que
esto es un trastorno a nivel molecular: el trastorno macroscópico no es importante.
Si uno baraja un paquete de cartas inicialmente ordenado, la entropía asociada con
la secuencia desordenada es aproximadamente 3 2 10 2 21 J K 2 1. La entropía
producida por los músculos durante el barajado sería aproximadamente 1020 veces
mayor. Otro ejemplo para enfatizar la irrelevancia del orden macroscópico es
considerar el orden celular de un ser humano. Los procedimientos bioquímicos a
menudo comienzan dividiendo un tejido en células y luego mezclándolas o
"mezclándolas". Si tomáramos las "1014 células en un humano y las" barajáramos
", perderíamos no solo a una persona, sino también una gran cantidad de orden
macroscópico. Sin embargo, produciríamos una entropía de solo k ln (¡1014!) 54
10 2 8 J K 2 1, 30 millones de veces menor que la producida al derretir el cubo de
hielo de 1 g. Nuevamente, el calor del proceso de "mezcla" sería mucho mayor.

Entonces, ¿cómo afecta este trastorno molecular al equilibrio y cómo se relaciona


con la energía libre de Gibbs? Considere este ejemplo: si una reacción tiene (para
cada estado inicial) w estados activados diferentes, todos con energías
aproximadamente iguales, entonces, todo lo demás igual, la reacción es w veces
más probable. La velocidad de reacción sería proporcional a w exp (2 E * / kT) 5 exp
(ln w 2 E * / kT) 5 exp [2 (E * 2 TS) / kT]. Si incluimos la posibilidad de cambio de
volumen, E * 5 DU * 1 P término DV, y tenemos exp (2 G * / kT), donde G * es la
energía libre de activación.

Los iones cargados positivamente tienden a acumularse en regiones de bajo


potencial eléctrico F, donde su energía eléctrica es baja. La entropía, por otro lado,
tiende a distribuirlos con igual concentración en todas partes. Para un ion de carga
q, la energía potencial eléctrica es qF.

En el equilibrio, los iones positivos se acumulan preferentemente en regiones de


bajo potencial eléctrico, y viceversa. De la distribución de Boltzmann, c 5 c0 exp (2
qF / kT). (En términos molares, C 5 C0 exp (2 ZFF / RT), donde Z es la valencia y F
es la carga en un mol de iones monovalentes). Esto se llama ecuación de Nernst, y
generalmente se escribe tomando registros de ambos lados: ln (c / c0) 5 2 qF / kT
5 2 ZFF / RT. Tenga en cuenta que el voltaje característico kT / e 5 RT / F525 mV a
temperaturas normales, por lo que las diferencias de potencial biológico local son
típicamente de este orden.

Debido a que el citoplasma tiene un potencial eléctrico más bajo que la solución
externa, la concentración citoplasmática de iones Cl2 disminuye el equilibrio. Los
cationes permeables tienen una concentración citoplasmática mayor en el equilibrio,
como se muestra en la Figura 4. Sin embargo, tenga en cuenta que muchos iones
y otras moléculas cargadas no se equilibran a través de las membranas (en escalas
de tiempo ordinarias). Algunos no penetran (proteínas y otras moléculas grandes),
mientras que otros se mantienen continuamente en un estado de no equilibrio. El
potencial negativo en el citoplasma se mantiene en parte mediante "bombas", es
decir, mecanismos que, al gastar energía, producen un flujo de iones específicos en
una dirección particular.

De manera similar, en la vecindad de la superficie cargada negativamente de una


membrana o una macromolécula, la concentración de cationes en la solución es
mayor que en la solución a granel. Las superficies de muchas membranas están (en
promedio) cargadas negativamente, por lo que generalmente hay un exceso de
cationes y un agotamiento de aniones cerca de la membrana, como se muestra en
la Figura 5. Muchas macromoléculas tienen un pequeño exceso de carga negativa
y están rodeadas por Una región de concentración de iones perturbada de manera
similar.
La Figura 5 muestra la aproximación de campo media: la suposición de que la
distribución de un ion individual está determinada por la distribución promedio de
todos los demás iones. Localmente, esta es una simplificación severa: cerca de un
anión es más probable que encuentre un catión que otro anión, por lo que hay
correlaciones locales en la distribución. Estos son importantes en la interacción
eléctrica entre macromoléculas o membranas e incluso pueden conducir a
atracciones mediadas por contraiones entre macromoléculas con carga similar
(Grøn-bech-Jensen et al., 1997).

Las correlaciones locales en la distribución de iones también conducen a la


detección electrostática: las interacciones eléctricas son más débiles en solución de
lo que serían en agua pura porque los iones del signo opuesto (contraiones) tienden
a acumularse cerca de las cargas y detectar sus efectos. Además, los efectos
eléctricos en el agua pura son mucho más débiles de lo que serían en el vacío
porque las moléculas de agua son dipolares y tienen una tendencia a rotar, de modo
que la carga positiva en el lado del hidrógeno de la molécula y la carga negativa en
el lado del oxígeno actúan para reducir cualquier efecto eléctrico. Una vez más, la
entropía más alta produciría una orientación aleatoria de las moléculas de agua,
pero esto se ve comprometido porque la energía es menor en la disposición que se
acaba de describir. (Una forma empírica de describir este efecto para grandes
volúmenes es decir que el agua tiene una constante dieléctrica de aproximadamente
80: los efectos eléctricos en el agua son aproximadamente 80 veces más débiles
que los producidos por la misma distribución de carga en el vacío).

Una diferencia en la presión hidrostática produce una diferencia en la energía:


mover una molécula cuyo volumen molecular parcial es V desde una presión de
referencia de cero a una presión más alta P requiere una energía PV. Sustituyendo
esta energía en la distribución de Boltzmann (ecuación [1]) se obtiene la distribución
osmótica del equilibrio. Por lo general, nos preocupa el equilibrio del agua, porque
el agua impregna la mayoría de las barreras biológicas con mayor facilidad que la
mayoría de los solutos. Las presiones generalmente se miden con respecto a la
presión atmosférica.
La mayoría de las membranas son permeables al agua pero impermeables a las
macromoléculas, azúcares y algunos iones. (Algunas moléculas orgánicas
pequeñas, como el etanol y el dimetilsulfóxido, pasan con relativa facilidad a través
de las membranas, por lo que sus efectos osmóticos suelen ser transitorios). La
Figura 6 muestra una membrana semipermeable con agua pura a la izquierda y una
solución de un soluto impermeable a la derecha. Suponga que inicialmente la
presión en ambos lados es cero (Figura 6a). Notamos que los solutos no están en
equilibrio porque su concentración es más alta a la derecha, por lo que se difundirían
a la izquierda si no hubiera membrana.

Sin embargo, el equilibrio del soluto no nos interesa, porque la membrana


semipermeable impide que se logre. Sin embargo, el agua puede penetrar la
membrana. Además, el agua no está en equilibrio en esta situación, porque la
concentración de agua es más alta a la izquierda: si no hay diferencia de presión, el
agua pasará del agua pura a la izquierda a la solución a la derecha donde está el
agua, se podría decir, diluido por los solutos. Entonces, el agua se mueve a través
de la membrana desde el agua pura (baja concentración de soluto) hacia el lado
con mayor concentración de soluto. Si ponemos, por ejemplo, una célula sanguínea
de cualquier tipo en agua pura, el agua fluiría y la célula se expandiría hasta que
estallara la membrana. Si la membrana es soportada por algo más fuerte, como la
pared celular de una planta, la expansión continúa solo hasta que la tensión
mecánica en la pared sea lo suficientemente grande como para resistir una
diferencia sustancial en la presión hidrostática. El equilibrio hidráulico se logra
cuando la concentración más baja de agua en el lado de alta presión se equilibra
con la presión más alta y, por lo tanto, la mayor energía fotovoltaica en ese lado.
Las grandes diferencias de presión osmótica (típicamente 1 MPa o 10 atmósferas)
se encuentran comúnmente en las plantas, donde el agua está cerca del equilibrio
entre la solución extracelular (con bajas concentraciones de soluto) y la solución
intracelular mucho más concentrada. La pared celular de la planta resiste la
diferencia en la presión hidrostática (Slatyer, 1967). En las células animales, no
existe una estructura comparablemente fuerte, por lo que las diferencias de presión
hidrostática son mucho menores.

La semipermeabilidad de las membranas no es lo único que evita que los solutos y


el agua se mezclen por completo. Se evita que los solutos suficientemente grandes
entren en los espacios estrechos entre macromoléculas o membranas compactas.
Además, el centro de un gran soluto generalmente no puede acercarse más de
cerca de un radio desde una superficie ultraestructural (llamado efecto de volumen
excluido). Estos efectos complican las fuerzas osmóticas que actúan sobre
macromoléculas y membranas. Cuando las células se deshidratan por congelación
extracelular o secado al aire, los solutos altamente concentrados producen efectos
osmóticos extremadamente grandes. En estos casos, los estudios de los equilibrios
de fase muestran cómo las tensiones mecánicas y las tensiones asociadas con el
daño por congelación y deshidratación en las células pueden reducirse
sustancialmente por los efectos osmóticos (Wolfe y Bryant, 199)

Potrebbero piacerti anche