Sei sulla pagina 1di 93

1

I . I N T R O D U C C I Ó N

LA BELLEZA de un atardecer en el que las nubes se mezclan, cambian de forma y de color,


crecen o se desvanecen hasta quedar en nada, se multiplica y enriquece al descubrir los
diversos y complejos procesos que se conjugan para presentar el espectáculo. Lo mismo
sucede al observar las olas que llegan a una playa, el fuego en una hoguera o la corriente de un
río que, pareciendo no cambiar y repetirse siempre, nunca son iguales; ésta es parte de la
magia de un fluido. La seducción viene de todas partes: de las gotas de lluvia que se estrellan
en la superficie del agua, de las variadas franjas y manchas de colores que vemos en una
imagen de Júpiter, de las hileras de pequeñas burbujas ascendentes que parecen salir de ningún
lado en el seno de un vaso de cerveza, del caprichoso ascenso de una columna de humo, de las
maravillosas pompas de jabón y, observando con cuidado, de todo lo que está a nuestro
alrededor. Todas son manifestaciones de lo mismo: la dinámica de un fluido.

Los fluidos, como genéricamente llamamos a los líquidos y los gases, nos envuelven formando
parte esencial de nuestro medio ambiente. El agua y el aire son los más comunes y, como
punto de referencia, los mantendremos en mente como prototipos de un fluido. Su ubicuidad
les confiere su importancia.

La experiencia humana con los fluidos se remonta más allá de los tiempos históricos. El
manejo de los fluidos ha estado íntimamente ligado al desarrollo de la sociedad. No es de
sorprender entonces que desde los inicios de la civilización la imagen del Universo incluyera a
los fluidos como elementos primarios de su constitución; aire, agua, fuego y tierra son la
versión clásica y medieval de gas, líquido, plasma y sólido, o sucintamente, fluidos y sólidos.

Como en la más apasionante novela de misterio, en la que el lector es guiado con información
aparentemente disímbola y escasa, los investigadores a través del tiempo han ido recogiendo y
organizando datos sobre la naturaleza. La guía es el experimento y la imagen que se va
formando, como en un rompecabezas en tres dimensiones, es aún fragmentada; hay ciertas
piezas que embonan en grupos y algunos grupos de piezas que se ensamblan entre sí. El caso
de los fluidos, que siguen las mismas leyes de la mecánica que rige el movimiento de los
cuerpos celestes, es un ejemplo típico. Creemos tener casi todas unas unidas ya entre sí, otras
desperdigadas y a la espera de ser probadas. El reto de participar en el juego de comprender y
explicar los fenómenos conocidos, predecir nuevos o descubrir otros, sigue abierto. Es un
juego colectivo en el que los participantes, que somos todos, heredamos la experiencia de los
anteriores y, tras ampliarla, la turnamos a los que siguen aumentando las oportunidades. La
solución o soluciones posibles nos eluden hasta ahora, como lo hace el agua con nuestros
esfuerzos por retenerla en las manos, escurriéndosenos entre los dedos.

Completar nuestra descripción y comprensión del comportamiento de los fluidos es, además de
un fascinante juego, una imperiosa necesidad por manejar nuestro entorno. El aire y el agua
son parte esencial de la vida en la forma que la conocemos. El transporte marítimo y aéreo
depende de este conocimiento; también la agricultura, que no puede ya lograrse si sólo se
depende de un buen clima, sino de sistemas de riego, vastos y eficientes, que permitan
optimizar los recursos locales y suplir las deficiencias naturales. La predicción del clima y de
sus más violentas manifestaciones, como huracanes y tornados, es mucho más que una
curiosidad académica (aunque también lo es). Entender éstos y muchos otros problemas en los
que los fluidos participan como protagonistas principales, requiere de una labor creativa y de
un trabajo sistemático y sostenido. Los resultados los demanda la sociedad por razones
culturales, estéticas y, especialmente, prácticas.

2
Del inmenso proyecto general de la física nos ocuparemos de la parte que estudia los fluidos
desde el punto de vista macroscópico, es decir, como los percibimos en forma más o menos
directa a través de nuestros sentidos; la alusión a su estructura atómica será hecha
ocasionalmente y en forma lateral. La justificación de esta omisión será discutida más
adelante, aunque la conexión entre estos dos aspectos, uno macroscópico y continuo y el otro
microscópico y discreto, es de primordial importancia en cuanto al entendimiento último de un
fluido. Esta relación es el sujeto de estudio de la teoría cinética y de la mecánica estadística.
Dentro del enfoque macroscópico, el de la dinámica de fluidos, consideraremos sólo algunas
de las partes del rompecabezas de manera que pueda obtenerse un panorama sobre su
comportamiento usual. Si bien es cierto que, dentro de la teoría, los principios generales tienen
todos la misma jerarquía, también es cierto que unos son más útiles que otros para entender
algunos aspectos de su comportamiento. Este hecho se refleja en las formas y circunstancias en
que fueron formulados. Unos fueron intuidos y usados mucho antes de ser explícitamente
enunciados. Otros fueron formulados casi en la forma en que los conocemos ahora, sin haberse
apreciado su generalidad y sus consecuencias.

Siendo que a través del tiempo, los grandes matemáticos y físicos, salvo raras excepciones,
dedicaron parte de su vida a estudiar los fluidos, no deja de sorprender la falta de atención que
la historia de la ciencia ha puesto en la génesis y desarrollo de sus brillantes ideas, ingeniosos
diseños y espectaculares resultados; una de las excepciones es la excelente obra de Enzo Levi
(Levi, 1989). Gracias a los trabajos de aquellos pensadores, a quienes siempre se recuerda con
cierta nostalgia, gozamos de una visión panorámica del tema, aprendimos a plantear algunos
de los problemas y seguimos explorando los caminos por ellos señalados.

3
I I . ¿ Q U E S O N Y C Ó M O L O S
D E S C R I B I M O S ?

COMO en casi todas las novelas, todo resulta más comprensible si se comienza por aclarar de
qué se trata, sin echar a perder el final. Así, sería apropiado que, como con cualquier personaje
principal de una novela decente (cosa que el protagonista no tiene por qué serlo), tratemos de
construir su imagen, esbozar su carácter, describir sus pintorescas reacciones, sus variados
comportamientos y su lenguaje; en fin, de mencionar todos aquellos aspectos que lo hacen
sujeto de escritura y, se esperaría, de lectura.

Como se verá más adelante, el objetivo se logra sólo parcialmente. Resulta que nuestro
protagonista no es ni rubio ni moreno, ni alto ni bajo, ni lo uno o lo otro; simple y
sencillamente es difícil de acorralar con palabras y escurridizo para manejar. Es más, después
de que hablemos de su interesante estructura (digamos, sus raros órganos internos, sus
prominentes señas particulares, sus peculiaridades anatómicas y de algunas de sus
idiosincrasias y traumas infantiles), resultará que para algunos fines prácticos carece de
importancia. Es como si, tras describir minuciosamente el origen de una tormentosa secta a la
que pertenece el medio hermano de la heroína, ésta se cambiara de continente y pasara ahí el
resto de sus apasionados o bucólicos días, sin relación alguna con los inconfesables crímenes
de la susodicha secta. Aun así, un biógrafo meticuloso no dejaría pasar la oportunidad de
abordar el mórbido efecto que podría haber causado en su carácter o en sus ocasionales
delirios nocturnos.

Advertidos de lo que sigue, mejor es empezar por el principio y entrar en materia, es decir, en
fluidos.

II. 1. UNA INDEFINICIÓN PRECISA

La materia, es decir, todo lo que nos rodea y que percibimos a través de los sentidos, viene en
tres presentaciones aparentemente distintas y exclusivas: en sólido, en líquido o en gas. Una
observación más cuidadosa nos llevaría a pensar que esta clasificación es un tanto simplista y
que debiera ampliarse, o cuando menos subdividirse. Así, empezaríamos por organizar las
cosas según su textura, color, abundancia, rigidez, etc., hasta llegar al punto en el que cada
material quede ubicado y etiquetado correctamente en el nuevo y exhaustivo esquema así
elaborado. Este enfoque tendría sus ventajas, pues dada una sustancia con un nombre
debidamente asignado (como el piridotín-3-glutaciclina-6-fosfomentasa; le antepongo el
artículo "el" porque, de existir, debiera ser masculino), bastaría con buscar en el compendio,
por orden alfabético, para encontrar su descripción completa, tal vez una ilustración y las
referencias cruzadas a las otras sustancias que comparten una o más características.

En los términos arriba expuestos la tarea parece imposible, si no es que ridícula. Sin embargo,
es ésta una de las formas en que se ha procedido y los resultados son sorprendentes. Partiendo
de la hipótesis, posteriormente confirmada, de que todo está hecho de un conjunto reducido de
elementos básicos que al combinarse, bajo ciertas reglas y en diversas proporciones, da lugar a
la impresionante variedad que vemos, los investigadores se dieron a la tarea de aislarlos y
caracterizarlos. Ahora contamos ya con obras que resumen el final de esta tarea monumental,
considerada una quimera a mediados del siglo XIX, que en su forma más sucinta es la tabla
periódica de los elementos de Mendeleev. A pesar de la importancia fundamental de este
4
conocimiento, en cuanto a nuestra comprensión del Universo se refiere, la clasificación no es
suficiente para deducir las propiedades de los compuestos que estos elementos forman, ni
incluye todo lo que observamos (literalmente, la luz), ni explica cómo un material dado
responde y se comporta cuando permitimos a un agente externo influir sobre él. Esto último, el
comportamiento dinámico de la naturaleza, exige un tratamiento, un enfoque diferente, más
general, universal si es posible, que permita evitar el estudio detallado de cada material, lo que
haría del programa científico una tarea inaccesible.

Buscando características genéricas, comunes, y las razones para que éstas se manifiesten,
llegamos al estudio de la materia en sus diferentes estados de agregación (formas de
presentación), que en última instancia hemos reducido a sólidos y fluidos. Parecería ofensivo
el tener que explicar lo que es y lo que no es un sólido. Sin embargo, la separación no siempre
es evidente, cuando no inadecuada, al presentar un mismo material con facetas que lo
identifican como uno y otro, simultáneamente. Por un lado, a casi todos los compuestos los
podemos observar en estado gaseoso, líquido o sólido, como al agua; dependiendo de la
presión y temperatura a la que se encuentre, será vapor, agua o hielo. Es posible, y el proceso
no es nescesariamente complicado, que un gas pueda licuarse sin cambio abrupto en su
comportamiento, observándose una formación paulatina en el gas al ir haciéndose cada vez
más denso, hasta ser indistinguible de lo que consideramos líquido. Este hecho es el que nos
permite tratar a un mismo nivel, con los mismos criterios, es decir, en forma conjunta, a un gas
y a un líquido. Esto no sucede en el proceso de la solidificación de un fluido, o el proceso
inverso en el que un sólido se licua o evapora. Hay siempre un punto en el que ciertas
propiedades cambian radicalmente al aparecer las dos fases: una sólida y otra fluida, cada una
con propiedades ópticas, elásticas, etc., muy distintas.

Supóngase que tenemos un medio homogéneo, es decir, un material cuya composición y


propiedades son las mismas en cada parte que lo forma. En cuanto al estado físico en el que se
encuentra el sentido común (a veces muy poco común) nos dice que si su carácter es etéreo,
terso o escurridizo, el medio no es sólido. Si queremos mantenerlo entre las manos y escapa, se
trata de un fluido. Si el medio es sólido podemos retenerlo y es posible deformarlo hasta cierto
límite. Un fluido parece no presentar límite a las deformaciones que podemos imprimirle.
Estas ideas sueltas que forman parte de nuestra experiencia cotidiana son precisamente las
bases para definir a un fluido, si delimitamos un poco más los términos y conceptos incluidos.
Aún así, veremos que la naturaleza se las ingenia para exhibir ejemplos que escurren por
nuestras definiciones sin dejarse atrapar.

"Un fluido es un material que fluye". Así, además de risa, la definición no da más que pena y
sorprendería que pudiera servir para caracterizar a una sustancia. Ahora, hay que precisar lo
que es fluir. Para esto vamos a separar en dos a las formas en que actúa una fuerza, que
tampoco hemos definido, pero que puede entenderse como el efecto de un agente externo; con
buena voluntad y sentido común las cosas usualmente funcionan. Toda fuerza (representada
por la flecha en la figura II. 1), al actuar sobre una superficie, puede imaginarse formada de
dos partes, una normal o perpendicular a la superficie (N) y otra paralela o tangencial a ésta
(T). Cada una de éstas, llamadas componentes de la fuerza, tiene un efecto distinto sobre el
material. La componente normal es la que asociamos a la presión y tiende a comprimir o
estirar, dependiendo de la dirección de la fuerza. La componente tangencial produce un efecto
de deslizamiento relativo entre los planos en que imaginamos estructurado al medio y se le
llama también fuerza cortante.

5
Figura II. 1. Fuerza y su descomposición en componentes normal (N) y tangencial (T).

Para ilustrar esta descomposición de las direcciones y efectos de una fuerza consideremos el
siguiente ejemplo. Imaginemos una esponja, de forma regular y pegada a dos vidrios planos en
sus caras superior e inferior (Figura II. 2(a)). Si aplicamos una fuerza puramente normal a cada
uno de los vidrios (Figura II. 2(b)), la esponja se comprime, reduciendo su volumen pero
manteniendo su forma. Si ahora jalamos cada vidrio en dirección opuesta, de modo que la
separación entre ellos se mantenga constante, dando lugar a una fuerza de corte sobre la
esponja, ésta se deformará manteniendo su volumen (Figura II. 2(c)). Por lo general, una
fuerza con una dirección arbitraria produce una mezcla de ambos efectos, dependiendo de la
proporción entre su componente normal y su componente tangencial.

Figura II. 2. Esponja (a), fuerzas normales (b) y de corte (c).

Volviendo a nuestro problema original, consideremos un medio sujeto a fuerzas cortantes,


como la esponja en el caso (c). Un material que es sólido se deforma hasta cierto límite,
rearreglando sus elementos estructurales (átomos) hasta generar una fuerza igual en magnitud,
opuesta en dirección a la aplicada, y así quedar en equilibrio; en última instancia, los átomos
ligados entre sí por fuerzas de origen electromagnético se ven obligados a cambiar sus
posiciones relativas hasta balancear exactamente la fuerza aplicada. La deformación se detiene
en el preciso momento en que esto se logra. Decimos que un material es elástico si al retirar las
fuerzas aplicadas recupera su forma inicial. Le llamamos plástico si no recupera su estado
original y guarda cierta memoria de las fuerzas que sufrió. Una sustancia que bajo la acción de
una fuerza cortante, por pequeña que ésta sea, se deforma sin límite se dice que fluye. ¡Un
fluido es un material que fluye! Ahora ya no parece tan tautológica la definición. Así, el mar
bajo la acción del viento, que produce una fuerza cortante sobre su superficie, se deforma sin
límite, se mueve continuamente sin lograr frenar al viento por tenue que éste sea: la
deformación resultante es la que percibimos como oleaje, hipnotizando a unos y mareando a
otros.
6
Parecería que con esto se ha logrado clasificar a todas las sustancias en dos grandes grupos.
Sin embargo no es así, lo cual hace el punto más interesante. Hay sustancias que tienen un
comportamiento dual para las que nuestra definición es inadecuada o insuficiente. Es tal la
diversidad de sustancias que la tarea de completar y precisar una sola definición es inútil.

A las rarezas las tratamos en forma especial, en subgrupos, según las circunstancias.
Materiales tan familiares como el vidrio, la pintura y el pavimento pertenecen a esta clase
exótica de materiales. El vidrio, que se comporta como sólido cuando lo estudiamos en un
laboratorio (o cuando una pelota de béisbol es bateada en la dirección equivocada y va a dar
precisamente a...), resulta ser un fluido cuando los tiempos de observación son suficientemente
largos. Se puede ver en los emplomados de las viejas catedrales góticas que la parte inferior es
mucho más gruesa que la superior. La razón es que el vidrio ha fluido, por cientos de años bajo
la acción de la gravedad.

También hay sustancias que presentan comportamiento simultáneo de fluido y sólido. Su


tratamiento requiere de consideraciones particulares que caen en el área conocida como la
reología. Materiales de este tipo, con propiedades que genéricamente son llamadas
viscoelásticas, son por lo general soluciones con gran cantidad de partículas (polímeros)
disueltas en ellas. Casos típicos son las resinas, los plásticos, múltiples derivados del petróleo
y diversos tipos de champú (el aire de la ciudad de México parecería un buen candidato).

II. 2. LOS ÁTOMOS Y LA VENTAJA DE IGNORARLOS

La concepción atomística de la naturaleza, según la cual todas las cosas estan constituidas por
elementos indivisibles e inmutables, se remonta al origen de nuestra civilización. Si bien no es
sino hasta el siglo XVII que esta imagen adquiere carácter científico, al empezar a ser
fundamentada en la experimentación, es notable la semejanza que hay entre las ideas básicas
en sus primeras formas y las que hoy en día tenemos.

En la antigua Grecia es donde aparece no sólo la idea general del atomismo, sino las diversas
formas que éste adquiere. La existencia de los átomos y del vacío que los rodea, como una
necesidad en la explicación de la constitución del mundo, es planteada por razones filosóficas,
manteniendo este carácter hasta el renacimiento europeo.

Demócrito, en el siglo V, a. C., es sin duda el representante más importante del atomismo
griego. Para él, la naturaleza estaba formada de un número infinito de corpúsculos invisibles
por su tamaño, que diferían entre sí sólo en forma, dimensión y estado de movimiento.
Comparte con Parménides la idea de un Universo cualitativamente inmutable, pero difiere de
éste en cuanto al aspecto cuantitativo, pues atribuye los cambios a la multiplicidad de maneras
en que estos átomos se combinan, manteniendo su naturaleza. Así, un cambio aparente en
calidad podía ser entendido, al menos en principio, como una variación en la cantidad de
átomos que participaban en el proceso.

En la misma época, Empédocles propone la idea de un Universo formado de cuatro elementos


básicos, aire, agua, tierra y fuego, que al mezclarse en distintas proporciones generan la
inmensa variedad observada. Este modelo, que domina el panorama a todo lo largo de la Edad
Media, sin ser atomista en el sentido estricto, refleja la necesidad de reducir a componentes
primitivos a la naturaleza. Estas ideas, compartidas y desarrolladas por Platón un siglo más
tarde, y la concepción de su discípulo, Aristóteles, en torno a la desaparición de las partes al
formar un todo, impidieron el florecimiento y desarrollo del atomismo en la civilización
helénica.

7
Cuando Tito Lucrecio Caro escribe su poema De rerum natura (Sobre la naturaleza de las
cosas) en el siglo I, a. C., el atomismo griego es incorporado a la cultura latina, enriquecido
en el proceso por Epicuro, su defensor en el siglo III, a.C. Durante los siguientes diecisiete
siglos, crisol del renacimiento y etapa de gestación de los principios del conocimiento
experimental, las ideas filosóficas sobre este particular se mantienen casi invariables: la
materia no puede ser dividida sin límite y sus elementos constitutivos primitivos son
inmutables, incontables en número y finitos en su diversidad.

En las décadas alrededor de 1600, mientras Galileo Galilei y Francis Bacon establecen las
bases del método científico o experimental, Pierre Gassendi revive el atomismo clásico para
una época mas madura. Daniel Sennert y Robert Doyle, aceptando la idea atomista, le dan su
verdadera dimensión al buscar su contenido en la experimentación. Así, Boyle logra descartar
en forma definitiva el sobresimplificado esquema de los cuatro elementos. Un siglo más tarde,
Antoine Laurent de Lavoisier desarrolla la metodología del análisis químico y define en la
práctica a los elementos químicos. La generación que le sigue establece los fundamentos de la
teoría atómica moderna, con la obra de John Dalton, al identificar elementos químicos con
átomos y proponer las formas en que éstos se combinan para formar compuestos.

El atomismo griego, la teoría atómica de Dalton y la idea contemporánea sobre la constitución


de la materia, comparten suficientes rasgos como para considerarlos un mismo proceso animal
observado en su evolución a través del tiempo; cada etapa muestra los cambios indispensables
para alcanzar la madurez. Si bien los átomos, concebidos como constituyentes últimos de la
materia, han sido sustituidos por las partículas elementales, como el electrón y el neutrino, se
ha mantenido el atomismo que imaginara Demócrito. Por otro lado, se ha perdido el carácter
inmutable de aquellos átomos de Lucrecio y de Dalton; los nuevos átomos, en el verdadero
sentido etimológico del término, pueden combinarse para disolverse en luz (al reaccionar un
electrón con un positrón) o perder su identidad formando un todo (al combinarse un protón, un
electrón y un neutrino para formar un neutrón).

Esta búsqueda de la explicación última de la materia en términos de sus componentes más


simples ha sido, y es, un esfuerzo por alcanzar uno de los objetivos fundamentales de la física.
Creemos tener una idea bastante cercana y correcta sobre estos pequeños bloques universales
con los que se construye todo lo que observamos. Otro es el problema de cómo éstos se
combinan para formar átomos, éstos a su vez formar moléculas y éstas agruparse para
conformar un elote, o un insecto rayado que almacena miel en hexágonos o, lo que resulta más
sorprendente, dos mamíferos que se comunican entre sí, uno pinto que ladra, y otro bípedo que
lo cuida, circunnavega el planeta y se asombra de todo, hasta de su mismo asombro.

No deja de llamar la atención que lo que damos ya como un hecho, la existencia de los átomos,
sea en realidad algo que no se puede intuir fácilmente. Nuestros sentidos son incapaces de
percibirlos y lo que nos rodea parece consistir de objetos, sólidos y fluidos, de aspecto terso y
continuo. Es difícil imaginar que el humo de un cigarro esté formado de moléculas
relativamente complejas o que al aire que respiramos lo componen moléculas simples
separadas unas de otras millares de veces la distancia que caracteriza su tamaño. Para tener una
idea de las dimensiones atómicas tendríamos que imaginar todo amplificado, de manera que
por ejemplo una manzana fuese del tamaño de la Tierra. ¡Un átomo de la manzana sería
entonces del tamaño de una canica! Si toda esta concepción es cierta, y todo parece indicar que
así es, la tarea de explicar, por ejemplo, el movimiento del agua al salir de un tubo, en términos
de átomos, parece equivalente a tratar de construir la Torre de Babel.

El problema de estudiar el movimiento individual de miríadas de partículas para luego predecir


su comportamiento conjunto es algo que no tiene que ver con la física; en la práctica el
8
problema no puede ni plantearse, mucho menos resolverse. Sería necesario aplicar las leyes
básicas de los átomos, la mecánica cuántica, a cada partícula, y conocer detalladamente todas
las fuerzas que actúan sobre cada una, establecer sus posiciones en algún momento y, con las
matemáticas usuales, resolver simultáneamente el problema para todas.

En una gota de agua hay 100 000 000 000 000 000 (1017) moléculas de agua
aproximadamente, ¡tantas como segundos en la edad estimada del Universo!. Sería ridículo
intentar escribir las ecuaciones y patético pensar en resolverlas. Nos tomó siglos pasar de una
idea filosófica a una concreta que nos permite explicar suficientes cosas como para que su
validez esté, por lo pronto, más allá de toda duda razonable. Ahora resulta que el asunto es tan
complicado, que la idea es algo enteramente inútil (al menos para estudiar chorros de agua).

La solución de este problema se encuentra en la complejidad del mismo. Suena paradójico,


pero con un ejemplo podemos intuir el argumento que siguieron quienes contribuyeron a
esclarecer la solución.

Imaginemos un dado perfecto, cada arista de la misma longitud y cada ángulo de 90º.
Supongamos ahora que el dado se encuentra parado sobre un vértice, con el vértice
diametralmente opuesto sobre una línea vertical, y que nos preguntamos por la dirección en la
que va a caer al soltarlo (Figura II.3). Si el lado es perfectamente simétrico, ¡no cae! Se
quedará así mientras no sea perturbado. Una corriente de aire o una vibración, por
imperceptibles que sean, harán que caiga el dado.

Figura II. 3. Equilibrio de un dado.

Una pequeña variación trae como consecuencia un efecto grande: la caída del dado. Los
detalles de la perturbación son casi imposibles de prever y por consiguiente la posición precisa
del dado no se puede predecir. Las fuentes que originan estas pequeñas variaciones son
diversas, complicadas y difíciles de estimar. Un efecto es siempre el mismo: el dado se cae. Si
hacemos una serie de pruebas encontraremos que las direcciones en las que cae están
distribuidas sobre un círculo y que las caras que quedan hacia arriba son las tres opuestas al
vértice de abajo, apareciendo éstas con igual frecuencia, si el número de pruebas es
suficientemente grande. Así, del problema inicial, imposible de resolver, hemos podido
encontrar varios aspectos claros y precisos de la solución, quizá obvios o triviales en este caso,
9
pero que nos dicen cosas concretas sobre la caída. En primer lugar sabemos que cae; si
esperamos lo suficiente, algo o alguien llegará a importunar la delicada paz del dado. Segundo,
el dado no tiene preferencias y cae en cualquier dirección. En tercer lugar, hay tres caras que
se reparten por partes iguales el derecho de aparecer arriba.

Este ejemplo ilustra los puntos claves que permiten estudiar la dinámica de un fluido,
constituido de un número extraordinario de átomos.

Nuestro sistema, el dado y sus alrededores, todo lo que rodea y afecta al dado, siguen ciertas
leyes, las leyes de la mecánica. La aplicación de estas leyes resulta tan complicada que no
podemos resolver el problema en la forma originalmente planteada, es decir, predecir en
detalle el movimiento del sistema. Si cambiamos el enfoque buscando ahora una descripción
cualitativa, más general, es posible entonces responder en forma precisa algunos aspectos de la
caída de dados; aspectos de carácter más amplio que no dependen de los minuciosos y
abrumadores detalles del proceso. Para esto aceptamos a cambio describir el comportamiento
más probable o promedio del sistema, introduciendo un elemento esencialmente nuevo en
nuestra descripción: la probabilidad. Esta herramienta, una de las más poderosas que las
matemáticas han generado, es ahora un ingrediente fundamental en la física.

Podría pensarse que el precio de nuestra ignorancia o incapacidad es el de conformarse con


una descripción más burda, menos exacta, pero no es así. En realidad el problema inicial es
irrelevante y en el fondo ni siquiera interesa. Si en el ejemplo del dado pudiésemos resolver un
caso en particular, haciendo uso de todo lo que sabemos y una dosis de ingenio, tendríamos
precisamente eso, un caso especial. Una pequeña variación y el resultado sería muy distinto
(otra dirección y otra cara). Este efecto, en el que un pequeño cambio en el estado inicial
produce un resultado final radicalmente distinto, ha introducido más de una sorpresa en
nuestro estudio de la naturaleza. Esto es particularmente cierto con los fluidos. Mucho más
fructífera ha sido en cambio la búsqueda del comportamiento global, promedio y genérico de
un sistema.

No es raro escuchar que cuando se recurre al análisis estadístico o al uso de conceptos


probabilísticos es debido a nuestra incapacidad o ignorancia. Sin afirmar que esta posición es
ridícula, sí es sólo una parte de la historia; a veces irrelevante. Al promediar muchos detalles
se obtiene una descripción completa. En el caso de los gases no es necesario conocer muchos
de los detalles atómicos para conocer su temperatura, presión y volumen. Esto es característico
del sistema, ¡no de quien lo observa! En todo caso, la tarea del científico es la de explicar
cómo y por qué sucede esta maravillosa contracción de la información. Encontrar qué
cantidades o propiedades microscópicas son irrelevantes para predecir el comportamiento que
observamos es parte de la investigación en curso, si bien contamos con respuestas exquisitas e
indicaciones claras de cómo proceder en muchos casos.

La descripción macroscópica de un fluido, es decir, la definición de las cantidades que se usan


para caracterizar su estado y las leyes que determinan la variación temporal y espacial de éstas,
tiene su fundamento en el comportamiento (dinámica) de las partículas que lo forman. Esto
ocurre de tal manera que, al actuar en concierto, cada átomo o molécula pierde su identidad,
heredando algunas de sus características a cantidades genéricas o colectivas llamadas
coeficientes de transporte, como la viscosidad y la conductividad térmica. Estas etiquetan al
fluido, distinguiéndolo de otro de composición diferente.

La teoría que establece la conexión entre este mundo microscópico de átomos y moléculas y el
mundo de los fluidos, de chorros y remolinos, es un activo proyecto de investigación en
múltiples instituciones académicas en casi todos los países, en particular en México. En el caso

10
de fluidos poco densos, de los gases, la teoría fue construida por James Clerk Maxwell y
Ludwig Boltzmann a finales del siglo pasado y desarrollada a todo lo largo del presente siglo;
se conoce como la teoría cinética de los gases. El notable éxito logrado en el caso de los gases
confirma la viabilidad del programa que busca establecer esta conección en el caso de un
fluido arbitrario y fuera de equilibrio.

Desde un punto de vista más práctico, cualquier fluido como el agua o el aire forma una
estructura continua y suave al estudiarlo macroscópicamente, es decir en dimensiones mayores
a, digamos, décimas de milímetro (0.1 mm = 10-4 m). En un volumen de un cubo de 0.1 mm de
longitud por lado, de una millonésima de litro (10-12 m³), hay 7.34 x 10 15 (734 seguido de 13
ceros) moléculas de aire, a una temperatura de 27º C ¡y a presión atmosférica! En este
volumen, tan pequeño como parece, hay tal cantidad de moléculas que la presencia de unos
millones de más o de menos de éstas no afectan de manera apreciable ninguna cantidad
medible, aun con los instrumentos más precisos de que se dispone. Estos instrumentos miden
cantidades promedio sobre un desorbitado número de partículas, de manera independiente de
éste.

En una verdadera escala microscópica los átomos ocupan una fracción muy pequeña del
volumen que los contiene, el espacio vacío entre unos y otros ¡es mayor al 99.999... %!, de
modo que las propiedades del fluido son muy irregulares, cambiando rápidamente de una
región a otra debido al continuo movimiento de las moléculas; no usamos pues esta
microescala cuando lo que interesa es entender cómo se vacía un lavabo o se infla un globo.

La hipótesis básica, que es válida para la teoría en todos los niveles, es la llamada hipótesis del
continuo. Ésta consiste en suponer que todas las cantidades necesarias para caracterizar a un
fluido, como pueden ser su temperatura, su velocidad, su densidad, etc., están bien definidas en
cada punto del espacio y varían suavemente de uno a otro, ignorándose así la naturaleza
discreta, atómica, del fluido. Por un punto se sobreentiende entonces un volumen muy
pequeño, digamos una milésima del considerado en el párrafo anterior, en el que hay un
número tan grande de moléculas como para que el promedio de la velocidad no dependa de
este número, pero lo suficientemente pequeño como para que pueda verse como un punto por
los instrumentos más sensibles y finos.

A partir de ahora dejaremos de lado a los átomos, pues a pesar de su importancia hemos
encontrado la ventaja de ignorarlos. Nuestras partículas de fluido tendrán el sentido que dimos
a un punto en el fluido. A pesar de la advertencia, volveremos a los átomos en el último
capítulo, cuando nos dejemos sorprender por los superfluidos.

II. 3. APEROS: FRASCOS Y TUBOS, IDEAS, MATEMÁTICAS Y... FLUIDOS

El estudio de un fenómeno, o un grupo de ellos, se inicia con una serie de observaciones que
permiten apreciar cuáles son los aspectos más importantes, los que gobiernan el proceso. En el
fondo, lo que se busca es la forma de simplificar el análisis, aislando las causas que determinan
el efecto principal e ignorando aquellas que desempeñan un papel secundario. Establecer
cuáles cantidades y la forma en que éstas contribuyen es una parte medular del proceso de
entendimiento. Encontrar las razones por las que se combinan de esa manera, usando los
principios o leyes correspondientes, es otra etapa igualmente difícil e importante. La última
parte, la esencia misma del conocimiento científico, es la predicción. Con base en el estudio
previo debe ser posible anticipar el resultado de nuevas observaciones al cambiar de diversas
formas el arreglo inicial del fenómeno.

En el esquema anterior está implícito lo que se conoce como método científico. Lejos de ser un
procedimiento sistemático y consciente, que lo convertiría en una receta, hermosa, complicada
11
y útil, pero al fin y al cabo una secuencia de pasos bien definidos a seguir, los investigadores
intuyen este procedimiento con base en una tradición racional, participando en una o más de
estas etapas, omitiendo algunas, ocasionalmente agregando otras y ligados indisolublemente,
conscientemente o no, a su entorno social. Lo que sí podemos extraer son algunos de los
elementos que parecen siempre estar presentes en una u otra forma en el quehacer científico y
en especial en la física; este problema, ciertamente abierto, es materia de la teoría del
conocimiento, la epistemología, y ha sido objeto de estudio y reflexión de filósofos e
investigadores.

Un primer aspecto es la concepción filosófica que el observador tiene de la naturaleza y del


conocimiento que sobre ésta puede adquirir; aquella puede ser explícita o tácita. En este
mismo nivel hay una serie de principios filosóficos y de reglas lógicas que el investigador
establece, usa y que, normalmente, van implícitas en su trabajo. Así, su contribución diaria
puede sobreentender un materialismo que da por hecho la existencia de un mundo objetivo
independiente de él, una convicción total en el principio de causalidad que justifica buscar el
origen de un efecto, o el uso irrestricto de la lógica clásica, que sin temor al abuso se omiten al
discutir de política.

En la parte que toca a las observaciones mismas, empezamos por elaborar un modelo a priori
(antes de empezar) sobre el fenómeno al separarlo en partes, el sistema y sus alrededores, y
asociarle una regularidad que nos asegure que al repetirse el fenómeno podremos observar y
medir lo mismo. Si un resultado no se puede reproducir, por lo general pierde el interés
científico, convirtiéndose en un hecho fortuito, objeto de un análisis de otra especie. El llevar a
cabo un experimento que "remede en todo" al anterior, tantas veces como sea necesario, es
algo que sólo puede lograrse en un laboratorio.

Así, con base en el ingenio, la minuciosidad sistemática, la intuición y la experiencia, como en


cada etapa en la dilucidación del fenómeno, se escogen las cantidades relevantes. Acto seguido
se determina la forma de medirlas, las posibles fuentes de error y se procede a su
cuantificación, estableciendo la consistencia interna y la estadística de los datos obtenidos.

El análisis siguiente consiste en asociar un símbolo a cada cantidad y precisar las posibles
relaciones entre éstos, es decir, la forma en que unos dependen de otros. Este proceso lleva a la
elaboración de expresiones (fórmulas) que vinculan a los símbolos entre sí, sintetizando
grandes cantidades de datos. Las reglas para asociar números a símbolos y para manipular y
combinar estos últimos constituye el lenguaje que llamamos matemáticas.

En realidad, las matemáticas son una disciplina teórica que va más allá de un lenguaje o una
herramienta, aunque vistas como tales permiten, en manos educadas y hábiles, forjar una
imagen abstracta, extremadamente útil y especialmente bella del universo concreto que
percibimos. Una virtud de las imágenes así logradas es su capacidad de hablar, a quien las sabe
oír, sobre lo que es posible y lo que es probable. ¡Cómo hubiesen aprovechado algo semejante
las sacerdotisas del oráculo de Delfos! No siendo de origen divino las predicciones así
logradas, como nunca lo fueron las pregonadas por las pitias en Delfos, siempre son sujetas de
verificación, a través de más experimentos. Basta con uno de éstos que no corresponda a lo
esperado o predicho, para que sea necesario modificar parte de las premisas usadas en la
elaboración de la predicción, repitiéndose entonces el proceso. Ha sucedido, por fortuna muy
de vez en cuando, que las modificaciones necesarias han ido al mismo fondo de los principios
filosóficos.

La física funciona más o menos como lo hemos esbozado. Al construir una teoría se parte de
algunos conceptos primitivos que se dejan sin definir o se apela a la intuición para

12
introducirlos, como la masa, el espacio y el tiempo. Después, se definen cuidadosamente
cantidades compuestas, como la densidad, la velocidad y la presión, y acto seguido se postulan
ciertas proposiciones (basadas en experimentos), los axiomas o leyes fundamentales, como
verdaderas y universales. Su inmensa virtud es que, ante la duda, basta con llevar a cabo un
experimento para constatar su validez. A partir de los axiomas se deducen entonces una serie
de proposiciones o teoremas que, posteriormente, llegan a ser consecuencias no triviales y
lejanas de aquellos postulados originales. En muchos casos los teoremas son formulados como
conjeturas basadas en la intuición o como resultado de un experimento. El reto en estas
circunstancias es encontrar el procedimiento para deducirlo a partir de los axiomas: encontrar
la explicación completa del fenómeno a partir de las leyes fundamentales de la teoría.

El estudio de los fluidos, como parte de la física, ha seguido un camino semejante lleno de
obstáculos salvados, de anécdotas pintorescas, de errores patéticos, de experimentos notables y
de teorías ingenuas. Cada faceta del proceso desempeñó una parte importante para alcanzar el
nivel que ahora tiene. En la dinámica de fluidos la dificultad más grande ha radicado en la
demostración de los teoremas; una enorme cantidad de resultados experimentales y de
fórmulas empíricas esperan ser deducidos de los principios básicos de la teoría. Esto permitiría
generalizarlos, arrojando luz sobre otros resultados experimentales aparentemente ajenos e
igualmente incomprendidos. No hay ninguna rama de la física que pueda considerarse cerrada
y todas son objeto de investigación activa; los fluidos no son una excepción. El problema de la
turbulencia, que se menciona más adelante, es uno de los grandes retos de la física teórica.

Para construir un aparato teórico que nos permita entender y explicar el movimiento de los
fluidos y de los objetos inmersos en ellos, lo cual observamos todos los días, es necesario
introducir tres elementos como punto de partida. El primero es el de los conceptos primitivos
de masa, espacio y tiempo, el segundo es el constituido por las cantidades (variables) que
usamos para caracterizar y describir a un fluido cualquiera y el tercer elemento es el marco de
referencia adecuado para determinar estas variables.

En cuanto a los conceptos básicos las definiciones tal vez dejarán que desear y seguramente el
lector podría encontrar otras más adecuadas, pero por ahora no hacen falta. La masa es la
cantidad de fluido que medimos con una balanza. El espacio es el escenario que usamos para
localizar o ubicar al fluido o a una parte de éste. Imaginamos que existe un punto especial, que
llamamos origen, y desde él medimos longitudes con una regla. El tiempo será un parámetro
que nos permita ordenar estados diferentes del fluido de acuerdo con su aparición en el
experimento; este ordenamiento lo establecemos en relación con el Sol o con un reloj. Si no
hay cambios, o estados distintos, el parámetro tiempo desaparecerá de la descripción. Si el
fluido presenta comportamiento electromagnético, a los elementos básicos debe agregarse la
carga.

El segundo punto es más complicado y tiene que ver con cuántas y cuáles cantidades es
necesario disponer para contar con una descripción completa y exhaustiva de un fluido. Esta
cuestión, que no está del todo libre de controversia, especialmente cuando se trata de fluidos
un tanto exóticos, ha ido resolviéndose a lo largo del tiempo con base en la experiencia. Al
quedar enunciadas las leyes en su forma actual se estableció cuántas y cuáles variables, que
llamaremos variables dependientes, son las mínimas para caracterizar el estado dinámico de
un fluido. Al espacio y al tiempo se les llama variables independientes. Antes de especificar
qué variables dependientes se usan para describir a un fluido consideremos ahora el punto que
se refiere al marco en el que éstas se definen. Para esto vamos a usar una analogía con la
astronomía.

13
Al observar el cielo en una noche clara, con la ayuda de un telescopio, además de la reverencia
que infunde su extensión, profundidad y belleza, aparece la duda por saber en qué dirección
fijar el instrumento. Si lo que queremos es llevar a cabo una observación sistemática
podríamos escoger entre dos posibilidades: una, enfocar un objeto celeste y seguirlo en su
trayectoria. Una vez determinada ésta, repetir el proceso con un segundo objeto y así
sucesivamente hasta tener una muestra representativa del movimiento de los objetos más
brillantes o más azules o lo que sea; la segunda posibilidad consiste en dejar fijo el telescopio,
como una ventana al firmamento, y observar los objetos que cruzan el campo visual,
determinando su brillo, color, velocidad o belleza. Posteriormente, cambiar la dirección del
telescopio e iniciar de nuevo el proceso y, como en el caso anterior, obtener un muestreo de los
objetos celestes y de su comportamiento.

Al primer procedimiento se le conoce como descripción lagrangiana, en memoria de Louis


Lagrange, uno de los grandes genios de su tiempo, quien dio a la mecánica de Newton una
estructura matemática que lo menos que puede decirse es que su elegante belleza iguala su
generalidad. La segunda opción es la descripción euleriana, llamada así en honor a Leonhard
Euler, el más prolífico matemático en su época, quien formuló la primera teoría de los fluidos;
parte de ella se mantiene en su forma original hasta la fecha.

Estas dos descripciones son usadas en física indistintamente, dependiendo de las


circunstancias. Como herramienta conceptual, sin embargo, la formulación euleriana conduce
a lo que se llama una teoría de campo, esquema que se emplea en la mayoría de las teorías
modernas de la física.

Partir de una descripción lagrangiana supone identificar a una partícula de fluido, considerada
como un pequeñísimo volumen, y aplicarle las leyes de la mecánica. Si bien es difícil
establecer esta identificación en la práctica, conceptualmente es mucho más atractiva la idea de
aplicar los principios de la física a un pedazo de materia que se mueve, manteniendo su
identidad como sistema, que aplicarlos a un punto por el que van pasando distintas partes del
fluido. En los textos modernos que tratan de este tema se hace precisamente esto; se empieza
con una descripción lagrangiana y, una vez introducidos los principios e hipótesis físicas
necesarias, se traduce al lenguaje euleriano, usando el diccionario (matemático) apropiado que
toda lengua merece.

La formulación euleriana, en la que vamos observando diferentes puntos del espacio y


estudiamos lo que ahí sucede al transcurrir el tiempo, da lugar a una teoría de campos. La
siguiente idea ilustra el contenido de la frase anterior. En cada punto se hallan definidos ciertos
atributos físicos del fluido, digamos densidad y velocidad. De un sitio a otro las propiedades
cambian de valor, como en la imagen de un paisaje varían las tonalidades de azul o de verde.
Además, con el paso del tiempo las propiedades van cambiando, al igual que sucede en los
cambios de las estaciones, cuando una planta nace, crece, florece y muere. Las causas para que
cada uno de los cambios se dé pueden ser diversas y lejanas; las apreciamos al estudiar no un
sólo punto sino muchos, todos, si es posible.

Finalmente, para concluir con los preparativos que nos permitan entrar en el tema, vamos a
introducir las variables dependientes, los campos, que nos facilitan la descripción de diversos
procesos y la discusión de los principios subyacentes. Dividimos en dos clases a estas
variables, los campos escalares y los campos vectoriales.

Los campos escalares son relativamente sencillos y los conocemos por la práctica que
adquirimos al habitar nuestro planeta. Su especificación en cada punto está dada por un
número de acuerdo con una escala universalmente aceptada. Una gráfica o una tabla de datos

14
correspondientes cada uno a puntos distintos, nos da toda la información espacial del campo.
Si éste cambia con el tiempo se necesita una tabla para cada tiempo. Los campos escalares
usuales son la densidad, la temperatura y la presión, que representamos por , T y p,
respectivamente.

La densidad nos da una medida relativa entre masa y volumen, es decir, entre la cantidad de
materia y el espacio que ocupa, y es una propiedad más o menos familiar. El oro es más denso
que el merengue y éste más denso que el aire, todos lo intuimos.

Es importante hacer notar que la densidad es una propiedad intensiva; es decir, no depende de
la cantidad. Por ejemplo, las densidades de un anillo y de un lingote, los dos de plata, son
iguales, como lo es su color. Definida como el cociente de la masa, que medimos con una
balanza, y el volumen, que medimos con... ingenio, la densidad es una propiedad que no
depende de la forma del material, pero sí de la temperatura y la presión (no definidas aún, pero
cuyo significado sospechamos). Sus dimensiones son, obviamente, las del cociente
masa/volumen. Las unidades correspondientes son, por ejemplo, toneladas/litro,
kilogramo/galón, miligramo/kilómetro cúbico, etc. La convención usual es el
gramo/centímetro cúbico, gr/cm³ (recordemos que 1 litro = 1 000 cm³ ). La tabla siguiente
ilustra los valores de la densidad para algunos objetos.

Material Densidad (gr/cm3)

Hoyo negro ~ 1018


Núcleo atómico ~ 1014
Centro del Sol ~ 160 000
Otro sólido 19.3
Centro de la Tierra ~ 12
Agua 1
Hidrógeno líquido 0.07
Aire ambiente 0.0012
Aire a 300 km de altura ~ 10-14

~ aproximadamente

La temperatura, otra noción familiar, es un concepto primitivo que no podemos construir en


términos de masa, espacio y tiempo en una teoría macroscópica, pero que está asociado a la
idea intuitiva del grado de calentamiento de un cuerpo. Aquí nos contentaremos (indignando
quizá a más de uno) con definirla como la propiedad que medimos por medio de un
termómetro, instrumento que todos conocemos en alguna versión y que hemos usado alguna
vez, posiblemente para evitar ir a la escuela. La escala tiene por unidades a los grados Kelvin
(º K) y se conoce como la escala absoluta de temperatura; cada º K es equivalente a un º C.
De manera que la escala Celsius, que se usa para asignar temperaturas al consomé de pollo o a
un niño resfriado, marca las mismas diferencias de temperatura que la escala absoluta, con la

15
peculiaridad de que la mínima temperatura que es posible alcanzar en la naturaleza es de 0º K
(= -273.15º C). En el capítulo VI regresaremos a esta singular ley de la naturaleza.

El otro campo escalar que usaremos es la presión y, como se dijo en la sección II. 1, está
definida como la fuerza normal que actúa sobre un área dada. Si la misma fuerza normal actúa
sobre dos áreas distintas, la presión es menor sobre el área mayor. Como ilustración
imaginemos un objeto cuyo peso es suficiente como para que al ponerlo encima de un huevo
éste se aplaste sin remedio. Siempre podemos poner suficientes huevos como para que el peso
se reparta entre todos, de modo que la fuerza que recibe cada uno no exceda su "factor de
aplastamiento". Al distribuirse la fuerza sobre un área mayor, la presión es menor.

Figura II. 4. Presión: fuerza repartida en un área.

Por eso los cuchillos cortan, los picahielos pican y las palas palean con la eficiencia que lo
hacen; ni se diga si además el usuario sabe emplearlos.

Las dimensiones de presión son de fuerza/área y las unidades de mm-Hg); la equivalencia


entre éstas es: 1 atm = 760 mmHg = 101,352 Pa. La presión de una atmósfera es igual al peso
que una columna de mercurio de 76 cm de altura ejerce sobre un cm², al nivel del mar. Es la
misma que ejerce toda la columna de aire arriba de nuestra cabeza. Esto lo demostró
Evangelista Torricelli, discípulo predilecto y último de Galileo, usando el sencillo y
convincente dispositivo que aparece en la figura II. 5.

16
Figura II. 5. Tubo de Torricelli para determinar la presión atmosférica.

Un efecto semejante se observa con el agua, excepto que la columna es ¡de más de 10 m de
altura!; por eso es más sensato usar mercurio, pues siendo metal se mantiene líquido a
temperatura ambiente. Curiosamente, fue René Descartes, filósofo y matemático del siglo
XVII, quien sugirió a Blaise Pascal el experimento para determinar la forma en que cambia la
presión atmosférica con la altura. El joven genio construyó entonces un barómetro, como el de
la figura II. 5, pero usó vino tinto en lugar del mercurio, ¡en una columna de 14 metros! Debió
ser una experiencia memorable...

En el caso de los campos vectoriales las cosas son un poco más complicadas e interesantes,
como las personas. Los vectores requieren para su especificación de algo más que un número:
reclaman dirección. La velocidad es un ejemplo característico, ya que no es suficiente dar un
número, su magnitud, como 20 km/h; hace falta agregar la información que establece en forma
unívoca la dirección en la que se mueve el objeto en cuestión. En cada punto y a cada tiempo
es preciso dar tres datos, como por ejemplo la magnitud (el tamaño de a flecha que representa
al vector) y dos ángulos.

Convencionalmente se usan los ángulos y , definidos geométricamente como se ilustra en la


figura II. 6. En ésta, las líneas (ejes) x, y, z son mutuamente perpendiculares y al sistema de
coordenadas así definido se le llama cartesiano, en honor a Descartes, a pesar de no haber sido
quien lo definió por primera vez.

17
Figura II. 6. Sistema de ejes cartesianos.

Cada vector es entonces representado por una tema de números que nos da, en el punto e
instante correspondientes, la magnitud y orientación locales del campo. Una representación
frecuente de un campo vectorial es a través de sus línea de campo, que para el caso de la
velocidad en un fluido se llaman líneas de corriente o de flujo. En cada punto de éstas el
vector velocidad (cada flecha) es tangente. En donde las líneas de corriente tienden a juntarse
la velocidad es mayor que en aquellas donde parecen separarse. Si consideramos flujos en dos
dimensiones, como el flujo de una película delgada encima de una superficie, sólo necesitamos
dos cantidades, la magnitud y el ángulo con respecto a una dirección; esta última la escogemos
con base en algún capricho o conveniencia. En la figura II. 7 se ilustran estas curvas.

Figura II. 7. Flujo uniforme y lento alrededor de un cilindro circular. Nótese que es (casi)
imposible distinguir la dirección del flujo.

La velocidad, instantánea y local, la definimos como el cociente de la distancia recorrida y el


intervalo de tiempo que le toma recorrerla. La velocidad así definida puede cambiar de un
punto a otro, o en un mismo punto con el paso del tiempo. Los intervalos de tiempo que
corresponderían a esta definición los supondremos tan pequeños como sea posible medirlos en
18
un experimento. En la práctica, lo que se acostumbra hacer es suspender en el fluido partículas
reflectoras de luz (hojuelas de aluminio) que al ser iluminadas son captadas por una cámara; la
exposición debe ser tan breve como para que las trazas dejadas en la película sean segmentos
rectos. El tiempo de exposición es el intervalo de tiempo y la longitud de la traza es la
distancia recorrida. La hipótesis implícita es que las partículas suspendidas en el fluido se
mueven con éste sin alterar el flujo, de modo que las fotografías nos revelan las líneas de
corriente y las velocidades (Figura II. 8).

Figura II. 8. Visualización, por medio de trazadores, de flujo alrededor de un cilindro


circular. La velocidad del flujo es mayor que en la figura II. 7.

19
I I I . U N A " H I S T O R I A " D E L A S
I D E A S

LA FORMA en que fueron descubriéndose efectos, principios y leyes en muchos casos sólo
puede imaginarse, pues existe una laguna en cuanto a los protagonistas y sus condiciones
sociales, económicas y culturales. La humanidad ha vivido siempre con fluidos. Cómo y
cuándo aprendió a usarlos sólo puede adivinarse. En el presente libro no están todos los que
fueron, aunque sí fueron todos los que están. Muchos nombres, fechas y circunstancias
aparecen más como guía cronológica que como reconocimiento del papel que desempeñaron
en la edificación de la actual teoría de los fluidos.

Una historia no es sólo una secuencia de nombres, fechas, hechos y las anécdotas que los
conectan. Es más bien una explicación e interpretación de éstos a partir de hipótesis
fundamentadas y basadas en patrones globales del comportamiento; en nuestro caso es la tarea
de los profesionales del campo, los historiadores de la ciencia. Más que evocar una historia, lo
que haremos será una visita parcial a través del tiempo para recordar pasajes exquisitos del
desarrollo del pensamiento humano. Así, pasaremos por algunos aspectos que costaron mucho
entender o manejar, por ciertos puntos sencillos y prácticos que nos dejan sospechar las
peculiaridades de un fluido y otros más bien curiosos o simplemente divertidos, que aparecen
distribuidos en el tiempo y en diferentes sitios, lo cual les da una perspectiva que, al recordar
las circunstancias culturales, políticas, sociales o económicas, permite intuir la historia.

No es casual que los cambios y avances importantes que modificaron cualitativamente el


conocimiento de la dinámica de los fluidos se llevaran a cabo en forma paralela a los cambios
sociales. Es importante subrayar aquí, aun cuando quizá no pueda apreciarse en lo que sigue,
que las etapas diversas de organización social, el florecimiento de una cultura o el decaimiento
de una civilización, se ven reflejadas en el desarrollo particular de los fluidos. No puede
entenderse éste si no es como una huella más de la actividad humana en su conjunto.

III. 1. SOBREVIVENCIA, MAGIA, NECESIDADES Y LUJOS

Hasta hace aproximadamente 100 000 años el hombre seguía tratando de acostumbrarse a vivir
bajo los árboles. El paso de recolector de frutos, que afortunadamente no hemos abandonado
del todo, al del cazador, fue muy largo y es difícil intuir siquiera cómo se llevó a cabo. En este
paso inventó y descubrió múltiples utensilios que le hicieron más fácil su existencia en un
medio ajeno y hostil que luego dominó y, diríamos ahora, casi se acabó. Inventó la rueda
mucho después del vestido y descubrió el fuego antes que aquélla. Desarrolló armas para
subsistir, descubrió después el bronce y, hace unos 10 000 años, la agricultura. Probablemente
aprendió a manejar los fluidos en forma circunstancial en este proceso.

Los primeros que se estaban ahogando por humo dentro de una cueva sacaron al fuego a la
intemperie o se buscaron una cueva con el techo más alto, y aprendieron que el aire caliente
sube, pero sin intuir en ello el principio de la flotación. Los primeros navegantes tal vez
surgieron de una poco afortunada pérdida de equilibrio en la orilla de un río y del fortuito paso
de un tronco en la vecindad inmediata. También podemos imaginar que, al observar que
ciertos objetos flotaban en un río, a más de uno se le ocurrió aprovechar el hecho para viajar
río abajo y, con suerte, al otro lado.

20
La evolución de un tronco a una canoa, de ésta a una balsa y de ésta a un medio de carga y
transporte colectivo, así como del mecanismo de propulsión de varas a remos y de éstos a
velas, sólo podemos reconstruirlo usando el sentido común y una fértil imaginación. Algo
semejante puede decirse de las armas. El proceso que va desde arrojar piedras y palos, que a
más de una presa sólo debe haber irritado lo suficiente como para comerse al cándido ancestro,
hasta la invención del mazo y, mucho más tarde, hace unos 30 000 años, el arco y la flecha,
comprende múltiples pruebas e insólitas experiencias. Bajo la presión de la supervivencia el
hombre aguzó el ingenio para adaptarse y manejar su ambiente que, gústele o no, lo dominan
los fluidos.

En esta etapa de la protohistoria, que abusivamente catalogamos de supervivencia, se hicieron


obras notables destinadas al riego. Las necesidades agrícolas de las culturas que florecieron en
Mesopotamia y Egipto, al menos 4000 años a.C., llevaron a diseñar y construir presas y
diques, cuyos restos aún pueden apreciarse en las márgenes de los correspondientes ríos.
Vestigios semejantes, de tiempos casi tan remotos, fueron descubiertos en las riberas de ríos en
la India y la China. La construcción de canales para riego, transporte y surtido de agua a las
grandes metrópolis de entonces confirma la relación directa entre el nivel de una civilización y
la posesión de una tecnología para mantenerla; en particular, la relación con el agua.

En forma paralela a las obras hidráulicas a gran escala se desarrollaron artefactos, instrumentos
y curiosidades asociadas al comportamiento de los fluidos. Es posible suponer que el ser
humano intuía algunos principios básicos, si consideramos su notable conocimiento empírico.
El uso del fuelle, la jeringa y el sifón era frecuente, como lo reflejan los legados pictóricos y
estelas fragmentadas que se conservan, mismas que muestran la existencia de la pipeta, la
clepsidra, reloj de agua usado en Babilonia y posteriormente en Egipto, y el uso de los vasos
comunicantes. Hubiera sido difícil, muy difícil, llevar a cabo algunas obras de ingeniería sin
algunos de estos aparejos. El nivel de pisos y bóvedas seguramente se establecía, como aún
hoy lo hacen los buenos albañiles, usando el principio de los vasos comunicantes.

La clepsidra, perfeccionada y usada a través de la Edad Media, consistía en un recipiente con


un orificio por el que el agua goteaba a una velocidad constante. El nivel en el recipiente, al ir
bajando, marcaba el tiempo en una escala fija en las paredes. Esta idea sencilla, como tantas
otras, fue desarrollada hasta alcanzar un alto grado de complejidad técnica y artística.

21
Figura III. 1. Vasos comunicantes (a) y clepsidra (b).

El paso de la información en forma oral, de una generación a otra, hizo que gran parte de ella
se perdiera en el tiempo. Por otro lado, algunos instrumentos y tal vez sus principios se
manejaban con el más meticuloso sigilo por quienes detentaban el poder político o religioso, o
ambos, como usualmente sucedía. Los portentos exhibidos en los templos egipcios para
mantener la fe, mostrar el beneplácito de los dioses o dejar ver la ira divina, se lograban
usando mecanismos hidráulicos ocultos, empleando aire o agua como vehículo; elevar objetos,
desplazarlos y, con ingenio, desaparecerlos, fue una práctica desarrollada en ciertas esferas no
exclusivas a los cultos a Ra. Que el saber trae consigo el poder no sólo fue explotado por
quienes disfrutaban los médanos del Nilo... Pero el secreto que rodeó a esa "tecnología" se
quedó en el pasado y no podemos más que especular qué tanto la entendían.

Desde el remoto y oscuro pasado hasta el florecimiento de la cultura helénica, el hombre


acumuló un vasto conocimiento práctico sobre el comportamiento de los fluidos. De los
complejos sistemas de riego a las elaboradas embarcaciones propulsadas por viento y de las
aerodinámicas flechas y lanzas, al sifón y la clepsidra..

Las extensas guerras de conquista de Alejandro Magno permitieron a la civilización occidental


enriquecerse con el legado asiático. Alejandría sustituyó a Atenas y amalgamó la cultura de la
época, resumiendo el conocimiento previo en su legendaria biblioteca. No es de sorprender
que ahí brillaran las artes y ciencias con Euclides, Arquímedes y Ptolomeo, entre otros.

De las diez obras que se conocen de Arquímedes (287-212, a.C.) destacan sus dos volúmenes
sobre la hidrostática y la flotación. En la mejor tradición de la escuela de Euclides, con cuyos
discípulos se educa, basa todo su análisis en dos postulados sencillos y ciertamente correctos.
22
A partir de éstos demuestra varios resultados que todavía forman parte del cuerpo de los
teoremas básicos de la hidrostática y la estabilidad de cuerpos que flotan. Uno de ellos es el
principio que lleva su nombre y establece que "si un sólido es parcial o totalmente inmerso en
un fluido, sufre una fuerza ascendente igual al peso del fluido desplazado". Este sencillo
enunciado nos permite entender un sinnúmero de fenómenos aparentemente disímbolos
Veamos ahora tres de ellos: la flotación de un barco, la flotación de globos meteorológicos de
altura fija y la proporción de oro en un anillo de bodas.

El principio dice que las cosas flotan en un fluido, lo que implica que pesan menos. La
reducción en peso es igual al peso de una cantidad de líquido de volumen igual al del objeto
sumergido. Consideremos un ejemplo. Imaginemos un cubo de cuarzo de 1 cm³, se mide un
centímetro por lado. Al vacío, encontramos que pesa 2.65 g. Al sumergirlo en agua desplaza 1
cm³ de ésta. Al pesar esta cantidad de agua se halla que pesa 1 g. Por lo tanto, en el agua, el
peso de nuestro cubito de cuarzo es de 1.65 g.

¿Por qué flota un barco de acero?

Puesto que un metro cúbico de agua pesa una tonelada, para hacer flotar (reducir su peso a
cero) a un barco de 1 000 toneladas es preciso que desplace 1 000 m³ de agua. Es decir que el
volumen del barco, abajo de su línea de flotación (Figura III.2), debe ser de, digamos, ¡un cubo
de 10 m por lado! Si es más largo que ancho no tiene por qué estar tan sumergido y será de
menor calado. Criterios de estabilidad, también desarrollados por Arquímedes, son algunos de
los aspectos que determinan la forma más adecuada para el casco del barco, la parte
sumergida.

Figura III. 2. Línea de flotación.

¿Cómo subir un globo a una altura predeterminada?

Un globo lleno de algún fluido menos pesado que el aire sufre una fuerza que lo hace ascender,
por flotación. Puesto que con la altura el aire es cada vez menos denso, más enrarecido, el
globo subirá hasta la altura en que ambos fluidos (el contenido en el globo y el aire externo
desplazado) pesen lo mismo. Conociendo la forma en que varía la densidad del aire con la
altura es posible predeterminar la altura a la que un globo meteorológico llegará y
permanecerá, con sólo variar su volumen y contenido. Estos globos se emplean principalmente
para medir propiedades de la atmósfera como la presión, la temperatura, la humedad y los
contaminantes (¡en la ciudad de México éstos pueden medirse con un globo sobre la
banqueta!).
23
Siendo el aire un fluido, todas las cosas sufren flotación y, me apena decirlo, ¡las personas son
mas pesadas de lo que creen!

Otro ejemplo está conectado a la leyenda según la cual Arquímedes descubrió la flotación.
Hierón I, rey de Siracusa (Sicilia), cuna y residencia de Arquímedes, deseaba saber si su
corona contenía oro en la proporción adecuada. La solución la encontró Arquímedes, se dice,
al entrar en el agua de un baño público, del que salió eufórico gritando "¡eureka!", rumbo a su
casa, sin siquiera vestirse. Apenas llegó sumergió en agua pesos de oro y plata iguales,
determinando los desplazamientos de agua respectivos. Al comparar éstos con el
desplazamiento que generaba la corona determinó el porcentaje de cada metal por medio de
una sencilla regla de tres. Con un anillo de bodas el proceso es el mismo, aunque las
consecuencias son más difíciles de prever...

El trabajo de Arquímedes en hidrostática es uno de los grandes logros de las matemáticas y


mecánica griegas (aunque él era tan griego como un latinoamericano español). "Es uno de los
monumentos más espléndidos a su genio [...] al que poco han podido agregar quienes le
sucedieron", dijo Lagrange, casi 2 000 años después. Su genio en las matemáticas lo pone en la
categoría que solo comparte con Isaac Newton y Friederick Gauss.

La herencia que recibió Grecia para su notable desarrollo en todas las áreas le fue legada
principalmente por Mesopotamia y Egipto. Sobre ella construyó el partenón intelectual que
conocemos. Por otro lado, las bases sobre las que creció la cultura latina fueron tomadas e
incorporadas intactas de los griegos. El imperio romano se consolidó sin que Alejandría
hubiese dejado de ser el emporio cultural del mundo occidental. Si Grecia es recordada sobre
todo por sus contribuciones en filosofía, artes y matemáticas, Roma buscó brillo en otras
direcciones y muy poco contribuyó al avance de las matemáticas y al conocimiento de los
fluidos.

Los mil quinientos años subsecuentes fueron ricos en obras de gran importancia en torno al
manejo de aguas. Todavía pueden apreciarse los notables acueductos que los romanos
sembraron en el orbe que dominaron. El diseño y construcción de sistemas de
aprovisionamiento de agua, de su distribución a través de grandes ciudades y de los drenajes
correspondientes, hablan del grado de desarrollo de la ingeniería hidráulica en el imperio. La
necesidad de resolver problemas prácticos impulsó ese desarrollo. El regado de inmensos
jardines palaciegos y el proveer de comodidades a sus ocupantes fue un ingrediente adicional.
Poco o nada se logró sobre el entendimiento y uso del agua y el viento. El intercambio con el
mundo árabe, a través de las diversas guerras de conquista y reconquista mutua, incluyendo las
Cruzadas, permitió un flujo de ideas, invenciones y costumbres que en el crisol del tiempo
dieron luz a la deslumbrante explosión renacentista.

III. 2. DE LA METAFÍSICA A LA FÍSICA

Los diez siglos que siguen a la caída del Imperio romano y que gestan la aparición de una
brillante era en la historia de nuestra civilización, sirven para consolidar el sistema económico
feudal y el poder de la iglesia cristiana, asimilándose el legado filosófico griego. Este último
aspecto llegó a su climax con la aristotelización del cristianismo por Tomás de Aquino en el
siglo XI. La incorporación de las matemáticas, la lógica, la metafísica y la astronomía griegas
a la enseñanza en las "universidades" medievales, que fundara Carlomagno en el siglo VIII,
llevó a la formulación de la educación escolástica basada en las siete artes liberales agrupadas
de la siguiente manera: el trivium (gramática, lógica y retórica) y el quadrivium o artes
matemáticas (aritmética, astronomía, geometría y música).

24
En el periodo que concluye con el siglo XIV destacan los procesos de crítica a la metafísica y
mecánica aristotélicas, representados por Juan Buridan en Francia (1300-1358) y Guillermo de
Occam (1285-1349) en Inglaterra. Esta etapa de revisión crítica fue el fruto de un proceso
lento, laborioso y acumulativo de múltiples, protagonistas, tiempos y lugares. Una
consecuencia directa de esto es el nacimiento de las ciencias experimentales.

En un siglo de notable eslendor sobresale un hombre que se destacó en todas y cada una de las
diversas actividades en las que estuvo interesado. Su universalidad sólo es igualada por su
profundidad y calidad. Leonardo da Vinci (1452-1519), en cuanto a la ciencia y a los fluidos se
refiere, marca el siguiente paso después de Arquímedes.

Como pocos de sus antecesores y contemporáneos, Leonardo subrayó en numerosas ocasiones


la necesidad ineludible de la observación y el experimento. Así lo mostró en sus bellos,
meticulosos y copiosos dibujos; una exquisita selección puede encontrarse en la publicaci ón
del Códice Hammer (Hammer, 1972). Sus razones se pueden leer en algunas de sus notas, por
ejemplo: "Huid de la opinión de los especuladores, pues sus argumentos no están sustentados
en la experiencia [...] a diferencia de ellos, no puedo citar autoridades, pero, más importante y
digno, es argumentar con base en el experimento, maestro de sus maestros." Más tarde,
discutiendo su método de trabajo escribió: pero antes llevaré a cabo algunos experimentos, ya
que es mi premisa empezar así y entonces demostrar por qué los cuerpos se comportan de
cierta manera. Este es el método que debe seguirse en la investigación de los fenómenos
naturales [...]".

De la gran cantidad de observaciones y experimentos que llevó a cabo sobre el


comportamiento de los fluidos, Leonardo obtuvo resultados cuantitativos y generalizaciones
sorprendentes que no fueron apreciadas sino mucho después, ¡algunas hasta el siglo XIX!

Encontró que el aire y el agua tienen un apellido común. Al comparar en forma sistemática los
movimientos de masas de aire (vientos) y agua (estanques, ríos y mares) intuyó, citándolo en
forma recurrente, los elementos comunes de su comportamiento.

Al observar el movimiento de aguas en ductos, canales y ríos, descubrió y formuló en forma


cuantitativa uno de los principios fundamentales en la mecánica de los fluidos: el principio de
continuidad o de conservación de la masa. Si bien es cierto que al menos desde la época de
Arquímedes se sabía que el agua que entra por el extremo de un tubo sale por el otro, la
relación entre este hecho y la descarga era si acaso sospechada, aun por los constructores
romanos. La descarga es la cantidad de fluido que atraviesa una sección de un tubo o de un
canal por unidad de tiempo. Por ejemplo, el número de litros por segundo que pasa por
cualquier parte de un tubo, cuya sección sea variable, es siempre el mismo.

En las palabras de Leonardo: "En cada parte de un río, y en tiempos iguales, pasa la misma
cantidad de agua, independientemente de su ancho, profundidad, tortuosidad y pendiente. Cada
masa de agua con igual área superficial correrá tanto más rápido como poca profunda sea [...]"
(ver Figura III. 3);"[...] en A el agua se mueve más rápido que en B, tanto más como la
profundidad de A cabe en B...".

25
Figura III. 3. Secciones de Leonardo da Vinci.

Este análisis básico y casi evidente, que eludió a sus predecesores, puede considerarse como la
primera formulación clara y cuantitativa de la ecuación de continuidad para el flujo
estacionario (que no cambia con el tiempo) de un fluido incompresible (de densidad
constante). Este resultado, en términos más apropiados, que no más comunes, establece que la
velocidad es inversamente proporcional a la sección transversal. Equivalentemente, el
producto de la velocidad y el área, en cada sección, es constante. La generalización de este
resultado a la forma en que hoy se conoce tomó todavía 300 años mas.

Otros estudios de Leonardo versaron sobre el vuelo, la generación y propagación de ondas, el


movimiento de remolinos (vórtices) y el papel de éstos en los flujos complicados e irregulares
que llamamos turbulentos. Estos estudios de carácter cualitativo o puramente descriptivo
influyeron en forma directa e indirecta en el desarrollo de la hidráulica y la hidrodinámica,
entendidas éstas como la parte práctica y teórica de la mecánica de fluidos, respectivamente.
La percepción visual de Leonardo fue la herramienta clave de su obra artística y científica, la
cual se aprecia en cada detalle de sus penetrantes y hermosas ilustraciones, y gracias a ella
estableció una pauta en la búsqueda del conocimiento.

Si la observación y la experimentación, entendidas como el registro meticuloso y pasivo, la


primera, y la ocurrencia intencional, repetitiva y controlada del fenómeno, la segunda, son
elementos indispensables del conocimiento científico, el uso de un lenguaje adecuado y la
generalización deductiva o inductiva las complementan y dan sentido.

A Galileo Galilei (1564-1642) es a quien, un siglo después, le toca completar el esqueleto del
método científico, pues transforma a la mecánica en una ciencia partiendo de una crítica
constructiva de la metafísica escolástica. Usando a la experimentación como guía, como lo
hiciera Leonardo, introduce el lenguaje de las matemáticas para formalizar y extender sus
resultados, generalizar sus concepciones y sentar las bases de una nueva manera de estudiar la
naturaleza. Con metodología semejante a la de Arquímedes, Galileo habló a una época más
madura; a diferencia de Leonardo, no escribió "al revés" y fue leído y, desde luego, criticado
por sus contemporáneos.

La contribución de Galileo a la dinámica de los fluidos fue profunda, aunque indirecta, al


participar en la fundamentación de la mecánica, de la física y de la ciencia misma. La
astronomía fue la motivación de su trabajo y la pasión de su vida. Afirmaba entender más de
los cuerpos celestes que de los fluidos que observamos todos los días...

26
Un aspecto decisivo en el paso de la especulación aristotélica a la ciencia posgalileana fue la
introducción de la observación como pilar y sustento de la razón. Para entender el mundo, la
razón pura demostró su fracaso. Del muy joven Leonardo al anciano Galileo se ve un cambio
único en la historia. En estos doscientos años se lleva a cabo el florecimiento resultante de los
previos dos mil años de siembras y cuidados

III. 3. DEL HORROR AL VACÍO, AL AGUA SECA

Es claro que no puede culparse a Aristóteles del estancamiento intelectual que siguió a su
muerte. Fue la dogmatización de sus ideas y la exclusión de su actitud crítica y dinámica, que
predicó y practicó, lo que casi paralizó la evolución del conocimiento.

La concepción aristotélica en torno al vacío y la aceptación sin reservas de ésta dominaron


hasta mediados del siglo XVII. Según Aristóteles la naturaleza tiende a llenar todos los
espacios con cualquier medio a su alcance, siendo el vacío una imposibilidad física. La frase
horror vacui vino a resumir esta creencia a través del tiempo, y se llegaron a inventar
sustancias como el éter, con propiedades inconmensurables, no factibles de ser medidas, para
"explicar" la presencia de espacios aparentemente vacíos.

La crítica, no es de sorprender, fue iniciada por Galileo. La generación que le sucedió la


continuó y la resolvió.

El compañero inseparable de Galileo en los últimos tres meses de su vida fue Evangelista
Torricelli (1608-1647). Tras de extender algunos trabajos de aquél en dinámica de proyectiles
y de generalizar en forma brillante parte de la obra de Arquímedes, fue invitado a Florencia
por el anciano Galileo para discutir y escribir sus últimas ideas. Así, Torricelli se vio expuesto
a muy variadas especulaciones y proposiciones que, en su desafortunadamente breve carrera
científica, desarrolló al suceder al maestro en su cátedra de matemáticas.

Torricelli se ocupó de diversos problemas en forma teórica y experimental. En el área de


fluidos destacan sus estudios sobre el flujo de chorros que salen por el orificio de un
recipiente, su descubrimiento del principio del barómetro de mercurio y su uso en el estudio de
la presión atmosférica. Con estos trabajos logró, entre otras cosas, acabar con el mito de la
imposibilidad del vacío. Uno de sus experimentos consistió en demostrar la existencia de la
presión atmosférica y la forma de crear un vacío, usando un dispositivo como el que se
muestra en la figura II. 5. Una variación de éste se describe a continuación.

Es fácil convencerse de que la atmósfera ejerce una presión igual en todas direcciones. Se
requiere un vaso, una hoja de papel o de plástico, agua y una cubeta (para no salpicar todo,
como sucede; cuando se intenta por primera vez). Encima del vaso bien lleno de agua se pone
el trozo de plástico, cuidando de que no quede en el aire entre éste y el agua. El vaso puede
invertirse lentamente sin que el agua se caiga, debido a que el aire empuja constantemente
contra el plástico (Figura III. 4(a)). Para que la demostración sea más contundente puede
sumergirse parcialmente el vaso invertido en una cubeta llena de agua y retirar el plástico; ¡el
agua no se sale! (Figura III. 4(b)). En este caso el aire empuja hacia abajo sobre la superficie
horizontal del agua con la misma presión que en el caso anterior lo hizo hacia arriba.

27
Figura III. 4. La presión atmosférica en la cocina.

Si el vaso mide más de 14 m de longitud (ji, ji), al realizar el experimento de la figura III. 4
(b), se saldría un poco de agua, quedando lo que parece una burbuja en el vaso. Ahí, en
realidad, hay un razonable vacío; de hecho hay un gas (aire y vapor de agua) tan enrarecido
como el que se encuentra a 200 km de altura sobre esta página (suponiendo que no es usted
astronauta en funciones). Usando mercurio, basta con una columna de más de 76 cm de
longitud para obtener un vacío equivalente; se ilustra en la figura II. 5, en el espacio de la parte
superior del tubo.

Blaise Pascal (1623-1662) fue quien, repitiendo y extendiendo los experimentos de Torricelli,
dio una clara explicación de las observaciones. Al darse cuenta de que los experimentos
básicos podían ser explicados por igual en términos de la presión atmosférica en vez de en
términos de un parcial horror al vacío, llevó a cabo un experimento de vacío dentro de otro
vacío. De esta manera, al quitar la presión externa la altura de la columna de mercurio debía
reducirse a cero, y así lo demostró, desechando la segunda explicación. No satisfecho, repitió
los experimentos a diferentes alturas sobre el nivel del mar. Con ello probó que, si es la
columna de aire que está arriba del dispositivo la que hace que el mercurio suba en el tubo,
entonces la altura de éste debía cambiar según la cantidad de aire encima de él. Si a la
naturaleza le daba horror el vacío, debía horrorizarle por igual ya fuera arriba o abajo de una
montaña. Con esto quedó abandonada en forma definitiva la concepción del horror vacui.

En el proceso de estudio de la presión atmosférica Pascal inventó la prensa hidráulica,


descubriendo el principio físico subyacente. Según éste la presión en un fluido actúa por igual
en todas las direcciones; conocido como el principio de Pascal, es uno de los dos axiomas
fundamentales de la hidrostática. El otro es el principio de Arquímedes. A los 31 años de edad
y siendo una celebridad por sus variadas contribuciones en física y matemáticas, Pascal se
convirtió en asceta; dedicó sus últimos ocho años de vida a la teología con la misma intensidad
que dedicara antes a la ciencia.

Unos días antes del primer aniversario de la muerte de Galileo, en el pueblito inglés de
Woolsthorpe, nació Isaac Newton (1642-1728). Como Da Vinci en su época, la luz de Newton
brilla por encima del estrellado cielo de sus contemporáneos.

En agosto de 1665 la peste obliga a las autoridades a cerrar el Trinity College de Cambridge y
Newton, cuatro meses después de su graduación, se ve obligado a regresar a su aldea natal.
Ahí, aislado por dos años, lleva a cabo una hazaña sin paralelo en la historia del pensamiento
28
humano. Lo que necesita y no sabe, lo inventa; lo que sabe y no le sirve, lo generaliza o lo
cambia sin pudor alguno; sobre lo que no entiende, medita, observa, hace experimentos y
propone hipótesis. Al final de este periodo ha cimentado sus tres contribuciones
fundamentales: el cálculo infinitesimal, la mecánica y la gravitación, y la teoría de la luz y los
colores. Así, aquel joven común y corriente que se fue, regresa convertido en el profundo
pensador que sentaría las bases de la física y las matemáticas de los siguientes siglos.

Característico de la revolución científica del siglo XVII, y en la mejor tradición cartesiana de


la época, partió de la base de un universo real cuyo comportamiento podía y debía ser
explicado solamente en términos de sus elementos y sus relaciones. Sobre esta base filosófica
desarrolló la herramienta matemática requerida y formuló las leyes de la mecánica. Su trabajo
Philosophiae Naturalis Principia Mathematica, publicado hasta 1687, es, además de su obra
maestra, uno de los trabajos más importantes de toda la ciencia moderna.

La contribución de Newton a los fluidos fue múltiple y a niveles muy diferentes. Abarcó desde
sus fundamentos, en forma indirecta, hasta los meticulosos experimentos que llevó a cabo
sobre vórtices (remolinos) y viscosidad (fricción interna).

Desde el punto de vista general, el marco teórico, el aparato matemático y las leyes físicas que
Newton estableció, fueron, y siguen siendo, los ingredientes esenciales de la teoría de los
fluidos. Estos elementos fueron una aportación fundamental, aunque indirecta, para el
establecimiento final de la teoría que realizó la notable generación que le siguió, formada por
Euler, dos de los Bernoulli, D'Alambert y Lagrange.

Su trabajo directamente conectado con fluidos comprende casi un tercio de los Principia. Esto
resulta sorprendente si no se toma en cuenta que Newton busca establecer una teoría
alternativa, en contenido, forma y consecuencias, a la cartesiana. Ésta, que domina el
pensamiento de la época, era una imaginería mecánica verbal sobre esferas y vórtices en
movimiento en un medio etéreo que todo lo embebía.

La demoledora crítica de la cosmología cartesiana, que Newton presenta como preámbulo a su


"sistema del mundo", es a la vez un cuidadoso estudio del comportamiento de los fluidos. En
éste destacan sus análisis teóricos y experimentales sobre el movimiento de un vórtice y la
naturaleza de la fricción interna de los fluidos, apareciendo así la primera definición, estudio y
cuantificación de lo que posteriormente se llamó la viscosidad de un fluido. La incorporación
de este resultado, de suma importancia en la dinámica de fluidos, no sucedió sino hasta un
siglo y medio después.

¡Cuántos hay todavía que, dedicados a los fluidos, no la entienden!

Salvo la revisión de las siguientes ediciones de sus obras, Newton dedicó el resto de su vida,
que duraría aún más de cuarenta años, a toda suerte de actividades relacionadas con la
organización y administración pública y académica. También, debido a su difícil personalidad,
trabajó arduamente para hacerle la vida de cuadritos a más de uno.

Gran parte del trabajo de Newton ha sido extendido, completado y reformulado en varias
direcciones a través del tiempo. En cuanto a los fluidos, algunos de los problemas que abordó
siguen siendo objeto de numerosas investigaciones; un problema tan aparentemente simple
como el determinar el patrón de flujo que resulta del movimiento de una esfera en un medio
viscoso, continúa siendo un desafío en el campo de las matemáticas aplicadas.

A la muerte de Newton, en plena ilustración, tres brillantes hombres empiezan a dominar,


extender y perfeccionar las herramientas analíticas nuevas y, al mismo tiempo, a explotar su
29
utilidad en el campo fértil y abierto de los fluidos. Daniel Bernoulli (1700-1782) y Leonhard
Euler (1707-1783), formados en matemáticas por Johann Bernoulli, padre del primero,
elaboran una serie de trabajos que, junto con los desarrollados por Jean le Rond d'Alambert
(1717-1783), culminan con la formulación explícita de los principios generales y las
ecuaciones básicas de la mecánica de los fluidos.

Las contribuciones más importantes de Bernoulli aparecieron en el año de 1738 en su libro


Hydrodynamica, cuando se acuña el término. Entre ellas destaca el teorema que ahora lleva su
nombre y que fue la primera formulación del principio de la conservación de la energía para el
caso de los fluidos. En su versión moderna, cuya formulación general y correcta se debe a
Euler, establece que la suma de tres cantidades es igual a una constante:

A + B + C = constante;

los sumandos corresponden a tres formas particulares de energía. El primero tiene que ver con
el estado de movimiento, el segundo con la altura a la que se encuentra y el tercero con la
presión. Si la suma de estas cantidades ha de permanecer constante es preciso que al aumentar
una de ellas, al menos una de las restantes se vea disminuida en la proporción adecuada. Una
restricción del teorema es que los efectos de fricción interna (viscosidad) y de compresibilidad
en el fluido sean despreciables, es decir, muy pequeños. Bernoulli, con el sólido juicio de un
científico de su estatura, además de subrayar la "maravillosa utilidad" de su teorema, advertía
del error que podría traer su abuso o el olvido de sus limitaciones, las cuales eran si acaso
intuidas.

Más técnicamente, los términos que aparecen en el teorema de Bernoulli son la energía
cinética (A), la energía potencial (B) y la entalpía (C). A depende de la velocidad, A = v²/2 (
es la densidad y v la velocidad); B depende del peso y su altura relativa, B = gz (g es la
aceleración de la gravedad y z la altura relativa a un nivel de referencia) y C depende de la
presión, C = p, siendo p la presión.

Así, cuando una masa de agua desciende, disminuyendo la altura y por consiguiente el
sumando B, la velocidad aumenta de manera tal que el sumando A crece lo suficiente para
balancear la suma. De igual modo, en un tubo horizontal (Figura III. 5) en que el término B
permanece fijo (z no cambia), la suma de A y C es la relevante. Puesto que en cada sección del
tubo (s1 y s2) la cantidad de fluido que pasa es la misma, en la región más estrecha (s2) la
velocidad debe ser mayor que en la más ancha (s1). De acuerdo con el teorema de Bernoulli, la
presión es menor en donde la velocidad es mayor, es decir, en la zona angosta.

Figura III. 5. Tubo que se estrecha.

30
La situación parece irse haciendo un tanto tediosa. Como difícilmente podría ponerse peor, le
solicito seguir leyendo un poco más para ver algunos casos en los que la aplicación del
teorema es más interesante y que son fáciles de comprobar en un centro de investigación bien
equipado, por ejemplo una cocina.

Imagine un tubo vertical por el que sale un chorro de aire (Figura III. 6(a)), por ejemplo, el
tubo de una aspiradora casera conectado por la parte de atrás. Al poner una esfera ligera,
digamos una pelota de pingpong, dentro del chorro ascendente, ésta permanece ahí sin caer. La
razón es que la presión del aire en el chorro (cuya velocidad es grande) es menor que la del
aire fuera de éste (con velocidad baja). Cuando la pelota empieza a salir de la corriente, la
presión exterior, mayor a la interior, la regresa al chorro. El otro efecto, superpuesto al
anterior, es la competencia entre el empuje del chorro, hacia arriba, y el peso de la esfera.

Un caso análogo es el de un pulverizador (Figura III. 6(b)). Cuando se sopla por un tubo (t)
que termina en punta, el aire aumenta su velocidad al llegar a la punta y en consecuencia
pierde presión. En la boca del tubo (e) se encuentra entonces aire cuya presión es menor a la
que hay en su interior, que es la atmosférica y tiende a salir. La superficie del líquido en el
recipiente (s) tiene una presión igual a la atmosférica, excepto la parte contenida en (e). Esto
da lugar a que el líquido dentro del recipiente suba por el tubo. Al llegar a la salida, donde hay
un chorro de aire, es arrastrado por éste y se pulveriza formando gotas minúsculas.

Usando el mismo razonamiento anterior puede explicarse el hecho de que al suspender dos
esferas ligeras cercanas una de la otra y soplar en medio de ellas, se aproximen y choquen
entre sí, como si apareciera una fuerza de atracción (Figura III. 6 (c)).

31
Figura III. 6. Explicaciones "a los Bernoulli". (a) Pelota en un chorro, (b) pulverizador,
(c) "atracción" entre esferas.

Esta atracción aparente, debida a la distinta distribución espacial de presiones, que es sencilla
de explicar invocando el teorema de Bernoulli, es el origen de múltiples fenómenos que de otra
manera parecen incomprensibles. Entre ellos destaca la atracción entre automóviles y barcos
que viajan paralelos. Cuando un automóvil rebasa a un camión de grandes dimensiones, es
necesario sostener el volante con cierta fuerza; si se deja el volante libre, el automóvil se
moverá hacia el camión (no es muy recomendable realizar este experimento).

Los capitanes de grandes barcos conocen este efecto; los que no, tienen ahora otra actividad de
naturaleza terrestre. Un caso conocido es el de los barcos Olympic y Hauk. El primero, un
transatlántico de grandes dimensiones, navegaba tranquilamente en mar abierto durante el mes
de octubre de 1912. El segundo era un acorazado, pequeño en relación al Olimpic, que
navegaba con una velocidad mucho mayor y en forma paralela (Figura III. 7(a)). Al
encontrarse a una distancia de unos cien metros sucedió algo imprevisto, que no tuvo nada que
ver con saludos mutuos. El Hauk cambió de rumbo en forma intempestiva y se dirigió directo
al Olympic, sin que el timón sirviera para evitar la colisión (Figura III. 7(b)). La proa del
acorazado se hundió en el casco del gran buque, abriendo una aparatosa vía de agua. Al
margen de la incapacidad del tribunal marítimo que juzgó el caso y culpó al capitán del
Olympic por no dar paso al acorazado, lo que ocurrió fue precisamente un caso de atracción
hidrodinámica. Entre los barcos se formó un "canal" por donde el agua pasó más rápido que en
la región exterior, esto en ambos barcos, que se consideran fijos (Figura III. 7(a)). La
diferencia de presiones entre la zona interna y la zona externa produjo una fuerza que se puso
de manifiesto en el barco más pequeño.

32
Figura III. 7. (a) El Olympic alcanza al Hauk. (b) Resultado de la atracción
hidrodinámica.

El teorema fue sólo una de las aportaciones de Bernoulli. El original enfoque que dio el
planteamiento y solución de diversos problemas fue de gran valor para el desarrollo de la
naciente disciplina y constituyó un vigoroso estímulo para las brillantes dotes de algunos de
sus contemporáneos y amigos.

En 1755 aparecen, una tras otra, las obras clásicas de Euler sobre los fundamentos de la
mecánica de los fluidos. El genio matemático más notable del siglo había asimilado por
completo la obra newtoniana y lo había plasmado en un lenguaje mucho más elegante y
preciso. Formuló las ecuaciones diferenciales de movimiento en su forma general, deduciendo
a partir de ellas los resultados previos ya conocidos, como el teorema de Bernoulli, dándoles
su verdadera dimensión y generalidad. Posteriormente, exploró un gran número de
consecuencias y atacó múltiples problemas de carácter práctico asociados a la maquinaria
hidráulica, particularmente la turbina, la resistencia sobre barcos y la propulsión.

La copiosa correspondencia entre Euler, D'Alambert y Lagrange, entre otros, permite entender
el interés que tenían las mejores mentes analíticas de la época por los problemas asociados a
los fluidos. D'Alambert, que gozó la cima de las matemáticas francesas, dedicó la segunda
parte de su vida a estudios de carácter experimental. Después de introducir diversos conceptos
y métodos analíticos en sus dos obras básicas sobre fluidos, demostró lo que se conoce como
la paradoja de D'Alambert. Como consecuencia de las ecuaciones de Euler, que ignoraban la
existencia de la viscosidad, resultaba que la fuerza que sufre un obstáculo inmerso en una
corriente era nula; es decir, el objeto no era arrastrado por el flujo. Para D'Alambert era claro
que este resultado matemático estaba en franca contradicción con sus observaciones y que el
problema debía estar en alguna de las premisas de la teoría. En forma consistente subrayó la
primacía que el experimento debía tener sobre la teoría. Argumentos diversos de Euler y de
Lagrange, para aclarar la paradoja, no pudieron convencerlo. La formulación matemática de la
teoría hacía imposible que a un fluido en movimiento se le pidiera adherirse a la superficie de
un sólido en reposo.

33
Como consecuencia de haber ignorado la fricción interna de los fluidos se tenía el peculiar
resultado de que los fluidos no mojaban las paredes... ¡La hidrodinámica era el estudio del
agua seca!

III. 4. EL SIGLO SINCRÉTICO

En los cien años comprendidos entre 1750 y 1850 se sentaron las bases teóricas y
experimentales de la mecánica de los fluidos. Ese siglo sirvió para resumir, ordenar y extender
el conocimiento que sobre los fluidos se había acumulado durante miles de años. Desde
entonces hasta la fecha la tarea ha sido la de extraer de estos principios, formulados en forma
matemática, la información necesaria para poder entender y predecir el comportamiento de los
fluidos.

En la primera mitad de este notable periodo aparecieron, junto a las históricas obras de carácter
teórico, una serie de memorias clásicas de cuidadosos trabajos experimentales. Destacan el
veneciano Giovanni Poleni (1683-1781), el inglés John Smeaton (1724-1792) y la escuela
francesa, en particular Henri de Pitot (1695-1771), Antoine Chézy (1718-1798), Jean Charles
de Borda (1733-1799), el mismo D'Alambert, Charles Bossut (1730-1814) y Pierre Louis
George DuBuat (1734-1809).

Es embarazoso limitar la lista de nombres y, más aún, no mencionar algunos de los detalles
que hicieron de sus contribuciones un párrafo hermoso en las páginas de la investigación. Así,
con la frente baja y ofreciéndoles nuestra admiración, diremos que sus esfuerzos y logros no
fueron en vano. Los estudios que dejaron sobre la fuerza de flujos sobre obstáculos, sobre la
salida de fluidos a través de orificios, sobre el cauce de canales y ríos, ondas y olas, máquinas
hidráulicas de la más diversa índole y más, fueron el cimiento de las obras futuras. Sus
experimentos fueron nuevos y determinantes, como lo fue el análisis de los datos y su
interpretación al usar conceptos originales y más sencillos, abriendo así el panorama para las
correctas e importantes generalizaciones que establecieron.

El periodo de gestación asociado a los últimos cincuenta años del siglo XVIII no se limitó,
desde luego y antes bien al contrario, a los fluidos, a la parte académica o a la intelectual. La
sociedad estaba fraguando una lucha contra el hambre, contra la injusticia y por la libertad e
igualdad. Así, se entiende la intensa actividad que se aprecia en los fluidos; nada sorprende
pues que Lagrange visitara a Voltaire a instancias de D'Alambert y que este último dirigiera y
participara en una extensa obra de coordinación y planeación de vías fluviales, navegación y
canalización en toda Francia.

La explosión revolucionaria francesa, la primera República, Robespierre y Danton, la aventura


napoleónica, la reinstauración de la República y tantos hechos, aparecen reflejados en todo.
También en la revolución asociada a los fluidos.

Con la segunda etapa, correspondiente a la primera mitad del siglo XIX, concluye el
nacimiento de la mecánica de los fluidos. Mucho se ha hecho desde entonces y mucho,
seguramente mejor, habrá de hacerse en el futuro. La criatura nació y creció, llegando a su
infancia al empezar el último siglo del milenio. Veamos cómo acabó de formarse y qué dones
(y defectos) trajo al mundo. Para hablar de su madurez habrá que esperar, al menos, un ratito.

Desde el punto de vista experimental, el siglo XIX se inició con una sólida tradición. Se
contaba con una gran variedad de técnicas y métodos muy confiables y, en consecuencia, de
resultados razonablemente precisos, en especial sobre la resistencia de obstáculos a un flujo.
La hidráulica había avanzado en forma casi independiente de la hidrodinámica teórica. En

34
cierto sentido, caminaban por veredas distintas, aunque paralelas, compartiendo problemas y
perspectivas pero difiriendo en métodos, prioridades y lenguaje.

El consenso en torno a lo equivocado que era ignorar los efectos de la viscosidad se había
alcanzado en la primera década del naciente siglo. Sin duda, Newton y algunos de los que le
siguieron se dieron cuenta de la necesidad de incorporar el efecto y así lo comentaron en sus
obras. Sin embargo, sus intentos para lograrlo fueron infructuosos.

En 1821 se presentó ante la Academia de Ciencias, en París, un trabajo de Claude Louis Marie
Henri Navier (1785-1836), ingeniero de formación y vocación. En éste se deducían las
ecuaciones fundamentales de la elasticidad, que hoy en día llevan su nombre, para describir el
equilibrio y las vibraciones en un sólido. Estas resultaban de un análisis puramente matemático
en el que los átomos, entonces entes hipotéticos, se imaginaban como partículas que
interactuaban por medio de resortes. No sorprende que fuese Navier el primero en construir un
puente colgante a partir de un proyecto y de un cálculo; previamente las construcciones se
hacían sobre bases empíricas.

Un año después, Navier presentó una memoria en la que, guiado por una analogía formal con
la teoría de la elasticidad, deducía por primera vez las ecuaciones que incorporaban la
viscosidad en la dinámica de un fluido. Como caso especial, el fluido ideal o invícido (que no
presenta fricción interna), recuperaba las ecuaciones de Euler; en el caso general, las
ecuaciones eran de una naturaleza esencialmente distinta. Desafortunadamente, la deficiente
interpretación que dio a sus resultados, al resolver ciertos casos, le impidió explorar su notable
contribución. Aun así, el agua, y todos los fluidos, ¡habían empezado a mojar!

Las ideas de Navier sobre la atracción y repulsión entre las moléculas, como origen de la
viscosidad, fueron seguidas y ampliadas por dos excelentes matemáticos de la época: Simeon
Denis Poisson (1781-1840) y Agoustin Lonis de Cauchy (1789-1857). El carácter especulativo
de las hipótesis "microscópicas" que usaron le da a sus trabajos en este particular un interés
sólo histórico.

Siguiendo una argumentación totalmente distinta y en términos de conceptos puramente


macroscópicos, evitando todo lo relativo a la constitución última de un fluido, Jean Claude
Barré de Saint Venant (1797-1886) dedujo las mismas ecuaciones de Navier. Su trabajo
publicado en 1843, contiene una deducción semejante a la que hoy en día se sigue para obtener
las ecuaciones; ese crédito nunca lo recibió. La fama de Saint Venant provino de sus múltiples
trabajos en elasticidad, ya que en hidrodinámica su nombre no fue asociado ni a las ecuaciones
que obtuvo, ni a diversos resultados que posteriormente fueron encontrados por otros
investigadores, particularmente de Inglaterra.

El Imperio británico, en plena expansión y en la víspera de su apogeo, fue el ámbito donde la


teoría y los experimentos alcanzaron la cumbre. Pasadas las guerras napoleónicas y con la
República francesa en proceso de consolidación, la hegemonía política pasa a la sede del
imperio; el dominio académico también. Mientras se consolidan, controlan y explotan las
colonias africanas, americanas y asiáticas, que incluyen a cerca de la cuarta parte de la
población y superficie del planeta, las ciencias florecen otra vez, sobre la fértil tierra de una
tradición sólida y rica. Técnica y ciencia retroalimentan a la Revolución Industrial que, en
estos cien años que hemos considerado sincréticos, nace, madura y se extiende.

En ese empono económico y cultural brilla, con otros distinguidos científicos, George Gabriel
Stokes (1819-1903). Este matemático y físico irlandés, quien se educó y vivió en Cambridge
casi toda su vida, fue el primero en ocupar, después de Newton, la cátedra lucasiana de física y
los puestos de secretario y presidenter de la Sociedad Real de Física.
35
Entre sus numerosos trabajos, en muy diversos campos de las matemáticas; y la física teórica y
experimental, destacan los que versan sobre: la dinámica de los fluidos viscosos. En la parte
que concierne a los fundamentos de esta última, el joven Stokes llevó a cabo una elegante
deducción de las ecuaciones que primero obtuviera Navier, en una memoria presentada ante la
Sociedad Real en 1845. Su razonamiento, análogo al de Saint Venant, fue totalmente
fenomenológico, eludiendo especulaciones en torno a la constitución microscópica de los
fluidos.

Postulando como principios generales la conservación de la masa y el momento lineal (la


segunda ley de Newton), como lo hicieran antes Bernoulli y Euler, lleva a cabo un cuidadoso
análisis de las fuerzas que puede experimentar una pequeña parte de fluido. Fue importante la
separación que hizo entre las fuerzas que dependen de la masa de fluido en consideración,
como el peso (atracción gravitacional), y las que dependen de la superficie de la muestra, que
son las responsables de la fricción (recordemos que los raspones los lucimos en la piel). Así,
Stokes construyó una expresión para estas últimas que era la generalización de los estudios que
había hecho Newton al respecto, ya casi olvidados con el tiempo.

El resultado clave fue encontrar que la fuerza de fricción de una parte de fluido sobre otra
depende de la velocidad con la que se mueve una respecto de la otra; en términos más técnicos,
se diría que la fuerza de fricción, por unidad de área, depende linealmente del gradiente de la
velocidad (es decir, de la forma en que varía la velocidad de un punto a otro); qué tan estrecha
es esta relación lo determina un factor constante llamado el coeficiente de viscosidad. A
diferencia de Navier y de Saint Venant, Stokes analizó y resolvió las ecuaciones para algunos
casos, obteniendo los primeros resultados que podían ser contrapunteados exitosamente con
los experimentos. Las ecuaciones llevan ahora el nombre de Navier Stokes.

Sería difícil hallar a un científico cuyo nombre esté asociado a mas resultados que el de
Stokes. En matemáticas hay un importante teorema que lleva su nombre, en fluidos las
ecuaciones básicas llevan su apellido, al igual que una ley de movimiento para esferas y una
paradoja; en óptica, unas líneas espectrales y el corrimiento de la luminiscencia son sus hijas
registradas y bautizadas.

Con el establecimiento de las ecuaciones básicas, el éxito de las primeras e importantes


aplicaciones de ellas, el gran cúmulo de precisas observaciones y el desarrollo de muy diversos
métodos de investigación experimental y analítica, la ciencia de los fluidos tomaba la forma
que tiene tal y como hoy la conocemos. Los cimientos del trabajo de las generaciones futuras
estaban completos.

III .5. MATRIMONIO POR CONVENIENCIA

Una visión antropomórfica de la ciencia de los fluidos nos puede ayudar a entender la
situación.

Se podría pensar que con las bases de la teoría bien establecidas, una sistemática educación
daría a la criatura una madurez de brillante productividad. Como suele suceder, lo que podía
salir mal, salió mal. Apareció un problema que hasta la fecha no ha sido resuelto
satisfactoriamente: las matemáticas necesarias para resolver las recién descubiertas ecuaciones
(no lineales) no se habían desarrollado (¿inventado?, ¿descubierto?...). Así, al comenzar la
segunda parte del siglo XIX , los interesados en la hidrodinámica se encontraron con un
problema claramente planteado pero con insuficientes herramientas para resolverlo.

No es de sorprender que el mismo Stokes iniciara uno de los enfoques para abordar el
problema. "Si no puedes agarrar al toro por los cuernos, ¡corre!", dice un adagio azteca, y así
36
lo hizo. Argumentado cuidadosamente, simplificó las ecuaciones de manera que pudiera
domesticarlas y sacarles provecho. Los resultados que obtuvo por la aproximación tuvieron tal
éxito que hoy en día se siguen explotando estas mismas ecuaciones que, desde luego, también
llevan su nombre. Su análisis del movimiento de una esfera en un líquido sigue siendo uno de
los resultados clásicos de la mecánica de fluidos; la expresión que relaciona a la fuerza que
arrastra a la esfera con el producto de la velocidad de la corriente, el radio de la esfera y la
viscosidad del fluido, se conoce como la ley de Stokes. La utilidad de un resultado tan
"simple" como éste ha sido amplia y de la más diversa índole

Un problema representativo de los fluidos fue (y sigue siendo) el de establecer el flujo en


tuberías. Por evidentes razones prácticas había sido objeto de innumerables estudios teóricos y
experimentales. Hasta que no se incorporó el efecto de la viscosidad, la teoría correspondiente
se había reducido a ejercicios pintorescos en matemáticas "no aplicadas". Experimentalmente,
fue el siglo XIX el que vio los primeros resultados correctos sobre el flujo en un tubo, lo que
no deja de llamar la atención por el uso que de acueductos, drenajes, fuentes y tuberías en
general había anteriormente.

Entre otros, destacan los trabajos de Gotthilf Heinrich Ludwig Hagen (1797-1884) y de Jean
Louis Poiseuille (1799-1869). El primero fue un distinguido ingeniero alemán cuyas
contribuciones recibieron la injusticia de la historia; nunca recibió el crédito por su trabajo.
Poiseuille fue un médico interesado en la fisiología de aparato cardiovascular que, para
caracterizar el flujo sanguíneo, llevó a cabo cuidadosos experimentos en tuberías muy
delgadas (tubos capilares) para determinar la forma del flujo, la resistencia de éste y la
descarga. De esta manera estableció que la cantidad de líquido que pasa por un tubo cada
segundo depende de la carga (la diferencia de presiones por unidad de longitud) y de la cuarta
potencia de su diámetro (el diámetro multiplicado por sí mismo cuatro veces). Veinte años más
tarde se desarrolló el primer análisis teórico que explicaba las observaciones de Poiseuille.
Franz Neumann (1798-1895) y Eduard Hagenbach (1833-1910), en forma independiente,
obtuvieron las expresiones para la forma (parabólica) del flujo y para la descarga, que se
ajustaban bien a los datos conocidos; Hagenbach, al citar sólo a Poiseuille sin mencionar a
Hagen, inició la discriminación de su compatriota.

Vale la pena hacer notar que el problema aún está lejos de resolverse. Una gran cantidad de
trabajos experimentales sobre el flujo en tuberías se sigue publicando en la bibliografía
especializada; innumerables tablas empíricas se han publicado para su uso en el diseño de
sistemas de drenaje, plantas industriales de diferentes características, etc., y complicadas
relaciones entre parámetros del flujo siguen siendo elaboradas. Para las condiciones que se dan
en la práctica, el movimiento de un líquido es sumamente complicado y la teoría ha sido, hasta
la fecha, incapaz de dilucidar el problema. Las predicciones teóricas del siglo XIX, desde
luego aproximadas, han podido mejorarse muy poco.

Muchas contribuciones previas y subsecuentes a las de Navier y de Stokes merecerían un libro


cada una. Sin embargo, aquí el propósito ha sido el de delinear la forma en que se
establecieron los principios básicos. Es conveniente recalcar que la hidráulica, que
escuetamente sería el manejo de los fluidos, gozó del mismo vertiginoso avance que la
hidrodinámica, su contraparte teórica. Aquí sólo hemos esbozado el crecimiento de esta
última. Sin embargo, el desarrollo paralelo de ambas, independiente hasta cierto punto, llevó a
la pareja a la edad del cortejo... Si bien se conocían desde la infancia, como suele suceder,
hubo etapas en que se hablaban poco, cuando no es que se odiaban, especialmente al obligarlos
a estar juntos. Antes de entrar en la parte que concierne al romance, vale la pena describir
algunos rasgos de una de las partes comprometidas.

37
Por un lado, son notables las teorías de vórtices que desarrollaron Hermann Ludwig Ferdinand
von Helmholtz (1821-1894), Gustav Robert Kirchhoff (1824-1887) y William Thomson
(1824-1907), más conocido por su título nobiliario de lord Kelvin. Destacan también las obras
de Joseph Boussinesq (1842-1929) y de John William Strutt (1842-1919), el famoso lord
Rayleigh. El primero de éstos desempeñó el papel que Fernando de Rojas diera a Celestina;
sus rigurosos estudios analíticos fueron siempre contrastados con los datos y las
observaciones, subrayando las virtudes de una relación duradera entre la hidráulica y la
hidrodinámica. Rayleigh, versátil como algunos de sus brillantes contemporáneos, abordó
problemas que siguen siendo una muestra del claro pensar de una exitosa generación de
científicos; su teoría de la propagación del sonido es sólo un ejemplo.

Un protagonista singular de esta época es Osborne Reynolds (1842-1912). Estudiando casi los
mismos problemas que Boussinesq, cultivó el otro lado de la relación que nos ocupa, la
hidráulica. Aun así, cada uno destacó en la contraparte; Reynolds se sublimó en la
hidrodinámica. Sus meticulosos trabajos experimentes eran delicadamente contrapunteados
con resultados analíticos; algo parecido a lo que Mozart hubiese logrado si en lugar de
componer su exquisita e insuperable música se hubiera concentrado en jugar con charcos y la
teoría correspondiente. ¡De lo que se perdieron los fluidos y lo que ganamos todos!

Reynolds, prototipo del profesor distraído, introdujo conceptos y métodos que siguen siendo
aprovechados por quienes nos ganamos el pan con los fluidos. Como "para muestra basta un
botón", caracterizó la forma en que un fluido pasa de un estado de movimiento laminar
(regular) a uno turbulento (caótico), introduciendo, entre otras cosas, un parámetro
adimensional conocido ahora como el número de Reynolds.

La idea básica es como sigue. Una madre ingeniosa decide jugar en la cocina de su casa con
unos popotes. A pesar de las protestas de su familia, averigua cómo se mueve el jugo de
mandarina en su "dispositivo experimental" y, como es de suponerse publica un artículo sobre
el tema. Meses más tarde y en otro país, en una oficina con poca luz, un ingeniero del
Departamento de Aguas debe rediseñar el sistema de drenaje de un barrio, dentro del cual se
encuentra su casa; es decir, le interesa que funcione. ¿Le sirve lo que escribió la susodicha
mamá? Ella trabajó con el jugo de un cítrico, tubos de plástico y una sana curiosidad; él debe
hacerlo con... otros materiales. Gracias a la dama y a Reynolds, el ingeniero puede evitar hacer
pruebas costosas y, tal vez, desagradables.

Supóngase que U es la velocidad media del fluido en un tubo, D el diámetro de éste y v la


viscosidad del fluido. Lo que Reynolds encontró fue que si el valor numérico del producto de
U y D, dividido por v, es el mismo para dos sistemas, aunque parezcan muy distintos, ¡el flujo
será el mismo!. Cosas como el gasto, el carácter laminar o turbulento, etc., serán iguales. Lo
que tiene que hacer el ingeniero es ver si su sistema escala adecuadamente.

Si el diámetro de los tubos del drenaje es de 2 m y el de los popotes es de 0.5 cm, parecería no
haber mucha relación. Digamos que la viscosidad del jugo de mandarina es de
aproximadamente .01 cp y la de lo que se mueve en el drenaje es de cerca de 1 cp (unas cien
veces más viscoso); cp es la abreviatura del centipoise (pronúnciese "sentipuazz"), la unidad
de medición de la viscosidad. Entonces, para que los números de Reynolds de cada caso sean
iguales, basta con que la velocidad del jugo en los popotes sea cuatro veces la del "fluido" en
el drenaje. Además de ser más barato el experimento casero, la vitamina C es mucho más
saludable.

Es justamente en este hecho, el principio de semejanza, que está basado el modelado hidro y
aerodinámico. Cuando se hacen maquetas de muelles, de rompeolas, de aviones o de

38
submarinos, además de divertirse, los investigadores (ingenieros, físicos o matemáticos) se
están ahorrando tiempo, esfuerzo y (a sus patrones) muchos kilogramos de oro. Si el juguetito
flota, el buque tanque de 100 000 toneladas también lo hará..., si es semejante.

Al iniciarse el siglo XX, el cortejo entre la hidrodinámica y la hidráulica parecía no tener futuro
alguno; los intereses comunes o bien se expresaban en lenguajes diferentes o parecían inútiles
o muy complicados. Las obras de Horace Lamb y de A. A. Flamant ilustran bien la situación;
la primera cubre los aspectos teóricos y la otra los experimentales, con poco material común.
La hidrodinámica se interesaba principalmente en los flujos invícidos o ideales, lateralmente
en los flujos viscosos laminares y no hacía caso de los flujos turbulentos, siendo esta última la
característica más importante para la hidráulica. Así, las excelentes virtudes de una disciplina
eran ignoradas por la otra.

En estas condiciones, en 1904, se presentó un trabajo experimental, en un congreso de


matemáticas, en la ciudad de Heidelberg, Alemania. El autor, un brillante ingeniero llamado
Ludwig Prandtl (1875-1953), iniciaba una conspiración para unir a la caprichosa pareja. A raíz
de esa participación, Prandtl fue invitado a trabajar y colaborar en uno de los ambientes más
estimulantes y fértiles para la investigación de que se tiene memoria. Con ese trabajo, titulado
Sobre el movimiento de fluidos con viscosidad pequeña, empezaba una profunda revolución
mecánica de fluidos.

El punto esencial de la contribución de Prandtl, elaborado en una secuencia de publicaciones a


lo largo de una década, y que sólo es parte de su variada obra acerca de los fluidos, fue el
siguiente.

La dificultad era que la hidrodinámica, ese elegante aparato matemático que estudiaba sobre
todo a los fluidos ideales, describía muy bien una parte importante del movimiento real de los
fluidos, como la forma de la estela que deja tras de sí un objeto inmerso en una corriente. Por
otra parte, predecía algunos casos claramente absurdos, como la inexistencia del arrastre de la
corriente sobre el objeto inmerso en ella, en franca contradicción con las observaciones (y la
experiencia de los ahogados en torrentes por todo el mundo).

La solución ahora parece mas o menos obvia, como siempre sucede con los problemas una vez
resueltos. Si la teoría de los fluidos ideales no podía describir correctamente el movimiento de
los fluidos reales cerca de cuerpos sólidos, debía haber una forma de tomar en cuenta los
efectos de la viscosidad en la inmediata vecindad de las paredes de éstos. Es decir, muy cerca
de una superficie sólida debía existir una región, que Prandtl bautizó como la capa límite, en la
que dominaran los efectos viscosos; fuera de ella, la descripción del modelo de fluidos ideales
debía ser suficiente. De esta manera, el problema se reduce a simplificar las ecuaciones de
Navier-Stokes lo necesario como para poder resolverlas dentro de la capa límite; fuera de ésta,
los resultados deben ser iguales a los del caso ideal.

Y así, Prandtl quiso, pudo e hizo. Haciendo ver las bondades de cada parte y las desventajas
del celibato para una pareja tan potencialmente fértil, manipuló la situación y documentó (con
teoría y experimentos) la conveniencia de ese matrimonio. El amor llegará después —les
decía— y a la pareja la dejó bien casada. La prole sigue agradecida a Prandtl por las delicadas
gestiones que hizo para abrir un horizonte que explorar, donde antes sólo parecía haber una
oscuridad abisal.

Las contribuciones sobresalientes de Prandtl no quedaron ahí, ni fue éste el último de los
brillantes investigadores en el tema; algunos de los que faltan, varias ideas y métodos, como
las que abordan la turbulencia o el uso de las computadoras, aparecerán más adelante.

39
Con este panorama de la historia de los fluidos, un tanto cubierto de nubes, pero con
suficientes claros que dejan entrever el hermoso paisaje, es mejor dejar a la mente descansar y
a los ojos distraer. Es un buen momento para detener la lectura, estirar las piernas y mirar a un
fluido de frente. Luego, viendo agua, aire o fuego, murmurar en silencio, (lo que no haríamos
con un adolescente) "te voy entendiendo...".

La fotografía muestra el flujo alrededor de un cilindro, como en la figura anterior; la diferencia


estriba en que en este caso la velocidad con la que llega el fluido (de derecha a izquierda) es
mucho mayor.

Esta técnica de visualización, introducida a principios de siglo, es hoy en día un elaborado


arreglo experimental en el que intervienen todos los adelantos tecnológicos en óptica,
electrónica, computación y diseño mecánico. El procesado numérico de imágenes y datos,
logrados a partir del análisis de luz láser, dispersada por esferas de poliestireno de una micra
de diámetro suspendidas en el fluido, nos permite estudiar minuciosamente flujos que hace
unas décadas no se imaginaban, en particular los flujos turbulentos, caóticos y complejos, que
discutiremos en el capítulo V.

40
I V . G A L A X I A S , H U R A C A N E S Y
D E S A G Ü E S

Los movimientos con vorticidad son los más comunes en nuestro Universo. Desde el
microscópico ámbito de los átomos hasta el inconmensurable espacio del Cosmos, los vórtices
hacen acto de presencia simultánea en casi todos lados, es decir, ejecutan el portentoso acto de
la ubicuidad. Y claro uno se pregunta ¿qué es la vorticidad?, ¿qué son los vórtices?, ¿cómo
están relacionados estos conceptos?

Antes de intentar precisar ideas veamos algunos aspectos relacionados con ellas, siguiendo el
adagio de "por sus obras los conoceréis".

Empecemos usando como imagen prototipo de vórtice a nuestro remolino favorito. Como en el
caso de los fluidos, siempre es bueno tener un ejemplo sencillo en la mente; se sugería utilizar
como prototipo al aire o el agua. Los casos extravagantes también sirven, como las sales
radiactivas fundidas o el caldo de cilantro con ajonjolí, aunque pueden ser más apetitosos o
dañinos que ilustrativos.

¿Quién no ha disfrutado al mirar las fotografías de una galaxia espiral o de la gran Mancha
Roja de Júpiter? ¿Quién no ha sido atraído (o repelido) por las imágenes de un huracán o de un
tornado? ¿Quién no ha visto un remolino de polvo o el que forma el agua en un desagüe? La
primera pregunta la contestaremos a continuación, la segunda más adelante y la última queda
de tarea.

Figura IV. 1. Galaxia espiral. Messier 81, en la Osa Mayor. Observatorio Hale.

41
Con respecto a los vórtices, de misterioso sólo tienen el mestizante efecto que da un buen
espectáculo, lo que no significa que sean triviales de entender, manejar o predecir. De hecho,
son protagonistas de algunos de los problemas más profundos de la física.

Figura IV. 2. La gran mancha Roja de Júpiter.

El interés por entender este truco giratorio que los alrededores practican sobre nosotros todo el
tiempo no es, desde luego, ni reciente ni morboso. Se manifiesta ya en las estelas asirias, los
jeroglíficos egipcios, los mitos más antiguos de las culturas nórdicas y las procupaciones de
los griegos. Lo encontramos también en los glifos mayas, en las grandes obras de la literatura
universal, en los dibujos exquisitos de Leonardo da Vinci y en lo que nos contó una tía de su
niñez casi olvidada. Este interés nos nace al ver volar un papalote o un paraguas, al lavarnos
las manos, o cuando alguna vez jugamos con el agua de la orilla de un estanque prohibido. En
los permitidos también se ven, dicen.

No sorprende entonces que los vórtices hayan desempeñado un papel importante en la


elaboración de los modelos destinados a explicar el mundo y sus peculiaridades.

La primera teoría moderna del Universo se debe a Descartes, en el siglo XVIII. En ésta
imaginaba un mar infinito en el que los planetas, el Sol y las estrellas se movían influidos
mutuamente por el efecto de los vórtices que ellos mismos producían. El Sol, al girar,
arrastraba a los planetas en un atractivo carrusel celeste. Newton, en cambio, se concentró en
estudiar a los fluidos para probar que, al rotar, no generaban el modelo de movimiento
observado, descartándose así, cien años después, el universo cartesiano de vórtices.

Uno de los últimos intentos por construir un universo dominado por los vórtices fue hecho por
lord Kelvin, hacia finales del siglo XIX. Al formular la atractiva teoría de nudos, que es
motivo de un renovado interés para describir, entre otras cosas, una parte de la dinámica de los
plasmas, Kelvin intentó explicar la naturaleza atómica y molecular con anillos de vorticidad;
los anillos de humo son un buen ejemplo. De esta manera, los átomos y sus compuestos eran
interpretados como las diversas formas en que estos anillos podían combinarse, anudándose de

42
acuerdo con ciertas reglas; las ideas originales de Kelvin sufrieron el mismo fatal decaimiento
que sufren todos los vórtices.

Ya sea porque fueron mencionados en las epopeyas de Homero, en los andares por el Infierno
de Dante o en las Reflexiones de Goethe, o porque fueron ilustrados en las pinturas de Van
Gogh y Tamayo, y porque son sugeridos por los rollos de mar que se mueren en las playas o
por el humo que sale a borbotones de una chimenea, los vórtices siguen siendo un tema
recurrente para quienes estudian la naturaleza, desde cualquiera de sus enigmáticos ángulos.

IV .1. VÓRTICES Y VORTICIDAD

Donde hay un fluido en movimiento hay vorticidad y casi siempre vórtices; ahora que cuando
hay vórtices, siempre hay vorticidad. Sí, hay que aceptarlo, es un tanto oscuro pero se irá
aclarando, como la ropa con las lavadas.

Definir un vórtice no ha sido, hasta ahora, algo sencillo. Es más o menos claro que tiene que
ver con el dar vueltas en torno a un punto y que el giro debe estar referido a un movimiento
colectivo, que comprende a más de un objeto o partícula. Con estas ideas en mente podemos
hacer la siguiente proposición: Un vórtice es el patrón que se genera por el movimiento de
rotación de muchas partículas alrededor de un punto común (no necesariamente fijo en el
espacio); recordando nuestro muy particular remolino o los ejemplos previos, la definición
parece ser suficiente. Sin embargo, si uno busca en la bibliografía especializada resulta que no
hay consenso sobre el asunto; no hay una definición clara y unívoca, ya no se diga matemática.
Ingenieros, matemáticos o físicos, ni qué decir de otros especialistas, difícilmente aceptarían
nuestra propuesta y cada quien sacaría su ejemplo preferido para mostrar la necesidad de
ampliarla, recortarla o todo lo contrario. Más adelante veremos la importancia que tendría el
poder contar con ella. La definición que hemos dado es la suma de lo que todos intuimos más
algunos detalles adicionales. Eso sí, si el "remolino" que usted escogió no está correctamente
descrito por la definición, por favor, piense en otro.

¿Qué es la vorticidad? La respuesta aquí es más sencilla, pues todos están de acuerdo. En
cambio, es algo más abstracto y no tan evidente, ¡lo opuesto a los vórtices! El concepto fue
introducido por Cauchy y por Stokes. La vorticidad, para empezar, es un campo vectorial; es
decir, su magnitud y dirección están definidas en cada punto del espacio ocupado por el fluido.
En cierto sentido, es una medida de la velocidad con la que rota cada partícula de fluido.

Si imaginamos a una partícula de fluido con cierta forma, es fácil convencerse, y demostrar
rigurosamente, que lo más que le puede pasar es una de tres posibilidades: cambia de posición,
trasladándose con la misma orientación y forma; cambia su orientación, sin trasladarse o
deformarse; se deforma, sin rotar o trasladarse. Cualquier otra cosa puede explicarse como una
combinación de estas tres acciones simples. La vorticidad es justamente lo que caracteriza a la
segunda transformación.

Para un fluido girando uniformemente alrededor de un punto, como lo haría una tornamesa, la
vorticidad (que es constante) es igual al doble del número de revoluciones por segundo y su
dirección es perpendicular al plano de giro, paralela al eje de rotación.

Aunque todos los vórtices tienen vorticidad, no siempre que hay vorticidad existe un vórtice.
El flujo más sencillo que ilustra este punto es el paralelo cortante (Figura IV .3). Se le llama
así porque las partículas de fluido se mueven paralelas unas a otras y porque las fuerzas, por
unidad de área, son cortantes (capítulo II, figuras II. 1 y II. 2).

43
Figura IV. 3. Flujo cortante simple (paralelo cortante o de Couette plano).

En este flujo, también llamado de Couette plano, las partículas de fluido se mueven paralelas
unas a otras; la velocidad que llevan depende de la distancia que hay al fondo. Las líneas
muestran las trayectorias y las flechas el tamaño de la velocidad. Una partícula con extensión,
por pequeña que sea, sentirá que la arrastran más por arriba que por abajo (debido a la
viscosidad) y tenderá a rotar. Si se calcula la vorticidad de este flujo se encuentra que no es
cero; su tamaño es igual a la velocidad de arriba dividida por la profundidad y su dirección es
la de nuestro dedo al señalar la figura. Nadie (esperamos) diría que hay remolinos (vórtices)
ahí dentro.

Basta con observar con atención para descubrir vórtices en casi cualquier lado. Las
"presentaciones" en que éstos vienen son de lo más diversas; aparecen en gases, en líquidos y
hasta con cuerpos sólidos y sus tamaños varían entre las dimensiones cósmicas y las atómicas.

Para darnos una idea de las escalas de tamaño y velocidad que tienen estas ubicuas estructuras,
veamos unos ejemplos; algunos serán comentados con cierto detalle más adelante.

Vórtices Diámetro (en metros)

Rotaciones internas en el núcleo atómico 10-17


Vórtices cuantizados en helio líquido 10-8
Remolinos más chicos en un flujo turbulento 10-3
Vórtices en la estela de una ballena 1-10
Tornados y huracanes 10-105
Estructuras atmosféricas en planetas 107
Convección interior en las estrellas 109
Galaxias espirales 1020

En este cuadro, vemos que las estructuras vorticosas más grandes tienen dimensiones de miles
de años-luz (distancia que recorre la luz en un año; viaja a casi 300 000 km/seg) y las más
pequeñas, en el interior de los núcleos atómicos, son de un metro dividido por un 1 seguido de
diecisiete ceros; las longitudes son en ambos casos inimaginables...
44
Las velocidades de rotación varian dentro de un intervalo más chico. El límite superior siendo
la velocidad de la luz, la máxima alcanzable en el Universo, mayor a los 1 000 000 000 km/h.

IV. 2. TORBELLINOS CÓSMICOS

Dentro del inmenso foro que constituye el Universo, muy lejos de nosotros, hasta donde
podemos percibir con nuestros más potentes telescopios, hay objetos que parecen remolinos
multicolores congelados en el espacio y el tiempo. Formados por miles de millones de estrellas
que se revuelven en torno a un centro demasiado luminoso para desentrañarlo y entenderlo,
descubrimos fantásticos vórtices de dimensiones inimaginables. De hecho, el grupo de
estrellas del que forma parte nuestra estrella más cercana, el Sol, es una de estas exquisitas y
arremolinadas estructuras.

Nuestra Galaxia, la Vía Láctea, es muy parecida a la que se ilustra en la figura IV. 1. Con un
diámetro cercano a los 70 000 años-luz, nuestro Sistema Solar se encuentra en una zona
cercana a la orilla, como a 30 000 años- luz del centro. Como un punto común y corriente, sin
ninguna característica especial o privilegiada, el Sol gira alrededor del centro de la galaxia, de
modo que da una vuelta cada 250 millones de años. Por la distancia a la que nos encontramos
del centro, la velocidad efectiva de giro es de casi 1 000 000 km/h. Por algo Galileo dijo en
voz baja para sí, ante mentes inmóviles, "y sin embargo, se mueve". ¡Lo hubiese gritado de
haber sabido la velocidad de la Tierra en la Galaxia!

La estructura espiral de nuestra Galaxia es algo común en el Universo; se conocen cientos de


ellas. Muchos modelos para explicar la forma en que está distribuida la masa (las estrellas), la
forma en que giran (más rápidamente cerca del centro), etc., están sustentados en
formulaciones hidrodinámicas. Es decir, se ignora que están formados por partículas (estrellas)
y se estudian como a los fluidos (continuos), con ecuaciones muy semejantes.

Inmensas regiones de gases, millones de veces mayores que una galaxia como la nuestra, son
estudiadas como fluidos autogravitantes en los que la densidad fluctúa; de estas contracciones
locales de materia se generan nuevas estrellas y con ellas galaxias. De la manera en que la
vorticidad puede estar distribuida y de cómo evoluciona es posible inferir mecanismos que
expliquen las formas de los cúmulos de estrellas, los gigantescos chorros de materia que se
observan con los radiotelescopios o la aparición de nuevas inhomogeneidades espaciales
(irregularidades en la densidad de materia).

Si confinamos nuestras observaciones sólo a nuestro Sistema Solar y vemos con atención a los
planetas mayores, desde luego que nos quedamos igual, pues no distinguimos más allá de
puntitos luminosos. Ahora que si usamos un telescopio o pedimos una fotografía de las
enviadas por las recientes naves interplanetarias (Voyagers y Vikings), nos sorprendemos por
la maravillosa vida que presentan sus atmósferas. Secuencias de fotografías o videos de
Saturno, de Neptuno y especialmente de Júpiter ponen de manifiesto una bellísima estructura y
una intensa actividad. Aunque la complicada dinámica dista mucho de entenderse, los vórtices
multicolores revelan parte de los mecanismos en juego.

La gran Mancha Roja de Júpiter es sin lugar a dudas el vórtice más famoso y conspicuo del
espacio exterior a nuestro planeta. A 22° abajo del ecuador del planeta más grande del Sistema
Solar se encuentra un gigantesco remolino rojo. Si este monstruoso torbellino se encontrase en
la Tierra estaría ubicado en la latitud de Río de Janeiro (no es de sorprender que el remolino
terrestre correspondiente lo formen los cariocas). Las dimensiones de la Mancha Roja son de
22 000 km de largo por 11 000 km de ancho y va disminuyendo poco a poco con el tiempo.
Hace más de cien años, mientras Benito Juárez discutía las Leyes de Reforma, la Mancha Roja
era del doble del tamaño y, como aún sucede, podría contener a todos los planetas internos,
45
desde Marte hasta Mercurio, pasando por la Tierra. Su intenso color anaranjado, que varía
entre el tenue crema sonrosado y el rojo carmín, se debe a las complejas reacciones químicas
que ocurren entre los gases que conforman su atmósfera.

Sin contar con la misma belleza o las grandiosas dimensiones que posee la Mancha Roja,
remolinos espectaculares se han observado en las superficies de Saturno, Neptuno y Urano.
Como apocalípticas tormentas sobre inexistentes habitantes, estos gigantescos vórtices
aparecen, se extienden y se disipan para regocijo de los astrofísicos planetarios. Sin embargo,
los mecanismos que los engendran parecen ser muy distintos a los que generan los grandes
huracanes venusinos, terrestres y marcianos.

Júpiter es un planeta en el que las estaciones no existen. Su eje de rotación es casi


perpendicular al plano de su órbita y su temperatura varía muy poco entre los polos y el
ecuador; la diferencia es de sólo tres grados centígrados, que contrasta con la correspondiente
diferencia de temperaturas en la Tierra (encuestas entre peruanos y norfinlandeses así lo
indican). Las estaciones se deben a que el eje de la Tierra está inclinado, no al carácter elíptico
de la órbita. De hecho, la órbita terrestre es casi circular; se requieren medidas muy precisas
para apreciar la excentricidad. Es decir, si dibujamos la órbita (elíptica) de la Tierra en una
hoja como ésta, con nuestra pluma favorita, la diferencia con un círculo seria menor que el
grosor del trazo.

La circulación atmosférica norte-sur no la conocen ni los jovianos ni los saturninos. De aquí la


existencia de bandas o fajas paralelas al ecuador en los grandes planetas y la ausencia de éstas
en los planetas más pequeños, aunque más divertidos. Estas bandas son regiones de alta y baja
presión, llamadas zonas y cinturones, que corresponden a gigantescos chorros que se mueven
en direcciones opuestas y en donde los vientos alcanzan velocidades de 500 km/h. En las
regiones entre unas y otras, que se encuentran alternadas, aparece toda suerte de fenómenos
exóticos; patrones regulares de vórtices que adornan miles de kilómetros, megavórtices como
la Mancha Roja y su hija blanca un poco más al sur, conjuntos bailables de vorticillos (de sólo
unos cientos de kilómetros) con ritmos y colores que no envidian ni a una pegajosa salsa ni al
alegre vestuario de un carnaval. Júpiter se inspira sin duda alguna en la imaginativa obra
plástica de Niermann.

Otros factores relativamente comunes entre la Tierra, Venus y Marte son las velocidades de
rotación, la proporción entre superficie sólida y grosor de la atmósfera, las densidades
atmosféricas y la diferencia entre la energía que reciben y la que reflejan o emiten; todo esto
muy distinto a lo que sucede en los grandes planetas externos.

Por ejemplo, mientras que la Tierra emite la misma energía que recibe del Sol, Júpiter emite
casi el doble de la que recibe; aún guarda energía de su proceso de formación al contraerse
gravitacionalmente al principio de los tiempos. Desde la cuna fue más generoso que la Tierra.
Siendo mucho mayor que nuestro planeta gira casi dos y media veces más rápido. Además, de
grandes consecuencias climáticas, en la atmósfera de Júpiter la densidad depende sólo de la
presión, o lo que es equivalente, las regiones con igual presión tienen la misma temperatura; se
dice entonces que es barotrópica. Esto no sucede en nuestra blanquiazul envoltura que
llamamos baroclínica. Por lo tanto, la dinámica atmosférica joviana es muy distinta a la
terrestre (afortunadamente).

Los otros planetas mayores comparten con Júpiter algunas de sus vistosas características.
Saturno presenta además su extraordinario sistema de anillos. Fuera de su atmósfera exhibe
uno de los vórtices más fantásticos que se conocen, para no ser menos conspicuo que su
hermano mayor. Como queriendo desafiar las leyes mecánicas que conocemos, muestra

46
millares de anillos concéntricos, regulares y notablemente planos. Salvo por algunas
irregularidades que transitan como fantasmas a lo ancho y largo de los anillos, la perfección
del movimiento vorticoso de millones de trozos de hielo nos sigue asombrando. Como
seguramente le sucedió a Galileo cuando descubrió sin entender la inverosímil estructura, las
preguntas que se ocurren superan a las respuestas que tenemos.

Los anillos, como casi todas las características que se han ido encontrando en nuestros planetas
vecinos, no son exclusivos de alguno en especial. Varios de ellos tienen bandas y anillos,
algunos tienen superficies sólidas complejas y atmósferas activas, otros tienen satélites
naturales, etc. Así los planetas, como sucede con los humanos y los animales en la granja de H.
G. Wells, siendo todos iguales hay unos más iguales que otros y, sin embargo, no existen dos
completamente iguales.

Del vasto espacio cósmico a la vecindad del Sol, los movimientos giratorios, como gigantescos
tiovivos, son más la regla que la excepción. Nada parece moverse en línea recta. Nuestra
galaxia gira, con muchas otras. En su movimiento hacia la constelación de Lira, nuestra
estrella local se revuelve en torno al misterioso centro de la Vía Láctea; los planetas, que tanto
estimulan la imaginación por los deseos de una inexistente compañía, rotan alrededor del Sol y
sobre sí mismos. Desde su tenue superficie hasta el inaccesible interior, cada planeta
manifiesta una agitada vida dominada por vórtices.

IV. 3. HURACANES Y LAVABOS

La Tierra, el único sitio habitado que conocemos, vista desde fuera parece una esfera azul con
caprichosas pinceladas blancas que cambian suavemente con el paso del tiempo. Con cada
revolución parecen generarse de la nada, se organizan y se desvanecen otra vez para
recomenzar otra composición plástica. Un aspecto curioso del espectáculo pictórico
permanente es la tendencia a girar de estas móviles decoraciones. Bajo circunstancias
especiales, las hermosas espirales se estabilizan por un rato, se organizan hasta cubrir cientos
de kilómetros y en un recorrido aparentemente loco se convierten en fuentes de destrucción y,
paradójicamente, de vida.

Huracán, que viene de la palabra furacán, y que escuchara Cristóbal Colón de los nativos
durante su segundo viaje, es el nombre más común que se da a los vórtices atmosféricos
terrestres más grandes. Son tormentas caracterizadas por vientos huracanados (mayores de 120
km/h) que, en trayectorias espirales, se mueven hacia un centro común conocido como el ojo
del huracán. En el hemisferio norte el giro es invariablemente ciclónico, es decir, en contra de
las manecillas del reloj, y en el hemisferio sur al contrario. Llamados también tifones y
ciclones, entre otros muchos nombres, se empezaron a registrar en forma regular a partir del
descubrimiento de América.

La historia de muchos de estos fenómenos usualmente va acompañada de tragedias. Vastas


inundaciones, numerosas embarcaciones desaparecidas, incalculables daños materiales e
incontables pérdidas de vidas humanas sellan los recuentos del paso de los huracanes.

Kamikazi, el viento divino, es el nombre que recibió el tifón que en 1281 acabó con las
aspiraciones de Kublai Khan para invadir el Japón. La flota completa, con más de 100 000
soldados chinos, mongoles y coreanos, desapareció en la Bahía de Hakata, Japón.

En términos de vidas humanas, las mayores catástrofes registradas fueron en 1737, cerca de
Calcuta, India; en 1881 en Haifong, Vietnam, y en 1970 en la Bahía de Bengala, Bangladesh;
se estima que más de 300 000 personas perdieron la vida en cada caso. La presencia de

47
intensas lluvias, de hasta decenas de centímetros en unas horas, y de una marejada que supera
los 10 m de altura, da lugar a las inundaciones que cobran la mayoría de las víctimas.

Con una extensión que puede llegar a los 2 000 km de diámetro, los huracanes viajan con
velocidades relativamente bajas e irregulares que oscilan entre los 10 y los 50 km/h. La
duración de un ciclón también es muy variable, pues puede ser de unas horas hasta semanas, y
recorrer distancias de hasta 2 000 km. Los vientos en la espiral alcanzan velocidades cercanas
a los 350 km/h en la vecindad del ojo, dentro del cual una calma desconcertante aparece
abruptamente; en unos minutos el viento pasa de una violencia feroz a una leve brisa. En el
ojo, cuyas dimensiones varían entre los 20 y los 100 km, la presión alcanza los valores más
bajos que se hayan registrado en la superficie de la Tierra.

El hecho de que transportan grandes cantidades de agua a través de varios grados de latitud y
que se estima que un huracán maduro transporta entre 2 000 y 4 000 millones de toneladas de
aire por hora, los convierte en elementos importantes para la circulación y transporte
atmosféricos globales en la Tierra. El calor que llevan de zonas tropicales a latitudes más frías
y las lluvias que dejan a su paso son parte de los beneficios que traen consigo.

Si bien se conocen los mecanismos básicos para su generación, propagación y decaimiento


final, aún hay aspectos poco claros que impiden una confiable predicción de estos fenomenales
eventos atmosféricos.

En una acción internacional promovida por la ONU, con pocos precedentes, la década de los
noventa ha concentrado un gran esfuerzo científico para estudiar los huracanes. Una comisión
multidisciplinaria presidida por James Lighthill, uno de los notables hidrodinámicos del siglo,
ha iniciado estudios de la más diversa índole para esclarecer este tema cuanto sea posible. El
propósito fundamental es hacer más eficientes las gigantescas simulaciones numéricas que
actualmente se llevan a cabo para poder predecir la aparición, intensidad, dirección y duración
de un ciclón. En 1991, la predicción de la evolución de un ciclón por una semana requería de
un tiempo de 75 horas de cómputo (usando la computadora más grande y rápida del mundo).

Figura IV. 4. Huracán sobre el Océano Pacífico (NASA, Apolo 9).

48
Uno de los problemas más grandes es la falta de datos meteorológicos suficientes y confiables
para alimentar las simulaciones numéricas que se hacen hoy en día en varios centros de
investigación dedicados exclusivamente al estudio de los huracanes.

Para tener una idea sobre los elementos que contribuyen a la formación, estructura y sostén de
un huracán, es necesario tomar en cuenta que todo lo vemos desde un carrusel, es decir, desde
la giratoria superficie de la Tierra, lo que complica un poco las cosas.

El primero en estudiar el movimiento de cuerpos desde un sistema de referencia que rota fue
Gustave-Gaspard Coriolis (1792-1843). En 1835, Coriolis publicó un trabajo en el que
mostraba que si un objeto se mueve sobre una superficie que gira, aparece una fuerza
perpendicular a la dirección de su movimiento. Esta fuerza, conocida ahora como la Fuerza de
Coriolis , da lugar a una trayectoria curva, vista desde la superficie.

Para apreciar mejor el efecto vamos a imaginar la siguiente situación Un simpático joven tiene
una pelota en la mano y está parado en la parte interior de un tiovivo que gira; es el que recoge
los boletos. Un niño da vueltas sobre uno de los caballitos de la orilla (nada cambia si los
caballos se sustituyen por otros mamíferos). La hermana mayor del niño los observa girar
desde la orilla, pues teme subirse. El joven se percata de la hermana al verla pasar
periódicamente y decide que la próxima vez que se encuentre cerca le va a lanzar la pelota al
niño para congraciarse con ella. Cuando los tres están alineados, lanza la pelota al niño y ésta
va a caer en las manos de otra sorprendida muchacha.

Analicemos lo ocurrido a los ruborizados jóvenes y al extrañado niño. Desde el punto de vista
de este último y el embobado joven, lo que ocurrió es que la pelota siguió una trayectoria
extraña; en lugar de viajar en línea recta entre los dos, una fuerza extraña pareció desviarla y
fue a dar a las manos de una joven que iba pasando. Por su parte, la hermana ve a la pelota
seguir una trayectoria recta y directa a la otra joven, sintiéndose incómoda por haber creído,
como el niño, que era la futura poseedora de una pelota. Al niño sin pelota y al joven sin la
hermana, sólo les queda invocar la existencia de fuerzas extrañas o de agentes invisibles para
explicarse el suceso.

Para los observadores en reposo, el movimiento de objetos es rectilíneo, a menos que alguna
influencia bien determinada los desvíe; así lo comprueban las dos muchachas, la que esperaba
atrapar y la que, sin esperarlo, lo hizo. Para los observadores en rotación, llamados acelerados,
es necesario recurrir a fuerzas ocultas ("desocultadas" por Coriolis) para explicarse el
movimiento de las cosas. En nuestra terrestre circunstancia, rotando con el piso (la Tierra),
recurrimos a la existencia de esta fuerza (inercial) para describir movimientos con precisión.

En la Tierra, que rota hacia el este, un objeto que es lanzado de sur a norte seguirá una
trayectoria curva; en lugar de viajar directo al norte se deflectará hacia la derecha, en el
hemisferio norte, y hacia la izquierda en el hemisferio sur, abajo del ecuador. Por otra parte, la
velocidad de giro depende de la latitud, siendo cada vez más pequeña al acercarse a los polos y
máxima en el ecuador; quien se encuentra más lejos del eje de rotación recorre mayor distancia
en menos tiempo (va más rápido), como saben los que han practicado las "coleadas". Así, la
magnitud de la fuerza de Coriolis depende del movimiento del objeto (su velocidad y la
dirección de ésta), de la rotación terrestre y de la latitud.

Con la guía de Coriolis podemos ahora resumir las condiciones que se requieren para la
formación de los huracanes.

Una es que la fuerza de Coriolis sea mayor que cierto valor mínimo. Como ésta es cero en el
ecuador y empieza a crecer con la latitud; los vórtices que nos ocupan se generan fuera de un
49
cinturón de aproximadamente 7º de latitud, al norte y al sur del ecuador (como de 1 300 km de
ancho). La dirección del giro de los huracanes se debe únicamente a esta fuerza. Dentro de esta
banda los posibles huracanes son presa de la esquizofrenia, al no saber en qué dirección girar,
y prefieren no existir.

Otra condición necesaria es la presencia de una superficie extensa de agua, con una
temperatura mínima de 27ºC, que dé al aire circundante grandes cantidades de vapor para
generar y mantener una tormenta tropical. Los meses calientes del año son pues los más
propicios.

Adicionalmente, se cree que una o mas de las siguientes condiciones necesita estar presente
para disparar el mecanismo de formación. La columna de aire sobre la zona inicial inestable
(capaz de amplificar pequeños cambios), la presión del aire cerca de la superficie del agua baja
y las corrientes de aire, verticales y encontradas (flujos de corte), muy pequeñas.

Bajo las circunstancias arriba descritas, la zona se encuentra en un estado tal que pequeñas
perturbaciones pueden amplificarse y dar lugar a movimientos de grandes masas de aire
húmedo, especialmente si se presentan corrientes horizontales (chorros) de aire. La convección
resultante (movimiento de masas de aire) se hace tumultuosa en un tiempo relativamente corto,
reforzándose los vientos y permitiendo que el efecto de Coriolis entre en juego para introducir
una curvatura en la corriente, organizándose la estructura ciclónica.

Una vez iniciado el fenómeno se sostiene por periodos que van de unas horas hasta varias
semanas, gracias al mecanismo que describiremos esquemáticamente a continuación. En una
zona de unos centenares de metros sobre la superficie del agua, llamada capa de Ekman, el aire
húmedo se mueve horizontalmente y en espiral hacia el centro de giro. Al llegar cerca del ojo
del huracán cambia abruptamente su dirección y asciende varios kilómetros en una especie de
chimenea hueca, que limita la zona del ojo. En este movimiento de subida, que no es otra cosa
que una consecuencia del principio de Arquímedes, el aire caliente se expande y se va
enfriando. En consecuencia, la humedad se condensa, liberándose energía (calor latente) en
grandes cantidades. Las gotas de agua condensada forman las torrenciales lluvias y la energía
disponible es empleada en reforzar los vientos y trasladar el ciclón.

Esta es la razón por la que se habla de una máquina térmica cuando se refiere uno al
mecanismo físico que mantiene a un huracán. Al llegar a tierra firme pierde su fuente más
importante de energía y se debilita, disipándose en cuantiosas lluvias.

La clave está pues en el hecho de que cuando el vapor de agua se condensa, juntándose en
gotas, se libera energía. Sabemos que para evaporar agua hay que darle energía, quemando gas
o leña o haciéndola caer desde cierta altura (como en las cataratas). Tláloc, el dios azteca de
las lluvias, se las ingenia para usar la energía que se "suelta" en el proceso inverso de la
evaporación: la condensación.

De acuerdo con la Organización Mundial Meteorológica, las perturbaciones meteorológicas de


baja presión se clasifican con distintos nombres, dependiendo de su intensidad. En su estado
inmaduro, con vientos ligeros en rotación y con isobaras abiertas, se les llama perturbaciones
tropicales. A la curva que resulta de unir los puntos en donde la presión es la misma se le
llama isobara; se dice que es abierta si no forma una curva parecida a un círculo. Una
depresión tropical es cuando los vientos en rotación han aumentado, sin exceder los 63 km/h,
y aparecen algunas isobaras cerradas en el mapa meteorológico. Se convierten en tormentas
tropicales cuando los vientos, claramente en rotación, son mayores a 63 km/h pero menores a
120 km/h y las isobaras son cerradas en su mayoría. Se reserva el nombre de huracán para los
casos en los que los vientos son superiores a este número mágico de los 120 km/h. El
50
verdadero bautizo ocurre cuando una depresión se convierte en una tormenta. En ese momento
se les pone un nombre (de mujer y de hombre, en forma alternada) por orden alfabético. Por
ejemplo, el primero puede ser Aspergencia, el segundo Bugambilio, y así sucesivamente hasta
Zuperman; el siguiente será Agapita y se vuelve a dar vuelta al alfabeto, dado que en promedio
se producen cerca de 60 huracanes por año en todo el mundo.

Otros grandes vórtices que se observan en la atmósfera son los tornados y las trombas, cuyos
nombres son bastante descriptivos, pues uno viene de tornar, regresar, y el otro es una
variación de la palabra trompa. Basta con ver la figura IV. 5, que muestra uno de cada tipo,
para apreciar la originalidad de los apelativos

Figura IV. 5. (a) Tornado.

Figura IV. 5. (b) Tromba

51
Los tornados, raros en México, son extremadamente "populares" al norte del río Bravo y
representan la amenaza atmosférica más temida en el grupo local de galaxias. Los vientos más
fuertes que se han registrado en la Tierra están asociados a estos espeluznantes remolinos que,
afortunadamente, sólo viven unas horas.

La descripcion siguiente, tomada de la obra inédita de un autor poco conocido, representa lo


que ocurre cada año en las planicies centrales de los EUA o de Australia y confirma las
narraciones de múltiples testigos.

Las vacaciones de Pascua no podían ser mejores ni más apacibles. Sentado en la recién pintada veranda, disfrutaba
del sol primaveral del mediodía y gozaba del paisaje rural que sólo ofrece una casa de campo, cómoda y rústica.
Tres días de arreglos domésticos, destapando drenajes, reparando techos y limpiando la apreciada herencia, eran
recompensados con un merecido descanso. Valió la pena el viaje —me dije— y empezaré con mis lecturas
atrasadas más tarde.
Debí quedarme dormido varias horas porque las nubes parecían haber salido de la nada. Sin el cambio en la
luminosidad del día y la sensación incipiente de hambre y frío, hubiese jurado que sólo me había distraído
pensando en quienes no estaban conmigo. Habiéndome alejado de la civilización con toda intención pense que
todavía me encontraba bajo el sopor del sueño al escuchar el lejano murmullo que sólo hacen los trenes de carga.
Sin más motivación que la curiosidad por la persistencia y el paulatino aumento del murmullo, presté más
atención. Empecé a darme cuenta de que era más parecido al distante, aunque grave, zumbido de un enjambre de
abejas. Estando en el campo, desde luego, era una explicación más probable para el ruido.
El fresco que empezaba a sentir me obligó a levantarme de la agradable mecedora y, con un horizonte más amplio
para la vista, busqué la fuente de la creciente vibración. El cielo, ya nublado, se oscurecía hacia la parte posterior
de la casa, desde donde podría verse el rancho vecino, a unos tres kilómetros.
No tuve que dar la vuelta a la casa para ver que, más allá de la troje que sobresalía del resto de la granja de mis
fortuitos vecinos y partiendo de la orilla más oscura de las nubes, se extendía una columna que unía al nubarrón
con la superficie de la tierra. Con forma de embudo en su parte más alta y tan caprichosa y viva como una culebra,
parecía envolver en una bruma a la ancha zona de contacto.
Cuando yo era más joven, antes de que los adultos aceptaran que mis opiniones eran valiosas o de que yo aceptara
que en realidad no lo eran, una tía, notable por sus exageraciones y su ignorancia, describió sus experiencias
cuando un tornado, al que llamaba twister, pasó por el pueblo en el que había crecido. Petrificado, como parecía
estarlo en ese momento la zumbante columna, recordé la historia.
Después de unos minutos de incredulidad, percibí cómo se movía el extremo inferior del tornado y parecía engullir
todo a su paso. El horizonte, más claro, contrastaba con la serpenteante columna y con los rayos que vestían de luz
y sonido al diabólico espectáculo. Cuando pasó por las minúsculas estructuras de la granja, a la que no pude dejar
de mirar, como queriendo conservar los detalles que la guardarían en mi memoria como algo que no imaginé, todo
desapareció. La troje, la vieja carreta, el camino arbolado que recibía las cosechas y todo lo que hacía familiar la
escena fue borrado por el siniestro remolino. La diluida nube de despojos y objetos irreconocibles que volaban
cerca de la parte central de la columna eran la prueba de que la ranchería de los vecinos había existido.
No me moví. Me quedé clavado al pasto, mojándome, sin poder quitar la vista del gigantesco remolino. Nunca
podré describir la inextricable mezcla de aprensión y admiración que me mantuvo paralizado durante tantos y
valiosos minutos. De ello no me arrrpiento. Vi a la naturaleza desentrañar sus fuerzas y volcarlas con violencia
sobre sí misma. Luego, como consciente de mi presencia irreverente, el tornado cambió su dirección y se dirigió
hacia mí con una velocidad vertiginosa.
Sin premeditación alguna corrí a mi automóvil y cerré las puertas en forma instintiva, como queriendo impedir la
entrada del viento, esperando la inexorable llegada del fin.
Minutos después, durante los segundos que tardó en suceder todo, fui testigo inerme de lo que Dante describió en
su Infierno. Voces graves y chillantes mezcladas con golpes secos y sordos, cegadoras luces que hacían más
fantasmagórico el espectáculo brevemente nocturno. Cientos de pequeños remolinos en tumulto quitaron la
transparencia al aire y, como desconectando la gravedad, hicieron volar todo alrededor y cambiaron mi oasis
personal en pandemónium. Aferrado al volante, miraba la casa que parecía resistir la lluvia de objetos que caían
sobre ella. Por un instante y en forma absurda, pensé en las reparaciones que había hecho y en su nueva pintura.
52
Como si fuera un castigo a mi pensamiento pusilánime, la casa explotó como si se hubiese inflado hasta el límite
sin querer distenderse. Deapareció entre los escombros dispersos en el aire y me cerré al mundo externo apretando
los ojos, los dientes y las manos.
Más tarde, acalambrado por la tensión inútil en los brazos y las piernas, abrí los ojos y frente de mí aparecía la
puesta de Sol más hermosa que había visto. El amplio e irreconocible paisaje sólo mostraba los signos del
abandono, como si despertara de un sueño de años. El automóvil, reorientado sin que recordara cómo, apuntaba
sobre un camino cubierto de ramas y tierra que me invitaba a partir. La tormenta y su furia se habían desvanecido
con la casa y su contenido. Esa tarde, durante el ocaso de un día desigual a los demás, me senté a pensar sobre el
miedo, la muerte y lo temporal de nuestros actos.

Cada detalle de la narración anterior tiene al menos una confirmación independiente. Los datos
que siguen hacen ver que no hay exageraciones en la tal vez imaginada descripción.

El 18 de rnarzo de 1925, un tornado quitó la vida a 689 personas, hirió a más de 2 000 y causó
daños incalculables en los estados de Missouri, Illinois e Indiana, en EUA. Durante las tres
horas que hizo contacto con la superficie, recorrió más de 300 km y se estima que los vientos
llegaron a los 600 km/h. Entrada la tarde de un domingo de ramos, el 11 de abril de 1965, se
registraron 47 tornados que causaron uno de los más grandes desastres de su tipo en los
estados de Iowa, Wisconsin, Illinois, Indiana, Michigan y Ohio. Murieron 271 personas, se
lesionaron más de 3 000 y los daños materiales fueron superiores a los trescientos millones de
dólares.

Es sorprendente la destrucción que deja a su paso un tornado. Se han reportado y confirmado


casos insólitos: varitas de paja incrustadas en postes de madera; una casa-escuela con 85
alumnos dentro fue demolida por completo y, sin que ninguno de los alumnos perdiera la vida,
fueron transportados 150 m; un tren con cinco vagones, de más de 70 toneladas cada uno, fue
levantado de la vía y uno de los vagones fue lanzado a cerca de 24 m de distancia.

La velocidad de traslación de un tornado típico es de 50 km/h, habiendo registros de hasta 112


km/h o de tornados estacionarios. La dirección usual es de suroeste a noreste y, aunque el
efecto de Coriolis es muy pequeño, el giro más común es ciclónico. El ancho característico es
de unos 100 m y su recorrido de unos 25 km, con grandes desviaciones; el de 1925 tuvo un
ancho ocasional de más de 1.5 km y su recorrido fue de 325 km. La velocidad de rotación es
típicamente de unos 400 km/h, con registros de hasta 800 km/h. La altura del embudo superior,
que se desvanece en la nube madre, alcanza entre 800 y 1 500 m.

El inevitable honor de máxima aparición de tornados le corresponde a EUA, con más de 650
por año; en 1965 se registraron 898 tornados. Australia, con más de 100 eventos anuales ocupa
el segundo lugar. En forma eventual aparecen en casi todo el mundo. Sin que la estación del
año o la hora del día (o la noche) tengan algo que ver con sus apariciones, su frecuencia es
ligeramente mayor durante los meses de mayo, junio y julio y entre las 3 y las 7 de la tarde.
Sin embargo, nada garantiza que no se aparezcan repentinamente en la madrugada del 25 de
diciembre.

La mayor parte de las características de un tornado, como las distribuciones de velocidad y


presión, son inferidas de estudios teóricos y evaluaciones de ingeniería de daños. La rapidez y
violencia del fenómeno han limitado severamente la medición directa pues casi todos los
instrumentos son destruidos. De la filmación de un tornado en la ciudad de Dallas, EUA, en
abril de 1957, se hicieron las primeras observaciones cuantitativas al seguir el movimiento de
escombros y de algunas zonas de su estructura. Hay registros esporádicos de caídas de presión
de hasta 200 milibares (20% abajo de la presión atmosférica normal) en tiempos de 30

53
segundos. Como consecuencia hay un efecto de succión o explosión. Los techos son
levantados y las paredes revientan hacia afuera.

La circulación del aire en un tornado está esquematizada en la figura IV. 6. Superpuesto al


movimiento horizontal giratorio, presente en todo el tornado, el aire se mueve en dirección
vertical; hacia abajo dentro delembudo y hacia arriba en la parte exterior y en la región cercana
al piso. En esta última, la capa de Ekman, el aire fluye en forma espiral hacia el centro de la
zona de contacto y ahí sube violentamente por fuera del tubo y el embudo.

Figura IV. 6. (a y b) Circulación en un tornado.

Para la formación de un tornado es necesario que exista una zona de flujos encontrados con
suficiente vorticidad, durante varias horas y en la escala de kilómetros. Estas condiciones se
dan en los frentes fríos, donde chocan masas de aire frío y caliente, en zonas de ráfagas, en la
vecindad de huracanes y, con frecuencia, en las erupciones volcánicas. A unos 5 km de altura,
chorros encontrados se tuercen por la fuerza de Coriolis y el aire frío se arremolina y hunde
54
sobre la nube madre del tornado. Aquí el proceso semeja al vórtice que se genera en un
desagüe de lavabo. Hundimiento y circulación se organizan y acoplan, fortaleciendo al vórtice.
En el fondo, en la capa de Ekman, el fluido sólo puede ir hacia arriba al converger en una
región reducida; conectado con el extremo incipiente del tubo que sale del embudo, sirve para
"amarrar" al tornado a la superficie de la Tierra.

Cuando un tornado pasa o se forma sobre una superficie de agua recibe el nombre de tromba o
tromba marina. Como los tornados, puede tener formas distintas y ocurre frecuentemente en
grupos; se han visto hasta 15 trombas simultáneamente. La intensidad de la tromba parece ser
menor que la de sus hermanos terrestres, aunque los datos son más escasos (no hay muchos
habitantes humanos en las aguas). Siendo más débiles que los modelos terrestres, pueden
confundirse con remolinos común y corrientes.

Contrario a lo que se cree, las trombas no elevan el agua a grandes alturas, si acaso unos
cuantos metros. La estructura (Figura IV. 5 (b)), como la nube madre, está formada de vapor
de agua dulce y gotas que resultan de la condensación. En la parte inferior es usual ver una
envoltura ancha de rocío que gira con el vórtice.

Una de las trombas más famosas fue vista por cientos de turistas bañistas y varios científicos
en la costa de Massachusetts, el 19 de agosto de 1896. Se estimó que su altura era de 1 km, el
ancho de 250 m en la parte superior, 150 m en la zona intermedia y 80 m en la base. La
envoltura de rocío que rodeaba al vórtice en la base era de 200 m de ancho y 120 m de altura.
Desapareció y volvió a formarse tres veces, durando una media hora en cada ocasión; el
tamaño y la vida de ésta fueron mucho mayores que la generalidad. Aunque son un peligro
para embarcaciones pequeñas, hay pocas indicaciones confirmadas de que barcos de calado
mediano o grande hayan sido destruidos por uno de estos vórtices acuícolas. Lo que sí ha
sucedido es que emigren a tierra con afanes anfibios y causen destrucción y muerte.

Si bien aparecen en cualquier época del año y a cualquier hora, son más frecuentes entre mayo
y octubre y, como los violentos y pedestres parientes, les gusta el sonido del idioma inglés
modificado; se ven seguido en las costas estadounidenses y australianas. En Nueva Gales del
Sur, Australia, se registró uno de más de 1 800 m de altura. El Golfo de México es un buen
lugar para espiarlos.

Otros vórtices comunes son los vórtices de marea, los vórtices de desagüe y los remolinos de
tierra.

Los vórtices de marea resultan de las corrientes causadas por las mareas. Cuando la marea
entrante alcanza las aguas de la marea saliente, en estrechos que separan grandes masas de
agua, se manifiestan estos temidos enemigos de los navegantes. Esto explica por qué son
protagonistas en leyendas y mitos de la antigüedad.

El más famoso de los vórtices de marea es sin duda Caribdis, que dio nombre temporal a estos
vórtices. Descrito por Homero en la Odisea, Caribdis fue el terror de los héroes que navegaban
en el Mar Mediterráneo; otros, no glorificados por las epopeyas homéricas, también le
temieron y sucumbieron en él. No en vano Virgilio los muestra a Dante en su paso por el
Infierno.

El Estrecho de Messina, entre Sicilia y Calabria, al sur de Italia, separa los mares Jónico y
Tirreno; el estrecho es casi un canal que acaba abruptamente en el Tirreno. Varios elementos
combinados lo convierten en el lugar ideal para la malévola existencia de Caribdis. Los dos
mares tienen mareas opuestas, y la alta de uno coincide con la baja del otro; así, cuando uno
va, el otro viene. Además, el mar Jónico tiene una temperatura menor y una salinidad mayor
55
que el Tirreno, lo cual hace que las aguas del Jónico sean más pesadas. Estas circunstancias
provocan una situación inestable y propicia, durante los cambios de marea, para la formación
de intensos vórtices verticales y horizontales. Para perfeccionar los maquiavélicos detalles, en
la parte más angosta del Estrecho de Messina, precisamente en la salida al Tirreno, el fondo
marino tiene la menor profundidad (100 m). Del lado norte, en el Tirreno, la profundidad es de
350 m, a 1 km de distancia de la salida del estrecho. Del lado sur, dentro del canal y a la
misma distancia de la salida, la profundidad es de 500 m. Ahí, justamente, acechó oculta la
clásica monstruosidad a los valientes argonautas.

Muchos ejemplos aparecen en la mitología de diversas civilizaciones. En el folklor noruego


destaca el Maelstrom, que inspirara miedo a los notables navegantes de los mares del norte y
motivara el poema de Schiller y la novela de Edgar Allan Poe El Maelstrom, situado en los
estrechos de las islas Lofoten, en el Mar de Noruega, aparece citado desde el siglo XVI en las
primeras cartas de navegación de los fiordos. Otros casos conocidos son los vórtices en St.
Malo, en la costa francesa del Canal de la Mancha, el de Pentland Firth, entre la costa escocesa
y la Isla de Orkney y, los más grandes que hay, en los estrechos de Naruto, en el Mar de Japón.
Estos últimos presentan vórtices tales que la boca, la región con forma de campana invertida
que ruge como una amenazante catarata, es de más de 15 m de diámetro.

Los remolinos de tierra, que seguramente todos hemos visto, son como versiones miniatura de
los tornados. Tienen la forma de columnas o de conos invertidos y el movimiento del aire es
giratorio, en cualquier dirección, y ascendente. Cerca del piso la corriente es de forma espiral y
es capaz de arrastrar toda clase de pequeños objetos, incluyendo animales no muy grandes,
como liebres.

La altura que alcanzan es entre 2 y 1 500 m, siendo característica la de 100 m. El diámetro


oscila entre 1 y 50 m, siendo el más común de 10 m. Es muy probable que alcancen valores
mayores, lo cual permite a los pilotos de los planeadores subir hasta 5 000 m usando las
corrientes espirales ascendentes de estos remolinos, cuya vida es mayor de lo que la evidencia
visual indicaría; sólo cuando arrastran material como arena, polvo, humo, inclusive nieve o
fuego, es que son visibles. Hay registros de múltiples remolinos que duraron varias horas. Uno
de los más célebres fue seguido en las planicies saladas del estado de Utah, en EUA, de 800 m
de altura, y viajó 65 km durante 7 horas. Otro, en la orilla del desierto de Sonora, en México,
se mantuvo estacionario y activo por un lapso de cuatro horas.

Los de tamaño apreciable son visitantes frecuentes de los desiertos del mundo; cientos de
informes sobre ellos provienen de los desiertos de EUA, México, Sudán, Egipto, Arabia
Saudita, Iraq y Etiopía; entre otros. Se cree que las nubes de polvo que se observan en la
atmósfera de Marte, nuestro enigmático y colorado vecino cósmico, son debidas a grandes
remolinos de tierra.

Usualmente, los remolinos de tierra resultan de la estratificación térmica del aire y aparecen en
condiciones de mucho calor y cielos despejados. No hay nubes madre que los acompañen y
guíen por la vida, como es el caso de los tornados y las trombas. Mientras que estos últimos
son generados por el hundimiento del aire más pesado de una nube con rotación, los remolinos
en cuestión se forman muy cerca del piso, a partir de capas delgadas de aire muy caliente.

En un día caluroso de verano, especialmente en las zonas desérticas, los primeros dos metros
de aire sobre la superficie elevan su temperatura por arriba de los 60º y, como el humo, la capa
tiende a subir. Mientras la capa se mantiene horizontal no puede ascender; cualquier alteración
local dispara la inversión en ese sitio. Una perturbación relativamente chica, como una leve
brisa o el paso de un animal, rompe la inestable situación y se inicia un movimiento de aire

56
hacia arriba; el hueco que deja el aire que sube es llenado por el aire inferior circundante en un
flujo espiral. Una vez iniciado se va fortaleciendo el remolino, siendo la fuente de energía el
calor almacenado en la superficie del piso.

Seguramente más de un lector espera leer sobre su remolino preferido. Desde luego que hay
otros tipos de vórtices, pero aquí no es posible hablar de todos ellos; hay obras completas
dedicadas al tema que no han logrado agotarlo (Lugt, 1983). Veamos por encima al más
trillado y estudiado, que no por eso deja de ser interesante ni del todo entendido.

Los remolinos que vemos todos los días en el lavabo son los llamados vórtices de desagüe. Si
uno le da rotación con la mano al agua dentro de un lavabo o de un recipiente y permite que
empiece a salir por un agujero situado en la parte central del fondo, observará que se genera un
remolino. La superficie libre del vórtice (la que está en contacto con el aire) toma una forma
que depende, entre otras cosas, de la cantidad de rotación que se le imprimió al agua, de la
profundidad del recipiente (el tirante) y del diámetro del agujero. Dos aspectos sobre este tipo
de vórtices han llamado la atención de investigadores durante siglos. Uno tiene que ver con la
forma de la superficie libre y otro, independiente, con el sentido de la rotación del vórtice.

Si la rotación no es muy grande o el tirante lo es, la superficie muestra sólo una pequeña
concavidad (Figura IV.7(a)). A mayor giro o menor tirante aparece un núcleo o centro de aire
(Figura IV.7(b)). Cuando la columna de aire alcanza el fondo (Figura IV.7(c)) se dice que el
tirante toma su valor crítico y a partir de ese momento el centro del vórtice se mantiene lleno
de aire. La cantidad de líquido que sale por el desagüe se ve reducida por la competencia del
aire, razón por la cual el hecho se convierte en un problema de suma importancia desde el
punto de vista práctico. Las fallas en sistemas de enfriamiento en reactores nucleares, la
pérdida de la eficiencia de bombas, los desbordamientos de presas, los daños en turbinas y
vibraciones son sólo algunos de los problemas que se presentan. El reto teórico de predecir
esta situación en una instalación dada o en el caso más sencillo sigue abierto. Por ahora se
maneja en forma empírica, sin que eso quiera decir que se sigue en la total oscuridad, hay
cierta penumbra.

Figura IV. 7. Superficie libre del vórtice de desagüe. De izquierda a derecha, (a) vórtice
débil, (b) mediano con núcleo de aire y (c) núcleo del vórtice llegando al desagüe.

57
Predecir la dirección del giro es más complicado de lo que podría creerse. En el hemisferio
norte los huracanes, sin excepción, giran contra las manecillas del reloj. Los tornados y las
trombas, casi siempre, imitan a sus mayores. Los remolinos de tierra no presentan patrón
alguno, les da igual girar en un sentido que en el otro. Los de desagüe son simple y
sencillamente raros.

Es desafortunadamente común ver escrito en libros serios (¿?) que los vórtices en un lavabo
hacen lo mismo que los huracanes debido a la fuerza de Coriolis. Una cosa es clara, los autores
no se tomaron la molestia de confirmarlo al ir al baño. En la casa de un amigo hay dos lavabos
que siempre hacen lo mismo, en uno el remolino gira con el reloj y en el otro en sentido
contrario. ¿Habrá algo místico en sus baños? La respuesta es que tienen formas ligeramente
distintas, aun siendo de la misma marca, y la llave que los llena está colocada un poco
diferente; el agua de cada llave también sale un poco diferente. Otra cosa que los autores no
hicieron fue estimar el tamaño de la fuerza de Coriolis sobre el agua en un lavabo; es tan
ridículamente pequeña que igual (casi) hubieran podido invocar la ubicación de Urano como la
responsable de los giros.

Para ver el efecto de la rotación de la Tierra sobre la dirección del giro de un vórtice pequeño,
como los de desagüe, es preciso hace un experimento bajo condiciones cuidadosamente
controladas. El primero de esta naturaleza fue realizado a principios del siglo XX por Otto
Turmlitz, en 1908, en Austria; su trabajo fue titulado Una nueva prueba física de la rotación
de la Tierra. La confirmación la llevó a cabo Ascher Shapiro, en 1961, haciendo el
experimento en Boston, EUA y en Sydney, Australia. Entre otros cuidados, el agua debía pasar
varios días en absoluto reposo.

En uno de los experimentos de Shapiro se observó un giro contrario al esperado. Principió


como un giro igual a los demás, después de un lapso de tiempo se fue reforzando, alcanzó un
giro máximo y, a diferencia de los otros casos, se fue debilitando hasta que, tras desaparecer,
se invirtió en la última etapa. Estudiando el mismo fenómeno, Merwin Sibulkin hizo dos
observaciones, un año después. Una fue que si llenaba el recipiente con un tubo inclinado de
modo que girara en una dirección o en la otra, el efecto (como de memoria) persistía durante
mucho tiempo; el vórtice de desagüe seguía esa dirección al destapar el fondo. La otra
observación fue que el proceso de inversión del giro en la etapa final era común,
independientemente del giro inicial, lo cual contradecía a la aparentemente convincente
explicación de Shapiro.

Experimentos posteriores de otros investigadores contribuyeron a oscurecer el mecanismo que


determina el giro y su dependencia de la profundidad. La situación es como sigue. Imaginemos
un recipiente cilíndrico, lleno de agua, con un agujero circular en el centro del fondo. El agua
está inicialmente en reposo. Al destapar el agujero, el agua empieza a moverse hacia el centro
y hacia abajo. ¿Qué rompe la simetría del flujo e introduce una dirección privilegiada de giro?
¿Qué da lugar al debilitamiento del vórtice, flujo estabilizador por excelencia, e invierte la
dirección cuando el tirante es muy pequeño (como del tamaño del agujero)? Muy
probablemente la explicación empieza por dos hechos que se suponen implícitamente en los
estudios teóricos. Uno es que causas pequeñas producen efectos igualmente pequeños y el otro
es que sólo puede haber una solución a un problema con la misma formulación. Como
veremos en el siguiente capítulo, las últimas dos décadas nos han enseñado mucho sobre estos
dos aspectos. Lo cierto es que aun problemas tan aparentemente sencillos como algunos de los
mencionados en este libro, son motivo de la investigación intensa de científicos de diversas
disciplinas, en distintos países y por las razones más disímbolas. Es difícil no sentir curiosidad
por describir y entender al vórtice de desagüe que se muestra en la figura IV. 8.

58
Figura IV. 8. Fotografía del vórtice de desagüe.

59
V . L A T U R B U L E N C I A

Aquí vamos a considerar algunas de las ideas mencionadas con anterioridad para esbozar lo
que constituye uno de los desafíos más grandes de la física, el problema de la turbulencia. El
problema aparece en casi todas las ciencias experimentales y, por su formulación, en las
matemáticas. La "solución" a este problema ha eludido a matemáticos, ingenieros y físicos por
más años de los que el decoro permite aceptar. Los intentos de abordar el problema han
generado o estimulado ramas de las matemáticas, han introducido múltiples ideas en física y
han generado una gran variedad de métodos matemáticos y experimentales; todos de una
utilidad notable en otras disciplinas. Muchos científicos sobresalientes estudiaron el problema
y luego prefirieron cambiar de tema para lograr las contribuciones que los hicieron figurar en
la historia. Por intentos no ha quedado, si bien las cosas no están como al principio.

Al iniciarse la década de los años setenta se abrieron varias perspectivas teóricas y


experimentales de muy diversa índole. Cada una por separado parecía ser la adecuada para
atacar en forma definitiva el problema. Cada una de ellas inició una etapa de intenso, extenso y
excitante trabajo en todo el mundo. Combinando ideas y métodos recién desarrollados en las
matemáticas, desde las muy abstractas como la topología diferencial, hasta las más prácticas
como el análisis numérico (aunado a la construcción de computadoras cada vez más grandes y
veloces), se revisaron experimentos clásicos desde una nueva perspectiva y se encontraron
elementos que estaban a la vista, pero que no se habían buscado o que simplemente se
ignoraban invocando diversos argumentos. También, nuevas técnicas experimentales y
cuidadosas observaciones hicieron cambiar algunas ideas preconcebidas y el enfoque teórico
que sistemáticamente se había estado siguiendo. Así, se revisaron las teorías y repitieron
experimentos. Si bien cada una de las nuevas ideas y métodos, teóricos y experimentales,
siguen en una efervescente actividad, el optimismo inicial sobre la comprensión del fenómeno
de la turbulencia ha ido decayendo con el tiempo en vista de los exiguos resultados
específicos. Muchas cosas han quedado más claras y los horizontes por explorar se han abierto
en forma sorprendente.

Algo claro e irreversible que sucedió a lo largo de este proceso, fue el inicio de un cambio en
la actitud de la mayoría de los físicos; en los que no se ha dado es porque no lo requerían o
porque todavía no lo pueden aceptar.

El enfoque reduccionista de la ciencia, llevado a su culminación en la física, busca explicar


todos los fenómenos con base en un conjunto reducido de leyes fundamentales. Así, la materia
se redujo, pasando por las moléculas y los átomos, a las partículas elementales, los cuarks. De
todas las fuerzas en la naturaleza, pasando por las eléctricas, las magnéticas, las nucleares y las
gravitacionales se llegó (casi) a una sola, la gravitacional - cuántica (supersimétrica). Logrado
esto, dirían (y aun dicen) pomposamente algunos, el resto es un problema de aplicaciones; esta
imagen va diluyéndose poco a poco ante los hechos y la humildad regresa al lugar de donde no
debió salir.

Todavía hace poco se decía que las leyes básicas habían sido encontradas en la primera mitad
del siglo XX y que con esto se cerraba una etapa gloriosa del pensamiento humano (algo
parecido se pensaba hace cien años con la mecánica newtoniana y el electromagnetismo de
Maxwell). Aun suponiendo que conocemos estas leyes fundamentales, en forma clara y

60
precisa, lo que sería decepcionantemente pretencioso, algo ha cambiado. Se ha puesto de
manifiesto que esto no es suficiente y que para explicar el mundo se requiere mucho más.

El argumento es más o menos el siguiente. La dirección opuesta al reduccionismo, creciendo


en grado de complejidad, ha traído sorpresas que muy pocos preveían. A partir de casi
cualquier punto en esta dirección aparecen nuevos fenómenos, ricos y variados, con elementos
ausentes en el nivel anterior, más sencillo; se generan nuevas simetrías y emergen formas
nuevas de organización. Si a un nivel de descripción parece sólo haber desorden, al siguiente
aparece orden en el caos, como en un acto de magia medieval donde los encantamientos son
las fuerzas ocultas que nos desafían a descubrirlas. El comportamiento de grupos de átomos o
moléculas parece tener poco que ver con sus elementos constituyentes, cúmulos de estos
grupos tienen aún menos memoria de sus elementos básicos. Estos cúmulos se autorganizan,
duplican y evolucionan solos; confabulados en grupos de cúmulos cada vez más grandes
llegan a producir patrones de flujo cuya belleza adorna la superficie de algunos planetas, a
ladrar en las esquinas oscuras de colonias olvidadas o se atreven a construir máquinas que
empiezan a pensar sobre ellas mismas...

Comienza a verse claro que el buscar las leyes básicas de los constituyentes últimos de la
materia es tan fundamental como investigar las leyes que rigen los procesos que se dan con el
aumento en la complejidad de los sistemas. Casos característicos son los estudios sobre los
mecanismos que dan lugar a la autorganización, a la formación de patrones, a la aparición de
simetrías o a la desaparición de éstas y al orden que nace cada día en lo que sólo parece ser el
caos...

Como siempre, cuando parece que se alcanza el horizonte, la naturaleza nos muestra que hay
otro igualmente lejano, nuevo, más rico que el imaginado, más estimulante para ser estudiado.
La investigación fundamental sigue tan abierta y hay tanto por hacer como lo había antes del
descubrimiento de las leyes básicas. Los grandes pasos que se han dado en el avance del
conocimiento son sobre un camino que no tiene final. En el mejor de los casos, el camino se
volverá infinitamente autorreferente, como la espiral de Arquímedes o los conjuntos de Julia.
Con esta frase críptica podemos ahora regresar al asunto que nos reúne.

¿Cuál es el problema y qué sabemos de él?

Todos los flujos que se observan pueden clasificarse en dos grandes grupos, los laminares y los
turbulentos. Los casos más sencillos que ejemplifican a los primeros son el flujo uniforme,
donde la velocidad del fluido es la misma en todos lados, y el flujo de Couette plano, ilustrado
en la figura IV. 3. Los hay más complicados, como los que aparecen en las figuras II. 7, II. 8,
IV. 2, IV. 4 y IV. 7. En todos estos el fluido se mueve en láminas y parece obedecer reglas
más o menos claras. Estudiando los flujos laminares es como se han entendido los principios
básicos que describen a los fluidos. Por otra parte, son los flujos turbulentos los que dominan
el foro.

Cuando el movimiento de un fluido es irregular y complicado se dice que el flujo es


turbulento. En la figura V.1 se muestra un chorro turbulento de agua; aunque muy familiar, la
complicada estructura ilustra las características de la turbulencia. Esta definición, como tantas
otras en nuestro negocio, no parece muy precisa: podíamos haber dejado el pudor a un lado y
caracterizar simplemente a la turbulencia como el estado no- laminar. Ésta es parte de la
dificultad.

61
Figura V. I. Chorro turbulento de agua.

¿Cuándo es un flujo lo suficientemente complicado como para ser bautizado como turbulento?
Como con el estado mental de las personas, es relativamente fácil distinguir los casos
extremos. A quienes están totalmente desquiciados los confinamos a una habitación
acolchonada, dejando fuera a los normales (¿?), pero siempre nos preocupa distinguir la
ubicación de la línea que separa los casos marginales. A los "fluidicistas" les pasa un poco lo
que a los psiquiatras (con la única ventaja de no ser sujetos de su propio estudio).

Una característica del estado turbulento es la completa irreproducibilidad de los detalles de un


flujo; hay un elemento aparentemente caótico que es inherente a este estado de movimiento. Al
abrir completamente la llave de un lavabo observamos un chorro de agua que cae, choca con el
fondo del vertedero, se reúne con la que cayó previamente y, moviéndose de manera irregular,
se va por el desagüe. Si midiéramos algún parámetro del flujo con mucha precisión, como la
velocidad en el chorro encontraríamos que conforme transcurre el tiempo, tal parámetro va
cambiando de valor y da lugar a un patrón como el que se muestra en la figura V.2. Si después
medimos muchas veces, abriendo la llave de la misma forma, esperando el mismo tiempo y a
la misma distancia de la boca de la llave, el resultado será muy parecido al anterior, pero nunca
igual.

62
Figura V. 2. Gráfica de la velocidd (vertical) contra el teimpo (horizontal). El valor
medio de la velocidad es vo.

No sólo la velocidad cambia en esta forma irregular. Casi todas las variables hacen lo mismo.
Por ejemplo, supongamos que se determina el gasto, que es la cantidad de agua que sale cada
segundo, manteniendo todo fijo. El resultado sería de -digamos- un litro cada diez segundos
(100 ml/s), aproximadamente; a veces unos mililitros más, a veces otros menos. Es decir,
fluctúa alrededor de un valor promedio, el de 100ml/s. El asunto no tiene remedio, siempre es
así cuando el valor promedio de alguna cantidad excede de cierto valor, llamado crítico. Para
ciertos casos muy simples se ha logrado predecir razonablemente el valor crítico que debe
alcanzar cierto parámetro (usualmente el número de Reynolds) para que el flujo pase de un
movimiento laminar a uno turbulento. Es decir, que se pierda completamente la estabilidad del
flujo (se vuelva un tanto loco). Por otra parte, el describir estas fluctuaciones, que podemos
observar y cuantificar, es uno de los aspectos más difíciles de abordar que tiene el problema,
ya que se trata de poderlos predecir, no sólo de medirlos; la medición es hoy en día un trabajo
de rutina en muchos laboratorios, si bien es necesaria una tecnología relativamente
complicada.

Los cientos de trabajos que se publican sobre estudios teóricos y experimentales de la


turbulencia, cada año y desde hace muchas décadas, hacen que una reseña de los avances
logrados se convierta en una obra de volúmenes. El uso de las más variadas técnicas
experimentales y matemáticas las hace, además, de difícil lectura aun para los especialistas.
Sin embargo, algunas de las ideas más viejas y más recientes, que comparten elementos, nos
permiten asomarnos a este mundo agitado y convulso que llamamos turbulencia.

V.1. LA LEY DE KOLMOGOROV

Lewis Fry Richardson (1881-1953), uno de los pioneros de la meteorogía moderna y miembro
representativo de la tradición científica inglesa, estudió la dinámica atmosférica y, desde
luego, se enfrentó con la turbulencia, siempre presente en el monumental laboratorio de la
atmósfera. En un poema sencillo, que todavía se cita en los textos, resumió lo que Da Vinci
plasmó en sus lienzos al observar el fluir de las aguas y lo que los científicos creen que sucede
en un fluido excitado.

63
Big whorls have little whorls,
which feed on their velocity;
and little whorls have lesser whorls,
and so on to viscosity (in the molecular sense).

Vórtices grandes tienen vórtices más chicos,


nutridos por su velocidad.
Vórtices chicos tienen vórtices más chicos,
así hasta la viscosidad
(en el sentido molecular).

Dejando a un lado el adagio latino de "traductor, ¡traidor!", el contenido del verso expresa el
proceso que parece sufrir la energía que se le comunica a un fluido para mantenerlo en estado
turbulento, el llamado modelo de la cascada de energía.

Imaginemos un tanque con agua, a la que agitamos con una paleta de cierto tamaño (escala).
Al mover la paleta se producen vórtices de la misma escala. Observamos que estos vórtices
migran y se desintegran, generándose en el proceso otros vórtices de una escala menor. Este
mecanismo se continúa de una escala a otra, hasta que la escala es lo suficientemente pequeña
como para que el movimiento de los vorticillos resultantes sea dominado por los efectos de la
fricción interna del fluido, la viscosidad. Ahí, los pequeños remolinos comienzan una etapa de
decaimiento, disipándose hasta desaparecer; la longitud típica de esta última escala es de
fracciones de milímetro.

De acuerdo con estas ideas, la energía pasa de una escala a otra, como en una cascada en la
que el agua cae de un nivel a otro, perdiendo altura (energía potencial) pero ganando
movimiento (energía cinética). En el fondo de las escalas el movimiento se convierte en calor,
disipándose la energía, y queda el fluido en reposo. En la medida en que se siga agitando la
paleta (inyectando energía al fluido) se podrán apreciar las estructuras en las distintas escalas,
siendo la más pequeña la más difícil de ver.

Por consiguiente el estudio de la dinámica de vórtices es uno de los más importantes en los
trabajos de turbulencia. El objetivo es entonces entender cómo se generan, cómo interaccionan
entre sí, cómo se rompen y, finalmente, cómo decaen. Algunas de las teorías más comunes
abordan estos problemas desde diversos puntos de vista, tratando de encontrar cantidades que
se conserven en este proceso y estudiando la forma en que van cambiando otras, al pasar a
través de las distintas escalas.

Uno de los resultados más célebres en la teoría de la turbulencia se debe a Andrei


Nikolayevich Kolmogorov (1903-) y a A. M. Obukhov, quienes obtuvieron el mismo
resultado, en forma independiente, en 1941. La importancia de la expresión se debe a que es
uno de los pocos resultados generales y cuantitativos y a que es válida para todo flujo
turbulento isotrópico y homogéneo. Que la turbulencia sea homogénea significa que se ve
igual si nos trasladamos a distintos puntos del fluido; que sea isotrópica quiere decir que
parece igual si vemos en cualquier dirección. Para que lo anterior sea (aproximadamente)
cierto se requiere que la región en estudio se encuentre lejos de objetos o de las paredes que
contienen al fluido; se dice entonces que la turbulencia es localmente isotrópica. Esta
simplificación fue introducida por Geoffrey Ingram Taylor (1886-1975) en 1936. Muchas
64
ideas fundamentales en la dinámica de fluidos moderna fueron propuestas por Taylor en los
profundos trabajos que hizo a lo largo de su prolífica carrera científica.

Kolmogorov, quien era un distinguido matemático soviético, fundador de la teoría moderna de


la probabilidad, logró atraer la atención de numerosos colegas hacia la teoría de la turbulencia.
Al ver la naturaleza física, más que matemática, de la contribución de Kolmogorov, la mayoría
optó por volver a sus intereses originales.

Curiosamente, el mismo resultado fue obtenido en 1948 por tres físicos del más alto nivel, en
forma independiente y por caminos diferentes. Werner Karl Heisenberg (1901-1976) y Karl
Friedrich von Weizsacker (1912), durante su detención en Inglaterra con otros científicos
alemanes, y Lars Onsager (1903-1976), en los EUA. Como ha sucedido en otros casos, la ley
descubierta por estos investigadores debía llevar como nombre un anagrama con sus iniciales,
algo como wookh; afortunadamente no fue así.

La famosa expresión establece en forma cuantitativa varios aspectos relacionados con la


cascada de energía propuesta por Richardson. Para percibir la esencia del resultado seguiremos
a Kolmogorov en su razonamiento. Empezaremos por formular el resultado, que parece más
un criptograma de la Guerra Fría que una descripción de lo que puede pasarle a un fluido.
Después, intentaremos descifrarlo.

La ley de los dos tercios de Kolmogorov, como se le conoce, afirma lo siguiente. En un flujo
turbulento, la autocorrelación de velocidades entre dos puntos separados por una distancia l,
dentro del subintervalo inercial, es igual a C( l) 2/3; C es una constante numérica universal y
es el flujo promedio de la energía (por unidad de masa). Todo indica que para entender el
enunciado harían falta estudios serios de paleología. Realmente no es así, es suficiente con
algo de física y de matemáticas; para apreciar el sabor basta un poco de paciencia.

La cascada de energía "a la Richardson", sugiere la existencia de una serie de escalas a través
de las cuales la energía transita, hasta disiparse en calor. En la escala más grande, las
estructuras (vórtices) llevan "impresa" la forma en que fueron generadas. Chorros y estelas
ejemplifican este hecho; cada uno parece estar estructurado de manera muy distinta. A este
nivel, son aspectos como la geometría del sistema los que definen el tamaño y la forma de los
vórtices portadores de la mayor parte de la energía. En el otro extremo, los vorticillos más
pequeños consumen toda la energía al disiparse por efecto directo de la viscosidad. En este
proceso de cascada, en el que las estructuras se van descomponiendo en otras más pequeñas, el
flujo va perdiendo la memoria del mecanismo generador de la turbulencia.

Con estas ideas en mente, Kolmogorov introduce su primera hipótesis. Propone la existencia
de un intervalo de escalas en el que el comportamiento turbulento es universal (olvidó sus
orígenes...). Es decir, el flujo turbulento es homogéneo, isotrópico y estacionario. Este último
atributo indica que, en promedio, el estado no cambia con el tiempo; la amnesia es
permanente, digamos. Además, nos asegura el abstracto pensador, en este intervalo las cosas
no pueden depender más que de dos parámetros: el flujo de energía ( ) que se le inyecta al
flujo para mantenerlo agitado (algo así como el sufrimiento que experimenta el que mueve la
paleta o sopla el chorro) y la viscosidad (v), que caracteriza la disipación de la energía (el
calentamiento del fluido).

Hecha esta suposición, recurre a algo muy ingenioso. Estima el tamaño de la escala máxima
para la cual los efectos de la fricción todavía desempeñan un papel. Al efecto demuestra que
sólo hay una manera de combinar los parámetros y v para que formen una longitud, ¡así de

65
simple! (sólo con propósitos morbosos cito el resultado: ( )-1/4 v 3/4). La escala así determinada,
que con suma originalidad fue bautizada de Kolmogorov, se denota por .

Entonces - se atreve a postular de nuevo- a escalas mayores que no hay disipación, por lo
que la viscosidad debe ser una cantidad irrelevante. De esta manera, hay una zona de escalas
(subintervalo) en la que v debe desaparecer, quedando como el único parámetro importante.
La energía inyectada para mantener la turbulencia se va transfiriendo a escalas cada vez más
chicas, hasta aparecer una envidiable amnesia. Sigue pasando a escalas todavía más pequeñas,
hasta que la viscosidad aparece en la escena, iniciando su destructivo papel, y luego el final
fatal, que a todo le llega. Como la energía sólo transita por estas escalas intermedias, al
subintervalo se le llama inercial, ¡como de paso!

Así, en la traducción de la ley de los dos tercios se aclara un poco lo de subintervalo inercial y
el significado de . Sigamos adelante con la interpretación.

En un flujo turbulento la velocidad cambia (fluctúa) en el tiempo y en el espacio. Es decir, al


medir la velocidad en un punto fijo del espacio, conforme transcurre el tiempo, se obtienen
datos como los que se muestran en la figura V.2. Un patrón semejante se obtiene si se mide la
velocidad, simultáneamente, en varios puntos. Desde luego, el promedio de la fluctuación es
cero; igual aumenta que disminuye, o se mueve a uno u otro lado.

¿Qué tan independiente es el valor que tiene la velocidad en un punto del que tiene en otro
punto o del valor que tomó tiempo antes? La respuesta a esta pregunta se encuentra en la
autocorrelación de las velocidades, espacial o temporal, respectivamente. Nos dice cómo están
(cor)relacionados los valores de la velocidad (el prefijo auto indica que es la correlación de
una cantidad dada consigo misma). Si los puntos están muy cercanos, es de esperarse que
exista alguna conexión entre los valores de la velocidad, mientras que si están muy separados
probablemente no tendrán relación alguna. En lenguaje técnico se dice que la autocorrelación
de las velocidades decae con la distancia. Por ejemplo, mi autocorrelación temporal de
memoria es de corto alcance; hay quienes aseguran que no pasa mucho tiempo para que mis
recuerdos sean cada vez más vagos...

Regresando a la ley de los dos tercios, podemos resumirla de la siguiente manera. Primero,
existe una escala a partir de la cual el movimiento turbulento es independiente de la forma en
que se generó. Segundo, para dos puntos en el fluido separados por una distancia l, las
velocidades están relacionadas. Tercero, si la escala de l es suficientemente grande, los efectos
disipativos (la viscosidad) no desempeñan un papel determinante. Cuarto, la relación entre las
velocidades (su producto) depende, a lo más, de y de la distancia l. Al recapitular hemos
introducido dos puntos adicionales. Uno, que la autocorrelación está definida como el
promedio del producto; aunque es importante este punto, no es necesario entrar en más
detalles. El otro consiste en proponer la dependencia exclusiva en y l. Si l está en el
subintervalo inercial, cualquier cantidad dependerá sólo de , como parámetro característico
del flujo.

El último ingrediente para obtener el resultado de Kolmogorov es el argumento dimensional.


Nuevarnente, la única forma de combinar y l para que formen el producto de dos velocidades
(una autocorrelación) es... ¡la escala de Kolmogorov! El factor restante sólo puede ser un
número (sin dimensiones, igual para los que miden en pies, que para los civilizados que miden
en metros) y, no sabiendo cuánto valía, le llamó C. Los experimentos indican que su valor es
cercano a 0.5.

66
Los intentos por extender las ideas de Kolmogorov, Obukhov, Heisenberg, Von Weizsäcker y
Onsager han sido hasta ahora infructuosos. Las extensiones han requerido de aparatos
matemáticos formidables y en ellas el esfuerzo realizado contrasta con los escasos resultados o
lo poco significativo que son. Una de ellas fue desarrollada por Robert H. Kraichnan, durante
los años cincuenta y sesenta, con técnicas importadas de la teoría cuántica del campo,
desarrolladas para el tratamiento de fenómenos relacionados con las partículas elementales.

En un contexto distinto aparecieron los enfoques de la siguiente década, la de los setenta. Las
ideas de estructuras coherentes, de atractores extraños y de fractales generaron un frenesí que
todavía no acaba, aunque el optimismo inicial ha disminuido. Aún es prematuro hacer una
evaluación justa de la repercusión de las ideas actuales sobre el problema de la turbulencia;
todavía hay muchas esperanzas y es posible que alguien sepa combinarlas en las proporciones
adecuadas para dar el siguiente gran paso. Con la sobriedad y la madurez que sólo vienen con
el tiempo se podrá apreciar la perspectiva con más objetividad. Veamos en qué consisten
algunas de estas ideas.

V.2. ESTRUCTURAS COHERENTES

La tecnología usada en la investigación experimental se ha mantenido en constante desarrollo


a través del tiempo. Una parte considerable de la llamada tecnología de punta ha sido el fruto
de las necesidades específicas de la investigación en diversos campos de la física; tristemente,
han sido las aplicaciones a la industria de la violencia las que han sido argumentadas para
justificarla y el motor para su desarrollo.

El uso de computadoras cada vez más grandes y veloces, de electrónica cada vez más rápida y
versátil, de sondas mecánicas, ópticas y acústicas más complejas y delicadas han dado lugar a
una revolución en la forma de hacer experimentos en las ciencias naturales. Los laboratorios
dedicados al estudio de la turbulencia no son la excepción, es más, son un excelente ejemplo.
No sería exagerado afirmar que, por ejemplo, el desarrollo de computadoras cada vez más
grandes ha tenido como principal promotora a la dinámica de fluidos. Sin embargo, aún no
existe un problema de turbulencia que se pueda solucionar con la computadora más grande
disponible, aunque ya se empiezan a acercar...

Al iniciarse la era de la electrónica moderna, acoplada a sistemas de adquisición de datos y


técnicas de medición y visualización, basadas en la óptica de láseres, se llevaron a cabo
algunas observaciones que influyeron decisivamente en la investigación de la turbulencia.
Curiosamente, éstas se realizaron con métodos ópticos sencillos que se venían usando por
décadas. El descubrimiento central fue que la mayoría de los flujos turbulentos no son tan
irregulares como se creía; dentro del evidente caos hay cierto orden en el movimiento del
fluido. Al azar, aparecen estructuras con características bien definidas estadísticamente: la
distribución de sus escalas, sus tiempos de vida (periodos), etcétera.

Estos sorprendentes resultados dieron lugar a una reconsideración profunda de los


experimentos que se venían realizando. Una calificación más cuidadosa de la estructura
espacial de cada flujo turbulento se hizo necesaria para llegar a entender las observaciones
(Figura V. 1).

Nuevamente se repitieron experimentos y se formularon otros para delinear las propiedades de


estas formas semiordenadas que parecían pulular entre el caos. La explosión en la capacidad
de cómputo, que todavía no acaba, vino a dar mayores posibilidades a este nuevo giro
experimental. Las medidas más extensas que se hacían con anterioridad eran autocorrelaciones
de la velocidad, lo que daba lugar a que, al observar en dos puntos distintos y promediar el
resultado, se borraran estas estructuras; las medidas tendían a registrar estados distintos de
67
estas estructuras que poco tenían de relación unas con otras. Al promediar entre pulpos y niños
se obtienen seres que en promedio tienen seis apéndices; este dato promedio no parecería ser
muy útil a un observador externo. Así, la forma de medir y sobre todo, de analizar los datos,
sufrió un cambio de fondo.

Un huracán que se mueve en el Océano Atlántico, visto desde un satélite orbital a 300 km de
distancia, parece una estructura (vórtice) perfectamente organizada, regular, que se mueve
lentamente. Para el capitán de una nave camaronera y para sus asustados tripulantes, que lo
ven en una escala de metros, o decenas de éstos, parece un infierno húmedo e irregular que
varía violentamente de un lugar a otro y de un instante al siguiente. Ni lo ven muy organizado
(excepto para ahogarlos) ni lo ven variar lentamente. Esta estructura coherente, vista por el
astronauta, está conformada por miles de vórtices más pequeños en plena algarabía, que sufre
el argonauta.

En la figura V.3 se ilustra una de las primeras fotografías que exhibían estas estructuras
coherentes. En ésta se pone de manifiesto una estructura bidimensional de vórtices sobre la
que hay superpuesta una complicada trama de vorticillos (la turbulencia). El flujo corresponde
a lo que se llama la capa de mezclado. Dos fluidos, uno arriba y otro abajo, se mueven de
derecha a izquierda con velocidades distintas. En este caso se trata de nitrógeno (arriba) y de
una mezcla de helio y argón (abajo). Las velocidades son de 1 000 cm/s y de 380 cm/s,
respectivamente, y la presión es de 8 atmósferas. La fotografía fue tomada por el grupo de
Anatol Roshko, en la década de los setenta, usando un método que podríamos llamar
sombragrafía.

Figura V. 3. Estructuras coherentes en un flujo turbulento; capa de mezclado.

El procedimiento para obtener estas fotografías es relativamente sencillo y el fenómeno que lo


genera es muy común. Quien ha visto una fogata o un montón de brasas encendidas, recordará
que las imágenes que se ven del otro lado parecen bailar; sobre un fondo claro y uniforme
pueden verse ciertas sombras irregulares, como ondas de calor. El efecto es producido por las
variaciones que sufre la dirección de la luz al pasar por regiones con temperaturas distintas. Al
aumentar la temperatura del aire, éste se expande, cambia su densidad y tiende a moverse
hacia arriba. La luz que va pasando, tan rápido que ni se entera que se mueve el aire, modifica
su dirección al pasar de un medio más denso a otro menos denso; decimos que cambia el
índice de refracción. Las zonas de diferente densidad, irregulares en forma, generan un patrón
tembloroso de imágenes. En el flujo en cuestión, cada uno de los fluidos tiene un índice de
refracción distinto y deja pasar a la luz de diferente manera. Así, en la región de mezclado
turbulento hay una complicada combinación de ambos índices de refracción y la luz sigue
estas variaciones. Al poner una pantalla del otro lado del flujo se pueden ver los patrones
resultantes (una criatura con una cámara fotográfica de plástico puede hacer el resto).

68
Es interesante notar que destacados investigadores habían estudiado este flujo y habían
determinado todo lo que entonces se consideraba necesario para caracterizar sus propiedades
estadísticas. Descubrir la existencia, persistencia y evolución de estas estructuras, en lo que
parecía un flujo sin orden alguno, fue una verdadera revelación.

La caracterización de estructuras coherentes sigue siendo el gran tema de actualidad en la


investigación experimental. La parte teórica se encuentra todavía en sus inicios, cosa no del
todo rara en este churrigueresco problema. Los intentos por elaborar una explicación
cuantitativa de estos fenómenos siguen desafiando a la imaginación y al colmillo de la
comunidad científica que se interesa en el problema. Las dificultades se inician desde la forma
de definir matemáticamente a estas criaturas que viven en el caos. Si recordamos que la
definición de un vórtice sencillo nos elude todavía, no es de sorprender que este asunto le quite
el sueño a más de uno.

Hay la sospecha fuerte de que una de las mejores formas de acorralar a las elusivas estructuras
coherentes es estudiar el problema en términos de la vorticidad, y los enfoques teóricos se
mueven en esta dirección. De esta manera, los experimentales tratan de medir la vorticidad y
los teóricos de ver cómo se distribuye en el espacio y el tiempo. Aquí, de nuevo, los
investigadores depositan sus esperanzas en las computadoras. Los experimentales, para la
adquisición, manejo y análisis de grandes cantidades de datos; sin ellas, este trabajo tomaría
cientos de miles de años, de todos aquellos que trabajan en el tema, ¡para un solo caso! A los
teóricos les pasa algo semejante. Para todos se ha convertido en la herramienta indispensable y
la fuente de inspiración para muchos estudios, desde las simulaciones directas de flujos
sobresimplificados hasta el terreno de juego para los experimentos pensados.

El estado actual de esta situación es todavía nebuloso (¡turbulento!), si bien hay múltiples
ideas cualitativas sobre el papel que desempeñan las estructuras coherentes. Estas ideas
platicadas son el motor del trabajo experimental y teórico que se puede consultar en la
bibliografía especializada. La forma de plantear matemáticamente lo que sugiere la intuición y
la información acumulada es parte de la tarea para llevar a casa.

El problema continúa abierto y ofrece la posibilidad de ganarse el pan cotidiano a muchos


curiosos y necesitados de la ciencia y el conocimiento, ya sea motivados por razones prácticas
o estéticas.

V.3. ATRACTORES EXTRAÑOS Y CAOS

Una serie de revolucionarias ideas y de descubrimientos paralelos a los anteriormente


descritos, independientes, diferentes y aparentemente desconectados, pero sobre el mismo
problema general de la turbulencia, ocurrieron en la misma prolífica década en que se
descubrieron las estructuras coherentes. Describiremos sólo una parte, pero no tocaremos las
sugerentes ideas e importantes teorías como las de Mitchel Feigenbaum, Benoit Mandelbrot,
Pierre Manneville e Yves Pomeau.

Uno de los antecedentes fue el descubrimiento hecho por otro meteorólogo, Edward N.
Lorenz, en 1963. Estaba interesado en comprender ciertos aspectos de la atmósfera terrestre
con el propósito de avanzar en los métodos para la predicción del tiempo. Con esto en mente
elaboró un modelo muy sencillo para estudiar lo que le pasa a un fluido sometido a una
diferencia de temperaturas en presencia del campo gravitacional, conocido como el problema
de Rayleigh- Bénard. A partir de las ecuaciones básicas de la mecánica de fluidos, las de
Navier- Stokes, introdujo varias hipótesis para reducir las ecuaciones a lo que en su opinión
aún tenía elementos suficientes para generar una dinámica interesante. Luego, procedió a
resolverlo en forma numérica. Cuál no sería su sorpresa al encontrar que, para ciertos valores
69
de los parámetros que caracterizaban al problema, la solución mostraba un comportamiento
errático. Curiosamente, no tiró a la basura los resultados.

¿Cómo era posible que el resultado de una ecuación, compuesta por términos bien definidos y
perfectamente regulares, diera lugar a un comportamiento no determinista? Otros,
seguramente, hubieran descartado los resultados y pensado que había algo equivocado con el
método de solución o con la computadora misma. Para Lorenz había algo nuevo y profundo en
lo que acababa de encontrar; había descubierto a los atractores extraños. Pasaron varios años
para que la comunidad cientifica se percatara de la enorme importancia de su hallazgo. Baste
decir que gracias a su trabajo, ahora sabemos que nunca podremos predecir el tiempo más allá
de siete días. Si oímos que se espera buen clima para la semana próxima, podemos asegurar
que es precisamente eso, una esperanza.

A la impredictibilidad del clima a largo plazo se le ha dado por llamar el efecto mariposa. La
razón para este nombre proviene del hecho de que una pequeña diferencia en las condiciones
iniciales digamos, hoy dará lugar a una profunda diferencia a lo que puede estar ocurriendo
tiempo después. El efecto de la imperceptible variación irá creciendo con el tiempo,
acumulándose poco a poco, como una avalancha; para exagerar el punto, se dice que el aleteo
de una mariposa modificará el clima en unos meses. Desde luego, aquí nos referimos a la
predicción detallada de las condiciones meteorológicas después de unos días. Características
burdas o promediadas sobre muchos eventos y muchos años no se verán modificadas en forma
sustancial por estos pequeños mariposeos; la erupción de un volcán o la desmesurada
producción de contaminantes en alguna región hipotética del planeta, no estarían incluidos
entre estos últimos. La temporada de lluvias será igual, si por ello entendemos que es parecida
a la temporada del béisbol; no tienen fechas fijas y los caprichos de los protagonistas
respectivos siempre están presentes.

¿Qué es un atractor extraño? Veamos primero qué son los no extraños, por extraños (o
triviales) que parezcan.

Si estiramos un resorte con una canica de cada lado y lo soltamos dentro del agua,
observaremos que empieza a oscilar y que poco a poco se va parando. Si hacemos la misma
prueba fuera del agua, en el aire sucio que algunos respiran, sucede lo mismo, aunque el
amortiguamiento será mucho menor y se tardará más en detenerse. Decimos que la disipación
es menor en este caso. Si lo pudiéramos hacer en el vacío, tardaría más en detenerse;
habríamos reducido aún más la fricción. Al cambiar el material del que está hecho el resorte
por uno más elástico (más caro), la disipación podría reducirse aún más. A pesar de que nunca
podríamos quitar la fricción (disipación) por completo, podríamos ver que cada vez tarda más
en detenerse. En condiciones ideales se quedaría oscilando ad infinitum. Estas observaciones
ilustran el punto siguiente.

El estado final de un resorte (oscilador) es el reposo total o la oscilación perenne. ¡Pues que
trivialidad!, decimos todos. La ventaja del ejemplo, que no es el único, es que todo puede
hacerse con un lenguaje matemático preciso y entonces puede demostrarse que los
movimientos posibles tienden (son atraídos) a un punto, el del reposo. Este estado final es un
atractor y su dimensión es cero.

En el espacio en el que viven estos movimientos, que llamamos variedades, hay diferentes
tipos de atractores: puntos (como en el caso de osciladores con fricción), curvas (como en el
caso de los osciladores no amortiguados, de dimensión uno), superficies (de dimensión dos),
etc.; objetos más o menos simples. Antes de Lorenz se creía que todos eran de este tipo y fue
entonces que aparecieron los extraños, que resultaron ser cosas (variedades) conocidas, aunque

70
eran consideradas como curiosidades matemáticas sin conexión alguna con el mundo real.
Baste decir que su dimensión no es ningun número entero (si no serán raros).

Para poder imaginar a los atractores extraños es conveniente mencionar una de sus principales
características, la de ser autosemejantes, lo cual en este caso significa que mientras más le
vemos menos enseña, o que enseña lo mismo (por algo son extraños). Un objeto autosemejante
que puede ilustrar (¿confundir?) la autosemejanza y que tiene una dimensión fraccionaria
(fractal), es lo que se conoce como el conjunto de Cantor y se construye de la siguiente
manera.

Consideremos el segmento de recta del cero al uno (Figura V.4). Lo dividimos en tres partes
iguales y quitamos la del centro (segundo renglón de la Figura V.4). Ahora, a cada segmento
restante lo dividimos en tres y volvemos a quitar los tramos centrales (tercer renglón). Luego
repetimos este proceso hasta el cansancio y... le seguimos ad nauseam. El resultado es algo
que tiene la propiedad de que si lo vemos parece una serie de puntitos con cierta distribución
espacial que no alcanzamos a distinguir claramente. Si tomamos una parte y la amplificamos
cien veces digamos se ve una serie de puntitos con cierta distancia... ¡exactamente igual!
No importa cuánto o cuantas veces amplifiquemos, ¡siempre se verá igual!

Figura V. 4. Conjunto de Cantor.

Un atractor extraño, llamado de Henón-Heiles en honor a sus descubridores en un modelo


astrofísico, se muestra en la figura V.5. Se han hecho varias amplificaciones que exhiben parte
de su estructura. En el problema correspondiente, todos los movimientos son atraídos por el
atractor.

71
Figura V. 5. (a) Atractor de Henón Heiles. Forma general.

Figura V. 5. (a) Atractor de Henón Heiles. Amplificación del recuadro de la parte (a).

72
Figura V. 5. (a) Atractor de Henón Heiles. Amplificación del recuadro de la parte (b).

En 1971, David Rouelle y Floris Takens propusieron una nueva teoría de la turbulencia
basados en el descubrimiento de Lorenz. En 1978 Rouelle y Takens, en colaboración con
Steven Newhouse, publicaron una importante extensión a la teoría y es la versión que ahora se
maneja. La propuesta ha permitido cambiar el marco conceptual desde el que contemplamos el
problema de la turbulencia, aunque su utilidad práctica para describir la turbulencia totalmente
desarrollada se ve tan cercana como la colonización de la galaxia más cercana; es cosa de
tiempo, un tanto largo, desde luego. El resultado fue una verdadera explosión de trabajos
teóricos y experimentales sobre el tema, abriéndose por completo un área de investigación que
se había circunscrito a los iniciados en matemáticas relativamente complejas.

¿Cuál era el dogma aceptado?

Lev Davidov Landau (1908-1968), tal vez el más brillante físico soviético, famoso por sus
profundos trabajos en la más variada gama de temas de la física, publicó en 1944 un célebre
artículo. En éste propuso un modelo sobre la forma en que se genera la turbulencia en todos los
flujos. En forma esquemática, la idea era que si en cierto flujo se iba aumentando el parámetro
básico, como el número de Reynolds, el estado de movimiento cambiaría con el tiempo a otro
de naturaleza un poco mas complicada. Al seguir aumentando el parámetro de nuevo ocurriría
un cambio en la estructura del flujo, y así sucesivamente. A la larga decía, el flujo es lo
suficientemente complicado como para que se vea turbulento.

Por ejemplo, en el flujo alrededor de un cilindro, inicialmente laminar (Figura II. 7 y II. 8), se
observa que al aumentar la velocidad con la que llega el fluido se transforma en otro flujo,
también laminar, con más estructura. A mayor velocidad los vórtices posteriores se desprenden
y aparece una estela hermosa y compleja, difícil de describir matemáticamente (Figura V.6).
Al continuar el proceso la estela se va complicando hasta verse completamente turbulenta.

73
Figura V. 6. Estela detrás de un cilindro circular en flujo uniforme. La velocidad del
flujo es mayor que en los casos de las figuras II. 7. Y II. 8.

La teoría de Landau, de carácter esencialmente cualitativo, prevaleció hasta la década de los


setenta. Hoy en día tiene sólo valor histórico; sin embargo, motivó numerosos trabajos para
estudiar estas transiciones y sirvió para desarrollar diversos métodos matemáticos para atacar
el problema. Lo anterior, que parecía perfectamente plausible, fue modificado por Rouelle y
Takens; su teoría, construida sobre bases conceptuales y matemáticas más sólidas también es,
por lo pronto, de carácter cualitativo. Vencer las dificultades para utilizarla en forma explícita
para hacer predicciones concretas es un proyecto a futuro. Si bien la teoría parece sumamente
abstracta (matemática), las ideas físicas pueden verse con relativa sencillez. Estas pueden
resumirse en dos principales.

El primer resultado sobre el que está construida la teoría es la demostración de que las
ecuaciones de Navier-Stokes tienen dependencia sensible en las condiciones iniciales. Esto
quiere decir, en términos normales, que todo lo que le pasa a un fluido depende de los detalles
de su estado inicial. Más directo, que los fluidos tienen muy buena memoria cuando se les
excita demasiado. Lo que hacen depende de cómo empezaron.

Esto explica por qué cada vez que se empieza un flujo dentro de un túnel de viento, por
ejemplo, se observan patrones muy diferentes. Sucede que nunca podemos repetir un
experimento exactamente en la misma forma; siempre partimos de un estado muy parecido,
pero no del mismo. Todo tiene que ver con la forma en que un movimiento va a evolucionar;
la contaminación del aire en el túnel, la deformación nocturna del dispositivo mecánico y,
podría argumentarse, el humor del investigador. Ernst Mach (1838-1916), uno de los
profundos pensadores sobre el quehacer científico, hubiera estado fascinado por tal resultado;
el llamado principio de Mach, en pocas palabras, postula la influencia de cada parte del
Universo sobre el resto. Esto, "aunque usted no lo crea", le ocurre a los queridos fluidos; algo
así tenía que andar pasando.

De hecho, desde el siglo XIX, James Clerk Maxwell fue explícito al respecto cuando decía:
"Es una doctrina metafísica que de las mismas causas se siguen los mismos efectos... Pero es
poco útil en un mundo como éste, en el que las mismas causas nunca se repiten y nada ocurre
dos veces..." Luego agregaba: "[....] el axioma físico análogo es que de causas semejantes se
siguen efectos semejantes. Ahora hemos pasado de la igualdad a la semejanza, de la certeza
absoluta a la burda aproximación [...]; cuando sucede, el curso de los acontecimientos es
74
estable. Hay fenómenos más complicados en los que ocurren inestabilidades [...] que aumentan
rápidamente con el número de variables relacionadas". Con la intuición que lo llevó al Olimpo
de la ciencia, concluía: "[...] el estudio de las singularidades y las inestabilidades, más que el
de las cosas continuas y estables, tal vez elimine el prejuicio en favor del determinismo [...]."

La segunda parte de la receta para cocinar la teoría de Rouell-Takens-Newhouse está ligada


muy de cerca con el punto anterior. El meollo del asunto radica en que las ecuaciones de
Navier-Stokes tienen atractores, como casi todas las ecuaciones, pero que resultan ser de los
extraños; esto sucede en el espacio (variedad) en el que se encuentran sus posibles soluciones.
Así, el movimiento de un fluido se va transformando en otros al ir cambiando el número de
Reynolds, a la Landau. Pero, y aquí es donde cambian las cosas, al ocurrir el tercer cambio es
muy probable que el flujo sea turbulento. Matemáticamente se dice que la solución que
describe el tercer estado de movimiento está cerca de un atractor extraño. En estas condiciones
las cosas se van a ver por demás extrañas (o sea turbulentas). Veamos un poco más de cerca la
razón.

Digamos que la forma del atractor es la que se ilustra en la figura V.5. El estado inicial del
fluido corresponde a un punto cualquiera en el papel de la gráfica; el punto escogido podría
describir un movimiento regular y sencillo que no cambia en el tiempo.

Ahora cambiamos el número de Reynolds (abrimos más la llave, digamos) lo suficiente como
para que el estado de movimiento cambie a otro estado (cambiamos de punto en la gráfica). Si
está lejos del atractor, desde luego que será atraído a él. Repetimos el proceso y... se acerca al
atractor (como en las novelas de terror). La siguiente ocasión en que repetimos la operación el
movimiento cambia, muy probablemente, a uno turbulento. Visto en la gráfica, el punto se
acercó tanto que empieza a moverse sobre la curva ilustrada; va cambiando en el tiempo.
Como sólo lo podemos ver cada cierto tiempo (con la vista, menos de treinta veces cada
segundo), parecerá brincar de un lugar a otro, sin ton ni son, siendo que en realidad se mueve
sobre el atractor que se muestra.

Cuando parece que el estado es uno que se registró anteriormente, en realidad es uno parecido
que se encuentra en otra parte de la curva; en una amplificación parecería estar en una de las
líneas adyacentes. En realidad no es ni curva ni superficie..., es un atractor extraño.

Al publicarse la teoría, los investigadores pensaron que las cosas eran demasiado abstractas
como para tener conexión alguna con los experimentos. Después de todo, a pesar de que los
autores tenían un reconocido prestigio, se trataba de matemáticas muy complicadas. Al irse
traduciendo la teoría al lenguaje de los interesados en el tema, se vio que había formas de
poner a prueba algunas de las afirmaciones de la teoría.

Varios investigadores se dieron a la tarea de reexaminar, con las nuevas ideas, algunos flujos
conocidos; unos años después, Jerry Golub y Harry Swinney, experimentales reconocidos en el
campo de los superfluidos, habían logrado demostrar que había un flujo que seguía el camino
que insinuaba la teoría. Reinterpretando observaciones anteriores, encontraron que tras de un
par de cambios, el flujo perdía la brújula y su estabilidad; en su locura exhibía la turbulencia
en forma descarada y de la manera esperada.

Los experimentos consistieron en estudiar los patrones de flujo que ocurren cuando se pone
agua entre dos cilindros concéntricos y uno de éstos se pone a girar (Figura V.7(a)). Este
arreglo se conoce como el flujo de Couette-Taylor, recordando a quien lo estudió por primera
vez y a quien mejor lo hizo, respectivamente. Lo que ocurre en este sencillo arreglo es
sorprendente.

75
Figura V. 7. (a) Flujo de Couette- Taylor. Diagrama del arreglo experimental.

Al ir aumentando la velocidad con la que gira el cilindro interior, con el cilindro exterior fijo,
se llega a un valor para el cual el fluido deja de dar vueltas en órbitas circulares alrededor del
cilindro. Ahora se mueve siguiendo una trayectoria que -puede decirse- está enrollada en la
superficie de una dona contenida entre los cilindros. Observando el sistema se aprecian estas
donas, bautizadas celdas de Taylor, a todo lo largo del cilindro exterior (Figura V.7(b)); ésta es
la primera transición. El patrón se hace visible cuando se agregan al agua partículas pequeñas.

Figura V. 7. (b) Flujo de Couette- Taylor. Celdas de Taylor.

76
Al seguir aumentando la velocidad de giro aparece un patrón de celdas de Taylor moduladas.
Como si distintas partes de las donas quisieran ir hacia arriba y parte hacia abajo; una especie
de onda congelada se superpone a las celdas de Taylor. Esta segunda transición se puede
apreciar en la figura V.7(c). Luego, se viene abajo el espectáculo y hace su aparición la
turbulencia.

Figura V. 7. (c) Flujo de Couette- Taylor. Celdas de Taylor moduladas.

Un movimiento caótico alrededor del cilindro es lo único que sobrevive del flujo (Figura
V.7(d)).

Figura V. 7. (d) Flujo de Couette- Taylor. Régimen turbulento.

77
Como lo indica la nueva teoría, después de un par de transiciones aparece la turbulencia.
Desechada la teoría de Landau, heredó el foro la nueva prima donna (excepto que ahora no
está sola...); pero al igual que con los aplaudidos artistas, deportistas, etc., su tiempo dura en
tanto llegan los nuevos.

Como dijera hace unos años Uriel Frisch, destacado físico contemporáneo: "Yo creo que
tenemos un conocimiento peor sobre lo que sucede en un milímetro cúbico de agua, que sobre
lo que ocurre en el interior del núcleo atómico." Sabiendo que se refería al problema de la
turbulencia, como prototipo de esta ignorancia crasa que cargamos sobre los hombros, no
puede uno menos que compartir su visión.

Una anécdota sobre este punto la debemos a Sir Horace Lamb (1849-1934), destacado
investigador inglés en el campo de la mecánica de fluidos. En un homenaje internacional que
se le brindó al cumplir los ochenta años, en 1929, declaró lo siguiente: "Cuando muera, espero
ir al cielo. Ahí, espero ser iluminado sobre la solución de dos problemas, la electrodinámica
cuántica y la turbulencia. Sobre el primero, soy muy optimista..." En cuanto al segundo
esperamos que Lamb haya ido al cielo. Seguramente así sabrá la respuesta del primero. Cabe
agregar que el primero fue resuelto por uno de los grandes físicos de este siglo, Richard P.
Feynman (1918-1988), por lo que le fue otorgado el premio Nobel en 1965. En palabras de
Feynman: "la turbulencia es el último problema importante por resolver de la física clásica."

78
V I . S U P E R F L U I D O S

EN LA naturaleza hay 92 átomos diferentes y más de una docena de átomos que han sido
creados artificialmente por el hombre (y la mujer). Estos elementos son los ladrillos básicos
que componen a la extraordinaria variedad de objetos que forman el Universo. Sin excepción,
todo está construido con este relativamente pequeño conjunto de "dados para armar". Las ratas
de drenaje, las estrellas, los diamantes y las verrugas, la Luna, las flores silvestres, los
elefantes y la ruinas incas, todos están compuestos por grupos de átomos que se combinan en
complejas proporciones. Después de todo, Demócrito, hace casi 7000 años, tenía una idea
bastante cercana a la que ahora tenemos. sólo le faltaba la evidencia empírica para sustentar
sus extraordinarias especulaciones.

Aun sabiendo que todos los colores son combinaciones de sólo tres ingredientes primarios, el
rojo, el azul y el amarillo, no deja de sorprender la gama cromática que percibimos. ¡Qué
espectáculo disfrutaríamos si contásemos con noventa colores primarios! Así, la pasmosa
riqueza en la diversidad de objetos y comportamientos contrasta con la sobria sencillez de sus
pequeñísimos componentes.

El más ligero de los elementos naturales es el hidrógeno y el más pesado el uranio, criterio
usado para ordenarlos por número en la Tabla Periódica. Después del hidrógeno sigue el helio,
que es un poco más complicado en estructura y es el más estable e inerte de todos los
elementos, lo que sugeriría un comportamiento poco interesante. Pero, como veremos más
adelante, es notablemente extravagante.

Todos los elementos están formados por tres tipos de partículas distintas: electrones (con carga
eléctrica negativa), protones (con carga eléctrica positiva) y neutrones (sin carga); los protones
y los neutrones son más de mil veces más pesados que los electrones. La diferencia entre un
elemento y otro es sólo la cantidad de electrones que tienen, que siempre es igual a la de los
protones, lo cual asegura la neutralidad eléctrica de los átomos. Los llamados isótopos son
variedades de un mismo elemento que difieren en el número de neutrones que, junto a los
protones, se encuentran en el núcleo.

El hidrógeno es la sencilla unión de un electrón con un protón, mientras el uranio U238 tiene 92
electrones en movimiento alrededor de un núcleo con 238 partículas, entre protones y
neutrones. Hinchado así, no es sorprendente que frecuentemente arroje cosas (partículas-,
que son núcleos de helio, por ejemplo) y se transforme con el paso del tiempo en otro
elemento, como el plomo (Pb206); ésta es la radiactividad.

Hay dos isótopos del helio en la naturaleza llamados 4He y 3He (helio cuatro y helio tres).
Ambos tienen dos electrones y la diferencia está en el número de componentes del núcleo;
además de los dos protones, el helio cuatro tiene dos neutrones y el tres tiene sólo uno, por lo
que el 3He es más ligero. Por ser el más abundante en la naturaleza y por ser el protagonista
principal de lo que sigue nos referiremos al 4He como helio.

Como paréntesis aclaratorio (que puede contribuir a la confusión), es conveniente mencionar


que en realidad hay algunas "cosas" adicionales aparte de los átomos. La luz, por ejemplo,
nada tiene que ver con los átomos; está hecha de fotones. Además, hay otros entes exóticos que

79
pululan el Cosmos, como los neutrinos, los muones, los cuarks, los positrones y antipartículas
varias.

¿Qué son en realidad los átomos, los electrones, los neutrinos y demás objetos microscópicos?
La teoría correspondiente, que llamamos genéricamente mecánica cuántica, y cuyo idioma
natural es el de las matemáticas, nos dice claramente qué son y qué hacen. Permite hacer
predicciones notables sobre los eventos más probables, los valores esperados para velocidades,
masas, energías, fuerzas, vidas y milagros de estas peculiares criaturas.

La falta de un diccionario adecuado para traducir los conceptos cuánticos al lenguaje que
recibimos con la leche después de nacer, complica las cosas cuando discuten los físicos entre sí
y las hace casi incomprensibles cuando éstos hacen aclaraciones a los demás. La respuesta no
es sencilla y es preciso hacer juegos malabares intelectuales para explicarlos con un lenguaje
poco apropiado para ello. ¿Son partículas pequeñas, como canicas de dimensiones invisibles, o
son ondas, como las que vemos siempre en la superficie del mar? Partícula, onda, canica y
mar, son palabras que inventamos para referirnos a objetos que todos conocemos y percibimos
a través de los sentidos. Nuestro lenguaje cotidiano tiene esta virtud. Si algo es difícil de
describir, lo presentamos para ser visto, olido, oído, sentido y saboreado, cuando es sensato o
necesario hacerlo. El problema se inicia cuando tratamos de describir o explicar algo que no se
ha visto directamente o se comporta esencialmente diferente a todo lo que estamos
acostumbrados a percibir.

Bajo ciertas condiciones, la evidencia experimental, siempre indirecta, sugiere que el objeto se
porta como un balín indestructible y entonces decimos que es una partícula. En otras
circunstancias se comporta como la onda superficial en un estanque y decimos que es una
onda. Recordando lo que dijimos primero y pretendiendo acabar con la aparente confusión,
empleamos el término onda-partícula, sin ser ni lo uno ni lo otro y siendo ambos a la vez. Así
son estas minúsculas entidades.

Su comportamiento muestra que los conceptos de onda y de partícula, cada uno, son
insuficientes para describirlos y que son sólo analogías para poder expresar algo en un
lenguaje apto para describir lo que sucede en muchos, muchísimos átomos. Las matemáticas
no tienen esta limitación.

Lo curioso es que a fuerza de hablar, experimentar y pensar en ellas, la familiaridad hace creer
que se entienden fácilmente y que cualquiera puede apreciar sus peculiaridades cuando se
intenta describirlas. Se habla de propiedades que poseen como el espín, el color, el encanto y
la extrañeza, por citar algunos. Los nombres, salvo el primero, son poco afortunados pues se
refieren a atributos que conocemos pero que nada tienen que ver con lo que representan en el
caso de estos entes cuánticos; el primero, para quienes no usamos el inglés todo el tiempo,
tiene la ventaja de ser una nueva palabra para representar algo igualmente novedoso. De haber
llamado a estas propiedades la grisca, el cotro o la ruspela, sin el prejuicio de un contenido
dado, se estaría más preparado a asimilar un concepto ajeno a la experiencia cotidiana.

Otro elemento totalmente novedoso que forma parte esencial de la mecánica cuántica es la
relación que hay entre el objeto bajo estudio y el observador. A diferencia de lo que sucede al
estudiar otro tipo de sistemas, no tan pequeños, en los que el objeto de estudio tiene un
comportamiento independiente del observador, los sistemas cuánticos sufren las acciones del
investigador y modifican su comportamiento detallado en forma impredecible.

Al estudiar un electrón, por ejemplo, es inevitable afectarlo en forma incontrolada. Para


estudiar su movimiento hay que "iluminarlo" para "tomarle una película" y determinar gracias
a ella su velocidad. Sin embargo, cuando intentamos iluminar al electrón, este se desvía al
80
chocar con el primer fotón (la onda-partícula que constituye la luz), impidiéndonos saber qué
velocidad llevaba; al llegar la luz, mostrándonos en qué sitio se encontraba, desaparece la
posibilidad se saber a dónde iba. Es decir, posiciones y velocidades son cantidades
incompatibles. La precisión en la determinación de una es a costa de la otra. Este tipo de
efectos trae como consecuencia la existencia de límites naturales ineludibles en la precisión
con la que es posible determinar ciertas cantidades, simultáneamente. Estas limitaciones tienen
el carácter de leyes fundamentales y forman parte de los postulados básicos de la mecánica
cuántica. Se conocen como las relaciones de incertidumbre de Heisenberg.

VI. 1. EL HELIO Y EL FRÍO

El helio fue descubierto como uno de los componentes de la atmósfera solar, de donde viene
su nombre (del griego helios, Sol), en la segunda mitad del siglo XIX por P. Janssen y J. N.
Lockyer, independientemente. Casi veinte años más tarde se encontró en la Tierra disuelto en
minerales y un poco después en mezclas de gases naturales; al separarlo siempre se obtenía
helio en su fase gaseosa.

El primer derivado de las reacciones nucleares que ocurren en el interior de las estrellas es el
helio. Las enormes presiones que existen en el interior de las estrellas dan como resultado que
se fusionen los átomos de hidrógeno, formando helio, liberándose así enormes cantidades de
energía. El hidrógeno es el "combustible" más usado por las estrellas para iluminar el cielo (de
noche solamente, claro). Agotado el hidrógeno se siguen con el helio, formando átomos cada
vez más pesados, que a la larga se combinan para formar moléculas y éstas, agrupadas en
cúmulos, forman partículas que a la larga se autorganizan y mugen en medio de verdes
pastizales.

Decir que somos polvo de estrellas, además de una frase poética saturada de meloso
romanticismo, es una afirmación científica literal.

Descubrir cada elemento, para después caracterizarlo y conocer sus propiedades más
distintivas, fue un proceso arduo y tedioso que tomó muchos siglos. Tras de lograr purificar
una cantidad razonable de cada uno se procedía, entre otras cosas, a determinar las condiciones
bajo las cuales el elemento se encontraba en las fases sólida, líquida o gaseosa. Se aprendió
que bajando la temperatura de un gas se convertía en líquido y que enfriándolo más el líquido
se solidificaba. Así empezó el desarrollo de la tecnología de bajas temperaturas.

Contar con un sibil (sitio fresco o frío para guardar comida o pieles), ciertamente era común
desde tiempo inmemorial, por lo que sorprende que no fuera sino hasta el siglo XVIII cuando
se desarrollaran los primeros procesos para enfriar artificialmente. De hecho, la primera
máquina para producir hielo se construyó hasta 1755 por William Cullen. Sin embargo, fue el
interés por licuar a todos los gases el que motivó el desarrollo de métodos para producir
temperaturas cada vez más bajas.

Para reducir la temperatura de un gas se utilizan dos hechos sencillos. Uno es el conocido
efecto de que al poner en contacto dos cuerpos a diferente temperatura, alcanzan una
temperatura intermedia, enfriándose el más caliente y calentándose el más frío. El otro hecho
consiste en que si un gas se expande rápidamente, disminuye su presión y baja su temperatura.
La combinación alternada en forma ingeniosa de estos hechos y la adecuada selección de gases
produce la receta para enfriar lo que sea y tanto como se desee (casi).

Recordemos que la temperatura más baja que es posible alcanzar en el Universo es la de cero
grados Kelvin (0ºK) o el cero absoluto. En la escala práctica de temperatura, de grados
centígrados o Celsius (ºC), que es la que se usa para calentar el horno, decidir si es necesario
81
un suéter o si el catarro se convirtió en gripe, el límite natural inferior corresponde a -
273.15ºC. Para pasar una temperatura en grados Celsius a la escala absoluta de grados Kelvin
basta con restarle 273.15.

Es bueno mencionar que, de acuerdo con una de las leyes de la física (la llamada tercera ley de
la termodinámica), NO es posible alcanzar la temperatura de 0ºK en un proceso que
comprenda un número finito de pasos. En otras palabras (más tontas desde luego), habría que
vivir un tiempo infinito para manipular una sustancia y enfriarla hasta el cero absoluto. (Véase
García- Colín, L. S.)

La licuefacción de gases se inicia propiamente en el siglo XIX. Uno de los genios


experimentales de todos los tiempos, el científico inglés Michael Faraday (1791-1867), entre
muchas de sus investigaciones logró licuar por primera vez varios gases hacia finales de 1822.
A pesar de haber logrado temperaturas tan bajas como 110º C bajo cero y del éxito que obtuvo
en la condensación del amoniaco, el cloro y el bióxido de carbono, no pudo hacer lo mismo
con el hidrógeno, el oxígeno y el nitrógeno. Junto con el monóxido de carbono, éstos fueron
llamados los gases permanentes, ante los múltiples intentos infructuosos por licuarlos.

Con técnicas cada vez más refinadas, el último cuarto del siglo XIX vio por fin la licuefacción
de los reacios gases comunes que constituyen nuestra atmósfera. Entre 1883 y 1885, en
Cracovia, Polonia, S. V. Wroblewski y K. S. Olzewski lograron finalmente licuar oxígeno,
nitrógeno y monóxido de carbono. El 10 de mayo de 1898, en Londres, Inglaterra, J. Dewar
licuó el hidrógeno. El siglo XIX terminaba y ya se habían alcanzado temperaturas de 15ºK (casi
260ºC bajo cero) y la licuefacción de todos los gases, excepto el helio.

Al iniciarse el siglo XX, el helio se empezaba a obtener en cantidades apenas suficientes para
ser estudiado en laboratorios muy especializados. A las temperaturas más bajas que entonces
se podían producir (8ºK), el helio sólo podía mantenerse en forma de gas, lo que había
generado una verdadera carrera internacional para poder lograr su licuefacción. Varios grupos
de científicos de mucho prestigio trabajaron intensamente para lograr este objetivo.
Finalmente, el 10 de julio de 1908, Heike Kamerlingh-Onnes (1853-1926) logró enfriar helio
hasta licuarlo, en Leyden, Holanda. La temperatura que requirió alcanzar fue menor que 4ºK (-
269ºC), y se encontró que la temperatura de ebullición del helio es de 4.2ºK. Con esa fecha
podría darse la fe de bautismo a la criogenia (del griego kryos, frío y gennao, engendrar,
generar frío), el estudio de las bajas temperaturas. Kamerlingh-Onnes fue honrado con el
premio Nobel, en 1913, por haber producido temperaturas tan bajas y por los consecuentes
descubrimientos sobre el comportamiento de la materia en estas condiciones.

Durante las siguientes décadas, hasta principios de 1940, se logró ir bajando aún más la
temperatura hasta llegar a unas décimas por abajo de 1ºK, en el intento por solidificar el helio
líquido. En este proceso se descubrieron una serie de hechos y de fenómenos sin paralelo en la
naturaleza, que se creían exclusivos, hasta mediados de 1986, de los sistemas fríos (los
verdaderamente fríos).

Tres años después de haber licuado el hio, Kamerlingh-Onnes descubrió el fenómeno de la


superconductividad. Estudiando cómo disminuía la resistencia eléctrica de algunos materiales
al disminuir la temperatura, lo cual era bien sabido, se sorprendió al encontrar que el mercurio
puro perdía su resistencia por completo y en forma abrupta al pasar a una temperatura inferior
a los 4.12ºK (véase Magaña, F.). Se había encontrado la primera manifestación macroscópica
del comportamiento cuántico de la materia.

82
Sin entrar en los detalles de este descubrimiento y de sus valiosas consecuencias, baste decir
que para 1940 se conocían 17 elementos puros y casi una centena de compuestos que
presentaban este comportamiento; todos con temperaturas inferiores a los 10ºK y en estado
sólido. La explicación del fenómeno, que por muchos años resistió los esfuerzos de los físicos
teóricos más notables del siglo, fue dada hasta 1957 por John Bardeen (1908-1991), J. Robert
Schrieffer (1931-) y Leon Cooper (1930-). Por esta teoría, conocida como BCS, recibieron el
premio Nobel de Física en 1972. Para Bardeen fue el segundo premio Nobel; el primero lo
compartió con William Shockley (1910-) y Walter Houser Brattain (1902-) en 1956, por sus
trabajos sobre semiconductores y el descubrimiento del transistor.

A partir de 1986, cuando J. Georg Bednorz y K. Alex Müller descubrieron superconductores


con temperaturas mucho más altas que las usuales, en los laboratorios de IBM en Suiza, se
inició una etapa de investigación que produjo más de 20 000 publicaciones en cinco años.
Tomando en cuenta que, de superconductores con temperaturas inferiores a los 20º K, se
habían descubierto unos con temperaturas cercanas a los 90º K, las posibilidades tecnológicas
y económicas presagiaban un inusitado interés. Lo que no se esperaba era la explosión
bibliográfica de dudosa calidad, que parece (y es) absurda, en vista de los escasos resultados
realmente novedosos o valiosos que se han obtenido desde entonces. La fiebre inicial
afortunadamente bajó, sin que hubiese subido la temperatura de los superconductores calientes
y sin que se tenga un buen indicio de la teoría correcta, aunque cada vez hay más
investigadores dedicados al tema de lo que la sensatez sugiere. Claro que, después de todo, hay
un premio Nobel en juego.

En resumen, no se sabe cómo producir superconductores con temperaturas mayores a los 125º
K, el máximo registrado y confirmado a finales de 1991, y no parece haber indicios de una
teoría que los explique.

Todo parece indicar que la teoría BCS y sus más directas extensiones no son aplicables a estos
complicados compuestos. Parte del problema es que la desproporcionada cantidad de papel
dedicada a presentar resultados sobre estos materiales incluye un gran número de trabajos,
teóricos y experimentales, contradictorios. Es posible, si bien es poco probable, que los
elementos básicos de la nueva teoría se encuentren sepultados en algún vehículo de
información científica, como el "Acta de erudición de Macondo". Habría que revisar parte de
las publicaciones existentes y leer u oír críticamente las supuestamente ingeniosas teorías que
se pregonan casi todos los meses explicando el fenómeno. Ya dirá el siglo XXI.

Por lo pronto, el siglo que acaba vio al ser humano producir las más bajas temperaturas del
Universo. En los primeros instantes de la Gran Explosión que dio origen al Universo, hace más
de quince mil millones de años, las temperaturas fueron tan altas que son difícilmente
imaginables y tal vez nunca puedan ser alcanzadas ni con los más grandes aceleradores de
partículas. Sin embargo, el extraordinario proceso de enfriamiento que se inició con ese
violento amanecer, no ha logrado producir temperaturas más bajas que los 3º K que
constituyen la llamada radiación de fondo, vestigio arqueológico del nacimiento cósmico.

VI. 2. UN FLUIDO IDEAL QUE SÍ EXISTE

Como sucede con los materiales superconductores, el helio presenta un comportamiento


insólito cuando su temperatura es suficientemente baja, es decir, cuando se encuentra en la fase
líquida. Otra vez, la naturaleza nos muestra su extraña cara cuántica. La superfluidez, como
ahora se le llama al fenómeno que en forma exclusiva presenta el helio líquido, en cualquiera
de sus variedades, fue descubierta 30 años después de la superconductividad y explicada 20
años antes.

83
Una vez licuado el helio, la siguiente meta fue solidificarlo, cosa que nunca se pudo lograr a
presión atmosférica. En la década de los veinte se construyó la curva de coexistencia líquido-
sólido. Esto quiere decir que se encontraron los valores de la presión y la temperatura a los que
el helio líquido se solidifica. A presiones altas se logró licuar y solidificar al gusto del
investigador. Por ejemplo, en 1930, se determinó que el helio gaseoso se solidifica a una
temperatura de 42º K si la presión es de 5 800 atmósferas, y que si ésta es menor de 25
atmósferas el helio jamás pasa a la fase sólida, aun a cero absoluto (sí se pudiese alcanzar);
esto es lo que se llama un resultado asintótico o límite.

Con diversos colaboradores, W. H. Keesom continuó la tradición holandesa de Kammerlingh-


Onnes, en Leyden, trabajando a presión atmosférica con helio líquido y encontró que al seguir
bajando la temperatura y llegar a 2.3º K, aparecía una nueva fase líquida del helio. Así, el
gélido líquido que se producía del gas a 4.2º K fue rebautizado como helio I y a la nueva fase
se le llamó helio II; a la temperatura en que ocurría la transformación (temperatura de
transición) se le conoce ahora como el punto (lambda).

Posteriormente, en el punto se fueron descubriendo cambios bruscos en una serie de


propiedades como la viscosidad, la tensión superficial, la velocidad del sonido y la
conductividad térmica. Esta última es la habilidad o eficiencia que tiene un material de
conducir el calor; las maderas y los plásticos tienen baja conductividad térmica, mientras que
en los metales esta conductividad es alta. Todo parecía indicar que el helio II era el sistema
más eficiente en la naturaleza para conducir el calor y que un fenómeno análogo a la
superconductividad hacía su debut.

El helio, además de ser el único fluido que permanece como tal en el cero absoluto, hace
trucos igualmente únicos cuando se encuentra con el disfraz de helio II.

Se había observado que el helio II burbujeaba como cualquier otro líquido cuando se encuentra
en ebullición. Al llegar al punto el efecto desaparecía y quedaba una superficie en total
reposo; había que agitar el sistema para convencerse de que aún se encontraba ahí. Al
descubrir que era capaz de conducir el calor 200 veces más rápido que el cobre se pudo
explicar el hecho anterior: la eficiencia de la conducción es tal que lleva el calor de las paredes
a la superficie del líquido sin necesidad de aspavientos, como el burbujeo que los otros
líquidos requieren, incluido el helio I. La dificultad era que no había forma de entender cómo
podía conducir tan rápido; daba al traste con las ideas comunes y corrientes. Estas se salvaron
a costa de ideas aún más exóticas.

El 7 de diciembre de 1940, la Revista de Física de la URSS recibió un artículo de Pyotr L.


Kapitza (1894-1984), investigador y director del Instituto de Problemas Físicos de Moscú, en
el que se presentaban los resultados de una meticulosa serie de experimentos en los que se
exhibían fenómenos nuevos y se reinterpretaban otros conocidos, desde una perspectiva no
considerada hasta ese momento. Tres años antes, Kapitza había presentado la sugerencia de
que más que un notable cambio en la conductividad térmica, se trataba de una radical e
inesperada caída en la viscosidad del fluido. Su famoso trabajo, publicado en 1941, introducía
las ideas de superfluidez.

Para demostrar que no era una extraordinaria conductividad térmica la que adquiría el helio II,
y que era la aparición de corrientes lo que hacía eficiente el proceso, tuvo que demostrar que se
trataba de un superfluido y así lo llamó.

Para medir la viscosidad, que es la oposición que presentan los fluidos a moverse (por fricción
interna), es común utilizar tubos capilares angostos y medir el flujo resultante. Al no ser

84
aplicables los métodos tradicionales, Kapitza tuvo que diseñar un sistema como el que se
muestra en la figura VI.1. El helio, para pasar al recipiente externo, debe fluir hacia abajo y
pasar entre dos placas de vidrio muy pulidas y separadas entre sí una distancia menor a una
micra (¡una millonésima de metro!). Mientras que el flujo era casi imperceptible a
temperaturas por arriba del punto , por abajo de éste el helio II pasaba a gran velocidad,
igualándose rápidamente los niveles.

Figura VI. 1. Helio II y flujo en capilares.

La conclusión del experimento fue que el helio II tenía una viscosidad menor que ¡una
diezmilésima de la que tiene el hidrógeno gaseoso! Kapitza sugirió que no tenía viscosidad
alguna, y que reflejaba un comportamiento igual al de un fluido ideal, "aunque usted no lo
crea". Como veremos en la siguiente sección, la teoría de Landau permitió elaborar una
explicación a éste y otros hechos raros.

Otra de las pintorescas manifestaciones de la superfluidez es la habilidad de escabullirse a


través de una película que se arrastra por las paredes. La figura VI.2 ilustra el curioso
fenómeno. Se había observado que si se ponía helio II en un recipiente con un pared divisora,
con el paso del tiempo y en forma espontánea se igualaban los niveles de cada lado. En la
Universidad de Oxford, Londres, John G. Daunt y Kurt Mendelssohn demostraron
experimentalmente que se formaba una película ultradelgada (de 200 milmillonésimas de
metro) por la que el helio II fluía libremente con velocidades cercanas a los 50 cm/s. En la
figura VI.2(c) el helio II llega a vaciar el recipiente de arriba. Aunque otros fluidos que mojan
el material del recipiente que los contiene también crean estas películas, como el agua en un
recipiente de vidrio muy limpio, el movimiento que ocurre es mucho más lento y pronto se
detiene por la viscosidad.

85
Figura VI. 2. Flujo de Helio en las películas delgadas (a y b) El helio II se las ingenia para
igualar los niveles; (c) vaciado espontáneo de un recipiente.

Paradójicamente, en experimentos independientes realizados para determinar la viscosidad del


helio II, se encontró que al introducir un pequeño cilindro dentro del líquido y haciéndolo
rotar, se registraba una (débil) fuerza de fricción que se oponía a la rotación. Cada uno de los
experimentos, con capilares y cilindros rotantes, fue repetido con los mismos resultados. A
veces sí y a veces no, según la forma de medirla, el helio II tenía viscosidad. Esta aparente
contradicción también fue explicada por la teoría correspondiente.

El efecto fuente es uno de los espectáculos circenses más sorprendentes que nos proporciona el
helio II, si bien téoricamente no es tan interesante y el mismo Kapitza lo diseñó sólo para
apoyar la imagen de superfluido que iba desarrollando. Si se ponen dos recipientes con helio II
conectados por un capilar muy delgado, los niveles se igualan (esto, desde luego, lo hacen
hasta los ponches navideños). Sin embargo, si se varía la temperatura (o la presión) de uno de
los lados, se produce un flujo por el capilar que da lugar a un cambio en la presión (o la
temperatura) del otro lado, por lo que también se le llama efecto termomecánico. Para
demostrar que un flujo de calor llevaba aparejado un movimiento rápido del fluido, Kapitza
hizo algo semejante a lo que se presenta en la figura VI. 3. iluminando la parte inferior del
tubo que contiene helio II, comunicándole calor de esta manera, ¡se produce un chorro
permanente!

86
Figura VI. 3. Efecto fuente en el Helio II.

La perplejidad de Kapitza debe haber ido en aumento con cada portentoso truco que
observaba. También buscando demostrar que el eficiente transporte de calor era el resultado de
la superfluidez del helio II, llevó a cabo el siguiente experimento. En la salida de un recipiente
con helio II, que conectaba con otro igual, puso una pequeña propela o rehilete con el
propósito de detectar la salida de fluido. Al iluminar una de las caras del recipiente (pintada de
negro para que absorbiera calor) para subir su temperatura, las aspas empezaron a dar vueltas y
el helio II salió hacia el recipiente más frío. Con esto confirmaba, fuera de toda duda, que el
flujo de calor incluía cierto tipo de movimiento del helio II. Lo que sí no esperaba es que, aun
cuando salía helio II del recipiente, el nivel permaneciera igual, ¡manteniéndose lleno!

Los experimentos de Kapitza, así como la reinterpretación que dio a los que hicieron sus
antecesores, demostraron la existencia del fenómeno de la superfluidez. Pero, ¿cómo ocurría?,
¿qué la producía?, ¿cuál era el mecanismo? ¿Cómo podría explicarse la de un fluido sin
viscosidad que en ocasiones parece tenerla y que al salir de un frasco lo mantiene lleno?

La respuesta la dio Lev D. Landau en 1941, de quien hablamos en el capítulo anterior,


recibiendo el premio Nobel por ello en 1962. Antes de que pasara un año de la publicación de
los resultados experimentales sobre la superfluidez, el brillante colega de Kapitza elaboró una
teoría cuántica, comprensible sólo por los especialistas, que además predecía varios efectos
posteriormente, confirmados. Sin embargo, como varias preguntas quedaron sin respuesta, la
teoría de Landau fue modificándose y extendiéndose para abordar y explicar los problemas
pendientes, hasta alcanzar la forma casi completa que ahora posee y que a su vez ha sido
confirmada por muchos experimentos.

Antes de traducir la teoría básica de Landau al lenguaje común, que será más bien una especie
de alegoría, por lo raro que es el mundo microscópico, haremos una breve digresión.

Es difícil resistir la tentación de comentar sobre la adjudicación de los premios Nobel. A


Landau se le dio más de veinte años después de su contribución principal, aunque lo merecía

87
de todas formas por sus brillantes y diversas contribuciones en casi todas las ramas de la física.
A Kapitza hasta 1978 se le otorgó este premio, mientras que lo recibieron otros que hicieron
menos. Sus trabajos, involuntariamente realizados en la URSS, hubiesen sido mucho más
reconocidos si hubiera permanecido en Inglaterra. Muchos científicos destacados, tanto como
los que sí recibieron el Nobel, nunca fueron premiados.

Siendo el honor más reconocido internacionalmente, la componente geopolítica siempre ha


estado presente, por lo cual se han hecho graves omisiones o asignaciones desproporcionadas.
Aun cuando los premios Nobel de la Paz son los más controvertidos (pues incluso se han
otorgado a promotores de la guerra), los premios Nobel de Física y otras actividades científicas
se han dado a investigadores que, si bien han hecho trabajos notables, lo recibieron por razones
ajenas a los criterios básicos que uno supone determinarían la asignación. La nacionalidad del
candidato, la situación política del momento y el hecho de si está o no a la moda el tema de
trabajo parecen desempeñar un papel poco afortunado aunque importante. En física, todos los
honrados por el codiciado galardón lo han merecido (en ocasiones hasta han sido los mejores).

VI. 3. MEZCLAS CUÁNTICAS

El elemento que llamamos helio, como ya vimos, viene en dos presentaciones isotópicas, el
helio tres y el helio cuatro. A su vez, cuando este último se encuentra en la fase líquida recibe
el nombre de helio I, si su temperatura está por encima del punto , y helio II cuando está por
debajo. Ahí no acaba la cosa.

De acuerdo con la teoría de Landau, el helio II está formado por una mezcla de dos fluidos,
conocidos como la componente normal y la componente superfluida. En el punto todo el
helio II es normal y conforme va disminuyendo la temperatura empieza a crearse la
componente superfluida hasta que, a cero grados Kelvin, todo el helio II es superfluido. En
cierto sentido, la parte normal es la que tiene temperatura y la superfluida siempre esta en el
cero absoluto. De esta manera, si compramos unos litros de helio y los enfriamos a 1º K,
tendremos un líquido en el que una pequeña parte es helio tres y la parte restante es helio
cuatro, el que a su vez, hallándose en su forma de helio II, tiene una parte normal a 1º K y una
superfluida a 0º K (ésta es la parte fácil).

No hay que perder de vista que en realidad se trata de un solo fluido hecho de los mismos
átomos y que la imagen de una mezcla es una analogía para interpretar "hechos consumados".
Lo que sucede es que, al igual que la gente, los átomos van cambiando su comportamiento
conforme baja la temperatura. A nadie le llama la atención que al poner agua en un congelador
se convierta en hielo, aun sabiendo que está constituido por las mismas moléculas de agua
(H2O); de algún modo, lo que sucede es que sólo se han organizado de otra manera.

Según la teoría, el helio II presenta dos tipos de movimientos simultáneos e independientes, el


del superfluido y el del normal. Mientras que para caracterizar un flujo común y corriente
basta con determinar la velocidad en cada punto, para este pintoresco líquido hay que hallar
dos velocidades en cada punto, la de cada componente de la mezcla. Se advirtió que sería un
tanto raro y ahora es claro que no es nada intuitivo (excepto por el hecho de que las personas
raras son frías).

Las diferencias más notables entre las componentes de la mezcla son las siguientes. La
componente superfluida no tiene viscosidad, se mueve sin problema alguno por cualquier
rendija (capilar o capa delgada), y no transporta calor. Es el fluido ideal con el que soñaron los
físicos y desearían utilizar los ingenieros. Por su lado, la componente normal es la que tiene

88
todos los defectos, empezando por ser real. Se mueve sobre —¿dentro?— un fondo ideal
absolutamente helado que no lo afecta y transporta calor en forma muy eficiente.

Con estas ideas en mente, es posible poner en claro algunos de los experimentos descritos
anteriormente. Empecemos con el último, donde un rehilete indicaba la salida de fluido sin que
bajara el nivel del recipiente. La razón por la que la pequeña propela gira, indicando un flujo
de salida del recipiente, es que la componente normal es la que transporta calor al recipiente
más frío. Al salir ejerce una fuerza sobre las aspas como resultado de su viscosidad. A cambio,
la componente superfluida se mueve en la dirección contraria, sin oposición alguna y sin
ejercer fuerza sobre la propela, manteniendo el nivel del recipieite a la misma altura. No
habiendo un flujo neto de helio II, al compensarse exactamente los movimientos opuestos de
las componentes normal y superfluida, el nivel permanece fijo.

En el caso presentado en la figura VI. 1, es la componente superfluida la que se escapa


tranquilamente por el minúsculo capilar, mientras la componente normal sale muy lentamente
y a duras penas. La viscosidad medida por este procedimiento es la del superfluido, que es
cero. En el caso del cilindro rotante, es la componente normal la que entra en acción y la que
manifiesta su viscosidad, que desde luego no es cero. Con esto la teoría de Landau lograba
explicar cualitativa y cuantitativamente las observaciones que de otra manera parecían
paradójicas o contradictonas.

La explicación de las peculiares películas delgadas por las que escapa de recipientes el helio II
y la del efecto termomecánico (fuente), ilustradas en las figuras VI. 2 y VI. 3, son ahora más
fácil de entender.

En las delgadas capas que forma el helio II, como cualquier fluido que moja el recipiente que
lo contiene, es la componente superfluida la que puede moverse libremente y a gran velocidad;
la componente normal, mucho más lenta, también se escabulle, lubricada por su envidiable
compañera. De esta manera sale hasta vaciar el lugar que ocupaba o igualar el nivel exterior.

En el caso del efecto termomecánico la comprensión del fenómeno está basada en el hecho de
que la componente superfluida no transporta calor y se mantiene a una temperatura cero. Se
tienen dos recipientes con helio II a la misma temperatura y conectados por un capilar. Al
aplicar una presión a uno de los lados, es la componente superfluida la que se mueve
rápidamente hacia el otro lado. Al salir el fluido más frío genera una baja en la temperatura del
recipiente en el que entra. En mediciones directas se comprobó que el fluido saliente estaba
más frío que el que se quedaba. Sin el modelo de los dos fluidos sería inexplicable que un
fluido salga más frío que el del recipiente de donde se saca. El proceso complementario, en el
que una diferencia de temperaturas genera una diferencia de presiones, manifestado
teatralmente por el efecto fuente, tiene la misma explicación.

Es inevitable confesar que hay muchos fenómenos relacionados con la superfluidez que no
hemos mencionado. Sólo para entreabrir un poco más la puerta de este fascinante mundo de
los fluidos cuánticos, traeremos a cuento algunos hechos adicionales.

Bajo condiciones especiales hacen su aparición pequeños vórtices que se acomodan en


hexágonos o se entrelazan como madejas irrecuperables de estambre. Estos remolinos, que
siguen sus propias leyes cuánticas, tienen dimensiones atómicas y formas de girar que
vagamente recuerdan a un tornado. Su demostrada existencia, predicha por Lars Onsager a
finales de los cuarenta y desarrollada posteriormente por Richard P. Feynman, permitió
explicar múltiples observaciones hechas en superfluidos. Entre otras, la respuesta que tienen
cuando son forzados a rotar, el comportamiento de partículas cargadas (iones) que se
organizan alrededor de vórtices arreglados en hexágonos, etcétera.
89
En calidad de misterio final de un tema vasto, que sigue siendo objeto de profundas
investigaciones, mencionaremos a las cuasipartículas que viven en los superfluidos, los
fonones y los rotones, y la propagación de cuatro diferentes sonidos. En el agua y en el aire
(afortunadamente) se propaga el sonido con una velocidad característica. En el helio II también
se propaga el sonido y el segundo sonido y el tercer sonido y el cuarto sonido (es reconfortante
no tener que platicar en un medio superfluido).

Así, para sorpresa de casi todos los investigadores, al menos por un rato, en 1972 se descubrió
otro superfluido, el helio tres. Aun cuando nos podría parecer que se trataba casi de la misma
cosa, resulta que las teorías existentes (Landau y continuadores) no podían aplicarse
directamente. Con un nuevo fluido cuántico y las posibilidades de mezclarlo con el otro, el
estudio de estas peculiares y únicas formas de materia se convirtió en uno de los temas
centrales de investigación en la física de bajas temperaturas, salvo por la referida fiebre de los
superconductores calientes.

El helio tres es más raro en la naturaleza y juntar una cantidad razonable cuesta mucho más
trabajo y, desde luego, dinero. Como era de esperarse, licuarlo iba a ser posible sólo a bajas
temperaturas y su comportamiento estaría descrito por las leyes cuánticas; después de todo es
hermano mellizo del helio cuatro, pero no gemelo. Sus características individuales lo hacen
interesante para quien estudia asuntos tan disímbolos como las estrellas de neutrones o la
superconductividad. Véamos brevemente la razón.

Las partículas elementales (como los cuarks), las un tanto menos primarias (como el neutrón),
los átomos, las moléculas y demás entes que constituyen lo que es, están divididos por la
mecánica cuántica en dos grandes grupos fundamentalmente distintos, los fermiones y los
bosones. Los nombres honran a dos notables físicos del siglo XX, Enrico Fermi (1901-1954) y
Satyendra Nath Bose (1894-1974), quienes de manera independiente resolvieron problemas en
los que esta diferencia era esencial.

Se mencionó que una de las características cuánticas que etiquetan a las partículas es el espín.
En nuestro pintoresco lenguaje de palanganas y tornillos, el espín puede imaginarse como un
particular modo de giro que se mide en múltiplos de la unidad fundamental de momento
angular o giro: (hache barra). Esta cantidad es una de las constantes físicas universales, la
constante de Planck (h) dividida por 2, y su presencia es la firma de los sucesos cuánticos. La
existencia de fue predicha por Max Planck (1858-1947) en sus revolucionarios estudios
sobre la radiación del calor, que a la postre dieran génesis a toda la teoría cuántica.

Los fermiones, entre los que se encuentran los constituyentes del átomo (electrones, protones y
neutrones), tienen espín semientero y los bosones, como, los fotones y los piones, lo tienen
entero. Por ejemplo, el electrón es fermion por tener espín 1/2 (y momento angular /2),
mientras que el fotón es un bosón al tener espín 1 (con momento angular ). Cuando se
combinan varias partículas para formar un objeto más complicado, basta con sumar los espines
de cada componente para saber si tiene carácter bosónico o fermiónico. En el caso que nos
ocupa, el 3He está formado por dos protones, dos electrones y un neutrón, lo que trae como
consecuencia que sea un fermión; el 4He es un bosón debido al neutrón adicional que tiene.

De acuerdo con una de las leyes cuánticas, llamada el principio de exclusión de Pauli, los
fermiones se acomodan (donde sea que lo hagan) de manera que no hay dos en el mismo
estado, mientras que los bosones pueden amontonarse en el mismo lugar sin restricción alguna.
La consecuencia es que los comportamientos son muy distintos, especialmente a muy bajas
temperaturas. La temperatura de transición superfluida para el 3He es 1 000 veces menor que la
del 4He. A esta temperatura, con los átomos casi quietos, se pone de manifiesto una ligera
90
atracción que produce el apareamiento de parejas de átomos, como si orbitaran uno alrededor
del otro. Estas parejas, llamadas pares de Cooper, son bosones que resultan de la combinación
de dos fermiones. Ya como bosones, la situación cambia y como en el caso del 4He las cosas
pueden superfluir.

Curiosamente, al pasar por la temperatura de transición superfluida, aparecen dos tipos de


superfluido, el 3 He-A y el 3He-B. Estos nuevos fluidos tienen la inesperada característica de
tener textura, lo cual no adorna al otro superfluido conocido, el helio II. La razón para que
aparezca esta singular característica es que los pares de Cooper pueden ser alineados por la
presencia de agentes externos, como campos magnéticos o superficies, en forma parecida a los
cristales líquidos.

Sin entrar en detalles de lo que es un cristal líquido, casi todos hemos visto las gracias que
hacen estos materiales; en los relojes y demás aparatos electrónicos modernos, que tienen lo
que se llama carátula digital, hemos visto cómo aparecen y desaparecen zonas oscuras. Ahí
hay un cristal líquido y lo que ocurre es que al hacer pasar una pequeña corriente a través de
ellos se calientan, pasan por una transición y se orientan cambiando de color y textura. Algo
análogo pasa con las variedades A y B de 3He superfluido. Los vórtices que aparecen en estos
medios son verdaderamente extravagantes, más que los del 4He, y son los responsables (casi
siempre) de la textura que tienen.

Las teorías existentes sugieren la posibilidad de mezclas de estos helios superfluidos de hasta
tres componentes y los comportamientos serían igualmente ajenos a toda intuición. Las
temperaturas para lograr estas combinaciones de fluidos raros, cercanas a la milmillonésima
parte de un grado Kelvin, son por ahora inalcanzables, aunque los "criogenicistas" van
acercándose.

Como siempre sucede, hay más por decir y hacer que lo dicho y hecho. Este vago y extraño
mundo que hemos esbozado de los superfluidos es más para sugerir un panorama que para
describir un paisaje. Ciertamente hay otros comportamientos igualmente interesantes que se
han descubierto (con sus correspondientes explicaciones teóricas) además de los que aquí
hemos tratado. También, lo que es igualmente importante, sigue completamente abierta la
puerta para hacer, descubrir y explicar.

La pasión por buscar caminos nuevos en las artes y las ciencias es insaciable, sus fuentes son
inagotables.

91
V I I . E P Í L O G O

"DE LA VISTA NACE EL AMOR", dice un refrán que nos deja pensando sobre lo que sucede
después de que nació. Pasada la primera impresión, el trato y el conocimiento enriquecen (o
matan) la relación hasta convertirla en algo real, objeto de cuidados y atenciones (o fuente de
obsesiones y peculiares melodramas). Difícilmente nos contentamos con esa "vista" inicial y
buscamos más de cerca para completar lo que dejó entrever alguno de nuestros sentidos. Esa
cara, esa figura o esa voz, sin perder su encanto, son siempre insuficientes.

¿Por qué hacer igual con los atardeceres exquisitos de apastelados cielos, con las mágicas
nubes que crecen tomando formas que sólo llevamos en la mente, con las hipnotizantes flamas
que calientan la piel, la pupila y el alma, con las columnas de humo que desatan la
imaginación al disiparse en nada o con las olas que traen recuerdos y espumas de otras playas?

La poesía que puede inspirar la vista de un ocaso tornasol no se pierde si apreciamos los
mecanismos diminutos y ocultos que dan lugar al maravilloso espectáculo.

Un mar embravecido sobrecoge a cualquier marino, por experimentado que sea, de la misma
manera que un zumbante tornado impresiona al meteorólogo que busca predecirlo. Ambos
aprenden y actúan al ver lo que otros sólo sufren con terror.

Al estudiar más allá de lo que se ve por encima, literalmente bajo la superficie, se descubre un
universo adicional que únicamente puede hacer más delicioso el momento, como con las
personas. Ciertamente, no vamos a perder el saludable miedo a un huracán, ni la inspiración
que despiertan las rojas brasas de una hoguera.

Para apreciar una ópera, basta con sentarse a escucharla. Si además de escuchar la música y las
voces, vemos la escenografía y el vestuario o ponemos nuestra atención en los bailes y la
actuación, la opulencia del "espectáculo sin límites" se pone en evidencia. Sin embargo, esto
es sólo el principio. Si conocemos la historia que une cada una de las partes entre sí, la obra
toma una dimensión diferente. Si leemos el libreto, podemos paladear los diálogos llenos de
poesía, drama y comedia, descubriendo la universalidad de las pasiones humanas, de las
ilusiones y los desamores y la dulzura que hay en la ingenuidad de cada adolescente. Así,
agregando la música, se realzan esas emociones hasta tocar las fibras íntimas del corazón de
quienes sienten o piensan. Descubrir los sutiles movimientos de escena, los cambios de tono en
un aria o el contrapunto de un cuarteto, exquisito y dramático, jamás disminuirá la belleza del
momento.

Lo mismo pasa con el universo que nos rodea. Cada parte encierra una complejidad que sigue
sorprendiéndonos. Nuestra capacidad de asombro está más desarrollada que nunca antes en la
historia. Lo menos que nos merecemos es la oportunidad de ver más allá de lo que ven las
miríadas de especies con las que compartimos el mundo.

A quienes leyeron este libro les correspondería escribir un epílogo. En realidad hay mucho,
muchísimo más que decir de lo que aquí aparece. Así, al final, la convicción de no haber hecho
referencia a tantas cosas importantes o interesantes me deja un poco apenado. Sin embargo, si
la lectura despertó el interés por averiguar un poco más sobre los fluidos, habré logrado mi
propósito. Si además cada quien encontró una novedad o aclaró un concepto o disfrutó de

92
alguna parte, el esquizofrénico sufrimiento y placer que están detrás de cada línea habrán
valido totalmente la pena.

C O N T R A P O R T A D A

La violencia de un tornado en las planicies de Australia, las penetrantes observaciones de


Leonardo da Vinci, el comportamiento exótico de un superfluido en las inmediaciones del cero
absoluto, los invisibles átomos y la ventaja de ignorarlos, las olas, los humos y el tornasol de
los atardeceres son parte de los temas que cubre casi cualquier reflexión sobre los fluidos; con
frecuencia es sólo en forma implícita, pero ahí están. Este libro no es la excepción.

La magia de un fluido nos hipnotiza cuando vemos arder una fogata, cuando miramos las
burbujas dentro de una cerveza o cuando se forman dragones en las nubes que luego se disipan
en nada. ¿Por qué querría uno entender lo que hace un fluido, cortando la imaginación o
esterilizando la poesía? Por la misma razón que un enamorado quiere más que el recuerdo de
una voz o una mirada.

Los fluidos, que nos envuelven todo el tiempo, producen su espectáculo maravilloso cada día
y, si lo sabemos pedir, cada vez que los deseamos. La belleza o la dificultad estriba en que
mientras mejor creemos conocerlos, mas fácil escurren entre nuestras teorías y nuestros dedos.

Ramón Perala-Fabi es doctor en Ciencias (Física) por la Facultad de Ciencias de UNAM. Se


desempeña actualmente como profesor titular de carrera y coordinador del Laboratorio en el
Departamento de Física de la Facultad de Ciencias de la UNAM. También es investigador
nacional. Su campo de estudio es la dinámica de fluidos y la mecánica estadística.

93

Potrebbero piacerti anche