Sei sulla pagina 1di 328

NATHAN SPIELBERG

BRYON D. ANDERSON
CATEDRÁTICOS DE FÍSICA EN LA UNIVERSIDAD'
ESTATAL DE KENT (ESTADOS UNIDOS)

SIETEIDEAS
QUE MODIFICARON
EL MUNDO
COLECCIÓN «CIENCIA HOY»

DIRECTORES DE LA COLECCIÓN:

Jacobo Cárdenas. Catedrático de Bioquímica


en la Universidad de Córdoba

Ricardo Guerrero. Catedrático de Microbiología


en la Universidad Autónoma de Barcelona

Título de la obra original:


SEVEN IDEAS THAT SHOOK
THE UNIVERSE

Traducción: Manuel Martínez Luque-Romero

Diseño de cubierta: Morgan & Adalid, S. A.


Ilustración de cubierta: González Adalid

Reservados todos los derechos. Ni la


totalidad ni parte de este libro puede re-
producirse o transmitirse por ningún pro-
cedimiento electrónico o mecánico, inclu-
yendo fotocopia, grabación magnética o
cualquier almacenamiento de información
y sistema de recuperación, sin permiso
escrito de Ediciones Pirámide, S. A.

0 1987 by John Wiley and Sons, Inc.


© EDICIONES PIRÁMIDE, S. A., 1990
Josefa Valcárcel, 27. 28027 Madrid Depósito
legal: M. 10.109-1990
ISBN: 84-368-0513-5
Printed in Spain
Impreso en Lavel
Los Llanos, nave 6. Humanes (Madrid)
Índice

Pretacio ......................................................................................................... I

1. Introducción ........................................................................................... 15
Revoluciones y Ciencia .....................................................................
15
Los temas dominantes de la Física ....................................................
17
Evolución continua del conocimiento científico: las siete ideas ............
19
¿Física sin Matemáticas`?..................................................................
24 La Ciencia y las demás áreas del saber humano: diferencias y 26
2. Astronomía copernicana ...................................................... 32
semejanzas .........................................................................
Primitivas inspiraciones científicas mediterráneas ............................
33
Teoría geocéntrica del Universo .......................................................
39
Teoría heliocéntrica. Restablecimiento por Copérnico .......................
51
Nuevos datos y una teoría nueva .....................................................
60
Nuevos descubrimientos
3 Mecánica newtoniana yycausalidad
discusiones ............................................
..................................... 78
64
La
La física
teoría aristotélica
heliocéntrica........................................................................
de Kepler ......................................................
78
67
La mecánica
Id rumbo galileana
de las ....................................................................
revoluciones científicas ...........................................
76
88
1 ógica, Matemáticas y Ciencia .......................................................
98
La mecánica newtoniana ................................................................ 104
Consecuencias c implicaciones ....................................................... 118
4. El concepto de energía ......................................................... 122
Interacciones y leyes de conservación ................................................. 122
Calor y movimiento ............................................................................... 127
Conservación de la energía ................................................................... 143

5. Entropía y probabilidad ........................................................ 151


Calor y temperatura ............................................................................... 154
El flujo espontáneo de calor ................................................................. 158
Transformación de la energía térmica en otras formas de ener-
gía ....................................................................................................... 159
La eficiencia de las máquinas térmicas ............................................... 165
La escala de temperatura absoluta o termodinámica .......................... 172
La tercera ley de la Termodinámica ..................................................... 173
Degradación de la energía, indisponibilidad y entropía ..................... 174
Aumento de entropía e irreversibilidad ............................................... 179
La entropía como parámetro del sistema ............................................. 180
Probabilidad e interpretación microscópica de la entropía ................ 181
Entropía y orden: el demonio de Maxwell .......................................... 186
Implicaciones cosmológicas y filosóficas: la «muerte térmica»
del Universo ...................................................................................... 188

6. Relatividad ..................................................................... 192

La relatividad galileo-newtoniana ........................................................ 193


El electromagnetismo y el movimiento relativo ................................. 198
Intentos de detectar el éter .................................................................... 213
Teoría especial de la Relatividad ......................................................... 218
Teoría general de la Relatividad ........................................................... 237
Influencia de la Teoría de la Relatividad en la Filosofía, el Arte
y la Literatura .................................................................................... 248

7. Teoría Cuántica y el fin de la causalidad ............................. 250

Radiación cavitaria o del cuerpo negro ............................................... 254


El efecto fotoeléctrico ........................................................................... 263
El átomo nucleado y los espectros atómicos ....................................... 268
Teoría Cuántica, incertidumbre y probabilidad .................................. 279
Uso de modelos en la descripción de la Naturaleza ........................... 295
Impacto de la Teoría Cuántica en la Filosofía y en la Litera-
tura ..................................................................................................... 298
8. Principios de conservación y simetrías .............................. 301
Fuerzas y estructura nucleares ...................................................... 303
Leyes de conservación e invariantes ............................................... 312
Leyes de conservación y simetrías .................................................. 315
El modelo de los quarks ................................................................. 317
Resumen de los conocimientos actuales ......................................... 324

Referencias .................................................................................... 329


Índice analítico .............................................................................. 335
Prefacio

Mucha gente habrá oído hablar de lumbreras científicas como


Galileo, Newton o Einstein aunque no tenga las ideas muy claras
de lo que hicieron en realidad. Así, en el mundo pop-art de la
televisión, Einstein, a la par que Charlie Chaplin, promueve la
venta de ordenadores personales y anteriormente había contribui-
do a desencadenar el asombroso poder, destructor a veces, del
núcleo atómico. Se tiene la esperanza de que este libro ayude a
corregir estos errores y otros similares y aclare cuáles fueron
realmente los grandes logros que hicieron Einstein y otros cientí-
ficos.
Se ha adoptado un enfoque descriptivo de los principales
Conceptos físicos desarrollados en los últimos siglos, relacionándolos
con el contexto histórico y filosófico en el que surgieron. Se hará
hincapié en el origen, significado, trascendencia y limitaciones
desde el punto de vista de nuestra comprensión de la naturaleza
física del Universo en el que vivimos. Apenas se tratarán las
aplicaciones científicas y tecnológicas excepto como anotaciones
Colaterales o con fines ilustrativos. Tampoco se discutirán detalla-
damente las consecuencias de la Ciencia para el beneficio o el
detrimento de la sociedad. No interesa aquí el impacto de la
Ciencia y la Tecnología en la sociedad, en la Política o en el
medio ambiente.
Los principales conceptos a considerar tratan del enfoque
Copernicano de la Astronomía, el abordaje newtoniano de la
Mecánica, la idea de energía, el concepto de entropía, la Teoría de
la Relatividad, la Teoría Cuántica y los principios de conservación
y simetrías. El material cuantitativo se presantará fundamentalmente
mediante tablas y diagramas. Habrá unas pocas fórmulas que se
explicarán pero no se demostrarán. Ello está justificado algunas
veces por su sencillez, su credibilidad o por su analogía.
Este libro se escribió originalmente para satisfacer los requisitos
de las asignaturas comunes de los primeros años de los estudios
universitarios. Una de las finalidades de tales cursos es presentar a
los estudiantes los principales avances científicos que han influido
en la Cultura en la que estamos inmersos. Al revisar el libro para
ofrecerlo al lector general se han eliminado algunas de las discu-
siones más técnicas así como las preguntas de repaso que típica-
mente se encuentran al final de los capítulos de los libros de texto.
Se ha vuelto a escribir parte del material y se han añadido algunos
comentarios adicionales acerca de las interconexiones de los
hallazgos científicos con la Filosofía y la Literatura. Nuestro
principal interés se centrará, no obstante, en el contenido físico de
las ideas a discutir. Pensamos que no se pueden comprender las
consecuencias de la Física, o sus aplicaciones a las restantes áreas
del pensamiento humano, sin tener un correcto entendimiento de
los fenómenos físicos. Así, esperamos que los lectores del libro
lleguen a comprender que la Teoría de la Relatividad de Einstein
no implica que todo es relativo, como parece ser la impresión
popular. En las referencias que se ofrecen al final del libro se han
incluido algunas obras para que los lectores interesados consulten
las relaciones (y malentendidos) que existen entre la Física y la
Filosofía, la Literatura y las Artes. Estos libros también pueden
servir de lectura complementaria.
Como ocurre con todos los textos de esta clase, es difícil
reconocer y agradecer a todos los colegas, fuentes y libros consul-
tados, a no ser que se mencionen específicamente en las
referencias o en el pie de las figuras. Agradecemos particularmente
los comentarios y ayuda que hemos recibido de los profesores
David W. Allender, Wilbert N. Hubin, John W. Watson y Bobby
Smith, de Kent State University; Carol Donley, de Hiram College;
Robert Resnick, de Rensselaer Polytechnic Institute; Dewey
Dykstra, Jr., de Boise State University; Ronald A. Brown, de
SUNY Oswego; Jack A. Soules, de Cleveland State University;
Nelson M. Duller, de Texas A & M University; Thad J.
Englert, de University of Wyoming, y Eugen Merzbacher, de
University of North Carolina.
También apreciamos la ayuda de David Sobel y Robert McConnin,
editores de John Wiley & Sons, y de la plantilla de la misma. Joan
Anderson realizó la labor de preparar el manuscrito y se lo
agradecemos. Alice B. Spielberg y William J. Ambrogio prepararon
la primitiva versión del libro original. Desde luego fueron nuestros
alumnos los que hicieron posible la reunión del material del libro.
Como sucede siempre, los errores de hecho y omisión son de
nuestra responsabilidad.

N. SPIELBERG
B. D. ANDERSON
1
Introducción

Materia y movimiento: La continua revolución


de la Ciencia.
Nebulosa de la Cabeza del Caballo en
Orión. (Cortesía de los Observatorios
de Monte Wilson y Palomar.)

Las revoluciones y las ideas revolucionarias están rodeadas de


un cierto encanto. Los que participan en las revoluciones políticas
creen con frecuencia que al rechazar el orden establecido eliminan
heroicamente los grilletes y logran con valentía una nueva libertad.
Las revoluciones científicas poseen un encanto intelectual y repre-
sentan el derrocamiento de una forma particular de entender el
mundo físico en el que vivimos, interviniendo de algún modo en el
futuro del mundo material. Las revoluciones científicas tienen
profundos, inesperados y duraderos efectos, probablemente en
mayor medida que las revoluciones políticas, sobre la manera de
considerar y enfrentarse al entorno. En este sentido es como si las
ideas científicas revolucionarias sacudieran el universo intelectual.
Este libro ofrece una introducción a siete de las ideas físicas más
importantes y revolucionarias.

Revoluciones y Ciencia

Los individuos que han participado en el desarrollo y elucidación


de los conocimientos científicos de los últimos quinientos años
pueden considerarse muy bien como los más grandes y afortunado%
revolucionarios del mundo. Las revoluciones que llevaron a cubo
no fraguaron en una noche, sino que en muchos casos tardaron en
completarse décadas o siglos. Su trabajo ha conducido a las
nuevas ideas y concepciones sobre el mundo y el Universo y el
lugar que ocupan los seres humanos en ellos. Su éxito ha influido
profundamente en la manera de pensar y ha reforzado la creencia
de que la razón y la racionalidad son las herramientas que se
necesitan para comprender el Universo.
Todas las filosofías sociales o políticas aceptan o rechazan
conceptos específicamente científicos como energía, relativismo-
absolutismo, orden-desorden, determinismo-incertidumbre. Se ha
empleado con frecuencia a la Ciencia, sea justificado o no, para
garantizar o desacreditar diferentes aspectos del pensamiento
religioso y muchos consideran al «método científico» como la
forma adecuada de tratar la mayoría de los problemas humanos.
Este libro describe el desarrollo de las principales ideas físicas que
han contribuido a la moderna visión del Universo y a que se
acepte generalmente el método científico.
La Física es la más antigua y madura de las ciencias y un
modelo para todas las demás. Estudia los problemas más
fundamentales de la naturaleza del Universo. Se pregunta por
cuestiones tales como ¿cuál es el origen del Universo?, ¿cómo ha
evolucionado el universo físico y hacia dónde camina?, ¿cuáles son
las unidades básicas de la materia?, ¿qué fuerzas fundamentales
operan en la Naturaleza? Ya que la Física es el estudio de
éstas y otras cuestiones elementales, suministra el andamiaje de
todas las demás ciencias, ya sean físicas o biológicas. La
descripción última (esto es, microscópica) de todos los sistemas
físicos se basa en las leyes del universo físico a las que
generalmente se denominan «las leyes de la Física».
Puesto que la Física es la ciencia más fundamental, no podrá
aceptarse como definitivamente válida ninguna conclusión científica
que contradiga sus principios. Por ejemplo, algunos de los ataques
científicos que inicialmente dieron la bienvenida a las ideas de
Charles Darwin sobre la evolución biológica se basaban en una
rama de la Física llamada Termodinámica. Los primeros cálculos
del tiempo que debía haber transcurrido para que la Tierra se
enfriara desde un estado fundido hasta su temperatura actual
indicaban que no podrían haber tenido lugar los procesos evolutivos
necesarios dado el poco tiempo disponible (y Darwin estaba muy
preocupado cuando supo de ello). Sólo cuando se reconoció a
finales del siglo xix que la radiactividad podía proporcionar una
fuente de calor interno adicional, fue posible demostrar que la
Tierra podía haberse enfriado lo suficientemente despacio para
dar tiempo a que los procesos darwinistas pudieran operar. Las
técnicas de datación radiactiva derivadas de la Física nuclear lo
han confirmado posteriormente.
Se ha dicho que la Ciencia consta de dos partes : Física y caza
de mariposas. Esta exageración enfatiza los dos aspectos del
esfuerzo científico: la recogida y clasificación del material descriptivo
y la comprensión de los diferentes fenómenos en función de
conceptos fundamentales. Todas las ciencias, Física incluida,
abarcan necesariamente ambos aspectos. En Física se considera,
quizá más que en ninguna otra ciencia, que se ha hecho un avance
real únicamente cuando se consigue comprender los fenómenos.
Se han seleccionado los grandes conceptos científicos a discutir
en el libro tanto por su naturaleza básica como por su atractivo.
Representan puntos de inflexión en el desarrollo de la Física y
serán expuestos en términos generales e introductorios, esperando
que el lector pueda adquirir cierto conocimiento de sus aspectos
centrales, de la forma en que se han desarrollado y de sus
implicaciones a la hora de comprender el Universo. También
aprenderá la terminología física. Aunque las discusiones concretas
sobre el método científico y la Filosofía de la Ciencia scan algo
generales, resultan de gran importancia en el establecimiento de
los conceptos científicos. Se discutirán relativamente poco las
consecuencias prácticas de la Ciencia, que van desde los video-
juegos y calculadoras de bolsillo hasta la conservación y
prolongación de la vida, aunque sean las responsables de
que en el mundo moderno se cultive intensamente la Física.
Los temas dominantes de la Física

Dos temas dominantes recorren todo el desarrollo de la Física:


1) la materia y el movimiento y 2) la búsqueda de orden y pautas.
La primera cuestión representa el intento de comprender y la
segunda el esfuerzo de clasificar.
La Física trata de la materia y el movimiento. Unas veces se
resalta aquélla y otras se hace hincapié en éste, aunque también es
importante el estudio de las relaciones existentes entre las dos. En
realidad la distinción entre ambos conceptos se hace borrosa en
las modernas teorías de la Relatividad y Mecánica Cuántica.
Desde el punto de vista de su estructura fina y última se considera
que la materia está en continuo movimiento. Incluso en las
circunstancias en las que se cree que cesa el movimiento causativo,
la materia está aún en estado de movimiento denominado
movimiento o energía de punto cero.
La Física apenas se interesa de forma apropiada de ideas
como «el predominio de la mente sobre la materia», es decir, el
empleo de la mente o de una Inteligencia en el control de la
materia y el movimiento, sino más bien de la percepción de dichos
temas. Algunos físicos se interesan en ocasiones por la «verdadera
naturaleza de la realidad», pero es más corriente que tales consi-
deraciones se dejen para los filósofos. Existen limitaciones del
conocimiento científico, al menos en el estado actual de conoci-
mientos, y una de las finalidades de este libro consiste en indicar
cuáles son.
La Ciencia, como una rama del conocimiento humano, se
ocupa de clasificar y establecer categorías entre los objetos y
fenómenos. Continuamente investiga las relaciones entre unos y
otros y hace un esfuerzo constante para representarlos
geométricamente en forma de diagramas, gráficos, «árboles»,
esquemas, etcétera. Con frecuencia se observan en dichas
relaciones simetrías y repeticiones, de modo que la atención se
centra tanto en las relaciones como en los objetos o fenómenos
que las siguen. La Ciencia siempre desea encontrar las relaciones
más universales y simples, lo que lleva de forma natural a modelos y
teorías que simplifican, ilustran y generalizan los diferentes nexos.
Por ejemplo, unas veces se dice que el átomo es como un
sistema solar en miniatura en el que el núcleo juega el papel del
Sol y los electrones hacen el de los planetas. Según este modelo,
puede introducirse la posibilidad de que el núcleo y los electrones
«giren» de la misma forma que lo hacen sus equivalentes en el
Sistema Solar y permite explorar hasta qué punto sirve como
modelo de átomo y aunque sea imperfecto contribuye a la com-
prensión del mismo.
Evolución continua del conocimiento científico:
las siete ideas

El conocimiento científico se basa en experimentos llevados a


cabo por seres humanos y no surge en un momento de inspiración.
Siempre habrá futuros experimentos a realizar que aumenten el
grado de conocimiento científico disponible. Los resultados acu-
mulados de estos experimentos se pueden traducir en la percepción
de nuevos patrones o en el reconocimiento de que las pautas que
anteriormente se consideraban generales no lo son tanto al fin y al
cabo. Se pueden derribar o modificar grandemente las nociones
establecidas en el pasado y llegarse a reconocer como modelos de
fenómenos nuevos o diferentes. Es esta continua confusión y
desconcierto, revisión y puesta al día de las concepciones científicas
lo que ha conducido al desarrollo de las siete ideas principales de
la Física que se discuten en el libro. Una breve reseña de las
mismas indicará su núcleo principal.

I. La Tierra no constituye el centro del Universo:


Astronomía copernicana.

Durante unos dos mil años, aproximadamente desde la época


de Aristóteles hasta algo después de la fecha de los viajes de
Colón al Nuevo Mundo, se creía que la Tierra estaba en el centro
del Universo, tanto literal como figuradamente, en la realidad y en
la concepción divina. La primera de las principales sacudidas
científicas que se discutirá se refiere al resurgimiento,
establecimiento y difusión del concepto contrario: la Tierra no
es más que un pequeño planeta entre los que describen órbitas
alrededor del Sol, que, a su vez, no es más que una remotísima
estrella, alejada del centro de una galaxia típica (entre
enjambres de otras) del enorme Universo, probablemente infinito
en la práctica. Es posible que esta primera revolución científica
haya sido la más traumática, no sólo por la acogida que recibió
dentro y fuera del mundo intelectual, sino porque contenía
algunos de los gérmenes y motivaciones de otras ideas
revolucionarias. Copérnico no sólo revisó la Astronomía, sino
que empleó el concepto de movimiento relativo y la noción de
la sencillez de las ideas científicas.
II. El Universo es un mecanismo que funciona de acuerdo
con reglas bien establecidas.

Todos los objetos del Universo están sometidos a las leyes


físicas. Cuando Isaac Newton presentó sus leyes del movimiento y
su ley de la gravitación universal demostró con éxito el sólido
fundamento físico subyacente a las ideas de la astronomía coper-
nicana. Newton y los que edificaron sobre sus ideas, demostraron
más tarde que esas leyes y otras similares fundamentan todo el
funcionamiento del universo físico, tanto si se considera como un
todo como en lo que se refiere a los más minúsculos detalles.
Además, dichas leyes son amplias y ampliables. Como se pondrá
de manifiesto después de la detallada discusión del capítulo 3, esta
segunda idea que relaciona causa y efecto (causalidad), además de
gobernar los fenómenos naturales y artificiales, los procesos y los
dispositivos, tiene consecuencias de amplio alcance para dos
doctrinas contrapuestas: determinismo (predestinación) y libre al-
bedrío.

III. Lo que impulsa a los mecanismos es la energía:


Concepto de energía.

Aunque la tísica newtoniana —la Ciencia de la Mecánica— es


de naturaleza integradora, no suministra una descripción del
Universo totalmente satisfactoria. Se desea saber qué es lo que
mantiene en funcionamiento su extraordinario mecanismo. Los
antiguos creían que todas las cosas eran accionadas por Inteligencias
o incluso por un Primer Motor. La tercera idea a discutir constata
que el Universo es mantenido en marcha por la energía. Ésta se da
en distintas formas que pueden interconvertirse. Las reiteradas
crisis energéticas que actualmente provocan tanta alarma
representan la escasez de alguna de esas formas y se relacionan con
los problemas inherentes a la necesidad de convertir unos tipos
en otros. Puede hacerse uno cierta idea de lo que «en realidad» es la
energía comparándola con el dinero. Éste es un medio de
intercambio e interacción en los seres humanos. Al
interactuar los distintos objetos del Universo intercambian
energía. Lo mismo que generalmente existe una cantidad limitada
de dinero, también
existe una cantidad disponible de energía, expresable en forma de
principio de conservación, que es quien gobierna la distribución
de las distintas formas de energía. (Frecuentemente el principio de
conservación de la energía se define de la siguiente manera: «La
energía ni se crea ni se destruye, simplemente se transforma de
una forma en otra».) En las interacciones de los objetos físicos
también se intercambian otras cantidades obedeciendo principios
de conservación, como se discutirá detalladamente en el capí-
tulo 8.

IV. Los mecanismos actúan en una dirección específica:


Entropía y probabilidad.

Aunque no se producen pérdidas cuando una forma de energía se


transforma en otra, existen limitaciones en el grado de conversión. Una
consecuencia de las mismas es el establecimiento de un orden
secuencial general de los sucesos que tienen lugar en el Universo.
Estas limitaciones están regidas por las mismas reglas que gobiernan
la tirada de un dado en una partida «honesta»: las leyes del azar,
es decir, las leyes de la Estadística. Surge, pues, la posibilidad de
que la revolución inherente a la idea de determinismo se pueda
modificar por una contrarrevolución. Todas estas consideraciones
indican que el calor, que es una de las posibles formas de energía,
debe considerarse como una energía «degradada», una conclusión
especialmente importante a tener en cuenta en épocas con proble-
mas energéticos serios.

V. Los hechos son relativos pero las leyes son absolutas:


Relatividad.

Los conceptos de la Teoría de la Relatividad tienen sus raíces


en algunos de los razonamientos surgidos durante el desarrollo de
la astronomía copernicana. Aunque actualmente se asocia de
forma casi universal a Albert Einstein con la Teoría de la Relativi-
dad, no es suya la idea de que lo que se observa depende del punto
de vista (del sistema de referencia, dicho de forma más precisa).
En realidad Einstein desarrolló inicialmente su teoría para encontrar
observables que fueran invariantes (absolutos e incambiables) en
lugar de relativos. Le interesaba lo que fuera universal e idéntico
desde todos los puntos de vista. Partiendo de la idea, entonces
revolucionaria, de que la velocidad de la luz debía ser invariante,
que no dependiera del sistema de referencia del observador, fue
capaz de demostrar que muchos de los conceptos que se creían
absolutos, como el espacio y el tiempo, eran relativos. Reexaminó
estos conceptos básicos y demostró que estaban estrechamente
entrelazados. De hecho, el trabajo de Einstein fue una parte de la
revisión de los conceptos y supuestos fundamentales que sufrieron
la Física y las Matemáticas de esa época y que enseñó a los físicos
que no podían permanecer indiferentes a las consideraciones
filosóficas y metafísicas.

VI. No se puede predecir o conocer todo: La Teoría Cuántica


y los límites de la causalidad.

La idea que rechaza el determinismo completo y meticuloso


proclamado como consecuencia de la física newtoniana surgió de
forma bastante inocente al intentar conseguir una visión más
escrupulosa de la esctructura submicroscópica del átomo. Los
científicos llegaron a reconocer a principios del siglo xix que los
átomos estaban formados de electrones y núcleos y se llevaron a
cabo grandes esfuerzos para obtener información más precisa
sobre el movimiento de los primeros. Este conocimiento más fino
no era alcanzable y fue necesario considerar con mucho cuidado
qué es lo que podía conocerse físicamente y cuál era la verdadera
naturaleza de la realidad. Aunque no pueda obtenerse una repre-
sentación extremadamente nítida de la subestructura atómica, sí
se puede lograr una extremadamente precisa. Es necesario emplear
nuevas descripciones de los átomos y núcleos: los sistemas sólo
pueden existir en determinados «estados cuánticos» y las cantidades
medibles sólo se pueden comprender en términos de probabilidades.
Esta nueva representación «neblinosa» permite un conocimiento
detallado de la Química y la fabricación de maravillas como
transistores, láseres, hornos de microondas, comunicaciones por
radar, aleaciones superresistentes, antibióticos, etc.
VII. Fundamentalmente las cosas jamás cambian: Principios
de conservación y simetrías.

La séptima idea revolucionaria, que contradice la noción


común de que todas las cosas tienen que cambiar, se está desarro-
llando todavía y no resulta claro todo el espectro de sus conse-
cuencias. Esta idea expresa que determinadas cantidades se «con-
servan»: que permanecen constantes o inalterables. A pesar de las
limitaciones impuestas por la idea anterior, la Física sigue com-
probando la estructura última de la materia en la que están
envueltas inmensas cantidades de energía. Pudiera ser que ya se
conocieran los elusivos y últimos elementos con los que se construye
la Naturaleza, y que incluyen partículas como los quarks, a partir
de los cuales se forman los protones y neutrones. Surge de forma
natural el preguntarse por las reglas que gobiernan la estructura
última y lo que revelan de la naturaleza del universo físico. Ya se
ha indicado que, además de la energía, otras cantidades conserva-
das afectan las interacciones de los últimos constituyentes de la
materia según reglas específicas o principios de conservación.
Éstos representan desde el punto de vista matemático una deter-
minada simetría. Todos los recientes avances en la determinación
de los elementos básicos de construcción de la materia se han
debido directamente al reconocimiento de la relación íntima
existente entre las leyes de conservación y las simetrías del
universo físico. Desde que empezó a desarrollarse esta idea los
científicos se han estado preguntando: ¿Es posible separar la
materia y la energía del múltiple espacio-tiempo en el cual se
observan? ¿Cuál es la naturaleza del espacio-tiempo? ¿Existe
realmente una estructura última o principio unificador básico en el
universo físico? Quizá no se conozca jamás la última respuesta,
pero los físicos constantemente desean encontrar el orden que
subyace en el caos que impera más allá de los límites del co-
nocimiento.
No hay razones para suponer que estas siete ideas revoluciona-
rias sean las únicas a desarrollar en Física. Ésta puede considerarse
como una sinfonía inacabada en el sentido de que aparecerán
nuevos «movimientos» que evocarán a otros o que se desarrollarán a
partir de los anteriores. Por ejemplo, la investigación de simetrías en
los campos más avanzados de la Física de Partículas no es muy
diferente de la búsqueda de la perfección en el mundo físico que
caracterizó a la ciencia griega. Tanto por los temas repetidos
como por los nuevos y su interacción, puede considerarse «hermo-
sa» la Física, lo mismo que se consideran bellas las sinfonías y las
obras de arte. (Con frecuencia se consideran hermosas las ideas
físicas sencillas.)
Existen varias maneras de presentar a una audiencia una
composición sinfónica. O puede interpretarse uno o dos movimientos
o puede tocarse la partitura en el orden original. Los movimientos
de nuestra sinfonía, las siete ideas, aparecerán aproximadamente
en el orden en que se desarrollaron a lo largo de un período de
veinticinco o treinta siglos. Aunque el desarrollo lógico de los
principios básicos no es necesariamente el más conveniente, la
presentación cronológica tiende a facilitar la comprensión de las
ideas y apreciarlas mejor en el contexto en que surgieron y
evolucionaron. También permite una intuición más profunda del
continuo desarrollo de la Física.
El orden histórico coincide aproximadamente con el tamaño
decreciente de los objetos estudiados (los primeros fueron las
estrellas y los planetas y los últimos las partículas subatómicas y
subnucleares). Aunque pudiera parecer paradógico, este tamaño
decreciente supone un aumento de la intensidad de las fuerzas que
actúan sobre ellos, desde la debilísima fuerza gravitatoria que
opera en el conjunto del Universo hasta la extraordinariamente
intensa interacción fuerte que liga los quarks (los constituyentes
de los nucleones y mesones). También es paradógico que las
discusiones se vuelvan progresivamente más abstractas a medida
que se hacen más básicos y fundamentales los aspectos de la
materia y energía a estudiar.
¿Física sin Matemáticas?

El enfoque de este libro no es matemático. El lector que tenga


poca base matemática o sienta poco gusto por las matemáticas
será capaz de seguir el desarrollo de los conceptos. La Física es,
no obstante, una ciencia muy cuantitativa y debe su éxito a la
aplicación de las Matemáticas a su objeto de estudio. La fortuna o
el fracaso de las teorías físicas depende en gran medida de que se
basen en cálculos matemáticos detallados y una discusión inteligente
de los conceptos físicos no puede ignorar las Matemáticas. Sin
embargo, al discutir de Ciencia para el público en general es
posible minimizar el empleo formal de las mismas como lo han
demostrado reiteradamente publicaciones como Investigación y
Ciencia o Endeavor. Los conceptos y métodos básicos de la Física
pueden comunicarse bastante adecuadamente haciendo poco uso
de las Matemáticas. Parece que la Naturaleza sigue en última
instancia unas cuantas reglas asombrosamente simples. Estas reglas de
la Física se pueden describir generalmente de forma clara con
poco formalismo matemático. Lo que verdaderamente requiere
una considerable habilidad matemática es el descubrimiento, ge-
neralización y aplicación de estas leyes.
En ocasiones resulta posible evitar el empleo de muchas
matemáticas presentando las relaciones cuantitativas por medio
de gráficas. Una gráfica bien elegida, igual que un cuadro, equivale
a miles de palabras (lo mismo que una fórmula apropiada es
equivalente a miles de gráficas). Resulta imprescindible, no obstante,
emplear fórmulas en algunas ocasiones, pero este libro no contiene
demostraciones, ya sean breves o largas, de las mismas.
También es útil a la hora de presentar las relaciones matemáti-
cas el empleo de analogías. Al discutir el concepto de energía se
usará la analogía del dinero. Otro ejemplo ya mencionado es la
analogía entre la estructura del átomo y el Sistema Solar. El
empleo de analogías posibilita el acercamiento a los conceptos
difíciles y tanto ellas como los modelos han jugado en la práctica
un papel muy importante en el desarrollo de la Física.
Volviendo al ejemplo de la sinfonía, generalmente se acepta
que un individuo culto apreciará la Música y no es necesario ser
músico o estudiante de Música para estar familiarizado y com-
prender los temas, ritmos, sonidos, etc. Para ello no es necesario
saber tocar un instrumento musical. Una persona culta tendrá del
mismo modo cierta familiaridad y sabrá apreciar los temas, ritmos y
hechos de la Ciencia. No es necesario que lleve a cabo cálculos
simples o complejos. Desde luego si uno conoce cómo se llevan a
cabo los cálculos o si es científico sabrá apreciar mejor los puntos
más sutiles y la grandeza de la Ciencia se verá notablemente
amplificada lo mismo que la Música será mucho mejor apreciada
por un músico. Igual que ésta no tiene que limitarse a las personas
con habilidad para tocar un instrumento. La Ciencia no está ni
debe estar limitada sólo a los que tienen habilidades matemá-
ticas.
Es posible, aunque sea difícil, que una persona de talento con
limitadas facultades matemáticas llegue a convertirse en un desta-
cado científico. El famoso investigador inglés del siglo xix Michael
Faraday fue una de ellas. Siendo huérfano y autodidacta hizo
muchas contribuciones a la Física y a la Química. Leyó mucho y
al poseer pocas dotes matemáticas encontró analogías extraordi-
nariamente útiles. Empleando el ejemplo de una tira de goma creó
el concepto de líneas de fuerza para representar los campos
eléctricos y magnéticos. Generalmente se cree que fue él quien
desarrolló la idea de que la luz es un fenómeno ondulatorio
electromagnético haciendo uso de esa analogía. James Clerk
Maxwell, el científico que elaboró la teoría matemática formal de
la naturaleza electromagnética de la luz, reconoció más tarde que
sin la intuición física de Faraday no hubiera podido desarrollar
con rigor su teoría.
Este libro se basa en la idea de que el público inteligente es
capaz de comprender y apreciar el significado de los principales
conceptos físicos sin tener que empantanarse en las Matemáticas.
Se confía en su capacidad de lectura y no en su habilidad
matemática y en que tenga voluntad para creerse algunos hechos.
Lo que se propone aquí no es demostrarlos, sino presentarlos y
hablar de ellos.
La Ciencia y las demás áreas del saber humano:
diferencias y semejanzas
Será útil terminar este capítulo comparando la Ciencia con las
demás actividades y ofrecer una breve discusión del método
científico. Existe un cierto número de equívocos que es necesario
superar con objeto de comprender mejor lo que es la Ciencia.
Aunque pueda resultar sorprendente, existen algunas semejanzas
entre la magia y la Ciencia. Dejando a un lado la cuestión de la
naturaleza fraudulenta de la magia, ésta y la Ciencia se consideran
generalmente opuestas, sobre todo porque el conocimiento mágico
está necesariamente restringido a unos pocos iniciados y es irra-
cional, al menos en parte. Por el contrario, el conocimiento y
práctica de la Ciencia está abierto a todos los que tengan un
mínimo de capacidad de razonamiento. Tanto la Ciencia aplicada
como la magia están motivadas por idénticos deseos, incluyendo
los de comprender y ejercer un control de la naturaleza y poder
doblegar la voluntad humana. Siempre ha existido el deseo de
explicar los fenómenos aparentemente mágicos o milagrosos ha-
ciendo uso de principios científicos. Algunas ramas de la Ciencia
se han derivado de la magia, al menos parcialmente; por ejemplo,
la Química de la Alquimia. Incluso en la magia existen leyes y
principios que tienen equivalentes en la Ciencia.
Así, la práctica del vudú emplea la ley de la semejanza. Un
brujo hace un muñeco que representa a una persona determinada y
le pincha alfileres o lo mancha de porquería para causar daño o
provocar la enfermedad de la persona en cuestión. En Ciencia o
en Tecnología se construyen modelos matemáticos o reales que
representan el objeto sometido a estudio y se ejecutan «experi-
mentos» para ver lo que ocurre con el objeto o fenómeno en
distintas condiciones. Está muy claro que el modelo no es el
objeto real, pero, sin embargo, puede obtenerse de él información
de gran valor.
Mucha gente considera a la Ciencia y a la Religión como los
caminos de la verdad. En la Europa medieval se creía que la
Ciencia era la sirvienta de la Teología y muchos todavía luchan
con el problema de integrar sus creencias científicas y religiosas.
Es frecuente que se esgriman los nuevos descubrimientos científicos o
los principales avances en favor o en contra de un punto de vista
teológico concreto. Es importante a este respecto que se tengan
presentes algunas características de la Ciencia. Tanto ésta como
sus conclusiones son siempre provisionales y están sujetas a
revisión a medida que se van descubriendo nuevos hechos. Funda-
mentar las creencias religiosas en una base científica es apoyar
muy poco firmemente la Religión.
La meta de la Ciencia es explicar los fenómenos para que los
seres humanos puedan comprenderlos sin invocar interferencias o
inspiraciones divinas. El conocimiento científico debe ponerse a
prueba, preferiblemente desde el punto de vista cuantitativo. Los
milagros, por otro lado, no pueden explicarse científicamente,
porque de ser así no serían tales. En general los milagros no son
repetibles; los fenómenos científicos, sí. La razón de que la
Ciencia tenga tanto éxito en sus logros es el hecho de estar
limitada a los fenómenos o conceptos que pueden ensayarse
repetidamente tantas veces como se desee. El aceptar tales limita-
ciones significa que la Ciencia no puede servir de guía para el
comportamiento humano, la moralidad, la voluntad y demás, sino
sólo para especificar las acciones físicas racionalmente posibles.
Además, la Ciencia no podrá pronunciarse en absoluto de forma
lógica sobre el problema de la razón última de la existencia del
Universo, aunque resulta asombroso la gran cantidad de conoci-
mientos que se han deducido científicamente sobre la historia y
evolución del mismo.
En el pasado se consideraba a la Ciencia en general y a la
Física en particular como una rama de la Filosofía llamada
Filosofía Natural. La Metafísica es la parte de la Filosofía que se
dedica al estudio de la naturaleza de la realidad desde un punto de
vista seglar en lugar de teológico. Las cuestiones tales como si
existen principios unificadores en la Naturaleza, si la realidad es
material o ideal o si únicamente depende de las percepciones
sensoriales, pertenecen al campo de la Metafísica. Incluso los
conceptos de espacio y tiempo, que tan importante papel juegan
en la formulación de la Física, caen dentro de la esfera de acción
de la Metafísica. La Filosofía tiene que decirle mucho en este
sentido a la Física (aunque los filósofos en cuanto tales hayan
hecho pocas contribuciones a la misma). A su vez, los resultados
experimentales de la Física tienen mucho que enseñar a la Meta-
física.
Los resultados físicos también han tenido cierta influencia en
la Ética (a veces debido a errores), sobre todo a través de la
Metafísica. Por ejemplo, los proponentes de la idea del relativismo
moral adoptaron los puntos de vista de la Teoría de la Relatividad
para desazón de Albert Einstein.
Es absolutamente importante distinguir entre Ciencia y Tecno-
logía. La última es definida por el diccionario como «totalidad de
los medios empleados para proporcionar sustento y confort a los
seres humanos». Entre esos medios se incluyen las aplicaciones
científicas. La Ciencia, por otra parte, es el cuerpo sistematizado
de conocimientos cuyos detalles pueden deducirse a partir de un
número relativamente pequeño de principios generales aplicando
el pensamiento racional. Se pueden considerar productos o com-
ponentes de la Tecnología la pasta de dientes, la televisión, los
circuitos integrados, los ordenadores, los fármacos, los automóviles,
los aeroplanos, las armas, las telas, etc. Los «productos» o compo-
nentes de la Ciencia son las leyes de Newton del movimiento, el
efecto fotoeléctrico, la invarianza de la luz en el vacío, la física de
los semiconductores, etc., y las técnicas para su estudio.
La distinción entre Ciencia y Tecnología no siempre es neta y
clara. Por ejemplo, los láseres son en cierto sentido tanto productos
de la Ciencia como de la Tecnología. Aunque aquélla pone
énfasis en la comprensión y ésta en la aplicación, es evidente que
una y otra se potencian y facilitan. Ésta es la razón de que las
sociedades de orientación pragmática inviertan enormes sumas de
dinero en la investigación científica. Lo que verdaderamente
distingue a la Ciencia es la curiosidad casi infinita del intelecto
humano.
Prácticamente todos los libros que tratan de Ciencias Físicas,
Naturales o Sociales, sobre todo los de nivel introductorio o los de
texto, contienen una descripción del «método científico», que se
supone es la técnica válida para descubrir o verificar información
o teorías científicas. La receta del método científico se puede
resumir de la siguiente manera: 1) Obtener los hechos o datos. 2)
Analizarlos a la luz de los principios conocidos. 3) Emitir hipótesis
que expliquen los hechos y que sean lo más consistentes posible
con los principios establecidos. 4) Emplear las hipótesis para
predecir hechos adicionales o consecuencias que permitan la
verificación de aquéllas y amplíen el acúmulo de hechos del
primer paso. Esta secuencia se repite de forma sistemática tantas
veces como sea necesario hasta que se establezca una hipótesis
perfectamente verificada. El método científico no tiene límites
fijos y las hipótesis están continuamente modificándose por auto-
corrección a la luz de los nuevos hechos que se descubren. Si una
hipótesis es correcta en todos sus detalles, no es necesaria su
modificación.
Aunque éste es el procedimiento modelo de investigación
científica, también es verdad que los que practican el «arte» de la
Ciencia pueden en realidad no seguirlo, incluso en Física. Los
presentimientos o intuiciones juegan con frecuencia un papel
significativo. Es muy importante ser capaces de preguntarse en un
momento dado las cuestiones conectas (significativas) así como
encontrar sus respuestas. A veces es conveniente ignorar los
hechos alegados, bien porque no son realmente hechos, bien
porque son irrelevantes o inconsistentes (en ocasiones con conceptos
preconcebidos) o porque enmascaran otros hechos más importantes
o complican una situación. Por ejemplo, se dice que se le preguntó a
Einstein qué hubiera hecho si el famoso experimento de Michelson-
Morley (capítulo 6) no hubiera establecido la invarianza de la
velocidad de la luz en el vacío como requería la Teoría de la
Relatividad. Contestó diciendo que no habría hecho caso de ese
resultado experimental, porque él ya había llegado a la conclusión
de que la velocidad de la luz debía ser invariante. Una suerte
callada, denominada a veces chamba, juega un papel importante a
la hora de revelar una idea clave o una solución particularmente
simple. Tal fue el descubrimiento de los rayos X por Wilhelm
Roentgen. (Es interesante anotar que siguió meticulosamente el
método científico estándar para investigar la naturaleza de los
rayor X y aunque descubrió muchas propiedades significativas
llegó finalmente a una conclusión errónea.)
Sin embargo, a pesar de los procedimientos ambiguos e incon-
sistentes de algunos científicos concretos, han de satisfacerse las
exigencias metodológicas enumeradas más arriba. Toda teoría
científica que no esté de acuerdo con los experimentos habrá de
modificarse adecuadamente o descartarse. Igualmente, cualquier
teoría deberá satisfacer los requisitos prescritos por el método
científico por inspirado que esté su creador. Hay que repetir los
experimentos en distintas condiciones y por distintos experimenta-
dores. Los resultados han de ser consistentes consigo mismo y con
otros. Las hipótesis de trabajo han de estar justificadas. No
cumplir estas normas conduce a la seudociencia y a fraudes.
Un estudio a fondo de la Ciencia produce poder, tanto en el
gran sentido de la palabra como en un sentido real, concreto y
práctico. Éste es tan grande, que existe la inquietud de que la
Ciencia se use para la autodestrucción en lugar de para lograr
beneficios. La Ciencia permite hacerse una idea de la forma de
funcionar la Naturaleza y comprender la extraordinaria simetría y
racionalidad que existen en el universo físico. El material que se
presentará en los capítulos siguientes no revelará el tremendo
poder de la Física; en lugar de ello se tiene la esperanza de que el
lector aprecie la belleza, sencillez, armonía y grandeza de algunas
de las leyes básicas que gobiernan el Universo. También se espera
que la imaginación del lector se sienta a la vez intrigada y
satisfecha. Si se utiliza una vez más la analogía de la sinfonía se
diría que es el momento de finalizar la obertura y de que
comience el primer movimiento.
2
Astronomía copernicana

La Tierra no es el centro del Universo.


Nicolaus Kopernicus. (Cortesía del
Observatorio Yerkes. Universidad de
Chicago.)

Casi todo el mundo cree que la Tierra es un planeta que se


mueve en una trayectoria aproximadamente circular alrededor del
Sol y que la Luna también se mueve de forma parecida a la
anterior en torno a la Tierra. En la «era espacial» actual se
considera a la Luna como un satélite natural cuyo movimiento no
es distinto del que presentan la enorme cantidad de satélites
artificiales lanzados desde la Tierra a partir de 1958. La trayec-
toria de la Luna es un hecho demostrado y los viajes espaciales a
planetas distantes, incluso a galaxias, es algo corriente en la
imaginación popular, en los dibujos animados y en las pantallas de
televisión. La persona que hace cuatro o cinco siglos se arriesga-
ra a expresar tales ideas era considerado irracional, cuando no
hereje. En realidad nuestros sentidos nos dicen que no es la Tie-
rra la que se mueve, sino que son el Sol y los restantes objetos
celestes los que describen órbitas alrededor de la Tierra estacio-
naria.
El Sol, la Luna, los planetas y las estrellas «salen» cada
veinticuatro horas por el este, cruzan los cielos y se «ponen» por
el oeste desapareciendo de la vista unas cuantas horas antes de
reaparecer otra vez. Hasta hace sólo unos pocos siglos todo el
cuerpo de conocimientos de la Civilización Occidental apuntaba a
la creencia de que la Tierra era inmóvil y se localizaba en el
centro del Universo. En este capítulo se revisará el desarrollo de
este modelo geocéntrico (centrado en la Tierra) de universo así
como su derrocamiento y sustitución por las concepciones modernas,
estudio que pondrá de manifiesto muchas características de la
evolución y naturaleza del pensamiento científico.

Primitivas inspiraciones científicas


mediterráneas

Es difícil trazar el origen de la ciencia occidental. Para nues-


tros propósitos será suficiente mencionar unas pocas fuentes y
motivaciones generalmente reconocidas. Probablemente fueron
los griegos los primeros que se sintieron inclinados a la abstrac-
ción y a la generalización, aunque, desde luego, estuvieron muy
influidos a través de sus contactos comerciales y militares con las
civilizaciones de Mesopotamia y Egipto. Estas culturas habían
llegado a acumular una enorme cantidad de datos astronómi-
cos extremadamente precisos, habiendo desarrollado técnicas ma-
temáticas para aplicarlos al comercio, agrimensura, ingeniería
civil, navegación y para determinar los calendarios civiles y
religiosos. Disponiendo de un calendario era posible establecer la
fecha de la recolección, las estaciones favorables para el comercio
y la guerra o los momentos idóneos para celebrar los diferentes
ritos y festejos. El calendario viene determinado, a su vez, por la
configuración de los cuerpos celestes. (Así, en el Hemisferio Norte
el Sol está alto y en dirección septentrional durante el verano y
bajo y en dirección meridional durante el invierno.) Las antiguas
culturas, y otras más recientes, presagiaban el futuro según los
«signos» o agüeros que vieran en los cielos. (A nivel más prácti-
co, los marineros que no divisaran tierra eran capaces de nave-
gar midiendo la posición de determinados cuerpos celestes cono-
cidos.)
En general las antiguas civilizaciones no distinguían de forma
tan marcada como lo hace la sociedad occidental moderna entre
asuntos seglares y religiosos y naturalmente encontrban relaciones
en todos los aspectos del conocimiento humano: mitología, religión,
astronomía y cosmología. En lo que respecta a la Civilización
Occidental, probablemente fueran el monoteísmo ético israelita
junto con la búsqueda helénica de una base racional para e]
comportamiento humano los responsables de que los filósofos
intentaran unificar todos los campos del conocimiento.
Los filósofos griegos Sócrates, Platón y Aristóteles recal-
caron la necesidad de que las civilizaciones y las naciones estu-
vieran gobernadas sabiamente y de acuerdo con los principios
morales más elevados. Para ello se requería la comprensión y el
conocimiento de Dios. Un prerrequisito necesario era el conoci-
miento científico: Aritmética, Geometría, Astronomía y Geome-
tría de sólidos. No era suficiente ser diestros en estos temas.
había que comprender también su naturaleza esencial en rela-
ción con Dios. Esta comprensión sólo podía lograrse después
de un arduo y dilatado período de estudio. Por ejemplo, Pla-
tón creía que no podría comprenderse la naturaleza esencial de
dichos temas sin tener un amplio dominio de los detalles y
empleos.
El reconocimiento de las Matemáticas como un notable tema
de estudio, tanto por derecho propio como por su utilidad para las
aplicaciones prácticas, se debe, según la tradición, a Tales, que
vivió en la costa asiática del mar Egeo hace unos veintiséis siglos.
Los seguidores de Pitágoras (que vivieron en una de las colonias
griegas de Italia) proclamaron algún tiempo después que todo el
Universo estaba gobernado por los números. Estos números se
referían a los enteros o fracciones de ellos. Estos filósofos conside-
raban que todas las cosas estaban formadas por bloques de
construcción individuales denominados átomos. Debido a que los
átomos eran unidades discretas, podían contarse, lo que significa
que la geometría pitagórica podría considerarse corno una rama
de la Aritmética.
Pronto se dieron cuenta de que existían números, como 7T y
-\ /2:, que no podían expresarse como una razón de dos números
enteros. A causa del arduo problema que suponía el que muchos
triángulos no pudieran construirse de átomos denominaron irra-
cionales a esos números. Por ejemplo, un triángulo rectángulo
isósceles que tuviera un número entero de átomos en sus catetos
tendría que tener una hipotenusa múltiplo de V2., lo que era im-
posible porque f es irracional y cualquier número multiplicado
por -V2 también lo será y no podrá representar un número entero
de átomos. Según la leyenda, los pitagóricos encontraron la exis-
tencia de los números irracionales como algo repugnante e inten-
taron suprimirlos del conocimiento'.
No obstante, es posible establecer relaciones entre la Aritmética
y la Geometría mediante fórmulas como la del teorema de
Pitágoras que relaciona los tres lados de un triángulo rectángulo (
A 2 + B 2 = C 2 ) o la relación que existe entre la longitud de la
circunferencia y su radio (C = 2πr) o entre el área y el radio de un
círculo (A = πr2). Podrían disponerse algunos números siguiendo
modelos geométricos para descubrir las relaciones entre ellos. En
la figura 2.1 se representan a los números por círculos; en la
columna a) se hallan los números «triangulares», 1, 3, 6, 10 y en
la b) los números «cuadrados» 4, 9, 16. En la columna c) se
muestra que la combinación de dos números triangulares sucesivos
es un número cuadrado. Se ha dicho que los pitagóricos creían tan
fuertemente en el significado de las Matemáticas que llegaron a
establecer un culto religioso basado en los números.
Los griegos no eran los únicos en asignar un significado a los
números. Según la Cábala judía se podía encontrar el significado
profundo de algunas palabras sumando los números asociados a
cada una de las letras que las componen: la suma resultante
tendría una connotación sutil particular. En la actualidad se
consideran «afortunados» a ciertos números y «desafortunados» a
otros, como son el 7 y el 13, respectivamente. En algunos juegos
de azar se cree en ellos. En algunos rascacielos se pasa de la
planta duodécima a la decimocuarta. Los núcleos particularmente
estables por poseer una cierta combinación de protones y neutrones
representan los números mágicos de la Física Nuclear. Durante
mucho tiempo se ha intentado encontrar en Física Atómica algún
significado al hecho de que la denominada constante de estructura
fina tonga un valor exactamente de 1 /137.
Si V2, fuera exactamente igual a 1,4, V2. sería la razón de dos números enteros (
14/10). De ser así, un triángulo rectángulo isósceles de 10 átomos en los catetos
tendría 14 en la hipotenusa. Pero en realidad V2 es algo más de 14/10 y el triángulo
tendrá una hipotenusa de más de 14 átomos pero menos de 15. Es imposible
encontrar dos números enteros cuya razón sea exactamente igual a V2 Es evidente
que desaparece el problema si se descarta el supuesto de que los átomos sean la base
de la Geometría. Quizá por esta razón los griegos no desarrollaran nunca de forma
significativa el concepto de átomo, que permaneció prácticamente aletargado sin que
se le hiciera caso durante un par de milenios.
Figura 2.1.—Números triangulares y cuadrados. a) y b) Números triangulares y
cuadrados como ordenaciones de elementos. c) Números cuadrados como combinación
de dos números triangulares sucesivos con el primer triángulo invertido para encajar
en el segundo.
Los antiguos griegos también estaban fascinados por las formas
de las figuras regulares y establecieron una jerarquía para
ordenarlas. Se consideraba, por ejemplo, que el cuadrado
presentaba mayor orden de perfección que el triángulo
equilátero. Si un cuadrado se gira 90° sobre su centro
permanece inalterado (figura 2.2). Para volver a repetir el
aspecto de un triángulo equilátero hay que girarlo 120°. Al
hexágono, octágono y dodecágono hay que girarlos 600, 45° y 30°
respectivamente.
Cuantos más lados tenga la figura regular, menor será la
cantidad de rotación que hay que dar para restaurar el aspecto
primitivo. Podrá decirse en este sentido que el aumento del
número de lados de la figura regular hará aumentar su
perfección. Al ir aumentando el número de lados la figura se va
pareciendo cada vez más a una circunferencia y es natural que se
considerara a ella o al círculo como las figuras más perfectas
que podían dibujarse. No importa que se gire mucho o poco sobre
su centro, siempre mantendrá su aspecto original. Es importante
darse cuenta de que la perfección se identificaba con la
constancia: lo que es perfecto no puede mejorarse y tiene que
permanecer constante. El encantador librito de E. A. Abbot, Flatland,
describe un mundo
Figura 2.2.—Formas geométricas y simetría. a) Triángulo equilátero. b) El triángulo
anterior girado 90°. c) Si se gira 120° de su posición original se llega a otra
indistinguible de la primera. d) Cuadrado. e) El cuadrado anterior girado 45°. f) Si el
cuadrado se gira 90° de su posición original se llega a otra indistinguible de la
primera.

imaginario bidimensional habitado por formas planas cuyos ca-


racteres están determinados por el tipo de figura. Las mujeres, las
más mortíferas, son líneas rectas capaces de producir heridas
mortales como las de un estoque afilado y estrecho. El hombre es
más sabio, desde luego, y de acuerdo con el ideal griego de la
perfección sería un círculo.
La preocupación que tenían los griegos por la perfección y la
Geometría marcó el tono de su enfoque de la Ciencia. Ello se
ilustra particularmente en la Alegoría de la Caverna de Platón. En
ella representa Platón (427-347 a. C.) a los seres humanos como
esclavos encadenados en una profunda y tenebrosa caverna débil-
mente iluminada por un fuego que arde a cierta distancia de ellos
en posición posterosuperior. Hacia detrás y delante de los mismos
se alza un muro. Sus cadenas y grilletes son tales que no les
permiten moverse para ver lo que hay tras de sí. Al otro lado del
muro hay personas moviéndose de un lado para otro portando
diversos objetos sobre sus cabezas y emitiendo sonidos y ruidos
ininteligibles para los esclavos, que sólo pueden ver las sombras
arrojadas por los objetos en el muro anterior y oír los sonidos
apagados que se reflejan en el mismo. Los esclavos han visto esas
sombras toda su vida y no saben nada más.
Un día es liberado de sus grilletes uno de los esclavos (que se
convertiría en filósofo) y abandona la caverna para salir al mundo
real, luminoso y bello, con hierba verde, árboles, cielo azul y todo
lo demás. Al principio es incapaz de comprender lo que ve, porque
sus ojos no están acostumbrados al brillo de la luz, pero poco a
poco se va acomodando a su nueva libertad. Aunque no desea
regresar a su miserable estado anterior, el deber le obliga a volver
para tratar de iluminar a sus compañeros. No es una tarea fácil
porque ha de acostumbrarse otra vez a la oscuridad y tiene que
explicar las sombras empleando cosas que los esclavos no han
visto jamás. Éstos rechazan su ayuda y le amenazan con la muerte
si persiste (como realmente sucedió con Sócrates, el maestro de
Platón). Éste insistía que el deber requiere que el filósofo persista
a pesar de las amenazas y de las posibles consecuencias.
La primera labor del filósofo consiste en determinar la Realidad, o
Verdad, que subyace detrás de lo que parecen las cosas. Platón
indicaba, a modo de ejemplo, la apariencia de los cielos, la
materia objeto de estudio de la Astronomía. El Sol sale y se pone
diariamente, como la Luna, y ésta pasa por una serie de fases a lo
largo de un mes aproximadamente. El Sol está más alto en verano
que en invierno; las estrellas del alba y del atardecer aparecen y
desaparecen. Son las «apariencias» de los cielos, pero el filósofo
(el científico, se diría actualmente) ha de descubrir la verdadera
realidad que existe tras esas apariencias. ¿Qué es lo que da cuenta
«de los cursos de las estrellas por el firmamento»? Según Platón,
la realidad ha de ser perfecta o ideal y el filósofo ha de considerar
las Matemáticas y la Geometría sobre todo para hallar la verdadera
realidad de la Astronomía.
La mayoría de los objetos del firmamento, como las estrellas,
parecen describir trayectorias circulares que tienen a la Tierra
como centro. Es tentador concluir que la verdadera naturaleza
esencial del movimiento de los cuerpos celestes ha de ser circular
porque el círculo es la figura geométrica perfecta. No importa que
los cuerpos celestes parezcan moverse o no en trayectorias circu-
lares; después de todo, los seres humanos sólo pueden percibir las
sombras de la verdadera realidad. La labor del filósofo (o del
científico) es demostrar que la naturaleza verdaderamente perfecta
del movimiento celeste está falseada por las percepciones humanas.
Platón partió de que la tarea de la Astronomía consistía en
descubrir la manera de describir los movimientos de los objetos
celestes en los términos del movimiento circular. Esta labor se
denominó «salvar las apariencias». El trabajo de descubrir la
verdadera realidad sigue siendo una de las metas principales de la
Ciencia aunque la definición actual de la verdadera realidad
difiera de la de Platón y ha tenido una gran influencia en la forma
de abordar los problemas científicos. Algunas veces ha conducido a
hallazgos de primera importancia; otras, cuando se tomó demasiado
al pie de la letra, ha representado un grave inconveniente para el
progreso científico.

Teoría geocéntrica del Universo

Exponiendo unas cuantas horas durante la noche una cámara


fotográfica enfocada al cielo se obtendrá una fotografía como la
que se muestra en la figura 2.3. Durante el tiempo en el que
permanece abierto el obturador cambian las posiciones de las
diferentes estrellas del firmamento nocturno y las trayectorias de
sus movimientos aparentes trazan rayas arqueadas lo mismo que
ocurre con las fotografías tomadas de una calle por la noche en
las que se aprecien las trazas luminosas de los anuncios o de los
automóviles circulando. Si se deja abierto el obturador durante
veinticuatro horas («tapando» de alguna forma el Sol) muchas de
las rayas se convertirán en circunferencias enteras, sobre todo las
que se hallen próximas a la Estrella Polar. Puesto que no puede
apagarse el Sol, la fotografía sólo podrá tomarse durante las horas
de oscuridad y se obtendrán fracciones de circunferencias. Si se
toma la fotografía noche tras noche se obtendrán prácticamente
los mismos resultados con unas pocas excepciones que se discutirán
después.
Parece como si la Tierra estuviera rodeada de un gigantesco
toldo esférico o domo, llamado esfera estelar o celeste, y que las
estrellas fueran puntos luminosos montados sobre ella (figura
2.4a). El domo gira una vez cada veinticuatro horas en dirección
de este a oeste (desde la salida a la puesta). Sobre esta esfera
también se encuentran el Sol, la Luna y los planetas. Es evidente
que durante el día no podrán verse las estrellas porque la luz solar
dispersada por la atmósfera terrestre imposibilita contemplar la
luz relativamente débil de las mismas, pero durante un eclipse
solar pueden verse perfectamente bien.
Los astrónomos y astrólogos antiguos, que no disponían de
equipo fotográfico, fueron capaces de observar pacientemente.
medir y registrar este movimiento diario denominado rotación o
movimiento diurno de la esfera celeste. Llegaron a determinar que
Figura 2.3.—Fotografía del cielo nocturno tomada con exposición. (Fritz Goro/Life
Magazine@ Time, Inc.)

todos los cuerpos celestes, con pocas excepciones, se hallaban fijos


en una posición dada de la esfera celeste giratoria. Al ir
transcurriendo el tiempo se llegó a reconocer que la misma Tierra
también era esférica y parecía estar situada en el centro de la
esfera celeste. La parte visible de ésta depende del punto de
observación de la Tierra. En el Polo Norte los centros de las
circunferencias estarán directamente sobre la cabeza del observador.
A una latitud de 45°, el polo celeste (el centro de las
circunferencias) estará 45° por encima del horizonte Norte (en el
Hemisferio septentrional), mientras que en el Ecuador el polo
celeste se hallará en el horizonte Norte.
Se reconoció bastante pronto que unos pocos cuerpos no
estaban fijos en la esfera celeste sino que parecían moverse
respecto al fondo general de estrellas. Por ejemplo, la posición del
Sol en la esfera cambia durante el curso de un año y sigue una
trayectoria llamada eclíptica que se representa en la figura 2.4a
corno una circunferencia discontinua formando un ángulo de 23°
30' con el ecuador celeste. La dirección del movimiento del Sol es
Figura 2.4.—Esfera celeste. a) Representación esquemática de la misma mostrando
a
la Tierra en el centro de ella y la eclíptica. h) Vista muy ampliada de la trayectoria de
un planeta a lo largo de la eclíptica en la que se pone de manifiesto el movimiento
retrógrado,
de oeste a este (opuesta a la rotación diaria)2. También cambia la
posición de la Luna, que viaja a lo largo de la eclíptica de oeste a
este girando una vez cada veintisiete días y un tercio aproximada-
mente. De igual modo, los planetas visibles a simple vista —
Mercurio, Venus, Marte, Júpiter y Saturno— viajan cerca de la
eclíptica, también de oeste a este, tardando de nueve días a treinta
años en recorrer el circuito.
El movimiento del Sol se denomina anual y es bastante
uniforme y constante, aunque no del todo. El movimiento de la
2 Esto no contradice la observación de que el Sol viaja de este a oeste. Simplemente
quiere decir que su salida se retrasa siempre un poco en relación con la «salida
estelar>, debido al cambio de la posición del Sol en la esfera celeste.
Luna también es bastante unitorme, pero menos que el del Sol.
Pero el movimiento de los planetas es variable en velocidad y a
veces incluso en dirección. En realidad éste es el origen de la
palabra planeta, que quiere decir errante. Ocasionalmente un
planeta varía la dirección de su movimiento y parece moverse de
este a oeste respecto a las estrellas fijas en lugar de seguir su
trayectoria de oeste a este. Este movimiento se ilustra en la figura
4.2b y se denomina retrógrado; en él el planeta no sólo cambia de
dirección sino que se aleja ligeramente de la eclíptica. Estos
movimientos retrógrados se acompañan de cambios de la lumino-
sidad aparente del planeta. Unas veces se halla delante del Sol en
la eclíptica y otras detrás de él, fenómeno denominado movimiento
alterno. Si el planeta se halla al oeste del Sol, la rotación diaria
hará que se vea como lucero del alba, y si se halla al este del Sol
se verá como lucero del atardecer un poco después de la puesta
del Sol. (La Luna y el Sol también se consideraban planetas
aunque no exhibieran el movimiento retrógrado o el mismo grado
de variación de la velocidad que los demás. En este libro la
palabra planeta no incluye a la Luna y al Sol.) Puesto que los
planetas llevan velocidades diferentes, a veces pueden verse muy
próximos dos de ellos denominándose a este suceso conjunción.
Los antiguos astrólogos y adivinos que buscaban signos en los
cielos concedían gran importancia a las conjunciones porque se
pensaba que presagiaban o reflejaban acontecimientos trascen-
dentales para los seres humanos. Más raras (y portentosas) aún
eran las conjunciones dobles en las que tres planetas parecían
estar muy próximos unos de otros. (La conjunción tiene un sig-
nificado diferente en la práctica astronómica corriente pero su
discusión se sale de los límites de este libro.)
Las grandes civilizaciones concedieron durante siglos mucha
importancia a la apariencia de los ciclos, empleándose para esta-
blecer el calendario con el que gobernar la totalidad de los im-
perios así como para registrar los acontecimientos de importancia
en los asuntos humanos. También eran imprescindibles para viajar
a tierras distantes, ya que los marineros podían saber dónde se
encontraban por el aspecto concreto de los cielos de un lugar. En_
realidad el cálculo y uso de tablas precisas de navegación jugó un
papel muy importante en la exploración del mundo por parte de
los diversos países navegantes, lo que posibilitó que se llevaran a
cabo aventuras comerciales y expediciones militares. Las prediccio-
nes astrológicas basadas en el aspecto general de los cielos o en
sucesos poco corrientes, como conjunciones, cometas o novas, ha
tenido hasta hace pocos siglos una gran influencia en la toma de
decisiones políticas y los horóscopos siguen siendo muy populares.
Los babilonios desarrollaron una de las grandes civilizaciones
de Mesopotamia. Sus astrónomos realizaron mediciones muy
precisas y cálculos de las apariencias celestes, estando más
interesados en la precisión y confianza de sus mediciones
astronómicas y predicciones que en el desarrollo de una teoría
general que explicara el conocimiento del Universo.
Aunque los griegos no estaban particularmente interesados en
el conocimiento preciso y fidedigno de los cielos, no mejoraron
significativamente las mediciones de los babilonios. La contribución
griega a la Astronomía se basa en su interés por el conocimiento a
nivel filosófico. Los griegos consideraban el cielo como el lugar
en el que se podía encontrar la perfección, porque su verdadera
naturaleza era ésta. Creían que había que interpretar las
apariencias en función de su perfección intrínseca y constancia.
El Sol y la Luna parecían tener la forma «perfecta», la circular.
El hecho de que el movimiento diurno de las estrellas fueran
también circular era algo apropiado porque el círculo
representaba, como se ha visto, la figura perfecta.
Aunque el movimiento detallado de los planetas se desviaba
del movimiento circular uniforme, considerado en su conjunto era
circular. Se llegó a afirmar que la naturaleza esencial del
movimiento de éstos era circular y que las desviaciones que se
observaban no representaban más que sombras de la verdadera
realidad, como se deducía de la Alegoría de la Caverna de
Platón. Los filósofos griegos tomaron muy en serio el
mandato de éste de «salvar las apariencias» para explicar
todos los movimientos de los cuerpos celestes en los términos del
movimiento circular. Si se emplea la terminología moderna se
diría que emprendieron la tarea de desarrollar un modelo de
universo que explicara su «funcionamiento real».
Muchas civilizaciones antiguas también desarrollaron modelos
de universo. Los egipcios creían que éste se parecía a una larga
caja rectangular de fondo ligeramente cóncavo conteniendo a la
Tierra y en su techo de hierro algo arqueado se encontraba el
firmamento del que pendían lámparas. Este techo estaba soportado
por cuatro picos montañosos conectados por cordilleras tras las
cuales fluía un enorme río. El Sol era un dios que viajaba en barca
por el mismo y que, desde luego, sólo podía verse durante las
horas de luz.
Los modelos que consideraron más tarde los griegos eran
muchísimo más avanzados, poniendo de manifiesto mejores cono-
cimientos. Hicieron uso de dos tipos, el geocéntrico, o centrado en
la Tierra, y el heliocéntrico, o centrado en el Sol. En el primero,
además de estar la Tierra en el centro del Universo, generalmente
estaba quieta. En el heliocéntrico, la Tierra giraba alrededor del
Sol o un fuego central, lo mismo que todos los demás planetas, y
en general giraba también sobre su propio eje. Los griegos prefi-
rieron con mucho los modelos geocéntricos y rechazaron los
heliocéntricos.
En uno de los modelos geocéntricos más sencillos la Tierra
consistía en una pequeña esfera estacionaria rodeada de otras
ocho esferas giratorias y concéntricas que llevaban la Luna, el Sol,
Venus, Mercurio, Marte, Júpiter, Saturno y las estrellas fijas,
respectivamente. Este modelo se denomina homocéntrico debido a
que todas las esferas tenían el mismo centro. Cada una de ellas
llevaba asociado un determinado número de esferas auxiliares.
(Este modelo se debía a Eudoxus, uno de los alumnos de Platón
que había aceptado el desafío de determinar la verdadera realidad.)
El Sol y la Luna tenían dos esferas auxiliares y cada uno de los
planetas tenían tres. Con la esfera de las estrellas hacían un total
de veintisiete.
La finalidad de las esferas auxiliares consistía en ayudar a
generar los movimientos observados. Por ejemplo, la esfera que
llevaba a la Luna giraba sobre un eje cuyos extremos estaban
montados en la esfera siguiente más grande, de forma que el eje
de rotación de la esfera lunar pudiera girar con la esfera auxiliar.
El eje de ésta, a su vez, estaba montado sobre la esfera auxiliar
siguiente, que también podía girar. Situando estos ejes a diferentes
ángulos y ajustándose la velocidad de rotación de las esferas era
posible generar un movimiento para el cuerpo celeste de manera
que un observador situado en la Tierra pudiera percibir la trayec-
toria apropiada seguida por el cuerpo a lo largo de la eclíptica
contra el fondo de las estrellas fijas.
En las primeras versiones de este modelo se ignoraba la causa
del movimiento de las esferas. Se suponía simplemente que la
naturaleza de una de las esferas perfectas de los cielos era tal que
permitía su rotación. El modelo se proponía explicar de forma
simple el movimiento no uniforme de los cuerpos celestes como
combinación de movimientos circulares uniformes «salvando así
las apariencias». Los filósofos griegos de esta época ya habían
descartado las explicaciones mitológicas como la de dioses que
conducían por el cielo carros incandescentes.
El gran filósofo Aristóteles (384-322 a. C.) adoptó el modelo
homocéntrico de universo y lo integró minuciosamente con su
sistema filosófico, estableciendo relaciones entre Física y Metafísica.
Creía que el Universo era esférico y estaba dividido en dos
«mundos», el astronómico o celeste y el sublunar. Éste estaba
formado por cuatro materias primas —tierra, agua, aire y fuego—
mientras que el mundo astronómico contenía una quinta sustancia,
el éter. Dichas sustancias tenían ciertas características inherentes.
Las leyes físicas venían determinadas por la naturaleza de aquéllas
y, por consiguiente, las leyes del mundo sublunar habrían de
diferir de las del mundo astronómico. Aunque el conocimiento
físico de Aristóteles era completamente distinto del que se tiene en
la actualidad, estaba fuertemente entretejido con todo el resto de
su sistema filosófico. (Los conceptos físicos de Aristóteles se
considerarán más detalladamente en el próximo capítulo.)
Aristóteles no se contentaba con la simple descripción de los
movimientos planetarios introducida por Eudoxus porque en el
esquema de este autor eran independientes los movimientos de los
distintos conjuntos de esferas. Aristóteles sentía la necesidad de
integrar el movimiento de los cuerpos celestes en un sistema
global e introdujo esferas adicionales entre las que se habían
asignado específicamente a los planetas. Por ejemplo, la esfera
auxiliar más externa perteneciente al conjunto de Saturno tenía su
eje montado sobre la esfera de las estrellas fijas. La esfera más
interior de dicho sistema llevaba un conjunto de esferas adicionales,
llamadas contrarrestantes, en número de tres, que giraban de tal
forma que permitieran explicar los detalles finos del movimiento
de Saturno. En la más interna de ellas estaba montada la esfera
auxiliar más externa perteneciente a Júpiter. De igual forma se
introdujeron grupos de esferas contrarrestantes entre Júpiter y
Marte y así sucesivamente.
En el esquema de Aristóteles existían cincuenta y seis esferas.
A la más externa se denominó Primer Motor porque todas las
demás estaban ligadas a ella y sus movimientos se derivaban del
suyo. Aristóteles no especificó los pormenores de la transmisión
real del movimiento de una esfera a otra. Los escritores posteriores
especularon con la posibilidad de que cada esfera arrastrara de
alguna forma con su movimiento a la interior siguiente a través
de un deslizador. Muchos siglos después se hicieron modelos de
trabajo que ilustraran este movimiento, introduciéndose el engra-
naje necesario para transmitir los movimientos.
Pronto se reconoció que había ciertas debilidades en la sencilla
teoría geocéntrica discutida por Aristóteles. Por ejemplo, según el
momento en que se observara la Luna, presentaba un tamaño que
variaba en un 8 ó 10 por 100. Lo mismo ocurría con el brillo de
los planetas, que era particularmente intenso cuando experimentaban
movimiento retrógrado. Estos fenómenos indicaban que las dis-
tancias entre la Tierra y los planetas o la Luna cambiaban, lo cual
era imposible según el modelo homocéntrico. Más importante aún,
como resultado de las conquistas de Alejandro, los griegos estaban
muy bien enterados de la gran cantidad de datos astronómicos
acumulados por los babilonios y que no estaban de acuerdo con el
modelo de Aristóteles. Era necesario modificarlo, cosa que se hizo
durante el transcurso de los siglos siguientes.
Estas modificaciones culminaron hace unos mil ochocientos
años, alrededor del año 150, cuando el astrónomo helénico Ptolo-
meo publicó en Alejandría, Egipto, un extenso tratado sobre el
cálculo de los movimientos del Sol, la Luna y los planetas, titulado
La Gran Síntesis. Esta obra se perdió temporalmente para Occidente
con la decadencia del conocimiento secular que acompañó a la
desintegración del Imperio Romano. Se tradujo al árabe y con el
tiempo se reintrodujo en Europa con el título de Almagesto («el
majestuoso» o «el grande»).
Ptolomeo abandonó el intento de Aristóteles de ligar en un
todo los movimientos del Sol, la Luna y los planetas, desechando
su física demasiado especulativa. Creía que bastaría desarrollar
los esquemas matemáticos que permitieran calcular con precisión
los movimientos celestes sin que importaran las causas de los
Claudius Ptolomeus, (Archivo Bettmann.)

mismos. El único criterio para juzgar la calidad y validez de un


esquema concreto de cálculo es que permitiera obtener resultados
correctos con los que «salvar las apariencias». Era necesario
porque los datos disponibles ponían de manifiesto que las aparien-
cias de los cielos cambiaban gradualmente. Había que disponer de
cálculos precisos que permitieran establecer calendarios y tablas
de navegación sin que importara su justificación.
Ptolomeo empleó con este fin diferentes dispositivos o artefactos (
Como se llamó a las modificaciones) sugeridos por otros astrónomos o
diseñados por él mismo, aunque preservó, no obstante, el con-
cepto de movimiento circular. En la figura 2.5a se representa uno
de ellos denominado excéntrico. Significa simplemente que la
esfera que lleva al planeta no está centrada en el centro de la
Tierra, sino que está algo desplazado de él, de manera que durante
una parte de su recorrido el planeta esté más cerca de la Tierra
que durante el resto. Cuando el planeta se halle más cerca de la
Tierra parecerá moverse más deprisa. Al centro de la esfera se
denominó excentro. En alguno de sus cálculos éste se movía un
poco aunque despacio.
La figura 2.5b representa un epiciclo, que no es más que una
esfera cuyo centro es llevado o se mueve alrededor de otra
llamada deferente. El planeta en sí es llevado por el epiciclo que
gira sobre su centro mientras que aquél es transportado por la
deferente. El centro de ésta puede estar en el centro de la Tierra o
puede también ser excéntrico. Según el tamaño relativo y la
velocidad del epiciclo y el movimiento de la deferente, el planeta
puede seguir prácticamente cualquier tipo de trayectoria. Como
puede observarse en la figura 2.5c, es posible generar el movimiento
retrógrado, estando el planeta más próximo a la Tierra mientras lo
está experimentando. Pueden combinarse los movimientos de
epiciclos y deferentes para generar circunferencias excéntricas,
óvalos aproximadamente elípticos o incluso trayectorias casi rec-
tangulares. (Puede imaginarse el movimiento epicíclico pensando
en alguno de los tiovivos de los parques de atracciones que
constan de una plataforma giratoria que lleva una serie de brazos
que pueden girar a su vez; véase la figura 2.6.)
Desde el punto de vista astronómico no bastaba con generar
una forma dada de trayectoria, sino que también se necesitaba que
el cuerpo celeste viajara a lo largo de la misma con una velocidad
apropiada; es decir, los cálculos debían demostrar que el planeta
llegaba a un punto concreto del cielo en el momento correcto.
O bien el planeta sobre el epiciclo o el centro de éste en la defe-
rente tenían que acelerar o frenar. Se necesitaba introducir, por
tanto, otro dispositivo más, el denominado ecuante, como se
muestra en la figura 2.5d. Nótese que existe la misma distancia
entre la Tierra y el excentro y entre éste y el ecuante. El centro del
epiciclo visto desde el ecuante se mueve con movimiento angular
uniforme salvando la apariencia del movimiento uniforme. Movi-
miento angular uniforme quiere decir que la línea que une el
Figura 2.5.—Dispositivos usados en el modelo geocéntrico de Ptolomeo. a) Excéntrico.
b) Esquema de un epiciclo sobre la deferente. e) Generación del movimiento retrógrado
por el epiciclo. Ecuante.
Figura 2.6.—Tiovivo de un parque de atracciones con epiciclos. (Charles Gupton/Stock
Boston.)

ecuante y el centro del epiciclo gira un cierto número de grados


por unidad de tiempo lo mismo que ocurre en un reloj de pulsera.
Sin embargo, este movimiento angular uniforme con respecto al
ecuante no es un movimiento uniforme alrededor de la circunfe-
rencia y dado que la longitud de la línea ccuante-planeta varía, su
velocidad en km• h-', por ejemplo, a lo largo de la circunferencia
variará proporcionalmente a la longitud de la misma.
Ptolomeo empleó estos dispositivos, individualmente o en com-
binación cuando era necesario, para calcular la posición de los
planetas. Unas veces empleaba uno de los dispositivos para calcular
la velocidad de la Luna, por ejemplo, y otras para calcular la
variación de su distancia a la Tierra. No le interesaba emplear al
mismo tiempo una serie consistente de dispositivos que le permi-
tiera calcular todos los aspectos del movimiento de un cuerpo
celeste concreto; su principal preocupación consistía en calcular
las posiciones y tiempos correctos de las apariencias de los dife-
rentes cuerpos celestes. En este sentido se parecía a un estudiante
que conoce la respuesta de un problema y busca la fórmula que le
permita llegar a ella sin preocuparse de su sentido.
Algunos astrónomos y comentaristas posteriores a Ptolomeo
intentaron que los cálculos estuvieran de acuerdo con alguna clase
de sistema físico razonable, imaginándose que los epiciclos daban
vueltas realmente en torno a sus deferentes. Ello significaba, por
supuesto, que las diferentes esferas tenían que ser transparentes
para que fuera posible ver a los planetas desde la Tierra, debiendo
estar hechas de algún material cristalino, quizá un éter espeso.
También se pensó que el espacio interesférico debía de estar lleno
de éter, dado que se creía que el espacio vacío no podía existir.
El sistema ptolomeico dista mucho de ser atractivo para la
mentalidad moderna. Sin embargo, en su tiempo y durante catorce
siglos después fue el único en desarrollarse y ser capaz de
producir tablas astronómicas con la precisión suficiente para
elaborar calendarios o cartas de navegación. Repitiéndolo una vez
más: Ptolomeo tenía en mente una finalidad principal, a saber,
desarrollar un conjunto de técnicas matemáticas que permitieran
abordar cálculos precisos. Para sus propósitos eran irrelevantes las
consideraciones de tipo filosófico (la Física se consideraba como
una rama de la Filosofía). Dicho brevemente, el esquema ptolomeico
se usó ampliamente por la práctica y convincente razón de que ¡
funcionaba!

Teoría heliocéntrica. Restablecimiento por Copérnico

Según la teoría heliocéntrica (centrado en el Sol), el Sol es el


centro del movimiento planetario y la Tierra es un planeta como
Marte o Venus, que describe una órbita en torno al Sol y que gira
sobre su cje. En la época de Aristóteles, y quizá anteriormente, se
había considerado la posibilidad de que la Tierra girase sobre su
eje. Una idea más antigua aún consideraba que tanto la Tierra
como el Sol se movían en torno a un «fuego central». Estas
sugerencias se rechazaron y algunos de los argumentos esgrimidos
en contra de las mismas se discutirán más adelante. Los griegos
pensaban generalmente que la idea de una Tierra girando y
moviéndose era insostenible. Abrigar tales concepciones era impío,
peligroso y ridículo.
En la última parte del siglo xiv unos cuantos autores sugirieron
que el concepto de un Universo centrado en la Tierra adolecía de
ciertas dificultades lógicas. En primer lugar, si la rotación diaria
de las estrellas se debía a la rotación de la esfera celeste, a causa
de su enorme tamaño, las miríadas de estrellas de su superficie
habrían de moverse a velocidades imposiblemente altas. Parecía
justo y razonable suponer que sólo se moviera la pequeña Tierra y
que la rotación diaria simplemente fuera una ilusión óptica que
reflejaba el movimiento relativo. Poco después se sugirió que un
Creador Infinito había hecho al Universo infinito en espacio y
tiempo y que podía elegirse como centro del mismo cualquier
lugar. Se trataba solamente de especulaciones y no se conocían los
cálculos detallados necesarios para apoyarlas hasta que el problema
fue estudiado en el siglo xvi por un prelado de poca importancia
de la catedral de Frauenberg (en la actualidad Frombork, Polonia).
Este hombre, Nicolaus Copernicus, había estudiado en las
Universidades de Cracovia (Polonia), y Bolonia y Padua (Italia),
adquiriendo amplios conocimientos de Matemáticas, Astronomía,
Teología, Medicina, Derecho Canónico y Filosofía griega. Sus
obligaciones en la catedral no requerían mucho tiempo y le permi-
tieron emprender un dilatado y profundo estudio de la Astronomía.
Copérnico acabó concluyendo que el sistema ptolomeico era
demasiado complicado. Actualmente se aprecia claramente que
Copérnico estaba influido por el Neoplatonismo, una actitud
filosófica fuertemente enraizada en el pensamiento griego clásico.
Consistente con ella es la regla conocida como cuchilla de Occam*,
que afirma fundamentalmente que las explicaciones sencillas se
prefieren a las complejas. (Quizá merezca la pena indicar en este
contexto que Alfonso X el Sabio sufragó en 1252 un nuevo
cálculo de las tablas astronómicas usando las técnicas de Ptolomeo
y otros datos adicionales, diciéndose que se quejaba de que Dios
no hubiera contado con él antes de haber diseñado un sistema tan
complicado.) Copérnico no estaba satisfecho de la forma en que
Ptolomeo había aplicado los dispositivos discutidos anteriormente.
Consideraba particularmente contradictorio con la idea de movi-
* Su expresión latina es Non sunt multiplicanda entia sine necesitare (No hay que
multiplicar los entes sin necesidad) y es probable que no se deba a Guillermo de
Occam. (N. del T.)
miento circular perfecto el uso del ecuante y volvió a examinar el
modelo heliocéntrico que había sido propuesto hacía más de
quince siglos por Aristarco, un astrónomo griego que había vivido
en la época intermedia entre la de Aristóteles y la de Ptolomeo.
Siguiendo las indicaciones de Aristarco, Copérnico propuso
que el Sol y las estrellas fijas debían considerarse estacionarios y
que la Tierra era un planeta que giraba alrededor del Sol de la
misma forma y en la misma dirección que los otros cinco planetas.
Sólo la Luna giraba en torno a la Tierra. El tiempo que había de
transcurrir para que un planeta completara una órbita alrededor
del Sol había de ser mayor cuanto más alejado estuviera de éste.
El movimiento retrógrado y todos los frenazos y aceleraciones de
los planetas eran simplemente ilusiones ópticas debidas a que la
dirección en que se observa uno de esos planetas desde la Tierra
depende de las posiciones relativas de ambos cuerpos en sus
respectivas órbitas. Estas posiciones relativas varían con el tiempo
lo mismo que lo hacen las posiciones relativas de los coches de
una carrera en un circuito oval observado a cierta distancia. Un
planeta que se mueva rápidamente sacará delantera al otro que
vaya más despacio hasta que dé una «vuelta», adelantándolo una
y otra vez. Por consiguiente, unas veces se ve a los planetas
delante de la Tierra y otras detrás de ella. La conjunción no es
más que la observación de dos planetas describiendo sus órbitas a
la misma velocidad.
En la figura 2.7 se representa esquemáticamente el movimiento
retrógrado visto desde la Tierra. La figura 2.7b muestra las
posiciones relativas del Sol, la Tierra y Marte en siete instantes
diferentes. Las flechas representan las direcciones (en relación con
la de una estrella distante) a las que habría de mirar un observador
terrestre para ver a Marte en esos distintos momentos. En la figura
2.7c se han superpuesto cada una de las direcciones correspon-
dientes tal como serían vistas por los astrónomos o cualquier
observador que mirara hacia Marte desde la Tierra. Se ha ajustado
la longitud de las flechas para que se correspondan con las
diferentes distancias Tierra-Marte en las siete posiciones. El resul-
tado es una explicación simple y «natural» del movimiento retró-
grado.
Para poder explicar el movimiento diario o diurno también
propuso Copérnico que la Tierra gira una vez sobre su eje cada
Figura 2.7.—Modelo heliocéntrico de Copérnico. a) Perspectiva esquematizada de l
a
Tierra y Marte describiendo órbitas alrededor del Sol en la que se representa tambié
n
la rotación de la Tierra sobre su eje. b) Posiciones relativas de la Tierra y Marte segú
n
los diferentes
23 h 56 m. ángulos de visión de
(Se requieren loséste observado
otros cuatrodesde e) Superposición
áquella. que
minutos faltan para de
los ángulos de visión.
las 24 h de una rotación aparente de los cielos porque la Tierra se
ha trasladado a una posición distinta de su órbita alrededor del
Sol.) El eje de rotación está inclinado con respecto al eje de
la órbita una cantidad igual (23° 30') al ángulo que forma
la eclíptica con el ecuador celeste. Copérnico también afirmó
que este eje inclinado giraba lentamente sobre el eje de la
órbita manteniendo siempre el mismo ángulo de inclinación,
explicando
así el pequeño cambio de la apariencia general de las estrellas
fijas que había sido observado desde la época de Ptolomeo.
Copérnico encontró, en efecto, que si se desplazaba desde la
Tierra al Sol el punto de observación de los movimientos
planetarios, los que anteriormente parecían muy complejos se
transformaban en otros muy simples: si uno pudiera situarse en
el Sol se vería simplemente que todos los planetas describen
trayectorias circulares tanto más rápidas cuanto más próximas
estuvieran a él. Partiendo de las mediciones astronómicas dedujo el
orden correcto de sus distancias al mismo: Mercurio, Venus,
Tierra, Marte, Júpiter y Saturno y, además, con bastante
precisión. Por ejemplo, la distancia Sol-Tierra era de ciento
cuarenta y nueve millones de kilómetros.
Procedió entonces a calcular de forma exacta las apariencias
de los cielos para los astrónomos de la Tierra. En particular
realizó estimaciones de las apariencias de los planetas en lugares
y tiempos concretos para compararlos con las mediciones astronó-
micas. Sin embargo, llegó a encontrar ¡que las posiciones calculadas
por él eran más inexactas que las que se deducían de la teoría
ptolomeica! Dicho con otras palabras, su elegante y hermosa
concepción que tan bien funcionaba cualitativamente fallaba desde
el punto de vista cuantitativo.
Impertérrito, introdujo algunos de los dispositivos de Ptolomeo
como el excentro, la deferente y el epiciclo (pero no el ecuante)
y los aplicó de la forma más consistente posible usando los
métodos ptolomeicos. Empleó también un menor número de
esferas de diversos tipos, unas cuarenta y seis en comparación
con las más de setenta que se habían empleado en los últimos
cálculos ptolomeicos.
El resultado de todo su esfuerzo se tradujo en unas tablas
astronómicas que en general no eran mejores que las obtenidas
con la teoría geocéntrica y con los cálculos de Ptolomeo. Sin
embargo, el enfoque copernicano tenía una ventaja desde el punto
de vista de la práctica de la Astronomía: los cálculos eran mucho
más simples de realizar.
Copérnico terminó su trabajo en 1530 aunque no publicó
Iodos los detalles, quizá por temor a la reacción que pudiera
despertar, ya que los primeros proponentes de la idea de que la
Tierra estaba en movimiento habían sido cruelmente ridiculizados.
El año de su muerte, 1543, apareció por fin Sobre las revoluciones
de las esferas celestes, dedicado al Papa Pablo III. En el prefacio,
escrito por otra persona, se expresaba que el esquema copernicano
no debía considerarse representativo de la realidad sino como un
medio de calcular de forma práctica y sencilla las posiciones de
los diferentes cuerpos celestes. El sistema y los cálculos coperni-
canos se usaron para construir el calendario gregoriano que se
introdujo por vez primera en 1582 y que todavía sigue en uso.
La reacción inicial que despertó el esquema copernicano fue
fundamentalmente la de considerarlo de la manera que se había
sugerido en el prefacio: útil para los cálculos pero que no necesa-
riamente reflejaba la realidad. Copérnico era consciente de las
muchas objeciones que tenía el sistema heliocéntrico o de cualquier
teoría que incorporara el movimiento terrestre, ya que habían
surgido muchas desde la época de los antiguos griegos. Intentó
refutarlas en el libro, dividiéndolas en dos tipos de categorías: 1)
objeciones científicas y 2) filosóficas y religiosas. En la mentalidad
de la mayoría de sus contemporáneos los dos tipos de objeciones
eran igualmente importantes.
Algunas de las objeciones científicas se basaban en observa-
ciones astronómicas. Por ejemplo, si la Tierra se moviese en
realidad en una órbita circular alrededor del Sol, la distancia de la
Tierra a un punto dado del ecuador de la esfera celeste debiera
variar como mucho doscientos ochenta y ocho millones de kiló-
metros (el diámetro de la órbita terrestre). La separación angular
entre dos estrellas adyacentes de la esfera debería variar aprecia-
blemente, lo mismo que varía la separación angular de dos árboles
de un bosque según la distancia a la que un observador se encuen-
tre de ellos. Este efecto de paralaje estelar no se había observado
nunca y Copérnico afirmó que las estrellas estaban tan distantes
que incluso una variación de 288 millones de kilómetros represen-
taría una fracción muy pequeña de la distancia total a la que se
hallaban las estrellas para que el ojo humano pudiera apreciarlo.
Sus críticos rechazaron este argumento porque se creía que la
esfera celeste era ligeramente superior a la de Saturno. (En rea-
lidad las estrellas más próximas están tan alejadas que hasta que
no se dispuso de telescopios suficientemente potentes dos siglos
después no pudo observarse el paralaje estelar.)
Otra objeción relacionada con la anterior tenía en cuenta el
tamaño aparente de las estrellas. Cuando se observan las estrellas
a simple vista parece que todas tienen el mismo diámetro aparente
debido a que se encuentran muy alejadas. Si se calcularan sus
verdaderos diámetros empleando la distancia que hay a ellas des-
de la Tierra, afirmaba Copérnico, se comprobaría que tendrían
varios cientos de millones de kilómetros y, por consiguiente, mu-
cho más grandes que el Sol, algo que era demasiado difícil de
creer. Resulta que el tamaño aparente de las estrellas observado a
simple vista es engañosamente grande debido a la naturaleza un-
dulatoria de la luz y a la abertura del ojo relativamente pequeña,
lo que no llegó a comprenderse hasta trescientos años más tarde
cuando se descubrieron los principios de la difracción óptica. (¡Las
estrellas parecen mucho más pequeñas cuando se las observa con
un telescopio que cuando se las mira a simple vista!)
Algunas de las objeciones físicas se basaban fundamentalmente
en los escritos de Aristóteles. Por ejemplo, se afinnaba que si la
Tierra estuviera en movimiento sus habitantes sentirían una brisa
proporcional a la velocidad con la que se desplazara, lo mismo
que la siente una persona montada en un coche descapotable. La
velocidad de la Tierra viajando en su órbita es de unos cien mil
kilómetros por hora y la brisa resultante seguramente destruiría
cualquier cosa que hubiera en la superficie (se considera que un
vendaval es un huracán cuando la velocidad del viento es superior
a ciento veinte kilómetros por hora).
De igual forma se afirmaba que, si la Tierra se estuviera
moviendo, una manzana que se cayera de un árbol no llegaría al
suelo en línea recta sino que lo haría a varios kilómetros de
distancia del pie del mismo debido a que éste y el suelo bajo él
tendrían que moverse esa distancia durante el tiempo que tardara
en caer. Además, ¿cuántos caballos —en términos actuales se
diría qué tamaño habría de tener el motor— se necesitarían para
empujar una masa tan grande como la Tierra para que llevara tal
velocidad? No existían pruebas de que hubiera algún agente que
mantuviera la Tierra en movimiento. Un razonamiento igual
indica que el giro de la Tierra se parece a un gigantesco tiovivo
cuya fuerza centrífuga sería tan grande que los habitantes habrían
de agarrarse para poder vivir. Puesto que no ocurre ninguna de
estas cosas, es difícil creer que la Tierra se esté moviendo realmente. (
La idea de que la Tierra ejercía una fuerza atractiva no se des-
arrolló hasta un siglo después y pudo distinguirse entre fuerzas
centrífuga y centrípeta.) A los proponentes del sistema copernicano
les costó aproximadamente un siglo superar estas objeciones
científicas (véase el capítulo siguiente).
Las objeciones filosóficas y teológicas eran de igual peso. La Fí-
sica de esa época no gozaba del prestigio tan impresionante de la
actualidad, considerándose, por el contrario, a la Teología como la
Reina de las Ciencias. La filosofía aristotélica se había incorporado
en el siglo xvi al dogma teológico de Europa Occidental. No deja
de ser interesante que el enfoque aristotélico se hubiera condenado
por pagano mil años antes y que la idea de una Tierra redonda se
hubiera considerado herética. No obstante, en la época de Copémico
dominaba el sistema aristotélico, esencialmente racional, y cualquier
fallo en él podría tomarse como representativo de todo el orden de
cosas aceptado. La Tierra era algo único que se hallaba en el
centro del Universo y lo mismo se pensaba del hombre.
La Tierra y la región sublunar que la rodeaba hasta la esfera
de la Luna eran imperfectas según el pensamiento de Aristóteles.
La Luna, el Sol, los planetas y las estrellas eran perfectos porque
se encontraban en los cielos (y por eso su movimiento tenía que
ser circular). Eran cuerpos perfectos animados de un movimiento
perfecto como correspondía a su naturaleza intrínseca. Al encon-
trarse la Tierra en la región sublunar había de ser inequívocamente
diferente de los cuerpos celestes y no podía ser un planeta como
los demás y, por tanto, no experimentaría la misma clase de
movimientos que ellos. A los planetas también se los consideraba
distintos porque ejercían influencias especiales en el comportamiento
de los individuos. A veces se describen las personalidades de los
seres humanos con calificativos como mercurial, jovial o saturnino,
por ejemplo, rasgos que se atribuían a los planetas Mercurio,
Júpiter o Saturno'. La teoría heliocéntrica también abandonaba el
atractivo místico de la Astrología.
3 Podría pensarse que tales creencias eran inconsistentes con la racionalidad que
había impuesto la filosofía aristotélica, pero todas las culturas tienen sus ambigüedades.
Además, el conocimiento de la filosofía aristotélica había llegado a la Europa
Medieval no a partir de los textos griegos originales sino a través de las versiones
arábigas de las traducciones latinas. Los traductores añadían inevitablemente a los
textos originales sus propias ideas.
La teoría heliocéntrica fue además atacada por los líderes
germanos de la Reforma Protestante al ir en contra de la lectura
literal de la Biblia. El papel central que jugaba el Sol en la teoría
podía considerarse en verdad que conducía al retorno de las
prácticas paganas de culto al mismo. La reacción de las autoridades
eclesiásticas del Catolicismo fue más bien leve al principio pero
finalmente también acabó condenando al heliocentrismo de herejía.
Algunos historiadores han sugerido que si Copérnico hubiera
desarrollado sus ideas cincuenta años antes de producirse la
Reforma habrían sido acogidas por una audiencia más solidaria.
Pero llegando como lo hicieron, en medio de las luchas teológicas
de los siglos xvi y xvii, fueron consideradas un desafío a la
autoridad competente de la Iglesia que había proclamado hacía
tiempo una cosmología distinta (desde el punto de vista protestante,
diferente a la de la Biblia) y, por tanto, había que combatirlas.
(Copérnico y otros que creían en el enfoque heliocéntrico pensaban
que éste era compatible con la Biblia y que el Sol simplemente
representaba el poder y la gloria de Dios.)
Este desafío parecía ser más grave aún, ya que condujo a
especulaciones fantásticas, como las de Giordano Bruno, un monje
que proclamó unos cincuenta años después de la muerte de
Copérnico que si la Tierra se parecía a los planetas, ellos tendrían
que ser iguales que la Tierra. Seguramente estarían habitados por
gente que había experimentado procesos históricos y religiosos
similares a los ocurridos en la Tierra, incluso los registrados en la
Biblia. Bruno afirmó que el Universo era infinito en extensión, que
el Sol no era más que una estrella secundaria y que había otros
sistemas planetarios. Se perdía, por tanto, la unicidad de la especie
humana, el interés de Dios por la misma y las prácticas e
instituciones sagradas. (Bruno fue finalmente quemado en la
hoguera por rehusar retractarse de éstas y otras herejías.)
En vista de todas las objeciones que surgieron y debido a que
incluso después de refinarla no arrojara mejores resultados que los
que se obtenían con la teoría ptolomeica parecía que no había
razones de peso que justificaran la preferencia de la teoría coper-
nicana. Su virtud capital era su mayor atractivo intelectual para
algunos astrónomos y que permitía realizar cálculos más sencillos.
Sin embargo, llegó a demostrarse que era algo más que un
esquema para «salvar las apariencias», cristalizando la idea de
que la teoría de Ptolomeo no podía sostenerse por más tiempo. Se
acercaba una época de nuevas teorías astronómicas más perfeccio-
nadas.

Nuevos datos y una teoría nueva

Una de las debilidades del trabajo de Copérnico consistía en


que había usado una gran cantidad de datos muy antiguos y
probablemente eran imprecisos. Él mismo sólo realizó un número
muy reducido de observaciones astronómicas. El astrónomo danés
Tycho Brahe construyó en 1576 un observatorio astronómico en
una isla cercana a Copenhague bajo el patrocinio del rey de
Dinamarca. Brahe era un noble de aspecto espantoso (tenía una
nariz de plata como resultado de un duelo) pero tenía unas dotes
de observador agudo y meticuloso poco corrientes y fue capaz de
medir las posiciones de los planetas y estrellas con enorme
precisión. Durante veinte años estuvo realizando una gran cantidad
de mediciones extremadamente precisas de la posición del Sol, la
Luna y los planetas. Las precisiones angulares que anteriormente
se habían medido con una confianza de diez minutos de arco
logró realizarlas con una exactitud de cuatro minutos de arco (un
grado de arco tiene sesenta minutos). Para dar una idea de lo que
esto significa piénsese que si para observar un planeta se emplea
un indicador de un metro de longitud aproximadamente, un
desplazamiento de su extremo de un milímetro produce un error
angular de cuatro minutos de arco. Mientras los astrónomos
anteriores se habían contentado con realizar observaciones de los
planetas en determinados puntos claves, Brahe los seguía a lo
largo de toda la órbita. Estas observaciones no las hizo con
telescopios (que no se inventaron hasta 1608) sino con distintos
«tubos de mira» e indicadores diseñados por él mismo.
Brahe encontró que ni la teoría copernicana ni la ptolomeica
estaban de acuerdo con sus nuevos datos. Unos trece años antes
de construir su observatorio ya sabía que ambas teorías adolecían
de serios errores. Al observar una conjunción de Júpiter y Saturno
y analizar los datos vio que la teoría ptolomeica había predicho
que tendría lugar un mes más tarde mientras que la copernicana
lo predecía para varios días después de la fecha correcta. Tycho
Tycho Brahe. (Colección pictórica de la Biblioteca Pública de Nueva York.)

Brahe también se sentía impresionado por los diferentes argumentos


en contra del movimiento de la Tierra, dándose cuenta de que era
posible construir otra teoría basada en el movimiento circular
perfecto.
Brahe propuso, por lo tanto, que la Tierra estaba en el centro
de la esfera de las estrellas fijas y en reposo y que el Sol y la Luna
viajaban en órbitas en torno suyo. Los otros cinco planetas
describían órbitas centradas en el Sol. Una teoría de este tipo en la
que la Tierra continúa siendo el centro del Universo pero en la
que los demás planetas dan vueltas en torno al Sol se denomina
Tycho Brahe en su observatorio. (Biblioteca Niels Bohr A1P.)

tychónica. En la versión de Tycho Brahe, la esfera más externa de


las estrellas daba una vuelta cada veinticuatro horas dando origen
al movimiento diurno. En otras teorías tychónicas la esfera estelar
está fija y la Tierra gira diariamente sobre su eje permaneciendo
en el centro de la esfera.
ARMILLE AEQUATORIAE MÁXIME
SESQUIALTERO CONSTANTES CIRCULO

Sextante de Tycho Brahe para medir la posición de los planetas. (Biblioteca Niels
Bohr AIP.)

El modelo tychónico llegó a ser aceptado por la mayoría de


los astrónomos de su tiempo porque preservaba algo de la unidad
intelectual de la teoría heliocéntrica así como la relativa facilidad
de los cálculos que permitía el modelo copernicano. Además, la
teoría de Brahe soslayaba todas las dificultades inherentes al
movimiento de la Tierra. Aunque fuera sustituida más tarde era
realmente notable porque representaba el reconocimiento de los
fallos del modelo ptolomeico. Brahe no elaboró completamente su
teoría. En su lecho de muerte encargó a su ayudante y sucesor la
labor de llevar a cabo los cálculos necesarios para ello. Este
hombre era Johannes Kepler.
Nuevos descubrimientos y discusiones

Copérnico y Brahe partieron de una vieja y continuada tradición


astronómica: la observación y el cálculo de las posiciones de los
cuerpo celestes. A finales del siglo xvi, no obstante, se empezó a
conceder atención a una nueva forma de buscar información y
descubrir.
En 1572 se observó en Europa Occidental una estrella brillan-
tísima por primera vez. Ésta resplandeció y se hizo más brillante
que ninguna otra, llegando a lucir más que los planetas y después
de unos meses se desvaneció. Las cuidadosas observaciones de
Brahe y otros astrónomos establecieron que estaba tan alejada y
era tan fija como las demás estrellas. En 1604 se observó otro
fenómeno parecido. Las estrellas así se denominan novas y no
constituyen sucesos raros. En 1576 se observó que un corneta
atravesaba los cielos más allá de la esfera de la Luna y en una
dirección tal que tendría que haber penetrado a través de diferentes
esferas planetarias.
Los astrónomos griegos habían registrado fenómenos similares
pero habían creído que tenían lugar en la región sublunar. Las
observaciones de 1572, 1576 y 1604 eran especialmente signifi-
cativas y ponían claramente de manifiesto que tales acontecimientos
habían ocurrido en el mundo astronómico o celeste. Esto indicaba
que incluso los cielos cambiaban. Y si podían cambiar se debía a
que no eran perfectos ¿Por qué cambiarían? Según la física
aristotélica el movimiento circular estaba reservado a los cielos
debido a su perfección, mientras que la Tierra no podía estar en
movimiento circular a causa de su imperfección. Las nuevas
observaciones indicaban, sin embargo, que los cielos no eran
perfectos y por tanto no había razón para que el movimiento de la
Tierra tuviera que ser diferente al de los planetas.
La observación de novas y cometas fue el comienzo de un
gran número de descubrimientos nuevos y cualitativamente dife-
rentes. El telescopio se inventó en 1608. Inicialmente se pensó
usarlo con fines militares pero en 1609 el inglés Thomas Harriot
lo empleó para examinar la superficie de la Luna. Un poco
después, ese mismo año, Galileo Galilei, catedrático de Matemáticas
de la Universidad de Padua, Italia, construyó un telescopio muy
perfeccionado para examinar los cielos y en sus manos se convirtió
en el inicio de muchos descubrimientos significativos. Estas obser-
vaciones fueron descritas en su libro Sidereus Nunetus (
Mensajero de las estrellas) publicado en 1610. r
Galileo encontró que la superficie lunar se p arecia mucho a la
terrestre, con montañas y cráteres cuya altura y profundidad
pudo, estimar y que la superficie del Sol presentaba
nchás qúe evolucionaban y desaparecían a lo largo del tiempo.
Estos descubrimientos indicaban, en contra de lo que enseñaba
la filosofía aristotélica, que no todos los objetos celestes eran
«perfectos». También encontró que en el Universo existían centros
de rotación distintos a la Tierra: el planeta Júpiter tenía lunas y el
Sol giraba sobre su eje. Fue capaz de observar que el planeta Venus
presentaba fases como las de la Luna, pudiendo estar iluminado
completamente como la Luna llena o sólo parcialmente como la Luna
creciente. Cuando estaba completamente iluminado se hallaba más
alejado de la Tierra que cuando aparecía creciendo. Ello sólo
podía explicarse si se admitía que Venus giraba en torno al Sol.
Galileo también descubrió que en el cielo había muchas más
estrellas de lo que se había creído anteriormente y que no podían
percibirse a simple vista a causa de su enorme distancia. Además,
puesto que su telescopio aproximaba los objetos unas treinta veces y
las estrellas seguían viéndose como meros puntos luminosos,
debían estar mucho más alejadas de lo que afirmaba Copérnico.
Como ya se ha indicado anteriormente, cuando se observan con el
telescopio, las estrellas presentan un diámetro aparente más pequeño
que observadas a simple vista dada la gran abertura que tiene el
instrumento. Todos estos descubrimientos suponían la refutación
experimental de muchas de las objeciones que se habían esgrimido
en contra de la teoría heliocéntrica.
Anteriormente Galileo había comenzado a desarrollar nuevos
principios físicos, que se oponían a los propuestos por Aristóteles,
con los que se podían contrarrestar la oposición científica al
sistema copernicano (véase el capítulo 3). Galileo era una persona
vehemente, polemista y publicista hábil, que participó en los
debates científicos de su tiempo. Era tan devastador con sus
argumentaciones verbales y escritas que se granjeó muchos ene-
migos y amigos.
Llegó a ser tan grande el cisma religioso surgido en 1616
entre la Reforma y la Contrarreforma que disminuyó de forma
significativa la tolerancia de las desviaciones de las doctrinas
establecidas. En ese año fue advertido de que no abogara
públicamente por el sistema copernicano. En 1623 llegó a Papa el
cardenal Barberini, un mecenas de las Artes y las Ciencias.
Sintiendo que venían tiempos más favorables, Galileo pensó que
podía emprender una defensa más enérgica del sistema copernicano.
Finalmente escribió Diálogo sobre los dos sistemas principales del
mundo, un libro dirigido al público lego pero culto. Su estilo era a
modo de diálogo socrático en el que participaban tres intérpretes:
un defensor del sistema ptolomeico, otro del sistema copernicano
y un moderador inteligente. Al final del libro el defensor del
sistema de Copérnico reconoce repentinamente la validez del
sistema ptolomeico, aunque era bastante evidente para el lector
que durante el desarrollo se había demostrado que el correcto era
el copernicano. Además, se describía como un simplón al defensor
del sistema de Ptolomeo.
Galileo se las ingenió para que los censores eclesiásticos
aprobaran el manuscrito y el libro se imprimió en 1632. Desgra-
ciadamente tenía muchos enemigos que ocupaban puestos impor-
tantes y apuntaron con destreza las verdaderas intenciones y
consecuencias del libro, afirmándose que Galileo pretendía ridicu-
lizar a los prelados más destacados de la Iglesia. Unos meses
después llegó a prohibirse, decretándose que se destruyeran todas
las copias del mismo. Galileo fue llamado a declarar ante la
Inquisición y bajo amenaza de tortura se le obligó a retractarse de
su defensa de la doctrina copernicana. Probablemente debido a su
avanzada edad, a su salud mermada y a su sumisión a la voluntad
de la Inquisición, el castigo fue relativamente ligero: arresto
domiciliario y jubilación. Siendo cuidado por su hija ilegítima,
murió nueve años después, en 1642, un poco antes de cumplir los
sesenta y ocho años. Aunque no defendió activamente más el
sistema copernicano, durante sus años de retiro se dedicó a
escribir otro libro, Discursos sobre dos nuevas ciencias, en el que
detalla los resultados de sus investigaciones en Mecánica y Óptica.
Se publicó en Holanda, donde el clima intelectual era más hospi-
talario que el que había en Italia.
La teoría heliocéntrica de Kepler

Tanto Tycho Brahe como Galileo emplearon un abordaje


relativamente moderno de los problemas científicos. Brahe insistió
en la importancia de registrar datos de forma sistemática, extensa
y precisa. Galileo no se contentó simplemente con realizar obser-
vaciones, sino que reconoció la necesidad de modificar las condi-
ciones experimentales con objeto de poder eliminar los factores
extraños. Ambos científicos eran muy racionales y lógicos a la
hora de enfocar su trabajo. Por el contrario, Copérnico y, sobre
todo, Kepler (del que se hablará más adelante) se interesaban por
las implicaciones filosóficas de sus investigaciones. Kepler conocía
muy bien que los antiguos pitagóricos habían concedido mucha
importancia a la búsqueda de relaciones numéricas sencillas en los
fenómenos. Los pitagóricos se habían dado cuenta de que los
acordes musicales eran mucho más agradables si los tonos de las
notas componentes eran armónicos, esto es, múltiplos sencillos
unos de otros. También descubrieron que los tonos de una cuerda
tensa estaban relacionados con la longitud de la misma y que se
obtenían armónicos más altos modificando la longitud de la
cuerda en fracciones sencillas. Afirmaban que cada una de las
esferas planetarias y la esfera de las estrellas emitían su propio
sonido musical característico. La mayoría de los seres humanos
jamás habían advertido dichos sonidos, pero se debía a que los
estaban oyendo desde el nacimiento. De acuerdo con alguna de
las leyes de los pitagóricos se suponía que los intervalos espaciales
interesféricos eran proporcionales a los intervalos musicales.
Johannes Kepler nació veintiocho años después de que Copér-
nico publicara su gran obra. Le gustaban hasta el delirio las espe-
culaciones que habían hecho los pitagóricos acerca de la naturaleza
de los cielos. Su personalidad se vio afectada, sin lugar a dudas,
por una niñez desdichada, una salud relativamente escasa y por la
falta de amigos en su juventud. De adolescente mostró genio ma-
temático y siendo joven obtuvo cargos como profesor de Matemá-
ticas. Pronto se reconoció su habilidad matemática, perdonándosele
con frecuencia los defectos que tenía como profesor y los problemas
derivados de su personalidad. El hecho de ser un profesor incom-
petente y que no tuviera muchos alumnos le permitía disponer de
tiempo para el estudio y las especulaciones astronómicas.
Johannes Kepter (Biblioteca Niels Bohr AIP.)

Kepler se convenció de la validez esencial de la teoría heliocéntri-


ca y consideró a la Tierra como uno de los seis planetas que
giraban en torno al Sol. A causa de la fascinación que sentía por
los números se maravilló de que hubiera precisamente seis planetas,
de que estuvieran separados como lo estaban y de que se movieran
con la velocidad a la que lo hacían. Buscando una relación con la
Geometría recordó que los matemáticos griegos habían demostrado
que sólo había cinco sólidos «perfectos», además de la esfera,
llamados sólidos pitagóricos o platónicos.
Un sólido perfecto es una figura poliédrica de caras iguales.
Cada una de ellas es, a su vez, una figura perfecta (Fig. 2.8). Un
cubo tiene seis caras cuadradas, un tetraedro tiene cuatro caras
triángulos equiláteros, las ocho caras del octaedro son también
triángulos equiláteros, el dodecaedro tiene doce caras pentagonales
y las veinte caras del icosaedro son triángulos equiláteros. Kepler
propuso que las seis esferas que portaban los planetas formaban
parte de un conjunto a modo de nido en el que alternaban los
Figura 2.8.—Los sólidos platónicos. De izquierda a derecha son: tetraedro, cubo
(hexaedro), octaedro, dodecaedro e icosaedro.

sólidos huecos con las esferas. Siendo esferas los sólidos más
interno y externo, sólo puede haber seis esferas que se correspondan
con el número de planetas conocidos. El tamaño de los cinco
espacios interesféricos puede determinarse eligiendo cuidadosamente
un orden concreto para los cinco sólidos platónicos, como se
representa en la figura 2.9.
La esfera más grande es la de Saturno. Inscrito en su superficie
interna se encuentra el cubo. En su interior se halla la esfera de
Júpiter con el tamaño justo para que su superficie externa toque al
cubo en el punto medio de sus caras. Inscrito en la esfera de
Júpiter hay un tetraedro que contiene la esfera de Marte. Dentro
de ella se encuentra el dodecaedro con la esfera de la Tierra y a
continuación el icosaedro con la esfera de Venus; finalmente el
octaedro con la esfera más pequeña correspondiente a la de
Mercurio. Cuando se disponen de esta forma, la razón de las
distancias de las esferas se aproxima bastante bien a la razón de
las distancias medias de los planetas al Sol. La Tierra presenta en
este esquema una característica singular: su esfera descansa en los
dos sólidos platónicos que tienen el mayor número de caras, el
dodecaedro y el icosaedro.
Kepler sabía desde luego que las esferas planetarias no eran
homocéntricas con el Sol, y Copérnico había hecho lo necesario
para introducir excentros en sus cálculos. Por consiguiente, Kepler
hizo unas cáscaras esféricas lo suficientemente gruesas para que
pudieran acomodarse las desviaciones del movimiento circular
perfecto que experimentaban las órbitas alrededor del Sol. Aunque
los resultados no se adaptaban muy bien a los datos, eran lo
suficientemente aproximados para que Kepler prosiguiera con la
idea. Publicó este esquema en Mysterium Cosmographicum (El
misterio del cosmos), llegando a ser muy reconocido y proporcio-
Figura 2.9.—Conjunto a modo de nido de esferas y sólidos platónicos para explicar la
separación y orden de los planetas. El grabado inferior representa las esferas de Marte,
la Tierra, Venus y Mercurio de forma más detallada. Adviértase que el Sol se halla en
el centro. (Ilustraciones de Mysterium Cosmographicum de Kepler.)
nándole su reputación de matemático y astrónomo capaz y creativo.
Desde que se conoce que existen nueve planetas, por lo menos, no
es válido el esquema de Kepler, aunque uno puede preguntarse
por las razones de la separación de los planetas y si existe alguna
regla que determine su número. Otro esquema considerado válido
en un tiempo es el descrito por la ley de Bode o regla de Titius-
Bode. Una discusión de esta cuestión se sale de los límites del
libro. Un informe fascinante de la misma así como los criterios
que determinan la utilidad de dicha regla pueden encontrarse en
las páginas 156-160 de la obra de Gerald Holton y Stephen Brush
citada en la Bibliografía.
Kepler no se contentó con proponer un esquema esotérico de la
ordenación de los planetas aunque se sintiera satisfecho de que
funcionara aproximadamente. Pensaba que las teorías debían
concordar cuantitativamente con los datos disponibles. Conocía,
corno lo sabían todos los astrónomos europeos, que Tycho Brahe
había obtenido una enorme cantidad de datos bastante precisos.
Éste estaba enterado, a su vez, de la capacidad matemática de
Kepler y en 1600 llegó a convertirse en ayudante de Brahe, que
por entonces se había trasladado a los alrededores de Praga y era
matemático de la corte de Rodolfo II, emperador del Sacro
Imperio Romano (grandilocuente nombre con el que se conocía al
Imperio Austrohúngaro). Brahe había sido expulsado de su obser-
vatorio danés porque los residentes de la isla en la que se hallaba
se habían quejado al rey de Dinamarca (el hijo de su mecenas) de
su forma tirana de dar órdenes. Aunque Kepler y Brahe no
siempre se llevaron bien, aquél se sentía fuertemente atraído por
los datos de éste, que murió dieciocho meses más tarde, en 1601,
a consecuencia de un atracón, haciéndose cargo Kepler de la
custodia de los datos y en 1602 fue nombrado matemático de la
corte de Rodolfo II.
Brahe había instado a Kepler a que refinara su teoría de
compromiso para adecuarla a los datos, pero no había tenido
éxito. Volvió a la teoría heliocéntrica, no compartiendo la objeción
que Copérnico había puesto al empleo del ecuante, incluyéndolo
en los cálculos, mejorando ciertas suposiciones de aquél y hacién-
dolas más consistentes con una verdadera teoría heliocéntrica. Se
centró fundamentalmente en los cálculos de la órbita de Marte por
ser la más difícil de reconciliar con los datos. El mejor acuerdo
que pudo conseguir era en promedio de menos de diez minutos de
arco. Como Kepler estaba seguro de que los datos de Brahe eran
muy precisos, creía que para que la teoría fuera satisfactoria debía
estar de acuerdo con ellos en menos de dos minutos de arco.
Sentía que la clave de todo el problema radicaba en esa discrepancia
de ocho minutos. De forma gradual y laboriosa fue construyendo
durante veinte años una nueva teoría, interrumpiendo el trabajo en
diversas ocasiones con motivo de la muerte de su primera esposa y
un pleito con la justicia a causa de que su madre había sido
acusada de brujería.
Después de analizar los datos del planeta Marte perdió la
esperanza de encontrar la combinación correcta entre el excentro,
la deferente, el epiciclo y el ecuante que le permitiera describir la
órbita empleando un movimiento circular. Finalmente decidió
abandonar la forma circular de la misma diciendo que si Dios no
hubiera deseado hacer una órbita circular, dicha órbita no sería
obligatoria. Unos pocos años más tarde, en 1609, hizo pública una
solución parcial del problema con sus dos primeras leyes del
movimiento planetario. Resulta interesante añadir que Kepler
descubrió su segunda ley, que trata de la velocidad de un planeta
al describir su órbita, antes de descubrir la forma exacta de ésta,
dada por su primera ley. Algo después, en 1619, anunció el resto
de la solución, su tercera ley, que relaciona el tamaño de la órbita
planetaria con la velocidad del planeta.
La leyes de Kepler sobre el movimiento de los planetas ex-
presadas en términos actuales son:
1. Los planetas describen órbitas elípticas alrededor del Sol
estando éste en uno de los focos.

Una circunferencia es una línea que rodea a un punto especial


llamado centro, de forma que la distancia de éste a cualquier
punto de la línea no varía. Una elipse es una línea que rodea a dos
puntos especiales llamados focos, de manera que la suma de las
distancias de éstos a cualquier punto de la línea es constante.
Obsérvese en la figura 2.10a que la suma de los pares de líneas A
y B, CyDoEyF es siempre la misma.
II. La línea que une el Sol y uno de los planetas (el radiovector)
barre áreas iguales en tiempos iguales a medida que el
planeta describe la órbita.

El planeta tarda el mismo tiempo en recorrer los arcos de la


elipse de la figura 2.10b que limitan las dos zonas sombreadas
porque éstas tienen la misma área. Cuando un planeta está
próximo al Sol viaja más deprisa que cuando está alejado de él.

Figura 2.10.—Orbitas planetarias elípticas. a) Construcción de una elipse siendo S y P


los dos focos. La suma de las distancias desde los focos a cualquier punto de la línea
+ B, C+ D, E + F) es siempre la misma. b) Primera y segunda leyes de Kepler. El
planeta tarda el mismo tiempo en recorrer los arcos elípticos de las dos zonas
sombreadas si sus áreas son iguales.

III. El cuadrado del período de revolución (el tiempo que tarda


en describir una órbita completa) de un planeta alrededor
del Sol es proporcional al cubo de su distancia media al
mismo.
Si T representa el período y D la distancia, esta ley puede
expresarse matemáticamente de la siguiente manera: T2/D3 =
= constante. La tercera ley se ilustra en la tabla 2.1, en la que el
período T de los planetas viene dado en años y la distancia media
D en unidades astronómicas (una UA es aproximadamente ciento
cuarenta y nueve millones de kilómetros, es decir, la distancia del
Sol a la Tierra). En estas unidades T2/D3 = 1 y T2 = D'.
Kepler completó con estas tres leyes el programa de Copérnico.
Éste situó al Sol en el centro del sistema planetario y Kepler
descartó la idea de que los cuerpos celestes siguieran un movimiento
circular. Si se usaban órbitas elípticas se preservaba la verdadera
belleza y sencillez de la teoría heliocéntrica, en excelente acuerdo
con los datos, y no eran necesarios dispositivos como el excentro,
el epiciclo o el ecuante. El hecho de que el foco de una elipse no
se halle en el centro proporciona la excentricidad adecuada. La
segunda ley de Kepler tiene la misma función que un ecuante,
dando cuenta de la diferente velocidad del planeta al describir la
órbita.
TABLA 2.1
Datos que ilustran la tercera ley de Kepler del movimiento
de los planetas del Sistema Solar

Planeta T D T2
Mercurio 0,24 0,39 0,058 0,059
Venus 0,62 0,72 0,38 0,37
Tierra 1,00 1,00 1,00 1,00
Marte 1,88 1,53 3,53 3,58
Júpiter 11,9 5,21 142 141
Saturno 29,5 9,55 870 871

Kepler fue más lejos e indicó que el Sol era el primer motor o
agente causal que denominó anima motrix. Situó la causa del
movimiento en el centro de la acción en lugar de en la periferia
como había hecho Aristóteles. Kepler tuvo la primera idea acerca
de las fuerzas gravitatorias que ejercía el Sol pero no las relacionó
con las órbitas planetarias. Afirmó que la influencia del Sol se
ejercía a través de una combinación de sus rayos con el magnetis-
mo natural del planeta. Los motivos de esta creencia hay que
buscarlos en algunas demostraciones inteligentes de los efectos
magnéticos que había realizado el médico y físico inglés William
Gilbert.
La traducción del título completo del libro que publicó en
1609 sobre sus dos primeras leyes es Nueva astronomía basada en
la causación, o física del firmamento deducida de la investigación
del movimiento de la estrella Marte y fundada en las observaciones
del noble Tycho Brahe (frecuentemente se hace referencia de ella
como Nueva Astronomía). En realidad había terminado un borrador
del libro en 1605 pero tardó cuatro años en publicarlo a causa de
las disputas con los herederos de Tycho Brahe sobre la propiedad
de los datos.
Su tercera ley, llamada ley armónica, fue descrita en su libro
La armonía del mundo, publicado cuando ocupaba el cargo de
matemático provincial de la ciudad de Linz, Austria, un puesto
menos importante del que había ocupado anteriormente (el rey
Rodolfo II, su antiguo mecenas, había sido obligado a abdicar del
trono y Kepler perdió su puesto). Kepler retorna en este libro al
misticismo pitagórico de sus primeros días, buscando las relaciones
armónicas en las distancias de los planetas al Sol. En lugar de
encontrar una relación entre las «notas musicales» de las esferas
celestes y su tamaño, encontró otra entre la velocidad de los
planetas (es decir, sus períodos), que él asociaba de alguna forma
con las notas musicales y la armonía, y el tamaño de sus órbitas.
Las relaciones armónicas eran apoyadas con cálculos sorprenden-
temente exactos.
Kepler fue la persona adecuada para descubrir las leyes del
movimiento de los planetas en el momento oportuno. Ante todo, y
quizá lo más significativo, era un completo místico pitagórico; fue
también un matemático extremadamente capaz que creía que el
Universo estaba repleto de armonías matemáticas. Debido a que
estaba muy interesado por las figuras y formas, fue relativamente
sencillo para él considerar las órbitas elípticas una vez que se
hubo dado cuenta de que las construcciones circulares tenían que
estar equivocadas. Finalmente, Kepler había sido ayudante de
Brahe, tuvo acceso a sus mediciones y sabía lo precisas que eran.
Ningún otro habría tenido la capacidad o el interés de realizar los
cálculos requeridos para descubrir las leyes del movimiento plane-
tario y ningún otro hubiera considerado significativa una discre-
pancia de ocho minutos de arco.
Kepler envió copias de su trabajo a muchos de los astrónomos
más conocidos de su tiempo con los que mantuvo una copiosa
correspondencia. En general se puede decir que, aunque era muy
respetado, durante mucho tiempo permaneció sin reconocérsele el
significado e implicaciones de sus resultados, excepción hecha de
unos pocos astrónomos y filósofos ingleses. La mayoría de los
astrónomos habían llegado a acostumbrarse de la consistencia
relativamente pobre entre teoría y datos y estaban tan imbuidos de
la idea de movimiento circular que no llegaron a impresionarse
mucho de los resultados de Kepler.
Galileo ignoró completamente su trabajo a pesar de haber
mantenido correspondencia con él y de haberse apresurado a
solicitar la aprobación de Kepler sobre sus propias observaciones
telescópicas. No está claro si Galileo estaba desconcertado por el
misticismo pitagórico de Kepler o si se debía a que estaba
convencido de que el movimiento circular era el movimiento
natural de la Tierra y los demás planetas y no podía aceptar
cualquier otra explicación. Lo cierto es, no obstante, que Galileo
no emprendió sus estudios telescópicos hasta después de que
Kepler hubiera publicado su Nueva Astronomía, ni publicó los
Diálogos hasta 1632, dos años después de la muerte de Kepler.
Una vez que Kepler calculara un nuevo conjunto de tablas
astronómicas, llamadas Tablas Rudolfinas, y las publicara en
1627, fue posible emplear sus ideas y los datos de Tycho Brahe
para construir calendarios mucho más exactos que los habidos
hasta entonces. En menos de diez años Tycho Brahe había encon-
trado discrepancias en las tablas obtenidas con la teoría de
Copérnico, mientras que las Tablas Rudolfinas estuvieron en uso
durante un siglo. Durante este tiempo el trabajo de Kepler se fue
aceptando gradualmente pero no fue hasta setenta años después,
cuando Isaac Newton publicó sus leyes del movimiento y su ley de
la gravitación universal para explicar el fundamento de las leyes
de Kepler, cuando se llegaron a aceptar completamente.
El rumbo de las revoluciones científicas

La sustitución de la teoría geocéntrica del Universo por la


heliocéntrica se denomina frecuentemente revolución copernicana.
Consiste en el arquetipo de revolución científica con la que se
comparan todas las demás. Ninguna otra puede equipararse con
ella desde el punto de vista de su influencia en la manera de
pensar, por lo menos en la Civilización Occidental. La única que
se le aproxima en este sentido es la revolución darwinista relacio-
nada con el desarrollo de la Teoría de la Evolución biológica.
Se elige a menudo la revolución copernicana para ilustrar el
conflicto entre Ciencia y Religión, aunque sus proponentes —Co-
pérnico, Galileo y Kepler— fueran devotos. Dentro de la Iglesia,
por otra parte, había muchos que no seguían una interpretación
estrictamente literal del dogma religioso. El mayor temor de los
revolucionarios, por lo menos inicialmente, no consistía en ser
censurados por las autoridades eclesiásticas, sino ser ridiculizados
por sus colegas científicos. ¿Cómo podían desafiar el cuerpo de
conocimientos científicos y las creencias establecidas?
Además, la revolución no se llevó a efecto en unas cuantas
horas. El tiempo transcurrido desde los estudios de Copérnico
hasta la publicación de Newton de sus investigaciones acerca de
la gravedad fue de ciento cincuenta años. Las semillas de la
revolución habían sido sembradas por Filolao, un pitagórico, dos
mil años antes de Copérnico. Cuando las teorías antiguas empiezan
a acumular progresivamente hechos anómalos e inexplicables, el
peso de las modificaciones necesarias se hace simplemente aplas-
tante y acaba destruyéndolas. En realidad esas antiguas teorías
han tenido un éxito fenomenal. Solamente unos cuantos cuerpos
del total que pueblan los cielos, los planetas, causaron las principales
dificultades a la teoría establecida. La revolución tuvo lugar gra-
cias a las mejoras cuantitativas de los datos y al reconocimiento
de sutiles discrepancias, en lugar de importantes, no sólo de las
cifras, sino también de la forma de interpretarlas. También jugó
un gran papel el desarrollo de nuevas tecnologías e instrumentos
capaces de producir datos nuevos y más fidedignos. En sí mismo
los nuevos conceptos no pudieron dar cuenta inicialmente de to-
das las medidas y sus defensores habían de perseverar de forma
casi irracional ante las severas críticas. Cuando surgía una nueva
teoría esperada que superaba un gran número de objeciones, algu-
nos de los que defendían la antigua no terminaba convenciéndose.
No todas las ideas científicas revolucionarias tienen éxito o
merecen tenerlo. Si no explican los hechos existentes o los que
aparezcan en el futuro o si no pueden modificarse, desarrollarse o
evolucionar a la vista de hechos nuevos, son de poco valor. La
teoría heliocéntrica tuvo éxito porque era adaptable. Kepler, Co-
pérnico y otros fueron capaces de incorporar al esquema conceptos
tales como excentros y epiciclos y, finalmente, una órbita de tipo
distinto, la elíptica, sin destruir la idea esencial de manera que
permitiera acomodar una amplia variedad de hechos experimen-
tales.
3
Mecánica newtoniana
y causalidad

El Universo es un mecanismo guiado por leyes


Isaac Newton. (Observatorio
Yerkes.
Universidad de Chicago)

El desarrollo de la rama de la Física llamada Mecánica fue el


que finalmente explicó las leyes del movimiento de los planetas
discutidas en el capítulo 2. La Ciencia de la Mecánica se interesa
por la descripción y causas del movimiento de los objetos materiales,
explicando no sólo el movimiento de los cuerpos celestes sino
también el de los terrestres, como graves y proyectiles. La Mecánica
está relacionada de alguna forma con todos los demás campos de
la Física y frecuentemente se la denomina el espinazo de la
misma. Después de Isaac Newton parecía que las leyes mecánicas
podrían explicar prácticamente todos los fenómenos físicos funda-
mentales del Universo. Su éxito fue proclamado ampliamente y
contribuyó de forma significativa al desarrollo de la Edad de la
Razón, una época en que muchos estudiosos creían que todas las
ciencias, incluyendo las sociales y las económicas, podían explicarse
en función de unos cuantos principios básicos.

La física aristotélica

Los primeros autores que contribuyeron a la Ciencia de la


Mecánica fueron los filósofos griegos, sobre todo Aristóteles. Los
griegos heredaron distintas líneas de pensamiento e ideas acerca
de los fenómenos naturales de civilizaciones anteriores, particular-
mente de las culturas egipcia y mesopotámica. Aunque había lle-
gado a acumularse una gran cantidad de conocimientos (muchísimo
más de lo que piensa la mayoría de la gente) se había hecho muy
poco para comprender esa información. Las distintas religiones
eran generalmente las que suministraban explicaciones y no un
cuerpo de argumentos racionales que partieran de unos pocos
supuestos básicos. Por ejemplo, los primitivos egipcios creían que
el Sol viajaba por el cielo porque iba subido al carro del dios Sol.
Es evidente que una explicación así no requiere un argumento
lógico que la fundamente.
Los primitivos griegos comenzaron a sustituir las explicaciones
religiosas por razonamientos lógicos basados en teorías simples
fundamentales. Éstas no fueron siempre correctas pero contribuían
de forma importante al desarrollo de una explicación de los
fenómenos físicos. Su objetivo principal fue expresado claramente
por Platón en la Alegoría de la Caverna, discutida en el capítulo
anterior. La meta de la Ciencia (o de la Filosofía Natural, como se
llamaba en épocas pasadas) es «explicar» las apariencias, esto es,
explicar lo observado en función de principios básicos.
Probablemente fue Aristóteles (384-322 a.C.) el primer autor
que intentó desarrollar seriamente una teoría física unificada. Fue
alumno de Platón y maestro de Alejandro Magno. Por lo que se
sabe, Aristóteles fue el primer filósofo que estableció un amplio
sistema basado en una serie de supuestos a partir de los cuales
pudieran explicarse racionalmente todos los fenómenos físicos
conocidos. En el capítulo 2 se ofreció una introducción a dicho
sistema en relación con el movimiento de los cuerpos celestes.
Aristóteles deseaba explicar la naturaleza básica y las propiedades
de todos los cuerpos materiales conocidos, propiedades como
peso, dureza y movimiento. En realidad sus descripciones del
universo físico estaban presididas por la materia. Partió de unos
cuantos principios básicos y procedió a intentar explicar las
observaciones más complejas en función de aquéllos.
Creía que toda la materia se componía de distintas proporciones de
cuatro sustancias primas: tierra, agua, aire y fuego y que los
cuerpos de los cielos se componían de una sustancia celeste
llamada éter, inexistente en los objetos terrestres. Los objetos más
pesados tenían tierra y agua y los más ligeros incluían cantidades
significativas de aire y fuego. Todas las características distintivas
de las sustancias conocidas se explicaban por distintas combina-
ciones de las cuatro sustancias principales. Además, lo que es más
importante en relación con el desarrollo de la Mecánica, Aristóteles
pensaba que el movimiento de los objetos podía explicarse en
razón de la naturaleza básica de cada una de las sutancias primas.
Las cuatro clases fundamentales de movimiento que podían
observarse en el universo físico eran: 1) alteración, 2) movimien-
to local natural, 3) movimiento horizontal o violento y 4) movi-
miento celeste. La alteración (o cambio) no se considera en abso-
luto como movimiento según la definición moderna. La caracte-
rística básica del movimiento es para Aristóteles el hecho de que
el sistema físico en cuestión llegue a cambiar y, por tanto, el
enmohecimiento del hierro, los cambios de color de las hojas o la
pérdida de los colores, eran considerados por él clases de movi-
miento. Dichos cambios se consideran actualmente procesos quí-
micos. En la actualidad, movimiento significa desplazamiento
físico de un objeto y la herrumbre o la decoloración sólo implican
desplazamientos a nivel submicroscópico. El conocimiento de este
tipo de «movimiento» se sale de los límites de este libro aunque
más adelante se discutirán algunos aspectos de los movimientos
moleculares y atómicos.
La segunda categoría de movimiento según Aristóteles, el
movimiento local natural, constituye el núcleo de sus ideas básicas
en relación con la naturaleza del mismo. El movimiento natural
era para él el que iba «arriba» y «abajo». (Los griegos creían que
la Tierra era esférica y que abajo era hacia el centro de la misma,
mientras que arriba significaba alejarse directamente de él.) Aris-
tóteles sabía que la mayoría de los objetos a los que simplemente
no se les impidiera el movimiento caían hacia abajo aunque al-
gunos (como el fuego, el humo y los gases calientes) subían arriba.
Consideró que tales movimientos naturales resultaban de la natu-
raleza dominante de los objetos, ya que no se requería empujarlos
o tirar de ellos. Se afirmaba que la tierra (roca, arena y similares)
deseaba o tendía a moverse de «forma natural» hacia el centro de
la Tierra, el lugar de reposo natural de todo el material terrestre.
Lo mismo se pensaba del agua. Sólo en el centro de la Tierra la
materia terrestre no continuaba moviéndose de forma natural.
Aristóteles creía que las sustancias primas fuego o aire subirían
de forma natural, lo que se explicaba en razón de sus respectivas
naturalezas: el lugar natural de reposo para ellos se hallaba en los
Busto de Aristóteles. (Oficina de Referencias Artísticas.

cielos. Al liberarse fuego o aire subirían de «forma natural».


Aristóteles consideraba que todo movimiento «natural» se debía a
/que los objetos se afanaban por ser más «perfectos». Creía que la
tierra y el agua se perfeccionaban cuando se dirigían hacia abajo
buscando su lugar de reposo natural y que el fuego y el aire
hacían lo mismo moviéndose hacia arriba.
Aristóteles no se detuvo en esta explicación de la caída o
ascenso de los objetos al ser liberados, sino que fue más lejos e
intentó comprender cómo caían diferentes tipos de objetos unos
en relación a otros. Estudió la caída de objetos pesados y ligeros
en distintos medios, como aceite y agua y llegó a la conclusión de
que en los medios más densos los objetos caen más despacio y que
los objetos pesados caen relativamente más deprisa que los ligeros,
sobre todo en los medios densos. Se dio cuenta de que en los
medios menos densos (actualmente se diría que presentan menor
resistencia), como el aire, los objetos pesados y ligeros caen casi a
la misma velocidad y predijo correctamente que todos los cuerpos
caerían a la misma velocidad en el vacío, aunque también aseguró
que ésta sería infinitamente grande. Un objeto que se moviera a
velocidad infinita significaría que podía estar en dos lugares a la
vez (no debiendo transcurrir ningún tiempo en absoluto durante el
movimiento de un sitio a otro) concluyendo que ¡sería absurdo!
Por consiguiente, era imposible la existencia de un vacío completo (
«La naturaleza aborrece el vacío»). Como se verá, esta última
conclusión sería posteriormente el centro de una larga controversia y
causó algunas dificultades al progreso del pensamiento científico.
Aunque no todas las conclusiones que sacara Aristóteles acerca
de la naturaleza de los objetos que caen fueran correctas, es
importante comprender que sus métodos constituyeron una contri-
bución tan importante como los resultados. Aristóteles confiaba
grandemente en la observación detenida y construyó teorías o
hipótesis que explicaran lo que veía. Refinaba sus observaciones y
teorías hasta llegar a comprender lo que ocurría y por qué.
La tercera clase de movimiento aristotélico era el horizontal,
que se subdivide en dos tipos básicos: 1) el de los objetos que son
continuamente empujados o que se tira de ellos y 2) el lanzamiento o
disparo de objetos (proyectiles). Consideró que el movimiento
horizontal no era natural, es decir, no surgía de la naturaleza del
objeto y no se daba espontáneamente al ser liberado éste. El
primer tipo, que incluye ejemplos como el tiro de un carro, el
empuje de un bloque o el caminar de una persona, no presenta
ninguna dificultad, ya que la causa del movimiento parece residir
en la persona o animal que tira, empuja o camina.
El segundo tipo de movimiento horizontal, el de los proyectiles,
era más difícil de comprender para Aristóteles y presenta una de
las pocas cuestiones relacionadas con los fenómenos físicos en la
que parece que no estaba seguro de sus explicaciones. La dificultad
para él no estaba en qué es lo que causaba que el proyectil
empezara a moverse (que era tan evidente como la causa del
movimiento de empuje o atracción), sino en lo que matenía en
movimiento al proyectil después de haberse arrojado o disparado.
Se preguntó simplemente: «¿Por qué se mantiene en movimiento
un proyectil?» Aunque se trata de una cuestión obvia e importante,
se verá más adelante que existe otra más sutil y mejor que hacerse
en relación al movimiento de los proyectiles.
Aristóteles llegó finalmente a explicar el movimiento de éstos,
aunque uno piensa que no estaba completamente convencido de lo
que afirmaba. Sugirió que el aire desplazado por el frente del
proyectil volvía y se precitaba rápidamente para llenar el vacío
temporal creado por el movimiento hacia delante del proyectil,
siendo este aire intruso o invasor el que lo empujaba. El acto de
arrojar o disparar el objeto desencadena este proceso que prosigue
por sí mismo una vez empezado. Todo el proceso llegó a conocerse
como antiperistasis y constituyó la primera parte de la física
aristotélica que se puso en entredicho seriamente. El propio
Aristóteles se preguntó si éste era realmente el análisis correcto y
también sugirió que quizá el movimiento del proyectil continuara
debido a que se ponía en movimiento una columna de aire a lo
largo y al lado del objeto durante el acto del disparo. Esta
columna de aire «arrastraría» con ella al proyectil. No era común
en Aristóteles esta ambigüedad y subraya las dudas que tenía
acerca de la comprensión del movimiento de los proyectiles.
La última clase de movimiento era el de los planetas o celeste.
Pensaba que los objetos de los cielos eran completamente distintos a
los terrestres, ya que se trataba de cuerpos perfectos sin masa
formados de éter celeste. Aceptó la idea pitagórica de que la única
figura verdaderamente perfecta era la circunferencia (o la esfera,
si se habla de tres dimensiones) y razonó que los objetos perfectos
eran esferas que se movían en órbitas circulares perfectas (véase
el capítulo 2). Recuérdese que Aristóteles consideraba que los '
objetos celestes y sus movimientos obedecían a leyes distintas que
los objetos terrestres e imperfectos. Creía que la Tierra se caracte-
rizaba por la imperfección en contraste con los cielos y que era el
centro de imperfección porque las cosas no se encontraban en su
lugar de reposo natural. La Tierra y el agua terrestres tendían a
moverse hacia abajo para alcanzar su lugar de reposo natural y el
aire y el fuego hacia arriba para conseguir el suyo. La Tierra era
imperfecta porque todas estas sustancias estaban mezcladas entre
sí y no se hallaban en sus posiciones naturales.
Debido a que en la actualidad se ha descartado en gran parte
la física aristótelica, se tiende a subestimar las contribuciones que
Aristóteles hizo a la Ciencia. Su trabajo representa la primera
descripción «con éxito» del universo físico que empleó argumentos
lógicos basados en unos pocos supuestos simples y verosímiles.
Que su sistema era razonable y hermosamente autoconsistente es
puesto de manifiesto por el hecho de que durante casi dos mil
años el mundo civilizado occidental lo consideró generalmnete
como la descripción correcta del Universo. La Iglesia Católica
aceptó su física como dogma (y en el siglo xx sigue siendo
enseñada en ciertas escuelas católicas y en algunas universidades
islámicas).
Mucho más importante que el sistema que ideó fue el método
que introdujo para describir el universo físico. Todavía se acepta (
o se confía) que la descripción correcta del mismo debe empezar
por unos cuantos supuestos sencillos y proceder mediante argu-
mentos lógicos para explicar cualquier situación por compleja que
sea. Fueron también de gran importancia las cuestiones que
abordó: ¿De qué están formados los objetos? ¿Por qué caen los
cuerpos? ¿Por qué se mueven el Sol, la Luna y las estrellas? ¿Por
qué se mantienen en movimiento los proyectiles? Planteó por
primera vez, como no lo había hecho nadie, las cuestiones básicas
de la Física.
El progreso científico del mundo antiguo aflojó el paso con el
declinar del poder politico griego y el ascenso de Roma. Aunque
el Imperio Romano dio mucho a la Civilización Occidental en
ciertas áreas del conocimiento (Derecho, Ingeniería, Arquitectura),
volvió en gran medida a la práctica primitiva de explicar los
fenómenos físicos en términos religiosos. El progreso científico
continuaría en el Mediterráneo Occidental (y fue poco en compa-
ración con las grandes contribuciones de los filósofos griegos).
Durante varios cientos de años fue Alejandría, Egipto, el lugar de
una famosa biblioteca y centro de estudios. Claudio Ptolomeo
compiló allí, quinientos años después de Aristóteles, sus observa-
ciones sobre las estrellas errantes, ideando su complejo sistema
geocéntrico, discutido en el capítulo 2.
Trescientos cincuenta años después de Ptolomeo, en el año
500, Juan Filopón (Juan el Gramático), que también vivió en
Alejandría, expresó algunas de las primeras críticas serias de que
se tiene noticia sobre la física aristotélica. Este autor cuestionó la
explicación del movimiento de los proyectiles, el concepto de
antiperistasis, indicando que un proyectil adquiere algún tipo de
fuerza motriz al ponerse en movimiento. Como ser verá, esta idea
se aproxima mucho más al conocimiento moderno, según el cual
lo que mantiene en movimiento al proyectil es el momento dado.
Filopón también criticó la creencia aristotélica de que los cuerpos
de diferente peso sólo caerían con la misma velocidad en el vacío (
que rechazó como algo imposible). Filopón demostró algunos
casos de cuerpos de distinto peso que caían en el aire prácticamen-
te a la misma velocidad. Resulta notable que estas críticas serias
se produjeran después de ochocientos años de la muerte de Aristó-
teles.
Casi todo el progreso científico se estancó con la caída del
Imperio Romano y el comienzo de la época de los bárbaros en
Europa y sobre todo con la destrucción de la biblioteca y el centro
de estudios de Alejandría. Los estudiosos árabes llevaron a cabo
algunos trabajos fundamentalmente astronómicos y también pre-
servaron gran parte de la filosofía griega. Habrían de transcurrir
otros setecientos años para que comenzara el Renacimiento y los
autores europeos redescubrieran las primeras contribuciones griegas
a la Filosofía y al Arte. Uno de los principales avances del Re-
nacimiento consistió en la recuperación de la manera griega de
pensar. La mayoría del saber de los primitvos griegos se había
obtenido a partir de textos árabes, procedentes de países, como
España y Sicilia, en los que habían convivido el Cristianismo y el
Islam. Santo Tomás de Aquino (1225-1274) reconcilió hábilmente
en el siglo xiii la filosofía de Aristóteles con la doctrina católica.
El sistema filosófico de Aristóteles se había convertido a principios
del siglo xiv en un dogma de la Iglesia y, por tanto, en un tema
/ legítimo de estudio. Se plantearon de nuevo las cuestiones funda-
mentales acerca de la naturaleza del movimiento, sobre todo por
los estudiosos de la Universidad de París y del Merton College de
Oxford, Inglaterra. Notables estudiosos del movimiento que criti-
caron seriamente algunas de las ideas de Aristóteles fueron Juan
de Buridán (1295-1358) y Guillermo de Occam (1285-1349).
Buridán reanudó el ataque de Filopón a las explicaciones de Aris-
tóteles sobre el movimiento de los proyectiles. Suministró ejemplos de
objetos en los que no podía con toda claridad funcionar el
concepto de antiperistasis, como, por ejemplo, una lanza afilada
en ambos extremos (¡cómo podía empujar el aire en su extremo
posterior?) o una rueda de molino (que no tiene ningún extremo).
Buridán también rechazó la explicación alternativa de que se
creaba una columna de aire moviéndose delante y a los lados del
proyectil para mantenerlo en movimiento. Advirtió que si ello
fuera verdad se podría poner en movimiento un objeto creando en
primer lugar una columna de aire, y todos los intentos de conse-
guirlo habían fracasado. Buridán, lo mismo que Filopón, llegó a la
conclusión de que un objeto en movimiento debería producir algo
que lo mantuviera en ese estado y denominó a ese algo impulso.
Creía que cuando un cuerpo estaba en movimiento consumía
continuamente su impulso y al agotarse se detendría. Comparó
este proceso con el calor absorbido por un atizador colocado en el
fuego. Es evidente que al retirarlo retiene algo que lo mantiene
caliente. Cualquier cosa que sea lo que adquiera del fuego se va
agotando lentamente y el atizador acaba por enfriarse. Se verá
más adelante que el impulso de Buridán está en realidad bastante
próximo a la correcta descripción de la «realidad» subyacente que
con el tiempo proporcionarían Galileo y Newton.
Existía otra crítica a la física aristotélica. En 1277 se condenaron
en un concilio religioso que tuvo lugar en París cierto número de
tesis aristotélicas entre las que se incluía la de la imposibilidad del
vacío. Se llegó a la conclusión de que si Dios así lo deseaba podría
crear un vacío. Además de las críticas concretas de Buridán, los
estudiosos de esta época describieron y definieron por primera vez
de forma precisa los diferentes tipos de movimiento, introduciendo
representanciones gráficas que les permitieran ayudarse en las
investigaciones. Estas contribuciones, sobre todo las debidas a los
escolásticos de París y a los mertonianos de Inglaterra, proporcio-
naron las abstracciones e idealizaciones adecuadas para formular
de manera más precisa los problemas relacionados con el movi-
miento. Fue en esta época cuando se comprendió por primera vez
de forma explícita los tipos específicos de movimiento. Se definió
el movimiento uniforme como el movimiento en línea recta a
velocidad constante. Movimiento no uniforme o disforme, deno-
minado actualmente movimiento acelerado, era el que correspondía
a un movimiento en el que cambiara la rapidez o la dirección.
Movimiento uniformemente acelerado (denominado entonces movi-
miento uniformemente disforme) era aquel cuya rapidez cambiaba
de forma constante; por ejemplo, un coche que aumente su ra-
pidez exactamente cinco kilómetros por segundo (5 km• s-1) cada
diez segundos* se moverá con movimiento uniformemente acele-
rado. Estas cuidadosas definiciones hicieron posible que se descri-
bieran de forma más precisa movimientos como el de caída y el de
los proyectiles. Especialmente útil fue el empleo de gráficas que
permitieron por primera vez representar los movimientos para poderlos
analizar y clasificar. Los dos tipos fundamentales de movimiento se
representan gráficamente en la figura 3.1. Se trata de una
representación de la velocidad en función del tiempo. La línea
recta horizontal representa una velocidad constante: es el movimiento
uniforme. La línea recta inclinada representa el movimiento
acelerado: la velocidad cambia continuamente con respecto al tiempo
y puesto que se trata de una línea recta lo hace de forma constante y en
realidad representa un movimiento uniformemente acelerado.

Figura 3.1.—Representación gráfica de la velocidad en función del tiempo de un


movimiento uniforme y un movimiento uniformemente acelerado.

Estos avances fueron extremadamente importantes, ya que


permitieron analizar por vez primera de forma precisa y detallada
cualquier tipo de movimiento, fuera el de graves o el de proyectiles,
empleando los términos específicos de cada uno de ellos. Para

* Su aceleración será de 0,5 km • (N. del T.)


describir de forma apropiada una clase de movimiento y poder así
descubrir su naturaleza subyacente fueron críticas las definiciones de
movimiento uniforme y uniformemente acelerado y para que pudieran
reconocerse adecuadamente a partir de los datos experimentales los
diferentes tipos de movimiento eran necesarias las representaciones
gráficas. Por fin estaba preparado el escenario para que pudiera
determinarse de forma precisa las clases de movimientos que
estaban implicados en la caída de cuerpos y en el movimiento de los
proyectiles.

La mecánica galileana

Galileo Galilei (1564-1642) fue el primer científico que deter-


minó de forma exacta la clase de movimiento que llevan los
cuerpos que caen (graves). Nació y se educó en el norte de Italia
justamente después de la época de esplendor del Renacimiento
Italiano, un tiempo de luchas religiosas y políticas y de una gran
actividad intelectual y literaria por toda Europa: Reforma y Con-
trarreforma, Armada Invencible y reinado de Isabel I de Inglaterra,
ensayos de Mointaigne en Francia y escritos de Shakespeare en
Inglaterra. Galileo demostró de joven tener facultades poco co-
rrientes en diversas áreas del conocimiento (probablemente podía
haber sido un pintor notable). Estudió Medicina en la Universidad
de Pisa, una de las mejores de Europa, pero ya en sus comienzos
demostró más interés por las Matemáticas y la Filosofía Natural (
por la Ciencia, se diría en lenguaje moderno) y manifestó una
habilidad matemática tan grande que cuando contaba alrededor
de veinticinco años fue nombrado catedrático de Matemáticas en
Pisa. Después de tener algunos problemas con otros profesores del
claustro (era agresivo, arrogante y autosuficiente) se trasladó a la
Cátedra de Matemáticas de Padua, en la que permaneció casi
veinte años. Pronto se convertiría en uno de los sabios más
eminentes de su tiempo e hizo importantes contribuciones en
muchas áreas de la Ciencia y la Tecnología.
Galileo se convenció al principio de su carrera de que estaban
equivocados muchos de los elementos básicos de la física aristotélica y
en seguida se hizo copernicano, aunque no dio a conocer sus
creencias sobre la estructura de los cielos hasta emplear el telescopio
Galileo. (Cortesía de los Archivos de Editorial Photocolor.)

para estudiar los cuerpos del firmamento nocturno. Era alrededor


de 1610 y contaba cuarenta y seis años. Más importante para el
desarrollo de la Mecánica fue su convencimiento de que estaban
completamente equivocadas las descripciones aristotélicas acerca
de la caída de los cuerpos y del movimiento de los proyectiles.
Parece ser que se interesó por la caída de los cuerpos cuando
era un joven estudiante en Pisa, aunque probablemente no sea
verdad que realizara experimentos arrojando objetos desde la
Torre Inclinada de dicha ciudad. Cayó en la cuenta de que era
necesario «retardar» el proceso de caída para poder así medir con
precisión el movimiento, creyendo que toda técnica que se ideara
para resolver el problema no debería modificar la naturaleza
fundamental del proceso de «caída».
Galileo rechazó el abordaje aristotélico de observar la lenta
caída de los cuerpos en medios que presentaran gran resistencia,
como el agua y otros líquidos. Aristóteles había llegado a la conclu-
sión, usando estas técnicas, de que los objetos pesados siempre
caían más rápidamente que los ligeros y que llevaban velocidad
uniforme (constante). Aristóteles advirtió que los objetos pesados y
ligeros caían casi a la misma velocidad en los medios de menor
resistencia, aunque creía que sólo adquirían la misma velocidad en
el vacío, que pensaba que era imposible de obtener. Creía, por
tanto, que el medio formaba parte esencial del proceso de caída.
Por el contrario, Galileo era consciente de que los efectos
debidos a la resistencia podían enmascarar la naturaleza básica
del movimiento de caída. Pensaba que debiera determinarse en
primer lugar la caída de los cuerpos sin los efectos de la resistencia
y considerar separadamente los efectos de ésta para poderlos
combinar y obtener el resultado neto. El punto importante a tener
presente aquí es que Galileo se dio cuenta de que la naturaleza
fundamental del proceso de caída no incluía los efectos de la
resistencia del medio y que deseba encontrar otra forma de
retardar la caída sin que se alterara el proceso.
Se centró en dos técnicas que parecían satisfacer sus deseos.
La primera consistía en el empleo del péndulo, que había estudiado
por primera vez siendo estudiante. La segunda era la observación
de una bola rodando por un plano inclinado. Pensaba que en
ambos casos la causa fundamental del movimiento (la gravedad)
tendría que ser la misma que la responsable de la caída. Creía que
todos estos movimientos tendrían las mismas características básicas,
aunque estuvieran disminuidas de alguna forma en el caso del
péndulo y del plano inclinado. En los dos casos llegó a las mismas
conclusiones.
Considérese con cierto detalle el caso del plano inclinado. Si se
elige un plano inclinado de poca pendiente se retarda el proceso
de caída, permitiendo así su observación, pero Galileo hizo más
que eso. Estudió cuidadosamente la distancia recorrida por la bola
en diferentes intervalos de tiempo y para identificar el tipo de
movimiento que seguía dibujó una gráfica de la distancia en
función del tiempo. (Galileo afirmó que había sido el primero en
definir los movimientos uniforme y uniformemente acelerado,
pero ya se ha visto que no era así.)
Es importante darse cuenta de que por esa época no resultaba
fácil realizar mediciones, y el éxito de Galileo se debió a su peri-
cia y genialidad como experimentador y a la agudeza de su razo-
namiento. Al no disponer de cronómetros precisos tuvo que idear
procedimientos para medir de forma exacta intervalos de tiempo
iguales. Comenzó midiéndolos contando simplemente los compases
llevados por un buen músico y terminó usando un reloj de agua (
clepsidra) que permitía medir el tiempo pesando el agua acumulada al
vaciarse el reservorio a velocidad constante. Sus planos inclinados
tenían varios pies de longitud y eran uniformemente rectos y lisos.

TABLA 3.1
Distancia total recorrida al transcurrir distintos intervalos
de tiempo en un experimento con el plano inclinado

Tiempo transcurrido Distancia recorrida

0 o
1 1
2 4
3 9
4 16

— —

En la tabla 3.1 se resumen los resultados experimentales del


plano ,inclinado obtenidos por Galileo y en la figura 3.2 se
representan gráficamente. Se define una unidad de distancia como el
espacio recorrido durante una unidad de tiempo. Se puede
observar que la distancia viajada aumenta con el cuadrado del
tiempo transcurrido, esto es, al cabo de dos unidades de tiempo la
bola ha rodado cuatro unidades de distancia; después de transcurrir
tres unidades de tiempo la bola ha recorrido nueve unidades de
distancia, etc. Galileo se dio cuenta de que esta progresión (y la
gráfica correspondiente) era indicativa de un movimiento unifor-
memente acelerado. Los datos de la tabla 3.1 pueden representarse
gráficamente para obtener la figura 3.3, que muestra una línea
recta inclinada similar a la discutida en la figura 3.1 y que como ya
se ha visto es el resultado que se obtiene para un movimiento
uniformemente acelerado en el que la velocidad aumenta de
forma constante. Galileo determinó experimentalmente la forma
de caer los objetos al eliminar los efectos de la resistencia del
medio: con movimiento uniformemente acelerado.

Figura 32.—Representación gráfica de la distancia en función del tiempo, obtenida


con los datos de la tabla 3.1.

Galileo sabía muy bien que cuando los cuerpos caían en el aire o
en líquidos no lo hacían cada vez más rápidamente, es decir,
conocía que la resistencia del medio acabaría provocando el cese
de la aceleración y que la velocidad de caída llegaría a un valor
constante. Esta velocidad máxima final generalmente se denomina
en la actualidad velocidad terminal del objeto que cae. Galileo
también sabía que los objetos más pesados (más densos) normal-
mente caen más rápidos en el aire que los más ligeros (menos
densos). (Se trata de la conclusión opuesta a la que frecuentemente se
da a entender que había obtenido con sus experimentos realizados
desde la Torre Inclinada de Pisa.) Lo importante es que Galileo se
dio cuenta de que este resultado se debía al «artefacto» de la
resistencia del aire. Fue precisamente por ello por lo que decidió
que tenía que estudiar la caída empleado péndulos o planos incli-
nados que mantuvieran la velocidad lo bastante baja para minimizar los
efectos del medio. Considérese la figura 3.4 con objeto de
comprender en sus justos términos el proceso de caída.
Figura 3.3.—Representación gráfica de la velocidad en función del tiempo de un
experimento de Galileo con el plano inclinado.

La figura representa la velocidad de un objeto pesado y ligero


en función del tiempo. La línea inclinada es indicativa del movi-
miento de un cuerpo que cae en el vacío con aceleración constante (
uniforme). En cualquier otro medio que no sea el vacío, la
resistencia aumenta a medida que lo hace la velocidad hasta que
la fuerza de resistencia contrarresta a la fuerza de la gravedad y
desaparece la aceleración. La velocidad terminal de un objeto no
sólo dependerá de su peso sino también de su tamaño y forma. La
velocidad terminal de una persona cayendo (un esquiador, por
ejemplo) puede ser del orden de 200 km• h- 1 , según la posición
del cuerpo, la ropa, etc. Las líneas horizontales de la figura 3.4
representan el tipo de movimiento predicho por Aristóteles para
los objetos ligeros y pesados. Estas líneas indican la velocidad
constante, aunque diferente, de los objetos pero no especifican el
tiempo transcurrido desde que parten de cero hasta que alcanzan
la velocidad terminal.
Aunque desde el punto de vista científico es imporante com-
prender el movimiento real del cuerpo que cae, como muestra la
figura 3.4, más importante aún es comprender la verdadera natu-
raleza de la caída (la «verdadera realidad» de la Alegoría de la
Caverna de Platón) sin considerar la naturaleza del medio. Galileo
afirmó que esta verdadera naturaleza consiste en un movimiento
uniformemente acelerado como se indica en la figura 3.3, lo que
representó un paso muy importante para comprender el proceso
de caída. Una vez conocido el «cómo» del mismo era necesario
Figura 3.4.—Representación gráfica del movimiento de caída de cuerpos ligeros y
pesados.

saber «por qué» caen las cosas, que sería descubierto por Isaac
Newton, físico y matemático inglés nacido un año después de la
muerte de Galileo. Antes de discutir las contribuciones de Newton
se considerarán otros descubrimientos importantes de Galileo, así
como la relación general existente entre las Matemáticas y la
Ciencia.
El estudio de Galileo del movimiento de los cuerpos por los
planos inclinados produjo dos generalizaciones muy importantes
acerca del movimiento. Ambas tienen relación directa con la vieja
explicación aristotélica del movimiento de los proyectiles.
Galileo advirtió que una bola rodando cuesta abajo por un
plano inclinado experimentaba continuamente una aceleración
uniforme (tabla 3.1) incluso para ángulos de inclinación muy
pequeños. Descubrió que una bola que se moviera con movimiento
uniforme (velocidad constante) por una superficie plana experi-
mentaba una desaceleración uniforme (esto es, una aceleración
negativa) cuando rodaba cuesta arriba por un plano inclinado.
Puesto que ambas conclusiones parecían ser siempre ciertas,
incluso para ángulos de inclinación muy pequeños, razonó que
debería existir un ángulo en el que la aceleración pasara de
positiva a negativa, concluyendo que este ángulo correspondería
al del plano horizontal, que es de O° porque no tiene ninguna
inclinación.
El análisis de Galileo fue extremadamente importante porque
significaba que una bola que ruede por un plano horizontal no
experimenta ni aceleración ni desaceleración y era natural que
siguiera rodando por siempre. Es decir, Galileo cayó en la cuenta
de que una bola que rodara por una superficie perfectamente
nivelada se mantendría en movimiento uniforme a menos que
algo (corno la fricción o una cuesta arriba) actuara sobre ella y la
frenara. Galileo reconoció que la pregunta de Aristóteles ¿por qué
se mantienen en movimiento los proyectiles?, aunque planteaba
una cuestión muy importante, en realidad estaba erróneamente
formulada. Más bien habría que preguntar ¿por qué se detienen los
proyectiles? Galileo comprendió que lo natural de un objeto que
se moviera horizontalmente era mantenerse en movimiento uni-
forme.
Partiendo de este resultado explicó que la Tierra y los demás
planetas no necesitaban un motor que los impulsara (un problema
que ya se planteó en el capítulo 2). Galileo razonó que lo
horizontal era paralelo a la superficie de la Tierra y, por consi-
guiente, circular. Era natural que los objetos se desplazaran
siguiendo trayectorias circulares sin necesidad de motor alguno a
menos que el medio opusiera una resistencia. Si la Tierra viajara
por el «espacio vacío» no habría resistencia y podría describir una
órbita circular por siempre, exactamente como había postulado
Copérnico. La atmósfera también se desplazaría con ella, elimi-
nándose el problema del viento fuerte debido al movimiento. Por
desgracia Galileo había sacado una conclusión errónea de sus
experimentos con el plano inclinado y horizontal. Cuando una
bola rueda por un plano horizontal lo hace verdaderamente en l
ínea recta y no sobre una superficie paralela a la terrestre'.
La propiedad de un cuerpo de mantenerse en movimiento se
denomina actualmente inercia. Quizá sea el movimiento de una
nave espacial por el espacio «exterior» el ejemplo más llamativo
que pueda darse de ella. Recuérdese cómo fueron a la Luna los
astronautas. En primer lugar se lanzó la nave desde Cabo Cañaveral
Este error pudo haber sido la razón de que Galileo no se diera cuenta del
significado de las órbitas elípticas de Kepler. Galileo creía en las órbitas circulares y era
cierto que sus experimentos habían demostrado su validez —sería difícil explicar una
órbita no circular—. La explicación física de las órbitas planetarias no se dio hasta la
época de Issac Newton.
y se puso en órbita alrededor de la Tierra. Después de comprobar
que todo estaba en orden se encendieron unos minutos los motores
de los cohetes con objeto de abandonar la órbita terrestre y partir
hacia la Luna. Una vez que se alcanzaron la velocidad y dirección
apropiadas se pararon los motores para recorrer en «punto muerto»
durante tres días unos 385.000 km hasta llegar a la Luna. De vez
en cuando se encendían a media máquina los motores durante
unos minutos no para modificar la velocidad sino para «corregir
el rumbo». El hecho cierto es que se usó la inercia de la nave para
mantenerla en movimiento a una velocidad elevada y constante
(del orden de 5.000 km. h-'). Funcionó tan bien porque sobre élla
prácticamente no actuó ningún tipo de resistencia. (En realidad la
nave frenó un poco hasta que la atracción gravitatoria de la Luna
fue mayor que la terrestre, produciéndose a continuación un poco
de aceleración.)
Galileo respondió a la pregunta de Aristóteles indicando que lo
natural de un objeto en movimiento era que continuara en él, pero
no se planteó la razón de que esto fuera así. Es muy importante
determinar en primer lugar lo que hace la Naturaleza antes de
proceder a formular preguntas acerca de por qué las cosas ocurren
como lo hacen. Galileo había reconocido por primera vez de
forma adecuada qué sucedía con el movimiento horizontal (lo
mismo que hizo con el de caída). Continuó considerando de forma
específica el movimiento de los proyectiles que tan perplejo había
dejado a Aristóteles.
Se dio cuenta de que la confusión del movimiento de los
proyectiles (esto es, cuerpos arrojados o disparados) se debía a la
existencia de un movimiento vertical y horizontal combinado. Ya
había determinado que el movimiento horizontal «puro» era
uniforme y en línea recta. ¿Cómo se combinaban ambos para
describir el movimiento de los proyectiles? Abordó esta cuestión
teniendo en cuenta los resultados que había obtenido en sus
estudios de la caída de cuerpos con el péndulo y el plano
inclinado. Puesto que había descubierto que las bolas que bajaban
por un plano inclinado exhibían siempre un movimiento uniforme-
mente acelerado sin importar lo pendiente que fuera (aunque
aumente la magnitud de la aceleración al hacerlo la inclinación),
supuso que el efecto de la caída sería independiente del movimiento
horizontal. Dado que todos los resultados de sus experimentos con
planos inclinados y péndulos eran consistentes con esta hipótesis
concluyó que sería cierta, llegando así a lo que se conoce como
principio de superposición, según el cual se pueden analizar
separadamente las componentes vertical y horizontal de un movi-
miento y combinarse después para producir el resultado neto.
El movimiento de los proyectiles implica ambos tipos. El
movimiento vertical es exactamente igual que el de caída, esto es,
el que debiera esperarse de un cuerpo sin movimiento horizontal.
De igual forma, el movimiento horizontal es el movimiento uni-
forme con la velocidad horizontal que el cuerpo tuviera inicialmente.
En la figura 3.5 se representa el movimiento combinado resultante
obtenido al arrojar un objeto horizontalmente desde una cierta
altura.

Figura 3.5.—Representación gráfica de la altura de un objeto arrojado horizontalmente


en función de la distancia alcanzada_

El objeto arrojado llegará al suelo empleando el mismo tiempo


que si se hubiera soltado desde esa altura. Se moverá horizontal-
mente con la velocidad horizontal inicial hasta que golpee el
suelo. Por ejemplo, si la velocidad horizontal del objeto es de 100
km- s–' (algo menos de 30 m• s–') y tarda dos segundos en llegar
al suelo (que es igual que si cayera de una altura de unos 20 m)
viajará horizontalmente unos 60 m (30 m• s 1 x 2 s). Nótese que el
principio de superposición afirma que si se dispara horizontalmente
una bala con un rifle potente llegará al suelo al mismo tiempo que
si se hubiera soltado desde la misma altura inicial. La bala
simplemente lleva una velocidad horizontal mayor y es capaz de
recorrer una enorme distancia en un corto intervalo de tiempo. (Es
evidente que este resultado no podrá aplicarse a un objeto que
«vuele» por el aire o que sea «levantado» de alguna forma de su
movimiento horizontal. Sólo es estrictamente válido en el vacío.)
Galileo también aplicó el concepto de movimiento de proyectiles
a una manzana, por ejemplo, que cayera de un árbol fijo a la
superficie terrestre en movimiento. La manzana mantiene su
movimiento «hacia adelante» a medida que cae y de esa forma no
queda atrás como habían afirmado algunos de los oponentes de la
teoría heliocéntrica.
El balance de todas las contribuciones que Galileo hizo a la
Ciencia de la Mecánica es grande. Determinó de forma precisa la
forma en que caían los cuerpos e introdujo la idea de inercia de
los objetos en movimiento. Corrigió el análisis de Aristóteles
acerca de los graves y respondió a su pregunta sobre el movimiento
de los proyectiles, aunque no dio las razones del movimiento.
Como se verá, fue Isaac Newton el que ofreció el porqué del
movimiento de caída.

Lógica, Matemáticas y Ciencia


Antes de discutir las contribuciones que Newton hizo a la
Mecánica es necesario exponer algunos de los procedimientos y
herramientas mentales de la Ciencia. Sobre todo es necesario
distinguir entre lógica inductiva y deductiva y hacer notar el valor
del uso de las Matemáticas en Ciencia. Es importante comprender
los elementos de los campos de las Matemáticas conocidos como
Geometría Analítica y Cálculo porque permitirán que se aprecie
mejor las contribuciones de Newton y su manera de hacerlas. (
Esta discusión también será de utilidad para comprender el
material que se presentará en futuros capítulos.)
En Ciencia se usan dos tipos principales de lógica. Cuando se
registran los resultados obtenidos con una serie de experimentos y
se extrae una regla general se está usando la lógica inductiva (
inducción). Por ejemplo, si después de llevar a cabo un conjunto
de distintas inspecciones cuidadosas se llega a la conclusión de
que la gente prefiere las películas de misterio a las demás se
emplea la lógica inductiva. La norma general se obtiene direc-
tamente a través de experimentos y no mediante una serie de
argumentos basados en determinados principios básicos.
El proponente más destacado del método inductivo fue el
conocido filósofo inglés Francis Bacon (1561-1626). Creía que, si
se recogían cuidadosamente y se clasificaban todos los hechos
disponibles sobre un cierto tema, llegarían a ponerse de manifiesto
para cualquier estudiante serio las leyes naturales que lo gobiernan.
Aunque es totalmente cierto que Bacon hizo de esta manera
diferentes contribuciones importantes a la Ciencia, también es
verdad que no consiguió una de las metas que se había propuesto:
refundir todo el sistema del conocimiento humano aplicando el
poder del razonamiento inductivo. Su confianza era grande en este
tipo de proceder.
El otro principio lógico es el deductivo (deducción). Según él se
parte de unos pocos principios y teorías básicas y por razonamiento
lógico se llega a otros resultados. Así, si se teoriza que a la gente
le gusta leer un buen libro de misterio y se razona que los
programas de televisión más populares serán las películas de
misterio se está usando la lógica deductiva. El proponente más
destacado de la deducción probablemente fuera el filósofo francés
René Descartes (1596-1650). Pensaba que no se podían realizar
observaciones completamente correctas (experimentos incluidos)
que revelaran la verdad del Universo. Creía que se debería partir
de unos pocos principios irrefutables y razonar lógicamente para
determinar la naturaleza del Mundo. Aunque Descartes hizo
muchas contribuciones importantes a la Filosofía y a las Matemá-
ticas (desarrolló gran parte de la rama de las Matemáticas llamada
Geometría Analítica, que se expondrá brevemente más abajo),
debido a su insistencia de partir de unos pocos principios básicos
no obtenidos por observación, no fue capaz, como deseaba, de
obtener una descripción consistente del universo físico.
Isaac Newton combinó hábilmente los métodos inductivo y
deductivo. Partió de ciertas observaciones específicas y las gene-
ralizó en una teoría de la ley física que permitiera explicar el
fenómeno. Con ella deduciría consecuencias o predicciones de
nuevos fenómenos que pudieran ensayarse por observación. Si
estas predicciones no fueran confirmadas se trataría de modificar
la teoría hasta que permitiera proporcionar descripciones con
éxito de todos los fenómenos. Sus teorías siempre partían de
observaciones (método inductivo) y se ponían a prueba prediciendo
nuevos fenómenos (método deductivo). Newton consideró apro-
piadamente que ambos métodos eran necesarios para determinar
las leyes físicas de la Naturaleza.
Antes de discutir algunos de los conceptos matemáticos básicos
desarrollados en la época de Galileo y Newton (algunos descubiertos
por el mismo Newton) necesarios para la síntesis newtoniana de la
Mecánica será conveniente exponer de forma general las razones
por las que frecuentemente se usan las Matemáticas y su necesidad a
la hora de describir las leyes físicas.
Se puede decir que la Matemática es la ciencia del orden y las
relaciones, ya que pueden aplicarse para estudiar el grado de
ordenación del Universo y las relaciones que existen en él. Quizá
sea algo sorprendente el hecho de que el Universo esté ordenado y
posea partes relacionadas: pudiera no ser así, aunque sería difícil
concebirlo. Es extraordinario, no obstante, que cuanto más se sabe
del Universo más se aprecia su ordenación y más claro se ve que
parece seguir ciertas reglas o leyes. (Como dijo Einstein, «Lo más
incomprensible del Universo es que pueda comprenderse».) Cuanto
más ordenado y relacionado se encuentra que está el Universo,
más Matemáticas hay que aplicar para describirlo.
Frecuentemente se han producido avances en Física después
de haber habido avances en Matemáticas. Algunas áreas de las
Matemáticas han surgido ocasionalmente por la necesidad de
resolver un problema concreto o de solucionar cierto tipo de
problemas físicos. Ya se ha indicado la manera en que Kepler
dedujo la forma correcta de las órbitas planetarias debido a su
conocimiento de las figuras geométricas, elipse incluida. En muchos
de sus cálculos empleó extensamente los logaritmos recién descu-
biertos. Galileo necesitaba de igual forma definiciones apropiadas
del movimiento y ciertas técnicas gráficas sencillas para determinar
la verdadera naturaleza de la caída. A medida que se prosiga se
verá aumentar la dependencia de las Matemáticas, siendo necesario
introducir dos nuevos avances matemáticos con objeto de poder
discutir los trabajos de Newton.
Las figuras geométricas, simples o complejas, pueden describirse
mediante fórmulas matemáticas. En la figura 3.6 se ofrecen unos
Figura 3.6.—Diversas fórmulas matemáticas y sus representaciones gráficas. (Con
permiso de W. A. Granville, P. F. Smith y W. R. Longley, Elements of Differential and
Integral Calculus. Nueva York: John Wiley & Sons, 1962.)
cuantos ejemplos. La circunferencia y la elipse vienen descritas
por expresiones más bien simples. Algunos de los modelos más
complejos incluyen el empleo de funciones trigonométricas (seno,
coseno, etc.) en sus descripciones algebraicas. No es necesario en
este momento comprender el procedimiento de obtener tales
descripciones (fórmulas) ni la forma de operar con ellas. Lo que sí
es importante es saber que existen y que se conocen.
Al discutir los tipos de movimiento y los estudios de Galileo
acerca de la caída de objetos a veces se encontró necesario
describir el movimiento empleando una gráfica velocidad-tiempo y
otras una gráfica distancia-tiempo. También se indicó que
algunas de esas gráficas estaban relacionadas; por ejemplo, el
movimiento uniforme podía representarse en ambos tipos de
gráficas. Las técnicas matemáticas que relacionan las características
de esos dos tipos de gráficas constituyen una parte del área
denominada Cálculo. Así, la superficie bajo la curva velocidad-
tiempo corresponde a la distancia total recorrida.
El Cálculo Integral tiene por objeto estudiar las técnicas mate-
máticas que permiten encontrar el área que hay debajo de cualquier
curva para la que exista una fórmula matemática (Geometría
Analítica). De igual modo, la pendiente de la gráfica distancia-
tiempo indica la velocidad del objeto y la pendiente de la gráfica
velocidad-tiempo la aceleración del mismo. Las técnicas matemá-
ticas que permiten determinar las pendientes de las curvas descritas
por expresiones algebraicas son parte del objeto del Cálculo
Diferencial.
Está acreditado que Isaac Newton y el matemático y filósofo
alemán Gottfried Leibnitz (1646-1716) fueron los que descubrieron,
independientemente uno de otro, el Cálculo. Aunque realizaron su
trabajo separadamente, llegaron básicamente a los mismos resul-
tados del Cálculo Diferencial. El que Newton desarrollara las
ideas y los métodos del Cálculo hizo posible que llegara a algunas
de sus conclusiones acerca de sus leyes de la Mecánica y de la ley
de la gravitación universal. Utilizó el Cálculo no sólo para traducir
las gráficas velocidad-tiempo a gráficas distancia-tiempo y vice-
versa, sino también para hallar las áreas, volúmenes y masas de
figuras y sólidos.
Hay que saber también que algunas cantidades tienen dirección
y magnitud (tamaño). Por ejemplo, si se dice que un automóvil
viaja a 50 km- h-' no se describe completamen e su movimiento.
Es necesario constatar en qué dirección se desplaza Las cantidades
que requieren de forma lógica tanto la dirección 01 O la magnitud
se denominan vectoriales. La cantidad vectorial asociada. al movi-
miento se llama velocidad; si sólo se constata la magnitud
del mismo se refiere uno a la rapidez. Si se dice que un coche
viaja a 50 km. h-' en dirección norte se está especificando su
velocidad.
La velocidad no es la única cantidad vectorial, otro ejemplo es
la fuerza. Siempre que un objeto se someta a una fuerza lo hará
con una cierta intensidad y en una dirección específica que habrá
de indicarse para describir completamente la fuerza. Lo mismo
ocurre con la aceleración (positiva o negativa) que siempre tendrá
una tasa y una dirección concreta. El movimiento circular es un
movimiento acelerado porque aunque su velocidad sea constante
su dirección cambia continuamente.
Algunas cantidades no requieren dirección sino únicamente
magnitud y se denominan escalares. La masa de un objeto (en
kilogramos, por ejemplo) no necesita dirección. La longitud de un
cuerpo también es una cantidad escalar. Otros ejemplos son la
carga eléctrica, la temperatura y el voltaje. La rapidez es una
cantidad escalar, pero la velocidad es un vector. Para discutir
apropiadamente el movimiento, incluyendo la acción de las fuerzas
que actúan, hay que especificar las direcciones y usar apropiada-
mente cantidades vectoriales. Corno se verá en breve, Newton
sabía muy bien de la necesidad de emplear cantidades vectoriales a
la hora de describir las fuerzas y puso un cuidado especial en
introducirlas correctamente.
Las cantidades que poseen magnitud y dirección se pueden
representar gráficamente mediante flechas, como se hace en la
figura 3.7. La longitud de la flecha es proporcional a la magnitud
del vector y la orientación y posición de la punta representa su
dirección. Las operaciones matemáticas realizadas con vectores
(adición, resta, multiplicación, etc.) sólo son un poco más compli-
cadas que las que se llevan a cabo con los números ordinarios.
Para los propósitos de este capítulo y de los siguientes bastará
describir gráficamente la adición vectorial. Para sumar dos o más
vectores se sitúan simplemente uno a continuación del otro man-
teniendo la orientación y dirección, y la flecha final o vector
resultante se obtiene dibujando el vector que vaya desde la cola
Figura 3.7.—Vectores. a) Ejemplos de vectores representados por flechas. b) Ejemplos
de la adición gráfica de vectores.

del primero hasta la cabeza del último, como se indica en la figura


3.7b. (Un resultado interesante de la suma vectorial es que el
vector suma puede tener una magnitud más pequeña que cada una
de las magnitudes de los vectores sumandos.)

La mecánica newtoniana
Se discutirán seguidamente las contribuciones de Isaac Newton (
1642-1727) a la Mecánica. Su trabajo respondió satisfactoriamente a
las cuestiones planteadas por primera vez por Aristóteles y que
han sido el objeto de este capítulo. En realidad el trabajo de
Newton representa una de las contribuciones más grandes realizadas
jamás por un único individuo al conocimiento del universo físico y
es muy difícil que se sobrevalore el impacto de su labor en el
pensamiento occidental. Desarrolló una cosmovisión parecida a
un sutil y sofisticado mecanismo de relojería desenvolviéndose
según reglas bien establecidas.
Isaac Newton nació en 1642, un año después de morir Galileo.
Prosiguió y generalizó el trabajo de éste en diferentes áreas
importantes, sobre todo las relacionadas con la Mecánica. Como
había ocurrido con Galileo, Newton fue el científico más destacado
de su tiempo. Realizó importantes descubrimientos en Matemáticas,
Óptica (incluyendo fenómenos ondulatorios), Mecánica y Astro-
nomía. Cualquiera de sus contribuciones más importantes hubiera
bastado para conferirle un lugar en la Historia.
Desde pequeño se interesó por los dispositivos experimenta-
les y demostró una especial habilidad para construir diseños
originales de molinos de viento y relojes de agua y sol. Debido a
tus grandes dotes consiguió asistir a la Universidad de Cambridge,
en la que demostró una excepcional capacidad matemática. Des-
pués de graduarse en 1665 regresó a la casa de su niñez de
Woolsthorpe, en Lincolnshire, viviendo con su madre que había
enviudado. Era la época de la Gran Peste Europea (sólo en
Londres perecieron de muerte negra en dos años unas 31.000
personas) y del gran incendio que devastó la mayor parte de
Londres. Newton pasó prácticamente recluido en Woolsthorpe
desde 1665 a 1667. Se sabe ahora que fue durante esos dos años
cuando formuló su conocido teorema del binomio, desarrolló el
Cálculo, estudió la descomposición de la luz blanca por un prisma y
comenzó sus estudios de Mecánica, incluyendo la ley de la
gravitación universal. Ninguno de estos trabajos se publicó de
inmediato y algunos tardaron en hacerlo más de treinta años, pero
no hay duda que esos dos años han sido los más productivos de
científico alguno.
En 1667 regresó a Cambridge con el cargo de lecturer, y su
maestro, un notable matemático llamado Isaac Barrow, se impre-
sionó tanto por el trabajo y el talento de Newton que renunció a
su Cátedra de Matemáticas en 1669 para que su alumno pudiera
acceder a ella. De esta forma alcanzó un puesto que le permitió
continuar libremente sus diferentes estudios. Desgraciadamente
las primeras publicaciones de sus trabajos de Óptica no fueron
bien recibidas por otros científicos ingleses. Se desilusionó muy
pronto, se hizo reacio a publicar y se refugió en sus estudios de
Alquimia, Teología y profecías bíblicas (era un ferviente cristiano).
Mas tarde, y siguiendo algunas de las sugerencias de Robert
Hooke y los deseos de un astrónomo amigo, Edmund Halley (en
cuyo honor recibe el nombre el famoso corneta), terminó su
trabajo de Mecánica que había comenzado unos veinte años antes.
En 1687 publicó en latín su obra más importante, Philosophia
Naturalis Principia Mathematica (Principios matemáticos de Filosofía
Natural), o simplemente Principia, que contenía todos sus trabajos
notas,
* Existe
de Alianza
científicosuna Editorial,
traducción
de Madrid,
Esta (N
castellana
ese tiempo. 1987.por del T.)Rada García, con introducción y
Eloy
obra representa uno de los logros
más grandes de la mente humana y tal vez sea el trabajo individual
más importante de toda la Historia de la Física*.
El trabajo de Newton es ciertamente una continuación de la
labor anterior de Aristóteles, de Kepler y, sobre todo, de Galileo.
También se inspiró de forma importante en las ideas de Bacon,
Descartes y Hooke. El mismo Newton dijo en cierta ocasión «Si
he sido capaz de mirar tan lejos es porque me he subido a los
hombros de gigantes». Pero su trabajo es algo más que la gran
síntesis de todas sus conclusiones anteriores y a consecuencia de
la publicación de los Principia fue reconocido como el filósofo
natural más sobresaliente de su tiempo. Más tarde fue miembro
del Parlamento (representando a la Universidad de Cambridge) y
llegó a ser director de la Casa de la Moneda de Londres. Con el
tiempo llegó a eclipsar a todos- sus detractores e incluso presidió la
prestigiosa Royal Society, una institución sin parangón en el
ambiente científico.
Como persona fue celoso, egoísta, complicado e inquieto.
Soltero inveterado y distraído, sólo se preocupó de su sobrina. Fue
admirado por Voltaire y Alexander Pope y despreciado por Jonathan
Swift y William Blake. Realizó algunos de los descubrimientos
más importantes de todos los tiempos y su trabajo anunció una
nueva ola de optimismo en relación con la capacidad del hombre
de comprender el mundo.
Los Principia de Newton se escribieron con un estilo rigurosa-
mente lógico y axiomático, siguiendo el ejemplo del libro de
Geometría que escribiera el matemático griego Euclides. Newton
presentó cierto número de definiciones y supuestos básicos, definió
lo que denominó cantidades «fundamentales» y derivadas, siguiendo a
continuación con sus tres leyes del movimiento y otras más,
entre las que se incluía la de la gravitación universal, todas ellas
basadas en inducción a partir de experimentos. A continuación
demostró por deducción lógica que todos los tipos de movimientos
que se observaban en el universo físico, incluyendo el movimiento
celeste, el natural y el de los proyectiles, eran simplemente
consecuencias de sus definiciones y leyes del movimiento. Los
Principia se yerguen como una exposición monumental y simple
de la naturaleza del movimiento. Sólo el desarrollo de la Teoría de la
Relatividad y de la Mecánica Cuántica han establecido algunas
limitaciones del sistema newtoniano, únicamente importantes en
condiciones extremas, corno velocidades elevadas, tamaños pe-
queños o temperaturas muy bajas.
Newton comienza definiendo la cantidad de materia, que
describe como el producto de la densidad por el volumen de un
objeto. Esta propiedad expresa la «cantidad de sustancia» que hay
en un cuerpo y actualmente se denomina masa. La cantidad de
movimiento se define como el producto de la cantidad de mate-
ria por su velocidad (m• y) y se trata de una magnitud vectorial
que actualmente se llama momento. Un camión de 10 tonela-
das que viaje a 40 km . h-' tiene mayor momento que un auto-
móvil que vaya a 80 km• h- 1 porque el primero tiene una masa
diez veces superior, mientras que el segundo sólo lleva una ve-
locidad dos veces mayor.
La inercia se introduce como una propiedad inherente de la
masa y describe la resistencia de la misma a cambiar su estado de
movimiento uniforme en línea recta (que se discutirá más detalla-
damente a continuación). Finalmente define Newton la fuerza
ejercida como la acción que puede modificar el estado de movi-
miento (el momento) de un cuerpo. Generalmente uno se imagina
la fuerza ejercida como algo que acelera o frena la velocidad de
un cuerpo. Newton se dio cuenta de que también es posible que
una fuerza cambie la dirección del movimiento de un objeto sin
cambiar su rapidez. Dicha fuerza se denomina centrípeta. Un
ejemplo lo constituye un objeto atado a una cuerda que gire
describiendo una circunferencia. El objeto gira en torno a un
punto de forma constante pero su dirección cambia continuamente y
este cambio de dirección es un tipo de aceleración que está
causado por la fuerza ejercida desde la cuerda.
Newton introdujo a continuación las «cantidades fundamentales»
que debían ser medibles y objetivas, esto es, independientes del
estado mental del observador. Además, sólo debían ser en pequeño
número para que la Ciencia pudiera describirse de forma completa
con el menor número posible de ideas básicas. Necesitó solamente
tres cantidades fundamentales: tiempo, longitud y masa. Habrían
de expresarse en función de unidades fundamentales y moderna-
notas,
*mente
Existe
de Alianza
una
son,Editorial,
traducción Madrid,
castellana
respectivamente, (N Eloy
1987.por del T.)Rada
segundo, García,
metro con introducción
y kilogramo. y
En los
estudios acerca de la electricidad y calor es necesario introduc ir
dos cantidades adicionales: la carga eléctrica cuya unidad es el
culombio y la temperatura cuya unidad es el grado Kelvin.
Todas las demás cantidades pueden expresarse en función de
las fundamentales; por ejemplo, la velocidad es la razón entre la
longitud y el tiempo (m- s- ' ó km. h-'). La magnitud del momento
es el producto de la masa por la velocidad. Aunque otras cantidades
pueden ser más complejas, siempre es posible expresarlas en
función de las fundamentales. Por ejemplo, la energía cinética es
la mitad del producto de la masa por el cuadrado de la velocidad
y, por tanto, sus unidades son masa por el cuadrado de la razón
entre la longitud y el tiempo.
Habiendo definido cuidadosamente los diferentes conceptos y
cantidades fue capaz de presentar de forma muy simple sus tres
leyes del movimiento que intentan especificar las relaciones entre
las fuerzas ejercidas y las modificaciones que experimentan los
movimientos de los objetos.
I. Primera ley del movimiento. Ley de la inercia
En ausencia de una fuerza externa neta un cuerpo seguirá
en estado de movimiento uniforme (reposo incluido) en
línea recta.
Como ya se ha indicado, esta ley había sido reconocida por
Galileo antes de que Newton naciera y representa el replanteamiento
de la pregunta de Aristóteles ¿por qué se mantienen los objetos en
movimiento? en ¿por qué dejan de moverse los objetos? Esta
sencilla ley constata que todo cuerpo con masa posee una propiedad
común llamada inercia responsable de «mantener a los objetos
haciendo lo que hayan estado haciendo». Sin embargo, Newton
expresó la ley correctamente reconociendo que el movimiento
inercial es rectilíneo y no circular.
II. Segunda ley del movimiento. Ley de la aceleración
El ritmo al que cambia el movimiento (momento) de un
objeto es directamente proporcional a la magnitud de la
fuerza ejercida y está dirigido en la dirección de ésta.
Esta ley relaciona la aceleración de un objeto con la fuerza
ejercida. Adviértase que momento es masa por velocidad y si la
masa de un objeto no cambia, el cambio de momento implica un
Cambio de velocidad llamado aceleración. Por tanto, esta ley
expresa que la aceleración de un objeto (de masa constante) es
proporcional a la fuerza ejercida. Si se dobla o triplica la fuerza,
se dobla o triplica la aceleración. Tanto la fuerza ejercida como la
aceleración resultante son cantidades vectoriales con direcciones
específicas que, según la ley, han de ser las mismas. La segunda
ley de Newton afirma que la aceleración de un cuerpo depende de
la fuerza ejercida y de la masa del mismo. Depende de la masa
porque la ley constata que es el ritmo temporal al que cambia el
momento lo que es directamente proporcional a la fuerza ejercida
y, como ya se sabe, momento es el producto de la masa por la
velocidad. Si la masa de un objeto es muy grande y se produce un
pequeño cambio de su velocidad, el momento cambiará mucho.
Para una fuerza ejercida dada, productora de un determinado
cambio en el momento, la aceleración será tanto mayor cuanto
más pequeña sea la masa del objeto. Formalmente se expresa
diciendo que la aceleración de un objeto es directamente propor-
cional a la fuerza neta ejercida e inversamente proporcional a la
masa del objeto.
Es absolutamente importante comprender lo que significa «in-
versamente proporcional». Si A es inversamente proporcional a 13,
ello quiere decir que, si B se hace mayor, A se hace menor, y vice-
versa. Nótese que si A fuera directamente proporcional a B, si éste
se hiciera mayor, también se haría A. Un ejemplo de «proporcionali-
dad directa» es el alargamiento de la longitud de un muelle al au-
mentar la fuerza de estiramiento. Un ejemplo de «proporcionalidad
inversa» es la disminución del volumen de un globo lleno de aire a
medida que aumenta la presión de la atmósfera que lo rodea.
La segunda ley de Newton afirma, por tanto, que la aceleración
de un objeto es directamente proporcional a la fuerza ejercida
sobre él e inversamente proporcional a su masa. Desde luego esto
es razonable, ya que se sabe que si se tira o se empuja más
intensamente del objeto se acelerará más rápidamente y si el
objeto es más pesado (tiene más masa) la misma cantidad de
empuje o tirón no será tan efectiva. Los motores potentes producen
grandes aceleraciones, pero los coches con mucha masa reducen
la aceleración. La segunda ley de Newton va más allá de lo que
sabemos que es cierto, porque expresa de forma cuantitativa que
la aceleración se relaciona con la fuerza ejercida y con la masa.
La ley no indica que la aceleración sea directamente proporcional
a la raíz cuadrada de la fuerza, por ejemplo, o al cubo o de
cualquier otra forma, sino simplemente que es proporcional a la
magnitud de la fuerza, esto es, a su primera potencia. La segunda
ley indica de igual modo que la aceleración es inversamente
proporcional a la masa de una forma cuantitativa específica. La
segunda ley de Newton permite calcular la aceleración de un
objeto sobre el que actúa una fuerza dada si se conoce su masa. Se
aplica a los coches, a las naves espaciales, a los cohetes, a las
bolas y a las partículas elementales. Probablemente se trata de la
ecuación que se emplea en Física con más frecuencia.
III. Tercera ley del movimiento. Ley de la acción y reacción
Si un objeto ejerce una fuerza sobre otro, éste ejerce sobre
aquél otra fuerza igual y en dirección opuesta.

En esta ley está implícita la idea de que las fuerzas son


interacciones entre los cuerpos. Mientras que la primera y segunda
leyes centran la atención sobre el movimiento de un cuerpo
individual, la tercera ley constata que existen fuerzas porque están
presentes los objetos. Siempre que un objeto ejerza una fuerza
sobre otro, éste ejercerá una fuerza igual y opuesta sobre aquél.
La relación de fuerzas es simétrica.
Por ejemplo, cuando un caballo arrastra hacia delante un carro

Figura 3.8.—Pares de fuerzas en un caballo tirando de un carro. a) El caballo tira del


carro (a través del arnés). b) El carro tira hacia atrás del caballo. e) El caballo empuja
contra la superficie del camino. d) La superficie del camino retrocede frente - a los
cascos del caballo.
por un camino, simultáneamente el carro tira del caballo, que
siente esa fuerza de reacción. Los cascos del caballo empujan
tangencialmente contra la superficie del camino y simultáneamente
éste, si no es demasiado resbaladizo, empuja tangencialmente
contra la planta de los cascos. Es importante recordar cuáles son
las fuezas que actúan sobre el caballo. Son la fuerza de reacción
de la superficie del camino sobre los cascos del caballo, que
«empuja» hacia adelante y la fuerza de reacción del carro,
transmitida por el arnés a los lomos de aquél, que «tira» hacia
atrás. Para que el caballo pueda acelerar, la fuerza que ejerce la
superficie del camino sobre los cascos del caballo ha de ser mayor
que la fuerza que ejerce el arnés sobre sus lomos. Pero la fuerza
de la superficie del camino es de reacción y ha de ser de la misma
magnitud que la fuerza que jercen los cascos del caballo sobre el
camino. Si éste es escurridizo no habrá suficiente rozamiento entre
la superficie del camino y la planta de los cascos del caballo y
resbalará, siendo incapaz de usar sus potentes músculos para
empujar lo suficientemente fuerte contra la superficie del camino y
generar una fuerza de reacción que empuje al caballo hacia
adelante. En la figura 3.8 se representan mediante flechas las
fuerzas envueltas en el tiro del carro por el caballo. Es esencial
apreciar, por extraño que parezca, que es la fuerza de reacción de
la superficie del camino contra los cascos del caballo la que
impulsa hacia adelante al mismo.
Un cohete proporciona otro ejemplo de las fuerzas de reacción y
la tercera ley del movimiento. Un cohete expele gases a gran
velocidad desde el tubo de escape de la cámara de combustión. El
cohete ejerce una fuerza sobre los gases impulsándolos hacia
atrás. Los gases ejercen simultáneamente una fuerza de reacción
sobre el cohete para impulsarlo hacia adelante y esta fuerza de
reacción acelera la masa del cohete. (El nombre de una de las
fábricas americanas más importantes de los años cincuenta que
construían cohetes era Reaction Motors, Inc.)
IV. Ley de la conservación de la masa
Newton juzgó importante indicar dos leyes de conservación
además de estas tres leyes del movimiento. Se dice en Física que
una magnitud se conserva cuando su cantidad total es fija (siempre
es la misma). La ley de conservación de Newton más simple es la
de la masa (cantidad de materia). Pensaba que la cantidad total de
masa de un sistema cerrado cuidadosamente controlado es fija. (
«Sistema cerrado» significa simplemente que no se permite que
entre o salga nada del sistema en cuestión.) Es evidente que la
masa no se conservará si se añade materia al sistema. El punto
importante es que Newton creía que la masa no se podía crear o
destruir, aunque reconocía que la materia podía cambiar de
forma, como ocurre cuando se quema un sólido a gas. Newton
pensaba que si se recogían cuidadosamente los humos y cenizas
del objeto ardido habría de encontrarse la misma cantidad de
materia total que la existente al principio. Ahora se sabe que esta
ley de conservación es violada imperceptiblemente en ciertas
reacciones químicas (como la combustión) y en gran medida en
las reacciones nucleares. Estas violaciones de la ley de Newton se
originan a partir de la famosa relación masa-energía de la relativi-
dad de Einstein, que se discutirá más adelante.
V. Ley de la conservación del momento
Newton pudo demostrar empleando la segunda y tercera leyes
del movimiento que siempre que interactúen dos cuerpos su
momento total será el mismo aunque cambien los momentos
individuales a consecuencia de las fuerzas que puedan ejercerse.
Si chocan dos objetos (un automóvil y un carro, por ejemplo), sus
trayectorias, movimientos y direcciones inmediatamente posteriores a
la colisión serán diferentes a las iniciales. Sin embargo, si se
suman los momentos de ambos cuerpos antes y después de la
colisión y se comparan, se observará que son los mismos. Esta ley
de conservación del momento puede generalizarse para un gran
número de objetos que interactúen.
Aunque Newton dedujo esta ley como una consecuencia de sus
leyes del movimiento, es posible usarla como postulado y deducir
a partir de ella sus leyes del movimiento. De hecho las modernas
Teoría de la Relatividad y Mecánica Cuántica demuestran que las
leyes de Newton sólo son aproximadamente correctas, sobre todo
si se consideran grandes velocidades y partículas subatómicas,
mientras que se cree que la ley de la conservación del momento
siempre es exacta.
Galileo demostró, como ya se ha discutido, que si se eliminaban
los efectos de flotación, fricción, resistencia del aire y demás,
lodos los objetos caían a la superficie terrestre con la misma
aceleración, cualquiera que fuese su masa, tamaño o forma.
Incluso llegó a demostrar que los proyectiles (los cuerpos arrojados o
disparados hacia adelante) también caían mientras se movían
adelante. Este movimiento hacia adelante u horizontal está gober-
nado por la ley de la inercia, pero su movimiento simultáneo de
caída presenta exactamente la misma aceleración que la de cual-
quier cuerpo que caiga. Newton fue el que analizó la naturaleza
de la fuerza responsable de la aceleración de los cuerpos que caen.
Newton consideró que los cuerpos que caen aceleran en la
dirección de la Tierra, porque ésta ejerce una fuerza atractiva. Se
ha dicho que la idea básica de la ley de la gravitación se le ocurrió
cuando le cayó en la cabeza una manzana. Esta historia es
incierta casi con toda probabilidad, aunque el mismo Newton
apuntó que mientras pensaba en la forma en que la gravedad
podría tirar hacia abajo de la manzana más alta de un árbol se le
ocurrió por vez primera preguntarse hasta qué distancia se exten-
dería su acción. Sabía que la gravedad terrestre seguía dándose en
las altas montañas y llegó a la conclusión de que posiblemente
también se daría en el espacio. Finalmente se preguntó si alcanzaría a
la Luna y si podría demostrarse que era la responsable de
mantenerla en su órbita. Se dio cuenta de que la Luna estaba en
efecto «cayendo» a la Tierra porque su velocidad está cambiando
continuamente con el vector aceleración perpendicular a su tra-
yectoria circular y, por consiguiente, apuntando a la Tierra, que
constituye el centro de la órbita lunar. Esta fuerza que cambia la
dirección de la Luna es la fuerza centrípeta discutida anteriormente.
De igual forma, los planetas están «cayendo» al Sol porque los
vectores aceleración de sus trayectorias elípticas apuntan a él.
Puesto que sólo existen aceleraciones cuando hay fuerzas ejercidas,
el Sol tiene que ejercer una fuerza sobre los planetas. Newton
llegó a la conclusión que por todo el Universo debía de actuar el
mismo tipo de fuerza, la fuerza de la gravedad.
Empleando las leyes de Newton del movimiento y midiendo
experimentalmente las órbitas de la Luna y los planetas es posible
inferir (esto es, derivar por inducción) la expresión exacta de la ley
de la fuerza de la gravedad. Si ésta fuera constante, los objetos
con más masa deberán caer a la Tierra con una aceleración más
pequeña que los cuerpos que tengan una masa menor, tal como
establece la segunda ley. Por tanto, la Tierra debe ejercer mayor
fuerza sobre los objetos de mayor masa y pesarán más (el peso es
una fuerza). De hecho la fuerza gravitatoria que actúa sobre un
objeto debe ser exactamente proporcional a la masa del mismo
para que todos los objetos puedan tener la misma aceleración. La
Tierra ejerce sobre un cuerpo una fuerza proporcional a su masa
y, según la tercera ley, éste debe ejercer sobre áquella una fuerza
igual y opuesta proporcional a la masa de la misma, ya que desde
el punto de vista del objeto la Tierra es también otro objeto. Se
aplican ambas proporcionalidades y la fuerza de la gravedad
depende tanto de una masa como de otra.
Newton sabía que la aceleración de la Luna mientras «caía» a
la Tierra (consideró a la Luna como un proyectil) era mucho
menor que la de los objetos que caen cerca de la superficie
terrestre. (Conociendo las dimensiones de la órbita lunar y el
tiempo que tarda la Luna en recorrer su órbita —veintisiete días y
un tercio— fue capaz de calcular la aceleración de la Luna.)
Llegó a la conclusión de que la fuerza de la gravedad terrestre
tendría que depender de la distancia entre el centro de la Tierra y
el centro del objeto (la Luna en este caso). Como esta distancia es
sesenta veces mayor que la que existe entre el centro de la Tierra y
un objeto situado en su superficie, la aceleración de la Luna
«cayéndose» será tres mil seiscientas (60 2 ) veces menor que la
aceleración de caída de un objeto en la superficie de la Tierra.
Estaba claro que la fuerza de la gravedad disminuía con el
cuadrado de la distancia existente entre el objeto y el centro de
atracción. Integrando todas estas consideraciones, Newton propuso
su ley de la gravitación.
VI. Ley universal de la gravitación
Cada partícula material del Universo atrae a cualquier otra
ejerciendo en la dirección de la línea que une sus centros una
fuerza proporcional al producto de sus masas e inversamente
porporcional al cuadrado de la distancia existente entre ellos.
La magnitud de la fuerza se puede representar matemáticamente
por la expresión

donde m1 y m2 son las masas de las partículas, r la distancia entre


sus centros y G una constante de proporcionalidad (expresada en
unidades de masa, distancia y fuerza).
A la ley de la gravitación se la denomina ley del inverso del
cuadrado porque la magnitud de la fuerza es inversamente pro-
porcional al cuadrado de la distancia entre los objetos. Desde
luego Newton no fue el primer autor en considerar que la ley de la
gravitación pudiera ser una ley del inverso del cuadrado. Unos
cuantos científicos europeos lo habían contemplado, o lo estaban
haciendo, especialmente el físico inglés Robert Hooke y el físico
holandés Christian Huygens. Debido a que carecían de la habilidad
matemática de Newton (sobre todo en lo que se refería a sus
conceptos acerca del Cálculo), no fueron capaces de demostrarlo.
Empleando sus leyes del movimiento y la ley de la gravitación
universal, Newton podía explicar cualquier clase de movimiento:
cuerpos que caen, proyectiles y cuerpos celestes. Fue capaz de
explicar particularmente que las leyes de Kepler del movimiento
planetario eran consecuencias matemáticas de sus leyes del movi-
miento y de la ley de la gravitación. Así, sustituyendo en su
segunda ley del movimiento la fuerza ejercida por la expresión de
la gravitación universal y usando la Geometría Analítica, obtuvo
la fórmula de la elipse, explicando, por tanto, la primera ley de
Kepler. También fue capaz de «explicar» por qué un planeta que
describa una órbita elíptica se movía con velocidad variable (
segunda ley de Kepler) y por qué su período de rotación dependía de
la distancia al Sol (tercera ley de Kepler).
La ley de Newton de la gravitación universal no sólo se aplica a
la Tierra-Luna, sino tambien a la Tierra-Sol, a todos los demás
planetas y el Sol, a Júpiter y sus lunas, etc. La ley de la gravitación y
las del movimiento se aplican a todo el Sistema Solar y las
pruebas astronómicas indican que se aplican a todo el Universo,
incluso a la escala más grande que pueda concebirse. Dichas leyes
son verdaderamente universales.
Las leyes de Newton van más allá de las de Kepler. Puesto que
la ley de la gravitación indica que todos los objetos materiales se
ejercen una fuerza gravitatoria, los planetas no sólo han de
experimentar la atracción gravitatoria del Sol sino también la de
los demás cuerpos del Sistema Solar. Así, los planetas se perturban
mutuamente las órbitas y no serán perfectamente elípticas. Newton
se interesó por los efectos de dichas perturbaciones; pensaba que
las órbitas planetarias podrían ser lo bastante inestables para que
los tirones que ejercían los demás planetas sobre uno dado causaran
su salida de la órbita y especuló que sería necesaria una interven-
ción divina para mantenerlo en ella. Pierre Laplace (1749-1827),
famoso matemático y astrónomo francés, demostró casi un siglo
después que las órbitas planetarias eran realmente estables y que
aunque no fueran exactamente elípticas no serían abandonadas
por los planetas al ser perturbados.
Con el tiempo llegó a apreciarse que las perturbaciones causadas
por las atracciones gravitatorias suministraban algunas de las
pruebas más convincentes de la exactitud de las leyes de Newton.
En 1781 se descubrió un nuevo planeta al que se denominó
Urano. Empleando técnicas matemáticas mejoradas para calcular
los efectos que los restantes planetas ejercerían sobre la órbita de
aquél, se vio claramente, alrededor de 1820, que existían discre-
pancias entre la órbita observada y la calculada. Sospechando que
eran debidas a la existencia de otro planeta en el Sistema Solar, el
astrónomo francés V. J. J. Leverrier y el astrónomo inglés J. C.
Adams fueron capaces de calcular con exactitud en qué lugar
debería estar y qué masa debería tener el nuevo planeta para que
se pudieran explicar dichas discrepancias. Neptuno se descubrió
en 1846 exactamente donde se había predicho. Un cuidadoso
estudio de su órbita indicaba que debía existir otro planeta más y
en 1930 se descubrió Plutón, explicándose con ello la mayoría de
las perturbaciones. En la actualidad continúa el debate acerca de
si existen algunas discrepancias residuales en las órbitas de todos
los planetas una vez tenidas en cuenta las atracciones gravitatorias
de los planetas conocidos. Aunque son pequeñas, podrían deberse
a ligeros errores de unas observaciones difíciles de realizar o a la
presencia de algún otro planeta.
El punto importante en relación con las perturbaciones de los
planetas es que proporcionan un ensayo de las leyes de Newton,
ya que hay un gran acuerdo entre los efectos predichos y observa-
dos. Sólo en el caso del planeta Mercurio se dan desviaciones
significativas que pueden resolverse empleando la Teoría de la
Relatividad de Einstein (capítulo 6).
Las leyes de Newton, además de explicar las órbitas de los
planetas, han demostrado ser enormemente precisas en otras
muchas situaciones físicas. Los cálculos de los satélites artificales
en órbita alrededor de la Tierra son similares a los de los planetas.
Combinando adecuadamente las tres leyes del movimiento con la
ley de la gravitación universal, puede explicarse cualquier movi-
miento de los proyectiles. Los ingenieros y científicos emplean día a
día las leyes de Newton para describir el movimiento de
cualquier objeto, desde los trenes hasta las partículas subatómicas y
los abogados hacen uso frecuente de dichas leyes para analizar
los accidentes de automóvil. Aunque las mecánicas relativista y
cuántica requieren que se hagan algunas modificaciones y amplia-
ciones de las leyes de Newton, como se verá más adelante,
continuamente se demuestra que se trata de descripciones precisas
del movimiento del universo físico.
Es importante percatarse de la combinación que hizo Newton
de la lógica inductiva y deductiva. Siempre partió de una observa-
ción crítica. Por ejemplo, en el caso de la gravedad comenzó
analizando la caída de los objetos y más tarde extendió el análisis
al movimiento de la Luna. Una vez que dispuso de una teoría
general a la que había llegado por observación y lógica inductiva,
la empleó para explicar o predecir otros fenómenos por lógica
deductiva. En el caso de la gravedad, demostró que su ley del
inverso del cuadrado podía explicar las leyes de Kepler del
movimiento de los planetas. Newton estableció un ejemplo a
seguir, combinar la lógica inductiva y deductiva para obtener y
verificar una teoría, imitado desde entonces por casi todos los
científicos.
Antes de considerar las consecuencias filosóficas y las implica-
ciones del trabajo de Newton será conveniente indicar que sus
leyes no dan respuesta a todas las cuestiones relaciondas con el
movimiento y la gravedad. Aunque Newton explicó, usando una
ley del inverso del cuadrado, por qué los cuerpos caen con
movimiento uniformemente acelerado, no indicó la razón de dicha
dependencia o la forma de actuar a distancia de la gravedad. Esta
última cuestión se denomina el problema de la acción a distancia
y ha intrigado a los científicos durante mucho tiempo. Es evidente
que la gravedad puede actuar a través del espacio vacío: la Tierra
atrae a la Luna (y viceversa) y el Sol a la Tierra (y viceversa). La
Tierra y la Luna están separadas 385.000 km y la Tierra y el Sol 149.
000.000 km por espacio casi perfectamente vacío. Es absolutamente
notable que tales astros puedan interaccionar de alguna forma y
lo mismo ocurre con las fuerzas magnéticas. Cuando se juega
con un par de imanes pequeños sorprende mucho verlos
atraerse o repelerse antes de que lleguen a tocarse. ¿Cómo lo
hacen? Se trata de otra versión del problema de la acción a dis-
tancia.
No es hora aún de discutir completamente este problema, que
volverá a considerarse en el capítulo dedicado a la Relatividad y
que será discutido con más detalle en el capítulo final, que trata de
los elementos fundamentales de construcción de la Naturaleza.
Allí se indicará brevemente que parece como si los cuerpos inter-
cambiaran pequeñas partículas subatómicas cuando interaccionan
por gravedad o por electromagnetismo. Newton estudió el problema
de la acción a distancia y al sentirse incapaz de resolverlo pro-
nunció su famosa frase «No hago hipótesis».
Resumiendo, puede decirse que Galileo demostró de forma
exacta cómo caen los cuerpos: con movimiento uniformemente
acelerado. Newton explicó que los cuerpos caían así a causa de
ciertas leyes del movimiento y de la ley de la gravedad del inverso
del cuadrado. Ahora se sabe cómo se transmiten las fuerzas pero
todavía se desconoce por qué los objetos tienen inercia o por qué
existe la gravedad. Al considerar la Relatividad, la Mecánica
Cuántica y la Física de Partículas Elementales se avanzará en
dichas cuestiones, aunque se verá que cada vez que se responde a
una pregunta siempre surge otra nueva.
Consecuencias e implicaciones
La gran síntesis newtoniana de las leyes del movimiento y de
la ley de la gravitación para explicar todos los tipos de movimiento
ejerció un enorme impacto filosófico y emocional en los científicos
de la época. El trabajo de Newton creó la imagen de que el Uni-
verso consistía en una gigantesca obra de relojería. Ha sido muy
recientemente cuando se ha puesto en tela de juicio esa imagen y
es importante comprender lo que significó en su tiempo y cuáles
fueron algunas de las consecuencias que entrañaba.
Las leyes de Newton indican que los movimientos e interac-
ciones de todos los cuerpos materiales del Universo obedecen a
unas pocas leyes relativamente simples. Según ellas, si en un
instante dado se conocen las posiciones, masas y velocidades de
un conjunto de objetos, podrá determinarse su forma de interactuar
y el resultado de las colisiones. Así, si se emplea la ley de la
gravitación para determinar la fuerza neta ejercida sobre los
objetos debido a la presencia de los demás y a continuación se usa
la segunda ley del movimiento para calcular las magnitudes y
direcciones de las aceleraciones resultantes, podrá conocerse las
velocidades de dichos objetos. La ley de conservación del momento
permitirá determinar el resultado de cualquier posible colisión.
Aunque todo ello pueda ser muy complejo, por supuesto, los
ingenieros y científicos lo realizan frecuentemente para determi-
nados tipos de sistemas. ¡Y funciona!
Podrá predecirse con exactitud en un instante dado el movi-
miento de las bolas de billar en una mesa o el de las partículas
subatómicas de una reacción nuclear conociendo la posición de
cada uno de los cuerpos y la velocidad que llevan. Los físicos
forenses podrán calcular de forma fiable las direcciones y la
rapidez que llevaban los automóviles que han sufrido un accidente
si pueden determinar las direcciones y la rapidez después del
mismo deducidas por las marcas de los patinazos u otros indicios
similares. Las leyes de Newton establecen que podrán determinarse
los movimientos futuros que tendrán las partículas de cualquier
sistema si se conocen sus movimientos iniciales.
Llevando esta idea a lo que parece ser su conclusión lógica, se
deduce que se podrán predecir los futuros movimientos de todos
los objetos del Universo con sólo determinar correctamente los
movimientos actuales. Es evidente que en un momento dado no
podrán determinarse la velocidad y posición de cada uno de los
cuerpos del Universo, ni siquiera usando el ordenador más potente
del mundo. Los filósofos posteriores a Newton se dieron cuenta,
no obstante, de que el punto importante consistía que en principio
podía hacerse. Sean cuales sean las velocidades y posiciones ac-
tuales, determinarán completamente las que tendrán en el futuro.
No importa que no puedan realizarse los cálculos del futuro del
Universo, pero éste está completamente determinado. Las leyes de
Newton nos hablan de un universo que evoluciona en el tiempo de
manera completamente predeterminada. El Universo es una gi-
gantesca y compleja máquina de relojería que funciona de forma
prescrita.
Muchos filósofos han citado el trabajo de Newton como una
prueba a favor de la predestinación. Si en teoría todo funciona de
forma predecible, es porque está predestinado. El universo de
Newton rivalizó con la visión de la autodeterminación individual e
incluso con la idea de que las leyes fueron elegidas por la gracia
divina. Tales conclusiones podrían parecer válidas, pero como se
verá más adelante al tratar de las consecuencias que parecen
deducirse de otras teorías físicas, las grandes conclusiones aplicadas
al conjunto del Universo son cuestionables. Se verá que los
resultados de la Mecánica Cuántica retan de forma directa a este
universo predeterminado. Dicho de una forma más general, es
difícil asegurar que las leyes específicas de la Naturaleza que han
sido deducidas en una pequeña región del Universo se puedan
generalizar a la totalidad de él.
Las leyes de Newton representaron un gran triunfo de la
Ciencia. Muchos de los fenómenos físicos que parecían no tener
una relación o una explicación fueron estudiados por Newton a
partir de unas pocas leyes sencillas. Los científicos se sintieron
extremadamente optimistas y llegaron a asegurar que el Universo
era realmente un sistema racional gobernado por leyes simples.
Parecía que había razones para todo.
Los científicos de todas las especialidades se dispusieron a
descubrir las leyes «básicas» de sus respectivos campos. Áreas
que no habían sido consideradas como ciencias se declararon
como tales. Se crearon las «Ciencias Sociales» y los estudiosos
partieron en busca de las leyes que rigen el comportamiento
humano. Se produjo un movimiento que convertía en ciencia cada
uno de los diferentes campos del conocimiento. Adam Smith
definió en su Riqueza de las Naciones las leyes de la Economía de
forma que se adoptara la Política Económica como ciencia.
August Comte trató de hacer lo propio con la Sociología. Era
tremenda la fe que se tenía en el «espíritu científico» como poder
supremo y los monarcas europeos fundaron Academias dedicadas
a resolver todos los problemas humanos. Federico el Grande y
Catalina de Rusia establecieron academias a imitación de Carlos
II de Inglaterra y Luis XIV de Francia. Ellas hablan de esa época
como la Era de la Razón y de Newton como el portador de la luz.
No hay que insistir más. El trabajo de Newton unificó un amplio y
diverso espectro de fenómenos explicando todos los tipos de
movimiento con unas cuantas leyes. Si el universo físico era tan
sencillo, ¿por qué no iban a serlo también todos los restantes
campos del conocimiento humano?
Existía la idea de que había que extender más allá de los
meros propósitos académicos las leyes simples y lógicas. Tanto la
revolución americana como la francesa se debieron a la creencia
de que la gente poseía ciertos derechos naturales que había que
respetar. Los políticos que diseñaron los nuevos gobiernos intentaron
establecer leyes y principios a partir de los postulados naturales y
razonaron lógicamente de acuerdo con ellos con objeto de deducir
el tipo de estado que debía existir. La Declaración de Independencia
presenta la misma estructura axiomática con que los Principia de
Newton apoyaban las conclusiones finales, deducidas con lógica
deductiva. Benjamin Franklin, uno de los grandes científicos de su
tiempo, escribió un ensayo titulado Sobre la libertad y la necesidad El
hombre en el universo newtoniano. Jefferson se llamó científico a sí
mismo e inició la tradición americana de fomentar las
Ciencias desde el Gobierno. La Era de la Razón estaba en plena
floración.
4
El concepto de energía

La energía es lo que hace que funcione todo.


James Joule.

Aunque la leyes de la mecánica de Newton explicaron con


enorme éxito muchos fenómenos naturales, existían muchísimos
otros que no podían comprenderse aplicando esas leyes únicamente.
Desde la época de Aristóteles, por lo menos, se habían hecho
varios intentos por comprenderlos, pero la mayoría de lo que se
sabe actualmente sobre ellos se consiguió en el siglo xix. Los
estudios que se realizaron durante él acerca del calor acabaron
conduciendo al moderno concepto de energía. Dado que ésta es el
concepto más importante para comprender la naturaleza del
universo físico y ya que la energía se ha convertido en algo muy
importante para la vida del hombre, merece la pena que se siga la
pista a los pasos importantes dados en el desarrollo del concepto
de energía. Es fundamental conocer lo que es la energía, cómo se
caracteriza y mide, qué formas puede tener y cómo pueden
transformarse unas en otras.

Interacciones y leyes de conservación

El primer paso que se dio durante el desarrollo del concepto de


energía fue reconocer que en la Naturaleza existían leyes de
conservación. En un sistema aislado existe una ley de conservación
para una cantidad determinada si la totalidad de ésta se mantiene
constante durante todo el tiempo. Newton enunció en sus Principio
la ley de la conservación del momento. Creía que el momento
total de un sistema (que él llamó movimiento), y que se caracteriza
por la suma de los productos de la masa de cada uno de los
objetos por su velocidad, permanecía constante aunque estuviera
permitido que colisionaran. Un «sistema aislado» es una colección
de objetos que pueden interaccionar entre ellos pero con ningún
otro. Al interaccionar a través de choques, por ejemplo, pueden
modificarse sus velocidades individuales y, por tanto, sus momentos,
pero el vector suma de todos los momentos siempre tendrá el
mismo valor. (La idea de esta ley de conservación no era original
de Newton sino que había sido desarrollada por los científicos
ingleses Hooke, Wallis y Wren y propuesta como ley en 1668 por
el científico holandés Christian Huygens.)
Esta ley de conservación permite predecir qué ocurrirá a un
objeto con una cantidad conocida de momento cuando choque
con otro de momento también conocido. Podrá calcularse el
momento de los dos posterior al choque si se sabe algún otro
hecho del mismo, como es si los dos objetos quedan unidos o si se
trata de un choque elástico. Si pudieran descubrirse más leyes
como ésta a las que obedeciera siempre la Naturaleza, aumentaría
la capacidad de predecir lo que ocurrirá exactamente en situaciones
cada vez más complejas, ya que todas las leyes pueden expresarse
en forma de ecuaciones que pueden resolverse matemáticamente
para arrojar predicciones exactas.
Christian Huygens también se dio cuenta de que en determina-
das colisiones además del momento se conservaba otra cantidad
(esto es, que su valor siempre permanecía constante). Leibnitz la
denominó vis viva (fuerza viva) y se calculó que era el producto de
la masa de un cuerpo por el cuadrado de su velocidad (mv2).
Algún tiempo después se incluyó el factor 1/2 y se la denominó
energía cinética. (Este factor se origina al deducirla de las leyes de
Newton del movimiento.) Al tipo de choque en el que se conserva
la energía cinética se le denomina elástico y un ejemplo corriente
es el que sufren las bolas de billar.
Al reconocerse que la energía cinética de un cuerpo era el
resultado de aplicarle una fuerza, se realzó el significado de
aquélla. Si se miden la cantidad neta de fuerza aplicada y la
distancia sobre la que se aplica, el cuerpo ganará una energía
cinética exactamente igual al producto de ambas.
No es necesario que la fuerza neta sea constante, sino que
puede variar de muchas maneras a lo largo de la distancia me-
dida. La energía cinética adquirida es entonces igual a la fuerza
media por la distancia total y el aumento de energía cinética es el
efecto integrado de una fuerza variable actuando durante una
distancia.
Esta relación pone de manifiesto por qué se denominó al
principio vis viva a la energía cinética. Un objeto que lleve una
velocidad tendrá la capacidad de ejercer una fuerza durante una
distancia; por ejemplo, cuando una gran bola en movimiento
choca contra un muelle lo comprimirá más que el «peso muerto»
de la misma. La capacidad de ejercer una fuerza adicional se
relaciona con el movimiento del objeto y mide su energía cinética. (
Nótese que la energía cinética del objeto disminuye al comprimirse el
muelle.) La fuerza que únicamente se debía al movimiento se
denominó vis viva o fuerza viva.
Se puede demostrar de igual modo que el cambio del momento (
masa por velocidad) de un objeto tiene el mismo efecto que una
fuerza ejercida sobre él multiplicado por el tiempo durante el que
actúa. El momento añadido al objeto será igual a la fuerza media
por el tiempo total.
Tanto la energía cinética como el momento están relacionados
con la velocidad del objeto. La primera es un escalar y el segundo
un vector (capítulo 3). Ambas cantidades están determinadas por
el efecto integrado (acumulativo) de la acción de la fuerza neta.
La energía cinética es el efecto integrado de la fuerza neta que
actúa durante una distancia, mientras que el momento es el efecto
integrado de una fuerza actuando durante una cantidad de tiempo.
El producto de la fuerza por distancia es un concepto mucho
más general de lo que se ha indicado hasta aquí. Es una importante
cantidad denominada trabajo. Hay que tener mucho cuidado a la
hora de emplear el término trabajo, ya que se trata de un concepto
muy específico. ¡Un físico diría que no se está haciendo trabajo
alguno sobre una carreta llena de ladrillos si no se mueve! Sólo si
llega a moverse como resultado de la fuerza aplicada se hace
algún trabajo sobre ella. Se puede duplicar la cantidad de trabajo
realizado bien duplicando la fuerza aplicada bien duplicando la
distancia durante la que se aplica. El efecto neto será el mismo en
ambos casos: se habrá comunicado al objeto el doble de energía
cinética.
La energía cinética no es más que un ejemplo de los tipos de
energía. Siempre que se realice trabajo sobre un objeto cambiará
su energía, pero no siempre cambiará su energía cinética. Por
ejemplo, una fuerza puede mover en contra de la gravedad a un
objeto por un plano inclinado. Al eliminarse la fuerza, el objeto
estará más alto pero no se estará moviendo. Si se ha realizado
trabajo sobre él, ¿qué clase de energía se le ha comunicado? La
respuesta es energía potencial, porque al estar en una posición más
alta tiene la posibilidad de adquirir energía cinética. Si se empuja
ligeramente rampa abajo, acelerará y adquirirá energía cinética a
medida que cae. Como se discutirá posteriormente, la energía
potencial está relacionada con la posición o configuración de un
cuerpo. (Originariamente se la denominó vis viva latente, dado que
se consideró que tenía la posibilidad de convertirse en vis viva.)
El concepto de energía potencial permite descubrir otro principio
de conservación en el que se ve envuelto el movimiento. Es
frecuente que algunos de los aspectos de ciertos sistemas que no
implican colisiones, pero sí movimiento, no cambien con el tiempo, y
los físicos prefieren decir que en ellos se conserva algo. Un
péndulo convenientemente construido puede oscilar durante mucho
tiempo y si se observa durante unos instantes podrá analizarse
como si se tratara de un sistema que no se detuviera. Dicho de una
forma más precisa, podrá medirse la altura que sube la bola en
cada una de las oscilaciones y apreciar que es la misma. No será
difícil convencerse de que, si pudiera eliminarse el efecto de la
resistencia del aire y se lubricara extraordinariamente bien el
pivote del péndulo, la bola llegaría siempre exactamente a la
misma altura. Cuando la bola pase por la posición inferior, de
equilibrio, se moverá bastante rápida, mientras que en el punto
más alto su velocidad será cero.
El análisis matemático pone de manifiesto que la cantidad que
se conserva es la suma de la energía cinética y potencial de la
bola. La energía potencial será cero cuando esté en la posición
inferior e irá aumentando directamente con la altura. Cuando
llegué al punto más alto de la oscilación alcanzará el valor má-
ximo, justo donde la energía cinética es cero. La energía mecánica
total, la suma de esos dos tipos de energía, siempre será la misma
y se dice que el péndulo es un sistema conservativo.
Otro ejemplo consiste en un balón que ruede hacia arriba y
hacia abajo por las laderas opuestas de un valle. Si el terreno es
muy liso y se suelta desde una cierta altura en una de las laderas,
rodará cuesta abajo y subirá por la ladera opuesta hasta alcanzar
la misma altura inicial. Durante su movimiento poseerá idéntica
combinación de energías potencial y cinética que la bola del
péndulo y su suma será de nuevo una constante.
Puede apreciarse por qué se llama energía potencial a esta
nueva forma de energía. Cuando el balón se encuentra en la parte
superior de una de las laderas tiene una gran cantidad de «poten-
cial» para adquirir energía cinética. Cuanto mayor sea la altura de
partida, más rápidamente se moverá y más energía tendrá cuando
llegue al valle. Adviértase que la energía potencial es en realidad
energía potencial gravitatoria. Para que el balón suba más alto
habrá de realizarse más trabajo contra la fuerza de la gravedad,
siendo ésta la responsable de que el balón acelere cuesta abajo
hacia el valle.
Otro sistema conservativo que sólo implica movimiento y
fuerza de la gravedad es el formado por un planeta girando
alrededor del Sol. La primera ley de Kepler del movimiento de los
planetas (capítulo 2) expresa que la órbita descrita por un planeta
es elíptica con el Sol en uno de los focos. Unas veces está más
alejado del Sol y otras más cerca. Se puede demostrar a partir de
la ley de la gravitación universal de Newton que cuando el planeta
está más alejado del Sol tiene mayor energía potencial gravitatoria
(y «caerá» más rápidamente al Sol porque está más «alto»). La
segunda ley de Kepler dice que el radiovector que va desde el Sol
al planeta barre áreas iguales en tiempos iguales, explicando el
hecho conocido de que se mueve más deprisa cuanto más cerca
del Sol esté. Nuevamente se aprecia que se mueve más rápido
cuanto más cerca esté del Sol de manera que su energía cinética
es mayor cuando la potencial es menor. El análisis matemático
pondrá de manifiesto que la suma de ambas energías permanecerá
exactamente constante. (La segunda ley de Kepler también ilustra
otro principio de conservación que se discutirá en el capítulo 8 y
es la conservación del momento angular.)
Todos los ejemplos anteriores se han discutido en función de la
velocidad y de la posición y no es necesario que se aplique a ellos
la aceleración o las leyes de Newton del movimiento. Este puede
analizarse de forma muy simple empleando el principio de la
conservación de la energía mecánica total, siendo esta sencillez
una de las principales razones por las que se usa tan frecuentemente.
El principio se obtiene a partir de las leyes de Newton del
movimiento, que han de considerarse como supuestos aunque se
basen en observaciones. Igualmente podría considerarse al principio
de conservación un supuesto básico, «simplificándose» con ello la
Física.
Parece que en el Universo operan los sistemas conservativos
manteniendo siempre el mismo valor de la energía total, aunque
en realidad sólo son aproximadamente conservativos. Tanto el
péndulo como el balón irán deteniéndose lentamente y su energía
total se irá haciendo cero. Los planetas describen órbitas cada vez
mayores. ¿Existe, pues, una ley exacta de conservación para
dichos sistemas?
La respuesta es decir que la energía total se conserva cierta-
mente pero existe aún un tercer tipo de energía a la que se están
convirtiendo lentamente las energías cinética y potencial. Esta
nueva forma de energía a considerar es el calor. Los sistemas
poseen fuerzas de fricción (entre la bola del péndulo y el aire y en
el pivote en el caso del primer ejemplo) y la fricción genera calor (
como sabe la gente que se frota las manos para calentárselas). El
calor así originado se pierde gradualmente del sistema, escapándose
a los alrededores y calentándolos ligeramente. Los físicos del siglo
xix establecieron que toda la energía disipada aparece como calor
y que éste es otra forma de energía. Se procederá ahora a discutir
con cierto detalle la evolución de nuestros conocimientos sobre el
calor como una forma de energía. Desde el punto de vista
histórico, los tísicos consideraron seriamente que había una ley de
conservación sólo después de haberse demostrado que el calor era
una forma de energía.
Calor y movimiento

El calor se ha estudiado desde los tiempos prehistóricos.


Aristóteles consideró el fuego como uno de los cinco elementos
básicos del Universo. Más tarde se reconoció que el calor era
como un fluido que se movía de los objetos calientes a los fríos. A
este fluido se llamaba en la época de Galileo flogisto y se creía
que era el alma de la materia, pensándose que tenía masa y que
podía expulsarse o absorberse al arder los cuerpos.
El químico francés Antoine Lavoisier llegó a refinar la idea de
que el calor era un fluido durante la última parte del siglo xviii y
llegó a conocerse como teoría del calórico. La mayoría de los
científicos del siglo xix consideraron que era correcta. Se suponía
que el fluido calórico no tenía masa ni color y que en el Universo
se conservaba su cantidad total. (Lavoisier desarrolló su teoría
mientras comprobaba que en las reacciones químicas denominadas
oxidaciones o combustiones se conservaba la masa.) No era posi-
ble separar el fluido calórico, con sus características especiales, de
los objetos para poder estudiarlo en sí mismo y para poder expli-
car los fenómenos caloríficos hubo de aumentar el grado de abs-
tracción de la teoría del calórico. Aunque ésta no fuera correcta
llegaron a comprenderse con precisión fenómenos muy distintos.
Un ejemplo de proceso que creía comprenderse mediante el
análisis de la teoría del calórico era el funcionamiento de una
máquina de vapor. Constituye un buen ejemplo debido a que el
perfeccionamiento de los conocimientos sobre la naturaleza del
calor se originaron por los intentos de mejorar las máquinas de
vapor y porque sirve de introducción de los diferentes conceptos
importantes en el estudio del calor. La primera máquina de vapor
que funcionó fue construida en torno a 1712 por un herrero inglés
llamado Thomas Newcomen. En seguida se instalaron estas má-
quinas como fuente de energía de las bombas de agua de las
minas de carbón de toda Inglaterra, reemplazando las caras y
engorrosas bombas accionadas por tiros de caballos.
En la figura 4.1 se muestra de forma simplificada una máquina
de vapor de Newcomen. El fuego bajo la caldera produce cónti-
nuamente vapor de agua y el funcionamiento de la máquina se
logra fundamentalmente a través de cuatro pasos por medio de
dos válvulas, la del vapor y la del agua: 1) Se abre la válvula del
vapor para permitir que éste entre a la cámara del pistón, provo-
cando su subida y el descenso de la biela de la bomba. 2) Se cierra
la válvula de vapor. 3) Se abre la válvula del agua para permitir
que entre en la cámara agua fría pulverizada que condense al
vapor, cree un vacío parcial que tire hacia abajo del pistón y eleve
la biela. 4) Se cierra la válvula del agua. Este ciclo se repite una y
otra vez. Las válvulas se abrían y cerraban manualmente en los
Figura 4.1.—Representación esquemática de las primitivas máquinas de vapor. a)
Máquina de Newcomen. b) La presión del vapor acciona el pistón hacia arriba. c) El
vapor condensado tira del pistón hacia abajo. d) Máquina de vapor perfeccionada por
Watt con condensador separado.
primeros modelos pero más adelante se cayó en la cuenta de que
si se usaban engranajes y palancas la propia máquina podría
abrirlas y cerrarlas «automáticamente».
Las primeras ideas sobre los fundamentos de la máquina de
vapor eran muy burdas si se comparan con las que se tienen en la
actualidad. Aunque se llamara máquina de vapor, lo que realmente
suministraba la energía de la máquina era el combustible que
ardía bajo la caldera y los primeros experimentadores no estaban
muy convencidos de ello. Creían que el origen de la potencia
estaba en el vapor y se medía la eficiencia de la máquina en
función de la cantidad de vapor consumido. Muchas de estas
primitivas ideas perfeccionaron considerablemente la máquina,
sobre todo las del inventor escocés James Watt, que patentó en
1769 la primera máquina de vapor verdaderamente eficaz.
La paredes del cilindro se enfriaban en la máquina de Newco
men durante la condensación o carrera descendente del ciclo. Al
admitir vapor el cilindro durante la expansión, o carrera ascendente.
unos 2/3 del mismo se gastan en volver a calentar sus paredes de
forma que el resto del vapor siga estando lo suficientemente
caliente para ejercer la presión que hace subir el pistón. Watt se.
dio cuenta de que era necesario un paso de condensación para que
la máquina pudiera funcionar cíclicamente, pero que el enfriamiento
del vapor podía tener lugar en un lugar distinto al del cilindro
caliente. En su máquina introdujo una cámara separada, llamada
condensador, que realizaba el paso de la condensación, como se
representa en la figura 4.1d. El condensador se situó entre
válvula del agua y la cámara del pistón, y entre los pasos 2 y
aludidos anteriormente el vapor era llevado al condensador por
una bomba, que no se muestra en el diagrama, modificándose
convenientemente el paso 3. Además, el agua del condensador
hacía regresar a la caldera.
Watt también advirtió que el paso de condensación necesario
se traducía en la pérdida de algo de vapor, que no podría empujar
posteriormente el pistón. Para reducir la cantidad relativa de
vapor perdido con el paso de condensación decidió emplear vapor
a mayor presión (y, por consiguiente, a una temperatura mas
elevada) en los pasos iniciales de la fase de expansión. Así, incluso
después de cerrar la válvula de admisión de vapor, éste continuar,
en el cilindro a una presión lo suficientemente alta para segur
expandiendo y empujando el pistón hacia arriba. Durante la
expansión caerá la presión y aunque se «enfríe» todavía realizará
trabajo. El paso de condensación sólo tendrá lugar una vez que se
haya realizado este trabajo adicional.
La máquina de Watt era tan eficaz con estas y otras mejoras
que en lugar de venderla la regalaba, y los usuarios habían de
pagar a Watt lo que se ahorrasen en los costos de combustible
durante los tres primeros años de funcionamiento. Watt y su socio
Matthew Boulton se hicieron ricos y al disponerse de una fuente
de energía barata la Revolución Industrial cobró en Inglaterra un
auge tremendo.
Un paso importante del conocimiento de los principios científicos
básicos subyacentes al funcionamiento de la máquina de vapor fue
dado por un joven ingeniero militar francés llamado Sadi Carnot.
En 1824 publicó un pequeño libro titulado Reflexiones sobre la
potencia motriz del fuego* en el que presentaba un penetrante aná-
lisis teórico acerca de la generación de movimiento por el uso del
calor. Carnot fue un adelantado de su época y sus contribuciones
pasaron prácticamente desapercibidas durante veinticinco años.
Carnot advirtió al considerar el trabajo de Watt que el verdadero
origen de la energía de la máquina de vapor era el calor derivado
del combustible y que la máquina era simplemente un medio efi-
caz de emplear el calor para generar movimiento. Por consiguiente,
decidió analizar los fundamentos por los que el calor producía
movimiento pensando que cuando se comprendieran sería posible
diseñar máquinas más eficaces aún que las que había desarrollado
Watt. Empleando la entonces admitida teoría del calórico llegó a
algunos resultados notables pese a que fuera errónea. Después de
publicar su libro se dio cuenta de que la teoría del calórico podía
estar equivocada, pero no pudo seguir estudiando el asunto al
morir de cólera. No obstante, explicó el funcionamiento de la
máquina de vapor usando una analogía extremadamente útil para
comprender la potencia motriz del calor.
Según la teoría del calórico, el calor es un fluido que se mueve
desde los objetos calientes a los más fríos y es sencillo comprender
que
* SelaEditorial,
Alianza máquina
dispone de de traducción
Madrid,
una vapor es del
1987. (N. el T)
equivalente
castellana térmico
de la obra de la
por Javier noria
Odón Ordóñez,
James Watt.

mecánica. Ésta saca la energía de la corriente de agua que fluye


desde un lugar más elevado a otro más bajo. Se puede considerar
que la temperatura de los objetos es análoga a las alturas respectivas
de la corriente de entrada y de salida. Se sabe que manteniendo
constante el flujo de agua de la noria se realizará tanto más
trabajo cuanto mayor sea la rueda (en otras palabras, cuanto más
diferencia exista entre la altura del agua de entrada y de salida).
Carnot sugirió que una máquina de vapor, a la que debiera
llamarse más apropiadamente máquina térmica, realizaría tanto
más trabajo, utilizando la misma cantidad de calor (fluido calórico)
cuanto mayor fuera la diferencia de temperatura de los cuerpo,
por los que había de fluir.
Hay que ser inteligente para sugerir algo así. La diferencia de
temperatura existente en una máquina de vapor es la que hay
entre el calor del vapor y la de los alrededores. El vapor se
encuentra a la temperatura del punto de ebullición del agua y en
una primera inspección podría parecer que tanto la temperatura:
alta como la baja no se pueden controlar. Carnot apuntó, no
obstante, que cuando se produce vapor a gran presión su tempera-
tura es más elevada que la del punto de ebullición del agua
normal (lo que constituye el fundamento de una olla a presión).
Una presión más alta es en realidad un medio de conseguir una
temperatura más elevada y una mayor diferencia de temperatura.
Carnot explicó de esta forma por qué Watt mejoró la máquina
usando presiones más altas. Todas las máquinas de vapor modernas
funcionan a altas presiones, lográndose con ello un aumento de su
eficiencia.
Parecía que la teoría del calórico explicaba muy bien el
funcionamiento de la máquina de vapor así como otros aspectos
del flujo de calor. Usando los términos de esta teoría podrán
presentarse ahora algunos de los conceptos y definiciones que se
necesitarán más adelante.
Uno de los primeros hechos en apreciarse sobre el flujo de
calor fue que siempre iba el calor desde los objetos calientes a los
fríos. Cuando se ponen en contacto dos objetos a distinta tempera-
tura, el más frío se calienta y el más caliente se enfría. Jamás se
observa lo contrario. La teoría del calórico da cuenta de lo
observado constatando simplemente que una diferencia de tempe-
ratura provoca un flujo de calor. El calor fluye «temperatura
abajo» y si se emplea la analogía de la noria es lo mismo que
decir que el agua siempre fluye cuesta abajo.
Otra característica del calor es que se requiere una cierta
cantidad del mismo para elevar la temperatura de un objeto
determinado un número concreto de grados. Es más difícil «calen-
tar» un cuerpo grande que uno pequeño, es decir, el primero
requiere más calor. La temperatura es, según la teoría del calórico,
la «altura» del fluido calórico dentro del objeto. Se denomina
capacidad calorífica de un cuerpo a la cantidad de calor que se
necesita para elevar su temperatura un grado Celsius. Los cuerpos
que tengan la misma masa pero que estén formados de materia
distinta podrán requerir diferentes cantidades de calor para calen-
tarlos hasta una temperatura dada. Esta característica de un
material viene dada por su calor específico, cuyo valor numérico
está determinado por la cantidad de calor necesario para elevar un
grado Celsius de temperatura un gramo de material.
Como patrón se ha elegido el agua y se define su calor
específico como la unidad. La cantidad de calor requerido para
elevar la temperatura de un gramo de agua un grado centígrado se
llama caloría (o «unidad» de fluido calórico). Los físicos del siglo
xviii, creían que los materiales con diferentes calores específicos
poseían distintas facultades para conservar el fluido calórico. La
capacidad calorífica de un cuerpo se calcula multiplicando su
masa por su calor específico.
Otra de las características de los materiales explicada dentro
del marco de la teoría del calórico es el calor latente. El agua
proporciona un buen ejemplo de este concepto. Cuando se calienta
agua su temperatura sube relativamente deprisa hasta alcanzar el
punto de ebullición. Si se introduce un termómetro en el agua se
verá este rápido aumento de temperatura hasta llegar al punto de
ebullición (100° C, 212° F) y permanece en él mientras se
produce la evaporación. Puesto que la temperatura no sube aunque
se siga añadiendo calor, puede uno preguntarse ¿adónde va el
calor añadido? Los partidarios de la teoría del calórico respondían
que entraba en el agua en una forma oculta o latente, pero no
indicaban que desapareciera.
No existe ninguna duda de que se está añadiendo calor durante
este tiempo, simplemente va a parar a una forma invisible, pudiendo
recuperarse completamente enfriando el agua. Este calor oculto se
llama calor latente de vaporización. El fenómeno paralelo que se
observa al derretirse el hielo se denomina calor latente de fusión
Estos calores latentes se pueden observar siempre que se produce
un cambio de sólido a líquido o de líquido a gas, son distintos para
cada material y se determinan por la cantidad de calor que se
requiere para evaporar o fundir un gramo de sustancia.
El hecho de que el calor absorbido como calor latente se
liberara posteriormente cuando el material se enfriara se considero
significativo. Así, el agua en forma de vapor escalda más que la
misma cantidad de agua líquida a la misma temperatura. El calo:
latente del vapor se libera al condensarse sobre la piel. Parecia
como si se conservara algo, como si no se destruyera. Se creía que
esta cantidad conservada era el fluido calórico.
Existían otros fenómenos, no obstante, que no podía explica:
adecuadamente la teoría del calórico. Algunos de estos «fenómenos
problemáticos» condujeron a que los físicos realizaran ciertas
investigaciones que acabaron por demostrar que no existía un
fluido calórico en absoluto. Tal vez sea el más conocido de ellos el
calor producido por fricción. Las manos pueden calentarse frotán-
dolas simplemente. El calor que se siente no parece tener un
origen térmico, ya que no existe ningún fuego u objeto caliente
que suministre el flujo de calor para dirigirse a las manos frías. ¿
De dónde viene, pues, el calor? Si el calor se generase de alguna
forma donde no hubiera existido anteriormente, habría de producirse
fluido calórico, pero se creía que el fluido calórico no se podía
crear o destruir sino únicamente fluir desde unos objetos a otros.
Por consiguiente, ¿de dónde procedía el fluido al tener lugar la
fricción?
La respuesta de los caloristas consistía en que se liberaba calor
latente durante la fricción. Afirmaban que tenía lugar un cambio
de estado, exactamente lo mismo que ocurre cuando un líquido
pasa a gas, al desprenderse del objeto pequeñas partículas debido
a la fricción, como cuando se trabaja con un torno. Algunos
caloristas decían que el material se «dañaba» y «sangraba» calor,
respuestas que nunca fueron enteramente satisfactorias. Los pe-
queños trocitos separados por la fricción parecían ser del mismo
material original y con el tiempo llegó a demostrarse que esos
polvos tenían las mismas propiedades que los materiales de origen,
calor específico incluido, y que, por tanto, no podían haber
experimentado un cambio de estado.
Uno de los primeros investigadores en sentirse impresionado
ante esta dificultad fue el conde Rumford'. En un famoso experi-
mento llevado a cabo en 1798 midió la cantidad de calor liberado
durante el torneado de cañones en el arsenal real bávaro de
Munich. Le sorprendió mucho la enorme cantidad de calor liberado y
la pequeña cantidad de virutas que se desprendían. Estaba
convencido de que esta enorme cantidad de calor no podía
provenir del calor latente. Al medir el calor específico de las
virutas pudo comprobar que era el mismo que el del material
original. Ruinford procedió a demostrar que podría producirse
tanta cantidad de calor como se deseara sin que, de hecho, se
redujera la cantidad total del metal. Sencillamente se formaban
Anteriormente Benjamin Thompson, uno de los primeros colonos americanos y tory que
abandonó Inglaterra durante la Revolución Americana. Resulta algo irónico que Rumford,
que contribuyó al derrocamiento de la teoría del calórico, se casara con la viuda de Lavoisier,
el primer científico que la propuso.
virutas sin que tuviera lugar un cambio de estado e incluso decidió
demostrar que podía generarse calor sin que se formaran virutas
en absoluto. Rumford se cuestionó seriamente la interpretación de
los caloristas y sugirió que el calor producido era realmente calor
nuevo.
Los caloristas aceptaron rápidamente el resultado de los expe-
rimentos de Rumford creyendo que proporcionaban importantes
indicaciones sobre la naturaleza del fluido calórico. Se afirmaba
que tales experimentos ponían de manifiesto que el fluido calórico
debía estar formado de pequeñas partículas, prácticamente sin
masa, que existían en los cuerpos en muchísima mayor cantidad
que las que se liberaban por la fricción. Esta interpretación es muy
parecida a la idea moderna de electricidad como resultado de los
electrones de los átomos. Los experimentos de Rumford ampliaron
de muchas formas los conocimientos en relación con el fluido
calórico.
Un segundo tipo de fenómenos que causaba dificultades a la
teoría del calórico era la contracción y expansión de los gases. En
un experimento muy poco conocido llevado a cabo en 1807 por el
físico francés Joseph Louis Gay-Lussac se midió la temperatura
de un gas permitiéndosele expandir en una cámara desocupada
(esto es, a la que se le había retirado el aire). Al medir la
temperatura tanto en la cámara original como en la que se había
hecho previamente el vacío encontró que eran las mismas e igual
a la que primitivamente tenía el gas. Suponiendo que ambas
cámaras fueran del mismo tamaño, la teoría del calórico predecía
que en cada una de ellas debería haber la mitad del fluido
calórico. Ya que se creía que la temperatura era determinada por
la concentración de fluido calórico, tendría que haber resultado
una temperatura inferior a la original. Este experimento y otros
parecidos no podían comprenderse por los caloristas y en realidad
no los comprendió ningún científico durante más de treinta años.
Los cuidadosos experimentos llevados a cabo en la década de
1840 por el físico británico James Joule asestaron el golpe de
muerte a la teoría del calórico. Se sabía muy bien que el calor
podía realizar trabajo y los caloristas lo comprendían empleando
la analogía de la noria o molino de agua. El calor realiza trabajo
al fluir temperatura abajo lo mismo que puede realizarlo el agua
al correr cuesta abajo. ¿Produciría calor el trabajo? Se trata de
una de las cuestiones más importantes planteadas durante todo el
desarrollo de los conocimientos actuales sobre el calor y la
energía. La teoría del calórico respondía negativamente, ya que
habría de crearse nuevo fluido calórico. Sería como fabricar agua
por medios mecánicos, lo cual es imposible. Los experimentos de
Joule demostraron que el trabajo se podía transformar en calor.

Figura 4.2.—«Mantequera» de Joule. Dispositivo empleado para determinar el equi-


valente mecánico del calor.

Animado por las investigaciones de Rumford y otros, Joule


empezó a estudiar si el trabajo mecánico produciría calor. Empleó
un dispositivo experimental consistente en una rueda de paletas
giratorias montada en el interior de un cilindro que contenía agua (
Fig. 4.2). Las aspas de las paredes internas del cilindro permitían
escasamente que las paletas pasaran entre ellas al tiempo que se
agitaba el agua. Joule deseaba conocer simplemente si girando las
paletas subiría la temperatura del agua. Las aspas aseguraban que
las paletas sólo pudieran «agitar» el agua y sus constituyentes
microscópicos, es decir, las moléculas, se movieran más rápidas.
Si subía la temperatura del agua sería por causa del trabajo me-
cánico realizado por el giro de la rueda de paletas y tendría una
prueba directa de que el trabajo podía producir calor. Ciertamente
no podría hablarse de dañar o magullar al agua para que «sangrara»
calor.
Aunque la temperatura subió bastante poco y Joule hubo de
construirse un termómetro muy sensible, observó un aumento
definido de la temperatura del agua al girar las paletas. Llegó
incluso a diseñar un experimento que le permitiera medir la
cantidad de calor que producía una cierta cantidad de trabajo
mecánico. En vez de girar las paletas a mano montó un cilindro
metálico suspendido en una cuerda sobre una polea que permitía
girar las paletas al caer desde una cierta altura. Anteriormente se
ha definido el trabajo como el producto de fuerza por distancia.
En el experimento de Joule la fuerza es justamente el peso del
cilindro metálico y la distancia es la altura que se le deja caer.
Conociendo la cantidad de agua, su calor específico y el aumento
de temperatura, se puede deducir la cantidad de calor generado.
El experimento de Joule permitió calcular el equivalente mecánico
del calor y repitiéndolo empleando diversos tipos de líquidos,
siempre encontró el mismo valor, diferenciándose del que se
acepta actualmente sólo en un uno por ciento.
De los experimentos de Joule, que representan un hito en la
Historia de la Ciencia, pueden extraerse dos consecuencias extraor-
dinariamente importantes. La primera consiste en que el trabajo
mecánico puede provocar un aumento de temperatura. El trabajo
puede producir calor y, por tanto, éste no se conserva. La teoría
del calórico no puede ser correcta y en realidad no hay fluido ca-
lórico que crear o destruir. Puesto que el trabajo mecánico puede
producir energía cinética o potencial y Joule demostró que también
puede producir calor, éste ha de ser una forma de energía.
La segunda consecuencia importante es que permitió elaborar
una nueva teoría del calor. El giro de las paletas no podía hacerle
al agua nada más que agitarla, restricción que Joule había impuesto.
Hay que deducir que el agua agitada es agua más caliente. ¿Qué
es lo que está siendo agitado en el agua? Las moléculas de las que
está compuesta y que tienen el símbolo químico familiar H20, que
indica que se componen de dos átomos de hidrógeno y uno de
oxígeno. Han de ser las moléculas las que se agiten y cuanto más
lo hagan más se calentarán, por lo que la temperatura tiene que
estar relacionada con la energía de los movimientos microscópicos
de dichas moléculas. Por consiguiente, el cal or s ólo puede
comprenderse en los términos del movimiento molecular, tal
como describe el modelo molecular de la materia. -
El filósofo griego Demócrito sugirió en el 400 a.
mundo está hecho con unos pocos bloques de construcción básicos,
llamados átomos, demasiado pequeños para poder ser percibidos a
simple vista. Originariamente se creía que sólo existían unos
pocos tipos distintos de átomos. Más tarde llegó a creerse de
forma errónea que cada clase de material tenía un tipo distinto de
átomo: átomos de roca, de aire, de madera, etc. Actualmente se
sabe que existen cientos de miles de sustancias químicas distintas
llamadas compuestos. La porción más pequeña de un compuesto
no se denomina átomo sino molécula. Las moléculas, no obstante,
están formadas de átomos y de éstos sólo existe un centenar. Cada
átomo está relacionado con uno de los elementos, desde el hidró-
geno hasta el uranio. Las moléculas y sus átomos constituyentes
obedecen las leyes de la Mecánica y las de conservación de la
energía y del momento, pero la fuerza dominante en ellas es la
eléctrica y no la gravitatoria.
Hay que hacer constar que los objetos identificados como
átomos no son los bloques de construcción fundamentales como
se había creído originariamente. Los átomos están formados de
protones, neutrones y electrones. Actualmente se piensa que incluso
los protones y neutrones se fabrican con unidades más pequeñas
aún denominadas quarks. Para comprender la naturaleza del calor
no es necesario interesarse por la estructura de las moléculas.
Considérese lo que le ocurre a una molécula de una sustancia
como el agua cuando pasa de gas (vapor) a líquido (agua) y a
sólido (hielo). Cuando el agua se encuentra en forma gaseosa sus
moléculas prácticamente no están unidas unas a otras. Cada una
tiene libertad de trasladarse en la dirección que sea así como de
girar y rodar. Un gas a presión normal (la presión de la atmósfera
que nos rodea) se compone de moléculas que no se mueven
durante mucho tiempo en una dirección concreta sin que colisionen
antes con otras y, obedeciendo las leyes de Newton del movimiento
y las de la conservación del momento y la energía, saldrán
despedidas. Si se mezclan dos gases, por ejemplo, rociando con
perfume la esquina de una habitación, después de chocar muchas
veces con las moléculas de los gases que hay en el aire, acabarán
difundiéndose por todas direcciones y el perfume se podrá oler por
toda la habitación cuando sus moléculas se hayan mezclado con
las que hay en el aire.
Cuando se enfría un gas, sus moléculas se moverán más
despacio y en general no chocarán entre ellas con tanta velocidad
como ocurría cuando el gas estaba caliente. Si se enfría lo
bastante terminará condensándose en líquido. En este estado, las
moléculas todavía tendrán bastante libertad de moverse por todas
partes chocando unas con otras. Sin embargo, existe una pequeña
fuerza de atracción entre ellas de origen eléctrico que impide que
una molécula escape de todas las demás y abandone el líquido.
Los líquidos pueden permanecer en una vasija durante bastante
tiempo incluso aunque no esté tapada. Se sabe, no obstante, que la
mayoría de los líquidos corrientes se evaporan poco a poco. Ello
se puede explicar pensando que ocasionalmente una molécula
concreta será golpeada por otras dos o tres en rápida sucesión y
llevada a la superficie del líquido. Estos choques le confieren una
velocidad lo suficientemente grande para superar la fuerza neta
que le están ejerciendo las restantes. Si no se producen nuevas
colisiones podrá escapar del líquido.
Cuando se enfría más aún el líquido termina «congelándose» a
sólido. Las moléculas se mueven ahora tan despacio que las
pequeñas fuerzas que se ejercen unas a otras son suficientes para
mantenerlas en una posición. Una molécula concreta no tiene
libertad de moverse entre las demás, sino que sólo puede vibrar
alrededor de un punto determinado.
Numerosos experimentos cuidadosos han verificado repetidas
veces la concepción molecular de los estados de la materia. No se
conoce la existencia de «fenómenos problemáticos» que cuestionen
la exactitud de lo que se cree que ocurre cuando la materia pasa
desde el estado gaseoso al sólido al ir descendiendo la temperatura (
aunque no se comprendan aún del todo muchos de los detalles de
estas transiciones). En resumen, los gases, líquidos y sólidos están
compuestos por partículas (moléculas) en movimiento sujetas a las
leyes de la Mecánica.
La mayoría de las primitivas discusiones se comprenden hoy
día en sus pormenores. La absorción de calor hace que las
moléculas se muevan más deprisa y su disipación hace que se
muevan más despacio. Si las moléculas de un gas se mueven
rápidamente está «caliente». En realidad, la temperatura de un
gas (cuyas moléculas interaccionan con choques elásticos) es
simplemente una medida de la energía cinética del movimiento
traslacional aleatorio de todas ellas. ¡Se sabe que la velocidad
media de una molécula de hidrógeno gaseoso a temperatura
ambiente es de unos 6.400 km• h- 1 ! (Las moléculas de oxígeno,
con una masa de dieciséis veces superior a la del hidrógeno, llevan
una velocidad media, en las mismas condiciones, de unos 1.600
km• h- 1 . Recuérdese que la energía cinética se calcula por la
expresión 1/2 mv2.) Puesto que en un litro de aire hay muchísimos
billones de moléculas, cada una de ellas chocarán entre sí bastante
frecuentemente (puede calcularse que una molécula choca con
otras unos cien mil millones —10"— de veces por segundo).
Es interesante indicar que una de las primeras comprobaciones
directas de la naturaleza molecular de la materia la proporcionó
Albert Einstein al observar el movimiento de pequeñísimas partí-
culas sólidas supendidas en un líquido. Este movimiento browniano
es muy irregular, ya que procede en zigzag, esto es, la partícula se
mueve un corto trecho en una dirección y rápidamente se mueve
en otra, una y otra vez. Einstein demostró cuantitativamente que
el movimiento se debía al bombardeo de la partícula por las
moléculas del líquido, más pequeñas aún'. Un «rayo de sol» que
penetre en una habitación oscurecida permite visualizar el mismo
tipo de movimiento en las partículas de polvo.
La razón por la que un gas ejerce presión en un neumático
puede comprenderse fácilmente. Las moléculas individuales golpean
rápidamente la pared del mismo manteniéndola tensa. Aunque
cada una de las moléculas es muy ligera, golpea el neumático
muchísimas veces por segundo y la presión no es más que la
fuerza media ejercida sobre las paredes por los golpes de las
moléculas. Las moléculas del aire que hay fuera del neumático
también ejercen simultáneamente
2 El movimiento una presión en la pared externa
browniano puede observarse con un microscopio de escaso
aumento, pero las moléculas son tan pequeñas que no se pueden ver significativamente
ni con los microscopios más potentes de los que se dispone. Muchos científicos creían
que no existían pruebas convincentes en favor de las moléculas hasta que Eisntein
publicó su trabajo en el año 1905. En este año también publicó su primer artículo
sobre la Teoría de la Relatividad (capítulo 6).
del mismo. Pero como hay más moléculas por unidad de volumen
en el interior, la presión será mayor que la externa, de forma que
podrá soportar el vehículo. La mayor presión interior se logra
haciendo que haya más moléculas por unidad de volumen en la
parte interna que en la externa (bombeando aire). Al subir la
temperatura del interior también lo hará la presión, ya que las
moléculas adquieren mayor energía cinética. Este aumento de
presión tiene lugar cuando un neumático realiza un viaje largo en
un día caluroso.
Puede comprenderse ahora con detalle el concepto de calor
específico. Recuérdese que es la cantidad de calor necesario para
elevar la temperatura de un gramo de sustancia un grado Celsius.
Ello significa el aumento de la energía cinética media de las
moléculas. Dependiendo de la disposición geométrica real de los
átomos de una molécula o sólido, son posibles diferentes formas
de movimiento (incluyendo vibraciones internas). Los calores
específicos de los distintos compuestos varían porque los diversos
modos de vibración también son diferentes. Lo mismo puede
comprenderse el concepto de calor latente. Así, para producir la
ebullición de un líquido habrá que suministrar el suficiente calor
para superar la fuerza neta que sobre una molécula dada ejercen
todas las demás, que permanecen en estado líquido aunque no se
aprecie un aumento de temperatura de éstas. Una vez que se
absorbe el calor necesario para romper los enlaces entre las
moléculas y el líquido hierve a gas, todo el calor que se añada
aumentará la energía cinética de las moléculas y se producirá una
subida de temperatura.
El modelo cinético-molecular de la materia reduce las dificul-
tades para comprender el calor y considera a los estados de la
materia como sistemas de partículas entre las que existen determi-
nadas fuerzas y obedecen a las leyes de la Mecánica. El éxito de
este modelo hizo creer que las leyes de Newton permitían una
descripción unificada y detallada del comportamiento de todos los
objetos, fueran grandes o pequeños. Sólo el desarrollo en el si-
glo xix de la Relatividad y de la Mecánica Cuántica (discutido en
los capítulos 6 y 7) impuso limitaciones a la universalidad de las
leyes de Newton.
Conservación de la energía

Ya se ha dicho lo suficiente para darse cuenta de que el calor


es otra forma de energía, como lo es la energía cinética y
potencial. Al discutir sobre los sistemas conservativos (el péndulo,
por ejemplo) se llegó a la conclusión de que la energía mecánica
total se mantenía a un valor casi constante. El hecho de que el
péndulo termine parándose indica que la energía total calculada
como la suma de la cinética más la potencial no se conserva
exactamente. Parece razonable que la fricción del pivote y la
producida entre la bola y el aire son las responsables de que se
detenga lentamente.
Se ha visto que la fricción genera calor (experimentos del
conde Rumford) y que éste es una forma de energía. Aunque sería
pertinente comprobar si todo el calor generado por el péndulo es
exactamente igual a la pérdida de energía mecánica, sería un
experimento muy difícil de llevar a la práctica de una forma
precisa. Se necesitaría disponer de un medio que midiera la
cantidad de calor producido y ver si representa la energía perdida
por el péndulo. Joule midió la cantidad de calor producida por una
cantidad definida de trabajo mecánico, y éste, desde luego, produce
energía. ¿Cómo se pudo establecer que no se perdía algo de la
misma? Si el calor producido en el experimento de Joule pudiera
convertirse completamente en energía mecánica (cinética o poten-
cial) podría demostrarse la conservación de la energía. Pero
resulta que la energía térmica jamás se puede transformar total-
mente en otras formas (lo que se discutirá detalladamente en el
próximo capítulo). ¿Cómo llegaron a creer unos pocos científicos
que si se consideraba al calor como una fuente de energía se
conservaba siempre la energía total de un sistema aislado?
Quizá fuera el médico alemán Julius Robert Mayer (1812-
1872) el primer científico en convencerse completamente de la
conservación de la energía. En 1840 trabajó de cirujano en un
barco y mientras navegaba a Java advirtió que la sangre de los
miembros de la tripulación que trató era más roja en los trópicos
que en Alemania. Conocía la teoría de Lavoisier según la cual el
calor corporal procedía de la oxidación de los tejidos por el
oxígeno de la sangre. Mayer razonó que, dado que el cuerpo
necesitaba producir menos calor en los trópicos que en Alemania,
la sangre estaba más roja porque se retiraba menos oxígeno de
ella.
Le intrigó el fenómeno y continuó pensando en sus implicacio-
nes. Advirtió que el calor corporal debía calentar el ambiente. El
calor procedía, desde luego, de la oxidación de la sangre que
circula por el cuerpo, pero hay otra forma en la que el cuerpo
puede calentar los alrededores, y es realizando trabajo que produzca
fricción, llegando también a la conclusión de que se debía a la
oxidación de los tejidos corporales por la sangre. Por consiguiente.
el proceso de oxidación cedía calor a los alrededores tanto direc-
tamente, por radiación del calor del cuerpo, como indirectamente,
a través de trabajo mecánico (por acción de los músculos). Puesto
que en ambos casos el calor producido ha de ser proporcional al
oxígeno consumido, calor y trabajo han de ser equivalentes, esto
es, tantas unidades de uno han de ser exactamente igual a otras
tantas del otro. Más tarde llegó a la conclusión de que la energía
almacenada inicialmente en los alimentos se convertía durante el
proceso de oxidación en otras formas, como calor y trabajo
mecánico. Éste fue el comienzo de las ideas de Mayer sobre la
conservación de la energía.

Todo esto fue relativamente fácil para él seguramente porque


ignoraba la teoría del calórico y no consideró que el calor en si
había de conservarse y que no podía crearse en un sitio en el que
previamente no estuviera ya. Supuso que todo el calor del cuerpo
era nuevo. Su ignorancia de una teoría tan admitida fue un,
ventaja al principio pero más tarde le causó muchas dificulta
des a la hora de dar a conocer sus ideas. Después de llevar a ca
bo muchas investigaciones y razonamientos publicó privadamente
un folleto titulado «Relaciones del movimiento orgánico con Ia
nutrición» en el que reconocía diferentes formas de energía
como mecánica, química, térmica, electromagnética, calorífica

comestible. Incluso propuso, adelantándose ochenta años a si


tiempo, que el Sol era el origen último de todos esos tipos de
energía.
La propuesta de Mayer de la conservación de la energía so
ridiculizó o simplemente se ignoró debido a su lenguaje arcaico, a
uso de la Metafísica o incluso el empleo en ocasiones de idea
físicas incorrectas. Pasó muchos años tratando de convencer a lo
científicos de sus conclusiones, viendo cómo otros se aprovechaba i
de sus ideas y perdiendo su salud al cabo del tiempo a causa de
profundas frustraciones.
Aunque Julius Mayer pudo haber sido el primer científico que
reconoció la ley de la conservación de la energía, fue el trabajo
experimental de Joule descrito anteriormente el que condujo a que
la comunidad científica aceptara esta idea. William Thomson, lord
Kelvin, un conocidísimo físico británico de mediados del siglo xix,
se dio cuenta de la importancia del trabajo de Joule y consiguió
que lo admitiera la Royal Society de Londres. Lord Kelvin había
creído anteriormente con firmeza en la teoría del calórico y
conocía el extenso trabajo de Carnot sobre las máquinas térmicas,
pero con el tiempo reconoció que el trabajo de Joule proporcionaba
la pista vital que permitía el correcto análisis de las mismas. La
cantidad de calor que se transfería a un depósito de baja tempera-
tura (la atmósfera de los alrededores) es menor que la cantidad de
calor que se retira de otro de alta temperatura (el vapor del
condensador), siendo la diferencia el trabajo mecánico realizado.
Calor y trabajo mecánico han de ser dos formas distintas de una
misma cosa: energía. El que Kelvin reconociera este hecho de las
máquinas térmicas fue un paso muy importante en el desarrollo
del concepto de energía.
Joule siguió realizando cuidadosos experimentos y fue capaz
de demostrar que la energía eléctrica podía convertirse en calor.
Por esta época ya se conocía que ciertas reacciones químicas
podían generar una corriente eléctrica, preparándose el terreno
para que finalmente se reconociera que la energía tenía diversas
formas y que éstas eran interconvertibles.
Cuando Joule terminó muchos de sus, ahora, famosos experi-
mentos parece que estaba convencido de que la energía era algo
que no se podía destruir, sino sólo transformarse. En los años
siguientes a 1845 en que Joule expuso una teoría de la conservación
de la energía casi nadie creyó que fuera correcta. El mundo
empezó a aceptar la idea sólo cuando Kelvin se convenció de la
exactitud de los experimentos de Joule y su relación con la nueva
interpretación del flujo de calor en una máquina térmica.
Existe también un tercer «codescubridor» de la idea de la
conservación de la energía. El médico alemán Hermann von
Helmholtz presentó en 1847, a los veintiséis años, un trabajo
titulado «Sobre la conservación de la fuerza». No conocía el
trabajo de Mayer y sólo llegó a oír de los experimentos de Joule al
final de sus propias investigaciones. Helmholtz llegó a la conclusión
de que la energía debía adoptar diferentes formas y que su
cantidad total debía conservarse. Llegó a este concepto porque
creía que el calor, la luz, la electricidad, etc., eran formas de
movimiento y, por tanto, de energía mecánica (cinética). Debió
parecerle evidente que siempre se conservaba la energía cinética,
y no únicamente en las colisiones elásticas, porque se transformaba
en otras formas que en realidad también eran energía cinética.
Con el tiempo se apreció que muchas cosas que Hclmholtz había
dicho atrevidamente eran correctas aunque no todas las formas de
energía pudieran convertirse en energía cinética. La reacción
inmediata que desencadenó su trabajo fue desalentadora y la
mayoría de los historiadores de la Ciencia están de acuerdo en
que fueron los experimentos de Joule, respaldados por la reputación
e influencia de Kelvin, los que llegaron a convencer a los físicos
del siglo xix de que realmente existía una ley de la conservación
de la energía.
Lo que se ha discutido hasta aquí se puede resumir de la
manera siguiente. El calor es una forma de energía y cuando se
tiene en cuenta todas las formas de ésta se puede comprobar que
la cantidad total de energía de un sistema aislado se conserva.
Ésta es la ley de la conservación de la energía. ¿Cuáles son todas
las formas posibles de energía?
Para los propósitos de este libro puede considerarse que existen
cinco formas básicas de energía: 1) cinética, 2) térmica, 3) potencial,
4) radiante y 5) masa.
La energía cinética es la mitad de la vis viva de Huygens (esto
es, 112 mv 2 ), la energía asociada a un cuerpo animado de movi-
miento organizado. El calor se ha discutido con ciertos detalles
como la energía absorbida o liberada por los modos microscópicos
del movimiento desorganizado de las moléculas individuales de la
materia. La cantidad de energía calorífica está determinada por el
cambio de temperatura del objeto (la energía cinética media del
movimiento microscópico aleatorio de las moléculas) y la cantidad
de materia que posee el objeto (el número de moléculas). La
energía potencial es la que está asociada con la forma, configuración
o posición de un objeto en un campo de fuerzas. Originariamente
se introdujo como energía potencial gravitatoria, pero debido a la
investigaciones de Joule y otros se sabe actualmente que adquiere
diversas formas entre las que se incluyen 1) gravitatoria, 2) eléc-
trica, 3) química (eléctrica a escala microscópica) y 4) nuclear.
Siempre que la energía aparezca en alguna de estas posibles
formas puede convertirse completamente (aunque en ocasiones no
sea práctico) en energía cinética o calorífica (la energía cinética
microscópica aleatoria).
La cuarta clase importante de energía dada anteriormente es
la radiante o electromagnética, una forma que no ha sido discutida
hasta ahora. Durante mucho tiempo se creyó que la energía ra-
diante, como la luz, era una forma de calor, pero no es así, siendo
una forma que puede convertirse completamente en otras.
Einstein sugirió en 1905 (capítulo 6) que la masa era una
forma de energía, lo que se verificó unos treinta años después al
observarse experimentalmente en determinadas reacciones nucleares.
Hasta el trabajo de Einstein se creía que las leyes de conservación
de la masa y de la energía estaban separadas. Newton había
incluido en sus Principia la ley de la conservación de la masa. La
masa y las demás formas de energía se conservan de hecho
separadamente con muy buena aproximación siempre que en los
procesos no intervengan reacciones nucleares o velocidades muy
elevadas. Las reacciones químicas ordinarias, como la oxidación,
implican transformaciones extremadamente pequeñas de masa en
energía y viceversa. Puesto que las reacciones nucleares no se dan
de forma natural en la superficie terrestre (excepto en los materiales
radiactivos, que no se conocieron hasta 1896), los primeros inves-
tigadores que llegaron a establecer la conservación de la energía
no tenían razones para considerar la masa como otra forma de
energía.
Una de las cantidades que han de determinarse para caracterizar
completamente un sistema es su energía total. No sólo hay que
determinar su tamaño, masa, temperatura, etc., sino también la
cantidad total de energía. Ello es ciertamente más apropiado que
indicar su contenido de calor, que es lo que se hacía antes de que
se desarrollara completamente el concepto de energía.
El funcionamiento de un sistema se puede analizar dando
cuenta de su cantidad total de energía y de la manera en que fluye
de una forma a otra. Para un sistema aislado se sabe que si
desaparece una cierta cantidad de una forma ha de aparecer en
otra, lo que proporciona una clave a la hora de analizarlo. Con-
sidérese a modo de ejemplo una máquina térmica. Si se realiza
trabajo sobre ella habrá de aplicarse energía procedente de alguna
parte. Inversamente, si la máquina ejecuta trabajo suministrará a
lo que sea una cantidad muy definida de energía, ya sea cinética (
aumentando la velocidad de un coche, por ejemplo) o potencial (
elevando un peso, por ejemplo). En el capítulo siguiente se verá
que cuando Rudolf Clausius (1822-1888) volvió a analizar el
funcionamiento de una máquina térmica teniendo en cuenta la ley
de la conservación de la energía, llegó a demostrar que aunque el
calor era definitivamente una forma de energía se trataba de una
forma muy especial. Cuando se aplica a los sistemas, la ley de la
conservación de la energía se denomina primera ley de la Termo-
dinámica.
Quizá debiera considerarse brevemente qué es en realidad esta
energía cuya cantidad total se conserva en un sistema aislado. Lo
primero que hay que advertir es que consiste en una cantidad muy
abstracta. La energía no es un tipo de material. Cada clase de
energía está definida por una fórmula matemática de naturaleza
relativa. La energía potencial gravitatoria se mide normalmente
con respecto a la superficie terrestre. A veces, sin embargo, se
puede medir la cantidad de energía potencial de un objeto con
relación al suelo de una habitación, a la superficie de una mesa,
etcétera. Sólo se está interesado en saber la energía potencial de
un objeto en relación a los objetos inmediatos. La energía cinética
también es de naturaleza relativa, porque en la expresión 1/2 mv2.
la velocidad se mide en relación a una referencia arbitraria que
puede ser la Tierra, el suelo de una habitación, un coche en
movimiento, la Luna o lo que sea más conveniente según el caso.
Cualquier tipo de energía potencial o cinética es relativo.
La siguiente cuestión a comprender sobre la energía consiste
en que únicamente los cambios son significativos. No es necesario
seguir la suerte de todas las energías cinéticas o potenciales de un
objeto a menos se produzcan cambios. Es el cambio de la energía
potencial en cinética (o viceversa), por ejemplo, lo que hay que
resaltar y son precisamente estos cambios de energía los que
deben considerarse en la interacción de los sistemas. En realidad
las interacciones tienen lugar por los cambios energéticos. Siempre
que interaccionan dos sistemas hay que saber que si uno pierde
una cierta cantidad de energía el otro ha de ganar exactamente la
misma. Los científicos e ingenieros usan continuamente la ley de
la conservación de la energía al analizar y diseñar sistemas
relacionados con la transferencia de energía.
Es difícil exagerar la relación que existe entre energía y el
concepto físico de trabajo. El trabajo se define como fuerza
actuando sobre una distancia. En realidad trabajo es cualquier
cosa que se lleve a cabo en el mundo. Excepto pensar, que
también es considerado como «trabajo» por la mayoría de la
gente, cualquier tipo corriente de trabajo lleva implícito trabajo
físico. El trabajo produce energía (cinética o potencial, por ejemplo) y
la energía puede convertirse en trabajo. Como mejor se com-
prende lo que es la energía quizá sea desde el punto de vista de su
utilización. Energía es todo lo que puede realizar trabajo, todo lo
que provoca que una fuerza actúe sobre una distancia.
Al principio se pensó que el calor era un fluido, pero actual-
mente se reconoce que es una de las diversas formas de la energía.
La energía no es una sustancia (aunque originariamente sí se
creyera que lo fuera el calor). La energía es un concepto absoluta-
mente abstracto. Está asociada al movimiento, a la posición o a
las vibraciones y se determina mediante expresiones matemáticas
de distintas formas. La energía se puede convertir en fuerzas que
actúan sobre los objetos (Helmholtz se refería a la ley de la con-
servación de la energía como de la conservación de la fuerza
antes de que se distinguiera cuidadosamente entre energía y
fuerza). Lo que hace que el concepto de energía sea importante es
que se conserva. Es completamente asombroso que para que se
mantenga constante el valor de esta idea absolutamente abstracta
la Naturaleza «elija» entre las muchas posibles formas en que
puede transformarse la energía. También es importante conocerlo
desde el punto de vista práctico.
Para terminar este capítulo considérese el análisis de un
sistema energético corriente, la calefacción de una casa por una
resistencia eléctrica, para poner de manifiesto los conceptos rela-
cionados con la energía. En la mayoría del territorio de los
Estados Unidos la corriente eléctrica se produce quemando com-
bustibles fósiles. Originalmente la energía está almacenada en
forma de energía potencial química. Al quemarse el combustible,
su energía química se convierte en calor y posteriormente en la
energía cinética de un chorro de gas caliente que al ejercer una
presión sobre las paletas de una turbina se transforma en trabajo
mecánico. La turbina acciona el eje de un generador eléctrico
convirtiendo el trabajo en energía eléctrica que se envía a la casa
para su calefacción. Allí se convierte, bien en calor, bien en ener-
gía radiante. Finalmente es absorbida por el aire de las habitaciones
haciendo que las moléculas se muevan más: calor. (Estrictamente
hablando es mejor definir el calor como la energía transferida
entre dos cuerpos a consecuencia de la diferencia de temperatura
que existe entre ellos. No obstante, la temperatura de un objeto
está relacionada con el movimiento aleatorio de sus constituyentes,
al menos para los propósitos de este libro. No es más que un
ejemplo de la necesidad de simplificar un problema cuando se
desea explicar un tema complejo.)
La ley de la conservación de la energía no expresa que la
cantidad de energía liberada finalmente en la casa sea exactamente
igual a la que había almacenada inicialmente en el combustible
fósil. Todo el proceso implica una «pérdida» de energía en cada
uno de los pasos de manera que la cantidad total liberada en la
casa puede ser considerablemente menor que la inicialmente
disponible. La ley de la conservación de la energía sólo requiere
que toda la energía vaya a parar á algún sitio. Es frecuente que
algunos de los escapes de la red lo hagan en forma de calor que
aumentará la temperatura de los alrededores en ciertos puntos. La
ley también requiere que un punto del sistema no puede liberar
más energía de la que le llegue. Se han sugerido muchos esquemas
que pretenden conseguir precisamente eso, es decir, liberar más
energía de la que se absorbe. Todo dispositivo que viole la
primera ley de la Termodinámica se llama máquina de movimiento
perpetuo (o de primera especie), ya que parte de la energia
liberada podría emplearse en hacerla funcionar. Ninguno de esto
intentos ha sido llevado a la práctica con éxito, y la primera ley de
la Termodinámica permanece como uno de los principios mas
importantes que se conocen a la hora de describir el comporta
miento de la Naturaleza.
5
Entropía y probabilidad

La entropía dicta la dirección a tomar.


Rudolf Clausius. (Biblioteca Niels
Bohr del Instituto Americano de
Física.)

La idea de energía está tan profundamente arraigada en la vi-


da cotidiana que incluso un parque de Florida, Epcot, está dedicado a
ella. El concepto de energía no puede comprenderse completa-
mente hasta que no se entienda el concepto de entropía, una
cuestión que se menciona poco en Epcot, tal vez porque parezca
algo esotérica. Sin embargo, se trata de un concepto muy impor-
tante, máxime si se considera la penuria energética de las modernas
sociedades industriales. Hubo una época en que se creía que los
seres humanos disponían de fuentes inagotables de energía, pero
algunos autores creen que en la actualidad se pudiera estar ago-
tando la energía disponible, siendo necesario conservarla. (No se
trata del mismo tipo de conservación que el que expresa la pri-
mera ley de la Termodinámica.) Al hablar de escasez energética
se refiere uno a energía disponible, útil y «limpia», donde el sig-
nificado de las palabras útil y limpia está determinado, al menos
parcialmente, por las posibles consecuencias económicas, políticas y
ambientales de la transformación de la energía en una forma
«empleable».
La disponibilidad de la energía de un sistema está relacionada
con la entropía pero ésta significa mucho más de lo que indica su
relación con las transformaciones energéticas. El concepto de
entropía es especialmente significativo en Química y constituye
una parte importante de los estudios de científicos e ingenieros.
Por ejemplo, la entropía de una sustancia determina si existirá
como sólido, líquido o gas y la facilidad con la que cambiará de
un estado a otro. La interpretación microscópica del concepto de
entropía conduce a las ideas de orden-desorden, organización-
desorganización, irreversibilidad y probabilidad en el marco del
modelo cinético-molecular de la materia. Dichas ideas se han
desarrollado y ampliado convirtiéndose en una parte importante
de las teorías de la Información y Comunicación que se aplican a
los sistemas vivos, políticos y económicos. Este capítulo se dedicará
fundamentalmente a discutir el desarrollo del concepto de entropía y
su aplicación a las transformaciones energéticas, a tratar de la
reversibilidad e irreversibilidad y a estudiar la tendencia general
de los procesos que tienen lugar en los sistemas físicos.
Una de las consecuencias más importantes del concepto de
entropía es el reconocimiento de que el calor es una forma
«degradada» de energía en contraste con las otras formas de la
misma. Cuando la energía se encuentra en forma de calor esta
degradada en el sentido de que sólo es parcialmente utilizable, un
hecho a tener en cuenta al diseñar sistemas transformadores de
energía.
Unicamente en los sistemas aislados es siempre la misma la
cantidad de energía interna. Si el sistema no está aislado, como se
advirtió en el capítulo 4, la ley de la conservación de la energía
hay que formularla de distinta forma, aunque equivalente a la
anterior. El estado de un sistema se puede caracterizar o describir,
al menos parcialmente, en función del contenido de su energía
interna total y posteriormente en los términos de otras características
como temperatura, tamaño o volumen, masa, presión interna.
condición eléctrica, etc. Estas propiedades medibles o calculables
de alguna forma se denominan parámetros del sistema y cuando
éste cambia de estado lo hace también alguno de ellos. Es posi-
ble, en particular, que pueda cambiar el contenido de su energía
total.
La ley de la conservación de la energía constata que el cambio
de energía interna de un sistema debe ser igual a la cantidad de
energía añadida al mismo durante el cambio menos la energía
retirada de él. En otras palabras, la ley de conservación expresa
que es posible hacer un balance del contenido energético de un
sistema: cualquier aumento o disminución debe dar cuenta de los
términos energéticos añadidos o quitados del mismo. Cuando se
expresa de esta forma, la ley de la conservación de la energía se
denomina primera ley de la Termodinámica.
Aunque el concepto de energía y su conservación posibilita
formular una ecuación, no impone límites a las cantidades que
han de entrar en ella. Tampoco da idea de la cantidad de energía
que puede añadirse o retirarse, ni de las reglas, si las hubiere, que
gobernarán la transformación de una forma en otra. Tampoco
informa de la fracción de energía del sistema que ha de estar en
forma cinética, potencial, eléctrica, etc. En realidad, como se ha
indicado en el capítulo precedente, la energía no es una sustancia
tangible en modo alguno y ni siquiera es posible decir la cantidad
absoluta de energía que tiene un sistema, ya que el movimiento y
la posición son relativos. Sólo tienen significado los cambios de
energía, las transformaciones energéticas.
Es verdad que existen reglas que gobiernan a éstas. El concepto
de entropía e ideas relacionadas tratan de ello. El concepto se
desarrolló históricamente a partir del estudio del «calor» y de la
temperatura al reconocerse que éste es una forma de energía
especial que no es completamente convertible en las demás aunque
ellas sí puedan convertirse completamente en calor. Además,
cuando una forma de energía se transforma en otra, parte de
aquélla se transforma en calor. El término entropía fue acuñado
por el físico alemán Rudolf J. E. Clausius en 1865, aunque lo
desarrollara en 1854, a partir de los términos griegos equivalentes
a «grado de transformación».
La entropía es un parámetro que, como la energía, puede
usarse en la descripción de un sistema. La entropía es una
propiedad abstracta que no se puede «sentir» o «ver» y que
determina la distribución de la energía interna del sistema y el
grado en que puede transformarse.
La entropía se explica en última instancia en los términos de
los conceptos estadísticos surgidos en el contexto de la teoría
cinético-molecular de la materia discutida en el capítulo anterior.
La verdadera importancia y alcance de la energía no puede
apreciarse sin las consideraciones estadísticas y las relaciones
existentes entre ella, la temperatura y la entropía. El concepto de
entropía se generalizó mediante su relación con la Estadística y la
probabilidad, llegando a convertirse en una forma útil de describir
la cantidad relativa de organización (orden versus desorden) y en
el estudio de los diversos estados de la materia (líquido, gas
sólido, plasma, cristal líquido, etc.).

Calor y temperatura

Para comprender la relación que existe entre energía y entropía


es necesario distinguir claramente entre calor y temperatura.
(Aunque la teoría del calórico sea errónea, la analogía que
establece entre calor y fluido ayuda a comprender estas ideas.
ciertamente muy abstractas.) La relación entre flujo de calor de un
cuerpo y su temperatura se expresa por su capacidad calorífica.
Ésta se define como la cantidad de calor que eleva un grado su
temperatura (véase capítulo 4); es decir, un cuerpo con una
capacidad calorífica grande requiere una gran cantidad de calor
para elevar su temperatura un grado Celsius. Por ejemplo, un
dedal lleno de agua hirviendo puede tener más temperatura que
una bañera llena de agua templada, pero hay que suministrar
mucha menos energía calorífica para elevar la temperatura del
agua del dedal hasta un valor alto que para elevar la temperatura
del agua de la bañera hasta un valor medio, dado que tiene
muchísima menos capacidad calorífica.
Dejando de lado la teoría del calórico, la temperatura se
describe como la intensidad o concentración de la energía molecular
interna, esto es, la energía molecular interna por unidad de
sustancia. Se puede explicar la diferencia entre temperatura y
calor en los términos de la teoría cinético-molecular de la materia
relacionando a la temperatura con la energía media de los modos
microscópicos de movimiento por molécula y relacionando al
calor con los cambios de la energía total de los modos microscó-
picos del movimiento de todas las moléculas. Las moléculas de
agua del dedal tienen más energía en promedio que las moléculas
de agua de la bañera pero aquél necesita menos calor que ésta
porque tiene muchísimas menos moléculas.
Aunque la temperatura se pueda «explicar» en función de la
concentración de la energía molecular, la utilidad real del concepto
de temperatura depende de otros dos aspectos fundamentales del
calor que se advierten en la experiencia diaria: el equilibrio
térmico y el flujo de calor. Así, ¿cómo decide una madre si su hijo
llora porque tiene fiebre? Si el niño ha comido y tiene limpio el
pañal, la madre notará que tiene la cara ruborizada y la frente
caliente y usará un termómetro para tomarle la temperatura.
Casi todos los termómetros se fundamentan en la existencia
del equilibrio térmico. Esto significa que si se ponen en contacto
dos objetos o sistemas y se permite que interaccionen, con el
tiempo alcanzarán la misma temperatura. Según las circunstancias
ocurrirá rápida o lentamente, pero la temperatura de uno o de los
dos cambiará al pasar el tiempo hasta que adquieran la misma
temperatura.
La toma de temperatura al bebé depende de la interacción de
dos objetos, el niño y el termómetro. La madre inserta el termó-
metro en el recto del bebé y espera unos minutos para que se
produzca la interacción y cambie el estado del termómetro. Un
parámetro de éste es la longitud de la columna de mercurio y a
medida que aumenta la temperatura lo hará también la columna.
Cuando la temperatura del termómetro alcance el valor de la del
bebé, la longitud de la columna de mercurio no experimentará
más cambios y se encuentra en equilibrio térmico con el bebé. La
madre debe retirar el termómetro después de haberse alcanzado el
equilibrio y leer en la escala para saber la temperatura.
En realidad el termómetro no mide la temperatura directamente. El
parámetro a medir en el caso del termómetro rectal es la
longitud de la columna de mercurio del tubo de vidrio interior. Lo
que se mide en otros termómetros es la resistencia eléctrica; el
parámetro a medir en los termoeléctricos es el voltaje termoeléctrico
y en los termómetros de los hornos corrientes el parámetro que
cambia es la forma de un hilo unido a un indicador. Se puede
emplear como termómetro prácticamente cualquier sistema, aunque
en todos los casos el parámetro que realmente se mide debe
relacionarse con la temperatura de una forma matemática definida.
Esta relación se denomina ecuación de estado del sistema. (En el
caso que se ha considerado, el sistema es el termómetro.) Ello
significa simplemente que si cambian algunos de los parámetros
del sistema, también han de hacerlo los otros y se pueden calcular
estos cambios haciendo uso de la ecuación de estado. La lectura
de la escala o dial del termómetro representa resolver la ecuación
de estado para la temperatura. La ecuación de estado del sistema
empleado como termómetro determina la escala de temperatura
12 3 4

Volumen

Figura 5.1.—Ecuación de estado del helio. Cada curva es una isoterma (curva de
temperatura constante) que muestra la forma en que varía la presión y temperatura.
Las temperaturas de las curvas 1, 2, 3 y 4 son progresivamente más elevadas.

del mismo. ¡Siempre que una madre lee un termómetro está


resolviendo, en efecto, su ecuación de estado!
Cada sistema tiene su propia ecuación de estado. Por ejemplo,
el helio a presiones moderadas y a temperaturas no demasiado
bajas tiene la siguiente ecuación de estado, que relaciona tres de
sus parámetros: PV RT, siendo P la presión, V el volumen y T la
temperatura (si se emplea la escala absoluta o termodinámica de
temperatura, que se definirá más adelante), R es una constante de
proporcionalidad. Esta ecuación se llama frecuentemente ley general
de los gases o ley de los gases perfectos y es la relación matemática
existente entre los tres parámetros mencionados. No importa en
qué estado se encuentre el helio, los tres parámetros habrán de
satisfacer siempre la ecuación. (Una vez conocida la ecuación de
estado también es posible determinar el contenido de energía, U, y
la entropía, S, del sistema.) Si se mantiene un parámetro constante,
se puede representar gráficamente la ecuación de estado de un
sistema empleando los dos restantes. En la figura 5.1 se representa
la presión en función del volumen, en el caso del helio, a distintas
temperaturas.
La ecuación de estado y las curvas resultantes en el caso del
Figura 5.2.—Ecuación de estado del agua. Cada curva es una isoterma que representa
la forma en que varía la presión y el volumen. Los tramos rectos de las curvas 1 y 2
cubren un rango de volúmenes para los que una fracción del agua es líquida y otra
gaseosa. El agua es completamente líquida a la izquierda de los tramos rectos y
completamente gaseosa a la derecha. La curva 3 corresponde a una temperatura
(374° Celsius) a la que es imposible establecer la distinción entre líquido y gas. El
agua sólo puede existir en forma gaseosa para temperaturas superiores.

helio son relativamente simples porque éste siempre es gaseoso,


aunque la temperatura sea muy baja. La ecuación de estado y las
curvas resultantes son mucho más complejas para el caso del
agua, ya que ésta puede ser sólida, líquida o gaseosa dependiendo
de la temperatura y presión. Algunas de sus gráficas se representan
en la figura 5.2.
Tanto el helio como el agua se pueden emplear como termó-
metros y el primero se usa en realidad en ciertas ocasiones para
mediciones científicas de temperaturas muy bajas; sin embargo,
excepto para casos especiales, el helio no es un material termomé-
trico muy práctico. El agua tampoco lo es, pero es útil para fijar
ciertos puntos de la escala de temperaturas. Cuando la presión
barométrica es de 760 mm de mercurio (32 pulgadas), cl agua se
congela a 0° Celsius (o 32° Fahrenheit) y hierve a 100° C (o
212° F). Las escalas de temperatura se discutirán posteriormente
en este capítulo.

Es posible medir en principio la temperatura de un sistema


antes de que el termómetro alcance el equilibrio térmico. Si in-
teraccionan térmicamente dos sistemas con distintas temperaturas,
fluirá calor desde el que esté a temperatura más alta (más ca-
liente) hasta el de temperatura más baja (más frío). La madre
puede decir si su bebé tiene fiebre tocándole simplemente la
frente. Si el bebé tiene fiebre, su frente estará caliente y el calor
fluirá desde ella a la mano de la madre. Por el contrario, si la
temperatura del bebé es más baja de lo normal, su frente estará
fría y fluirá calor desde la mano de la madre hasta ella. El hecho
evidente de que una diferencia de temperatura produce un flujo de
calor es de gran importancia a la hora de comprender el concepto
de entropía y la forma en que la energía térmica puede transfor-
marse en otros tipos de energía. Además, este mismo hecho
subraya la correcta definición de la escala termodinámica de
temperatura (a veces llamada también absoluta).

El flujo espontáneo de calor

Todo el mundo sabe que el calor fluye desde los objetos


calientes a los fríos. Si se echa un cubito de hielo a una taza de té,
el hielo se calienta y funde a agua al tiempo que ésta se hace más
fría. El calor «fluye» desde el té caliente al cubito frío. Ya se ha
discutido en el capítulo 4 que la teoría del calórico lo explicaba
simplemente como una consecuencia de un flujo de calor «cuesta
abajo». La teoría del calórico no es cierta y no resulta tan sencillo
explicar por qué el calor fluye desde los cuerpos de alta temperatura
a los de baja y no al contrario. Si se emplean los términos
utilizados más arriba para distinguir el calor de la temperatura, la
energía fluye desde las concentraciones altas (temperaturas altas)
a las bajas; en otras palabras, la energía tiene tendencia a «despa-
rramarse». El hecho de que el calor fluya unidireccionalmente es
en esencia la segunda ley de la Termodinámica y, lo mismo que
ocurre con las leyes de Newton del movimiento o con la ley de la
conservación de la energía, se acepta como un postulado básico
Hay diversas formas de expresar la segunda ley y se puede
demostrar que todas ellas son equivalentes.
Empleando los términos del flujo espontáneo o natural de
calor, la segunda ley de la Termodinámica se enuncia de Ia,
siguiente manera: No hay forma de invertir sistemáticamente en u,
sistema aislado el flujo de calor que se produce desde los cuerpos de
alta temperatura hasta los de baja. Dicho con otras palabras, el
calor no puede subir «cuesta arriba» en su totalidad. Es muy
importante la palabra totalidad. Es posible, por supuesto, forzar
al calor para que suba «cuesta arriba» usando una bomba de
calor, lo mismo que se puede bombear cuesta arriba el agua usando
una bomba de agua. Un frigorífico o un acondicionar de aire
son ejemplos de bombas de calor. Sin embargo, si en una parte del
sistema aislado está funcionando un frigorífico para impulsar
«cuesta arriba» el calor, en otra parte del mismo habrá de fluir
«cuesta abajo» una cantidad mayor de manera que el resultado
neto del sistema sea un flujo «cuesta abajo» de calor. Si el sistema no
está aislado, un segundo puede interacccionar con él de forma que
en el primero fluya «cuesta arriba» siempre que se compense por
un flujo «cuesta abajo» igual o mayor en el segundo.
Tal como se ha enunciado más arriba, la segunda ley de la
Termodinámica parece obvia o incluso trivial, pero finalmente
lleva al resultado de que el calor es una forma de energía que no
se puede convertir completamente en otras. Existen otras maneras
de expresar la segunda ley que ponen de manifiesto lo fundamental
que es para comprender la naturaleza del universo físico. Algunas
de ellas se discutirán a continuación.

Transformación de la energía térmica


en otras formas de energía

Mucho antes de que se reconociera que el calor es una forma


de energía se sabía que estaba relacionado con el movimiento de
alguna forma. La fricción, que con frecuencia va pareja al
movimiento, genera calor. Las máquinas de vapor utilizadas
para producir movimiento necesitan calor. A mediados del siglo xix
se advirtió que una máquina de vapor es un convertidor de
energía, un sistema que puede transformar la energía calorífica
en alguna otra forma de energía mecánica —trabajo, energía
potencial o cinética—, eléctrica, química o de cualquier otro tipo.
Tal como se ha indicado en el capítulo anterior, antes de que
se comprendiera la verdadera naturaleza energética del calor
Carnot creía que la máquina de vapor sólo era un ejemplo de
máquina térmica. Otro ejemplo familiar es el moderno motor de
gasolina de los automóviles. Carnot se dio cuenta de que el
principio operativo común y básico de todas las máquinas térmicas
consistía en el flujo de calor que las recorría. Indicó que el
resultado fundamental de todas las mejoras introducidas por Watt
radicaba en que el calor fluía más efectivamente por la máquina.
Como ya se ha dicho en el capítulo 4, Carnot se imaginó la
máquina térmica como una especie de molino de agua en el que el
calórico fluía desde una temperatura alta (llamada fuente térmica)
hasta otra baja (llamada sumidero térmico). Con auténtico espíritu
platónico se esforzó en alcanzar la «verdadera realidad» y concibió
una máquina térmica ideal cuyo funcionamiento no se viera per-
turbado por factores extraños como fricción o pérdidas innecesarias
de calor. Consideró que esta máquina ideal fuera reversible (que
pudiera mover el fluido cuesta arriba) y que funcionara muy
despacio. (Procedió igual que Galileo en sus estudios de caída,
empleando planos inclinados que ralentizaran la acción y eliminaran
los efectos debidos a la fricción y resistencia.)
El principio de la máquina consiste en que el calor fluya a
través de ella asegurándose de que lo haga todo el calor disponible.
En la figura 5.3a todo el calor de la fuente fluye por la máquina

Figura 5.3.—Representación esquemática del flujo calorífico en una máquina térmica


a) Todo el calor de la fuente circula por la máquina. b) Parte del calor de la fuente
sortea la máquina.
mientras que en la figura 5.3b parte de él la sortea, va directamente
al sumidero y se «desperdicia».
Carnot trazó detalladamente la analogía entre una máquina
térmica y una noria o molino de agua en el que el fluir del agua
produce la rotación del eje y mueve toda la maquinaria asociada.
En realidad la analogía es bastante estrecha, ya que la teoría del
calórico consideraba que el calor fluía desde las temperaturas
elevadas hasta las bajas lo mismo que el agua fluye desde los
niveles elevados hasta los bajos. A la máquina térmica ciertamente
se la podría considerar como una especie de molino térmico. (
Carnot fue muy influido por su padre, que había sugerido muchos
de los perfeccionamientos de los molinos de agua.)
Las norias operan en virtud de la caída del agua desde un nivel
alto a otro bajo y de igual forma funcionan los molinos térmicos,
por el flujo de calor desde una temperatura elevada a otra baja. El
diseño de una noria eficiente sacará partido de toda la altura de la
cascada y empleará toda el agua que se precipita. El molino
térmico habrá de sacar ventaja de toda la diferencia de temperatura
que existe entre la fuente y el sumidero, procurando que todo el
calor fluya por la rueda.
La máquina térmica ha de satisfacer, por tanto, diferentes
condiciones: 1) La máquina debe tomar calor sólo cuando se en-
cuentre a la temperatura del depósito superior (fuente). 2) Mientras
que su temperatura pase de alta a baja ha de estar completamente
aislada para que no se fugue el calor y se pierda su fuerza motriz.
3) El calor debe descargarse a la temperatura del depósito inferior (
sumidero) para que 4) no pueda transportarse «cuesta arriba».
Carnot llegó a la conclusión de que la eficiencia (la efectividad
relativa de la máquina para suministrar movimiento o trabajo) de
su máquina térmica ideal sólo dependía de la diferencia de
temperatura entre los dos depósitos y no del tipo de máquina.
Pensó que una máquina térmica podría usar cualquier otra «sus-
tancia de trabajo» distinta del agua y que debido a razones
prácticas la máquina de vapor sería, probablemente, la mejor que
podría construirse. De hecho casi todas las centrales térmicas que
generan electricidad (ya sean de carbón, petróleo o nucleares)
emplean agua como sustancia de trabajo.
El físico lord Kelvin (véase capítulo 4) y el físico alemán
Rudolf J. E. Clausius reconocieron alrededor de 1850 que las
ideas publicadas por Carnot eran básicamente correctas. No obs-
tante había que revisar su teoría para que tuviera en cuenta la
primera ley de la Termodinámica (el principio de la conservación
de la energía) según la cual el calor no es un fluido indestructible,
sino simplemente una forma de energía. Aunque el calor habría de
fluir por la máquina, tendría que descartarse la analogía con la
noria, ya que algo del calor era «destruido», cosa que no ocurre
con el agua. (Podrá conservarse la analogía si, como se discutirá
más abajo, se inventa algún otro fluido que pase por la máquina.
Los viejos conceptos, como los soldados veteranos, nunca mueren,
sólo se desvanecen.) La cantidad de calor que fluye por la má-
quina al depósito inferior es menor que la que fluye a la máquina
desde cl depósito superior y la diferencia se convierte en trabajo o
en energía mecánica. En otras palabras, al fluir una cierta cantidad
de energía térmica a la máquina desde el depósito de alta tempe-
ratura, parte de él sale en forma de alguna otra energía y el resto
fluye como energía calorífica al depósito de baja temperatura.
Ha de descargase toda la energía recibida porque después que
la máquina haya recorrido un ciclo completo de funcionamien-
to debe quedar en el mismo estado termodinámico en que se
encontraba al comienzo. Por tanto, según la primera ley de la
Termodinámica, toda la energía que se añada a la máquina (en
forma de calor procedente del depósito de alta temperatura) debe
cederla (como trabajo o alguna otra forma de energía o como
calor descargado al depósito de baja temperatura). Todo ello se
representa esquemáticamente en el diagrama de flujo de la figu-
ra 5.4.
Según Clasius, las ideas esencialmente correctas de Carnot se

Figura 5.4.—Flujo
sale como trabajo
de energía
u otras
deformas
una máquina
útiles detérmica.
energíaLa
y como
energía
calor.
entra como calor
Figura 5.5.—Esquema de una máquina imposible. El calor de un gran tanque de agua
a 30° C es completamente convertido en energía mecánica. Esta es reconvertida en
calor agitando el agua de otro tanque a 50° C con el resultado general de que el calor
fluye «cuesta arriba».

basan en el hecho de que al menos una parte del flujo calorífico


que entra en la máquina debe fluir por ella y descargarse después.
Esta descarga de calor no puede ser convertida por la máquina en
otras formas de energía. Con otras palabras, no es posible convertir
completamente el calor en otra forma de energía por medio de
una máquina que funcione cíclicamente, ya que de lo contrario se
violaría la segunda ley de la Termodinámica que constata que en
un sistema aislado el calor no puede fluir «cuesta arriba». En la
figura 5.5 se representa esquemáticamente lo que ocurriría si una
máquina pudiera convertir totalmente el calor en energía mecánica.
Supóngase que la máquina fuera «accionada» por el calor
procedente de un depósito con una temperatura de 30° C. Se pre-
sume que la máquina extrae el calor del mismo y lo convier-
te completamente en energía mecánica, la cual puede convertirse
completamente de nuevo en calor, como demostró Joule en sus
experimentos de las paletas giratorias. Esta energía mecánica
puede emplearse concretamente para agitar un tanque lleno de
agua a 50° C y convertirse completamente en calor a la misma
temperatura, aunque originariamente fuera energía calorífica en el
tanque de 30° C. El resultado neto sería la transferencia de calor
desde el depósito de 30° C hasta el de 50° C sin que hubiera
habido ningún otro cambio, ya que la máquina regresa periódica-
mente a su estado original. La «fuerza impulsora» de todo el
proceso estaría en el calor del depósito de 30° C y el calor habría
fluido «cuesta arriba» por sí mismo, lo que es imposible según la
segunda ley de la Termodinámica.
La falacia de este argumento se encuentra en el supuesto de la
transformación completa del calor en energía mecánica. Parte del
calor ha de moverse «cuesta abajo» posibilitando que otra parte
del mismo se transforme en energía mecánica, que es retransfor-
mada en energía térmica a una temperatura más alta que la del
depósito original, teniendo lugar un movimiento de calor «cuesta
abajo» en conjunto.
La segunda ley de la Termodinámica se expresa a veces de
forma específica teniendo en cuenta estas limitaciones sobre la
conversión del calor en otras formas de energía y que equivalen al
enunciado original en términos de irreversibilidad del flujo de
calor:
1. Es imposible diseñar una máquina térmica que funcione de
forma cíclica de manera que extraiga el calor de una fuente
sin que descargue parte del mismo en un sumidero de tempe-
ratura más baja.
2. Es imposible diseñar una máquina térmica cíclica que convierta
completamente el calor en trabajo.
Siempre que se libere energía en forma de calor a una cierta
temperatura (quemando carbón o mediante reacciones nucleares)
parte de él habrá de descargarse eventualmente en el depósito de
temperatura inferior.
Las violaciones de la segunda ley de la Termodinámica se
denominan «movimiento perpetuo de segunda especie». Si fuera
posible construir una máquina con movimiento perpetuo de segunda
especie se obtendrían algunos beneficios. Por ejemplo, un barco
que navegara por el océano podría tomar agua de la superficie,
extraerle su calor y emplearlo para impulsar sus máquinas. El
resultado sería que el agua se convertiría en hielo, que se arrojaría
por la borda, tomándose agua de nuevo para repetir el proceso. El
barco no necesitaría para funcionar carbón, petróleo o combustible
nuclear y los únicos productos finales serían el hielo y las sales,
cristalizadas que estaban disueltas en el agua. Se devolverían al
océano y su temperatura bajaría insignificantemente.
Incluso se pueden concebir ejemplos más espectaculares. Ima-
gínese que estuvieran localizadas en los ríos más poluidos del
mundo (el Cuyahoga de Ohio, el Vístula en Polonia, el Elba en
Alemania y Checoslovaquia, el Ganges en la India, etc.) determi-
nadas centrales eléctricas que tomaran el agua contaminada,
extrajeran su calor convirtiéndolo en electricidad y enfriaran el
agua por debajo de su punto de congelación. Ésta tiene como
resultado una separación parcial de los contaminantes del agua. El
hielo limpio se fundiría y se devolvería y los contaminantes se
emplearían con fines industriales, agrícolas o simplemente se
enterrarían. El resultado de todo ello sería una mejora apreciable
del ambiente a la vez que generación de energía eléctrica.
Ninguno de estos esquemas puede funcionar aunque pudiera
tomarse calor de un depósito térmico existente, ya que no descargan
calor en un depósito de temperatura inferior ajustándose al requisito
de que el calor ha de fluir «cuesta abajo». Es una pena que la
segunda ley de la Termodinámica complique la solución de los
problemas ambientales y energéticos.

La eficiencia de las máquinas térmicas

La eficiencia de una máquina es simplemente el cociente entre


la energía útil o trabajo realizado y la energía que necesita para
funcionar. Una máquina térmica ha de quemar carbón o petróleo
para generar el aporte de energía en forma de calor, representado
por Q H . Supóngase un caso concreto en que esta cantidad sea
50.000 kilocalorías y que 10.000 de ellas se conviertan en electri-
cidad, representada por W, que es la inicial de la palabra trabajo
en inglés. (Se empleará el término trabajo para designar cualquier
forma de energía que no sea calor. Como hemos dicho, el trabajo
puede convertirse completamente en cualquier otra forma de
energía siempre que no se produzca fricción.) La fracción eficiencia
será:
Ya que sólo se convierten en electricidad 10.000 kilocalorías las
40.000 restantes son descargadas en el depósito de temperatura
inferior y se representan por Qc. La fracción eficiencia también se
puede calcular por la expresión

Esta relación se cumple para cualquier tipo de máquina, sea ideal o


no. La eficiencia de las máquinas de Newcomen sólo era de un 0,5
por 100 y el perfeccionamiento de Watt la subió a un 3-4 por 100.
La eficiencia de las máquinas térmicas de una central
eléctrica moderna es típicamente del 40 por 100. En la Tabla 5-1
se da una lista de las eficiencias de diferentes tipos de máquinas.
La temperatura está expresada en grados Kelvin, un concepto que
se discutirá en la sección siguiente.
T A B L A 5 . 1
Eficiencias de algunas máquinas térmicas

Tipo de T (K) del T (K) del


depósito depósito Eficiencia
máquina el)
caliente frío
Máquina de Newcomen 373 300 1/2
Máquina de Watt 385 300 3-4
1.500 300 80
Ciclo ideal de Carnot 1.000 300 70
811 311 62
Ciclo de Rankine 811 311 50
Turbina real de vapor 811 311 40
Ciclo de vapor binario 811 311 57
Motor de gasolina con
eficiencia de Carnot 1.944 289 85
Motor ideal de Otto de 289
gasolina 1.944 58
Motor real de gasolina — 30
Motor real Diesel 40
Como se ha expresado anteriormente, la segunda ley de la
Termodinámica afirma que incluso la máquina más perfecta que
pueda concebirse —la máquina térmica ideal— no tiene una
eficiencia del 100 por 100. ¿Cuál es, entonces, la máquina
térmica más perfecta posible y por qué no puede tener una
eficiencia del 100 por 100? Se trata de importantísimas cuestiones
prácticas, ya que la máquina térmica ideal constituye un patrón
con el que se pueden comparar otras máquinas reales. Si una
máquina concreta tiene una eficiencia próxima a la ideal, sus
constructores sabrán que no podrán perfeccionarla mucho más;
por el contrario, si la máquina sólo tiene la mitad de la eficiencia
ideal quizá sea posible mejorarla apreciablemente. Algunas veces
se denomina a la eficiencia ideal eficiencia de Carnot o eficiencia
termodinámica.
Aunque Carnot empleara la teoría del calórico, estableció de
forma correcta los pasos del ciclo de una máquina térmica ideal y
por eso se denomina a la máquina que funciona entre dos depósitos
térmicos máquina de Carnot y al ciclo que describe ciclo de
Carnot. Las características esenciales de éste se representan esquemá-
ticamente en la figura 5.6. En ella también se indican los parámetros
termodinámicos que intervienen en la operación de la máquina.
La vela y los cubitos de hielo representan la fuente y el sumidero
térmicos.
Paso 1. Absorción isotérmica de calor. (Isotérmica significa a
temperatura constante.) La máquina se encuentra a la temperatura
TH del depósito caliente y absorbe lentamente calor manteniendo
constante la temperatura. Para que esto pueda ser posible tendrá
que modificarse algún otro parámetro del sistema de la máquina.
El resultado es que la máquina puede realizar cierto trabajo útil. (
En la figura 5.6a se observa que sobresale el pistón aumentando el
volumen del cilindro.)
Paso 2. Realización adiabática de trabajo por la máquina. (Adia-
bática significa que no puede entrar o salir calor.) La máquina se
encuentra completamente aislada desde el punto de vista térmico
y puede realizar un trabajo útil determinado. Esta ejecución de
trabajo significa que la energía, pero no el calor, abandona la
máquina y que su contenido de energía interna será menor al final
de este paso del que había al comienzo. Debido a la ecuación de
estado de la sustancia de trabajo de la máquina disminuye la
Figura 5.6.—Ciclo de Carnot y el flujo de energía asociado. En el lado izquierdo se
indica el flujo de energía que se produce durante los procesos que tienen lugar en el
lado derecho. P, pistón; WS, sustancia de trabajo; CR, biela; FW, volante; ins,
aislamiento; Flm, llama; I hielo. a) Absorción isotérmica de calor del depósito caliente.
El pistón se mueve hacia fuera y la máquina realiza trabajo. b) Funcionamiento
adiabático de la máquina. El pistón se mueve hacia fuera. c) Descarga isotérmica del
calor en el depósito frío. El pistón se mueve hacia adentro y el volante ejecuta trabajo
sobre la máquina. d) Aumento adiabático de temperatura. El pistón sigue moviéndose
hacia adentro y el volante continúa realizando trabajo sobre la máquina.

temperatura. El paso concluye cuando la máquina alcanza la


misma temperatura del depósito frío, Tc. (En la figura 5.6b se
observa que el pistón continúa sobresaliendo.)
Paso 3. Descarga isotérmica de calor. La máquina se encuentra
ahora a la temperatura del depósito frío, se elimina el aislamiento
térmico y se descarga lentamente calor a la temperatura del
depósito inferior mientras permanece constante la temperatura de
la máquina. Para que esto sea posible habrá de modificarse de
nuevo algún otro parámetro de la máquina. El resultado es que se
ejecuta trabajo sobre la misma. Parte del trabajo realizado por
la máquina habrá de volver a ella en este paso y en el siguien-
te. Estos dos pasos, que asumen la función del condensador de
Watt y que son imprescindibles para que la máquina pueda
funcionar de manera cíclica, son los que rebajan la eficiencia
desde el 100 por 100 a los valores termodinámicos. (En la figu-
ra 5.6c se observa que el pistón se introduce en el cilindro
por acción del volante y la biela, disminuyendo el volumen de
aquél.)
Paso 4. Aumento adiabático de la temperatura de la máquina. La
máquina se encuentra de nuevo completamente aislada desde el
punto de vista térmico de los depósitos y del resto del universo. Se
realiza trabajo sobre ella, generalmente haciendo que se modifique
alguno de sus parámetros, lo que se traduce en un aumento de
temperatura hasta alcanzar la de partida, TH, del depósito caliente.
El contenido de energía interna de la máquina tiene ahora el
mismo valor que el que tenía al comienzo del paso 1 y está lista
para repetir el ciclo. (En la figura 5.6d el pistón continúa introdu-
ciéndose.)
Es bastante interesante darse cuenta de que existen ciertos
momentos durante el ciclo de una máquina en los que el calor se
convierte en trabajo con una eficiencia del 100 por 100. El paso 1
del ciclo de Carnot representado en la figura 5.6a es uno de ellos.
Sin embargo, para que la máquina pueda continuar trabajando
debe completar el ciclo. La segunda ley de la Termodinámica se
satisface en los pasos 3 y 4 del mismo, devolviendo a la máquina
una parte del trabajo realizado por ella durante los pasos 1 y 2,
algo del cual es descargado en el depósito de baja temperatura (
Fig. 5.6c) y el resto se emplea para llevar a la máquina al punto
de partida (Fig. 5.6d). Cualquier máquina, sea cual sea su cons-
trucción o funcionamiento, ha de cumplir estos requisitos.
Carnot razonó originariamente que la eficiencia de su ciclo
tendría que ser proporcional a la diferencia de la temperatura
absoluta existente entre los depósitos caliente y frío, T H - Tc.
Cuando Clausius volvió a analizar el ciclo teniendo en cuenta la
conservación de la energía demostró que si se empleaba una
escala apropiada de temperatura (llamada escala absoluta), la
eficiencia sería igual a la fracción formada por la diferencia de
temperatura de los dos depósitos y la temperatura del depósito
caliente, esto es:

Usando la fórmula de Clausius para determinar la eficiencia


termodinámica o de Carnot puede calcularse la eficiencia que
podría esperarse de una moderna central térmica productora de
electricidad que operarse según el ciclo de Carnot, eliminándose
la fricción, las irreversibilidades y las pérdidas térmicas. Los
resultados obtenidos, recogidos en la tabla 5.1, muestran que las
modernas centrales térmicas se acercan razonablemente a la
eficiencia de Carnot para las temperaturas a las que funcionan.
La única forma de aumentar la eficiencia desde el punto de
vista teórico es aumentando T H o disminuyendo Tc. En la Tierra
Tc no puede ser inferior a la temperatura de congelación del agua (
0° C, 273 K) y las centrales actuales usan agua fría de los ríos o
mares como depósito de baja temperatura. En teoría sería posible
usar algún otro enfriante, anticongelante, como el etilén glicol
usado en los motores de los automóviles, que permanece líquido a
temperaturas muy inferiores a las del punto de congelación del
agua. Habría que usar, no obstante, un sistema de refrigeración
con el que bajar la temperatura del anticongelante para que
pudiera seguir sirviendo como depósito de baja temperatura y un
sistema de refrigeración funciona con energía. Puede demostrarse
que la cantidad de energía que habría de tornarse de la central
para poner en funcionamiento el sistema de refrigeración sería
superior a la obtenida aumentando la eficiencia al bajar el valor
de Tc. El efecto neto de instalar un refrigerador se traduciría en
realidad en una disminución de la eficiencia de Carnot.
Desde luego uno podría imaginarse una central eléctrica mon-
tada en un satélite en órbita por el espacio exterior cuya Tc sólo
de unos pocos grados absolutos. pero entonces habría que idear un
medio de conducir la electricidad a la Tierra.
Pudiera considerarse la posibilidad de aumentar la temperatura
del depósito caliente, T H , que no puede ser superior a la tempe
ratura de fusión del material empleado para construir la máquina.
En la práctica TH ha de ser mucho más baja, ya que cuando los.
materiales se encuentran a una temperatura próxima a su punto de
fusión son muy débiles. Si T H fuera de unos 1.500 K (el punto
de fusión del acero es 1.700 K) y Tc de unos 300 K, la eficien-
cia de Carnot calculada sería:

Si se tienen en cuenta los factores de seguridad (que impiden que


se rompan las calderas a las elevadas presiones asociadas con las
altas temperaturas) T H será de unos 1.000 K y la eficiencia de
Carnot del 70 por 100. Una máquina real no puede alcanzar una
eficiencia superior a las 3/4 partes de la de Carnot, siendo la
eficiencia máxima en la práctica del 50-55 por 100. Hay, por
consiguiente, que esperar que la mitad del combustible quemado
en una de las mejores máquinas posibles que funcione entre dos
depósitos de temperaturas «razonables» se desperdicie y no pueda
convertirse en trabajo «útil». (Véanse los datos de la tabla 5.1
para ejemplos concretos.)
Recientemente se ha propuesto una máquina térmica con tres
depósitos con objeto de conseguir la transformación más eficiente
del calor liberado a altas temperaturas. Durante el paso 4, por
ejemplo, se añade calor al sistema a una temperatura intermedia
entre T H y T ( . Este calor ayuda a llevar la temperatura de la
máquina hasta TH, no siendo necesario realizar tanto trabajo sobre
ella. Este paso 4 ya no será adiabático. El resultado es que el calor
absorbido por el sistema a TH es transformado más efectivamente
en alguna otra forma de energía; sin embargo, el calor añadido a
la temperatura intermedia es transformado con menos efectividad.
Si se tienen en cuenta todas las fuentes de calor, la eficiencia total
siempre será menor que la de Carnot. En efecto, el calor descargado
al depósito de baja temperatura, Qc, procede principalmente del
depósito intermedio en lugar del superior. La ventaja que ofrece
esta idea es que la fuente intermedia no tiene que ser mantenida
por combustión adicional, sino que puede ser de origen solar,
geotérmico o alguna otra fuente calorífica disponible de mediana
temperatura. (Véase el artículo de J. R. Powell y colaboradores en
las referencias de este capítulo.)
Las ideas contenidas en la teoría de las máquinas térmicas son
prácticamente universales. Las máquinas térmicas pueden clasi fi-
carse de varias formas. Así, existen máquinas de combustión
externa (motores de vapor alternadores, turbinas de vapor, máquinas
de aire caliente) y de combustión interna (diversos modelos de
motores de gasolina y diesel, motores de propulsión a chorro y
cohetes). Toda máquina que consuma algún tipo de combustible,
cuyo funcionamiento dependa de la temperatura o libere o extraiga
de alguna manera calor y lo convierta en alguna otra forma de
energía es una máquina térmica. Incluso la atmósfera es una
máquina térmica gigantesca que convierte el calor del Sol en otras
formas de energía. (La energía eólica es energía cinética del
movimiento sistemático de las moléculas de los gases del aire y
los nubarrones contienen energía eléctrica.) Todas las máquinas
térmicas están sujetas a las mismas reglas en relación con la
eficiencia teórica máxima, totalmente regida por la teoría elaborada
por Carnot y corregida por Clausius. Como ya se ha hecho
constar, la eficiencia ideal (eficiencia de Carnot) de todas estas
máquinas depende únicamente de la temperaturaa de los dos
depósitos y es independiente de cualquier otro factor y de los
detalles y características de su construcción.
No siempre es práctico construir una máquina concreta que se
ajuste lo más cercanamente posible al ciclo de Carnot. Existe la
historia de una máquina construida para instalarla en un barco y
que tuviera una eficiencia parecida a la de Carnot. ¡Resultó ser tan
pesada que al subirla a bordo se hundió! (Véase el capítulo 18 del
libro de Morton Mott-Smith, ofrecido en las Referencias.)
La escala de temperatura absoluta
o termodinámica
Anteriormente se ha indicado que los termómetros y sus es
calas dependen de la temperatura de equilibrio y de la ecuación de
estado del sistema. Se ha dicho también que otra forma de definir
las escalas es en función del flujo de calor establecido entre dos,,
temperaturas distintas. Precisamente por ello es posible el ciclo de
Carnot. En lugar de emplear los parámetros físicos de una sustancia
termométrica, como el mercurio, es posible emplear las propiedades
del calor y la transformación del mismo. Dicho de otro modo
puede emplearse la energía de «sustancia» termométrica.
Sean dos cuerpos con diferente temperatura. Imagínese una
pequeña máquina de Carnot que los utilice como depósitos de
calor. Según la teoría de la máquina de Carnot, la razón entre el
calor que sale de la máquina y el que entra, Qc/QH, sólo depende
de la temperatura de los dos cuerpos. El científico británico lord
Kelvin propuso que la temperatura de los mismos, Tc y TH, sería
proporcional a sus respectivos flujos térmicos, esto es:

La escala así definida se denomina escala termodinámica o de tem-


peratura absoluta. Por ejemplo, supóngase que se sabe que un
cuerpo está a una temperatura de 500 grados absolutos y se desea
saber la temperatura de un cuerpo que está más frío. Sea una
pequeña máquina de Carnot intercalada entre ambos cuerpos para
la que pueda determinarse el flujo de entrada y el de salida Q H y
Qc. Si la razón Qc/ Q H fuera 1/2, según Kelvin, la razón Tc/TH
también lo sería y la temperatura del cuerpo más frío sería 250
grados absolutos.
Así definida, la escala de temperatura absoluta sólo es una
razón y para fijarla es necesario especificar el tamaño de las
unidades de temperatura (grados). Las cien unidades de la escala
Celsius que van desde el punto de congelación del agua hasta el
de ebullición se corresponden en la escala absoluta con 273 K y
373 K. (En el lenguaje corriente se denominan grados a las
unidades de las escalas de temperatura; las unidades de la escala
absoluta o Kelvin se llaman kelvins y abreviadamente K.) Si entre
los puntos de congelación y ebullición del agua hay 180 unidades,
como sucede en la escala Fahrenheit, la temperatura de congelación
del agua es de 491° y la de ebullición 671°. A esta escala
absoluta se denomina de Rankine.

La tercera ley de la Termodinámica

¿Qué ocurriría si el depósito de baja temperatura estuviera en


el cero absoluto? Puesto que la eficiencia de Carnot de una
máquina térmica es 1 — TC/TH, se tendría una eficiencia del 1011
por 100. Sin embargo, un depósito así no existe normalmente.
Como ya se ha indicado, la energía consumida al intentar enfriar
el depósito a la temperatura del cero absoluto sería mayor que la
energía útil extra obtenida al funcionar la máquina en el cero ab-
soluto. Sería interesante ver la validez de la teoría a una temperatura
tan baja examinando las posibilidades de construir un depósito así.
Resulta que la efectividad del refrigerador usado para lograr
un depósito de una temperatura muy baja va reduciéndose a
medida que desciende la temperatura y cuando ésta se va acercando
al cero absoluto cada vez es más difícil obtener una temperatura
más baja. Este hecho experimental se resumen en la tercera ley de
la Termodinámica: No es posible alcanzar el cero absoluto en un
número finito de pasos. Lo cual significa que es posible aproximarse
al cero absoluto tanto corno se desee. Dicho con otras palabras,
«puede alcanzarse el cero absoluto aunque se tardaría la eter-
nidad»'.
Las tres leyes de la Termodinámica se puede resumir en los
términos jocosos de los juegos de azar caseros. Comparando la
energía calorífica con las apuestas, se tiene:
1. No se puede ganar, sólo quedarse como al empezar.
2. Aunque se juegue durante mucho tiempo y con corrección
absoluta sólo es posible quedarse como al empezar.
3. Sólo se seguirá vivo mientras se consigan las cartas apro-
piadas.

Degradación de la energía,
indisponibilidad y entropía

Aunque la energía ni se crea ni se destruye sino que sólo se


transforma, es muy útil el concepto de «pérdida» o «degradación»
de la energía. Si una máquina térmica tiene una eficiencia de sólo

Estrictamente hablando es preferible decir «cero Kelvin» en vez «cero absoluto»


y «temperatura termodinámica» en lugar de «temperatura absoluta», ya que la escala
de temperatura se basa en un flujo de calor, que es un proceso dinámico. El uso de
términos como «cero absoluto» puede inducir a confusión porque en determinadas
circunstancias surge la cuestión de la temperatura absoluta negativa. Para más
detalles véase el capítulo 5 del libro de Mark Zemansky, citado en las referencias.
el 40 por 100, el otro 60 por 100 del calor generado en el
funcionamiento de la máquina no se convierte en formas «útiles»
sino que se descarga en el depósito de baja temperatura. Además,
este calor no puede reciclarse para intentar convertirlo en una
forma útil. Todo el calor descargado en el depósito de baja
temperatura se desperdicia y no puede disponerse de él para
futuras transformaciones (a menos que se tenga acceso a un
depósito de temperatura más baja aún). Por ello se dice que la
energía se degrada. Una cantidad dada de energía en forma de
calor en realidad está degradada en comparación con una cantidad
igual de otra forma. A medida que la energía se va transformando
en calor se va degenerando.
Además, si la energía calorífica fluye directamente desde el
depósito de alta temperatura al de baja se degradará mucho más
que si fluye a través de una máquina térmica en la que una parte
de ella se transforma en otra forma disponible para futuras
conversiones. Existen dos caracterísiticas responsables de que no
pueda disponerse de la energía de un cuerpo o que de alguna
forma esté degradada: 1) que esté en forma de calor y 2) cuanto
más baja sea su temperatura más indisponible será el calor.
Como ya se ha mencionado anteriormente, Clausius describió
la disponibilidad del contenido de energía de un sistema para
transformarse con la palabra entropía, que significa grado de
transformación. En realidad la usó para describir la indisponibilidad
que tenía la energía de un sistema para experimentar transfor-
maciones. Cuanto mayor sea la entropía, menor será la disponibilidad
de la energía interna de un sistema de transformarse al acoplarle
una máquina térmica.
Clausius se impresionó enormemente por las ideas de Carnot y
aunque advirtió que el concepto que tenían los caloristas acerca
del calor era erróneo, también se dio cuenta de que podía decirse
que un «fluido» abstracto (más aún que el calórico o la energía)
recorría una máquina ideal y que era indestructible. Dicho fluido
es la entropía y, como la energía, es un concepto relativo, siendo
los cambios de entropía los que tienen sentido. La entropía, igual
que la energía, no se puede destruir, pero a diferencia de lo que
ocurre con ella puede crearse, tal como se discutirá más adelante.
El calor no podía «perderse» en la máquina térmica ideal según el
análisis original de Carnot, aunque sí pudiera hacerlo en cualquier
otra. Según el análisis perfeccionado de Clausius, una máquina
ideal no «crearía» entropía, pero sí otra cualquiera.
Puede ilustrarse convenientemente la naturaleza de los cambios
de entropía mediante ejemplos numéricos. Frecuentemente se
calculan por la cantidad de calor absorbido o cedido por el cuerpo o
sistema por unidad de temperatura absoluta. Si un cuerpo
inicialmente en equilibrio a cierta temperatura absorbe calor, su
entropía aumentará, por definición, en una cantidad Q/T, esto es,
la razón entre el calor añadido Q y la temperatura absoluta del
cuerpo. (Esta definición de cambio de entropía se presenta aquí
sin justificación, igual que cuando se definió la energía cinética
como 1/2 mv 2 .) Así, si un cuerpo se encuentra a la temperatura
ambiente, unos 300 K, y recibe 5.000 kilocalorías de calor, su
cambio de entropía será 5.000/300 +16,67 kcal• K-'. Por el
contrario, si el cuerpo cede calor, disminuirá su entropía: si estaba a
600 K y pierde 5.000 kcal de calor, el cambio de entropía será: —5.
000/600 = —8,33 kcal• K-'. (Cuando varía la temperatura de un
cuerpo, puede calcularse el cambio de entropía hallando el área
bajo la curva obtenida al representar el calor en función de 1/T.)
A modo de ejemplo de la aplicación del cálculo de entropía
considérese un sistema termodinámico compuesto por dos depósitos
de temperatura, TH y Tc y una máquina térmica. Sea la temperatura
de los depósitos 600 y 300 K. Si fluyen directamente desde el
depósito caliente al frío 5.000 kcal, se degradará completamente
todo el calor y no podrá disponerse de él para transformarlo en
otra clase de energía. Pero si pasara por una máquina térmica o
por una de Carnot se transformaría con una eficiencia del 20 o del
50 por 100 como puede comprobarse fácilmente empleando los
conceptos discutidos anteriormente.
Si el calor fluye directamente, el cambio de entropía del depó-
sito caliente será —5.000/600 = —8,33 kcal• K-' (una disminu-
ción). El aumento de entropía del depósito frío será 5.000/300 =
= 16,67 kcal• K-1. Sumando los dos valores se obtendrá el cambio
de entropía del sistema entero: 16,67 — 8,33 = 8,34 kcal• K-'.
Este número mide el calor degradado al pasar de un depósito a
otro.
Si pasara por la máquina térmica con una eficiencia del 20 por
100, 1.000 kcal de las 5.000 se convertirán en energía útil y las
4.000 restantes se descargarán en el depósito frío. El aumento de
entropía de éste será 4.000/300 = 13,33 kcal• K '. La disminución
de entropía del depósito caliente seguirá siendo —8,33 kcal• K-' y
el cambio total del sistema: 13,33 — 8,33 = 5 kcal• K-1, una can-
tidad menor que la del caso anterior, lo que significa que se ha
degradado una cantidad más pequeña de la energía térmica.
Finalmente, si se repiten los cálculos para la máquina de
Carnot con una eficiencia del 50 por 100 se verá que 2.500 kcal
se descargan en el depósito frío, cuyo aumento de entropía será 2.
500/300 = 8,33 kcal- K- 1 . El cambio de entropía del depó-
sito caliente es —8,33 kcal• K-' y el cambio neto del sistema será
8,33 — 8,33 = 0. En otras palabras, toda la energía que puede
transformarse es realmente transformada por la máquina de Carnot a
otras formas de energía que seguirán siendo susceptibles de
futuras conversiones. La entropía total del sistema no cambia en
este caso aunque lo hagan diferentes partes del mismo, pero
incluso aquí se «pierde» parte de la energía, ya que se transfiere al
depósito de baja temperatura. No obstante, ya se sabía que no
podía disponerse de ella porque previamente había sido convertida
en calor en el interior del sistema aislado. Siempre que la energía
se encuentre en forma de calor, una fracción de ella no podrá
transformarse porque está degradada. Únicamente en el caso de
que se descargue el calor a través de una máquina de Carnot se
preservará de la degradación.
Estos cálculos ponen de manifiesto que la entropía del sistema
entero aumenta o queda inalterada, planteándose la cuestión de si
puede haber una disminución neta de entropía. Para el caso
concreto que se ha considerado más arriba, el aumento de entropía
del depósito de baja temperatura habría de ser inferior a 8,3
kcal• K-', lo que significaría que la máquina tendría que descargar
menos de 2.500 kcal y que, por consiguiente, la máquina de
Carnot podría convertir más energía calorífica en otras formas de
lo que permite la segunda ley de la Termodinámica. Pero ésta no
puede violarse. Otra forma de enunciarla sería: La entropía de un
sistema aislado jamás puede disminuir, sólo aumentar o permanecer
inalterada, lo que contrasta con la primera ley: la energía de un
sistema aislado permanece inalterable, ni puede aumentar ni dis-
minuir. La entropía, por el contrario, puede aumentar: se «semi-
conserva». La primera ley de la Termodinámica posibilita que
pueda definirse la energía interna de un sistema; la segunda ley
hace posible la definición de su entropía.
Se puede considerar la entropía como una sustancia con
algunas de las propiedades que se atribuyeron al calórico: puede
«fluir» desde las temperaturas altas a las bajas y concretamente
puede ir a través de la máquina de Carnot desde una fuente de
calor hasta un sumidero haciendo que gire la noria calorífica y
ejecute trabajo. La entropía total del sistema se conserva siempre
que el sistema proceda mediante un proceso reversible; si el
sistema experimenta un proceso reversible habrá que transferirle
algo de energía. En un proceso irreversible se crea algo de
entropía adicional (en lugar de perderse, de ser el caso del
calórico). Parece que Clausius pensaba en parecidos términos al
concebir originalmente el concepto de entropía. Sin embargo, es
más útil considerarla como un parámetro del sistema.
La entropía aumenta cuando en un sistema se convierte el
calor en otras formas de energía. La caída de un peso en el
experimento de las paletas giratorias de Joule partía de una
energía potencial según su masa y la distancia al suelo. La energía
potencial mecánica se convierte durante la caída en «calor» del
agua. La energía total del sistema formado por el agua y el pes()
se conserva, la entropía del agua aumenta y la del peso permanece
inalterada (ya que no absorbe ni cede calor). El resultado neto es
un aumento de entropía del sistema debido a la transformación de
la energía mecánica en calor.
Los cálculos realizados más arriba y otros similares ponen de
manifiesto que el valor numérico de la entropía de diferentes
sistemas permite caracterizar matemáticamente la distribución de
la energía en los mismos. El flujo de calor desde la porción
caliente hasta la fría es una redistribución de la energía del
sistema y se traduce en un aumento de la entropía total del
mismo. Todo el sistema alcanza con el tiempo el equilibrio
térmico a una temperatura uniforme. La entropía aumenta simul-
táneamente al fluir el calor hasta alcanzar un valor elevado. Yo
que todas la partes del sistema se encuentran ahora a la misma
temperatura, el calor no puede fluir más y se dice que cuando el
sistema está en equilibrio térmico su entropía es la «máxima
posible».
Este equilibrio puede perturbarse convirtiendo una parte de lo
energía del sistema en calor. Aumentará más su entropía y el
estado del mismo será distinto, porque la energía química del
carbón o petróleo, por ejemplo, transformada en calor se encuentra
ahora en forma de movimiento molecular y, por tanto, menos
disponible para trasnformarse en otras clases. Esta «nueva» energía
calorífica habrá de fluir ahora a otras partes del sistema. Si lo
hace a través de una máquina de Carnot no habrá un aumento
posterior de la entropía, pero si fluye a través de otra máquina
cualquiera o directamente a otras partes del sistema su entropía
aumentará hasta alcanzar otro nuevo valor máximo.

Aumento de entropía e irreversibilidad

Si en un sistema aislado tiene lugar algún proceso que haga


aumentar su entropía, la segunda ley constata que no podrá
invertirse mientras permanezca aislado, porque disminuiría la
entropía y eso está prohibido. Una vez que se quema carbón y se
produce calor y cenizas, no podrá invertirse la combustión para
que el calor fluya de nuevo hacia ellas y se conviertan en carbón.
Un proceso sólo puede invertirse si e] cambio de entropía que lo
acompaña es cero.
Una máquina de Carnot es completamente reversible porque
el cambio de entropía total asociado a su funcionamiento es cero.
Toda máquina que tenga alguna fricción (y, por consiguiente,
parte de la energía mecánica se transforme en calor) llevará a
cabo un proceso irreversible. Incluso una máquina sin fricción que
no opere según el ciclo de Carnot ejecutará un proceso irreversible,
ya que el cambio de entropía total del sistema formado por los
depósitos y la máquina es mayor que cero. La máquina en sí
podrá ser reversible' o no según tenga o no fricción, pero hay un
Una máquina térmica puede invertirse en principio o «hacer que funcione al
revés» comunicándole trabajo que arrastre el calor desde el depósito frío al caliente.
Una máquina térmica invertida se llama bomba calorífica. Ejemplos son los acondi-
cionadores de aire y los refrigeradores empleados para enfriar los edificios y los
alimentos. También se pueden emplear para calentarlos. Una máquina de Carnot
funcionando «al revés» es una bomba calorífica o térmica ideal. Según la segunda ley
de la Termodinámica, el funcionamiento de una bomba térmica en un sistema aislado
nunca podrá hacer que disminuya la entropía del sistema completo.
cambio irreversible en la totalidad del sistema. Ya se ha indicado
que este cambio irreversible se asocia con la aproximación de los
dos depósitos al equilibrio térmico.
El principio del aumento de entropía «dicta al sistema hacia
dónde debe encaminarse». Sólo puede dirigirse a través de procesos
que no hagan disminuir la entropía. El científico británico Arthur
S. Eddington llamaba a la entropía «la flecha del tiempo», ya que
las diferentes descripciones que se hagan de un sistema aislado en
distintos instantes podrán ordenarse en una secuencia temporal
por su aumento de entropía.
La entropía como parámetro del sistema
Si un sistema no está aislado sino que puede actuar sobre otro.
podrá ganar o perder energía. Si ésta es calor, es posible calcular
directamente el cambio de entropía a partir del calor absorbido o
liberado suponiendo que también pueda calcularse la temperatura
del sistema a medida que vaya ganando o perdiendo calor. Habrá
que emplear la primera ley de la Termodinámica junto con la
ecuación de estado del sistema. El análisis matemático demuestra
que puede tratarse la entropía del sistema como un parámetro que
determina su estado, lo mismo que la temperatura o la energía
interna. Puede calcularse el valor de la entropía a partir de la
temperatura y otros parámetros del sistema tales como el volumen,
la presión, el voltaje eléctrico o el contenido de energía interna.
Todos los sistemas poseen entropía y aunque no hay «entropíme-
tros» para medirla se puede calcular (o mirar en tablas) si se
conocen otros parámetros del sistema como la temperatura, el
volumen o la masa. Sería posible del mismo modo, de no existir
«temperaturímetros» (termómetros), calcular la temperatura de
los cuerpos a partir de otros parámetros.
Igual que la temperatura, presión y demás parámetros macros-
cópicos (que describen las propiedades a gran escala) se «explican»
básicamente en los términos de un modelo microscópico (teoría
cinético-molecular) que considera que la materia está formada de
átomos y moléculas con distintas clases de movimientos, la entropía y
la segunda ley de la Termodinámica también pueden explicarse en
esos mismos términos.
Probabilidad e interpretación microscópica
de la entropía
Desde los tiempos de Francis Bacon, Robert Hooke e Isaac
Newton se ha especulado que el hecho de transferir calor a un gas
se traducía en aumentar el movimiento aleatorio microscópico de
las moléculas sin que resultase un movimiento de su masa. Incluso
en el «aire en calma» todas sus moléculas están en movimiento,
cambiando constantemente sus direcciones, porque de lo contrario
se observaría un movimiento de toda la masa gaseosa en forma de
brisa o viento. Puede demostrarse que la temperatura absoluta de
un gas es proporcional a la energía cinética traslacional aleatoria
media de sus moléculas.
Es imposible distinguir claramente entre movimiento aleatorio
y ordenado. Si una bala se mueve por el espacio a la velocidad de
varios cientos de kilómetros por hora, la rapidez media y dirección
a la que se mueven sus moléculas es la misma. Se dice que su
movimiento es organizado. Cuando una bala choca adiabáticamente (
sin que se pierda calor) contra un objeto que la detenga, las
moléculas siguen teniendo la misma energía cinética media, pero
el movimiento es ahora microscópico y completamente aleatorio.
Las moléculas no se mueven en la misma dirección ni viajan
mucho tiempo en una dirección concreta, siendo su velocidad
media neta cero, en contraste con su rapidez. La energía cinética
de la bala que anteriormente se calculaba a partir de su movimiento
conjunto macroscópico se transforma en calor, que se añade a la
energía del movimiento aleatorio microscópico de las moléculas y
se traduce en un aumento de su temperatura.
El uso de la expresión «energía cinética traslacional aleatoria
media por molécula» lleva implícito que algunas moléculas se
moverán más rápidamente que la media y otras más despacio y
que existen diversas formas de energía cinética tales como roda-
mientos, giros y vibraciones de las distintas partes de la molécula.
Una molécula dada en realidad puede estar moviéndose más
deprisa que la media en un instante y un poco después moverse
con menos rapidez. Cabría preguntarse cuál es la proporción de
moléculas que se mueven algo más rápidas (o más lentas) que la
media y cuáles son las que se mueven mucho más rápidamente
(o más lentamente) que la media. La representación gráfica de la
respuesta a esta pregunta y otras parecidas se denomina función
de distribución o función de partición, porque pone de manifiesto
que la energía total del gas está distribuida o repartida entre las
distintas moléculas.
Esta función de distribución se puede calcular a partir de los
principios fundamentales de la Mecánica deducidos por Isaac
Newton, sus contemporáneos y sucesores. Se trata de un cálculo
complejo debido al enorme número de moléculas que hay en un
volumen dado en condiciones normales (en unos quince centímetros
cúbicos de gas puede haber unos doscientos millones de billones
de moléculas, número que usando la «notación científica» se
escribe 2 x 10 2 ) y que requiere resolver un número igual de
ecuaciones. Además, es extremadamente difícil realizar las
mediciones que determinan las condiciones iniciales de
posición y velocidad de cada una de las moléculas. La mejor
estrategia a seguir consiste en realizar un cálculo estadístico, es
decir, suponer dónde se encuentran las moléculas «típicas» y las
velocidades que llevan y emplear los conceptos de probabilidad y
azar. Existirán, por tanto, desviaciones aleatorias de las velocidades
«típicas».
Lo que significa esencialmente el azar se resume con las ideas
de «impredecible», «desconocido» o «por suerte». Sin embargo,
aunque el movimiento de moléculas concretas sea impredecible, el
movimiento medio de una molécula «típica» es predecible. En
realidad incluso se puede predecir la probabilidad de que una
molécula dada se mueva de una forma concreta, de manera que
una muestra suficientemente grande de moléculas tenga el com-
portamiento medio acorde con las predicciones.
Se plantea un dilema. ¿Cómo es posible que existan resultados
impredecibles si todo está basado en la mecánica newtoniana, que
supone certeza? Es necesario hacer la hipótesis adicional de que
los promedios obtenidos empleando probabilidades tienen el mismo
valor que los que se obtendrían si se realizaran los cálculos de
acuerdo con las leyes de Newton y se promediara después. Esta
suposición, llamada hipótesis ergódica, en conjunción con las
leyes de la mecánica newtoniana lleva al resultado de que la
función de distribución evolucionará en el tiempo de forma idéntica
a como lo hace una distribución de probabilidad con respecto a la
energía cinética media.
Figura 5.7.—Mezcla de un gas caliente con otro frío. Originariamente las moléculas
negras se encuentran en el lado izquierdo y a menor temperatura que las blancas del
lado derecho. a) Distribuciones originales algo después de retirar la pared adiabática.
b) Las distribuciones de la energía se hacen más parecidas cuando cl proceso de
mezcla se encuentra en su punto intermedio. c) Al completarse el proceso de mezcla
las distribuciones de energía de los dos conjuntos de moléculas son idénticas,
fundiéndose en una distribución de equilibrio general. Las curvas de trazo continuo
representan las distribuciones de energía de ambos tipos de moléculas y las de trazo
discontinuo representan la suma de las distribuciones.

Para «explicar» por qué fluye el calor desde las temperaturas


elevadas a las bajas se puede emplear el modelo microscópico y la
idea de las funciones de distribución. Ello puede ilustrarse consi-
derando la mezcla de dos gases que se encuentren a distinta
temperatura hasta obtener la temperatura de equilibrio. En la
figura 5.7 se representan dos depósitos que contienen moléculas
gaseosas, estando caliente el de la derecha y frío el de la izquierda.
Los depósitos se encuentran inicialmente separados por una pared
adiabática (perfectamente aislante) y se retira después para que
las moléculas tengan entera libertad de movimiento. Aunque las
moléculas «calientes» no viajen mucho, al interaccionar sucesiva-
mente con las «frías» más próximas les cederán algo de energía y
si regresan a la mitad izquierda del depósito compartirán la
energía ganada anteriormente con sus compañeras «frías». Algunas
de éstas difundirán mientras tanto hacia la mitad derecha y
aumentarán su energía media al colisionar o interactuar con las
«calientes». De igual modo, algunas de las moléculas «calientes»
difundirán hacia la mitad izquierda y perderán energía al colisionar
o interaccionar con las «frías». Todas las moléculas «calientes»
interactuarán con el tiempo con las «frías», bien directamente o a
través de una cadena de choques y lo mismo ocurrirá con las
«frías».
Al continuar el proceso las dos funciones de distribución de la
energía, que al comienzo eran diferentes, se aproximan y se hacen
más parecidas, como se muestra en la figura 5.7. Al transcurrir el
tiempo se hacen exactamente idénticas. La energía cinética de
traslación media por molécula (correspondiente a una temperatu-
ra absoluta dada) será igual a la media de los dos valores me-
dios originales, aunque ahora todas las moléculas se distribuirán
aleatoriamente en torno a este nuevo valor medio. Esta nueva
función de distribución es la función de distribución de equilibrio
y si el sistema no experimenta una futura perturbación no se mo-
dificará.
Además, la distribución de equilibrio es la función de distribu-
ción más probable en el siguiente sentido: el contenido de energía
total de un sistema puede repartirse de muchas formas entre las
diferentes moléculas que lo componen; por ejemplo, después de
mezclarse todas las moléculas, la mitad de ellas podrían tener
exactamente el 10 por 100 menos de energía que la media y la
otra mitad el 10 por 100 más. La probabilidad de que se dé esta
distribución, representada en la figura 5.8, es muy pequeña. Es
mucho más probable que la función de distribución se reparta al
azar en torno al valor medio, ya que hay muchas más formas de

Figura 5.8.—Distribución de energía improbable.


distribuirse aleatoriamente que de otra manera. (Existen situaciones
en las que el valor medio de una distribución aleatoria no es el
mismo que el más probable -véase por ejemplo la figura 7.
15b-pero ello se puede considerar como una sofisticación de la
discusión anterior.)
Es exactamente análogo a jugar con dos dados. Si se tiran
muchas veces se observará que la suma más probable a salir es 7,
siguiéndole 8 y 6, mientras que los valores menos probables son 2
y 12. como se observa en la tabla 5.2, hay seis formas distintas de
obtener 7, cinco de obtener 8 ó 6 y sólo una de obtener 2 ó 12.
Esto lo saben muy bien los jugadores de dados que no usan dados
trucados.
Co
TABLAm
5.2
Formas posibles de obtener unb valor
i concreto al tirar dos dados
na
ci
Suma de los Número total de
dos dados on combinaciones
es
2 1,1 po
1
3 1,2; 2,1 sib 2
4 1,3; 2,2; 3,1
les 3
5 1,4; 2,3; 3,2; 4,1 4
6 1,5; 2,4; 3,3; 4,2; 5,1 5
7 1,6; 2,5; 3,4; 4,3; 5,2; 6,1 6
8 2,6; 3,5; 4,4; 5,3; 6,2 5
9 3,6; 4,5; 5,4; 6,3 4
10 4,6; 5,5; 6,4 3
11 5,6; 6,5 2
12 6,6 1

Puesto que la distribución de equilibrio es la de mayor proba-


bilidad desde el punto de vista microscópico y ya que la segunda
ley de la Termodinámica lleva a la idea de que la entropía es
máxima en el equilibrio, es razonable suponer que existe una
relación entre la entropía de un sistema y la probabilidad de que
se dé una distribución de energía particular. (Puede demostrarse
que el logaritmo de la probabilidad de una distribución de energía
dada se comporta matemáticamente de la misma forma que la
entropía.) El enfoque microscópico junto con la idea de probabilidad
hace de la entropía un concepto muy poderoso. Permite explicar,
por ejemplo, por qué todas las moléculas de un depósito no se
encuentran en un lugar particular del mismo: es simplemente
mucho más probable que se dispersen por todo él, ya que existen
muchas más formas de colocarlas por todo el depósito que de
ponerlas en uno de los lados. Para que se dispusieran de esta
forma, las colisiones tendrían que estar dirigidas hacia el mismo
punto, lo que resulta poco probable. Lo más corriente es que las
moléculas se golpeen en todas las direcciones y llenen todo el
depósito. La entropía es entonces mayor y se alcanza el estado de
equilibrio. Lo mismo ocurre si hay presentes dos tipos de moléculas:
es mucho más probable que estén mezcladas al azar que segregadas
en capas. (Se supone, desde luego, que la fuerza de la gravedad no
es lo suficientemente intensa para discriminar el peso de las
moléculas de los dos gases.)
Entropía y orden: el demonio de Maxwell
Si se apilaran en un punto varias carretadas de ladrillos
probablemente se caerían y formarían un montón desordenado. Es
enormemente improbable que al caerse lo hicieran ordenadamente
y formaran una estructura como un edificio. Ello se debe a que
existen más formas de hacer un montón desordenado que de hacer
una casa. Dicho con otras palabras, una disposición desordenada
es mucho más probable. (Lo mismo sucede con las viviendas, es
más probable que no estén arregladas, ya que hay más formas de
estar desordenadas que de estar impecables.)
Según la teoría cinético-molecular de la materia, cuando una
sustancia, como el agua, se encuentra en estado sólido, hielo, sus
moléculas se disponen formando un modelo geométrico regular
definido. Su entropía aumenta al absorber calor y aunque sus
moléculas mantengan prácticamente el mismo modelo anterior, en
un instante dado se moverán mucho más. El aumento de entropía
se define como un aumento del desorden a nivel molecular. Las
moléculas de agua se mueven todavía más al fundirse el hielo,
destruyéndose el modelo geométrico regular anterior,
desorganizándose más el sistema y ganando mucha entropía.
Si se añade más calor, la temperatura subirá por encima del punto
de ebullición, aumentando la distancia media entre las moléculas y el
intervalo
de los valores de su momento. Las moléculas se encuentran ahora
en una disposición muy desorganizada y la entropía del sistema es
alta. Se puede calcular el aumento de entropía resultante de la
evaporación dividiendo el calor latente (véase capítulo 4) por la
temperatura termodinámica.
Las ideas de orden y desorden (de organización y de falta de
ella) no se refieren únicamente a la disposición de las moléculas
en el espacio, sino también a las funciones de distribución de la
energía. La mezcla de moléculas calientes y frías discutida anterior-
mente en relación con la aproximación al equilibrio se puede des-
cribir como pérdida de organización de las funciones de distribución
de la energía. La mitad de las moléculas estaban inicialmente
agrupadas en una distribución de baja temperatura (con una ener-
gía pequeña por molécula) y la otra mitad en una distribución de
temperatura media más alta, lo que representa una agrupación or-
denada de moléculas de energías baja y alta. Después de haberlas
mezclado y alcanzarse el equilibrio, sólo hay una distribución y ya
no se da una organización o segregación espacial dependiente de
la energía.
Resumiendo, el principio según el cual la entropía de un
sistema aislado no puede disminuir significa simplemente que no
podrán separarse sus moléculas en grupos de distinta energía
media, ya que dicha segregación representaría la adquisición de
algún grado de ordenación u organización, lo cual es muy impro-
bable que ocurra sistemáticamente. La entropía es desde el punto
de vista microscópico una medida del desorden del sistema y al
aumentar éste se hace más desordenado.
Se han propuesto muchos esquemas para tratar de burlar el
principio del aumento de entropía de un sistema aislado. Uno de
los más conocidos y fantásticos es el ideado por el gran físico teó-
rico escocés James Clerk Maxwell (1831-1879). Imaginó que en
medio de una caja con moléculas gaseosas en equilibrio térmico
había una pared que la subdividía en dos compartimientos. En el
tabique existía una portezuela inicialmente abierta para que las
moléculas de ambas partes pudieran pasar al lado contrario.
Maxwell propuso que un diablillo sentado junto a la puerta capaz
de cerrarla o abrirla muy rápidamente tendría el instinto demoníaco
de burlar la segunda ley de la Termodinámica y por eso se llama
demonio de Maxwell.
El demonio pretendía separar las moléculas en dos grupos:
«calientes» o rápidas en la parte derecha y «frías» o lentas en la
parte izquierda. El diablillo observaba las moléculas, sobre todo a
las que parecía que se acercaban a la puerta. Si una molécula
rápida procedente de la derecha se acercaba a la puerta, la
cerraba inmediatamente para que rebotara en ella y se quedara en
el lado derecho. Pero si una molécula lenta de este lado se
acercaba a la puerta, la abría y permitía que pasara al lado
izquierdo. También permitía que pasaran a la parte derecha las
moléculas rápidas procedentes de la izquierda, mientras que cerraba
el paso a las lentas. El demonio separaría después de un cierto
tiempo las moléculas en dos grupos, el de la derecha, con una
energía cinética traslacional media mayor y, por tanto, con mayor
temperatura, y el de la izquierda, con menor temperatura. La
segunda ley de la Termodinámica afirma que los duendes y
diablos sólo existen en los cuentos divertidos y el demonio de
Maxwell no iba a ser una excepción, como bien sabía su creador.
Además, la ley dice que todo dispositivo mecánico o electrónico
sensible a la velocidad de las moléculas instalado para controlar el
funcionamiento de la portezuela no podrá operar a menos que
reciba energía desde fuera del sistema. (Esta conclusión no resulta
evidente a partir de la información expuesta anteriormente, pero
un detallado análisis demuestra que debe ser así.) Si el sistema
recibe energía externa ya no estará aislado.
Hay que calificar de estadística a la segunda ley. Puesto que el
enfoque microscópico trata con probabilidades, no podrá decirse
con absoluta certeza que un grupo de moléculas no puede aumentar
espontáneamente de ordenación, pero será tan raro que difícilmente
llegará a ocurrir. El que suceda varias veces, que es lo que los
escépticos requieren como verificación, es tan improbable que
está más allá de lo experimental. No debiera esperarse «conteniendo
la respiración» a que suceda.
Implicaciones cosmológicas y filosóficas:
«la muerte térmica» del Universo

Como ya se ha discutido en el capítulo 4, Julius Robert Mayer consideró


que los recursos energéticos de la Tierra tienen su
origen en el Sol. Así, la energía almacenada en el carbón se deriva
de la vegetación desarrollada en épocas geológicas pasadas a
partir de la luz solar. Incluso la energía térmica del interior
terrestre, que se cree que es el resultado de la radiactividad del
material interno, originariamente procedía del material con el que
se formó la Tierra. Según una de las teorías actuales, se produjo
por una explosión de tipo supernova de una vieja estrella, y todo el
Sistema Solar es un residuo de ese proceso. Se piensa, por
generalización de esta idea, que todas las fuentes energéticas del
Universo se encuentran principalmente en las estrellas, cuerpos
muy calientes ya que se libera como calor parte de su energía
nuclear.
Si todo el Universo fuera un sistema cerrado y no hubiera nada
más, habría que suponer que hay una cantidad fija de energía,
distribuida de alguna forma. Las distintas estrellas representan
concentraciones muy elevadas de energía y por eso existe orden
en el Universo. Es razonable esperar que en última instancia una
estrella concreta se enfríe y pierda su calor, aunque sea a través de
un proceso muy complicado. Por ejemplo, el Sol agotará su
energía disponible actualmente dentro de unos diez mil millones
de años, según ciertas estimaciones. Su presión interna disminuirá
al enfriarse (de acuerdo con su función de estado) y como
consecuencia de la fuerza atractiva de la gravedad se colapsará,
iniciándose una nueva serie de reacciones nucleares que convertirá
parte de su energía en calor, aumentando de nuevo su temperatura.
Al transcurrir el tiempo radiará enormes cantidades de energía
enfriándose a alguna temperatura estable. Es presumible que en
todas las entrellas ocurran procesos similares, hasta que finalmente
acaben enfriándose.
Este proceso podría tardar de 10 9 a 10 12 años. Si se mantiene
la segunda ley en el Universo cerrado, se alcanzará una temperatu-
ra de equilibrio, que se ha estimado bastante inferior a 10 K.
Desaparecerán todas las diferencias de temperatura, se harán
inoperativas todas las máquinas térmicas e incluso la vida no será
posible, ya que no se dispondrá de la energía que se requiere para
su mantenimiento. El conjunto del Universo alcanzará un estado
esencialmente desorganizado, ya que la condición de equilibrio se
caracteriza por un máximo de entropía y, por tanto, de desorden.
Además, cualquier proceso que haga aumentar el orden de una
parte del Universo conducirá a una disminución mayor del mismo
en el resto.
Este último destino se denomina «muerte térmica del Universo»
aunque se encontrará realmente muy frío si ocurre. La idea está
implícita en los escritos de Clausius y en los del físico austríaco
Ludwig Boltzmann aunque en 1852 fue discutida explícitamente
por lord Kelvin.
Si la muerte térmica constituyera el estado último del Universo,
los ideales humanos como el progreso inevitable o el perfecciona-
miento de la especie serían ilusorios. Si el final último es el caos,
¿qué objeto tendría la investigación científica interesada en el
orden? Se ha atacado a la idea de la muerte térmica con argumentos
filosóficos y políticos. Es condenada por los marxistas ortodoxos
teóricos que debido a sus puntos de vista básicamente materialistas
son muy sensibles a las implicacioanes de la Ciencia en la
Filosofía. Hay otras razones, no obstante, para el escepticismo. En
ocasiones se ha cuestionado el supuesto de que el Universo sea un
sistema cerrado. Además, la creencia de que las leyes de la
Termodinámica se aplican al Universo de la misma forma que se
aplican a una pequeña región del mismo es una extrapolación
empírica basada en sistemas relativamente pequeños. La generali-
zación de principios conocidos más allá del dominio en el que han
podido verificarse ha resultado ser un fracaso frecuentemente. Se
sabe, desde luego, que algunos fenómenos físicos que ocurren en
regiones alejadas del Universo parecen ser similares a los que
tienen lugar en las inmediaciones de la Tierra. Tal es el caso de la
composición de la luz de las estrellas cercanas y alejadas. Hasta
ahora no hay pruebas directas de que no sean válidas las generali-
zaciones de las teorías conocidas, ya que de lo contrario habría
que modificarlas. Se trata sencillamente de que no existen muchas
pruebas: la Astrofísica observacional y la Cosmología son ciencias
relativamente jóvenes.
Aunque se empleen argumentos estadísticos, la generalización
de supuestos relacionados con la extrapolacion de probabilidades
de los sistemas finitos a los infinitos no ha estado nunca justificada.
A pesar de ello, el aumento de entropía en los sistemas
aislados, la degradación de la energía y la muerte térmica del
Universo son ideas que han tenido un fuerte impacto en el
pensamiento filosófico y en la Cultura desde la última mitad del
siglo xix. La creciente degradación de la personalidad de individuos
concretos, de grupos o de sociedades son temas importantes del
pensamiento y de la literatura moderna. Una prueba de ello son
los escritos de Charles Baudelaire, Sigmund Freud, Henry Adams,
Herman Melville, Thomas Pynchon y John Updike entre otros.
Algunos economistas y ecólogos usan en sus análisis analogías
termodinámicas. [Véase, por ejemplo, Zbigniew Lewicki, The
Bang and the Whimper: Apocalypse and Entropy in Literature
(Westport, Conn.: Greenwood Press, 1984): Rudolf Arnheim, En-
tropy and Art (Berkeley, University of California Press 1971);
Nicholas Georgescu-Roegen, The Entropy Law and the Economic
Process (Cambridge, Mass.: Harvard University Press) y sus respec-
tivas referencias.]
6
Relatividad

Aunque la ley es absoluta, los hechos son relativos.


Albert Einstein. (Cortesía de Unieed
Press International.)

La Teoría de la Relatividad, la bomba atómica, la energía


nuclear y la idea de que todo es relativo se asocian generalmente
a Albert Einstein. El concepto de relatividad, sin embargo, no
surgió con Einstein, y la energía nuclear es fundamentalmente una
consecuencia colateral de sus trabajos. La investigación original
de Einstein estaba relacionada con la determinación de lo que es
absoluto y lo que es relativo. El verdadero significado de la teoría
de Einstein resulta del nuevo análisis de ciertos supuestos metafí-
sicos, de la reafirmación de otros y del reconocimiento de la
forma en que se descubren los hechos y las leyes físicas. A
menudo se describe la Teoría de la Relatividad como la teoría que
trata de las teorías y, en ese sentido, han de ser consistentes con
ella. Sus aplicaciones demuestran al mismo tiempo cuán abstractos
y esotéricos son los conceptos que , pueden tener consecuencias
muy concretas para la vida cotidiana. Una de ellas, la equivalencia
e interconversión de materia y energía, lleva directamente a la
idea de energía nuclear. Otras consecuencias incluyen la com-
prensión de la estructura de la materia, la solución de muchos
problemas astronómicos, la revisión de los conceptos cosmológicos
y un conocimiento más profundo de la naturaleza del electromag-
netismo y de la gravitación. Las raíces de la Teoría de la Relatividad
hay que buscarlas en la revolución copernicana y en las cuestiones
relacionadas con el movimiento, reposo y aceleración absolutos.
La relatividad galileo-newtoniana

Como ya se ha discutido en el capítulo 3, Newton estableció


en sus Principia ciertos postulados sin presentar ninguna prueba.
El único requisito que habían de cumplir es que fueran consistentes
entre sí. Estos postulados eran necesarios para disponer de una
terminología definida que sirviera de base para futuras investiga-
ciones. Entre lo que se postulaba se encontraban la naturaleza del
espacio y del tiempo. Ya que planeó deducir las fuerzas que
actúan sobre los objetos a partir de sus movimientos, necesitaba
disponer de un fundamento para describir éstos. Instintivamente
se piensa en el movimiento en función del espacio y del tiempo
y es necesario, por tanto, precisar el significado de dichos con-
ceptos.
La definición que Newton daba del espacio es la siguiente: «El
espacio absoluto, por su propia naturaleza, no está relacionado
con nada externo, siempre permanece igual e inamovible... también
recibe el nombre de extensión». Newton también constató que
unas partes del espacio no podían distinguirse de otras de manera
que en vez de usar el espacio y el movimiento absolutos es nece-
sario que se use el espacio y el movimiento relativos (véase más
abajo).
Definió el tiempo así: «El tiempo absoluto, verdadero y mate-
mático, de sí y por su propia naturaleza, fluye igualmente sin
relación .a nada externo y también recibe el nombre de duración».
Existe una diferencia entre el tiempo objetivo y el psicológico.
Todo el mundo sabe que, según las circunstancias, unas veces el
tiempo vuela y otras transcurre muy despacio. Newton advirtió
que, desde el punto de vista práctico, el tiempo objetivo podía
medirse por el movimiento. Por ejemplo, durante el día puede
medirse el paso del tiempo por el movimiento aparente del Sol en
el cielo. Aunque Newton reconoció que el espacio y el tiempo que
se miden son relativos, recalcó que en su sistema se daban los
conceptos ofrecidos más arriba. Desde luego en las definiciones de
Newton hay ambigüedades. Así, decir que el tiempo fluye de
forma igual y uniforme significa que ha de haber un medio
independiente de determinar lo que es igual o uniforme. Estas
palabras ya implican un conocimiento del tiempo.
Puesto que Newton reconoció que generalmente se miden la
posición, el movimiento y el tiempo relativos habrá que explicar lo
que quiere decir mediciones relativas. Si se dice que un aula
determinada de Kent, Ohio, se encuentra a 64 km al sur de
Cleveland, Ohio, se está dando su posición en relación a esta
última ciudad. También podría decirse que se localiza a 16 km al
este de Akron, Ohio. Una proclama oficial podría fecharse en el
año 5747 después de la Creación, en el 1986 después del naci-
miento de Cristo o en el año 211 después de la Independencia de
los Estados Unidos, según el momento que se tome como referencia
para contar el tiempo.
La localización del aula dada anteriormente no es completa y
es necesario especificar la planta del edificio en que se encuentra.
Lo más corriente es que las situaciones de la Tierra se den por la
latitud, longitud y altitud. Existen diversas formas de especificar la
posición de un punto, pero siempre se necesitarán tres coordenadas
para localizarlo en un mapa tridimensional llamado sistema de
referencia. Los valores dependerán del origen que se elija (el punto
a partir del cual se miden los demás) y podrá ser Cleveland,
Topeka (Kansas), Greenwich (Inglaterra), Moscú o Quito. El
origen no tiene por qué estar sobre la Tierra, puede encontrarse en
el centro del Sol o en medio de la Galaxia. Los números concretos
de las coordenadas dependerán del sistema de referencia y de si la
distancia se mide en millas, kilómetros o grados.
Una vez establecido el sistema de referencia se puede especi-
ficar el movimiento con respecto a él indicando la variación de
las coordenadas de un cuerpo dado a medida que pasa el tiempo.
La velocidad de un objeto se indica con relación a un sistema de
referencia particular y su valor dependerá del sistema elegido, ya
que pudiera estar en movimiento. Por ejemplo, un estudiante
sentado en un banco del aula lleva una velocidad cero en relación
a un punto terrestre fijo, pero con relación al Sol se está moviendo
con una rapidez de 100.000 km- h-', que es la velocidad a la que
la Tierra gira en torno al Sol. Un cohete que vaya a 1.500 km• h-' en
relación a la superficie terrestre viajará en relación al Sol a
101.500 km• h-' o 98.500 km• h-', según la dirección en que se
mueva. Puesto que la velocidad es una cantidad vectorial (véase
capítulo 3), la dirección de la velocidad con respecto al Sol
también dependerá de la posición de la Tierra en la órbita, así
como de la rotación relativa de la Tierra sobre su eje. Debido a
que el Sol en sí mismo está en movimiento respecto del centro de
la Galaxia, la velocidad del cohete en relación a ésta tendrá otro
valor. La misma Galaxia se mueve con respecto a otras.
Por consiguiente, las coordenadas y velocidades son cantidades
relativas y todas las que se deriven de ellas también lo serán:
momento, energía cinética y potencial, etc.
Desde el enfoque ofrecido por la definición de Newton del
espacio y tiempo absolutos es lícito preguntarse cuál es la verdadera
velocidad a la que la Tierra se desplaza por el espacio, no su ve-
locidad con relación al Sol o la Galaxia, sino en relación con el
espacio absoluto. Podría considerarse el centro de la posición
media de las estrellas fijas, pero ¿qué pruebas existen de que las
estrellas se encuentren fijas en el espacio? Se trata de una cuestión
muy relacionada con los problemas que abordaron Ptolomeo,
Copérnico, Galileo, Kepler y sus contemporáneos. ¿Se mueve la
Tierra, el Sol o las estrellas? ¿Se mueven todos? Galileo aseguró
que era imposible decir, a partir de experimentos realizados en la
Tierra, si ésta se mueve en sentido absoluto.
Galileo indicó que si se arroja un cuerpo desde el mástil de un
barco que navegue por el puertq caerá en línea recta chocando
con la cubierta al pie del mástil si se observa desde el barco, pero
si se está mirando desde la playa no se verá caer al objeto en línea
recta, sino que irá animado de un movimiento de tipo proyectil:
irá hacia adelante porque así va el barco y simultáneamente caerá
hacia la Tierra, describiendo, por tanto, una trayectoria parabólica.
Sin embargo, el objeto chocará con la cubierta del pie del mástil
porque el barco se habrá movido hacia adelante, manteniendo el
paso con el movimiento hacia adelante del objeto. Los marineros
serán incapaces de decir si el barco se mueve observando la caída
del objeto, ya que, se mueva o no el barco, el objeto chocará con
el mismo punto de la cubierta.
Si miran el litoral podrán decir si el barco se mueve en
relación a aquél. Desde luego asegurarán que lo que se mueve es
el barco, ya que es difícil creer que sea el barco el que esté quieto
y que lo que se mueve es el litoral. Galileo, y antes que él
Copérnico, encontraron difícil creer que era la Tierra la que
estaba en reposo y que las estrellas se movían, pero reconocieron
que no existían pruebas que indicaran su movimiento y rapidez
reales.
En realidad la ley de la inercia —la primera ley del movimiento
de Newton— constata que, en lo que se refiere a las fuerzas,
cualquier sistema de referencia que se mueva a una velocidad
constante con relación a otros es equivalente, siendo imposible
determinar si uno de ellos está realmente en reposo en el espacio
absoluto o si se desplaza con más rapidez que los demás. Un
objeto que se mueva a velocidad constante en un sistema de
referencia también se moverá con una velocidad constante, y
distinta, en otro que esté moviéndose a velocidad constante respecto
al primer sistema de referencia. El objeto también podrá estar en
reposo en otro sistema de referencia.
Por ejemplo, imagínese que un hombre tira un balón a 60
km. h -' desde la popa a la proa de un barco que navegue hacia el
este con una rapidez de 30 km . h-'. El balón se desplaza con
respecto al barco en dirección este a 60 km- h- y con relación al
océano a 90 km . h-', también en dirección este. En ausencia de
fuerzas externas (gravedad y resistencia debida al viento) el balón
seguirá moviéndose con esas velocidades. El balón llevará una
velocidad cero en relación a un helicóptero que se dirija hacia el
este volando a 90 km•h ' con respecto al océano: estará en
reposo. No podrá decirse que el balón está realmente moviéndose
a 90 km• h-', ya que la propia Tierra está en movimiento.
Todo sistema de referencia en el que sean válidas las leyes del
movimiento de Newton, y especialmente la primera, se denomina
sistema de referencia inercial y pueden estar en movimiento relativo
unos con respecto a otros pero a velocidad constante. Merece la
pena diferenciar en este momento los sistemas inerciales de los no
inerciales. Puede emplearse como un sistema de referencia inercial
un automóvil que viaje regularmente en la misma dirección a 50
km• h Si el conductor pisa repentinamente el freno, mientras el
automóvil esté reduciendo la velocidad se convierte en un sistema
de referencia no inercial o acelerado, ya que aunque no se le
aplique ninguna fuerza a los objetos de su interior comenzarán de
pronto a acelerar. El viajero del asiento delantero que no se haya
puesto el cinturón de seguridad empezará a acelerar desde su
posición de reposo y chocará contra el parabrisas. En este sistema
de referencia se ha violado la ley de la inercia de Newton, ya que
el viajero ha empezado a acelerar sin que sobre él haya actuado
una fuerza y por eso se denomina no inercial.
También será un sistema no inercial cualquier sistema de
referencia que esté girando. A la hora de realizar cálculos habrá
que rechazar o descartar, siempre que sea posible, a los sistemas
no inerciales, ya que en ellos no son válidas las leyes del movimiento
de Newton'.
Debido a que todas las cantidades dinámicas se miden en
función del espacio y el tiempo, las mediciones dependerán del
sistema de referencia en el que se lleven a cabo. La velocidad del
balón del ejemplo anterior depende del sistema de referencia en el
que se examina y lo mismo ocurrirá con sus energías cinética y
potencial. Por supuesto será posible determinar las propiedades
físicas del balón en cualquier sistema de referencia siempre que se
sepa su velocidad en alguno (en el barco, por ejemplo). Lo mismo
ocurrirá con cualquier otra cantidad dinámica.
Las expresiones matemáticas que permiten llevar a cabo estos
cálculos se denominan ecuaciones de transformación. Son como
una especie de diccionarios que «traducen» las «palabras» de un
sistema de referencia a otro. Si se conocen las coordenadas y la
velocidad de un cuerpo en un sistema de referencia, las ecuaciones
de transformación permiten calcular las que tendrán en otro. (
Dado que los sistemas de referencia están en movimiento relativo
mutuo en ellos también se ve 'envuelto el tiempo, factor que se
discutirá posteriormente.)
Ya se ha indicado que muchas cantidades o mediciones depen-
derán del sistema de referencia: posición, velocidad, momento,
energía cinética, etc. Por el contrario, las cantidades que no
cambien, cualquiera que sea el sistema inercial o referencia, se
llaman invariantes o constantes. Ejemplos de invariantes en la
física newtoniana son masa, aceleración, fuerza, carga eléctrica,
tiempo, longitud, temperatura y diferencias de energía y potencial.
Cuando se miden en un sistema de referencia, y usando las
ecuaciones de transformación se calculan en otro, se observa que
siguen teniendo el mismo valor original. Y si en lugar de calcularlas
Estrictamente hablando, la Tierra no es un sistema inercia], ya que no se Desplaza
en línea recta y además gira sobre su eje. El efecto de la aceleración resultante es muy
pequeño comparado con la fuerza de la gravedad en la superficie terrestre y el considerarla
como sistema inercia] no produce errores demasiado grandes para muchos propósitos. Sin
embargo, los ciclones y tornados están causados por los efectos no inerciales del giro terrestre.
se miden en este segundo sistema también se encuentran los mis-
mos valores.
No sólo las cantidades pueden ser invariantes. Las leyes del
movimiento de Newton son invariantes para cualquier sistema
inercial. Esto significa que la forma matemática de las leves del
movimiento de Newton es la misma en todos los sistemas de
referencia inerciales. La ley de la conservación de la energía
también es la misma en todos los sistemas inerciales, aunque sea
distinta la cantidad total de energía, y lo mismo ocurre con la ley
de la conservación del momento.
Recibe el nombre de relatividad galileo-newtoniana todo lo
relacionado con las cantidades invariantes y relativas y a las
relaciones y transformaciones de los sistemas de referencia inerciales
discutidos hasta aquí. Dichas relaciones y ecuaciones de transfor-
mación dependen de forma absolutamente fundamental de los
conceptos de espacio y tiempo.

El electromagnetismo y el movimiento relativo

Dos de los grandes triunfos de la Física del siglo xix fueron el


desarrollo del concepto de energía con todas sus consecuencias y
el desarrollo de una teoría unificada de la electricidad y el
magnetismo. Los frutos tecnológicos de ambos han moldeado
nuestra cultura material, y sus consecuencias científicas son igual-
mente omnipresentes.
Al desarrollarse la Teoría del Electromagnetismo se planteó
una vez más la posibilidad de determinar la velocidad de la Tierra
en el espacio absoluto. Aunque la mecánica newtoniana afirmaba
que no había forma experimental alguna de determinar si la
Tierra se movía «en realidad» en sentido absoluto, la Teoría del
Electromagnetismo sugería que podían llevarse a cabo cierto
número de experimentos para determinar el «verdadero» movi-
miento de la Tierra.
La Teoría Electromagnética también es importante a la hora
de comprender la estructura de la materia, una cuestión fundamental
en los dos capítulos siguientes, y será conveniente discutir ahora
determinados conceptos de electricidad y magnetismo.
Es particularmente sencillo generar electricidad estática cuando
el aire está seco, como sucede en invierno en climas fríos, por
medio del fenómeno conocido como efecto triboeléctrico. Al
quitarse una prenda de lana, cepillar un cabello largo y seco,
acariciar un gato o pasear por una alfombra de lana sin tratar, se
sentirá un hormigueo, se oirá un crepitar, se verán chispas o se
observará que se pega la prenda. Todos estos fenómenos y otros
muchos se deben a la producción de electricidad estática por
rozamiento entre dos o más objetos. Tales ya conocía este efecto
hace más de veintiséis siglos.
La electricidad estática se origina por la transferencia de
cargas eléctricas de la superficie de un objeto a la de otro. Con el
tiempo llegó a admitirse que existían dos clases de cargas eléctricas,
la positiva (+) y la negativa (—), y que era posible separarlas. Las
cargas de igual signo se repelen y las de signo opuesto se atraen.
La expresión matemática empleada para calcular la fuerza entre
dos cargas se llama ley de Coulomb y es similar a la ley de la
gravitación universal: la fuerza es proporcional al producto de las
magnitudes de las cargas e inversamente proporcional al cuadrado
de la distancia entre ellas. La magnitud o cantidad de carga
eléctrica se representa por el símbolo q. La expresión algebraica
que da la fuerza entre las cargas q y Q es

siendo k una constante de proporcionalidad y r la distancia que


existe entre ellas. Experimentalmente se encuentra que las cargas
se presentan en múltiplos de un valor definido llamado carga
eléctrica del electrón y se representa por e. (La teoría más reciente
sobre la estructura de las partículas subnucleares propone la
existencia de 2/3 y 1/3 de e, pero dichas cargas no pueden
detectarse en libertad; véase el capítulo 8.)
Aunque la ley de Coulomb permite calcular la fuerza existente
entre dos cargas eléctricas no explica cómo se transmite entre
ellas. Se trata de la misma cuestión planteada en el capítulo 3 a
raíz de la ley de la gravitación universal: ¿cómo se las averiguan
los objetos para ejercerse mutuamente las fuerzas a través del
espacio vacío? (Este problema se discutirá más adelante en este
mismo capítulo y con algo más de detalle en el capítulo 8.) Una
Figura 6.1.—Representación del campo eléctrico. Los signos más y menos indican las
cargas positivas y negativas, y las líneas, el campo eléctrico. a) Carga positiva aislada.
b) Cargas positiva y negativa iguales. e) Dos cargas positivas iguales. d) Láminas
cargadas positiva y negativamente.

manera de abordar las cuestiones como ésta sobre las que se sabe
muy poco es dándole un nombre y en el caso que nos ocupa se
dice que una carga eléctrica ejerce sobre otra una fuerza llamada
campo eléctrico.
Los campos eléctricos son inherentes a las cargas eléctricas.
Una carga eléctrica q posee un campo eléctrico E asociado a ella.
E es una magnitud vectorial (véase el capítulo 3) que se extiende
por una región del espacio muy grande, aunque su módulo
decrece progresivamente a medida que se aleja de q. En la figura
6.1a se representa esquemáticamente el campo eléctrico de una
carga eléctrica concentrada llamada puntual. Las flechas indican
la dirección del campo y el módulo depende de lo cercanas que se
encuentren las flechas. Ya que éstas se dirigen radialmente, están
más próximas en las inmediaciones de la carga y más separadas a
medida que se alejan de ella, reflejando que la magnitud del
campo es mayor cuanto más cerca de la carga esté.
Si en una región dada del espacio hay presentes distintas
cargas eléctricas, el efecto conjunto de sus campos eléctricos se
calcula sumando vectorialmente sus campos eléctricos individuales.
En la figura 6.1b se representa el campo eléctrico resultante de un
par de cargas, una positiva y otra negativa, de igual magnitud, y
en la figura 6.1c se representa el campo eléctrico entre dos cargas
positivas. En la figura 6.1 d se representa el campo entre dos
láminas cargadas con electricidad de distinto signo. Si se lleva una
carga eléctrica a una región del espacio en la que existe un campo
eléctrico se verá sometida a una fuerza proporcional a los campos
eléctricos combinados de las cargas dirigida en la dirección del
campo resultante si es positiva o en la dirección opuesta si se trata
de una carga negativa. Se puede considerar el campo eléctrico
como un procedimiento útil de calcular la fuerza que ejerce un
conjunto de cargas sobre una dada, pero el concepto de campo
eléctrico es mucho más importante que eso, como se verá más
adelante.
Los fenómenos magnéticos también se conocen desde hace
mucho tiempo y en muchos aspectos son similares a los eléctricos.
A las cargas magnéticas se les denomina polos magnéticos. Hay
un polo norte (o que busca el norte) y un polo sur (o que busca el
sur). Hasta la fecha ha sido imposible separar ambos tipos de
polos como entidades distintas, al contrario de lo que ocurre con
las cargas eléctricas. Todos los fenómenos magnéticos conocidos
actualmente pueden atribuirse al movimiento de cargas eléctricas.
Al moverse las cargas eléctricas se origina una corriente
eléctrica cuya unidad se denomina amperio. Asociada a ella existe
un campo magnético representado por B. La relación entre éste y
su corriente asociada es completamente distinta de la que existe
entre E y q, como se representa en la figura 6.2. Si la corriente
circula por un conductor, el campo magnético asociado se distribuye
en un modelo anular en torno de aquél (Fig. 6.2a) cuya magnitud
disminuye al aumentar la distancia al mismo. Si el conductor tiene
una forma helicoidal (solenoide, bobina), el campo magnético de
Figura 6.2.—Campos magnéticos. a) Producido por una corriente que circula por un
conductor recto. b) Producido por una corriente que se mueve por un solenoide.
e) Producido por una barra magnética.

su interior se dirige a lo largo del eje de la hélice y se atenúa en


sus extremos (figura 6.2b). La forma del campo magnético externo
a la hélice es idéntica a la de un imán en forma de barra,
incluyendo la localización de los polos norte y sur (Fig. 6.2c).
Los fenómenos magnéticos de la materia se deben a la presencia
de corrientes eléctricas asociadas a la dinámica de la estructura
molecular y atómica. Dicho con otras palabras, los fenómenos
magnéticos se deben al movimiento de cargas eléctricas y por eso
están relacionados con la relatividad. Los fenómenos magnéticos
sólo requieren el movimiento relativo de cargas eléctricas.
Los campos magnéticos son muy parecidos a los eléctricos: se
deben a que diferentes corrientes o cargas en movimiento combinan
sus efectos, que pueden calcularse sumando vectorialmente las
contribuciones individuales. Un campo magnético también ejercerá
una fuerza sobre una corriente o carga en movimiento que se
encuentre presente.
Los campos magnéticos plantean el mismo problema de los
eléctricos. El campo magnético es el medio o el mecanismo por el
que una carga eléctrica en movimiento (o corriente eléctrica)
ejerce una fuerza sobre otra, también en movimiento. Para calcu-
larla se han desarrollado fórmulas, aunque no explican claramente
cómo una carga en movimiento puede ejercer una fuerza sobre
otra a través del espacio vacío (una cuestión que se considerará en
el capítulo 8). Lo mismo que pasaba con el campo eléctrico, el
campo magnético es algo más que un medio para calcular la
fuerza. En realidad los campos magnéticos y eléctricos pueden
visualizarse como se observa en la figura 6.3, que ilustra cómo
ponen de manifiesto las limaduras de hierro los campos de
alambres e imanes. El cálculo de la fuerza es un poco más
complicado que en el caso del campo eléctrico, ya que no sólo
depende de la magnitud del campo y de la carga en movimiento,
sino también de su velocidad, tanto de su rapidez como de su
dirección. La fuerza se ejerce perpendicularmente al campo mag-
nético original y a la dirección del movimiento de la carga.

Figura 6.3.—Alineaciones de las limaduras de hierro en presencia de campos magneticos


a) En el campo creado por un imán (Kathy p endo). b) En el campo creado por la
corriente en un conductor.

Ya que la fuerza que ejerce un campo magnético depende de


la velocidad también estarán presentes los efectos relativistas,
permitiendo la posibilidad de determinar el movimiento absoluto y
de conducir a la Física a una paradoja: si la velocidad depende del
sistema de referencia y la fuerza depende de la velocidad, la
fuerza también dependerá del sistema de referencia. Pero según la
relatividad galileano-newtoniana la fuerza tendría que ser invariante
¡y no depender del sistema de referencia!
Figura 6.4.—Triángulo que representa las relaciones entre y, E y B. Las flechas no son
vectores, sino las relaciones discutidas en el texto. (Con permiso de Kenneth W. Ford,
Basic Physics. Nueva York: John Wiley Sons, 1968.)

En la figura 6.4 se representan simbólicamente las relaciones


existentes entre la carga y los campos eléctrico y magnético
asociados. La flecha 1 indica que una carga eléctrica q tiene
asociada o crea un campo eléctrico E. La flecha 2 indica que éste
ejerce sobre una fuerza sobre toda carga eléctrica presente en él.
Si sobre una carga eléctrica se ejerce una fuerza es porque en
realidad se encuentra presente un campo eléctrico. La flecha 3
indica que una carga eléctrica en movimiento (una corriente
eléctrica) lleva asociado un campo magnético B. La flecha 4
indica que éste ejercerá una fuerza sobre toda carga eléctrica en
movimiento que se encuentre presente y, puesto que el movimiento
es relativo, un campo magnético en movimiento ejercerá una
fuerza sobre una carga estacionaria.
Incluso un campo magnético variable ejerce una fuerza sobre
una carga estacionaria. Sin embargo, siempre que una carga
eléctrica sienta una fuerza es porque hay presente un campo
eléctrico, como pone de manifiesto la relación 2. Un campo
magnético variable crea, o equivale a, un campo eléctrico, que es
lo que representa la flecha 5 entre B y E; también es cierta la
relación recíproca: un campo eléctrico variable origina un campo
magnético.
Las seis relaciones representadas por flechas en la figura 6.4
están envueltas en las aplicaciones tecnológicas del electromagne-
tismo. Por ejemplo, el rayo de electrones que ilumina el tubo de
imagen de un receptor de televisión está creado por campos
eléctricos. En los relés y electromagnetos se usan los campos
magnéticos creados por corrientes eléctricas. Las fuerzas magnéticas
que actúan sobre las corrientes eléctricas son el mecanismo básico
por el que funcionan los motores eléctricos y generadores y las
fuerzas magnéticas que actúan sobre cargas eléctricas desvían el
rayo de electrones que rastrea el tubo de imagen de la televisión.
La creación de campos eléctricos por campos magnéticos variables
representa la acción fundamental de los transformadores eléctricos.
Todas estas posibilidades materializaron el desarrollo explosivo de
la Ciencia y la Tecnología del siglo xix, pero el hallazgo
supremo desde el punto de vista de la Ciencia pura, debido a
James Clerk Maxwell, el creador del diablillo de Maxwell, fue
caer en la cuenta de que los fenómenos representados por las
flechas 5 y 6 de la figura 6.4 eran esenciales para comprender la
naturaleza de la luz. La flecha 5 indica que un campo magnético
variable crea un campo eléctrico cuya magnitud depende de la
velocidad a la que cambia. Si la rapidez de cambio es uniforme, el
campo eléctrico resultante será estacionario. Por el contrario, si la
velocidad a la que cambia el campo magnético no es uniforme, el
campo eléctrico resultante no será estacionario sino variable. Sin
embargo, la flecha 6 representa el hecho de que el campo
eléctrico variable creará a su vez un campo magnético. Además,
un campo eléctrico variable que cambie con una velocidad no
uniforme creará un campo magnético no constante sino variable.
Surge una continua cadena de creación: un campo magnético que
cambie de forma no constante creará otro eléctrico no constante,
el cual creará un campo magnético variable y así sucesivamente.
Maxwell fue capaz de demostrar que esos campos magnéticos y
eléctricos variables que constantemente se crean unos a otros se
propagan por el espacio a una rapidez definida que calculó en
300.000 km • s-', ¡la velocidad de la luz!, Maxwell llegó a la
conclusión en 1864 de que la luz se podía explicar como la
propagación de campos eléctricos y magnéticos estrechamente
acoplados entre sí y cambiando rápidamente; en realidad un
campo electromagnético. Como se discutirá más detalladamente a
continuación, la luz no es más que una pequeñísima fracción del
fenómeno general de la propagación de campos electromagnéticos.
Maxwell y sus contemporáneos al estudiar las fuerzas eléctricas
y magnéticas se interesaron por el problema persistente y funda-
mental (también aplicado a la fuerza de la gravedad) de explicar
el mecanismo por el que una carga eléctrica (o una masa) se
extiende por el espacio vacío y ejerce una fuerza sobre otra. Como
se indicó en el capítulo 3, Newton dijo «No hago hipótesis». Otra
posible respuesta es «Las cargas (o masas) se ejercen fuerzas a
través de su campo eléctrico (o gravitatorio)». Esta respuesta no
satisfaría mucho a los científicos del siglo xix porque no revelaba
lo que era un campo eléctrico.
Michael Faraday propuso un símil entre las flechas empleadas
para representar los campos eléctricos (Fig. 6.1) y una tira de
goma. Las flechas parten de una carga positiva y terminan en otra
negativa. Están en tensión como una tira de goma estirada y, por
tanto, se ejercen una fuerza de atracción (Fig. 6.1 b). Además de la
tendencia de las tiras de goma a contraerse, mantienen separados
los extremos, lo que refleja que se mantengan separadas las cargas
del mismo signo (Fig. 6.1c) y el modelo de dispersión representado
en la figura 6.1. Estas tiras se denominan líneas de campo o, más
imprecisamente, líneas de fuerza. El campo magnético puede
describirse de igual modo en términos de líneas de campo que
conecten los polos magnéticos y el campo gravitatorio en función
de líneas de campo entre masas.
Se pueden emplear las líneas de campo para encontrar fórmulas
matemáticas que describan las fuerzas entre las cargas eléctricas
pero difícilmente se puede creer que tales líneas tengan realidad
objetiva. Sin embargo, siguiendo el espíritu de la Alegoría de la
Caverna de Platón, pudiera intentarse vindicarlas como represen-
tantes de la «verdadera realidad» más allá de las apariencias, lo
mismo que los seguidores de Ptolomeo concibieron las esferas
celestes que se han discutido en el capítulo 2. Desde luego resulta
muy difícil apreciar cómo podrían moverse los objetos sin habérselas
con sus líneas de campo eléctrico, magnético o gravitatorio.
Un enfoque más sofisticado y elegante de abordar el problema
de la acción a distancia consiste en afirmar (como lo hizo
Aristóteles) que no existe el espacio vacío, sino que todo está lleno
de una sustancia llamada éter, que no tiene masa en absoluto. (El
éter de Aristóteles se encontraba más allá de la región de la esfera
de la Luna, aunque en el siglo xix se creía que el éter estaba por
todas partes.) Si un cuerpo material como una carga eléctrica o un
polo magnético se introdujera en el éter, éste habría de deformarse
o comprimirse de algún modo para acomodar el objeto y dejarle
sitio. Las líneas del campo eléctrico representarían las deforma-
ciones del éter resultantes y la propagación del campo electro-
magnético, la luz, sería una fluctuación de las deformaciones del
éter.
Al principio del siglo xix ya se había elaborado extensamente y
comprobado la teoría matemática de la elasticidad. Maxwell
adaptó la teoría de los sólidos elásticos a su hipotético éter
eléctrico para que representara tanto sus deformaciones como las
de los campos eléctricos y magnéticos. Maxwell describió la luz
como si se tratara de una onda de deformación propagándose por
el éter y, en este sentido, las ondas electromagnéticas son como
las del sonido en el aire, en el agua o en cualquier otro medio. La
teoría ondulatoria se había desarrollado considerando las propie-
dades del medio. Las ondas electromagnéticas tienen propiedades
especiales, porque el medio por el que se propagan, el éter, es
distinto al aire o al agua. (Una de las diferencias es que en el aire,
agua u otros fluidos, las ondas son longitudinales mientras que en
los sólidos pueden ser tanto longitudinales como transversales.)
Uno de los resultados significativos de las investigaciones de
Maxwell consistía en que no era necesrio suponer la existencia de
un éter para los fenómenos eléctricos, otro para los magnéticos y
otro para la luz, sino que sólo hacía falta un éter, el electromagné-
tico, y que los fenómenos eléctricos, magnéticos y electromagnéticos
(luz) simplemente eran diferentes clases de deformaciones, y
combinaciones de éstas, de un mismo éter. (No incluyó los fenó-
menos gravitatorios, por lo que también pudiera haberse concebido
un éter gravitatorio.)
Ya se ha indicado que Maxwell demostró en 1864 que el
campo electromagnético podría desarrollar ondas que viajaran
con la velocidad de la luz. Hacía menos de cincuenta años que
había surgido una acalorada controversia acerca de la naturaleza
de la luz. Antiguamente incluso había llegado a creerse que la luz
se producía en los ojos de la persona que mira los objetos. En
realidad la expresión «échale un vistazo a esto» lleva implícita la
connotación de que los ojos envían un rayo para iluminar el objeto a
ver. También Superman ve de esta forma, pero su visión es
especialmente penetrante, ya que envía rayos X que pueden
atravesar las paredes.
Isaac Newton no creía que los ojos enviaran rayos de luz, sino
que consideraba a ésta como un chorro de corpúsculos a modo de
pequeñas balas y que al rebotar en los objetos y alcanzar los ojos
del observador los iluminaba. Una de las razones por las que creía
en eso era el hecho de que la luz parecía viajar en línea recta,
como ponía de manifiesto la nitidez de las sombras.
Algunos contemporáneos de Newton indicaron que la luz era
una especie de perturbación transmitida por movimiento ondulatorio,
lo mismo que el sonido es una perturbación del aire transmitida
por ondas como las deformaciones de la superficie del agua. Las
pruebas experimentales a favor de la teoría ondulatoria de la luz
llegaron a ser tan aplastantes con el tiempo que se aceptó univer-
salmente.
Una de las características de las ondas es la distancia que hay
entre dos crestas sucesivas, denominada longitud de onda. Las
longitudes de onda de las ondas que se ven en la superficie del
agua oscilan entre unos pocos milímetros hasta decenas de metros
y las de los sonidos audibles en el aire van desde unos pocos
milímetros hasta unos pocos decímetros. Sin embargo, las longitudes
de onda de la luz a la que es sensible el ojo humano son muy
pequeñas, del orden de 1/10.000 cm, lo que ya se sabía a
principios del siglo xix. Debido a la extraordinaria pequeñez de la
longitud de onda los «rayos» de luz parecen viajar en línea recta y
arrojar sombras limpias. En la figura 6.5 se observa el fenómeno
de la formación de «sombras» en las ondas de agua. La nitidez de
la sombra es más aparente cuando la longitud de onda es más
pequeña, como en el caso de la figura 6.5b.
La naturaleza ondulatoria de la luz es la responsable de que
cuando se refleja en las burbujas de jabón o en las películas de
aceite de las calles después de una lluvia se formen colores. Éstos
se producen por el fenómeno denominado interferencia, que se
discutirá en el capítulo 7. La naturaleza ondulatoria de la luz
también se pone de manifiesto en el fenómeno llamado difracción,
responsable de los colores que se ven en las joyas o en la luz
reflejada por los discos al mirarlos desde un cierto ángulo.
Otra propiedad característica de las ondas es su frecuencia, el
número de crestas que pasan por un punto dado en un segundo a
medida que la onda se propaga. La luz visible posee una frecuencia
aproximada de 500 billones de crestas por segundo. Si se multiplica
la frecuencia de una onda por su longitud de onda se obtiene la
rapidez con la que se propaga y que en el caso de la luz es de
300.000 km-
Figura 65 —Fotografía de ondas en una cubeta de ondas. (Reproducido con permiso
de Educational Development Center, Newton, Mass.)

Hasta el trabajo de Maxwell se creía que las ondas luminosas


se transmitían por un éter especial. Una onda tiene que viajar por
algún medio, sin agua no puede haber ondas de agua y sin aire no
puede haber ondas sonoras, corno lo demuestra el hecho de que el
sonido no se propague por el vacío. Se supuso, por consiguiente,
que las ondas luminosas necesitaban un éter especial llamado lu-
minífero. Ya se ha dicho que Maxwell demostró que el éter
luminífero, el eléctrico y el magnético eran lo mismo y que las
ondas luminosas representaban sus perturbaciones.
Una de las consecuencias importantes de la teoría electromag-
nética de Maxwell era entender que las ondas luminosas podían
considerarse como una porción muy pequeña de las ondas elec-
tromagnéticas que podían producirse. Así, podían generarse ondas
de radio, como demostró en 1886 el físico alemán Heinrich
Hertz. Las ondas electromagnéticas se producen cuando vibra (
oscila) una carga eléctrica. En efecto, la carga «ondula» su
campo eléctrico lo mismo que la mano puede ondear una cuerda
larga. Por supuesto el campo eléctrico ondulante es algo más que
un manojo de tiras de goma, usando la analogía de Faraday, pero
da una idea del campo eléctrico variable de forma no constante
necesario para crear la onda electromagnética. Hertz consiguió
producir corrientes eléctricas que oscilaban con frecuencias de
varios cientos de millones de veces por segundo y las ondas
resultantes tenían longitudes de onda de 60 a 90 cm dependiendo
de la frecuencia. El ingeniero italiano Guillermo Marconi inventó
más tarde la telegrafía inalámbrica para enviar mensajes por
medio de ondas de radio. El primer mensaje transatlántico se
transmitió con ondas cuya frecuencia era de 200.000 vibraciones
por segundo y de una longitud de onda de kilómetro y medio.

TABLA 6.1
El espectro electromagnético

Longitud de onda, λ.
Tipo de onda Frecuencia e (hertzios)*
(metros)

Corriente alterna de
uso doméstico 60 5 X 106

Radio AM 106 300


Televisión 109 0,3
Microondas/Radar 1011 0,003

Infrarrojos 1013 3 X 10-5


Luz visible 5 X 1014 6 X 10-7

Rayos X 3 X 1018 10-10


* Hertzio significa ciclos u ondas por segundo. El producto de la frecuencia por la
longitud de onda es 3 x 108 m • s-1, que es la velocidad de propagación de las ondas
electromagnéticas en el vacío.

Toda la gama de ondas electromagnéticas se denomina espectro


electromagnético y su extensión se indica en la tabla 6.1. Todas
las ondas recogidas en ella viajan por el espacio vacío a la velo-
cidad de la luz', unos 300.000 km•s–1. Las diferencias entre unas y
otras se deben totalmente a sus longitudes de onda (o frecuencias).

La velocidad de la luz en los medios materiales como el vidrio o el agua es


menor. El cociente entre la velocidad de la luz en el vacío y en un medio material se
denomina índice de refracción del medio. Es frecuente que en los medios naturales no
sea constante la rapidez con la que se propagan las ondas, sino que depende de la
longitud de onda que tengan, un fenómeno denominado dispersión.
Las ondas de longitud de onda pequeña tienen frecuencias altas, y
viceversa. Al multiplicar la longitud de onda por la frecuencia se
obtiene la rapidez de propagación, constante para las ondas
electromagnéticas. Adviértase que las longitudes de onda dadas en
la tabla 6.1 están en metros, que es como generalmente se dan
para las ondas de radio.
Una onda electromagnética se puede describir como la combina-
ción de campos magnético y eléctrico oscilantes acoplados mutua-
mente. En la figura 6.6 se representa la variación de dichos cam-
pos en una onda electromagnética que se propaga en la dirección
indicada. El vector campo eléctrico E varía en magnitud en la
dirección de propagación y está confinado en el plano vertical,
mientras que el vector campo magnético B varía también en
magnitud en la dirección de propagación y está limitado al plano
horizontal. Cuando E y B se disponen de esa forma se dice que la
onda electromagnética está polarizada en el plano. Hay que hacer
constar que los vectores oscilantes E y B son perpendiculares entre
sí y también a la dirección de propagación. Esta perpendicularidad
se cumple en todas las ondas electromagnéticas. Las ondas per-
pendiculares a la dirección de propagación se llaman transversales.
Por el contrario, la perturbación del aire provocada por las
ondas sonoras es en forma de pulsaciones de su densidad en la
misma dirección de propagación, y por eso el sonido es una onda
longitudinal. Cuando una onda sonora se propaga por un medio
sólido puede hacerlo transversal o longitudinalmente. Para las
ondas electromagnéticas no existen pulsaciones longitudinales.
Las oscilaciones de una onda llevan asociada una energía. La
transmisión de las oscilaciones se traduce en un «transporte» de la
misma. Una onda electromagnética transporta energía electro-
magnética. La rapidez del transporte está relacionada con el
producto vectorial E X B. La fuente inmediata de la energía
transportada por la onda electromagnética es la energía cinética
de la carga eléctrica oscilante que ondula su campo eléctrico. La
generación de energía electromagnética así descrita es un proceso
de conversión de energía cinética en radiante (véase el capítulo 4).
Con el desarrollo de la Teoría Electromagnética, éter incluido,
se planteó qué ocurriría cuando se desplazara por él un cuerpo
como la Tierra. ¿Se movería sin perturbarlo o lo arrastraría con
ella? Si durante el movimiento no se alterara, podría emplearse
Figura 6.6.—Onda electromagnética. Variación de los campos eléctrico E y magnético
B en la dirección de propagación en una onda electromagnética plana.

como sistema de referencia y calcular la «verdadera» fuerza


ejercida por un campo magnético sobre una carga en movimiento.
Además, sería posible resolver para siempre el problema que
había atormentado a los astrónomos y que consistía en saber
cuáles son realmente los cuerpos celestes que se mueven y los que
permanecen en reposo. Para comprender el uso del éter como
sistema de referencia hay que saber algo de su naturaleza física.
Se consideraba que el éter llenaba todo el espacio, incluso el
vacío, ya que la luz podía propagarse por él. También se creía que
no tenía masa, razón por lo que se llamó éter imponderable (que
no puede pesarse). Se suponía que no ofrecía resistencia al movi-
miento de los objetos celestes porque de lo contrario irían perdiendo
gradualmente velocidad y acabarían deteniéndose, o por lo menos
mostrarían variaciones sistemáticas en sus órbitas al paso del
tiempo. Puesto que las ondas luminosas son transversales, habría
de tener las propiedades de un sólido elástico. La teoría matemática
de la elasticidad requería que fuera muy «rígido», ya que las
ondas se transmiten mucho más rápidamente en los cuerpos
rígidos que en los blandos, y dado que las ondas electromagnéticas
eran mucho más veloces que los demás tipos de ondas (casi un
millón de veces más), la supuesta rigidez tendría que ser muy
grande. El éter tendría que estar en reposo con respecto al espacio
absoluto, al menos en las regiones existentes entre los cuerpos
celestes. Se creía también que un gran cuerpo que tuviera mucha
masa tendría que «arrastrarlo» al moverse, lo que acarrearía
ciertas consecuencias para la velocidad de la luz en la vecindad de
dicho cuerpo.
A la vista de todas estas propiedades habría que considerar al
éter claramente como una sustancia maravillosa ¡muy superior a
cualquiera de las creadas por ciencia-ficción! Pero lo más impor-
tante para lo que interesa en este capítulo es, como indicó por
primera vez Maxwell, que ofrecía la posibilidad de definir un
sistema absoluto de referencia en el caso de que pudiera detectarse.

Intentos de detectar el éter

Aunque la existencia del éter podía inferirse por la necesidad


lógica de disponer de un medio por el que pudieran propagarse las
ondas electromagnéticas, era claramente deseable poseer pruebas
experimentales independientes que permitieran verificar sus pro-
piedades. La historia de los intentos de detectar el éter es más bien
larga.
El astrónomo inglés James Bradley intentó medir en 1725 la
distancia de la Tierra a diferentes estrellas empleando una técnica
topográfica convencional. Esperaba que si se miraba a una estrella
dada desde diferentes puntos de la órbita terrestre tendría que
inclinar su telescopio diferentes ángulos. Conociendo el ángulo de
observación y el diámetro de la órbita terrestre podría calcularse
la distancia a la estrella mediante cálculos trigonométricos sencillos (
Fig. 6.7a). Estas mediciones telescópicas también le permitirían
comprobar el fenómeno del paralaje estelar: la separación entre
dos estrellas concretas dependerá de la posición de la Tierra en su
órbita (véase el capítulo 2). Cuando se sigue con el telescopio el
rastro de las estrellas parece como si todas se movieran en
pequeñas órbitas elípticas independientemente de la distancia
existente entre ellas y la Tierra. Bradley advirtió que era necesario
inclinar el telescopio una cantidad adicional en la dirección del
movimiento de la Tierra.
Puede comprenderse el porqué de esta pequeña inclinación
extra con ayuda de las figuras 6.7a y b. Si la Tierra no se moviera.
Figura 6.7.—Paralaje estelar y aberración. a) Variación del ángulo de visión de una
estrella distante según los puntos de la órbita terrestre. b) Movimiento del telescopio a
medida que el rayo luminoso procedente de la estrella pasa de un extremo a otro del
mismo. e) Inclinación del telescopio para compensar el movimiento.

la luz de las estrellas que llega al centro de la abertura de la parte


superior del telescopio viajaría siguiendo la línea media del tubo
hasta el centro del ocular en la parte inferior. Pero puesto que la
Tierra se mueve mientras que la luz alcanza el ocular, éste se
habrá movido en la dirección del movimiento de la Tierra (hacia
la derecha de la figura) y la luz no pasará por el punto medio del
ocular. La línea continua de la figura 6.7 representa la posición de
la luz y el telescopio en el momento en que la luz de la estrella
alcanza la parte superior del telescopio y la de trazos representan
las mismas posiciones cuando la luz llega a la parte inferior. Sin
embargo, si el telescopio se inclinara para que el ocular estuviera
más «atrás» que la abertura superior, el punto medio del ocular
llegaría al rayo luminoso exactamente en el instante en que la luz
pasa por él, como se observa en el dibujo de trazos de la figura
6.7c. (El comportamiento del rayo luminoso contrasta con el del
objeto arrojado desde el mástil del barco en movimiento discutido
anteriormente en este capítulo.) El ángulo de inclinación es pro-
porcional a la razón entre la rapidez a la que se mueve el
telescopio a través del éter (esto es, la Tierra) y la rapidez a la que
se mueve la luz y puede emplearse para calcular la primera.
Unos ciento cincuenta años después se llevó a cabo una
comprobación de esta idea. Si se llenara de agua el tubo telescópico
tendría que modificarse sustancialmente el ángulo de inclinación,
ya que la luz se propaga por el agua con una rapidez que es de
tres cuartos de lo que lo hace por el aire. Habría que esperar, por
consiguiente, que el ángulo de inclinación se viera afectado por
este factor, pero, de hecho, no cambia en absoluto. Este experimento
llevó a la conclusión de que el agua «arrastraba» de alguna forma
al éter lo suficiente para compensar el efecto esperado en el
ángulo de inclinación. Otro experimento que se había llevado a
cabo unos veinte años antes puso de manifiesto que una corriente
de agua arrastraba realmente al éter con ella, aunque no tanto
como lo que se requería para explicar el fracaso del experimento.
Un joven científico americano llamado Albert A. Michelson
comenzó en 1881 una serie de experimentos encaminados a medir
el movimiento de la Tierra por el éter aplicando unas técnicas
experimentales extremadamente sensibles. Lo importante para sus
propósitos era medir el movimiento relativo de la Tierra y el éter;
es decir, se podía imaginar que la Tierra estuviera en reposo y una
corriente de éter era lentamente desplazada, aunque se compren-
diera que era la Tierra la que se movía «en realidad» por el éter
estacionario. Por esta razón se denomina a estos experimentos y
otros similares experimentos del movimiento del éter.
El principio en que se basan se puede comprender con la
analogía del vuelo de un avión. Cuando hay viento de cola, su
velocidad relativa con respecto al suelo es mayor que cuando
vuela con el aire en calma. Al girar y volar contra el viento su
velocidad será entonces menor. La diferencia de velocidades con
respecto al suelo, a favor y en contra del viento, es igual al doble
de la velocidad de éste. El papel del avión en los experimentos de
Michelson lo representa un rayo de luz, y el del viento, la corriente
de éter. Michelson también encontró conveniente comparar los
efectos anteriores con los que se producirían de haber viento de
costado.
Los principios de la técnica experimental de Michelson se
Figura 6.8.—Experimento de la corriente de éter de Michelson-Morley. a) Rayo,
luminosos desplazándose paralela y perpendicularmente a la corriente de éter. b, d)
Adición vectorial de las velocidades «corriente abajo», «corriente arriba»
«perpendicularmente a la corriente», respectivamente. e) Esquema del dispositivo
experimental. HSM, espejo parcialmente plateado; M1 y M,, espejos completamente
plateados; S, fuente de luz; O, observador, a, b, e, d, e, f, g, rayos luminosos.

representan en la figura 6.8. La idea consiste en comparar do.


trenes de ondas luminosas, uno transmitido paralelamente al
desplazamiento del éter y otro en la dirección perpendicular. 1 I
primer tren de ondas se envía corriente abajo a un espejo que lo
refleja corriente arriba. El segundo se envía de costado a la
corriente a un espejo situado a la misma distancia que el anterior
y se refleja en otro rayo también perpendicular a la corriente
Cuando se comparan los tiempos reales que tardan los dos trenes
de ondas en alcanzar sus respectivos espejos y reflejarse hasta su
punto de partida teniendo en cuenta el efecto de la corriente de
éter sobre la velocidad de la luz se observa que el tren de ondas
corriente abajo-corriente arriba tarda más en hacer su viaje que el
enviado perpendicularmente a la corriente (suponiendo que los
espejos equidistan del punto de partida).
Michelson llevó a cabo su experimento por primera vez en
1881 mientras servía como agregado naval de los Estados Unidos
en Alemania. En 1887 lo volvió a repetir en Cleveland (siendo
catedrático del Case Institute of Technology) en colaboración con
Edward W. Morley, catedrático de la Western Reserve University,
empleando un dispositivo unas veinte veces más sensible que el
usado en 1881. Morley volvió a repetir el experimento durante
algunos años en distintas posiciones de la órbita terrestre. Actual-
mente se denomina experimento de Michelson-Morley. La sensi-
bilidad del aparato usado en el experimento de 1887 era tan
grande que detectó un efecto cuarenta veces más pequeño que el
que se esperaba. Sin embargo, ¡no reveló ninguna diferencia en los
tiempos que tardaban los dos trenes de onda en realizar sus
respectivos viajes! El experimento ha sido repetido desde entonces
por diferentes investigadores empleando dispositivos veinticinco
veces más sensibles y el resultado ha seguido siendo el mismo.
La conclusión obvia que podía sacarse de este resultado,
llamado resultado nulo ya que no se encontró diferencia en los dos
trenes de ondas, era que la Tierra arrastraba algo de éter con ella,
lo mismo que un avión arrastra aire con él en el curso del vuelo.
Como se mencionó anteriormente, las mediciones de la aberración
estelar con el tubo telescópico lleno de agua parecían sugerir que
el éter era arrastrado cerca de la superficie terrestre.
Puesto que el resultado nulo del experimento de Michelson-
Morley implicaba que el éter era arrastrado por el movimiento de
la Tierra estaba claro que se necesitaba ensayar de forma directa
la hipótesis del arrastre del éter. El científico británico Oliver
Lodge publicó en 1893 el resultado de un experimento diseñado
para simular el arrastre terrestre del éter. Si se hace girar un disco
de gran masa, arrastrará al éter de sus inmediaciones y lo hará
girar también. Un disco estacionario de menor masa situado
exactamente debajo del anterior tendría girando sobre su superficie
una corriente de éter creada artificialmente. Lodge dispuso un
Conjunto de espejos en el disco inferior para que produjeran dos
trenes de ondas luminosas, uno que viajara en el sentido contrario
las agujas del reloj y otro en el mismo sentido. Uno de los
Yenes de onda viajaría en la dirección de la corriente artificial de
éter y su velocidad en relación a los espejos aumentaría. El tren de
ondas viajando en la dirección opuesta viajaría a menor velocidad.
El tiempo empleado en el viaje por los dos trenes de ondas se
puede comparar haciendo uso del fenómeno de interferencia (
véase capítulo 7) y medirse la corriente de éter artificial inducida
por el arrastre. Contrariamente a lo esperado, a juzgar por el
resultado del experimento de Michelson-Morley, ¡se obtuvo otra
vez un resultado nulo! Entre las ondas luminosas viajando en
direcciones opuestas no se detectó diferencia alguna.
El experimento de Michelson-Morley ponía de manifiesto que
la corriente de éter (el movimiento de la Tierra por el éter) no era
detectable. El experimento de Lodge demostraba que tampoco se
podía detectar el arrastre del éter producido por el movimiento de
un cuerpo de gran masa. Aparentemente se contradicen y en
realidad ninguno de los dos pudo demostrar con éxito la presencia
de éter. Además, ningún otro experimento ha podido demostrar la
corriente o el arrastre de éter, ni siquiera su presencia. Así, si se
suspendieran con un hilo fino un par de láminas dispuestas
paralelamente en un viento de éter y cada una se cargara con
distinto tipo de electricidad, tendría que aparecer un par de torsión
que hiciera girar el hilo. El experimento pone de manifiesto que
no aparece dicho par.

Teoría especial de la Relatividad

Además de quedar sin resolver los problemas experimentales


relacionados con la detección del movimiento de la Tierra por el
éter o incluso con la detección del mismo, también existían ciertos
problemas teóricos fundamentales. La relatividad galileano-
newtoniana requiere que en todos los sistemas de referencia
inerciales la fuerza sea igual (invariante). Sin embargo, como se
ha apuntado anteriormente, las fuerzas que actúan sobre las
cargas eléctricas en movimiento parecen ser distintas en diferentes
sistemas de referencia inerciales. Así, si dos cargas positivas
viajaran a la misma velocidad y en la misma dirección, según la
Teoría Electromagnética, el campo magnético resultante actuaría
sobre las cargas en movimiento, causando una fuerza de atracción
entre ellas, tanto mayor cuanto mayor fuera la velocidad. Ésta es
una cantidad relativa que depende del sistema de referencia de
manera que la fuerza de atracción también lo será y dependerá
asimismo del sistema de referencia, lo que está en contradicción
con la relatividad galileo-newtoniana. Los diferentes intentos de
resolver este y otros problemas similares así como los planteados
por los fracasos de los experimentos del éter pueden considerarse
como los precursores de la solución que dio Einstein.
El físico irlandés G. E Fitzgerald y el holandés H. A. Lorentz
sugirieron en 1892 de forma independiente una solución al dilema
planteado por el experimento de Michelson-Morley. Afirmaron
que la parte del dispositivo que llevaba el tren de ondas corriente
arriba-corriente abajo (el recorrido horizontal de la figura 6.8) se
acortaba justo lo suficiente para compensar el tiempo extra reque-
rido por el recorrido de la luz en él. De esta forma la luz no
tardaría más tiempo en viajar corriente abajo y regreso que en
viajar perpendicularmente a ella y regreso, explicándose, por
consiguiente, el resultado nulo. Dicha explicación puede racionali-
zarse diciendo que el movimiento por el éter genera una presión
de resistencia que comprime al aparato como si fuera un muelle (
acortándolo). El grado de contracción o acortamiento es muy
pequeño por necesidad, del orden de media millonésima del uno
por ciento, y por eso no se advierte normalmente. Sin embargo, la
técnica de Michelson-Morley era tan sensible que permitía detectar
efectos así de pequeños.
Lorentz justificó en 1899 su postulado de contracción indicando
que era una consecuencia de ciertas ideas que había considerado
en relación con el problema de la naturaleza relativa de la fuerza
entre las cargas eléctricas en movimiento. Con objeto de hacer
invariante la fuerza electromagnética había buscado nuevas ecua-
ciones de transformación entre distintos sistemas de referencia
inerciales. Una de las consecuencias de estas ecuaciones, conocidas
por transformación de Lorentz, consistía en que los objetos en
movimiento se contraían una cierta cantidad según su velocidad.
También encontró que los intervalos de tiempo medidos en objetos
en movimiento tendrían que ser más largos de los esperados y
llamó tiempo local a esos tiempos expandidos o dilatados.
El teórico francés Henri Poincaré sugirió en 1904 que sería
vano intentar medir el movimiento de la Tierra —o cualquier otro
cuerpo— con relación al éter. Admitiendo la idea de la imposibili-
dad de medir la velocidad en sentido absoluto, fue más allá de
Lorentz y demostró que la masa de un cuerpo (esto es, la inercia,
el aspecto de la masa que juega un papel en la segunda ley del
movimiento de Newton) aumentaba al hacerlo su velocidad. De-
mostró también que la máxima velocidad que podía alcanzar un
cuerpo era la de la luz.
Todas estas ideas forman parte de la Teoría especial de la
Relatividad de Einstein. La contribución de su trabajo consistió en
demostrar simple y directamente (al menos desde el punto de vista
de un físico) que eran consecuencias naturales de un análisis
nuevo, profundo e intuitivo de algunos de los supuestos básicos
acerca de la naturaleza de las mediciones físicas, mientras que
Fitzgerald, Lorentz y Poincaré trataron cuestiones específicas. El
pensamiento de Einstein estuvo muy influido por el físico-filósofo
austríaco Ernst Mach que volvió a examinar de forma crítica e
incisiva los Principia de Newton. Mach fue uno de los fundadores
de la escuela filosófica del positivismo lógico y criticó particular-
mente las definiciones dadas por Newton de espacio y tiempo
absolutos y de masa. (Desde luego Mach no había sido el primero
en criticar el trabajo de Newton; el filósofo alemán Leibnitz,
contemporáneo y rival de él, también había cuestionado muchas
de sus definiciones.)
Las circunstancias que rodeaban a la Física a principios del
siglo xx eran algo parecidas a las que se daban en la época de
Isaac Newton. Distintos físicos de gran talento estaban a punto de
hacer la ruptura conceptual necesaria para resolver un problema,
pero sólo uno —un Einstein o un Newton— fue capaz de conse-
guirlo. La contracción de Lorentz-Fitzgerald explicaba de forma
ostensible el fracaso del experimento de Michelson-Morley;
de hecho existe una versión modificada, llamada experimento de
Kennedy-Thorndyke, diseñado para salvar la contracción de Lorentz-
Fitzgerald y también tuvo un resultado nulo. Como se verá más
adelante, el enfoque de Einstein proporciona una interpretación
completamente distinta del fracaso de todos los experimentos del
éter.
Probablemente no haya existido un científico tan famoso como
Einstein (1879-1955) a excepción, tal vez, de Isaac Newton.
Treinta y cinco años después de su muerte sigue hablándose de su
cabello blanco, de su bigote colgante, su cachimba, su andar en-
Figura 6.9.—Einstein en 1905. (Con permoso de Lotte Jacobi, Hillsboro, N. H.)

corvado, su informalidad apacible y de sus teorías científicas. (La


figura 6.9 es una fotografía de Einstein joven, en la época en que
empezó a dejar su firma en el mundo científico.) Como sucede
siempre con la gente muy famosa, existen muchos mitos y errores
sobre él y su trabajo. Aunque empezó a hablar más tarde de lo
normal, sus facultades notables ya se pusieron de manifiesto en su
niñez. Las tareas escolares que no le interesaban no las realizaba
tan bien como las que le divertían y cuando vio que tenía que
poner en orden sus conocimientos para superar el ingreso en la
Universidad lo hizo con prontitud. No le agradaba especialmente
el reglamento académico, pero fue capaz de una autodisciplina
considerable. Sin ser un matemático notable, poseía la competencia
matemática que necesitaba.
Además de la Teoría de la Relatividad hizo contribuciones
importantes en muchos campos de la Física, publicando en su vida
más de trescientos cincuenta trabajos científicos. Sus investigaciones
no se refieren exclusivamente a la Física Teórica e incluso presentó
reclamaciones de patentes. Al contrario que Julius Robert Mayer,
que tuvo gran dificultad en comunicar sus ideas importantes
acerca de la energía debido a que carecía de la base convencional,
Einstein comunicó plenamente a sus contemporáneos las ideas
más controvertidas. Participó mucho y con buen humor en los
debates científicos de su tiempo.
No vaciló en hablar de asuntos políticos a los que consideraba
importantes. Deploró que se usara la teoría física de la relatividad
para justificar la moralidad relativa, aunque sólo fuera porque
daba muestras de la falsa concepción del verdadero significado de
la teoría.
Algunos autores han cuestionado lo singular de las contribu-
ciones de Einstein en lo que se refiere a la Teoría de la Relatividad.
Considerando el fermento científico de la época, él mismo reconoció
que Poincaré muy bien pudiera haber desarrollado la teoría
especial si no lo hubiera hecho él. Sin embargo, afirmó que
empezó a pensar en los problemas de la relatividad cuando tenía
dieciséis años. Además, su abordaje del tema fue típicamente
directo y elegante, partiendo de las ideas esenciales. La teoría
general que se discutirá más adelante en este capítulo es reconocida
universalmente como una contribución exclusivamente suya.
En 1905, mientras trabajaba como examinador en la oficina
de patentes suiza, publicó tres artículos muy importantes, uno de
los cuales se titulaba «Sobre la electrodinámica de los cuerpos en
movimiento» (los otros dos se mencionan en los capítulos 4 y 7).
En este trabajo no se interesaba mucho por las cantidades relativas,
cuya magnitud depende del sistema de referencia en el que se
miden, sino de las invariantes, de las que son las mismas en todos
los sistemas de referencia inerciales. Definió dos principios de
partida aplicables a todos los sistemas de referencia:
I. Las leyes físicas son invariantes en todos los sistemas
de referencia inerciales.

Esto quiere decir que las fórmulas que expresan las distintas
leyes de la Física deben calcularse de la misma manera en todos
los sistemas de referencia inerciales.
II. Es una ley física que la velocidad de la luz en el vacío es la
misma en todos los sistemas de referencia inerciales con
independencia de la velocidad de la fuente o del detector de la
luz.

Einstein indicó que esto significaba que el éter no se podía


detectar por ningún medio experimental y que, por consiguiente,
era un concepto inútil que había que descartar.
El primer enunciado constata simplemente que existe un prin-
cipio de relatividad, como ya habían indicado Galileo, Newton y
otros, y pone especialmente de manifiesto que los principios
físicos son los mismos en todas partes. El segundo enunciado es
un hallazgo físico importante, completamente nuevo.
La constancia de la velocidad de la luz es un resultado
significativo de todos los experimentos encaminados a detectar el
éter. Es igualmente significativo que tales experimentos confirmen
la idea de Galileo de la imposibilidad de determinar el movimiento
absoluto. Esto quiere decir también que las mediciones hechas en
un sistema de referencia dado son igualmente válidas en cualquier
otro. Las preguntas como ¿con qué rapidez se está moviendo
realmente la Tierra? no tienen sentido.
Einstein se dio cuenta, influido por Mach, de que era necesario
reconsiderar el significado del espacio y del tiempo así como la
forma de medirlos. Reconoció que el espacio y el tiempo no eran
conceptos independientes sino que estaban relacionados por nece-
sidad. Además, dichos conceptos se definen a través de mediciones.
Por ejemplo, el tiempo se mide observando el movimiento de las
agujas del reloj o el paso de los cuerpos celestes por el cielo. Se
sabe el tiempo que ha transcurrido porque se aprecia que dichos
cuerpos han modificado su posición en el espacio. La velocidad de
la luz se ve envuelta en estas observaciones en virtud de que viaja
desde los objetos en movimiento hasta los ojos del observador. (
No importa que se empleen señales eléctricas para informar del
movimiento de los cuerpos: también ellas viajan a la velocidad de
la luz como afirma la Teoría Electromagnética.)
Einstein demostró que el tiempo y el espacio, por decirlo de
algún modo, eran intercambiables, como queda bien patente en el
conjunto de enunciados siguiente que exhiben simetría espacial y
temporal:
I. Un observador estacionario situado en un sistema en
movimiento verá que los sucesos que ocurran en un mismo
lugar a distintos tiempos en el sistema en movimiento
tendrán lugar en diferentes lugares en el sistema estacionario.

H. Un observador estacionario situado en un sistema en movi-


miento verá que los sucesos que ocurran en lugares diferentes
al mismo tiempo en el sistema en movimiento tendrán lugar
en diferentes tiempos en el sistema estacionario.

III. Un observador estacionario situado en un sistema en movi-


miento verá que los sucesos que ocurran en un mismo lugar
y al mismo tiempo en el sistema en movimiento tendrán
lugar en el mismo lugar y al mismo tiempo en el sistema
estacionario.
El enunciado II se obtiene del I intercambiando las palabras
tiempo y lugar, modificándose con ello el sentido de la frase. Por el
contrario, si se intercambian las mismas palabras en el enunciado
III no se modificará su sentido.
A modo de ilustración de lo anterior imagínese que el sistema
en movimiento es un avión que viaja de Nueva York a Los
Ángeles y que el sistema estacionario es la torre de control de un
aeropuerto terrestre. Un viajero de la línea ocupa el asiento 10C.
A las ocho de la mañana le sirven un zumo de naranja mientras
vuela por encima de Albany, Nueva York, y a las nueve toma una
taza de café después del desayuno mientras sobrevuela Chicago.
En el sistema en movimiento ambos sucesos acaecen en el mismo
lugar, el asiento 10C, pero en distintos tiempos. En el sistema
estacionario, la Tierra, los dos sucesos ocurren en sitios distintos,
sobre Albany y Chicago, como comprobaría un observador de la
torre de control si pudiera mirar al interior del avión.
El ejemplo anterior es bastante posible, pero otro basado en el
segundo enunciado parece inverosímil: un poco después, cuando el
avión sobrevuela Denver, Colorado, el pasajero que está leyendo
un libro de Física, levanta la vista y ve en la parte delantera del
avión a un policía federal y en la parte trasera a un atracador que
se encañonan con una pistola. El pasajero observa que disparan
sus armas simultáneamente, pero el controlador aéreo ve que no
lo hacen al mismo tiempo. Por inverosímil que pudiera parecer, se
trata de un ejemplo correcto'.
En un tercer ejemplo, después de haberse perdido ambos
disparos, el pasajero advierte que la azafata de vuelo sentada
junto a él respira con dificultad y acaba derramando su tazón de
café en sus rodillas, en el asiento 10C. El director de vuelo
observando desde la torre de control ve que la azafata suspira y
derrama el café realmente sobre Denver.
Todo ello ilustra que dado que el espacio y el tiempo están
entretejidos, son cantidades relativas diferentes en distintos sistemas
de referencia inerciales. Los sucesos simultáneos en un sistema de
referencia no tienen por qué serlo en otro. Únicamente si los
sucesos simultáneos ocurren en el mismo lugar, como en el caso
del tercer ejemplo, son verdaderamente simultáneos en todos los
sistemas de referencia inerciales.
Einstein demostró que los intervalos de tiempo entre dos
sucesos se medirían de diferente forma en sistemas de referencia
inerciales distintos de modo que dos relojes idénticos en todos sus
detalles marcharían a distinta velocidad en dos sistemas de refe-
rencia, es decir, el tiempo comprendido entre un tic y un tac sería
distinto. Ello puede ilustrarse con un ejemplo bastante simple
denominado reloj especular, representado en la figura 6.10a, que
consta de un bulbo luminoso en el interior de una caja con un
agujero que puede taparse y un espejo situado a 150.000 km
frente al agujero. Si se destapa momentáneamente el agujero y se
vuelve a tapar, llegará al espejo un breve destello luminoso medio
segundo más tarde, reflejándose hacia el agujero tapado y alcan-
zándolo otro medio segundo más tarde. Han tenido lugar dos
sucesos: 1) la emisión de un destello luminoso desde el agujero y
2) el regreso de la luz al agujero un segundo después. El reloj
especular es un cronómetro de un segundo.
Sean dos de estos relojes situados en sendos sistemas de
referencia inerciales A y B que se mueven a velocidad constante
3 El intervalo de tiempo entre los dos disparos es ciertamente muy pequeño,
mucho menor que el tiempo que tarda en reaccionar una persona volando en un avión a
una velocidad normal. Si el avión se desplazara a una velocidad muy alta, como la
mitad de la velocidad de la luz, el intervalo de tiempo entre los disparos sería bastante
perceptible desde la torre de control.
Figura 6.10.—Rayos luminosos de un reloj especular. S, fuente luminosa; M espejo. u)
E] reloj está en reposo, si se observa desde el sistema de referencia en el que se
encuentra. b) Reloj del sistema de referencia A visto desde el sistema de referencia B.
c) Reloj del sistema de referencia B visto desde el sistema de referencia A.

uno en relación a otro. Observados desde sus respectivos sistemas


de referencia cada uno de ellos funciona perfectamente (la velocidad
de la luz es la misma en todos los sistemas de referencia). Sin
embargo, si se observan desde el otro sistema de referencia cada
uno de los relojes se retrasa, como se muestra en la figura 6.10b.
El reloj del sistema de referencia A observado desde B se mueve a
la velocidad v. Durante el medio segundo que tarda la luz en
viajar desde el agujero de la caja hasta el espejo, éste se ha
trasladado desde su posición original de la izquierda de la figura
hasta la posición del centro indicada por la línea de trazos. Tal
como se ve desde B, el rayo de luz viaja hacia arriba a lo largo de
una trayectoria diagonal y después hacia abajo por otra. (Adviértase
la semejanza entre esta situación y la del objeto arrojado desde el
mástil del barco en movimiento discutido anteriormente.) Para un
observador del sistema de referencia B, el destello luminoso del
reloj del sistema A ha viajado una distancia mayor que el destello
luminoso de su propio reloj estacionario. Puesto que la velocidad
de la luz es constante para cualquier sistema de referencia (segundo
principio especial de Einstein), el intervalo de tiempo entre los dos,
sucesos —la emisión del destello y su regreso— no es de u n
segundo para el reloj en movimiento, sino algo más. ¡El reloj en
movimiento se retrasa!
El elemento esencial de este análisis es el supuesto de que la
velocidad de la luz es constante en ambos sistemas de referencia.
Éste es el nuevo hecho importante indicado por la Teoría especial
de la Relatividad de Einstein y eventualmente conduce a algunas
predicciones concretas que pueden verificarse experimentalmente.
El intervalo de tiempo medido por el reloj en movimiento se
calcula dividiendo un segundo por -\/1—(v/c)2 , siendo y la velo-
cidad relativa de los sistemas de referencia y c la velocidad de la
luz. (Esta expresión se puede obtener a partir de un sencillo
cálculo geométrico.) Si la razón v/c es 3/5, por ejemplo, el
intervalo de tiempo en el reloj en movimiento observado desde B
es 1,25 segundos. El reloj en movimiento se atrasa 1 / 4 de segundo
cada segundo.
Un observador del sistema de referencia A vería la situación
de forma bastante distinta. Con relación a A, el que se mueve es el
reloj de B (Fig. 6.10c), siendo éste el que se retrasa. No existe
contradicción alguna en ello: el observador del sistema de referencia
A «ve» los intervalos de tiempo entre los dos sucesos de distinta
manera que el observador de B. Puesto que todo movimiento es
relativo, cada uno de los observadores podrá decir que su sistema
de referencia está en reposo y es el otro sistema el que se mueve
con respecto a él. Ambos observadores podrán afirmar válidamente
que es el reloj del otro sistema de referencia el que se atrasa.
El fenómeno que manifiesta el retraso del reloj se denomina
dilatación del tiempo. Otro de los fenómenos observados en los
sistemas de referencia inerciales es la contracción de la longitud,
similar a la contracción de Lorentz-Fitzgerald. Sean dos reglas
idénticas situadas en sendos sistemas de referencia A y B. Los
observadores de cada uno de ellos no apreciarán que el movimiento
afecte a la longitud de sus respectivas reglas. Sin embargo, si
ambas se colocan paralelamente entre sí y en la dirección del
movimiento relativo de los sistemas, cuando el observador de A
mida la regla de B observará que ésta es más corta que la suya. Si
hace lo mismo el observador de B, verá que es más corta la regla
de A. ¿Cuál es realmente la regla más corta? ¡Las dos! (También
se podría decir que ninguna. En realidad la cuestión no tiene
sentido, como se verá más adelante.)
Ambos observadores encontrarán que es la otra regla (la que
está en movimiento relativo respecto al sistema de referencia) la
que experimenta una contracción longitudinal mientras que la que
esté en reposo con respecto al sistema de referencia mantiene su
propia longitud. Si las dos reglas se situaran perpendicularmente a
la dirección del movimiento de los sistemas de referencia, no
experimentarían un cambio en su longitud sino en su grosor,
viéndose más estrechas desde el otro sistema de referencia. Todo
objeto en movimiento en un sistema de referencia dado experi-
mentará una contracción en la dirección paralela a la del movi-
miento.
La relación entre la dilatación del tiempo y la contracción de
la longitud se muestra de forma más clara imaginando al tiempo
como una «cuarta dimensión». En lugar de considerar al espacio y
al tiempo como entidades diferentes, hay que considerarlos como
aspectos distintos de una entidad única o unificada llamada espacio-
tiempo. En lugar de discutir sobre un lugar particular del espacio
o un instante dado en el tiempo, es más útil considerar los sucesos en
el espacio-tiempo. Éstos se especifican indicando tanto el dónde
como el cuándo ocurrieron o van a hacerlo. En el espacio lo que se
mide es la distancia entre dos lugares y en el tiempo lo que se
mide es la duración entre dos sucesos. Sin embargo, lo que se
mide en el espacio-tiempo es el intervalo espacio-temporal
entre dos sucesos.
Una manera de comprender esta idea es considerar las relaciones
análogas que existen entre una regla y sus sombras (Fig. 6.11). Si
se mantiene la regla formando cierto ángulo con el plano horizontal de
una mesa arrimada a la pared, al iluminarla convenientemente arrojará
sombras sobre las dos superficies. Si se ilumina la regla desde
arriba, se producirá una sombra horizontal sobre la mesa, y si se
ilumina lateralmente, se producirá una sombra vertical sobre la
pared. La longitud de las dos sombras dependerá del ángulo que
forme la regla. Si está casi vertical, la sombra de la mesa será
corta y la de la pared larga y si está casi horizontal ocurrirá lo
contrario. La longitud de la regla no se altera (invariante), sólo se
modifican las sombras dependiendo del ángulo.
Si no pudiera medirse directamente la longitud de la regla.
sería posible medir su verdadera longitud a partir de las longitudes
de las dos sombras. Si la longitud de la sombra sobre la mesa es X y
la de la pared es Y, según el teorema de Pitágoras la longitud
verdadera será \/X2 + r. No importa el ángulo que forme la
Figura 6.11.—Sombras horizontal, X, y vertical, Y, de una regla. Su longitud puede
calcularse por la expresión \./ X2 + Y2 independientemente del ángulo formado por
la regla.

regla, la longitud de ésta siempre será la misma porque es


invariante.
Cuando se realizan en el espacio-tiempo mediciones de la
distancia entre dos sucesos y el tiempo transcurrido entre ellos, las
cantidades a medir son la «sombra espacial» y la «sombra
temporal» del intervalo espacio-temporal existente entre ellos.
Einstein demostró que si t es el tiempo transcurrido, / la distancia y
c la velocidad de la luz, el intervalo espacio-temporal entre dos
sucesos es Vc2t2—/2. Diferentes observadores situados en sus res-
pectivos sistemas de referencia medirán diferentes valores de t y / (
lo que equivale a variar el ángulo de la regla), pero al calcular el
intervalo espacio-temporal usando sus propias mediciones, obten-
drán el mismo resultado numérico. Este intervalo es invariante y
no cambia de un sistema de referencia inercial a otro.
Aunque el intervalo espacio-temporal no pueda medirse direc-
tamente, podrá calcularse a partir de las mediciones relativas de la
«sombra espacial» y la «sombra temporal». No tiene sentido
preguntarse cuál es el intervalo de tiempo o la distancia correctos
entre los dos sucesos como tampoco lo tiene preguntarse por la
«longitud real» de la sombra arrojada por un objeto.
Los nuevos conceptos de espacio y tiempo presentados por
Einstein tienen un cierto número de consecuencias. A partir de
ellos demostró que habría que usar las nuevas ecuaciones de
transformación ideadas por Lorentz. Éstas conducían a nuevas
fórmulas para calcular las velocidades relativas de los objetos en
distintos sistemas de referencia. Anteriormente se ha puesto el
ejemplo de un balón arrojado hacia adelante a 60 km• h–1 en
relación a un barco que navega por el mar a 30 km• h-1 . La
velocidad del balón respecto al océano es de 90 km• h 1. Expresado
algebraicamente, si la velocidad del balón en relación al barco es u
y la de éste con respecto al mar es y , la velocidad del balón
respecto al mar es u + v según la transformación galileana, que es
como se denomina a las ecuaciones de transformación empleadas
por Galileo, Newton y sucesores. Según la transformación de
Lorentz, la velocidad del balón con respecto al mar es (u + v)/ (
1 + uv/c 2 ) siendo c la velocidad de la luz. Si se lleva a cabo el
cálculo empleando esta nueva fórmula, llamada fórmula de adición
de velocidades de Lorentz, la velocidad del balón en relación al
mar será inferior a 90 km•h-1 aunque sólo 0,4 billonésimas del
uno por ciento. En este caso la diferencia entre los dos cálculos es
inmensamente pequeña.
No obstante, si la velocidad del balón en relación al barco
fuera 0,6 veces la de la luz y la del barco en relación al mar 0,3
veces la de la luz también, habría una diferencia sustancial entre
las velocidades obtenidas con las dos fórmulas. Según la transfor-
TABLA 6.2
Comparación de los resultados obtenidos al sumar dos velocidades
según la transformación galileana y la de Lorentz

u y u+v u+v
1 + uv/c2,
km• h- 60 30 90 90
km• h-1 300 30
(0,001c) (0,0001c) 330 299,999999
0,6c 0,3c 0,9c 0.763c
0,5c 0,5c c 0,800c
0,75c 0,75c 1,5c 0,960c
0,9e 0,6c 1,5c 0,974c
e 0,1c 1,1c 1,000c
e c 2c e
mación galileana, la velocidad del balón con respecto al mar sería
0,6 + 0,3 0,9 veces la de la luz y empleando la transformación
de Lorentz resultaría 0,76. Si las velocidades anteriores fueran 0,9
y 0,6 veces la de la luz, la fórmula galileana daría 1,2 c, mientras
que la de Lorentz daría una velocidad de 0,97 c. En realidad,
como se puede observar en la tabla 6.2, es imposible que la suma
de dos velocidades sea igual o mayor que la de la luz. Si una de
las velocidades fuera exactamente igual a la de la luz, al sumarle
la otra según la fórmula de adición de velocidades de Lorentz se
obtendría la velocidad de la luz, lo que significa que ésta es
constante para cualquier observador, como requieren los principios
de relatividad de Einstein.
Resulta que la velocidad de la luz es un límite natural de la ve-
locidad, ya que es imposible, según la fórmula de adición de
velocidades de Lorentz, que la suma de dos velocidades sea mayor
que la de la luz. Esto quiere decir que las leyes de Newton del
movimiento, y sobre todo la segunda, son incorrectas tal como se
explican generalmente. Como ya se discutió en el capítulo 3, al
aplicar una fuerza constante a un cuerpo, la aceleración de éste
será constante y su velocidad aumentará continuamente; es decir,
una gráfica de su velocidad en función del tiempo dará una línea
recta. Sin embargo, al imponer a la velocidad un límite, ésta no
podrá aumentar de forma indefinida. La velocidad se hará tan
parecida a la de la luz como se quiera pero no podrá sobrepasarla
como se indica en la figura 6.12. A medida que la velocidad se va
acercando a la de la luz aumenta a un ritmo más lento; esto es, su
aceleración se hace más pequeña y el objeto se comporta como si
aumentara su inercia, ya que la misma fuerza le confiere menor
aceleración. Dado que la masa es una medida de la inercia, se
podrá decir que la masa de un cuerpo aumenta con la velocidad,
aumento que será muy notable cuando la velocidad se aproxime a
la de la luz.
La velocidad es una cantidad relativa y si un objeto se
observara desde un sistema de referencia inercial que llevara la
misma velocidad que él, se observaría que su velocidad es cero y
que su masa no varía. Por tanto, la masa también es una cantidad
relativa.
Las leyes de Newton del movimiento en realidad no son
invalidadas por la Teoría de la Relatividad de Einstein; habrá que
Figura 6.12.—Representación gráfica de la velocidad en función del tiempo para una
fuerza constante. La velocidad no puede aumentar indefinidamente en mecánica
relativista, sino que está limitada por la velocidad de la luz.

modificar más bien las definiciones de algunas de las cantidades


que se estudian en Mecánica. Es necesario replantear la segunda
ley del movimiento haciendo que la fuerza sea proporcional a la
velocidad con la que cambia el momento y reconocer específica-
mente que, al calcular el momento como producto de masa por
velocidad, aquélla no es independiente de ésta. De igual modo
será necesario reconsiderar y modificar la definición de energía
cinética para incluir el hecho de que el incremento de ésta no se
debe únicamente al aumento de la velocidad, sino también de la
masa. El trabajo realizado para conferir energía cinética a un
cuerpo no sólo aumenta la velocidad del mismo, sino también su
masa. (La nueva fórmula no es exactamente 1 /2 mv 2 con m
también aumentado, sino un poco más complicada.) Dicho de otra
manera, la masa es una forma de energía lo mismo que lo es el
calor. Poincaré y otros habían demostrado que podía considerarse
que la energía electromagnética tenía masa y Einstein afirmó
audazmente con su fórmula E = m • c 2 que toda la masa era
equivalente a la energía. Indicó que el aumento de energía no sólo
venía representado por el aumento relativista de la masa al
acercarse la velocidad a la de la luz sino que la masa de un cuerpo
con velocidad cero, llamada masa propia o en reposo, es una
forma de energía.
Como se ha visto en los capítulos 4 y 5, la energía puede
convertirse en principio de una forma a otra. Así, la masa energía
se puede convertir en energía luminosa, en energía de rayos
gamma o viceversa. En las reacciones nucleares y en la creación y
aniquilación de partículas elementales de materia discutidas en el
capítulo 8 están implicadas estas conversiones energéticas.
Al considerar las consecuencias de la Teoría de la Relatividad
en otras teorías de la Física hay que hacer notar una cuestión
importante. Los efectos relativistas generalmente dependen de que
se puedan observar las velocidades extremadamente elevadas.
Una velocidad igual al 10 por 100 de la de la luz resultará tener
típicamente un efecto del 0,5 por 100 y el que manifiesta una
velocidad del 1 por 100 de la luz es cien veces menor, lo que en la
mayoría de los casos no es mensurable. Con todo, una velocidad
así es enormemente alta, 3.000 km. s ', y si se compara con la de
los cohetes supersónicos, que es de unos 3.000 km• h-1 , ésta es 3.
600 veces menor. Por tanto, en la mayoría de las ocasiones no se
aprecian los efectos relativistas. Por el contrario, la Relatividad juega
un enorme papel en Astrofísica y en Física Atómica y Nuclear.
Sería interesante imaginarse cómo se apreciarían las cosas si la
velocidad de la luz fuera mucho más pequeña de lo que es en
realidad, por ejemplo, de unos 30 km . h -'. Las consecuencias
serían divertidas. Así, apenas existirían las multas por exceso de
velocidad, ya que sería imposible viajar a más de 30 km• h–1. Éste
es el tema de una serie de historietas escritas principalmente en
los años treinta y cuarenta por G. W. Gamow4. En ellas las
bicicletas y sus conductores se convierten en extremadamente
cortos y delgados ante los ojos de los peatones, mientras que las
manzanas de casas se comprimen desde el punto de vista de los
ciclistas.
Poco después de proponer su Teoría de la Relatividad se pidió
a Einstein que considerara el siguiente problema: supóngase que
nacen dos gemelos idénticos y que a una determinada edad se
envía el gemelo A al espacio exterior a una velocidad muy
elevada para que se manifiesten los efectos relativistas. Puesto que
Algunos aspectos de ellas distorsionan la Teoría de la Relatividad. Particularmente, los
objetos tridimensionales parecen curvados en lugar de escorzados en la dirección del
movimiento a velocidades cercanas a la de la luz. No obstante, estos relatos
permiten visualizar los efectos de la Relatividad así como los de la Temía Cuántica (
capítulo 7).
el envejecimiento es un proceso que depende del tiempo, el
gemelo B que se queda en la Tierra podrá decir que el tiempo
transcurre más despacio para el gemelo A (dilatación del tiempo)
y, por tanto, A resultará más joven que B. El gemelo A sabe que
todo movimiento es relativo y, por tanto, considera que el que se
mueve es el B, y es éste el más joven. La forma de determinar con
seguridad cuál de los gemelos es el más joven consiste en hacerlo
regresar para poder compararlos. La nave espacial de A invierte el
viaje y regresa a la Tierra para que pueda llevarse a efecto la
comparación. Se preguntó a Einstein qué hermano sería más joven
y por qué. Después de pensar un poco respondió que sería el
gemelo viajero A. (Se ha llevado a cabo un experimento que
verifica realmente esta idea. Después de haber recorrido largos
viajes en avión, relojes atómicos cuidadosamente estabilizados se
han comparado con otros idénticos que se habían mantenido en
tierra. Los primeros resultaron ser más «jóvenes» ya que habían
contado menos intervalos de tiempo —debido a la dilatación
temporal— que los que habían permanecido fijos.)
Lo esencial a la hora de distinguir las edades de los gemelos es
que A fue sometido a aceleraciones 1) al ser enviado al espacio y
2) al invertir la dirección y regresar a la Tierra. La Teoría general
de la Relatividad de Einstein (discutida más adelante y que se
refiere a todos los sistemas de referencia y no únicamente a los
inerciales) demuestra que la aceleración se traduce en un retraso
del tiempo. Podría apreciarse sin entrar en más detalles la diferencia
que existe entre las historias de A y B ayudándose de un diagrama
de Minkowski.
Como se representa en la figura 6.13a, éste es simplemen-
te una gráfica del tiempo en función de la distancia. Adviértase
que en ella, al contrario de como se representó en el capítulo 3, el
eje X se dibuja horizontalmente y el eje vertical es ct en lugar de
ser el eje t. (Se usa el eje ct para poner de manifiesto la unidad del
espacio-tiempo y dar a la denominada cuarta dimensión el mis-
mo tipo de unidades que a las otras tres.) Los datos representados
en dicho diagrama son las posiciones de un objeto y los tiempos a
los que se alcanzan. Un cuerpo en reposo en el sistema de
referencia mantendrá el mismo valor de X al transcurrir el tiempo,
y la gráfica resultante será una línea recta vertical, indicada por B
en el diagrama. Un cuerpo que viaje hacia la derecha estará
Figura 6.13.—Diagramas de Minkowski. El eje de tiempos es ct y el de espacio X. a)
A deja la Tierra y regresa más tarde. b) Tanto A como B abandonan la Tierra y
regresan después. c) A deja la Tierra y en un tiempo posterior lo hace B y lo alcanza.

representado por la parte inferior de la línea A del diagrama y


otro que lo haga hacia la izquierda, por la parte superior de la
línea A.
Una gráfica de este tipo se denomina línea de mundo y cuenta,
en efecto, la historia del cuerpo, ya que registra dónde ha estado y
en qué momento. Adviértase que un objeto que viaje a la velocidad
de la luz vendrá representado por la línea de trazos C que forma
un ángulo de 45° con el eje horizontal. Si A y B son las líneas de
mundo de los dos gemelos idénticos, la figura 6.13a representa
que sus historias son diferentes, de manera que podrá predecirse
que tendrán diferente edad cuando vuelvan a encontrarse.
La figura 6.13b retrata una situación algo distinta. En lugar de
haber gemelos idénticos hay trillizos, A, B y C. Mientras C se
queda en la Tierra, A viaja hacia la derecha, lo mismo que
anteriormente, y B lo hace a la izquierda con respecto a la Tierra.
Cuando A y B regresan a ella tienen la misma edad pero menor
que la de C. En la figura 6.13c se representa otra situación que
trata sólo de dos gemelos. En este caso en lugar de regresar a la
Tierra A es B el que se envía en una nave espacial para que
alcance a A. Sucede que esta vez el más joven al encontrarse es B.
La Relatividad y los viajes espaciales han influido enormemente
en la imaginación popular. Novelas, dibujos animados y programas
de televisión tratan a menudo de viajes espaciales desde hace más
de un siglo, siendo Julio Verne el pionero. La idea del tiempo co-
mo la cuarta dimensión y del viaje a través del tiempo se remon-
tan hasta Mark Twain, antes de que Einstein apareciera en escena.
Surgen naturalmente dos preguntas: ¿Puede viajarse a las estrellas o
a las galaxias distantes? ¿Se puede viajar por el tiempo?
Las distancias astronómicas se miden en años-luz, la distancia
que recorre la luz durante un año. Para ir a una estrella que esté a
una distancia de 100 años-luz viajando a la velocidad máxima se
necesitarían 100 años. Si la tripulación de la nave transmitiera un
mensaje por radio inmediatamente después de llegar a ella pasarían
otros 100 años antes de que los controladores de la Tierra
pudieran recibirlo de modo que tanto la tripulación como los
controladores tendrían que ser extraordinariamente longevos. La
distancia a la estrella más cercana (Alfa de Centauro) es 4,3 años-
luz y el tiempo mínimo de viaje sería 8,6 años. Sin embargo, la
mayoría de las estrellas distan más de 100 años-luz. Nuestra
galaxia, la Vía Láctea, tiene un diámetro de 120.000 años-luz. La
distancia a la galaxia más próxima (Andrómeda) es 2,2 millones
de años-luz, por lo que no hay esperanza de viajar a ella.
La cuestión merece una segunda lectura. Si los viajeros espa-
ciales fueran a la estrella a una velocidad del 99,9 por 100 de la
de la luz sus relojes biológicos observados desde la Tierra mar-
charían más despacio. Durante todo el trayecto sólo habrían
envejecido 9,94 años (dilatación temporal). Visto desde su propio
sistema de referencia desde luego los viajeros espaciales encontra-
rían que el tiempo transcurre de forma normal. Observarían, no
obstante, que la distancia a la estrella no era de 100 años-luz sino
únicamente de 4,47 años-luz. Cuando regresaran a la Tierra
encontrarían que las cosas habrían cambiado considerablemente.
Por ejemplo, el calendario habría avanzado 200 años y la noticia
de su partida sólo sería una oscura nota a pie de página en un
texto.
Aunque en cierto sentido son factibles los viajes espaciales, los
viajes por el tiempo son otra cosa. No hay ninguna duda que la
gente viaja hacia adelante en el tiempo, y los viajes hacia atrás en
el tiempo no parecen tener sentido, particularmente si los viajeros
en el tiempo pueden tomar parte en sucesos pasados, ya que se
destruirían las relaciones entre causa y efecto. Así, un niño podría
vivir antes de que sus abuelos llegaran a conocerse. Desde luego
cuando se observan los sucesos de las profundidades espaciales,
por ejemplo, que tengan lugar en una estrella que diste 100 años-
luz, lo que se contempla es algo que ocurrió hace 100 años. La
tripulación de la nave espacial a la que se ha hecho referencia más
arriba no puede afectar a los sucesos galácticos que se observan
desde la Tierra porque ya han tenido lugar. Además, tampoco
afectan a los que ocurren ahora o a los que tendrán lugar dentro
de cinco o diez años, ya que desde el punto de vista de las
observaciones realizadas desde la Tierra tardarán en llegar algo
más de 100 años a la estrella.
Sólo aquellos sucesos de la parte del diagrama de Minkowski
de la figura 6.13a que estén por encima de las dos líneas de trazos
serán accesibles a los viajeros que partan de un punto dado del
espacio-tiempo. Todos los demás y especialmente los de la dirección
negativa del eje ct que implican regresos en el tiempo no serán
accesibles.

Teoría general de la Relatividad

El boceto de la Teoría de la Relatividad discutido anteriormente


se conoce como Teoría especial de la Relatividad, ya que sólo se
aplica a casos especiales. Proporciona las ecuaciones de transfor-
mación correctas entre los sistemas de referencia no acelerados (
inerciales). Las leyes físicas son las mismas para estas ecuaciones en
todos los sistemas de referencia inerciales y satisfacen el
principio de relatividad originariamente indicado por Galileo,
Newton y otros. Se ha visto que estas nuevas ecuaciones de
transformación tienen ciertas consecuencias inesperadas cuando
se comparan tiempos, longitudes y masas de distintos sistemas de
referencia inerciales. Einstein creía que las ecuaciones de transfor-
mación podrían usarse en todo tipo de sistemas de referencia,
incluso los acelerados. La teoría que especifica las ecuaciones de
transformación usando sistemas de referencia acelerados no se
limita al caso especial de los sistemas inerciales y ha llegado a
conocerse por Teoría general de la Relatividad.
Después de publicar la teoría especial, Einstein tardó unos diez
años, trabajando prácticamente sólo en este tema, en elaborar la
teoría general. En 1916 publicó su completa descripción, causando una
considerable reacción en la comunidad científica. Aunque se
ha dicho que la Teoría especial de la Relatividad publicada en el
trabajo de 1905 podía haberla logrado alguno de los físicos que
estaban interesados en el tema, se acepta generalmente que el
trabajo de Einstein acerca de la relatividad general estaba por
delante de todos sus contemporáneos. La Teoría general de la
Relatividad de Einstein se yergue sin lugar a dudas como uno de
los logros más grandes del intelecto humano.
La relatividad general parte de una observación que en primera
inspección podría parecer insignificante. Einstein se dio cuenta de
que tanto la segunda ley de Newton del movimiento como la ley
de la gravitación universal implicaban la misma cantidad: la masa.
Observó que si esas dos leyes fueran en realidad independientes
definirían dos clases distintas de masa. La segunda ley de Newton
(F = m • a) definiría una masa inercial y la ley de la gravitación
(F = G • m1•m 2 /r 2 ) definiría una masa gravitatoria. De hecho, por
aquella época se llevaron a cabo experimentos precisos para
comprobar si había alguna diferencia entre las masas inercial y
gravitatoria de un cuerpo. Como no pudo hallarse diferencia
alguna entre ellas, sería una coincidencia muy notable que fueran
las mismas. Einstein se preguntó si era una casualidad que en
ambas leyes estuviera implicada la misma cantidad. Decidió que
la aceleración (tal como se ve envuelta en la segunda ley de
Newton) y la gravedad habrían de estar relacionadas y procedió a
demostrar que de hecho era imposible decir la diferencia entre
la fuerza gravitatoria y una aceleración «equivalente». Esta rela-
ción ha llegado a conocerse por postulado de equivalencia de
Einstein.
Como ejemplo sencillo de la equivalencia entre gravedad y
aceleración considérese la situación hipotética de una persona que
se encuentra en una nave espacial por el espacio exterior, alejada
de cualquier estrella o planeta. Si la nave se mueve a velocidad
constante, la persona experimentará ingravidez, lo mismo que los
astronautas en su viaje a la Luna. Si la nave estuviera en reposo en
un planeta, la persona estaría sometida a la fuerza de la gravedad
y le conferiría un peso. El postulado de Einstein indica simplemente
que la aceleración de la nave tendría el mismo efecto. Todo el
mundo conoce bien la idea básica implicada en ello: cuando un
ascensor sube, se siente la aceleración al ser empujado contra el
suelo del mismo. (Se trata de la tercera ley del movimiento (le
Newton. El piso del ascensor empuja al pasajero hacia arriba y
éste empuja el ascensor hacia abajo.) Si en la nave del espacio
exterior se produjera una aceleración continua exactamente igual a
la aceleración de la gravedad en la superficie terrestre se crearía
una fuerza «descendente» que se sentiría como gravedad. Si la
nave careciera de ventanas, una persona del interior sería incapaz
de decir, bien a través de sus «sensaciones» bien realizando ex-
perimentos cuidadosos, si la fuerza se debe a una aceleración o a
la gravedad ejercida por una gran masa.
Se tiene, por consiguiente, una situación en la que una acelera-
ción simula una fuerza. Existen otros muchos ejemplos. La acele-
ración no tiene por qué ser en línea recta. Cuando un coche que
viaja a gran rapidez rodea una esquina, todos los pasajeros
sentirán una «fuerza» que los empuja lateralmente del coche, a la
que se denomina fuerza centrífuga. No se trata en absoluto de una
fuerza, sino del efecto que se siente cuando la masa inercial
intenta proseguir en línea recta y en movimiento uniforme mientras
se produce el giro. Si no hay fuerza restauradora (la llamada
fuerza centrípeta discutida en el capítulo 3) los ocupantes acelerarán
con relación al coche, aunque con relación al suelo continúen en
movimiento rectilíneo uniforme.
La fuerza centrífuga es una fuerza ficticia en el sentido de que
no está causada por ninguna acción externa ejercida sobre el
cuerpo sino que es el resultado de la aceleración del coche y de la
inercia de los cuerpos. Estas fuerzas ficticias se llaman frecuente-
mente fuerzas inerciales. Nótese que también puede hacerse uso de
la fuerza centrífuga para simular la gravedad. Una manera de
provocar un entorno «cuasigravitatorio» en el espacio es construir
una estación espacial toroide que gire, como la que sale en la
película de ciencia-ficción 2001. Una odisea en el espacio, por
ejemplo. La fuerza centrífuga resultante del giro del toro («donut»)
empuja a todos los objetos y personas contra el borde exterior del
mismo. Si el toro girase exactamente con la rapidez apropiada
provocaría una fuerza centrífuga igual a la de la gravedad en la
superficie de la Tierra.
Un punto importante que interesa destacar en este momento
en relación con la fuerza centrífuga es que se trata verdaderamente
de una fuerza ficticia, originada únicamente cuando se intenta
emplear un sistema de referencia acelerado. Esta fuerza no aparece
en un sistema de referencia inercial (no acelerado). Ya que es la
masa la que determina la magnitud de esta fuerza ficticia (masa
inercia() Einstein deseaba saber si era verdad que la gravedad, que
también se debe a la masa (masa gravitacional), podía considerarse
también como una fuerza ficticia cuya existencia dependiera de la
elección del sistema de referencia. Esta idea surge básicamente de
su postulado de equivalencia, la igualdad entre la masa inercial y
gravitacional. Einstein creía, por consiguiente, que no era casual
que la masa fuera la principal responsable tanto de la inercia
como de la gravedad, sino que debían estar relacionadas.
Si se elige apropiadamente el sistema de referencia es posible,
en efecto, «deshacerse de la gravedad» incluso en la superficie de
la Tierra. Supóngase que una persona está subida en un peso
dentro de un ascensor que se mueve a velocidad constante. Si se
rompe el cable del ascensor, caerá con la aceleración de la
gravedad y durante la caída el peso indicará cero, significando
que la persona no pesa (está ingrávida). La fuerza de la gravedad
se desvanece en el sistema formado por el ascensor que cae. Los
astronautas no pesan cuando están en órbita alrededor de la Tierra
porque su sistema de referencia, la cápsula espacial, está acelerando
hacia la Tierra (están «cayéndose» constantemente).
El principio de equivalencia afirma algo más que la identidad
que existe entre masa gravitatoria e inercial. Constata que todos
los efectos que puedan adscribirse a un sistema de referencia
acelerado podrán llamarse igualmente de bien efectos gravitatorios.
La figura 6.14 representa una nave espacial acelerada en el
espacio exterior. Desde una de sus paredes se arroja un balón y
tarda dos segundos en llegar a la otra pared. La figura 6.14b
muestra la posición del balón en la nave al transcurrir un segundo
y la figura 6.14c la posición del mismo al transcurrir dos segundos
tal como se verían desde fuera de la nave. El balón ha viajado en
línea recta. En la figura 6.14d, e, f se muestra cómo se verían las
posiciones del balón desde el interior. El balón describe en este
caso una trayectoria parabólica y los observadores del interior la
describirán como la combinación de un movimiento horizontal y
otro de caída, como hizo Galileo al analizar el movimiento de los
proyectiles (capítulo 3 y figura 3.5).
Al ir aumentando la velocidad del balón, desde fuera de la
nave se seguiría viendo que describe una trayectoria rectilínea y
Figura 6.1 4.—Trayectoria de un proyectil en una nave espacial acelerada. a, b, c;
Posiciones del balón tal como se verían desde el exterior de la nave. d, e, j Posiciones
del balón vistas desde el interior de la nave. g) Distintas trayectorias percibidas desde
la nave para diferentes velocidades horizontales.

desde el interior se vería que la parábola es más abierta y que el


balón tarda más en «caer». Aunque la velocidad del balón fuera
igual a la de la luz, desde el interior de la nave se seguiría viendo
como una trayectoria parabólica que cae ligeramente. En la figura
6.14g se representa el efecto de aumentar la velocidad horizontal
del balón visto desde el interior de la nave.
Según el principio de equivalencia todos los fenómenos repre
sentados en la figura 6.14, contemplados desde el interior de In
nave, pueden atribuirse bien a la aceleración bien al campo
gravitatorio. Un rayo de luz que atravesara la nave tambien
seguiría la misma trayectoria que el balón aunque u una velocidad
muchísimo mayor. Por tanto, según el princtpio do equivalencia
un campo gravitatorio puede «curvar» un rayo luminoso
Einstein interpretó el encorvamiento de un rayo luminoso
como una representación de la curvatura del espaci lo mismo Igual
que ocurría en la relatividad especial. penso que solo podia
nocerse el espacio a través de mediciones realizadas con luz. La
trayectoria de un rayo luminoso o de cualquier otra radiación
electromagnética revela la naturaleza del espacio. Un carpintero o
mecánico determinan si una superficie está plana o curvada mi-
diéndola con un borde recto o regla. ¿Cómo saben si la regla está
recta? Mirándola a lo largo de su longitud y si se desvía de la lí-
nea de mira no estará recta: la que decide si está derecha es la
línea de mira (la trayectoria de un rayo luminoso). Si la trayectoria
del rayo luminoso no es «recta» sino «curvada», el espacio ha de
estarlo también.
Einstein llegó a la conclusión de que la gravedad habría de ser
una fuerza ficticia debida simplemente al movimiento acelerado
de un sistema de referencia. Este movimiento acelerado sería un
movimiento inercial a través del espacio «curvado». La Teoría
general de la Relatividad constata que las grandes concentraciones
de masa provocan en sus inmediaciones la curvatura del espacio.
El movimiento de todos los cuerpos a través de este espacio
curvado es necesariamente acelerado y sentirán una «fuerza»
simplemente debido a la curvatura del mismo.
Resulta peculiar que pueda pensarse que el espacio está curvado.
Incluso es difícil imaginar lo que quiere decirse con ello. Tal vez
sea mejor considerar en primer lugar los espacios bidimensionales
curvados y volver luego a un espacio tridimensional (normal). Un
espacio bidimensional es una superficie, que puede ser plana,
como una mesa lisa, o curva, como una superficie esférica. Una
superficie bidimensional plana se denomina euclídea (en honor del
famoso matemático que desarrolló muchas ideas geométricas).
Una superficie curva se llama no euclídea porque en ella no se
cumplen los teoremas de la geometría de Euclides. Éste advirtió
que las lineas paralelas jamás se encuentran en una superficie
plana y que la suma de los ángulos de un triángulo es de 180°. En
una superficie no euclídea dichas expresiones son incorrectas. Así,
la suma de los ángulos de un triángulo dibujado sobre una
superficie esférica es mayor de 180°. Considérese un triángulo
dibujado sobre la superficie terrestre cuya base esté en el Ecuador
y cuyos lados sean dos líneas que se juntan en el Polo Norte. Los
ángulos entre el Ecuador y los lados son ambos de 90° y su suma
será de 180°. El ángulo opuesto al Ecuador puede ser de 0° a
180° y la suma total oscilará de 180° a 360°.
Una superficie en la que la suma de los ángulos de un
triángulo sea mayor de 180° se dice que posee curvatura positiva.
Cuando la suma es menor de ese valor se dice que es de curvatura
negativa. (Un ejemplo de esta superficie es una silla de montar.)
Para hacerse una idea de la curvatura del espacio tridimensional
hay que preguntarse en primer lugar cómo sabría una persona que
estuviera confinada en un espacio bidimensional si éste está
curvado. No podría subirse a una torre y mirar el horizonte o
sobrevolarla con una nave, ya que ambos procedimientos implican
trasladarse a la tercera dimensión y no podría hacerse lo equivalente a
ello para observar un espacio tridimensional. Hay que permanecer
confinado en la superficie bidimensional e intentar determinar si
es plana o curva.
Ya se ha indicado que pueden emplearse métodos geométricos.
Pueden estudiarse paralelas, triángulos y otras construcciones
formadas por líneas rectas (o que así se crea). Si las paralelas
llegan a encontrarse o intersectarse o si la suma de los ángulos de
un triángulo es diferente a 180° se sabrá que se trata de una
superficie curva. Para estudiar el espacio tridimensional hay que
analizar de igual modo las líneas rectas y su geometría.
Lo que verdaderamente hay que estudiar son las «líneas
rectas». Como saben los estudiantes cuando empiezan a estudiar
Geometría, la línea recta es la distancia más corta entre dos
puntos. Ello sólo es verdad en una superficie «plana» o en un
espacio tridimensional sin curvatura. La distancia más corta entre
dos puntos de una superficie esférica es la «circunferencia máxima» (
la línea formada al cortar la esfera por ambos puntos y el centro).
La distancia más corta entre dos puntos de un espacio dado se
llama en general geodésica y como se considera que la luz se
propaga por el camino más corto entre dos puntos un rayo
luminoso definirá una geodésica. Una posible forma de determinar si
un espacio tridimensional es curvo consiste en comprobar si los rayos
luminosos se propagan siempre en línea recta.
Quizá sea la prueba experimental más convincente en favor
de la curvatura del espacio la deflexión que sufren los rayos
luminosos al pasar cerca del Sol. La predicción de Einstein de que
la masa provoca la curvatura del espacio requiere que aquélla sea
Muy grande para que el efecto sea apreciable. Se espera que la
mayor curvatura del espacio de las inmediaciones de la Tierra
tenga lugar junto al Sol. Si se acepta que los rayos luminosos
definen las geodésicas del espacio, podrá ensayarse la predicción
de Einstein observando cuidadosamente los rayos luminosos pro-
cedentes de una estrella distante, por ejemplo, al pasar cerca del
Sol. El único modo de llevar a cabo este experimento consiste en
observar dicha estrella durante un eclipse de Sol total, cuando la
Luna pasa entre él y la Tierra, bloqueando momentáneamente
su luz.
Si se observan los rayos luminosos de diferentes estrellas
durante la noche y se comparan con los observados durante el
eclipse podrá comprobarse si al pasar cerca del Sol experimentan
deflexión (Fig. 6.15). Si el Sol provoca la curvatura del espacio, la
luz de la estrella que pase cerca de él se doblará y su posición
aparente será distinta de la verdadera. El cambio podrá detectarse
comparando cuidadosamente una fotografía de las estrellas obser-
vadas durante el eclipse con otra tomada durante la noche de la
misma región del cielo (en la que el Sol no se encuentra cerca de
la línea de mira).
La predicción de la curvatura de la luz cerca del Sol fue
confirmada en un famoso experimento llevado a cabo por un
equipo dirigido por el físico inglés Arthur Eddington durante el
eclipse total de Sol de 1919. Eddington viajó a una isla de la costa
occidental de África en la que el eclipse duraba mucho y permitía
obtener las fotografías apropiadas del campo de estrellas de las
inmediaciones del Sol. Cuando se compararon con las fotografías
del mismo campo estelar tomadas varios meses antes se descubrió
que las estrellas observadas próximas al Sol parecían haberse
movido durante el eclipse en relación con las que no estaban cerca
de aquél y en la misma cantidad predicha por Einstein. Fue un
experimento bastante convincente.
Puesto que se creía que la luz no poseía masa, según la ley de
la gravitación universal de Newton no debería afectarse en absoluto
por la masa del Sol. Por el contrario, Einstein predijo que la masa
curva el espacio y que los rayos luminosos viajando por él a lo
largo de las geodésicas serían desviados por una gran masa. La
verificación experimental por Eddington de la predicción de Einstein
recibió en aquel tiempo una atención considerable contribuyendo
de forma significativa a la reputación de Einstein, al que se
consideró como un Newton de la Ciencia.
Figura 6.15.—Deflexión gravitatoria de la luz de una estrella debida al Sol.

Además de la deflexión de la luz estelar por el Sol existe otra


prueba experimental a favor de la relatividad general. En el
capítulo 3 (Mecánica newtoniana) se discutió el hecho de que la
interacción mutua de todos los planetas provocaba la lenta rotación
de la órbita elíptica de Mercurio en torno al Sol. Esta lenta
precesión de la órbita se conocía desde hacía algún tiempo y
supone 574 segundos de arco por siglo. A principios de siglo se
habían calculado detenidamente las atracciones de los restantes
planetas y se había obtenido un valor de 531 segundos de arco por
siglo. Hasta que no se consideró la Teoría general de la Relativi-
dad no se comprendió la razón de que hubiera una discrepancia
de 43 segundos de arco. Ya que la órbita de Mercurio está muy
cerca del Sol, el planeta viaja en realidad por una parte del
espacio con una pequeña, aunque apreciable, curvatura y estos 43
segundos de arco sobrantes pueden explicarse esencialmente por
el efecto del espacio curvado. La discrepancia de la precesión de la
órbita de Mercurio se denomina a veces uno de los problemas
«menores» de la Física del siglo xix. La mayoría de los físicos
creían que el asunto podría resolverse corrigiendo levemente el
análisis del movimiento. Fue necesario, no obstante, una nueva
concepción revolucionaria de la naturaleza del espacio para poderlo
solucionar.
Existen otras verificaciones experimentales de la relatividad
general aunque son algo más complicadas. Entre ellas están el
retraso de los relojes en sistemas de referencia acelerados o en
grandes campos gravitatorios o el «corrimiento hacia el rojo» de
la luz que caiga en un campo gravitatorio. No es necesario
considerarlas aquí sino solamente hacer constar que en la actualidad
están bien establecidos los principios básicos de la relatividad
general. Hay que advertir al mismo tiempo que existen formula-
ciones matemáticas distintas de la Teoría general de la Relatividad
a la propuesta originariamente por Einstein. En relación a lo
tratado en este libro puede considerarse que arrojan los mismos
resultados.
El aceptar la Teoría general de la Relatividad y su predicción
de la curvatura del espacio conduce a unas consecuencias impor-
tantes en relación a la naturaleza del universo físico. Entre ellas
están la curvatura general del espacio y la posibilidad de que
existan agujeros negros. Si una gran concentración de masa
produce la curvatura del espacio de sus inmediaciones es posible
que una masa suficientemente grande haga que el espacio se
curve tanto que llegue a plegarse sobre sí mismo. Ello puede tener
lugar bien para la totalidad del Universo o localmente en las
proximidades de una masa concentrada. Si el Universo tuviera
suficiente masa y el espacio en torno a él no fuera muy grande
podría eventualmente plegarse sobre sí mismo. En tal situación,
un rayo de luz enviado en cualquier dirección no iría alejándose
en línea recta por siempre, sino que con el tiempo se replegaría
por la masa del Universo. Es la densidad de masa de éste la que
determina el tamaño real del espacio asociado a él. Si la densidad
de masa total no fuera lo bastante grande, tampoco lo sería la
curvatura del espacio para provocar su eventual plegamiento
sobre sí mismo, originándose un universo infinito, esto es, sin
limitación espacial.
Actualmente prosigue la discusión de si el universo físico real
es cerrado (plegado sobre sí mismo) o abierto. Aunque la Teoría
general de la Relatividad predice que el espacio ha de ser curvo
debido a la existencia de masa, no dice nada acerca de su cierre o
abertura. La respuesta depende de la masa total y del tamaño del
Universo y los astrofísicos encuentran dificil determinar de forma
precisa esos parámetros.
Se sabe que el Universo se está expandiendo, presumiblemente
debido a una gran explosión o big bang con la que comenzó a
existir tal como lo conocemos ahora. Los astrónomos observan
que la luz que llega a la Tierra procedente de las galaxias
distantes siempre está desplazada en color hacia el extremo rojo
del espectro visible, indicando que se separan de la Tierra a gran
velocidad5. Se cree que las galaxias más alejadas que se conocen
se encuentran a 15.000 millones de años-luz de distancia y que se
están retirando a velocidades tremendas. El problema de si el
Universo continuará expandiéndose por siempre o si con el tiempo
llegará a plegarse sobre sí mismo está relacionado con la naturaleza
abierta o cerrada del mismo. Si la densidad de masa es lo
suficientemente grande, el espacio del Universo es cerrado y la
expansión se detendrá alguna vez produciéndose su plegamiento.
Si la densidad de materia no es lo suficientemente alta, el Universo
es abierto y su expansión continuará siempre. En la actualidad no
existen pruebas suficientes para sacar una conclusión en uno u
otro sentido.
La relatividad general indica que, si a escala local hay una
suficiente concentración de masa, el espacio de su inmediata
vecindad se curvará sobre sí mismo originándose lo que ha
llegado a conocerse popularmente como un agujero negro. Para
que ello tenga lugar se requiere una densidad de masa enorme,
siendo más grande que la de una estrella normal o incluso que la
de una de neutrones. Se espera que se produzcan agujeros negros
cuando las estrellas de gran masa (con varias veces el tamaño del
Sol) agotan su combustible nuclear y colapsan. Cuando la estrella
colapsante alcanza un tamaño de unos 30 km se curva el espacio
en torno suyo y se convierte en un agujero negro. Puesto que nada
puede salir del espacio de un objeto plegado así, incluso los rayos
luminosos que habrían de seguir la curvatura, se denomina agujero
negro. Los astrónomos conocen varios candidatos probables a
agujeros negros y se trata de compañeras de estrellas visibles
normales (sistemas binarios). Se sabe que las estrellas normales
giran en torno a compañeras invisibles emitiendo una radiación
con unas características peculiares que indican que el agujero
negro está tirando de la masa de la estrella. Al aplicar las ideas de la
Teoría Cuántica a los agujeros negros se deduce que han de
5 Este fenómeno se denomina efecto Doppler y se sabe que está relacionado con
los procesos ondulatorios que implican un movimiento relativo entre emisor y
receptor. El corrimiento Doppler hacia el rojo es distinto al corrimiento gravitatorio
hacia el rojo predicho por la Teoría general de la Relatividad.
emitir lentamente una energía en forma de radiación electromag-
nética. (Véase el artículo de S. Hawking citado en las referencias
de este capítulo.)
La relatividad general indica que las propiedades del espacio (
y del tiempo) dependen de las fuerzas gravitatorias y de la
presencia de materia. Las propiedades del espacio-tiempo están
determinadas por los rayos luminosos que, como se ha visto,
dependen de los campos electromagnéticos. Einstein creía que
también éstos deberían modificar la curvatura del espacio e
intentó incorporar las fuerzas electromagnéticas a la relatividad
general para obtener lo que se conoce como una Teoría de
Campo Unificado. Aunque él y otros autores hicieron considerables
progresos en esta dirección, en la actualidad se aprecia claramente
que la comprensión definitiva de las fuerzas básicas de la Naturaleza
requiere las ideas fundamentales de la Mecánica Cuántica. Éstas
se expondrán en el próximo capítulo para volver después a la
cuestión de las teorías de campo unificado.

Influencia de la Teoría de la Relatividad en


la Filosofía, el Arte y la Literatura

Como ya se ha dicho al principio de este capítulo, la Teoría de


la Relatividad ha tenido un impacto significativo en la Filosofía, la
Literatura y las Artes Plásticas. En cierto sentido se ha usado para
conferir validez o apoyar el desarrollo de cualquier clase de ideas.
Otras veces ha inspirado nuevas formas de pensamiento, aunque
no siempre se ha comprendido correctamente la teoría. Se ha
transferido a la Filosofía y Ética la idea física de sistema de
referencia con objeto de definir puntos de vista y perspectivas. El
concepto de sistema de referencia no absoluto ha sugerido a
determinadas personas el relativismo moral sin tener en conside-
ración la idea de invariantes que suponen un componente esencial
de la teoría.
Al mismo tiempo que se desarrollaba la Teoría de la Relatividad
también surgían en Literatura y Arte nuevos modos de expresión.
Algunos de los pintores cubistas estaban algo familiarizados con
la Teoría de la Relatividad e incorporaron a su trabajo la
interpretación de sus cuestiones. Poetas como William Carlos
Williams y
Archibald MacLeish celebraron la relatividad y a Einstein y com-
pusieron quintillas humorísticas sobre la familia Stein (Gertrude.
Ep- y Ein-) y los viajes relativistas por el tiempo. Vladimir Na-
bokov y William Faulkner usaron metafóricamente los conceptos
de la relatividad. Un libro reciente de Friedman y Donley, citado
en las referencias de este capítulo, discute el papel de Einstein
como musa de las Artes y de la Literatura.
7
Teoría Cuántica y el fin
de la causalidad

No puede predecirse o saberse todo.


Max Planck. (Biblioteca Niels Bohr
del Instituto Americano de Física,
Colección de W. F. Meggers.)

En este capítulo se discutirá una teoría física que en muchos


aspectos es más revolucionaria y tiene implicaciones de más
amplio alcance que las teorías de la relatividad de Einstein. Debe
indicarse en primer lugar cierto número de defectos que presentan
las teorías discutidas hasta ahora (mecánica newtoniana, electro-
magnetismo maxwelliano, Termodinámica) y considerar poste-
riormente la Teoría Cuántica. Es lícito preguntarse por la razón
de que deban examinarse viejas teorías para descartarlas inmedia-
tamente después. A parte del hecho de que podrá apreciarse mejor
un nuevo concepto sabiendo que es más apropiado que el que
sustituye, también es cierto que las viejas teorías tienen algún
grado de validez y a menudo son extremadamente útiles, basándose
en ellas muchas aplicaciones. Las nuevas teorías son bastante
complejas en toda su extensión y dado que las viejas son más
sencillas de emplear, sus limitaciones pueden ser mejor recono-
cidas.
Además, se ha llegado en la actualidad a un grado de sofistica-
ción tan grande, que se cree que incluso los conceptos y teorías
más recientes se considerarán superados en el futuro. Será conve-
niente, por tanto, conocer un poco de lo que los científicos
metafísicos y filósofos han averiguado en el último siglo para
comprender mejor cómo se adquieren los conocimientos físicos y
se revalidan las teorías.
Generalmente se espera de las teorías científicas que sean
lógicas y tengan sentido. Al margen de los vericuetos matemáticos
envueltos en una teoría científica, es deseable que sea razonable y
que no vaya contra el «sentido común». Éste es, desde luego, un
concepto subjetivo que depende mucho del grado de experiencia
del individuo o de un colectivo. Una teoría nueva no debe
contradecir las principales teorías o ideas ya aceptadas y probadas
a menos que se demuestre que éstas contienen debilidades de las
que carece la teoría nueva.
A la hora de evaluar una teoría es preferible tomar casos muy
simples y comprobar que lo que predice la teoría para ellos es
razonable y no contradictorio. Si es válida para un caso complejo,
seguramente ha de serlo también para otro más simple. Habrá que
ensayar, de igual modo, su rango de validez y si satisface casos
extremos. Cuando las teorías se aplican a los casos extremos es
cuando realmente se determinan sus límites de validez y la
necesidad de reconocer otras nuevas. Es posible a veces introducir
modificaciones en las teorías existentes para poder operar con los
casos extremos.
La Teoría Cuántica, el tema de este capítulo, parece violar el
sentido común, pero se desarrolló para tratar los objetos muy
pequeños (del tamaño de los átomos y moléculas o más peque-
ños aún) a los que no se aplica la experiencia previa. No es
sorprendente, por tanto, que falle en ellos la teoría newtoniana.
Ésta se desarrolló para explicar el movimiento de los objetos muy
grandes, relativamente hablando, como granos de polvo, balas,
obuses y planetas, todos ellos visibles a simple vista o con ayuda
de un microscopio corriente, no existiendo pruebas reales de que
su dominio de validez pudiera abarcar los objetos muy pequeños.
También es verdad que la teoría newtoniana tampoco es operativa
a temperaturas muy bajas (cercanas al cero absoluto) ya que de
nuevo aquí es insignificante el movimiento de la materia a pequeña
escala.
Es costumbre referirse a las teorías derivadas de la mecánica
newtoniana y del electromagnetismo maxwelliano corno Física
«Clásica», mientras que se llama Física «Moderna» a las Teorías
de la Relatividad y Cuántica, aunque aparecieran hace ya noventa
años. Como ya se ha indicado, la Física Clásica falla al describir
los fenómenos que tienen lugar en condiciones extremas, como
Figura 7.1.—Dominios de las teorías físicas. N, diámetro de un núcleo típico; A,
diámetro de un átomo típico; H, tamaño de un ser humano; E, diámetro terrestre; So,
velocidad del sonido; C, velocidad de la luz en el vacío.

velocidades muy altas, dimensiones atómicas o temperaturas muy


altas o muy bajas.
En la figura 7.1 se representan los dominios de aplicabilidad
de la Física Clásica y de las dos grandes teorías de la Física
Moderna, la Mecánica Relativista y la Mecánica Cuántica. Nótese
que se ha distorsionado la escala horizontal con objeto de dar más
énfasis a los fenómenos de menor tamaño. Las letras N, A, H y E
que hay en ella se refieren, respectivamente, al tamaño del núcleo
atómico, del átomo, del ser humano y de la Tierra. También se ha
deformado la escala vertical para poner de manifiesto los fenómenos
que tienen lugar a bajas velocidades. So y C se refieren a las
velocidades del sonido y de la luz en el vacío. Hay que visualizar
la figura como un conjunto de cuatro regiones en la que las más
pequeñas cubren parcialmente a las que les sirven de base.
La Teoría Cuántica Relativista, que comprende material de los
capítulos 6, 7 y 8, es considerada como la más general. Cubre
prácticamente todo el campo de la figura y es válida para todas
las dimensiones y velocidades accesibles actualmente a la experi-
mentación. Aún se desconoce si puede aplicarse completamente a
dimensiones más pequeñas que las del núcleo atómico; es posible
que falle en ellas y tenga que sustituirse por una teoría más
general. La Teoría Cuántica Relativista es bastante difícil de usar
y para muchos propósitos es suficientemente precisa la Teoría
Cuántica no Relativista, aunque tenga algunas limitaciones. Esta
última cubre una buena región comprendida en la Teoría Cuántica
Relativista, sobre todo a velocidades inferiores a 100.000 o 10.000
m • s--'. La Teoría Relativista Clásica abarca la parte derecha de la
figura 7.1, es decir, la de los objetos con tamaño superior al de las
moléculas y a todas las velocidades. La Física Clásica, denomina-
da en la figura Mecánica Newtoniana, es generalmente más
conveniente y más sencilla de emplear y comprender que la Física
Relativista y Cuántica, usándose por ello en su dominio de
aplicabilidad, que es el de los objetos con tamaño superior al
molecular y velocidades menores que unas cuantas décimas del
uno por ciento de la velocidad de la luz, aunque se crea que no es
del todo correcta. En la tabla 6.2 se dan algunos ejemplos de los
errores que se cometen al usarla. En este capítulo se discutirán
algunos más. Los dominios de aplicabilidad de las teorías físicas
no son tan netos y uniformes como se ha representado en la figu-
ra 7.1, sino que existen «huecos» como el que se indica en la fi-
gura 7.7.
La figura 7.1 pone de manifiesto la idea de que todas las
teorías físicas del ser humano no son más que aproximaciones del
verdadero conocimiento físico. En el dominio en que son válidas
tanto las antiguas teorías como las nuevas, estas últimas sólo
presentan mayor precisión (en una cuantía que puede ser extrema-
damente pequeña, casi imposible de medir). Para diseñar puentes
y automóviles se sigue empleando la Física Clásica (newtoniana)
porque es más conveniente y tiene la suficiente precisión, pero
para estudiar el núcleo atómico o las propiedades electrónicas de
los sólidos ha de usarse la Teoría Cuántica porque la Teoría
Clásica arrojaría en tales casos resultados equivocados. Para
diseñar un puente o un automóvil también podría emplearse la
Teoría Cuántica, pero los resultados serían esencialmente los
mismos que si se usa la Teoría Clásica.
A finales del siglo xix existía el consenso general de que el
conocimiento científico básico estaba bastante completo. Muchos
autores
Es muy creíanCuando
calentarse. que
conocido quelasseprincipales
loscalienta
objetosuna teorías
metálicos dehierro,
la Física
varilla decambian por Clásica
de color
ejemplo,
al
estaban firmemente establecidas y que probablemente todo lo que
se conocía del Universo se explicaría con el tiempo sobre la base
de dichas teorías. Se reconocía, no obstante, que existían algunos
problemas residuales por resolver.
Algunos de ellos habían surgido al intentar aplicar la teoría
electromagnética de la luz y las teorías de la materia, energía y
Termodinámica al estudio de la interacción de la radiación elec-
tromagnética con la materia. Fueron precisamente los intentos de
amalgamar estas teorías principales del siglo xix de forma coherente
para comprender los problemas residuales lo que condujo finalmente
al desarrollo revolucionario de la Física Cuántica. Quizá sea
paradójico que uno de los logros más grandes de la Física del
siglo xix —la teoría electromagnética de la luz— tuviera tantos
fallos y necesitara dos reformulaciones de primer orden: las
Teorías de la Relatividad y Cuántica. Aunque Einstein jugó un
papel importante al comienzo del desarrollo de la Teoría Cuántica,
no puede decirse que hubiera una única persona que se señalara
como el genio indiscutible y conductor de todos los demás en el
desarrollo de la nueva teoría. La Ciencia del siglo xx se había
convertido en una empresa a escala muy grande y los científicos
estaban más enterados de los trabajos de los demás colegas,
habiendo por ello más individuos capaces de realizar contribuciones
significativas.
Se pretende una aproximación a la Teoría Cuántica examinando
algunos de los problemas científicos del siglo xix en su contexto
histórico: 1) el problema de la radiación del cuerpo negro, 2) el
efecto fotoeléctrico y 3) espectros y estructura atómica. Se han
ordenado según su importancia creciente tal como la considerarían
la mayoría de los físicos de finales del siglo xix. El problema del
cuerpo negro se considera en realidad como uno secundario, pero
en su solución se encontraba la semilla que conduciría de lleno a
la Teoría Cuántica. En la práctica estos tres problemas están ínti-
mamente relacionados y su solución no sólo sería importante para
la Ciencia pura sino también para grandes áreas de la aplicada.
Radiación cavitaria o del cuerpo negro
primero empieza a ponerse de color rojo apagado, después al rojo
vivo y finalmente naranja brillante o amarillo. A continuación
acaba fundiéndose. Si en lugar de hierro se emplea un alambre de
tungsteno al vacío o en una atmósfera inerte para evitar que
reaccione químicamente con el aire, podrá elevarse la temperatura
hasta un valor muy alto. Cuanto más se caliente, más cambiará el
color de la luz emitida, que pasa de amarillo brillante a un blanco
incandescente. Si el alambre se encuentra encerrado en un bulbo y
el calentamiento se lleva a cabo eléctricamente se obtendrá una
lámpara de incandescencia. En realidad la luz emitida no es sólo
de un color sino que consiste en un conjunto de colores de
diferentes intensidades: violeta, azul, verde, amarillo, naranja, rojo
vivo y los intermedios que pueden verse junto con otros «colores»
del espectro electromagnético invisibles, como el infrarrojo y el
ultravioleta, como se comprobará si se emplean los instrumentos
apropiados.
Haciendo uso de los conceptos termodinámicos discutidos en
los capítulos anteriores así como de la teoría cinético-molecular
de la materia y de la teoría electromagnética de la luz es posible
comprender la relación existente entre el calor absorbido por la
varilla de hierro o el alambre de tungsteno, la temperatura alcanzada y
el rango e intensidad del espectro de la radiación electromagnética
emitida. Al absorber calor el sólido, sus moléculas y partes
constituyentes aumentan de energía cinética. Las porciones de los
átomos cargadas eléctricamente poseerán mayor energía y se
moverán de un lado a otro más rápidamente. Se sabe, según la
teoría electromagnética de la luz, que el movimiento de una carga
de .un lado a otro (movimiento oscilatorio) se traduce en una
radiación de energía electromagnética. Si las oscilaciones tienen
frecuencia suficiente se radiará luz visible. Al aumentar la tempe-
ratura del sólido también lo hará el intervalo de amplitudes y
frecuencias de los osciladores atómicos o moleculares y, por tanto,
el rango e intensidad de la radiación electromagnética emitida.
Puede comprenderse así de forma cualitativa la razón de que un
cuerpo caliente emita luz.
El paso siguiente para comprender la radiación de los cuerpos
calientes consiste en tomar las ideas mencionadas anteriormente,
expresarlas de una forma cuantitativa y llevar a cabo mediciones
Es muy
calentarse.
conocido
experimentales Cuando
que seloscalienta
detalladas objetos
que una
metálicos
varilla
confirmen decambian
el grado hierro, por
de color
ejemplo,
de precisión de al
los cálculos. Pronto se vio que la cantidad de radiación emitida
por un cuerpo caliente dependía de las condiciones y naturaleza
de la superficie del cuerpo así como de su naturaleza global y de
la temperatura. Sería necesario considerar un caso ideal, como lo
habían hecho Galileo y Newton en relación con los graves y
Carnot respecto a las máquinas térmicas.
Un análisis de la cuestión pone de manifiesto que el emisor
óptimo o ideal de radiación electromagnética a elevada temperatura
es también el mejor absorbente. Una superficie capaz de absorber
fácilmente todas las frecuencias (colores) de la luz también podrá
emitirlas. El emisor ideal ha de ser, por tanto, una superficie
negra. Una superficie blanca (o reflectante) será un deficiente
absorbente y emisor de radiación, hechos que conocen los viajeros
del desierto: las vestimentas blancas reflejan en lugar de absorber
el calor del Sol durante el día y retienen el calor del cuerpo
durante la noche. El uso de paneles de aluminio reflectante para
aislar los edificios reduce de igual modo la pérdida de calor
durante el invierno y la ganancia del mismo durante el verano.
¿Cómo puede conseguirse una superficie completamente negra?
Para responder a esta pregunta hay que comprender lo que
significa una superficie negra. Una superficie absolutamente negra
es la que impide que la luz incidente pueda escapar, que toda la
luz empleada en su iluminación no pueda verse. Puede imaginarse
una superficie así considerando un cuerpo hueco con un pequeño
orificio que comunique su interior con el exterior (Fig. 7.2). Toda
la luz que incida en el agujero, penetrará al interior y aunque sea
reflejada innumerables veces por las paredes internas es difícil que
encuentre la salida para poder escapar. La «superficie» absorben-
te ideal está representada por el agujero. Por otra parte, si se
calientan las paredes internas, la radiación procedente del agujero
corresponderá a la radiación emitida por un emisor ideal. Este
radiador ideal o de cuerpo negro también se llama radiador
cavitario. Puede uno «aproximarse» a un radiador cavitario colo-
cando una pantalla opaca con un pequeño orificio como puerta de
un horno. La «superficie» del cuerpo negro será el agujero (figu-
ra 7.2).
Se puede demostrar que la energía emitida por un radiador
cavitario ideal sólo depende de su temperatura y no de los detalles
de cómo se genera la energía de su interior. Por tanto, para
Figura 7.2.—Radiador ideal del cuerpo negro o cavitario. R, radiación de diferentes
longitudes de onda intercambiada por los osciladores; W, paredes de la cavidad a
elevada temperatura; H, orificio para observar la radiación.

analizar el radiador cavitario sólo hay que suponer que los átomos
de sus paredes están en equilibrio térmico mutuo y tienen la
misma energía cinética media aunque en un momento dado unos
tengan Más energía que otros, pudiendo variar en el tiempo los de
mayor y menor energías. Los cambios de energía de un átomo
concreto dependerán de las interacciones con los demás, bien a
través de la formación de enlaces químicos o por emisión o
absorción de radiación de otros átomos del interior de la cavidad.
El espectro de la radiación electromagnética emitida o absorbida
—el rango de frecuencias e intensidades— es representativo de la
distribución o contribución relativa de la energía total a las
distintas frecuencias o modos de movimiento. Puesto que la
radiación de la energía electromagnética depende de las cargas
eléctricas oscilantes, será útil discutir la emisión de dicha energía
como si se tratara de «osciladores» atómicos o moleculares loca-
lizados en los átomos o moléculas individuales.
Sus posibles movimientos son bastante complejos pero pueden
analizarse considerándolos como si fueran muelles que oscilan (
vibran) con frecuencias características. El movimiento conjunto
de un átomo o molécula es la suma de sus diferentes osciladores,
lo mismo que el movimiento de un automóvil que vaya por una
carretera con el firme en mal estado es el resultado de las subidas,
bajadas y movimientos laterales debidos a los amortiguadores,
rebotes de los neumáticos y acolchado de los asientos.
Lo que determina el espectro electromagnético emitido por la
cavidad es el número de osciladores activos con una frecuencia
dada. Inversamente, midiendo el espectro electromagnético emitido
y llevando a cabo los análisis matemáticos pertinentes se podría
deducir la distribución de la energía térmica total del sistema para
una temperatura concreta entre los diferentes osciladores.

Figura 7.3.—Espectro de la radiación cavitaria o del cuerpo negro. La línea de trazos


representa el espectro calculado según la Teoría Clásica para una temperatura de
7.000° K. Las líneas continuas representan los espectros medidos experimentalmente
para las temperaturas indicadas. Algunas regiones espectrales concretas son: UV,
ultravioleta; Vis, visible; IR, infrarrojo.

Esta distribución de la energía o función de partición puede


calcularse según los principios de la Termodinámica empleando
los conceptos de energía y entropía discutidos en los capítulos
precedentes. En la figura 7.3 se hace una comparación entre tres
mediciones experimentales del espectro a 7.000, 6.000 y 4.000 K
y el cálculo correspondiente a 7.000 K. El eje horizontal de la
gráfica representa la longitud de onda (inversamente proporcional
a la frecuencia). Aquélla aumenta hacia la derecha y ésta hacia la
izquierda. El área bajo cada curva es proporcional a la energía
total emitida por la cavidad. Ya se ha dicho que estas curvas sólo
dependen de la temperatura y no de los detalles específicos de la
estructura atómica o molecular lo mismo que el comportamiento
de las máquinas de Carnot es independiente de sus pormenores y
sólo depende de la diferencia de temperatura entre los dos focos.
Puede observarse que el espectro calculado sólo concuerda
con los valores experimentales para longitudes de onda largas y
que las discrepancias se hacen más pronunciadas a medida que
disminuye la longitud de onda (o aumenta la frecuencia). Para
longitudes de onda cortas, correspondientes a la porción ultravioleta
del espectro, el desacuerdo entre teoría y experimentación es tan
manifiesto que se considera catastrófico y por eso se denomina la
catástrofe del ultravioleta. (Una catástrofe sólo para los que creían
en la teoría.) El hecho de que los resultados teóricos estuvieran en
contradicción con el principio de la conservación de la energía
ilustra el desacuerdo tan enorme que había. Puesto que este
principio es una de las piedras angulares de la Termodinámica, ¡
aceptar la teoría equivalía a retar a toda esa ciencia!
El físico teórico alemán Max Planck publicó en 1899 un
análisis del problema en el que modificaba la teoría con objeto de
evitar la catástrofe del ultravioleta. Planck se dio cuenta de que la
teoría al uso, que requería que todos los osciladores tuvieran la
misma energía media, conducía a la catástrofe del ultravioleta
porque existían muchos más osciladores de alta frecuencia que de
baja. Los resultados experimentales ponían claramente de manifiesto
que al aumentar la frecuencia de los osciladores tendría que
disminuir la energía media de los mismos. Esto significaba que
sólo estaban activos unos pocos de los osciladores de alta energía
disponibles. Había una discriminación de algún tipo con los
osciladores de alta frecuencia que hacía que tuvieran la misma
energía media que los de baja frecuencia. Ya que los osciladores
residen en los átomos del cuerpo caliente, interaccionarán y
compartirán mutuamente su energía. ¿Cómo es posible que al
intercambiar energía los osciladores de frecuencias más elevadas
adquieran una energía media por oscilador más pequeña que la de
los osciladores de menor frecuencia?
La ingeniosa solución que dio Planck al problema consistió en
proponer que siempre que un oscilador gane o pierda energía ha
de hacerlo únicamente en unidades de un cierto tamaño mínimo,
denominado cuanto de energía. Un oscilador puede ganar o perder
un número entero de cuantos y no fracciones de los mismos.
Además, cada uno de los osciladores posee un cuanto de energía
característico que es proporcional a su frecuencia. Un oscilador de
elevada frecuencia poseerá un cuanto más grande que otro de baja
frecuencia. Planck demostró que si se admitía esta hipótesis los
osciladores de baja frecuencia recibirían más energía por término
medio que los de elevada frecuencia.
Por ejemplo, si dos osciladores distintos interactúan y uno de
ellos tiene una frecuencia exactamente el doble de la del otro, su
cuanto será dos veces más grande que el del segundo. Si el
oscilador de alta frecuencia «deseara» dar algo de energía al de
menor frecuencia como resultado de una interacción, su cuanto
equivaldría exactamente a dos cuantos del oscilador de baja
frecuencia y al aceptar la energía aumentaría la suya en dos
cuantos. Supóngase ahora que el oscilador de baja frecuencia
«quiere» perder algo de energía. Uno de sus cuantos sólo vale la
mitad del cuanto requerido por el oscilador de elevada frecuencia,
por lo que éste no podrá aceptarla. El oscilador de baja frecuencia
no podrá ceder sólo un cuanto al de elevada frecuencia, sino que
habrá de dárselo a otro más compatible con él. Únicamente en el
caso de que el oscilador de baja frecuencia ceda dos (o un
múltiplo de dos) de sus cuantos podrá aceptarlos el de elevada
frecuencia. De todo ello se deduce que la probabilidad de que el
oscilador de alta frecuencia gane energía del de baja queda
reducido y, por tanto, ha de disminuir su energía media.
Se puede establecer una analogía imaginándose un conjunto
de personas que compran o venden diversos artículos y servicios.
Algunos miembros de esta comunidad desean participar en tran-
sacciones que requieren una o más monedas de cien pesetas, otros
sólo desean tratar con monedas de doscientas pesetas, otros con
monedas de quinientas pesetas..., y otros con billetes de diez mil
pesetas. Si los «grandes gastadores» desean tomarse un vaso de
leche o comprarse una novela policíaca habrán de pagar con
billetes de diez mil pesetas, ya que no tienen cambio. Por otra
parte, los artículos que ellos venden cuestan diez mil o múltiplo de
diez mil pesetas y como este tipo de transacciones no es muy
corriente (olvídese por un momento la inflación) a los grandes
gastadores no les quedará mucho dinero después de unas cuantas
operaciones. Los «poco gastadores» podrán participar en un gran
número de transacciones y podrán conseguir un capitalito.
Planck fue capaz de incorporar esta idea a la teoría y calcular
una función de distribución que estuviera en estrecho acuerdo con
los valores experimentales.
Planck no estaba muy entusiasmado con la idea de los cuantos
porque estaba en contradicción con algunas de sus creencias de
sentido común acerca de la energía. Un simple ejemplo ilustrará
lo que le molestaba.

Imagínese un oscilador consistente en un peso colgado de un


muelle (Fig. 7.4). Si se tira de él hacia abajo desplazándolo de su
posición de equilibrio un centímetro, por ejemplo, y luego se
suelta, empezará a oscilar con una frecuencia que depende del
peso y de la rigidez del muelle y con una amplitud de un
centímetro (esto es, vibrará entre dos posiciones extremas equidis-
tantes un centímetro de la posición de equilibrio). Si se estira dos
centímetros, la frecuencia seguirá siendo la misma, pero las
posiciones extremas equidistarán ahora dos centímetros de la
posición de equilibrio. La energía total (cinética más potencial)
asociada a las oscilaciones del segundo caso será cuatro veces
mayor que la del primero (debido a que la energía es proporcional
al cuadrado de la amplitud de las oscilaciones). Si cl peso se
estirara 1,2 cm, la energía sería 1,44 veces mayor que la del
primer caso.
Esto último es imposible según la hipótesis de Planck, ya que
la energía de las oscilaciones ha de ser exactamente un número
entero de veces la cantidad original. Si el peso se estirara una
distancia igual a 1,4142135...0, la energía de la oscilación
sería el doble de la original ,y estaría permitido. Las amplitudes
comprendidas entre 1 y V2 cm no estarían permitidas. Las
amplitudes comprendidas entre V2 y 1,7320508...0 cm tampoco
lo estarían, pero sí una que fuera exactamente \/3. Las amplitudes
comprendidas entre V3 y 2 (V4) tampoco estarían
permitidas, pero sí una que fuera exactamente 2 cm. Y así
sucesivamente.
Planck sabía que esto no era cierto a escala macroscópica y no
veía la razón de por qué habría de serlo a escala molecular. Pasó
mucho tiempo intentando encontrar otra forma de eliminar la
catástrofe del ultravioleta sin tener que introducir el concepto de
cuanto, pero fue en vano.
Actualmente puede demostrarse que la idea de los cuantos no
está en contradicción con los hechos observados a gran escala.
Para comprenderlo hay que volver a la relación que existe entre el
tamaño de un cuanto y la frecuencia del oscilador. El tamaño de
aquél es proporcional a la frecuencia de éste pero la constante de
proporcionalidad —la denominada constante de Planck— es un
número tan pequeñísimo (del orden de 6,6 .10-34 julios • s) que un
cuanto de energía del muelle es una fracción infinitesimal de su
energía total. Por consiguiente, la adición de unos pocos cuantos
al enorme número requerido para que el muelle oscile con una
amplitud de 1 cm se traduce en un cambio tan minúsculo de la
amplitud permitida que resulta imposible reconocer que existieran
cambios no permitidos más pequeños aún. Para todos los propósitos
«prácticos» podrá decirse que las amplitudes permitidas varían
continuamente. Se trata de un ejemplo de la idea expresada
anteriormente y representada en la figura 7.1, según la cual los
resultados que se obtienen con la Teoría Cuántica para los objetos
macroscópicos son indistinguibles de los obtenidos con la Teoría
Clásica. La Teoría Cuántica ofrece resultados completamente
distintos y correctos en el caso de los osciladores atómicos. Lo que
falla de la Teoría Clásica es el intento de aplicar el sentido común
macroscópico a los fenómenos submicroscópicos.
Planck determinó el valor de su constante, representada por h,
comparando directamente su teoría con las mediciones experi-
mentales del espectro de la radiación cavitaria y por resolver el
problema de la radiación del cuerpo negro recibió el primer
Premio Nobel de Física de la Historia.

El efecto fotoeléctrico

Este fenómeno fue advertido por primera vez por Heinrich


Hertz en 1887 durante el transcurso de sus experimentos de
comprobación de la teoría de Maxwell sobre la radiación electro-
magnética. Esencialmente consiste en la creación de una corriente
eléctrica entre dos objetos situados en el vacío y no conectados
entre sí cuando se ilumina uno de ellos, tal como se representa
esquemáticamente en la figura 7.5. Una de las placas, llamada
fotocátodo, se conecta al polo negativo de una batería, y la otra,
llamada ánodo, se conecta al polo positivo. Si, y sólo si, se ilumina
el fotocátodo, el medidor de corriente pone de manifiesto la
aparición de un flujo. Diferentes experimentos prueban que la
corriente eléctrica originada entre las dos placas consiste en
corpúsculos materiales de carga negativa que surgen del fotocátodo y
aceleran hacia el ánodo. Se trata de electrones, descubiertos en
1897 por el físico inglés J. J. Thomson, y en el efecto fotoeléctrico
se denominan fotoelectrones. Éste se emplea en diferentes disposi-
tivos como abridores automáticos de puertas, rastreos sonoros,
obturadores de cámaras, alarmas anti-robo, detectores y medidores
de cargas y niveles luminosos, etc.
La teoría electromagnética clásica de la luz puede explicar
cualitativamente el efecto fotoeléctrico. Como ya se ha discutido
en el capítulo 6, una onda electromagnética consiste en la propa-
gación de campos eléctricos y magnéticos oscilantes. El campo
eléctrico produce la oscilación del electrón confiriéndole la suficiente
energía, si la amplitud de onda es lo bastante grande, para romper
su enlace químico con la superficie y abandonarla al aplicar un
voltaje.
Cuando se estudió por primera vez el efecto fotoeléctrico no
fue posible explicar algunos resultados aparentemente paradójicos.
Algunos colores, cualquiera que fuera su intensidad, no provocaban
el efecto al usar como fotocátodos ciertos materiales mientras que
otros sí lo producían aunque su intensidad fuera muy pequeña. Por
Figura 7.5.—Diagrama del efecto fotoeléctrico. A, ánodo; P, fotocátodo; M, medidor
de corriente; G, bulbo de vidrio con vacío interno.

ejemplo, la luz amarilla muy brillante no tenía efecto sobre el


cobre y sí la luz ultravioleta de débil intensidad. (La condición de
la superficie también influía y algunos experimentos daban resul-
tados inconsistentes.)
Puede visualizarse esta paradoja imaginándose a las olas
rompiendo en una playa y depositando en tierra los guijarros,
maderos y demás detritos que arrastran. ¡Es como si en ciertas
costas y en determinados días las olas que tuvieran las crestas
muy separadas no movieran un solo guijarro mientras que las olas
que tuvieran las crestas muy juntas, simples rizaduras, pudieran
arrojarlos a la playa!
Einstein propuso en 1905, el mismo año en que publicó su
primer trabajo sobre la Teoría especial de la Relatividad e hizo
otras destacadas contribuciones, una teoría del efecto fotoeléctrico.
La calificó de heurística porque, aunque no podía justificarse con
los principios fundamentales aceptados, parecía funcionar.
Utilizando la hipótesis cuántica de Planck y elaborándola,
propuso que la energía luminosa era transportada en forma de
paquetes o haces de cuantos de energía, manteniendo al mismo
tiempo la onda como mecanismo de transporte y sugirió el
nombre especial de fotón para un cuanto de luz. La energía de
cada fotón dependía del color de la luz y más concretamente de su
frecuencia, v. (Recuérdese que, según la teoría ondulatoria de la
luz, una onda luminosa se caracteriza por la distancia entre dos
crestas, la longitud de onda, X, y el número de veces que oscila
por segundo, su frecuencia. Recuérdese también que el producto
de la longitud de onda por la frecuencia es la velocidad de la luz, 300.
000 km• s-'). Si se usa la constante de Planck, la energía de un
fotón, E, es igual a hv.
Si la superficie absorbe energía luminosa habrá de aceptar
fotones enteros y no fracciones de los mismos. En realidad quien
acepta la energía fotónica son los electrones superficiales. Si un
fotón dado comunica al electrón una cantidad de energía superior
a la de su energía de enlace podrá abandonar la superficie pero si
le comunica una cantidad menor no podrá escaparse sino que
simplemente «serpenteará» por el interior del sólido y acabará
disipando la energía adquirida. En general no es posible que los
electrones almacenen la energía de sucesivas absorciones fotónicas:
o abandonan la superficie o disipan la energía antes de que
absorban un nuevo fotón. Si la energía del fotón absorbido es
mayor que la de enlace, el exceso aparecerá en forma de energía
cinética del fotoelectrón; esto es, el valor de la energía cinética
será proporcional al exceso de la energía del fotón.
La teoría de Einstein predecía que si se realizaba un experimento
para medir la energía cinética máxima de los fotoelectrones al
emerger de la superficie y se representaba en una gráfica en
función de la frecuencia de la luz, saldría una línea recta partiendo
de una frecuencia límite dada según las características materiales
del fotocátodo y de las condiciones de la superficie. También
predijo que la pendiente (inclinación) de la línea recta sería
exactamente igual a la constante de Planck dada en unidades
apropiadas. Nueve años más tarde, en 1914, el físico americano
Robert A. Millikan publicó la primera de una serie de mediciones
que comprobaban la teoría de Einstein y demostraban que podía
emplearse el efecto fotoeléctrico para calcular la constante de
Planck independientemente del problema de la radiación del
cuerpo negro. Einstein recibió el Premio Nobel por el análisis del
efecto fotoeléctrico (y no por la Teoría de la Relatividad) y Mi-
llikan por los estudios experimentales sobre el mismo.
La hipótesis del fotón acarrea determinadas consecuencias en
relación con la naturaleza de la luz que no se esperaban según la
Figura 7.6.—Predicción de Einstein de la relación entre la energía máxima de los
foloelectrones y la frecuencia luminosa. KE, energía cinética máxima de los fotoelec-
trones; u, frecuencia de la luz incidente; A, B, datos de dos materiales diferentes; Thr,
frecuencia límite,

Teoría Electromagnética. En primer lugar, era necesario considerar


a los electrones como si fueran geométricamente compactos; esto
es, los electrones se desplazan como balas y no como ondas.
Además, la energía de un solo fotón se dispersaría por un frente
de onda con un diámetro de varios centímetros, o de incluso
varios metros. Toda la energía contenida en el frente de onda del
fotón absorbido tendría que concentrarse instantáneamente en el
lugar del electrón, lo que estaba prohibido por la Teoría de la
Relatividad, dado que la energía del fotón tendría que viajar más
rápidamente que la velocidad de la luz. Einstein insistía que el
fotón tendría que absorberse en un punto concreto y, por consi-
guiente, habría de ser un paquete de energía muy concentrada.
De hecho existe otra prueba en favor de que la luz ha de
absorberse según la hipótesis del fotón. Se trata de la granulación
de las fotografías subexpuestas. Al exponer un negativo fotográfico
durante un período de tiempo apropiado se obtendrá una copia en
positivo. Si el negativo se expone a una pequeña cantidad de luz,
la fotografía sólo mostrará un modelo de unos pocos puntos
irreconocible. Aumentando paulatinamente el tiempo de exposición
en sucesivas impresiones, los puntos se agruparán estadísticamente
y comenzarán a bosquejar una imagen reconocible. Al aumentar
el tiempo de exposición se irá acumulando un gran número de
Figura 7.7.—Granulación y estadistica del ennegrecimiento de las imágenes fotográficas.
El número de fotones necesarios para reproducir la misma imagen con un grado
creciente de detalle es desde a) hasta f) 3.000, 12.000, 93.000, 760.000, 3.600.000 y
28.000.000, respectivamente. (Cortesía del Dr. Albert Rose.)

puntos, obteniéndose la imagen definitiva, como se muestra en la


figura 7.7. Cada punto representa la absorción de un fotón en un
punto específico, confirmando que la energía fotónica está geomé-
tricamente concentrada.
Una demostración más contundente de esta naturaleza parti-
culada de la luz viene dada por el efecto Compton. Si se bombardea
un chorro de electrones con un haz de rayos X (una radiación
electromagnética de longitud de onda muy corta) se encuentra que
ambos salen «rebotados» y como consecuencia del encuentro
aumenta la longitud de onda de los rayos X (y, por tanto,
disminuyen de frecuencia), lo que significa que disminuye la
energía de los fotones. Es como si un fotón dado chocara elástica-
mente con un electrón, lo mismo que una colisión entre bolas de
billar. Incluso puede calcularse el momento de los fotones (de
acuerdo con una fórmula que se dará más adelante) y demostrar
que, como en cualquier choque elástico, se conservan tanto el
momento como la energía total de las partículas que chocan.
Sin embargo, las pruebas en favor de la naturaleza ondulatoria
de la luz son aplastantes: fenómenos de interferencia (cuino se
pone de manifiesto en las burbujas de jabón), de difracción (bien
visible por la ausencia de bordes netos en las sombras y en el
comportamiento de las rejillas de difracción), fenómenos de pola-
rización (que demuestran que las ondas luminosas vibran perpen-
dicularmente a la dirección de propagación), el hecho de que la
luz ordinaria viaje más despacio en el vidrio que en el vacío y el
éxito impresionante y poder unificador de la teoría electromagnética
de Maxwell acerca de la luz. Todos estos fenómenos se comprenden
y explican perfectamente bien de acuerdo con la teoría ondulatoria
de la luz.
Los físicos de principios de siglo estaban enfrentados, por
tanto, a un dilema. En determinados experimentos, sobre todo los
que se referían a la absorción o emisión de luz, la hipótesis del
fotón funcionaba muy bien. En otros, principalmente los que
tratan de la propagación de la luz, la hipótesis ondulatoria es muy
adecuada. Podría decirse de forma jocosa que los experimentos
realizados en los días pares de la semana apoyaban la hipóte-
sis particulada; los que se hacían en días impares apoyaban la
tesis ondulatoria, siendo necesario rogar el consejo divino el sép-
timo día.
Finalmente, se llegó a caer en la cuenta de la naturaleza dual
de la luz, ya que podía considerarse de naturaleza particulada u
ondulatoria dependiendo de los detalles de un experimento concreto
y de su interpretación. Las propiedades particuladas y ondulatorias
son aspectos diferentes de la «verdadera» naturaleza de la luz. En
realidad unas y otras están íntimamente relacionadas entre sí.
Para calcular la energía de un fotón (E h • y ) es necesario
emplear la frecuencia, una propiedad ondulatoria. De igual modo
hay que emplear la longitud de onda para calcular el momento,
una propiedad de las partículas.
El átomo nucleado y los espectros atómicos
La palabra átomo literalmente significa indivisible. A las ideas
atomistas del pensamiento occidental se les puede seguir la pista
hasta hace unos veinticinco siglos, época en que los autores
griegos Leucipo y Demócrito consideraron que una porción de
materia podía dividirse en fragmentos cada vez más pequeños
hasta encontrar finalmente unos que no podían seguirse dividiendo
sino que eran impenetrables e indivisibles. El poeta romano
Lucrecio expresó esta idea en un extenso poema sobre la filosofía
epicúrea unos quinientos años después. En estas primeras aprecia-
ciones sólo había cuatro tipos de átomos diferentes, asociados a
las cuatro sustancias primas aristotélicas. A partir de los trabajos
de 1808 del químico británico John Dalton llegó a reconocerse
con el tiempo que existía cierto número de sustancias elementales,
cada una de las cuales con su propia clase de átomo, probablemente
con formas peculiares y con «ganchos y ojos» con los que unirse
entre sí para formar las moléculas. Una molécula se define como
la porción más pequeña posible de una sustancia (sin tener que ser
necesariamente una sustancia elemental). Por ejemplo, una molécu-
la de agua se compone de dos átomos de hidrógeno y uno de
oxígeno. Las sustancias que no son elementales se denominan
compuestos. Aunque éstos pueden descomponerse en elementos y
las moléculas pueden separarse en sus átomos constituyentes,
inicialmente se consideraba que los elementos y sus átomos no
podían descomponerse más.
Los conceptos de átomo y molécula condujeron a la teoría
cinético-molecular de la materia y al reconocimiento de que la
Química es esencialmente una rama de la Física. Durante el siglo
xix se pudo estimar el tamaño de los átomos y moléculas. Los
átomos tienen un diámetro de unos cuantos angstroms. (Un angs-
trom es una unidad de longitud muy pequeña que equivale a 10-8
centímetros.) Las moléculas de muchas sustancias sólo tienen uno
o unos pocos átomos; por el contrario, las biomoléculas pueden
contener cientos o incluso muchos miles de átomos. Los átomos
de las moléculas en los sólidos se ejercen mutuamente fuerzas de
atracción que superan sus movimientos térmicos aleatorios, unién-
dose entre ellas. Es posible establecer una analogía grosera aunque
útil entre las fuerzas de enlace y «muelles elásticos» que conectan
unos átomos a otros (en lugar de los ganchos y ojos a los que se
ha aludido anteriormente) aunque es evidente que la forma real de
un enlace ha de ser distinta a esta imagen.
Poco después de las investigaciones de Dalton se supo que la
materia tenía propiedades eléctricas. La comprobación definitiva
de la existencia del electrón en 1897 confirmó que los propios
átomos tienen una estructura eléctrica. En realidad hacía ciento
cincuenta años el científico serbio Boscovich había razonado
sobre bases principalmente metafísicas que los átomos .no podían
ser los entes compactos e impenetrables de la concepción original,
sino que debían poseer una estructura espacial.
Particular importancia en el conocimiento de la estructura
interna de los átomos tuvo el estudio de los espectros atómicos
llevado a cabo de forma precisa durante el siglo xix. En determi-
nadas condiciones puede conseguirse que cualquier sustancia emita
luz de distintos colores. Usando dispositivos apropiados, tales
como prismas, la luz emitida puede descomponerse en sus colores
constituyentes, su espectro, como se representa en la figura 7.8.

Figura 7.8.—Dispersión de la luz en su espectro. La luz procedente de una fuente es


dispersada por el prisma en un espectro de colores (frecuencias) que puede registrarse
en una película fotográfica.

Hay varios procedimientos para conseguir que una sustancia


emita luz: puede excitarse térmicamente calentándola a la llama,
o eléctricamente haciendo pasar una corriente de alto voltaje
cuando se encuentra en estado gaseoso, o puede iluminarse con
otro tipo de luz para hacerla fluorescer. Al estudiar el espectro de
los elementos, que son las sustancias más simples, se observa que
son bastante complejos, aunque en principio pueden estudiarse
con ayuda de la teoría electromagnética de la luz.
Corno ya se ha indicado al discutir la radiación cavitaria, se
puede considerar que cada uno de los átomos posee cierto número
de osciladores eléctricos que vibran con diferentes frecuencias
características. Al moverse de diferentes maneras, que implican la
transformación de la energía térmica o eléctrica en energía mecá-
nica, radiarán ondas electromagnéticas cuya frecuencia será ca-
racterística de cada tipo de oscilador. El número de colores
diferentes del espectro de una sustancia se corresponde con los
distintos tipos de osciladores «excitados» presentes en el átomo
y la intensidad relativa de los colores dependerá del número de
osciladores de un tipo concreto y de la efectividad con que se
excitan. El estudio del espectro más simple que se conoce, el
del átomo de hidrógeno, llevó a la conclusión de que la estruc-
tura de este elemento es «tan compleja corno la de un gran
piano».
A finales del siglo XIX y principios del xx los experimentos
empezaron a revelar determinadas informaciones acerca de la
estructura del átomo. Se demostró que los átomos poseían cargas
eléctricas tanto positivas como negativas. Como ya se ha indicado
al discutir el efecto fotoeléctrico, las cargas negativas son electrones
que se «separaban» de los átomos. Su descubrimiento por J. J.
Thomson sugirió que el átomo podía considerarse como un pastel
de pasas. Sin embargo, el neozelandés Ernest Rutherford demostró,
trabajando en Inglaterra, que el átomo parecía estar fundamental-
mente formado por espacio vacío y con la mayoría de su masa
concentrada en el centro. Las propiedades químicas y cinético-
moleculares ponían de manifiesto, no obstante, que este espacio
aparentemente vacío era parte integrante del mismo.
Rutherford propuso el modelo de átomo que describen la
mayoría de los libros de divulgación sobre la estructura atómica:
la mayor parte de la masa del átomo se concentra en un volumen
muy pequeño en el centro, llamado núcleo y cargado positivamente.

Figura 7.9.—Modelo según Rutherford-Bohr-Sommerfeld del átomo de hidrógeno. N,


núcleo; e, electrón describiendo una órbita. Aunque ésta es bastante elíptica, el núcleo
se encuentra realmente en el centro, ya que, como demostraron Sommerfeld y otros,
diferentes fenómenos provocan la precesión —giro— de toda la órbita en torno al
centro.
Externo a él existe cierto número de partículas materiales llamadas
electrones portando cada una carga negativa. El número de éstos
es exactamente el mismo que el de cargas positivas del núcleo y
se mueven en torno a él describiendo órbitas elípticas iguales que
las de los planetas en torno al Sol, aunque la fuerza que desencadena
el movimiento sea eléctrica en vez de gravitatoria (capítulo 6).
Dicho con otras palabras, el átomo es como un sistema solar en
miniatura. Los diferentes tipos de átomos difieren únicamente en
la cantidad de masa y carga del núcleo y en los electrones. En el
caso del átomo de hidrógeno sólo hay un electrón girando en
torno al núcleo, en el helio hay dos, tres en el litio y así suce-
sivamente. En la figura 7.9 se representa el modelo del átomo de
hidrógeno.
Un serio inconveniente del modelo propuesto por Rutherford
consistía en que el átomo era inestable. El electrón acelera al
describir su órbita, ya que constantemente cambia de dirección.
Toda carga eléctrica acelerada ha de radiar energía según la
Teoría Electromagnética, con lo que al cabo del tiempo el electrón
describiría una espiral y caería al núcleo'. Los cálculos ponían de
manifiesto que esta «eventualidad» ocurriría cada 0,01 millonésimas
de segundo acompañándose de un destello luminoso. Ello no
ocurre en realidad. Además, el espectro calculado del destello no
se parece en nada al espectro emitido por los átomos de hidrógeno
excitados. Por consiguiente, el modelo propuesto originariamente
por Rutherford adolecía de graves inconvenientes.
A pesar de todos los problemas inherentes al modelo de
Rutherford, eran irrefutables las pruebas experimentales a favor
de que la mayor parte de la masa estaba concentrada en el núcleo.
El joven físico danés Niels Bohr, que trabajó con Rutherford en
1912, estaba muy impresionado por la idea de los cuantos de
Planck y Einstein y emprendió la tarea de modificar el modelo de
Rutherford tomándolas como base. Creía que el átomo tenía que
ser estable y que las órbitas electrónicas no podrían emitir radia-
En el capítulo 6 se ha descrito que las ondas electromagnéticas se forman por
vibraciones u oscilaciones de cargas eléctricas. Si se observa la órbita lateralmente se
verá oscilar al electrón de un lado a otro una distancia igual al diámetro orbital. Según
la Teoría Electromagnética, la propiedad fundamental del movimiento es el cambio
de la velocidad del electrón, ya sea debido a un cambio de rapidez, ya a un cambio de
dirección.
ciones pese a los requisitos de la Teoría Electromagnética. Ya que
los electrones de las diferentes órbitas tienen valores distintos de
la energía total, sólo estarían permitidas determinadas órbitas lo
mismo que sólo podían tener determinados valores permitidos los
osciladores considerados en el problema de la radiación del
cuerpo negro. Bohr propuso que un átomo sólo modificaría su
energía cuando uno de sus electrones pasara de una órbita a otra
de distinta energía. De esta forma el átomo emitiría una cantidad
de energía, un fotón por ejemplo, cuando uno de sus electrones
«saltara» de una órbita a otra de energía menor. También absor-
bería luz de una frecuencia dada sólo cuando los fotones con esa
frecuencia tuvieran la misma energía que la diferencia energética
existente entre los electrones de dos órbitas permitidas. Entonces
el electrón podría «saltar».
Al estudiar el espectro del átomo de hidrógeno obtenido
experimentalmente en conjunción con la ingeniosa idea de que
siempre que las dimensiones orbitales fueran lo suficientemente
grandes los conceptos cuánticos coincidirían con los clásicos,
propuso los postulados siguientes sobre la estructura atómica.
I. La mayoría de la masa atómica se concentra en el núcleo
positivamente cargado. Los electrones cargados negativa-
mente describen órbitas permitidas alrededor de aquél
debido a la influencia de su fuerza eléctrica atractiva.
Tales órbitas son estables porque no radian energía.
II. Existen reglas definidas para determinar qué órbitas concretas
están permitidas. El momento angular (una cantidad análoga
al momento lineal del movimiento rectilíneo) del electrón,
constante para una órbita dada, está relacionado con la
constante de Planck (más concretamente, el momento angular
es nh/2π, siendo n un número entero; en el caso de una
órbita circular, el momento angular, p, es mvr, siendo m
la masa del electrón, y su velocidad y r el radio de la
órbita). Las distintas órbitas permitidas se caracterizan por el
número n llamado número cuántico y h/2 π es el cuanto de
momento angular. Se dice que el momento angular está
cuantizado.
III. Un átomo sólo puede absorber o emitir radiación en forma
de fotones cuya energía corresponda a la diferencia de
energía existente entre las órbitas permitidas. La frecuencia
de esta radiación está relacionada con la diferencia energéti-
ca, E, de las órbitas por la ecuación de Einstein E = hv.

A partir de estos postulados y empleando los valores experi-


mentales de la masa y carga del electrón y la constante de Planck,
Bohr pudo calcular las energías y frecuencias permitidas del
espectro del átomo de hidrógeno. Los valores calculados concor-
daban con los medidos con un error inferior al 0,01 por 100.
Predijo además que debían existir algunas longitudes de onda
concretas en la región ultravioleta del espectro que aún no se
habían medido. Bohr calculó a partir de su teoría que el tamaño
de un átomo de hidrógeno en su estado basal (sin excitar) había de
ser de un angstrom, lo que estaba de acuerdo con las mediciones
experimentales.
Tal como ocurrió con la teoría de Newton del movimiento de
los planetas, al elaborar y perfeccionar la teoría de Bohr se
produjo un acuerdo todavía mejor entre los cálculos y las medi-
ciones experimentales. El físico alemán Arnold Sommerfeld intro-
dujo las órbitas elípticas y las correcciones requeridas por la
Teoría de la Relatividad en la masa del electrón debido a su gran
velocidad. Los físicos holandeses Samuel A. Goudsmit y George
E. Uhlenbeck consideraron que el electrón en sí mismo habría de
girar sobre su eje y que los efectos magnéticos resultantes tendrían
que contribuir a la energía total del electrón, haciendo posible que
en los años siguientes se pudieran explicar una serie de propiedades
magnéticas de la materia. Todas estas ideas introdujeron nuevos
números cuánticos adicionales al considerado por Bohr relacionados
con la forma elíptica de las órbitas, la orientación en el espacio
del plano de las mismas y el momento angular del espín (giro) del
2 Bohr empleó en realidad una serie de razonamientos más complejos, pero estos
postulados pueden inferirse de su trabajo y así es como generalmente se exponen al
presentar su modelo. Merece la pena indicar que, aunque las energías deducidas a
partir del modelo de Bohr son distintas de las supuestas por Planck en su análisis del
problema de la radiación del cuerpo negro, éste sigue siendo válido, ya que es
independiente de los detalles del modelo. Lo único que se requiere es que la energía
de los átomos u osciladores cambien de forma discreta. Einstein llevó a cabo más
tarde un estudio diferente y detenido del problema del cuerpo negro introduciendo la
idea de emisión estimulada de radiación en la que se basan los láseres. Sus resultados
fueron los mismos que los de Planck.
electrón. Por consiguiente, además de estar permitidas sólo las
órbitas de cierta energía, sólo eran posibles determinadas formas
elípticas, determinadas orientaciones espaciales de las mismas y,
puesto que el espín del electrón también estaba cuantizado, su
momento angular (que no ha de confundirse con el momento
angular orbital) sólo tenía un valor permitido con dos posibles
orientaciones de su eje de giro.
A pesar del extraordinario éxito y de la naturaleza seminal de
sus conceptos, la teoría de Bohr tenía varios inconvenientes serios.
Por un lado, sus postulados fundamentales eran totalmente arbi-
trarios y no podían deducirse de otra teoría existente, y, por otro,
había utilizado con mucha libertad las teorías clásicas disponibles.
Por ejemplo, no estaba justificado el supuesto de que la teoría
electromagnética de la radiación, que había probado su validez
para órbitas del tamaño de los centímetros (las comunicaciones
por radio se basan en la teoría electromagnética clásica), pudiera
aplicarse a órbitas de un angstrom. Además, hubo de introducirse
nuevos números cuánticos, una vez más sin una justificación
fundamental, a medida que era necesario.
¿Cuántos números cuánticos distintos se necesitarían? El número
cuántico de espín para el electrón ni siquiera era un número
entero, sino que valía 1 /2, y las mediciones experimentales de
determinadas características finas del espectro hacían concluir que
en algunas circunstancias otros números cuánticos también tenían
que ser fraccionarios, lo que no concordaba con la idea de que las
diferentes cantidades cuantizadas habrían de presentarse en paquetes
completos.
Los intentos de generalizar cuantitativamente estos conceptos a
los átomos que tuvieran más de un electrón se vieron obstaculi-
zados seriamente. Para el átomo de helio, con sólo dos electrones,
fallaban rotundamente. Parecía que era necesario introducir para
cada tipo distinto de átomo hipótesis nuevas y especiales.
La teoría de Bohr no respondía, ni siquiera vagamente, a
muchas cuestiones. Por ejemplo, aunque pudiera explicar frecuencias
concretas del espectro de un átomo particular, no decía nada
sobre el brillo o intensidad de la luz emitida a esas frecuencias.
Incluso la teoría predecía determinadas frecuencias que no se
habían observado nunca. Hubo que deducir unas normas llamadas
reglas de selección para predecir las frecuencias que podían obser-
varse y las que no y la teoría de Bohr no ofrecía ningún indicio
bueno o malo de la razón de las mismas. Resumiendo, la teoría de
Bohr se consideró incompleta o provisional.
Sin embargo, era tan grande el poder unificador de los conceptos
de Bohr, que aunque sólo fuera de forma cualitativa o scmicuanti-
tativa se podían aplicar a muchos problemas y áreas diferentes de
la Física y de la Química. En todos los cursos introductorios de
Bachillerato y Universidad, así como en los libros de divulgación
de la estructura atómica, se sigue discutiendo todavía el modelo
atómico de Bohr-Sommerfeld-Rutherford y, a pesar de todos sus
inconvenientes, es la descripción más sencilla del átomo que se
dispone.
Diez años después de que Bohr modificara el modelo de
átomo nucleado, el joven físico francés Louis de Broglie sugirió en
un apartado de su Tesis Doctoral una «razón» de los postulados
de Bohr. Reconociendo el significado de la equivalencia entre
masa y energía propuesta por la Teoría de la Relatividad indicó
que, dado que la masa y la luz eran formas de energía, podrían
describirse en los mismos términos. Ya que Einstein había demos-
trado en su análisis del efecto fotoeléctrico que la luz exhibía
propiedades de onda y partícula, también la materia tendría que
manifestar propiedades ondulatorias y corpusculares. Además, en
concordancia con la relación simétrica e íntima entre espacio y
tiempo demandada por la Teoría de la Relatividad, también
tendría que existir una relación de este tipo entre energía y
momento. De Broglie demostró a partir de la Teoría de la
Relatividad que el momento de un fotón podía obtenerse dividiendo
su energía por la velocidad de la luz en el vacío: p= hvlc. Como
para las ondas luminosas existe una relación entre la frecuencia y
la longitud de onda, a saber v = c/X, el momento del fotón ha de
ser igual a la constante de Planck dividida por la longitud de
onda, esto es, p h/X, fórmula mencionada en la discusión del
efecto fotoeléctrico de la sección anterior.
La relación se cumple tanto para la materia corno para la luz y
es particularmente válida para los electrones de un átomo. De
Broglie creía que la naturaleza ondulatoria de los electrones
determina la forma de desplazarse de un lugar a otro de igual
forma que la naturaleza ondulatoria de la luz determina la forma
de propagarse los fotones. Invirtiendo la relación entre longitud de
onda y momento empleó la velocidad del electrón (el momento es
masa por velocidad) para calcular su longitud de onda.
Dirigiendo su atención a las órbitas permitidas de un átomo
indicó que, siempre que un número entero de longitudes de onda
encajara exactamente en la circunferencia de una órbita cuando el
electrón circulara por ella bajo la «dirección» de su naturaleza
ondulatoria, la onda se reforzaría sustentándose a sí misma en un
patrón llamado modelo ondulatorio estacionario. Si en la órbita no
cupieran un número entero de longitudes de onda, las ondas de los
diferentes circuitos estarían fuera de fase y acabarían por destruir
todo el modelo ondulatorio, no siendo, por tanto, estable una
órbita de estas características. Estas ideas se ilustran en la figu-
ra 7.10.

Figura 7.10.—Ondas de De Broglie para una órbita circular. a) Ondas reforzadas.


b) Ondas no reforzadas o canceladas.

Es relativamente sencillo calcular la velocidad de un electrón


en función del radio r de una órbita circular. La condición de
ondas estacionarias simplemente significa nX = 27rr, siendo 2 mr
la longitud de la circunferencia y n un número entero. Usando su
relación entre longitud de onda y momento fue capaz de deducir
la regla del momento angular de Bohr para las órbitas permitidas (
segundo postulado de Bohr). Dicho con otras palabras, la razón
de que sólo estén permitidas en un átomo ciertas órbitas se debe a
que la naturaleza ondulatoria del electrón únicamente puede
establecer un patrón estable para ciertos valores. Para todos los
demás dicho patrón ondulatorio no puede estabilizarse.
Es cierto que la sola creación de una idea brillante no establece
un principio científico, pero, afortunadamente, unos pocos años
después diferentes investigadores trabajando independientemente
en Inglaterra, Alemania y América encontraron las pruebas expe-
rimentales de la naturaleza ondulatoria de los electrones. (Entre
los investigadores ingleses se encontraba G. P. Thomson, hijo de
J. J. Thomson, que una generación anterior había descubierto el
electrón.) La difracción es una de las propiedades fundamentales
de las ondas y los experimentadores habían desmostrado que los
electrones podían difractarse lo mismo que los rayos X. Al
difractar con cristales los electrones se puede medir su longitud de
onda. Si se mide la longitud de onda de un haz de electrones y se
compara con la calculada a partir de la velocidad del haz, la masa
del electrón y la hipótesis ondulatoria de De Broglie, se comprueba
que es exactamente la misma.
Como se ha puesto de manifiesto durante los siglos xix y xx,
los avances en un campo científico tienen frecuentemente efectos
impredecibles en otros. La posibilidad de realizar con electrones
experimentos de difracción (y también con neutrones, partículas
subatómicas con una masa mil ochocientas veces superior a la de
los electrones) se ha convertido en algo rutinario en los laboratorios
de todo el mundo que trabajan tanto en Ciencia fundamental
como aplicada. Los microscopios electrónicos que existen en
muchos centros de investigaciones biológicas y médicas se diseñan
de acuerdo con los principios de la Óptica ondulatoria y permiten
el estudio de los objetos demasiado pequeños para poderse ver
con los microscopios ordinarios (fotónicos).
La hipótesis ondulatoria de De Broglie tenía una aplicabilidad
más bien limitada al conocimiento detallado de la estructura
atómica tal como fue formulada. Rápidamente se extendió y
perfeccionó para proporcionar una nueva, completa, general y
poderosa teoría de la naturaleza de la materia, capaz de solucionar
los problemas y responder a las preguntas que no podía explicar la
teoría de Bohr. Además, las ramificaciones y consecuencias de
esta nueva teoría se han extendido prácticamente a todas las áreas
de la Ciencia y de la Filosofía que tratan del conocimiento de la
materia. Algunas de ellas se discutirán más adelante.
Teoría Cuántica, incertidumbre y probabilidad

La intuición significativa de De Broglie consistió en que la


materia, que igual que la luz era una forma de energía, pudiera
describirse en términos de la propagación de ondas, así como en
términos de partículas moviéndose bajo diversos tipos de influencias.
De la misma forma que Einstein había considerado que las ondas
luminosas determinaban la manera de propagarse los fotones de
un lugar a otro, las ondas de materia determinarían la forma de
desplazarse las partículas y más concretamente los electrones. En
lugar de emplear las leyes de Newton del movimiento u otros
principios basados en ellas para calcular el movimiento de las
partículas sería necesario usar otras leyes o ecuaciones para
determinar la propagación de las ondas de una parte a otra.

Figura 7.11.—Ondas unidimensionales.

El físico matemático austríaco Erwin Schródinger publicó en


1926 una teoría general de la propagación de las ondas de
materia como fruto de un seminario que se le había pedido que
diera sobre la hipótesis ondulatoria de De Broglie. La teoría de
Schródinger se refería a la propagación de las ondas en tres
dimensiones, mientras que la teoría de De Broglie era esencialmente
unidimensional (sólo consideraba ondas que viajaran por la cir-
cunferencia de una órbita y no radial ni perpendicularmente al
plano de ésta). Es muy sencillo imaginarse ondas unidimensionales:
las ondas originadas en las cuerdas de un violín, guitarra o piano
viajan a lo largo de la cuerda (Fig. 7.11); las ondas sonoras
producidas por un tubo de órgano o un corno viajan longitudinal-
mente por el tubo y no se consideran las que lo hacen en la
dirección perpendicular. Por otra parte, las ondas originadas en la
superficie de un tambor son bidimensionales transversales como
las que se representan en la figura 7.12. También lo son las ori-
ginadas en la superficie del agua al arrojar una piedra (figura 6.5).
Desde luego las que se oyen en los conciertos son tridimensionales.

Figura 7.12.—Ondas bidimensionales.

Las ondas de materia son afinadas por la Madre Naturaleza de


la misma forma que las de los instrumentos musicales o de los
auditorios son afinadas por sus diseñadores. La longitud de la
cuerda o del tubo de órgano, la superficie del tambor, la posición
de los diferentes pistones en los instrumentos de viento y de los
trastes en los instrumentos de cuerda, las dimensiones del audito-
rium, etc., determinan que resuenen ciertas longitudes de onda
fundamentales de cada instrumento. Todas ellas están implicadas
en las condiciones de contorno o de límite que pueden especificarse
matemáticamente. Además, la velocidad de propagación (la rapidez
con la que viaja la onda) determina las frecuencias que resonarán
para las condiciones de contorno específicas. El afinador del violín
o del piano controla la velocidad ajustando la tensión de la cuerda
para seleccionar la frecuencia resonante. (El violinista también
modifica las condiciones de contorno por «dignación».)
En el caso de las ondas de materia, de un electrón por ejemplo,
las condiciones de contorno están determinadas por el ambiente
en que se encuentra. Así, el entorno de un electrón en el interior
3 Las ondas son transversales o longitudinales según que la dirección de la
perturbación vibratoria sea perpendicular o paralela, respectivamente, a la dirección de
propagación. Las ondas que se propagan por el interior de los gases y líquidos son
longitudinales y las que lo hacen por los sólidos pueden ser transversales, longitudinales o una
combinación de ambas. Las ondas de una cuerda son transversales, como las luminosas; las
sonoras propagándose por el aire son longitudinales. Véase el capítulo 6 para una discusión de
las ondas luminosas.
de un átomo es distinto al de otro propagándose por el tubo de
imagen de un receptor de televisión. Las condiciones de contorno
en el primer caso son tridimensionales mientras que en el segundo
son unidimensionales. La velocidad de la onda material de un
electrón está determinada además por la energía potencial: en e]
interior de un átomo ésta depende de la atracción eléctrica del
núcleo y de la repulsión de todos los demás electrones y la energía
potencial en el tubo de imagen dependerá del voltaje aplicado al
mismo. Las ondas de materia que describan al electrón en el
interior de un átomo serán, por tanto, distintas de las que lo des-
criban en el tubo de imagen de una televisión. (Esto se corresponde
con el hecho de que el electrón de una órbita del modelo de Bohr
viaje con una trayectoria muy distinta con la que lo haría por un
tubo de imagen, ya que distintas disposiciones o fuerzas actúan
sobre él.)
Pese a todas las posibles variaciones en las condiciones de
contorno y velocidades de propagación, para cada tipo de fenómeno
ondulatorio concreto (cuerdas vibrantes, membranas, ondas sonoras,
de la superficie del agua, luminosas, de materia, etc.) existe una
ecuación particular que permite calcular la perturbación ondulatoria
en cualquier punto e instante y se llama ecuación de onda. Su
estructura matemática es algo diferente dependiendo del tipo de
fenómeno, esto es, la expresión matemática que describe las ondas
sonoras es distinta si se propagan por una cuerda o en un medio
tridimensional y también es distinta de la que describe las ondas
electromagnéticas.
Schródinger formuló una ecuación de onda específica para las
ondas de materia denominada ecuación de onda de Schródinger y
que equivale para las ondas de materia lo que las leyes de Newton
para las partículas en movimiento. Desgraciadamente es imposible
dibujar unas pocas gráficas sencillas para representar el significado
fundamental de la ecuación de Schródinger. Esta ecuación y sus
soluciones implican el uso de números complejos4. Por tanto, la
Los números complejos contienen la raíz cuadrada de —I y poseen algunas
propiedades de los vectores bidimensionales. Discutir los números complejos y su
significado sería largo y se apartaría de los objetivos principales de esta introducción a
la Física Cuántica. Baste decir que los números complejos son extraordinariamente
útiles para describir apropiadamente desde el punto de vista matemático muchos
fenómenos.
descripción de las ondas de materia no se puede representar
fácilmente por el tipo de gráficas empleadas habitualmente para
otras ondas o por fotografías, aunque sí pueden definirse perfecta-
mente mediante expresiones matemáticas apropiadas.
Como ya se ha dicho, las soluciones de la ecuación de onda de
Schródinger están determinadas por las diferentes condiciones de
contorno y la energía potencial de una situación concreta. Estas
soluciones que satisfacen la ecuación de Schródinger consisten en
ondas estacionarias tridimensionales y para el caso de los electrones
de los átomos definen su localización y sustituyen a las «órbitas»
de la teoría de Bohr. En el lenguaje corriente se siguen llamando
órbitas, pero conceptualmente son bastante distintas a las órbitas
de Bohr. Otro término empleado en lugar de órbitas es el de
envolturas u orbitales y se dice que los electrones se encuentran en
envolturas en torno al núcleo, incluso no se distinguen geométri-
camente unas de otras, sino que se solapan y entrelazan mutua-
mente. De forma figurada, podría decirse que los electrones se
encuentran en «nubes» alrededor del núcleo.
Antes de aplicar la teoría de Schródinger a la física del átomo
es necesario que se definan algunos conceptos fundamentales del
movimiento ondulatorio. Las propiedades básicas de una partícula
en movimiento son posición, velocidad, aceleración, masa, energía,
etcétera. En lo que se refiere al movimiento de una onda, algunos
de los conceptos básicos son amplitud, fase, velocidad de propaga-
ción e interferencia (véase figura 7.13). Si se considera a una onda
como la propagación o dispersión de una perturbación (pulsación)
por un medio o como la perturbación de un campo electromagné-
tico, la amplitud es el valor máximo de la oscilación de un pun-
to del espacio al transmitirse la onda. La perturbación de un punto
dado aumenta en una dirección determinada desde cero al valor
máximo, disminuye de nuevo hasta cero, invierte la dirección y
aumenta otra vez hasta el valor máximo, y así sucesivamente. El
ciclo de perturbación de un punto en el caso de una onda esta-
cionaria crece y mengua repetidamente y en un instante dado la
perturbación de dicho punto puede estar en la fase máxima, en
la mínima o en una intermedia.
La fase de una onda se refiere a la magnitud de la perturbación
que experimenta un punto concreto del espacio en un instante
particular. La perturbación de los diferentes puntos del espacio
Figura 7.13.—Características de las ondas.

sigue también un ciclo que no tiene por qué coincidir necesaria-


mente con el del primero.
Los diferentes puntos del espacio afectados por la onda actúan
en realidad como los osciladores armónicos elementales discutidos
anteriormente. En un instante dado los puntos sucesivos (osciladores) a
lo largo de la onda poseen fases que varían en una dirección
desde cero hasta la perturbación máxima, vuelven a cero, varían
hasta el máximo en la dirección opuesta, etc. Las fases cambian
de forma progresiva en la dirección de propagación al ir transcu-
rriendo el tiempo, y la rapidez con la que se transmiten esos
cambios se denomina velocidad de propagación.
En un medio puede haber en ocasiones más de una perturbación y,
dependiendo de las circunstancias, la perturbación resultante
puede ser muy grande. Las perturbaciones provocadas por las
ondas individuales se suman unas a otras y si tienen la misma
amplitud y frecuencia tiene lugar el fenómeno llamado interferen-
cia. La perturbación resultante será una onda con la misma longi-
tud de onda y frecuencia cuya amplitud y fase dependerán de las
amplitudes y fases respectivas de las ondas individuales (figu-
ra 7.14). Si todas las ondas individuales tienen las mismas fases en
un punto e instante dados, la onda resultante tendrá una amplitud
igual a la suma de las amplitudes, pudiendo ser bastante grande.
Se dice que hay una interferencia constructiva.
También es posible que las ondas individuales tengan unas
relaciones de fase en un punto concreto tales que cuando la
perturbación de una de ellas se encuentre en su valor máximo en
una dirección, la de otra se encuentre en el máximo de la
dirección opuesta, con el resultado de que las dos se eliminan
Figura 7.14.—Interferencia de ondas. Las ondas A y B interfieren constructivamente
para originar la onda C y las ondas E más D interfieren destructivamente y no
originan onda alguna.

completamente y desaparece la perturbación como si no hubiera


ninguna onda. Este fenómeno se llama interferencia destructiva.
Se trata de casos extremos, ya que pueden existir diferentes
grados de interferencias destructivas y constructivas entre varias
ondas. En las figuras 7.13 y 7.14 se representan estos conceptos
para el caso de ondas que implican números reales. Las ideas son
las mismas para las ondas de materia aunque no son tan sencillas
de representar ya que implican números complejos. La interferencia
explica la aparición de colores en las burbujas de jabón o en las
películas grasientas sobre la superficie de agua y es el fundamento
del interferómetro de Michelson empleado en sus experimentos
del éter.
La energía transmitida por una perturbación ondulatoria está
relacionada con su amplitud y tanto para las ondas luminosas
como para las sonoras la energía transportada por una onda
depende del cuadrado de aquélla.
Al continuar discutiendo las ondas de Schródinger, las ondas
de materia, surge cierto número de cuestiones: ¿Transporta ener-
gía la onda? (recuérdese que según la Teoría de la Relatividad
la materia es una forma de energía). ¿Cuál es el medio que por-
ta la onda? ¿Qué tipo de onda es la de Schródinger? Un postulado
de la teoría es ¡que se trata de una onda de probabilidad! La onda
«lleva» la probabilidad de encontrar el electrón en un punto
específico del espacio. (Esta interpretación fue adelantada por
primera vez por el físico alemán Max Born. El mismo Schródinger
creía que el electrón de un átomo estaba dispersado por la onda
de alguna manera.) Por analogía con las ondas electromagnéticas
se postuló que esta probabilidad es proporcional al «cuadrado del
módulo» de la amplitud. (Es indispensable decir «cuadrado del
módulo» en vez de cuadrado de la amplitud porque la onda en
cuestión está descrita por una función compleja. El módulo de los
números complejos es una característica análoga a la magnitud de
un vector.)
Aunque la onda en sí pueda tener amplitud compleja, la
probabilidad calculada a partir de ella es un número «real» (
ordinario), de manera que para casos concretos se pueden repre-
sentar gráficamente las probabilidades calculadas.
Aplicando su ecuación de onda al átomo de hidrógeno y
usando apropiadamente la energía potencial y las condiciones de
contorno, Schródinger demostró que únicamente para ciertos valores
discretos de la energía podían obtenerse valores aceptables, una
idea similar a la de De Broglie en relación con la adecuación de
ciertas ondas a las órbitas permitidas. Los valores discretos de
energía eran exactamente los mismos que Niels Bohr había calcu-
lado anteriormente. Para un valor de la energía dado es posible
calcular las probabilidades reales de encontrar al electrón. La ór-
bita asociada al electrón no está definida netamente por una cir-
cunferencia o una elipse sino más bien por una «nube de densidad
de probabilidad» extendida por una región del espacio de tamaño
considerable (Fig. 7.15). Donde la nube sea más densa habrá más
probabilidad de encontrar el electrón. Sucede que la nube siempre
Figura 7.15.—Densidad de propabilidad en el átomo de hidrógeno. a) Diversas
«órbitas» tridimensionales según los valores de los números cuánticos. b) Representación
gráfica de la densidad de probabilidad en función del radio. Las líneas discontinuas
indican los radios de las órbitas de Bohr. (Reproducida con penniso de Robert Eisberg
y Robert Resnick, Quantum Physics. Nueva York: John Wiley & Sons, 1974.)

es más densa a una distancia del núcleo igual al radio calculado


según la teoría de Bohr, cosa que no sorprendió porque dicha
teoría podía aplicarse bastante bien al átomo de hidrógeno.
Lo que es completamente diferente a la teoría de Bohr es la
extensión de la nube. Así, existe una pequeña probabilidad de que
el electrón pueda encontrarse a la derecha del núcleo y, lo que es
más sorprendente aún, también existe una pequeñísima probabilidad
de que el electrón pueda encontrarse a un kilómetro del núcleo.
Esta probabilidad es ciertamente muy pequeña, menor de uno en
mil millones, y aunque para todos los propósitos prácticos es
esencialmente cero, desde el punto de vista matemático no lo es
en principio. Además, como se representa en la figura 7.15, las
nubes asociadas a los posibles niveles de energía tienen frecuente-
mente más de una región en la que la probabilidad es mayor que
en áreas inmediatamente adyacentes.
La teoría de Schródinger soluciona el problema de la estabilidad
de las órbitas que Bohr hubo de soslayar con el primero de sus
postulados. Con las ondas de Schródinger se puede calcular la
probabilidad de encontrar una carga eléctrica acelerando u oscilando
en el interior de un átomo para un electrón con un nivel de
energía dado. La carga eléctrica oscilante neta es cero y también
lo será la radiación de energía electromagnética. La órbita, por
consiguiente, será energéticamente estable.
También puede comprenderse la razón de que se emita radia-
ción cuando un electrón de un nivel energético alto pasa a otro
bajo. Podrá decirse que durante el tiempo que tiene lugar esta
transición, el electrón se encuentra simultáneamente en ambos
estados energéticos; esto es, las ondas de probabilidad asociadas a
dichos estados interfieren mutuamente. Cuando se calcula en estas
condiciones cuál es la probabilidad de encontrar una carga eléctrica
oscilante, generalmente se halla que tiene un valor mayor de cero
aunque oscila con la frecuencia correspondiente a la diferencia de
frecuencias de las dos ondas, frecuencia que es exactamente igual a
la que se obtendría a partir del tercer postulado especial de
Bohr. Este cálculo simplemente expresa la idea de que la frecuencia
de cada una de las ondas correspondientes a los dos estados de
energía se «baten mutuamente» 5 . Las fórmulas matemáticas per-
miten calcular la fuerza o intensidad (la amplitud, en realidad) de
El «golpeteo» entre ondas con frecuencias ligeramente distinta% se denitiestia de
forma muy simple haciendo sonar simultáneamente dos diapasones de lin mutuas
parecidas. El sonido resultante oscilará en intensidad con una heeticni id de batido
igual a las diferencias de frecuencias de los dos diapasones I . n las radios mal
sintonizadas se aprecia un fenómeno parecido al recibir a la Ye/ dos C111100110% 1.011
frecuencias de emisión similares. Se oye un silbido muy molesto cuya illItlell(111 es
igual a la diferencia de frecuencias de las emisoras. Lu mayona de las sintonitadores
de las radios usan el heterodino.
las oscilaciones eléctricas, pudiendo determinarse el brillo de las
líneas espectrales emitidas. Explican, además, las diferentes reglas
de selección que gobiernan las transiciones que pueden ocurrir
entre los distintos niveles de energía y que contribuyen con sus
frecuencias al espectro observado. Todo ello es mucho más de lo
que podía lograr la teoría de Bohr.
Los diferentes números cuánticos que se introdujeron de forma
arbitraria en la antigua teoría surgen de forma natural a partir de
ciertos requisitos que se imponen a las condiciones de contorno y
de la simetría intrínseca al tema. En la teoría de Schrüdinger
existen tres números cuánticos asociados a las tres dimensiones
del espacio. (El cuarto número, que generalmente se refiere al
espín del electrón, como se discutirá más adelante, no está implícito
en la teoría.) Los números cuánticos representan determinadas
cantidades que se conservan en casos particulares y están cuanti-
zadas. Aunque los números cuánticos sean enteros, no se refieren
al número de paquetes o unidades de la cantidad conservada sino
que sirven para calcular los valores discretos de la misma. En el
caso del átomo de hidrógeno dichas cantidades son la energía
total, la magnitud del momento angular del electrón y un compo-
nente del vector que representa el momento angular'. Incluso
puede demostrarse que para las ondas con números cuánticos
altos las regiones de gran probabilidad empiezan a parecerse
crecientemente a las órbitas en sentido clásico, lo que ilustra la
idea de que la Física Cuántica da esencialmente los mismos
resultados que la Física Clásica en el dominio en que ésta ha
probado ser válida, como ya se ha discutido al comienzo de este
capítulo.
En la teoría de la mecánica ondulatoria de Sehródinger pueden
introducirse correcciones que tengan en cuenta los efectos magné-
ticos de la energía debida al espín del electrón y llevar a cabo
cálculos refinados que no eran posibles en la teoría de Bohr, ni
siquiera con los perfeccionamientos de Sominerfeld y otros. Tam-
bién se han desarrollado las técnicas matemáticas que permiten
6 El momento angular, lo mismo que el momento lineal ordinario, es una cantidad
vectorial. Como puede inferirse de la figura 7.3 relacionada con la discusión de
vectores del capítulo 3, cualquier vector tridimensional puede considerarse como la
suma de tres vectores mutuamente perpendiculares llamados componentes.
aplicar la teoría de Schredinger a todos los átomos, consiguiéndose
una excelente concordancia cuantitativa con los experimentos,
algo que fallaba miserablemente en lo relativo a los cálculos
basados en la teoría de Bohr. (Recientemente se ha indicado la
forma en que podría aplicarse la teoría de Bohr a algunos de estos
casos, pero únicamente después que la teoría de Schródinger
mostrara la respuesta correcta.)
Esta teoría es útil y poderosa y aunque presenta ciertas limita-
ciones, al contrario de lo que ocurría con la de Bohr, puede
trabajarse con ellas. La más importante desde el punto de vista
fundamental y conceptual es que la ecuación de onda se Schródinger
no satisface el requisito impuesto por la Teoría de la Relatividad
de que su forma ha de ser la misma para cualquier observador.
Los intentos de modificarla para que se ajustara a este requisito
han tenido un éxito limitado. En realidad ésta es la razón de que
la teoría de Schródinger no sea satisfactoria a la hora de tratar el
espín del electrón y de los diferentes fenómenos magnéticos
asociados a él. Dicha teoría no permite determinar el espín del
electrón ni su número cuántico asociado.
Unos años después del trabajo de Schródinger, el físico mate-
mático inglés P. A. M. Dirac publicó una teoría cuántica relativista
que incorporaba desde el principio las demandas de la Teoría de
la Relatividad. En ella no había ondas ni representaciones o mo-
delos que permitieran imaginarse una imagen sencilla de átomo;
La idea del espín del electrón (los efectos magnéticos atribuidos
gráficamente al giro del electrón) resulta ser una consecuencia de
los requisitos relativistas, lo mismo que los efectos magnéticos
pueden atribuirse en general al movimiento relativo de las cargas
eléctricas. De la teoría de Dirac se deducen todos los números
cuánticos de la de Schródinger además del número cuántico
semientero asociado al espín del electrón. Las razones de que el
electrón tenga asociados cuatro números cuánticos son ahora
claras: las condiciones de contorno y la simetría matemática
deben relacionarse con las cuatro dimensiones del espacio-tiempo.
La teoría de Dirac también predecía que además de existir el
electrón cargado negativamente tendría que haber otra partícula
con la misma masa pero con carga positiva. Cuatro años después
de haber sido predicha fue descubierta y actualmente se denomina
positrón.
La teoría de Dirac no es fácil de aplicar y en la mayoría de los
casos puede modificarse convenientemente la teoría de Schródinger
para que tenga en cuenta los efectos del espín del electrón. Se
transforma entonces en una teoría muy útil en la resolución de
problemas de los dominios atómico y molecular y en Física del
Estado Sólido.
Un aspecto significativo relacionado con la onda de probabilidad
es que no pueda hablarse de encontrar al electrón en un punto
concreto del espacio, ya que es imposible localizar una onda en
una posición específica. Una onda es necesariamente algo disperso
o extenso y también lo es la probabilidad de encontrar al electrón
en un punto. Por eso se dice que el electrón está «disperso», una
idea que presenta consecuencias interesantes. Introducir probabili-
dades a la hora de discutir un fenómeno físico significa que hay
cierta incertidumbre. Aunque algo sea enormemente probable, es
ligeramente incierto por definición. Cuando a veces se dice que
algo es probable o incierto se debe a que no se dispone de tiempo
suficiente o de una instrumentación adecuadamente precisa para
llevar a cabo determinaciones exactas. No obstante, en Física
Cuántica se piensa que la incertidumbre es intrínseca a la naturaleza
de las cosas y no puede eliminarse, aunque las mediciones se
puedan realizar con tanta precisión como se desee. Esta idea
quiere decir, expresándola con sencillez, que pueden resultar
inciertas las predicciones basadas en sucesos acaecidos aunque se
fundamenten en una teoría completa y bien comprendida. Se
destruye la relación directa y rígida entre causa y efecto, ya que
no es seguro que una causa tenga que llevar inequívocamente a un
efecto.
Para apreciar las razones de que esto sea así es necesario
discutir lo que supone o acarrea llevar a cabo o especificar una
medición precisa. Imagínese que por alguna razón hay que medir
el diámetro de un objeto redondo como una pelota de baloncesto,
por ejemplo. Admítase que la superficie es perfectamente lisa y
redonda y que no es necesario tener en cuenta sus irregularidades.
Se compara la pelota con una regla apropiada y la persona que
está midiendo mirará perpendicularmente a la regla para comprobar
que la proyección de los bordes del balón coincidan exactamente
con la escala de la regla. Si la persona tiene buen ojo para tales
menesteres conseguirá una buena medición. Sea la cifra 31,5 cm
La cuestión consiste en saber si se trata exactamente de 31,5 cm
es 31,499 cm o 31,501 cm.
Si el asunto tiene gran importancia, el operario buscará ui
calibrador micrométrico de mecánico y determinará si el diámetro
es realmente 31,500 cm poniendo las mordazas del instrumente
sobre el balón procurando no apretarlo. Pero se plantea de nueve
la pregunta ¿es 31,4999 ó 31,5001 cm? La persona que realiza 11
medición puede determinar que la precisión del calibrador micro•
métrico es de 0,0001 cm y que no puede responder a la
últimspregunta con el instrumento a mano, ya que el
error de k medición es de 0,0001 cm. Incluso aunque fuera de 0,
00001 en: resultaría difícil demostrarlo, ya que al ajustar el
instrumento en e balón podría comprimirse inadvertidamente su
forma unos 0,0001 centímetros, máxime tratándose de un objeto
blando.
Del ejemplo anterior pueden sacarse dos conclusiones. La
primera consiste en que, al menos en el mundo físico, no es
posible saber cosas como el diámetro de un balón si no se miden.
Dicho en otros términos, el conocimiento ha de basarse en obser-
vaciones experimentales o mediciones, afirmación que
constituye el núcleo de la escuela filosófica denominada
positivismo lógico. La otra conclusión es que el acto o el intento
de medir un objeto o una situación puede perturbar o distorsionar lo
que se mide. (En el caso del ejemplo anterior puede que sólo sea de
0,0001 cm, pero impone un límite a la precisión con que puede
medirse el diámetro del balón y, por consiguiente, la precisión con
que puede conocerse el diámetro es limitada.)
Que el acto de medir algo distorsione lo que se va a medir no
es algo raro. Por ejemplo, en los estudios sobre la efectividad de
fármacos se observa frecuentemente que los pacientes tratados
con ellos se sienten mejor de su enfermedad aunque el medicamento
no sea realmente efectivo. Es necesario suministrar a los pacientes
un placebo (una sustancia sin efecto alguno) sin advertirles de
ello. La idea consiste en observar a los pacientes sin que lo sepan
y que el experimentador se las ingenie para que las reacciones
subjetivas de los mismos no distorsionen o interfieran las observa-
ciones.
La cuestión que se plantea al considerar la observación de la
materia consiste en saber si puede encontrarse siempre una
forma de realizar mediciones con la precisión deseada sin que se
perturbe
la situación experimental. Pudiera resultar difícil hacerlo y necesitar
más esfuerzo del que vale la pena, pero se trata de un problema de
principio que requiere que se comprenda. Supóngase, por ejemplo,
que se desea llevar a cabo un experimento para observar un
electrón y estudiar las ondas de probabilidad descritas por la
teoría de Schródinger. Éste creía que las soluciones de su ecuación
no daban meramente la probabilidad de encontrar al electrón en
algún punto del espacio, sino que realmente significaban que el
electrón se extendía por toda la región de la nube electrónica.
Otros autores creían que podía verse el electrón, aunque sólo fuera
con cierta probabilidad, en un punto específico del espacio. Incluso
que podría verse girando sobre su eje.
¿Cómo puede verse un objeto tan pequeño como un electrón o
un átomo? Desde luego habrá de iluminarse. Pero la longitud de
onda de la luz visible es cinco mil veces superior al diámetro de
un átomo. Lo mismo que un guijarro pequeño no perturba el pa-
so de una ola, una onda luminosa no se verá afectada apreciable-
mente por la presencia de un átomo (véase figura 65). Habría
que usar «luz» con una longitud de onda tan pequeña como el
átomo o el electrón, o mucho más pequeña en realidad. Para
«ver» los electrones habría que usar radiación electromagnética
de longitud de onda más corta, como la de los rayos X o los rayos
gamma.
Entra en escena en este momento la naturaleza dual de la
radiación electromagnética. Los fotones de rayos X o gamma
guiados por sus respectivas ondas tienen una considerable cantidad
de energía y momento de acuerdo con las ideas de Einstein y de
De Broglie. Su energía y momento es en realidad miles de veces
superior al del electrón que se pretende observar. Tan pronto
como uno de los fotones interaccione con él se producirá una
violenta colisión saliendo disparado de su órbita y el intento de
medir la posición del electrón con gran precisión perturba com-
pletamente la situación. Será necesario realizar mediciones con
fotones de mayor longitud de onda con objeto de no perturbar
demasiado al electrón, aunque con ello no se obtenga una precisión
tan buena como la deseada.
Según la teoría de la medición de la Mecánica Cuántica, el
acto de observar al electrón lo llevará a un estado cuántico
particular al que no entraría de otra forma. Antes de la medición
se desconocía la órbita en que se encontraba. La medición k
«pone» en alguna otra.
Estas ideas fueron expresadas por vez primera por el físicc
alemán Werner Heisenberg en forma de un enunciado denominadc
principio de incertidumbre o de indeterminación. El principio de
Heisenberg constata que es imposible medir, predecir o conocer si-
multáneamente la posición y el momento de una partícula con tanta
precisión como se desee. El error o incertidumbre de la posición
multiplicado por el error del momento ha de ser siempre mayor
que la constante de Planck dividida por 27r. Así, si el error de una
de las cantidades es numéricamente inferior a 0,01 h, el error
de la otra puede ser tan grande como 100127r (16
aproximadamente). Nótese que el principio de Heisenberg se
aplica a pares de cantidades específicamente relacionadas (la
posición y el momento en una misma dirección dada). También
se aplica a la energía de la partícula y al tiempo durante el cual
posee dicha energía. No se aplica a mediciones simultáneas del
momento y la energía. En la mayoría de los casos, la
incertidumbre requerida por el principio de Heisenberg es
bastante pequeña y cae fuera de los instrumentos de medición
disponibles, pero existen ciertas situaciones en las que juega un
papel muy útil, como el intento de medir la posición del electrón
en un orbital discutido anteriormente.
El principio de incertidumbre ha influido profundamente en las
discusiones de los conceptos metafísicos y fundamentales del
conocimiento, eliminando la creencia de que el Universo esté
completamente determinado por su historia anterior. Dicha idea la
había sugerido Laplace hace casi doscientos años como
consecuencia del éxito de la mecánica newtoniana. Laplace
creía que si se pudieran conocer en un instante dado la posición
y velocidad de todas las partículas del Universo y si se
conocieran todas las fuerzas, podría calcularse la posición y
velocidad de las mismas en cualquier instante del futuro. Todos los
futuros efectos serían la consecuencia de causas anteriores.
Aunque la tarea de medir todas esas posiciones y velocidades
fuera humanamente imposible y aunque tampoco se
descubrieran las leyes pertinentes, el futuro estaría
predeterminado, ya que las leyes existen y en el pasado las partículas
han tenido una posición y velocidad dadas.
El principio de Heisenberg manifiesta que eso no puede ser. Es
imposible por principio realizar las mediciones con suficiente
Werner Heisenberg y Niels Bohr. (Cortesía de Paul Ehrenfest, Ir., Biblioteca Niels Bohr
del Instituto Americano de Física.)

precisión para calcular a partir de ellas las posiciones y velocidades


futuras. (Si no puede medirse, según el positivismo, no se podrá
saber o predecir, ni tampoco puede la Naturaleza.) Aunque la
causalidad tenga límites, ello no quiere decir que el futuro sea
completamente desconocido. Podrá calcularse la probabilidad de
que en el futuro ocurra algún suceso basándose en consideraciones
estadísticas. Lo que no puede predecirse es lo que le ocurrirá a un
electrón concreto.
No todos los físicos aceptaron el principio de incertidumbre y
sus consecuencias. Einstein fue uno de ellos y discutiendo con
Bohr y otros físicos llegó a esgrimir muchos argumentos en contra
del principio, intentando refutarlo o buscando ejemplos que lo
contradijeran o lo hicieran caer en paradojas. Aunque acabó
confesando finalmente que las predicciones basadas en él serían
válidas, confió en que hubiera un principio más satisfactorio que
explicara los resultados de la Teoría Cuántica y preservara
la causalidad completamente. Su razón de más peso era la intuición
filosófica de que «Dios no juega a los dados con el Universo». La
mayoría de los físicos actuales creen, no obstante, en la validez y
utilidad del principio de incertidumbre y que verdaderamente
existen límites a la causalidad.

Uso de modelos en la descripción de la Naturaleza

Casi todas las discusiones anteriores acerca de la naturaleza de


la materia y la energía se han basado en modelos que se suponen
representan la «verdadera realidad» en el sentido de la Alegoría
de la Caverna de Platón. Es una característica del desarrollo
histórico de la Física. El modelo del calórico describía el calor
como un fluido sin color y sin peso. El modelo de Bohr describía
el átomo como un sistema solar en miniatura. Durante mucho
tiempo se creyó que la naturaleza del electrón sería parecida a
una bolita pequeñísima girando sobre su eje. Más tarde se consideró
como una onda. La luz se concibió con naturaleza dual.
Es lícito preguntarse por las razones de que se construyan tales
modelos o si merece la pena discutir los modelos anticuados o que
se sepa que no son correctos. Quizá no debiera intentarse encontrar
la «verdadera realidad» de lo que se observa o de lo que existe
porque quizá no haya nada que la sustente. La construcción de
modelos es una cuestión práctica. Son convenientes porque resumen
en pocas palabras un conjunto intrincado de fenómenos físicos.
Posibilitan que la mente humana asimile e integre hechos y
conocimientos nuevos y los relacione con los anteriores. Cuando
se dice que un átomo se parece a un sistema solar en miniatura
inmediatamente salta a la mente el cuadro que eso
representa. consistente en que su mayoría es espacio vacío,
que pueden eliminarse uno o más electrones, etc. El modelo
no sólo es una analogía, sino que resume en la mente otras
posibles propiedades de los átomos, que de otra forma serían
inimaginables.
¿Es real el modelo? Cuando un aficionado construye un
modelo de avión para exhibirlo en el mueble de una habitación no
se trata de algo real, de ello no hay duda. Es un representación del
objeto real que recuerda al mismo al examinarlo. Así, no se cree
que los motores sean de plástico o, si se trata de un modelo de
vuelo, no se piensa que los motores del modelo tengan característi-
cas idénticas a las del avión real. Cuando los físicos emplean
modelos, surgen muchos escollos que los conducen por mal cami-
no, produciéndose paradojas y modelos rivales que compiten por
explicar un mismo fenómeno.
Aunque muchos físicos reconocen la utilidad de los modelos,
creen que cuanto antes se abandone el uso de representaciones
gráficas más pronto podrá obtenerse un profundo conocimiento de
los fenómenos físicos. Después de todo, un modelo no tiene
utilidad si no puede tratarse matemáticamente para comprobar si
explica cuantitativamente los datos experimentales. Un modelo ha
de poder expresarse con ecuaciones y si es así ¿por qué no olvidar
completamente el modelo y tratar de escribir las suposiciones
matemáticas básicas que conducen a las ecuaciones? Todo lo que
se requiere es que no haya muchas suposiciones y que no sean
contradictorias, sin preocuparse si tienen sentido con respecto a un
modelo imaginable.
El modelo se convierte, por tanto, en un sistema de ecuaciones
y no tiene importancia el que sea real o no. Un átomo no es un
sistema de ecuaciones'. Algunos economistas construyen «modelos»
del sistema económico mundial y hacen predicciones, frecuente-
mente calamitosas, sobre lo que sucederá si continúan ciertas
tendencias.
Por la misma época en que Schródinger desarrollaba su modelo
mecánico ondulatorio, Heinserberg y otros trabajan con modelos
puramente matemáticos de los fenómenos atómicos. Heisenberg
creía que el modelo de Rutherford-Bohr-Sommerfeld estaba repleto
de inconsistencias y que un modelo de átomo tendría que usar
directamente las observaciones experimentales, principalmente (aun-
que no exclusivamente) el estudio de los espectros emitidos por
los átomos bajo distintas condiciones de excitación. Empleando
las propiedades matemáticas de las matrices elaboró una teoría
llamada mecánica matricial y, puesto que no le agradaba la teoría
Es interesante que hace un siglo hubiera una escuela de pensamiento entre los
físicos que consideraba que los átomos no eran reales sino únicamente construcciones
mentales —imposibles de ver con instrumento alguno y cuya existencia tendría que
inferirse—, por lo que no debía hablarse de modelo cinético-molecular de la materia.
de Schródinger, utilizó hipótesis diferentes a las de éste. Schródin-
ger, a su vez, encontraba «repelentes» los supuestos de Heisenberg.
Resulta interesante saber que Schródinger y otros demostraron
en seguida que ¡tanto su teoría como la de Heisenberg eran
equivalentes desde el punto de vista matemático! Schródinger
partía de la idea de que los fenómenos físicos eran continuos por
naturaleza y que bajo determinadas circunstancias (condiciones de
contorno apropiadas) surgían la cuantización y los cuantos. Hei-
senberg partía, por el contrario, del supuesto de la cuantización de
los fenómenos a nivel fundamental al que incorporó la formulación
de su principio de incertidumbre. Es corriente que se empleen
conjuntamente los dos enfoques a la hora de realizar ciertos
cálculos muy finos, ya que se usa la teoría de Schródinger para
hallar determinadas cantidades necesarias para la teoría de Hei-
senberg.
Dirac al desarrollar su mecánica cuántica relativista usó una
formulación más abstracta aún que era consistente tanto con la
mecánica ondulatoria como con la matricial.
Ya se ha indicado al comienzo de este capítulo que en el
futuro podría desarrollarse una teoría superimportante y más
general que la Mecánica Relativista y Cuántica. Frecuentemente
se especula, o se tiene la confianza, de que contenga nuevos
principios fundamentales o nuevas variables desconocidas en la
actualidad y denominadas variables ocultas. Los que se sienten
incómodos con el principio de incertidumbre, aunque se vean
impulsados a confesar su validez manifiesta, creen que dichas
variables ocultas restaurarán nuevamente en Física la causalidad
completa. En realidad existen nuevos desarrollos teóricos que
parece que lograrán la unificación no sólo de la Teoría de la
Relatividad y la Teoría Cuántica, sino también de la teoría de la
gravitación y las teorías acerca de las distintas fuerzas que actúan
en el interior de los átomos. Aunque en estos intentos no estén
incluidas las deseadas variables ocultas, se hablará de ellas en el
próximo capítulo.
Impacto de la Teoría Cuántica en la Filosofía y
en la Literatura

La Teoría Cuántica limita ostensiblemente la rigurosa causalidad


asociada a la física newtoniana clásica. Algunos autores consideran
que el principio de Heisenberg posibilita desde el nivel más
fundamental del universo material el concepto de albedrío, ya que
las libres decisiones son necesariamente impredecibles. No se trata
de que un electrón «elija» comportarse de forma impredecible,
sino de que influencias no físicas (la voluntad humana o la
intervención divina, por ejemplo) puedan afectar al comportamiento
del universo material. En este respecto, las decisiones voluntarias
no se distinguen de las aleatorias. Hay que recalcar, no obstante,
que, aunque no pueda predecirse el comportamiento específico de
átomos o moléculas individuales, la estadística que resulta del
número astronómico de átomos o moléculas que forman una
simple célula es tan impresionante que su comportamiento medio
es altamente predecible y que son muy raras las desviaciones
significativas. No está claro en absoluto que tenga que pensarse
que un universo gobernado por la Física Moderna permite más
libertad de elección que otro que lo estuviera por la Física Clásica.
Algunos escritores interpretan que el principio de incertidumbre
demuestra la existencia de limitaciones acerca de lo que se puede
conocer en un sentido material y afirman que únicamente puede
conocerse aquello que se puede medir. Lo que en principio no
pueda medirse es incognoscible y, por tanto, inexistente desde el
punto de vista material.
Como podrá imaginarse con facilidad, muchos pensadores se
ofenden por la falta de causalidad o por las limitaciones del
conocimiento. Desde los comienzos de la Teoría Cuántica ha
habido continuamente un acalorado debate entre físicos, filósofos
y filósofos de la Ciencia en torno a estas cuestiones, muy enraizadas
en los fundamentos mismos del conocimiento. Los filósofos tienden
a considerar ingenuos a los físicos en estas materias y éstos
consideran a aquéllos como si estuvieran desligados de la realidad
física. Ya se ha dicho que incluso existe desacuerdo entre los
propios físicos acerca de la interpretación de la Teoría Cuántica.
El artículo de De Witt y Graham, citado en las referencias de este
capítulo, ofrece una detallada bibliografía comentada y una guía
de algunos de los numerosos ensayos y libros sobre la interpretación
«apropiada» de la Teoría Cuántica y sus fundamentos y conse-
cuencias metafísico-filosóficas.
El enfoque que prevalece entre los físicos con más significación
sobre la Teoría Cuántica es el desarrollado por un grupo de
investigadores denominado Escuela de Copenhague y cuyos miem-
bros más famosos son Niels Bohr y Werner Heisenberg. Su forma
de pensar se resume en el principio de complementariedad, introdu-
cido por Bohr en 1928 con objeto de generalizar el principio de
incertidumbre de Heisenberg. Expresa que a escala de las dimen-
siones atómicas y más pequeñas, no es posible describir los
fenómenos con la completitud que se esperaría de la Física
Clásica. Algunas de las mediciones o conocimientos que se re-
quieren desde el punto de vista clásico para describir completamente
un sistema, tales como la posición y el momento, se contradicen
mutuamente o se excluyen cuando llegan a comprenderse de
forma apropiada las definiciones de dichas cantidades en los
términos en que han de medirse.
Siempre que se mida una de ellas por encima de un cierto
nivel de precisión se perturbará la otra en tal grado que el efecto
perturbador de la medición no podrá determinarse a menos que
interfiera con la primera. Este resultado es intrínseco a las defini-
ciones de las cantidades a medir. El principio de complementariedad
sigue expresando que existe causa y efecto aunque ha de com-
prenderse cuáles son las cantidades que pueden emplearse en la
descripción de una relación causa-efecto. Las cantidades tales
como posición y momento de un electrón en un átomo no son
apropiadas para medirlas, siéndolo en lugar de ellas la función de
estado (un nombre más conveniente sería el de función de onda).
La idea de que existan limitaciones fundamentales acerca de la
medición de determinadas cantidades físicas ha sugerido a los
investigadores de otras áreas que también en éstas habría cantidades
y definiciones con limitaciones fundamentales análogas y que el
intento de medirlas más allá de un cierto nivel de precisión
falsearía las cantidades complementarias. Esta idea de comple-
mentariedad es significativa en otros campos del conocimiento.
Existe la frecuente y fuerte tentación de aplicar de una forma
simplista los principios físicos más importantes a la descripción
del Universo en todos sus niveles. Así, algunos autores razonaban,
como consecuencia de los trabajos de Newton, que el Universo
estaba predeterminado en todos sus detalles y que se comportaba
como una sofisticada maquinaria de relojería, lo que influyó en el
desarrollo primitivo de las Ciencias Sociales. Después de elaborarse
el concepto de entropía y de comprenderse la segunda ley de la
Termodinámica se afirmó que el conjunto del Universo se estaba
parando. Algunos críticos sociales han sugerido que la degradación
concomitante con la segunda ley es evidente en el Arte y la
sociedad moderna. Se ha recibido a la Teoría Cuántica como la
responsable de que sea posible el albedrío y de que haya puesto
término a toda discusión sobre predeterminación. El atractivo de
tales conclusiones es evidente.
¿Cómo habría que considerar la aplicación de la Física a las
áreas exteriores y a la Tecnología? La Física, además de potenciar
la apreciación de la belleza y grandiosidad del universo físico,
también ofrece nuevas ideas y perspectivas a otras áreas del saber
y proporciona analogías útiles en las que basar nuevas formas de
análisis y de expresión.
Estos usos de la Física se manifiestan a veces en la Literatura
y muchos conceptos de la Física Moderna han influido en muchas
obras modernas de ficción. Escritores como Joseph Conrad, Law-
rence Durrell, Thomas Pynchon, William Gaddis, Robert Coover
y Robert Pirsig los han empleado en sus libros con diversos grados
de éxito. Ello se discute en el libro de Friedman y Donley sobre
Einstein y en el artículo de Alan J. Friedman sobre ficción
americana contemporánea, citados en las referencias de este
capítulo.
8
Principios de conservación
y simetrías

En realidad no cambia nada


Murray Gell-Mann. (Instituto
Americano de Física, Galería Meggers
de galardonados con el Premio Nobel.)

Los seres humanos han considerado desde la época de los


griegos, por lo menos, que existen unos pocos bloques de cons-
trucción o partículas de las que están hechas todas las cosas. Unos
cuatrocientos años antes de Cristo, autores como Leucipo y
Demócrito creían que la materia podía dividirse hasta llegar a la
partícula más pequeña. Demócrito llamó átomo («indivisible») a
esta partícula fundamental. Aristóteles pensó que para que pudieran
explicarse las diferentes propiedades de los distintos materiales
tendría que haber más de un tipo de partícula elemental y que
todo lo que había en la Tierra estaba compuesto por distintas
proporciones de tierra, agua, aire y fuego.
Al progresar la Química se reconoció que existía un centenar
de elementos diferentes y que toda la materia consistía en diversas
combinaciones de los mismos. Estos elementos van desde el
hidrógeno y el helio, los más ligeros, hasta el uranio, el elemento
natural más pesado. El químico inglés John Dalton propuso en
1803 que cada uno de los elementos poseía un átomo característico
que no se podía destruir, dividir o crear. Los átomos de un
elemento tendrían el mismo tamaño, peso y demás propiedades y
eran distintos a los de los restantes elementos. Se eligió el vocablo
átomo debido a la clara relación existente con el concepto original
de Demócrito.
Actualmente se sabe que los átomos de Dalson son divisibles y
están formados por partículas más «fundamentales». Por los años
treinta se conocía que el átomo consistía en un núcleo que
contenía neutrones y protones y que en torno a él había electrones
describiendo órbitas (capítulo 7). Por ese tiempo se creía que estas
tres partículas eran los bloques de construcción básicos de la
materia. Sin embargo, numerosos experimentos llevados a cabo
desde los años cuarenta han puesto de manifiesto que los neutrones
y protones están formados por partículas más básicas aún. Los
estudios realizados con diferentes aceleradores de partículas de
alta energía (denominados colisionadores atómicos) revelaron cien-
tos de partículas de diferentes tipos. Durante los años cincuenta y
sesenta los físicos empezaron a interesarse por esta proliferación
creciente de partículas subnucleares, maravillándose de que todas
pudieran ser bloques de construcción fundamentales.
A medida que el número de partículas continuaba creciendo,
muchos científicos estaban intrigados por el hecho de que muchas
de las reacciones que cabría esperar que tuvieran lugar entre las
partículas no se observaran. La única explicación de ello parecía
radicar en que había nuevas clases de leyes de conservación que
tendrían que violarse para que tales reacciones pudieran tener
lugar. Poco a poco se fueron descubriendo estas leyes de conser-
vación y por experiencia previa los físicos sabían que cada nueva
ley de conservación implicaba una cierta estructura o simetría de
la Naturaleza.
Murray Gell-Mann, físico del Instituto de Tecnología de Cali-
fornia, y Yuval Ne'eman, físico israelita, descubrieron en 1961 un
nuevo e importante esquema de clasificación de las partículas
subnucleares basándose en las simetrías envueltas en las nuevas
leyes de conservación. Este nuevo esquema condujo, a su vez, a
que Gell-Mann sugiriera que el enorme número de partículas
subnucleares estaba formado por unas pocas partículas a las que
denominó quarks. Las investigaciones posteriores han hecho que
los físicos acepten como correcto el modelo de los quarks y
esperan que éstos sean realmente los largamente buscados bloques
de construcción fundamentales de la materia.
Este capítulo comenzará con una descripción de la estructura
del núcleo partiendo de los conocimientos que se tenían en 1932,
fecha en la que se descubrió el neutrón. Se proseguirá con la
evolución posterior del conocimiento de la naturaleza del núcleo y
de la extraordinaria fuerza que lo mantiene, relatándose el descu-
brimiento de algunas nuevas partículas subnucleares. Seguirá un
breve resumen acerca del conocomiento de las partículas subnu-
cleares en los años sesenta y se apreciará cómo el cuidadoso
estudio de las leyes de conservación que gobiernan las interacciones
de las partículas llevó a descubrir nuevas e importantes simetrías
en las leyes físicas que rigen las mismas y cómo dichas simetrías
condujeron al modelo de los quarks. Finalmente, se tratará de
resumir el conocimiento actual de los bloques de construcción
«fundamentales» y se indicarán algunos de los posibles progresos
futuros. La búsqueda de los bloques de construcción fundamentales
tiene una larga historia científica y uno de los principales objetivos
de este capítulo será poner de manifiesto que el estudio de las
leyes de conservación y de las simetrías relacionadas ha conducido
a uno de los avances más importantes de toda la Historia de la
Física.

Fuerzas y estructura nucleares

Como se ha discutido en el capítulo anterior, se sabe que el


átomo es de estructura nucleada, esto es, que tiene un núcleo. Éste
contiene más del 99,9 por 100 de la masa, que está confinada en
un volumen muy pequeño. Diferentes experimentos indican que el
diámetro de un núcleo típico, como el de un átomo de carbono, es
inferior a 10–14m (la cienbillonésima parte de un metro) y constituye
el 0,01 por 100 de su diámetro. Puesto que casi toda la masa del
átomo se concentra en su núcleo de volumen muy pequeño, su
densidad de materia será muy alta, ¡del orden de 1017 kg• m-3,
cien mil billones de kilos por metro cúbico '! No sorprende, por
tanto, que existan nuevos fenómenos físicos en la estructura del
núcleo, que no aparecen a una escala más familiar.
Desde hace más de cincuenta años se sabe que el núcleo
contiene protones y neutrones. La masa del neutrón es ligeramente
superior a la del protón y vale unos 1,7 x 10-27 kg. Se sabe que su
Esta forma de expresar los números se denomina <notación científica», indicando
el exponente el número de ceros. Así, 10 17 es un uno seguido de diecisiete ceros y
10—14 = 1/1014, catorce ceros antes del uno.
diámetro es algo más de 10- 1 5 m. El protón tiene una carga
positiva exactamente igual en magnitud que la carga negativa del
electrón; el neutrón no tiene carga neta. Un átomo en forma
elemental es neutro, dado que el número de electrones periféricos
es exactamente igual que el de protones del núcleo. Éstos tienen
generalmente el mismo número de protones que de neutrones
excepto en el caso de los elementos pesados, como el plomo, el
bismuto, el uranio, etc., que tienen más neutrones que protones.
Los núcleos con igual número de protones pero con distinto
número de neutrones se dice que son isótopos del mismo elemento.
Dado que presentan el mismo número de electrones periféricos se
comportan idénticamente desde el punto de vista químico.
Es importante hacer notar que si se consideran únicamente las
dos fuerzas básicas discutidas hasta ahora habría que llegar a la
conclusión de que los núcleos tendrían que ser completamente
inestables. Un núcleo compuesto de protones y neutrones tendrá
muchas cargas «iguales» y ninguna «distinta». Puesto que las
cargas del mismo signo se repelen, la fuerza electromagnética
intentaría disgregar todos los núcleos excepto el del hidrógeno,
que sólo tiene un protón. ¿Qué es lo que mantiene a los núcleos?
La única otra fuerza discutida hasta ahora es la gravitatoria.
Cuando se calcula si la atracción gravitatoria entre los neutrones y
protones de un núcleo puede mantenerlos, se aprecia que es
demasiado débil. Si se supone que dicha fuerza viene expresada
por la misma fórmula que la que rige para los objetos de mayor
tamaño se encuentra que ¡la atracción gravitatoria es 1039
veces más débil que la fuerza de repulsión electromagnética!
Es evidente que la estabilidad del núcleo ha de explicarse con
otro tipo de fuerza atractiva. Se denomina fuerza nuclear fuerte y
se lleva estudiando unos cincuenta años. Actúa entre los neutrones
y protones del núcleo, no tiene efecto alguno sobre los electrones
de los alrededores y su intensidad es unas cien veces mayor que la
repulsión electromagnética. Los núcleos con más de cien protones
son inestables porque la repulsión electromagnética resultante
supera a la fuerza nuclear atractiva.
La fuerza nuclear fuerte es muy distinta tanto de la electro-
magnética como de la gravitatoria. Estas dos últimas son de
alcance infinito (actúan a cualquier distancia) aunque se hagan
muy débiles para los objetos separados (ley del inverso del cuadrado
discutida anteriormente). La fuerza nuclear fuerte es, por contrario,
de alcance finito. Para que se «encienda» la fuerza nuclear fuerte,
los nucleones (tanto los protones como los neutrones) han de estar
tocándose prácticamente. La propiedad de tener un alcance finito
es la responsable de que a veces se le denomine «pegamento»
nuclear, ya que los pegamentos sólo unen los objetos que están en
contacto. También se diferencia de las fuerzas electromagnética
y gravitatoria en que no se conoce una expresión matemática
simple que permita calcular su intensidad para un caso concreto.
Más adelante se verán las razones por las que los físicos nucleares
han sido incapaces de encontrarla a pesar de llevar estudiándola
más de cincuenta años.
Además de estas tres fuerzas todavía existe otra fuerza básica
más denominada nuclear débil y responsable de cierto tipo de de-
sintegración radiactiva de los núcleos que se llama desintegración
beta. La desintegración radiactiva se refiere a la emisión espontánea
de los núcleos de una o más partículas, transmutándose éstos a
otros tipos de núcleos: La forma más simple de desintegración be-
ta consiste en la transformación de un neutrón en un protón y un
electrón, emitiéndose este último del núcleo. La fuerza nuclear dé-
bil es 10" veces menos intensa que la nuclear fuerte y no es preciso
considerarla en el análisis elemental de la estructura nuclear. Ade-
más de la desintegración beta existen otros tipos de desintegracio-
nes radiactivas en las que se emiten diferentes tipos de partículas..
Las primeras indicaciones sobre la estructura nuclear fueron
proporcionadas por la desintegración natural de las sustancias
radiactivas y las partículas que se emitían con más frecuencia se
nombraron con las tres primeras letras del alfabeto griego: alfa,
beta y gamma. Ahora se sabe que las partículas alfa son núcleos
de átomos de helio formados por dos protones y dos neutrones;
que las partículas beta son electrones y que las partículas o rayos
gamma son cuantos o fotones de gran energía electromagnética.
Aunque los físicos nucleares siguen estudiando todavía la desinte-
gración radiactiva natural es más frecuente que analicen el núcleo
bombardeando núcleos diana estacionarios con rayos de gran
velocidad formados por diversos tipos de partículas como protones,
electrones o partículas alfa. Dichas colisiones consisten en una
forma de añadir específicamente ciertas partículas y energía (pro-
cedente de la energía cinética de las partículas incidentes) a los
núcleos con objeto de poder estudiar cómo se transmutan en otros
o cómo se rompen en las partículas constituyentes. Estos expe-
rimentos se denominan reacciones nucleares porque en ellos se
originan, separan o combinan partículas básicas o grupos de las
mismas procedentes de los núcleos. Casi toda la información que
se presentará aquí sobre la estructura del núcleo y las partículas
encontradas en su interior se ha obtenido a partir de cuidadosos
estudios realizados en diferentes laboratorios aceleradores de todo
el mundo haciendo chocar partículas y núcleos.
Poco antes de que se descubrieran las características básicas
de la fuerza nuclear fuerte (principalmente, su intensidad y alcance)
se dio un paso extremadamente importante para la comprensión
de esta fuerza fundamental. El físico japonés Hideki Yukawa
propuso en 1935 una teoría que explicaba que la fuerza nuclear se
debía a un intercambio de cuantos (o partículas) de masa finita.
Esta manera de describir las fuerzas se denomina Teoría Cuántica
de Campos debido a que se sugiere que el campo de fuerzas
consiste en un intercambio de cuantos «virtuales» entre los nu-
cleones que se encuentran dentro del radio de alcance de la fuerza
nuclear. Una partícula «virtual» es aquella que sólo existe durante
un brevísimo intervalo de tiempo, no pudiéndose observar experi-
mentalmente al menos se le añada una gran cantidad de energía
que la convierta en «real». La existencia de partículas virtuales es
permitida por el principio de incertidumbre de Heisenberg.
Se sabía que la fuerza electromagnética podía describirse con
una Teoría Cuántica de Campos y Werner Heisenberg sugirió en
1932 por primera vez que pudiera hacerse otro tanto con la fuerza
nuclear fuerte. Las partículas intercambiadas entre las cargas de la
teoría de campos correspondiente a la fuerza electromagnética
son los cuantos de luz o fotones. Cada carga eléctrica está
rodeada por una nube de fotones virtuales que continuamente son
emitidos y absorbidos por ella. Cuando se encuentran cerca dos
partículas cargadas se produce un mutuo y continuado intercambio
de fotones virtuales que se traduce en la aparición de una fuerza
eléctrica entre ellas. La masa de los fotones de esta teoría meca-
nocuántica de los campos de fuerza es cero y por ello la fuerza
electromagnética es de alcance infinito.
Según Yukawa los nucleones están rodeados por una nube de
cuantos virtuales con masa que son emitidos y absorbidos cons-
tantemente. Al ponerse en contacto dos nucleones, la partícula
emitida por uno de ellos es absorbida por el otro y viceversa,
siendo este intercambio el que se traduce en la aparición de la
fuerza entre los nucleones. Yukawa pudo estimar la masa de las
partículas intercambiadas usando el principio de incertidumbre y,
de ser cierta su teoría, tendría que existir una nueva partícula con
una masa de un séptimo de la del neutrón o protón. Puesto que
esta masa es unas doscientas setenta veces la del electrón, la
nueva partícula de Yukawa no correspondía con ninguna de las
conocidas por aquella época. Al contrario de lo ocurrido con la
teoría de campos del electromagnetismo, la propuesta de Yukawa
requería que existiera una nueva partícula. Si pudiera descubrirse
experimentalmente dicha partícula era evidente que la descripción
cuántica de Yukawa recibiría un fuerte apoyo.
En 1947 se detectó que las reacciones nucleares inducidas por
rayos cósmicos de alta energía procedentes del espacio (principal-
mente protones) emitían la partícula predicha, a la que se llamó
mesón pi o pión, y Yukawa fue galardonado con el Premio Nobel
de Física de 1949 por sus trabajos sobre este tema.
Las investigaciones teóricas y experimentales posteriores demos-
traron que la fuerza nuclear no podía explicarse simplemente co-
mo un intercambio de mesones pi. Actualmente se sabe que para
rendir cuenta de las diferentes propiedades de la fuerza nuclear en
el contexto de la Teoría Cuántica de Campos hay que incluir el in-
tercambio simultáneo de más de un mesón pi e incluso el de otro
cuanto de campo con más masa. No obstante, se acepta casi univer-
salmente que la teoría de Yukawa es fundamentalmente correcta.
En la actualidad se cree que todas las fuerzas básicas pueden
describirse apropiadamente por teorías cuánticas de campos. Ya
que la fuerza gravitatoria es de alcance infinito, como la electro-
magnética, se deberá a un intercambio de cuantos de masa cero
llamados gravitones y aunque generalmente se admite su existencia
aún no se han observado experimentalmente. Ya que la fuerza
gravitatoria es debilísima se espera que los gravitones porten una
cantidad de energía muy pequeña, muy difícil de detectar y la
mayoría de los físicos no se sorprenden de que el gravitón escape
a la comprobación experimental. Diferentes equipos de científicos
de todo el mundo están llevando a cabo experimentos muy com-
plicados y sofisticados para intentar encontrar los gravitones.
Las partículas intercambiadas en la fuerza nuclear débil, los
llamados bosones vectoriales intermedios, tienen, por el contrario,
una masa tan grande, que ninguno de los aceleradores actuales es
capaz de comunicar suficiente energía cinética para «fabricar» de
la forma corriente dichas partículas, a saber, bombardeando dianas
estacionarias con haces de partículas de alta energía. La fuerza
nuclear débil no sólo es mucho menos intensa que la fuerza nu-
clear fuerte, sino que también es de alcance mucho menor.
El mismo tipo de razonamientos que permitieron estimar a
Yukawa la masa de los mesones pi llevan a pensar que la de los
bosones vectoriales intermedios ha de ser muy grande. Los físicos
del Centro Europeo para la Investigación Nuclear (CERN) em-
plearon en 1982 y 1983 una nueva técnica experimental basada
en haces colisionadores de protones de alta energía que permitían
conseguir energías de reacción superiores a las obtenidas con
dianas estacionarias. Entre los productos de la reacción identificaron
bosones vectoriales intermedios cuyas masas eran próximas a las
que se habían calculado anteriormente y que son del orden de mil
veces la del protón.
Merece la pena indicar que el intento de «explicar» la fuerza
como un intercambio de partículas virtuales representa realmente
el último esfuerzo de los científicos de comprender el problema de
la «acción a distancia» discutido anteriormente. Una cuestión
compleja y fundamental, planteada ya en la época de Newton,
consiste en cómo pueden los objetos que no están en contacto
ejercerse mutuamente una fuerza. El hipotético éter, postulado
sobre todo para explicar la propagación de la luz por el vacío, se
creyó en un principio que podría explicar también el problema de
la acción a distancia. La Teoría Cuántica de Campos, aceptada
generalmente por la mayoría de los físicos, podría, por fin, propor-
cionar la explicación de este viejo problema. Aunque se sepa
ahora que la idea original de Yukawa de describir la fuerza
nuclear fuerte solamente como intercambio de mesones pi es
incorrecta, la predicción de una nueva partícula y su descubrimiento
posterior condujo a que se aceptara generalmente la descripción
mecanocuántica de las fuerzas básicas. Se verá más adelante que
la razón de que se requiera más de un tipo de partículas para
describir la fuerza nuclear podría ser que ésta no es en realidad
una fuerza básica, sino que se describe mejor como una interacción
residual producida por otra mucho más fuerte y básica que existe
en el interior de los nucleones.
La teoría de Yukawa ha repercutido de otra manera importante
en el desarrollo de la Física. La predicción de que en el núcleo
tendría que existir otra partícula, además de los protones y neutro-
nes, motivó la búsqueda de nuevos tipos de partículas «fundamen-
tales». En realidad, poco antes de descubrirse el pión se había
descubierto otra partícula, actualmente llamada muón, que durante
un tiempo se creyó erróneamente que era la partícula predicha por
Yukawa. Ahora se sabe que el muón no es en absoluto un pión,
sino que básicamente es un electrón aunque doscientas veces más
pesado que éste. El descubrimiento del muón y el pión sólo fue el
comienzo de una serie de ellos en la que, con ayuda de aceleradores
nuevos y potentes, se encontraron muchos tipos de partículas. En
1957 se conocían dieciocho de las llamadas partículas elementales
entre las que se incluyen las denominadas sigma, lambda, xi y
mesón K (tabla 8.1). Al final de los cincuenta y durante los
sesenta la lista creció de tal forma que sólo podía nombrarse con
números, llegando a conocerse un centenar de partículas «elemen-
tales». Tal proliferación acabó con la, en apariencia, simple
descripción de los bloques de construcción básicos de los años
treinta. Los físicos estaban consternados ante el enjambre de
partículas elementales, ya que la idea griega de que lo simple es
hermoso sigue dominando el pensamiento científico.
Antes de que el número de partículas llegara a crecer tanto, los
físicos nucleares se dieron cuenta de que aquéllas podían agruparse
de forma natural según sus características en unas cuantas familias
e intentaron determinar la masa, carga, espín (número cuántico
que describe el momento angular intrínseco) y demás propiedades
discutidas más adelante. En la lista que se ofrece en la tabla 8.1 se
agrupan las partículas conocidas en 1957 en cuatro familias.
Los bariones son las partículas con una masa en reposo (masa
propia) igual o mayor que la del protón. (Barión significa partícula
pesada.) Se sabe que todas interaccionan entre sí a través de la
fuerza nuclear fuerte (y, si están cargadas, también lo hacen
mediante la fuerza electromagnética). Obsérvese que todas tienen
espín 1/2 como una de sus características. A excepción del protón
se sabe que todos los bariones son inestables y se desintegran
espontáneamente (fragmentándose en otras) en una pequeña frac-
ción de segundo. Una vida media corta se refiere al hecho de que
la partícula sólo existe una breve fracción de tiempo después de
haberse creado en una reacción nuclear. Al desintegrarse s e
transforman en una o más partículas de mayor vida media hasta
que sólo quedan partículas estables como los protones y neutrones. (
Incluso los neutrones aislados se desintegran con una vida media
de quince minutos y los físicos están intentando determinar si el
protón es completamente estable, es decir, si su vida media es
infinitamente larga.)
T A B L A 8 . 1
Partículas fundamentales (alrededor de 1957)

Familia Partícula Símbolo Carga Espín Masa Vida media


(MeV) (segundos)

Fotón Fotón y 0 1 0 Estable


Electrón e— —1 1/2 0.511 Estable
Mude µ— —I 1/2 105.7 2,2 X 10-6
Leptones Neutrino
electrónico y, 0 1 /2 0? Estable
Neutrino
muónico νµ 0 1/2 0? Estable

Pión cargado π+ 1 0 139,6 2,6 x 10—8


Pión neutro π0 0 0 135,0 0,8 x 10-16
Kaón cargado K+ 1 0 493,8 1,2 x 10-8
Kaón neutro K0 0 0
Mesones 497,7 0,9 x 10—10
o
5,2 x 10—,
Eta η 0 0 548,7 —2 x 10-19

Protón p 1 1/2 938,3 Estable


Neutró n 0 1/2 939,6 917
Lambda A o 1/2 1.115,4 2,6 X 10-10
Sigma más Σ+ 1 U2 1.189,4 7,9 X 10—11
Bariones
Sigma neutra ya 0 1/2 1.192,3 5,8 x 10-20
Sigma menos 5— —1 1/2 1.197,2 1,5 X 10-10
Xi neutra Σ0 o 1/2 1.314,3 2,9 x 10—10
Xi menos E— —1 112 1.320,8 1,6 X 10-10
Un electrón-voltio (eV) es la energía ganada por un electrón al someterlo a una
diferencia de potencial de un voltio. Es una cantidad muy pequeña, equivalente a unas 10-18
calorías. Un MeV es 106 eV. (N del T.)
Los mesones son partículas con una masa en reposo inferior a
la de los bariones pero superior a la de los leptones, la siguiente
familia. Todos tienen valores de espín intrínseco cero o entero.
Además de piones neutro y cargado (la partícula predicha por
Yukawa) existen mesones K (kaones) neutro y cargado. Nótese
que todos los mesones son inestables, con vidas medias caracterís-
ticas de una pequeña fracción de segundo.
Los leptones tienen una masa en reposo inferior a la de los
mesones y espín semientero. (Leptón significa «partícula ligera» y
mesón «partícula media».) Esta familia comprende el electrón y el
muón, que se comporta como un electrón pesado, y los neutrinos
asociados a ellos, con masa en reposo cero o muy próxima.
El fotón es el cuanto de radiación electromagnética y constituye
el único miembro de su familia. Tiene un espín igual a uno y su
masa en reposo es, posiblemente, igual a cero.
Se sabe, o cree saberse, que cada una de las partículas de la
tabla 8.1 tiene su correspondiente antipartícula. Una antipartícula
posee la misma masa en reposo, espín intrínseco y vida media que
su partícula pero una carga eléctrica exactamente igual aunque de
signo opuesto y algunas otras propiedades que no se han discutido
aún. Por ejemplo, la antipartícula del electrón se llama positrón y
se descubrió en 1932. La antipartícula del protón se llama simple-
mente antiprotón y se observó por primera vez en 1955. Algunas
partículas, como el pión neutro (π0) y el fotón se cree que son sus
propias antipartículas. Cuando una partícula choca con su antipar-
tícula se aniquilan entre sí produciéndose nuevas partículas y/o
radiación electromagnética (fotones). Si se incluyen en la lista de la
tabla 8.1 las antipartículas se tiene un total de treinta y dos.
La tabla 8.1 no es demasiado larga y compleja, sobre todo
cuando se organiza en familias. Por desgracia, durante los años
sesenta empezó a crecer rápidamente la familia de los bariones,
ya que se descubrieron partículas con masas en reposo cada vez
mayores y con tiempos de desintegración más cortos. Estos llegaron a
ser tan cortos que comenzó a llamarse «resonancias» a las
nuevas «partículas», lo que indica que los físicos no estaban muy
seguros de que estos nuevos cuantos de energía fueran partículas
en realidad. Se intentó encontrar nombres para todos los nuevos
bariones y caracterizarlos simplemente con sus respectivas masas-
energías en reposo. La ya algo complicada situación de la tabla
8.1 se agudizó sobremanera dejando perplejos a todos los investi-
gadores. El resto del capítulo se dedicará a discutir como esta
proliferación de partículas nuevas llegó a comprenderse finalmente
en los términos de una estructura subyacente más simple surgida
del estudio de las leyes de conservación y las simetrías relacio-
nadas.

Leyes de conservación e invariantes

Los físicos llevan reconociendo durante tres siglos la importan-


cia de las leyes de conservación. Newton introdujo en 1687 las
leyes de la conservación de la masa y del momento. El descubri-
miento de la ley de la conservación de la energía fue uno de los
avances físicos más importantes del siglo xix (capítulo 4). Los
experimentos cuidadosamente controlados pusieron en seguida de
manifiesto que en las reacciones nucleares siempre se conservaban
diferentes cantidades. Algunas de ellas eran conocidas, como
ocurría con la energía, el momento, la carga eléctrica o el mo-
mento angular. Con el tiempo se fueron descubriendo otras y los
físicos empezaron a sospechar que su estudio detenido permitiría
un conocimiento más profundo de la misteriosa fuerza nuclear.
Recuérdese que la conservación de una cantidad quiere decir
simplemente que toda ella permanece constante durante un deter-
minado proceso en un sistema dado. Los físicos nucleares podían
diseñar una reacción con todos los detalles de forma que conocieran
exactamente la masa, energía, carga, momento, etc., antes de que
tuviera lugar y usando instrumentos especiales medir estas mismas
cantidades una vez que se hubiera dado. Las cantidades que se
conservaban (que no experimentaban modificación alguna) se
pondrían de manifiesto comparándolas antes y después de la
reacción. Estos estudios revelaron que las reacciones nucleares
gobernadas por la fuerza nuclear fuerte obedecían a otras leyes de
conservación además de las regidas por las interacciones gravita-
torias y electromagnéticas.
En toda interacción, ya sea entre bolas de billar o entre
partículas subnucleares, se conservan siempre las siete cantidades
siguientes:
1. Masa-energía.
2. Momento.
3. Momento angular.
4. Carga eléctrica.
5. Número de la familia de los electrones.
6. Número de la familia de los muones.
7. Número de la familia de los bariones.

Si se consideran estas tres últimas cantidades hay que tener en


cuenta que una partícula vale +1 y su antipartícula —1. Estas tres
últimas leyes indican que la diferencia de partículas y antipartículas
siempre se mantiene dentro de cada familia, lo que significa que
dichas «familias» son en cierto modo clasificaciones naturales. La
conservación de las cuatro primeras cantidades se conoce desde
hace muchos años y ya han sido discutidas en este libro. Por lo
que se sabe hasta ahora, estas siete cantidades fundamentales se
conservan en las cuatro interacciones básicas de la Naturaleza.
Considérese cada una de ellas por separado.
En toda reacción que domine la fuerza nuclear fuerte (que es el
caso de la mayoría de las reacciones nucleares) también se sabe que
se conservan la paridad, el isospín (espín isotópico) y la
extrañeza. La paridad de un sistema se relaciona con su helicidad o
«quiralidad» inherente. Así, un tornillo que tenga el filete a la
derecha girará hacia la derecha mientras que si lo tiene hacia la
izquierda lo hará hacia la izquierda. El sentido del giro en las
partículas nucleares se relaciona con la orientación del vector del
espín intrínseco respecto al vector velocidad (dirección del movi-
miento). El isospín es una cantidad mecanocuántica que describe
el exceso de neutrones o de protones de un sistema nuclear. La
extrañeza es otra cantidad mecanocuántica que no puede describirse
de forma simple y se discutirá más adelante. Relacionado con la
conservación de dichas cantidades está el hecho de que las
reacciones nucleares obedecen a una «operación» denominada
conjugación de carga. Esta expresión quiere decir simplemente
que toda posible reacción nuclear tiene otra en la que hay un
intercambio de las cargas que intervengan (un intercambio de
partículas por antipartículas en realidad). Si el isospín y la extrañeza
no se conservaran no se trataría de algo notable, pero dado que lo
hacen ha de considerarse que indican importantes propiedades de
las partículas subnucleares.
La fuerza electromagnética es la segunda fuerza en intensidad y
en las interacciones en las que domina parece que se conservan
todas las que lo hacen en la fuerza nuclear fuerte excepto el
isospín. El que ello no suceda se relaciona con el hecho de que
dicha cantidad implica un exceso de nucleones, esto es, de partículas
neutras o cargadas. Puesto que la fuerza electromagnética depende
fundamentalmente de si un cuerpo está o no cargado, no será tan
sensible a un exceso de protones o neutrones como al número de
partículas cargadas.
La fuerza nuclear débil sólo obedece a las siete leyes básicas
de conservación. Cuando en 1957 se demostró que en esta fuerza
no se conservaba la paridad, los físicos se sorprendieron porque
ello indicaba que el Universo no era fundamentalmente ambidextro
sino que poseía una quiralidad peculiar y por tanto se la consideró
como una fuerza un tanto enigmática.
Finalmente, como la fuerza de la gravedad es tan débil, no se
conocen reacciones entre partículas subnucleares que estén regidas
por dicha fuerza y, por consiguiente, no se conocen cuáles serán
las leyes de conservación que la obedecerán a nivel microscópico.
Antes de terminar esta breve discusión sería importante recordar
lo que suponen las leyes de conservación. Al reconocerse una ley
de la Naturaleza se ha descubierto un hecho de la misma. Cuando
una ley natural es correcta, tiene que obedecerse y no hay elección
posible. Una ley civil que diga que hay que detenerse cuando un
automovilista vea en su camino la señal de stop podrá ignorarse (
quizá con consecuencias desagradables). Una ley natural limita la
evolución de los sistemas físicos. Si se sabe que el número ba-
riónico tiene que conservarse, automáticamente quedan excluidas
una gran cantidad de reacciones nucleares en las que dicha
cantidad no se conserva. Si además se imponen otras limitaciones,
sobre la carga, la paridad, etc., puede predecirse frecuentemene
cuáles reacciones nucleares son posibles para unas determinadas
condiciones iniciales. Si experimentalmente se observa que puede
tener lugar alguna otra reacción, la supuesta ley de conservación
es falsa.
El estudio de las partículas subnucleares ha procedido históri-
camente en el sentido opuesto. Aunque se iba descubriendo cada
vez más partículas, la mayoría de las posibles reacciones entre
ellas no se daban. Con objeto de explicar por qué estaban prohibidas
estas reacciones hubo de inventarse nuevas leyes de conservación.
Algunas de estas nuevas cantidades, como el isospín y la extrañeza,
condujeron con el tiempo a un conocimiento más profundo de los
bloques de construcción fundamentales de la Naturaleza.

Leyes de conservación y simetrías

Las nuevas leyes de conservación hicieron que se conocieran


mejor los bloques de construcción fundamentales de la Naturaleza
debido a las simetrías que implicaban. La simetría de la Naturaleza
es algo con la que todos estamos familiarizados. La parte izquierda
de muchos objetos es idéntica a la derecha y lo mismo ocurre con
las partes inferior y superior. Muchas flores, cristales, copos de
nieve e incluso rostros humanos son perfectamente simétricos o
casi simétricos. La simetría en esos ejemplos se refiere a que al
girar el objeto, adopta una posición indistinguible o muy parecida
a la de partida. (El interés por la simetría surgió en la época de los
antiguos griegos a consecuencia de su búsqueda de la perfección
como ya se ha discutido en el capítulo 2.) Generalmente uno se
refiere a la simetría especular, la que permite el intercambio de la
mitad derecha de un objeto por la izquierda. Sin embargo, un copo
de nieve tiene diferentes tipos de simetría rotacional y el que se
representa en la figura 8.1 puede girarse un múltiplo de 60º y
seguir manteniendo el mismo aspecto.
Los físicos han generalizado el concepto habitual de simetría y
definen una operación de simetría como cualquier acto que se
aplique a un objeto y lo deje igual que estaba inicialmente. Las
operaciones de simetría se expresan matemáticamente. Por ejemplo.
las operaciones de simetría discutidas en el caso del copo de nieve
son rotaciones. Interesa percatarse que muchas de las operaciones
de simetría dejan inalteradas las leyes físicas. Así, si se gira
cualquier ángulo un sistema cerrado, no cambia ninguna de las
leyes físicas que lo rigen. Si se traslada en el espacio o si se
desplaza en el tiempo, las leyes físicas permanecen inalteradas.
Son tres ejemplos de operaciones de simetría.
Que dichas operaciones no modifiquen las leyes físicas parece
Figura 8.1.—Copo de nieve con simetría hexagonal. (Richard Holt/Photo Researchers.)

algo trivial y en cierto sentido lo es. No sería de esperar que los


científicos chinos descubrieran leyes físicas distintas a las de
nuestros científicos o que dentro de cien años las leyes físicas scan
diferentes a las del momento actual. Sin embargo, cada una de
esas operaciones de simetría triviales está relacionada con una ley
de conservación conocida. Un simple análisis matemático demuestra
que el hecho de que las leyes físicas no se modifiquen por una
traslación en el espacio (cambio de posición) se corresponde con
la ley de la conservación del momento. Corresponde quiere decir
que una implica necesariamente a la otra. El que las leyes físicas
no se alteren por traslación en el tiempo se corresponde con la ley
de la conservación de la energía. El que las leyes no se modifiquen
por rotación corresponde a la ley de la conservación del momento
angular.
La relación que existe entre las operaciones de simetría y las
leyes de conservación no acaba con estas tres operaciones triviales.
Su combinación (espacio, tiempo y rotación) corresponde al prin-
cipio de relatividad de Einstein, llamado a veces invarianza de
Lorentz. El que las leyes físicas no se modifiquen cuando h
función de onda sufre un cambio de fase (capítulo 7) se corresponde
con la ley de la conservación de la carga eléctrica. Las
operaciones de simetría relacionadas con otras leyes de
conservación conocidas son fundamentalmente expresiones
matemáticas de la Mecánica Cuántica.
La correspondencia entre una operación de simetría y una
ley de conservación es biunívoca, es decir, se implican
mutuamente lo que confiere a dichas relaciones una importancia
extraordinaria Cada nueva ley de conservación entraña un
nuevo «número cuántico» y una operación de simetría que
deja inalteradas a las leyes físicas. Cada vez que se descubra
una cantidad que se conserve se inferirá una nueva simetría de
las leyes físicas. Fui precisamente esta relación la responsable
de que Gell-Mann Ne'eman descubrieran la nueva simetría
implicada en las leyes de conservación de las reacciones nucleares y
llamada extrañeza.
El modelo de los quarks
Una vez discutida la importante relación entre leyes de conser
vación y simetrías subyacentes se considerará cómo el descubri
miento de nuevas cantidades conservadas condujo a un
modelo nuevo de los bloques de construcción fundamentales de
la Natura leza. Esta historia comenzó cuando Gell-Mann y Ne'eman
reco-nocieron independientemente que si se ordenaban los bariones
mesones según sus números cuánticos de extrañeza e isospín se
obtenían unos patrones muy simples. Recuérdese que la
extrañeza es el número cuántico que hubo de introducirse para
explicar poi qué se observaban con una frecuencia
relativamente pequeña muchas de las reacciones posibles
entre las distintas partículas conocidas. El espín isotópico
describe los diferentes estados de carga que pueden tener las
partículas que interaccionan con fuerza nuclear fuerte.
Se pueden apreciar mejor estos patrones simples a los que
se ha aludido anteriormente haciendo uso de la cantidad
denominada hipercarga, Y, definida por Y = S + B siendo S la
extrañeza y B el número bariónico. En la figura 8.2 se representan
los patrones que se obtienen para los bariones de espín intrínseco
1/2 y para los
mesones de espín intrínseco 0. La posición de cada partícula viene
determinada por el valor de su número cuántico hipercarga y el de
su espín isotópico 1 3 (el componente z del espín isotópico) y es
unívoca. Los símbolos Σ, Λ, se refieren a las partículas dadas en la
lista de la tabla 8.1. Nótese que en la clasificación de los bariones
se incluye a los conocidísimos neutrones y protones y a otras
partículas más recientes y «extrañas».
La clasificación de los mesones incluye a los mesones pi
predichos por Yukawa y otros descubiertos más recientemente.
Ambos patrones son hexagonales con un número total de ocho
miembros cada uno, razón por la que Gell-Mann ha denominado a
estas clasificaciones la vía óctuple. La idea importante en este
momento no es el significado de la hipercarga o del isospín, sino
los patrones sencillos que se obtienen al emplear estos conceptos.
Es también importante que se recuerde que estos números cuánticos
se «inventaron» o descubrieron con objeto de obtener leyes de
conservación que permitieran explicar la razón de que unas
reacciones nucleares estuvieran permitidas y otras estuvieran prohi-
bidas.
Se dice con frecuencia en Física que la verificación de cualquier
modelo o teoría consiste en predecir correctamente algo nuevo.
Aunque la clasificación de Gell-Mann y Ne'eman de las partículas
produce unos esquemas simples, si no conduce a la adquisición de
nuevos conocimientos será simplemente una idea interesante.
Resulta notable que la nueva clasificación condujera inmediata-
mente a predecir la existencia de una partícula que nunca se había
observado experimentalmente. En la figura 8.3 se representa un
diagrama de los bariones con espín intrínseco 3/2 similar a los
dibujados en la figura 8.2. Se conocían todas las partículas
contenidas en él excepto la que se halla en el vértice inferior
denominada (L (omega menos). El modelo o simetría es obvio:
consiste en un triángulo invertido. Gell-Mann pudo predecir,
simplemente por su posición en la figura, la hipercarga que poseía
la partícula (y, por tanto, su extrañeza y espín isotópico); conside-
raciones posteriores le permitieron determinar también su carga y
masa.
Los físicos experimentales del Laboratorio Nacional Brookhaven
de Long Island, Nueva York, se dispusieron en seguida a comprobar
si existía la partícula predicha. El plan general consistía en es-
Figura 8.2.—Diagramas de clasificacion. a) Bariones de espín 1/2. b) Mesones
espín O. Y, hipercarga; I3, componente z del espín isotópico.

tudiar al menos una reacción en la que se produjera 11 — y se


siguieran obedeciendo todas las leyes de conservación
conocidas, lo que permitiría calcular su masa, carga, espín y demás
propiedades cuánticas. Se seleccionó una reacción candidata y, en
una espectacular verificación de importancia fundamental
para el nuevo esquema, pudo observarse la partícula en
noviembre de 1964. Sólo habían transcurrido siete meses desde
que fuera predicha.
El descubrimiento de Q- demostró claramente que el nuevo
esquema de clasificación tenía una significación fundamental.
Gell-Mann demostró en 1963 que los agrupamientos de partículas
según sus patrones de hipercarga en función del espín isotópico
podían describirse con la rama de las Matemáticas llamada Teoría
de Grupos (lo que no sorprende dado que las partículas
están segregadas en grupos) y más concretamente por una
representación denominada SU(3). No tiene objeto explicar aquí el
significado matemático de SU(3), baste saber que describe los
grupos comprendidos por combinaciones de tres objetos
fundamentalmente diferentes.
Gell-Mann y el físico George Zweig emitieron la hipótesis de
que los bariones y mesones conocidos estaban compuestos de tres
partículas más fundamentales aún, que Gell-Mann las llamó quarks (
palabra que tomó de un verso de la novela Finnegan's Wake de
James Joyce). Dada la enorme proliferación de partículas subnu-
Figura 8.3.—Diagrama de clasificación de un decuplete bariónico. Y, hipercarga; /3,
componente z del espín isotópico.

cleares de las familias de los bariones y mesones, si la hipótesis


tuviera éxito simplificaría muchísimo la lista de partículas fun-
damentales.
Gell-Mann se dedicó a deducir las propiedades de cada uno de
los tres quarks como masa, carga eléctrica, espín, etc., de modo
que sus combinaciones permitieran describir las características
conocidas de los bariones y mesones. Algunas propiedades de los
quarks resultaron ser peculiares, especialmente el que tuvieran
cargas 1/3 ó 2/3 de la del electrón o protón, ya que durante
muchos años se había creído que la unidad de carga eléctrica más
pequeña era la del electrón. Gell-Mann encontró que los bariones
tendrían que estar formados por tres quarks y los mesones por dos.
Cada quark tenía su correspondiente antiquark, existiendo la
misma relación que entre partículas y antipartículas. Realmente
un mesón es un par quark-antiquark. Todos los grupos conocidos
de bariones y mesones podían explicarse con el modelo de los
quarks e incluso se predijo con él la existencia de la partícula Ω—.
El éxito del modelo de los quarks y la simplificación que
suponía fue tan grande que muchos experimentadores se pusieron
rápidamente a tratar de detectarlos. Muchos físicos fueron escépticos
desde el comienzo de que hubiera probabilidad de conseguirlo,
puesto que jamás se habían observado partículas con carga
fraccionaria. Hasta la fecha no se han llevado a cabo experimentos
convincentes que permitan afirmar la detección de los quarks
individuales. La situación se ha complicado al descubrirse nuevas
partículas subnucleares con más masa, habiendo sido necesario
ampliar el modelo original de tres quarks hasta seis. Es evidente
que el modelo de los quarks no supondría una simplificación si se
necesitaran muchos.
A pesar de los fracasos en la detección de quarks y del
reciente aumento del número de partículas, la mayoría de los
físicos nucleares actuales creen que dicho modelo es básicamente
correcto. En realidad los nuevos quarks han proporcionado algunas
de las pruebas más importantes en favor de la validez del modelo.
El nuevo quark que se necesitaba para poder describir adecuada-
mente una partícula nueva permitía predecir otras como combina-
ciones de los quarks «antiguos» y el nuevo. Estas nuevas partículas
se fueron descubriendo invariablemente, verificándose así la exis-
tencia del nuevo quark y la corrección de todo el modelo.
T A B L A 8 . 2
Propiedades de los quarks
Nombre Espín Carga eléctrica Número bariónico

Up (arriba) 1/2 +2/3 1/3


Down (abajo) 1/2 —1/3 1/3
Charrned (encantado) 1/2 +2/3 1/3
Strange (extraño) 1/2 —1/3 1/3
Top (cima) o
Truth (verdad) 1 /2 +2/3 1/3
Bottom (fondo) o
Beauty (belleza) 1/2 —1/3 1/3

En la tabla 8.2 se resumen las propiedades de los seis quarks


conocidos. Los tres quarks originarios se denominan generalmente
up, down y strange y pueden dar cuenta de todos los bariones y
mesones de las partículas elementales «originales» de la tabla 8.1.
Así, se piensa que un protón consta de dos quarks up y un down,
un neutrón consta de un quark up y dos down y el mesón pi más
de Yukawa está formado por un quark up y un antidown.
Al descubrirse en 1974 una nueva partícula de vida relativa-
mente larga llamada J o Ψ (psi) hubo de introducirse el cuarto
quark, llamado generalmente charmed, y al descubrirse en 1977 la
y (úpsilon), también de vida relativamente larga, hubo de añadirse
el quark botton (o beauty). Algunos de los experimentos que se
realizaron en 1983 indicaban la existencia de un sexto quark,
llamado top o truth. Además de estos seis tipos o sabores, cada
uno de ellos puede presentarse en tres colores distintos denominados
corrientemente rojo, amarillo y azul. Puesto que cada quark
tiene su correspondiente antiquark, existen treinta y seis quarks
diferentes aunque sólo seis tipos básicos. (Quizá pudiera parecer
caprichoso emplear palabras como extrañeza, encanto, color, arriba,
etc., para describir cantidades físicas; sin embargo, es tan
legítimo como acuñar palabras griegas tales como entropía,
entalpía, etc.)
Si los quarks fueran verdaderamente los bloques de construcción
fundamentales de los bariones y mesones tendría que existir
una nueva furza no mencionada aún para mantener a los quarks
en el interior de dichas partículas. Esta fuerza habría de ser
extraordinariamente intensa para explicar por qué no se observan
nunca los quarks libres. La idea del color de los quarks se
debe en gran parte a esta fuerza, creyéndose que entre los
quarks de distintos colores (o entre un quark coloreado y su
antiquark) habría de existir una fuerza muy intensa. Se pensó
que la fuerza color sería algo parecida a la fuerza eléctrica que
existe entre cargas de signo opuesto. Como se representa en la
figura 8.4 se puede imaginar que un campo de fuerza eléctrica
se origina en una carga positiva y acaba en otra negativa (o al
contrario) y es el responsable de que ambas queden ligadas.
De forma parecida se cree que la fuerza color entre los
quarks se origina en uno de ellos con un color específico y
termina en otro de distinto color o en un antiquark del
mismo color, diciéndose que los quarks sienten la fuerza color
lo mismo que las cargas sienten la eléctrica. En la figura 8.5 se
representan los campos de la fuerza color en el caso de un barión
y un mesón.
Una mezcla de luz formada por cantidades iguales de rojo,
amarillo y azul es blanca y por analogía con ello se dice que un
Figura 8.4.—Líneas del campo de la fuerza eléctrica entre dos cargas.

Figura 8.5.—Líneas de campo de la fuerza color. a) Entre el par quark-antiquark de


un mesón. b) Entre los tres quarks de un barión. q, quark; antiquark; R, rojo; Y,
amarillo; B, azul.

barión formado por tres quarks de distintos colores no tiene color


y lo mismo ocurre con un mesón formado por un quark y un
antiquark del mismo color (lo que significa que un antiquark tiene
«anticolor»). Es sorprendente que las partículas descubiertas hasta
la fecha sean combinaciones «descoloridas» de quarks y se cree
que éstos siempre se presentan en tripletes o pares que no tengan
color.
La fuerza color es muy intensa y los quarks están tan estrecha-
mente unidos en el interior de las partículas que no hay forma de
encontrar un quark «libre». Además, se cree que la fuerza color
entre los quarks aumenta en lugar de disminuir al ser separados,
lo que contrasta con las fuerzas eléctrica y gravitatoria. La fuerza
color es más bien peculiar si se compara con las más familiares y
se piensa que puede describirse por una teoría cuántica de campos,
siendo los gluones los cuantos que se intercambian.
Antes de finalizar la discusión acerca de los quarks y de la
fuerza color que existe entre ellos habría que reconsiderar la
fuerza nuclear fuerte entre nucleones. Parece que no se trata de
una fuerza fundamental en absoluto, sino que es una especie de
efecto sobrante de la intensísima fuerza color existente entre los
quarks del interior de los mismos nucleones. Sin embargo, es
importante continuar estudiándola, ya que es la que determina la
estructura de los núcleos y la responsable de la producción de
energía en el interior de las estrellas. Puesto que la fuerza nuclear
deriva de la de color, únicamente cuando se comprenda aquélla
podrá comprenderse ésta. Quizá explique esto por qué los físicos
nucleares han sido incapaces de describir de forma sencilla la
fuerza nuclear a pesar de llevar estudiándola cincuenta años.

Resumen de los conocimientos actuales

En la tabla 8.3 se resumen los conocimientos actuales acerca


de los bloques de construcción fundamentales de la Naturaleza,
quarks, leptones y cuantos de campo. Obsérvese que los quarks y
leptones se han dividido en familias desde la primera en descubrirse
hasta la más reciente. Los quarks de la primera familia pueden
dar cuenta de casi todas las partículas subnucleares comunes, tales
como el protón y el neutrón. Los leptones de la primera familia
son el electrón y su neutrino. Los quarks de la segunda familia son
el strange y el charmed y son necesarios para poder describir las
propiedades de algunas de las partículas más peculiares del en-
jambre surgido en las reacciones nucleares de alta energía. Los
leptones de la segunda familia son el muón y su neutrino; el
primero es muy parecido al electrón, pero con una masa doscientas
veces superior. La tercera familia de quarks comprende top y
bottom (o truth y beauty) y son necesarios para explicar las
propiedades de las partículas descubiertas desde 1977. Los leptones
de la tercera familia son el tauón y su neutrino; el primero se
descubrió en 1975 y actúa como un electrón más pesado que el
muón. Su neutrino no se ha identificado aún positivamente.
En la tabla se incluyen los cuantos de las fuerzas fundamentales.
Siguiendo la discusión de la sección anterior acerca de la fuerza
nuclear fuerte, ésta es sustituida por la fuerza color cuyo cuanto
de campo es el gluón. Experimentalmente sólo se han observado
los cuantos de las fuerzas electromagnética y débil. Se piensa que

TABLA 8.3
Partículas fundamentales (alrededor de 1986)

Familia Propiedades Leptones Quarks

Nombre Electrón Neutrino eléct. Up Down


Símbolo e u, u d
Primera Carga —1 0 2/3 —1/3
Masa 0,5 X 10-3 0? —5 x 10-2 —10—2
Año dese. 1898 1954 1963 1963

Nombre Muón Neut. muón co Charmed Strange


Símbolo 9 νµ c s
Carga —1 0 2/3 —113
Segunda Masa 0,11 0? --1,7 —0,3
Año dese. 1936 1962 1974 1974
Nombre Tacón Neut. Lauónico Top Bottorn
Símbolo ν T h
Carga --1 0 2/3 —1/3
Tercera Masa 1,78 0? >30 —5
Año dese. 1975 1984 1977

Cuantos de campo
Fuerza Cuanto Símbolo Masa (GeV) Año
descubrimi
ento
Electromagnética Fotón y 0 1905
Débil Bosones 1983
vectoriales
intermedios W+, W—, Z0 81.000
Fuerte (color) Gluón ?
Gravedad Gravitón O —

Las cargas están dadas en unidades de carga del protón y las masas en miles de millones de
electrón-voltios (GeV).
el gluón tenga tanta masa que no podrá producirse con los
actuales aceleradores de partículas. Por el contrario, se cree que el
gravitón porta tan poca energía que será muy difícil observarlo. A
pesar de que únicamente se hayan observado dos de los cuatro
cuantos de campo, los físicos modernos aceptan como universal-
mente correcta la descripción cuántica de los campos.
Adviértase que existe la posibilidad de que se descubran más
familias de quarks y leptones. Aunque parece posible que pueda
continuar creciendo el número de ellas, ciertas consideraciones
sobre los primeros instantes del big bang impondrían un límite a
las mismas. Nótese también que la mayoría de las partículas
corrientes del Universo están construidas únicamente por leptones y
quarks de la primera familia y sólo en las reacciones nucleares de
alta energía se producen partículas hechas con los quarks de las
familias superiores. Por consiguiente, aunque existieran más
familias tendrían muy poca importancia en el Universo tal como
lo conocemos.
Aunque hay que recordar que los leptones y quarks de la tabla
8.3 tienen sus correspondientes antipartículas y que cada uno de
los quarks se presenta en tres colores, habrá de concluirse que, si
verdaderamente son los bloques de construcción fundamentales de
la Naturaleza, la sustitución es hermosamente simple y que no
representa una lista larga y desesperanzadora de partículas sin
ninguna relación aparente. Hay que discutir el punto relacionado
con su verdadera naturaleza fundamental. La cuestión es muy
simple, ¿existen pruebas de que los leptones y quarks estén
formados de partículas más pequeñas todavía? El problema se
reduce básicamente a si una partícula tiene «tamaño» o no. Si una
partícula tiene extensión espacial (tamaño) deberá ocupar algo de
ese espacio. Sea lo que fuera este algo, será lo que «construye» a
la partícula. Sólo si se trata de un punto sin tamaño, la partícula
será fundamental. (Nótese, sin embargo, que el concentrar una
cantidad finita de carga en un punto requerirá una cantidad
infinita de energía, motivo por el que esta cuestión permanezca
discutible.)
Se sabe que el electrón es extremadamente pequeño. Parece
ser que un puro «punto» del espacio sin tamaño alguno. Aunque
no se ha establecido que el límite del tamaño de un quark sea tan
pequeño como el de un electrón, también parece que se trata de
Laboratorio Acelerador Nacional Fermi

una partícula puntual. Se puede emplear el principio de incerti-


dumbre discutido en el capítulo anterior para convencer a los
físicos de que es extremadamente improbable que exista en el
interior de un quark, o de un electrón algo más pequeño. Las
pruebas experimentales actuales concuerdan con el modelo de que
los electrones y quarks son partículas «puntuales» sin estructura ni
propiedades geométricas y dimensión inferior a 10- 16 cm. Los fí-
sicos cada vez están más convencidos de que la tabla 8.3 es la lis-
ta correcta de los bloques de construcción fundamentales de
la Naturaleza (aunque existan algunas especulaciones acerca de la
estructura interna de los quarks).
¿Qué queda por comprender? Primero, hay que realizar muchas
investigaciones que verifiquen que los leptones y quarks son
fundamentales, siendo necesario que se determine exactamente el
número de familias que existe y, si es limitado, averiguar por qué.
Segundo, los físicos desean adquirir un conocimiento más completo de
la naturaleza fundamental de las cuatro fuerzas básicas. En la
actualidad se dispone de una descripción unificada de las fuerzas
electromagnética y débil y algunos físicos creen que pronto podrá
unificarse con la fuerza color fuerte. Sólo quedaría entonces que
integrar la fuerza gravitatoria para obtener la Teoría de Campo
Unificado de todas las fuerzas (objetivo en el que Einstein estuvo
trabajando durante cuarenta años). Aunque en las últimas décadas
se han dado pasos tremendos hacia el conocimiento básico de la
Naturaleza, aún queda mucho por hacer.
Uno se podría preguntar desde una perspectiva más amplia si
los bloques de construcción básicos de la Naturaleza acaban en la
tabla 8.3. Aunque existan buenas razones para pensar que los
quarks y leptones son realmente partículas fundamentales y el
principio de incertidumbre de Heisenberg indique lo poco probable
que es que dichas partículas estén hechas de otras más pequeñas,
uno podría sentirse inclinado a creer que la Naturaleza puede
reservarnos sorpresas. Durante la Historia de la Ciencia ha habido
diversos períodos en que los científicos pensaban que la Ciencia
estaba casi «completa». Siempre han seguido a ellos revoluciones
científicas que modificaron significativamente los conocimientos
sobre el universo físico. No parece probable que haya llegado el
fin de este proceso, aunque resulte difícil indicar las direcciones en
el futuro. Después de todo, no serían verdaderamente nuevas si ya
se supiera hacia dónde van.
Referencias

Una lista de obras que los autores creen que serán útiles como
lectura complementaria es la siguiente.

Capítulo 1

Gillespie, Charles C. The Edge of Objetivity. Princeton, N. J.:


Princeton University Press, 1960. Un libro estándar sobre Historia y
Filosofía la Ciencia.
Holton, Gerald y Stephen G. Brush. Introduction lo Concepts and Theorie
in Physical Science, 2.. Ed. Reading, Mass: Addison-Wesley, 1973.
Un libro más matemático que el presente, con una extensa
discusiói sobre la naturaleza del pensamiento científico y temas
relacionado así como mucha bibliografía. Los capítulos 3, 12, 13
y 14 son pertinentes.
Jaki, Stanley L. The Relevante of Physics. Chicago: University of Chicago
Press, 1966. Historia y Filosofía de la Ciencia y la influencia de ésta
en otras áreas del pensamiento.
Kuhn, Thomas S. The Structure of Scientific Revolutions, 2.. Ed. Chicagc
University of Chicago Press, 1970. Este libro ha tenido un enorme
impacto en la forma de considerar a las «revoluciones científicas»
Existe traducción castellana por Agustín Contín, La estructura de la
revoluciones científicas, Fondo de Cultura Económica, Madrid, 1982.
Scheneer, Cecil J. The Evolution of Physical Science. Nueva York: Grove
1964. Una perspectiva histórica interesante sobre el desarrollo de L
ciencia física. Excelente discusión sobre las primitivas contribucione
de los griegos.
Capitulo 2

Abbott, E. A. Flatland. Nueva York: Dover, 1952. Un libro muy entretenido,


originalmente escrito hace un siglo, sobre un mundo bidimensional.
Berry, Arthur. A Short History of Astronomy: From Earliest Times Through
the Nineteenth Gentr y)). Nueva York: Dover, 1961. El capítulo 2
discute las contribuciones de los griegos.
Bronowski, J. The Ascent of Man. Boston: Little, Brown, 1973. Basado en
una serie televisiva del mismo nombre. Son apropiados los capítulos 5, 6
y 7. Existe versión castellana por Alejandro Ludlow Wiechers, El
ascenso del hombre, Fondo Educativo Interamericano, S. A., Bogotá,
1979.
Butterfield, Herbert. The Origins of Modem Science, ed. rev. Nueva York:
Free Press, 1965. Un pequeño libro escrito por un historiador que
discute el progreso científico hasta la época de Isaac Newton.
Cornford, F. M. The Republic of Plato. Londres: Oxford University Press,
1941. Contiene la descripción de la Alegoría de la Caverna.
Dreyer, J. L. E. A Historiy of Astronomy fron Thales to Kepler, 2.. Ed.
Nueva York: Dover, 1953. Proporciona información detallada de las
cuestiones tratadas en este capítulo.
Holton, Gerald y Stephen G. Brush. Op. cit. Introducción que hace
hincapié en el trasfondo histórico de la Física. Los capítulos 1-5 y las
pp. 154-160 son pertinentes y presentan muchas referencias a otras
fuentes de información.
Kearney, Hugh. Science and Change, 1500-1700. Nueva York: McGraw-
Hill, 1975. Un pequeño libro que discute el fermento científico
general en Europa durante el período 1500-1700. Existe traducción
castellana por Juan José Ferrero Blanco, Orígenes de la ciencia moderna,
1500-1700, Guadarrama, Madrid, 1970.
Koestler, Arthur. The Watershed. Garden City, N. Y.: Doubleday, 1960.
Una corta discusión biográfica de la vida y obra de Kepler. Existe
traducción castellana por Domingo Santos de una parte de la obra,
Kepler, Salvat, S. A., Barcelona (1985).
Koyre, Alexander. Discovering Plato. Nueva York: Columbia University
Press, 1945. Se discuten los puntos de vista de Platón sobre la Ciencia Y
la Filosofía.
Kuhn, Thomas S. The Copernican Revolution. Nueva York: Random
House, 1957. Discusión detallada del tema de este capítulo. Existe
traducción castellana por Doménec Bergadá, La revolución copernicana, 2
vol., Ediciones Orbis, Barcelona, 1987.
Kuhn, Thomas S. Op. cit. en cap. 1.
Schneer, Cecil J. Op. cit.
Toulmin, Stephen y Goodfield, June. The Fabric of the Heavens. Nueva
York: Harper and Row, 1961. Un informe interesante sobre la evolución
de los enfoques e ideas desde la época de los babilonios hasta la
de Isaac Newton.

Capítulo 3

Buttertield, Herbert. Op. cit.


Holton, Gerald y Stephen G. Brush. Op. cit. Particularmente apropiados
para este capítulo son los capítulos 6-11.
Schneer, Cecil J. Op. cit.

Capítulo 4

Brown, Sanborn C. Benjamin Tompson, Count Rurnford. Cambridge


Mass: MIT Press, 1979. Una biografía personal y científica de uno de
los primeros científicos americanos.
Feyman, Richard P., Leighton, Robert B. y Sands, Matthews. The Feymar
Leciures on Physics. Reading, Mass.: Addison-Wesley, 1963, vol. 1
capítulo 4. Un libro de texto para estudiantes universitarios
avanzados que hace hincapié en el conocimiento de los principios
físicos. Usa e' cálculo elemental.
Holton, Gerald y Stephen G. Brush. Op. cit., capítulos 15-17 y 22.
Mott-Smith, Morton. The Concept of Energy Simply Explained. Nueve
York: Dover, 1964. Reimpresión de un libro interesante,
publicado originalmente en 1934 y escrito con un estilo
descriptivo para ur público general. Algunas de sus afirmaciones
no pueden aceptarse hoy día.
Schneer, Cecil J. Op. cit.

Capítulo 5

Adams, Henry. The Degradation of the Democratic Dogma. Nueva York


McMillan, 1920. Tipifica el impacto de la «muerte térmica» sobre
e pensamiento social.
Arnhem, Rudolph. Entropy and Art.' An Essay on Disorder and Order
Berkeley: University of California Press, 1971. Contrasta la
visión artística de estos temas con la de un físico.
Gamow, George. Mr. Tompkins in Paperback. Nueva York: Cambridge
University Press, 1972. Un libro delicioso que presenta las ideas de la
Física Moderna como si se estuvieran soñando al quedarse medio
dormido en el pupitre durante una conferencia. Capítulo 19.
Georgescu-Roegen, Nicholas. The Entropy Law and the Economic Process.
Cambridge, Mass.: Harvard University Press, 1971. Análisis matemático de
la teoría económica empleando los conceptos de la Física General, de la
Termodinámica y de la Teoría Cuántica.
Holton, Gerald y Stephen G. Brush. Op. cit. Capítulo 18.
Landsberg, Peter Theodore. Entropy and the Unity of Knowledge. Cardiff:
University of Gales Press, 1961. Aplicación del concepto de entropía a
la teoría económica, a la teoría de la información y al análisis
textual.
Lewicki, Zbigniew. The Bang and the Whimper: Apocalypse and Entropy
in American Literature. Westport. Conn.: Greenwood Press, 1984. La
segunda mitad del libro discute el concepto de entropía empleado por
diferentes escritores americanos como Herman Melville, Nathaniel
West, Thomas Pynchon, William Gaddis, Susan Sontag y John Updike.
Mott-Smith, Morton. Op. cit.
Powell, J. R., Salzano, F. J., Yu, Wen-Shi y Milau, J. S. «A High Efficiency
Power Cycle in Which Hydrogen Is Compressed by Absorption in
Metal Hydrides». Science 1923 (23 de julio de 1976), 314-316.
Describe una máquina térmica de tres depósitos.
Rifkin, Jeremy. Entropy: A New World View. Nueva York: Viking, 1980.
Afirma que hay que revisar en gran medida la política económica y
energética para que consideren la segunda ley de la Termodinámica.
Sanfort, John F. Heat Engines. Garden City, N. Y.: Doubleday, 1962. Una
introducción fundamentalmente no matemática de las máquinas tér-
micas escrita para el público general.
Zemansky, Mark W. Temperatures Very Low and Very High. Princeton, N.
J.: Van Nostrand, 1964. Introducción a nivel universitario. Requiere
ciertos conocimientos de Física.

Capítulo 6
Bondi, Hermann. Relativity and Common Sense. Nueva York: Dover, 1980.
Introducción no matemática de la relatividad escrita para el público
general.
Born, Max. Einstein's Theory of Relativity. Nueva York: llover, 1962. Una
extensa discusión de la Mecánica, Optica y Electrodinámica relacio-
nadas con la Teoría de la Relatividad en la que únicamente se
emplean Álgebra y Geometría simple.
Casper, Barry M., Nocr, Richard J. Revolutions in Physics. Nueva York:
Norton, 1972. Los capítulos 12-15 proporcionan una buena discusión
de nivel bajo acerca de la relatividad en la que se emplean matemáticas
muy simples.
Ford, Kenneth W. Basic Physic. Nueva York: Wiley, 1968. Un libro de
texto de Física que sólo usa el Álgebra y la Trigonometría de forma
muy clara. Véanse los capítulos 1, 4, 15, 16 y 19-22.
Gamow G. W. Op. cit. Los capítulos 1-6 tratan de relatividad.
Hawking, S. W. «The Edge of Spacetime». The American Scientist 72 (
julio-agosto 1984), 355-359. Discusión interesante de algunas recientes
ideas sobre relatividad general, sobre todo la aplicación de la Teoría
Cuántica.
Holton, Gerald y Stephen G. Brush. Op. cit. capítulo 31.
Lindsay, Robert Bruce y Margenau, Henry. Foundations of Physics. Nueva
York: Wiley, 1936. Un libro de texto avanzado con discusiones de los
supuestos metafísicos básicos de la Física. Véanse los capítulos 1, 2,
7 y 8.
Resnick, Robert. «Misconceptions About Einstein». Joumal of Chemical
Education 57 (Diciembre de 1980), 854-862. Contiene interesante
información biográfica.
Sciama, D. W. The Physical Foundations of General Relativity. Garden
City, N. Y.: Doubleday, 1969. Aunque está escrito para el público
general contiene discusiones algo sofisticadas y sutiles.

Capitulo 7
DeWitt, Bryce S. y Graham, R. «Resource Letter IQM-1 on the Interpre-
tation of Quantum Mechanics». American Journal of Physics 39 (julio
de 1971), 724-738.
Feyman, Richard P., Leighton, Robert B. y Sands, Matthews. Op. cit. Vol
III.
Ford, Kenneth W. Op. cit. Capítulos 23 y 24.
Gamow, G. W. Op. cit. Capítulos 7, 8, 10 y 10,5.
Friedman, A. J. y Donley, Carol. Einstein as Myth and Muse. Cambridge:
Cambridge University Press, 1985.
Friedman, Alan J. «Contemporary American Physics Fiction». American
Journal of Physics 47 (mayo de 1979), 392-395.
Hoffman, Banesh. The Strange Story of the Quantum. Nueva York: Dover,
1959. Una introducción no matemática de la Mecánica Cuántica
escrita para el público general.
Heisenberg, Werner. Physics and Philosophy: The Revolution in Modern
Science. Nueva York: Harper, 1958. Presenta el punto de vista filosófico
de uno de los grandes arquitectos de Teoría Cuántica.
Juki, Stanley L. Op. cit.
Lindsay, Robert Bruce y Margenau, Henry. Op. cit.

Capítulo 8

Cohen, B. L. Concepts of Nuclear Physics. Nueva York: McGraw-Hill,


1971. Un texto universitario avanzado sobre los principios de la Física
Nuclear.
Eisberg, R., y Resnick, R. Quantum Physics. Nueva York: Wiley, 1974. Un
texto universitario menos avanzado con buenas introducciones a las
ideas básicas de la Física Moderna, incluyendo la Física Nuclear.
Enge, H. A. Introducción to Nuclear Physics. Reading, Mass: Addison-
Wesley, 1966. Otro texto universitario avanzado bien escrito.
Gamow, G. W. Op. cit. Capítulos 12-15.
Particles and Pields. San Francisco: Freeman, 1980. Colección de artículos
de Scientific American sobre los recientes avances en Física de Partículas
Elementales escritos para el público general interesado. Véanse también
los diversos artículos de Scientific American escritos desde 1980. Se
dispone de traducción castellana. Investigación y Ciencia, Ed. Labor,
Barcelona.

Potrebbero piacerti anche