Sei sulla pagina 1di 103

Cosmología

La cosmología es el estudio a gran escala de la estructura y la historia del


universo. En particular, trata los temas relacionados con su origen y su
evolución. Es material de estudio para la física, astronomía, filosofía y religión.

Cosmología física
Se entiende por cosmología física todas aquellas teorías, modelos o ideas
cosmológicas que forman el modelo actual de cosmología. Dicho modelo surge
del estudio de la cosmología por parte de la física y la astronomía, ciencias que
están íntimamente relacionadas: la evidencia experimental que entregan las
observaciones astronómicas sirven de base para los modelos teóricos que
elaboran los físicos.

Las piedras angulares sobre las que se basa la cosmología moderna son:

El descubrimiento de la Ley de Hubble, que describe la expansión del


universo.
El descubrimiento de la Teoría de la Relatividad General.

A partir de la primera surgió la Teoría del Big Bang o "de la Gran Explosión"
como origen del universo, mientras que la segunda es necesaria para describir
físicamente al universo a gran escala. Y también para dar consistencia a la
primera.

Observaciones de grandes porciones del cielo indican que, a escala cosmológica,


el universo es homogéneo e isotrópico (se ve igual en todas direcciones), lo que
fue confirmado con el descubrimiento de la radiación de fondo de microondas.
Sin embargo, a escalas más pequeñas es universo es claramente inhomogéneo.

A pesar de que la cosmología física es el modelo más aceptado entre la


comunidad científica, hay algunos aspectos que todavía quedan por resolver:

Se desconoce qué occurrió en los primeros instantes tras el Big Bang. La


respuesta se busca mediante el estudio del Universo Temprano, una de
cuyas metas es encontrar la explicación a una posible unificación de las
cuatro fuerzas fundamentales (fuerte, débil, electromagnética y
gravitacional).
No se sabe cómo se formaron las estructuras actuales, a partir del Big
Bang. La respuesta se busca mediante el estudio de la formación y
evolución de las galaxias y la inflación cósmica.
Queda por saber a qué se debe el hecho de que el universo se expanda
con aceleración (Véase Aceleración de la expansión del universo).
No se sabe cuál es el destino final . La respuesta se busca a través del
estudio de la energía oscura.
La naturaleza de la materia oscura es desconocida.
Cosmología alternativa
Se entiende por cosmología alternativa todas aquellas teorías, modelos o ideas
cosmológicas que contradicen el modelo estándar de cosmología. Podemos
clasificarla en tres grandes grupos:

Cosmología física alternativa

Cosmología del plasma


Teoría del Estado Estacionario
Expansión cosmica en escala de Johan Masreliez

Cosmología filosófica

Filosofía presocrática
Principio antrópico

Cosmología religiosa

Artículo principal: Cosmología religiosa

La cosmología religiosa es un debate en abierto, un tema muy delicado. De


hecho que la cosmología científica es esencialmente diferente de la religiosa.
Inicialmente los objetivos eran los mismos, sin embargo bien en el inicio no
existía una diferencia exacta o bien formulada entre ciencia y religión. Por otro
lado ahora existe; Entonces en el momento que hablamos de cosmología
religiosa no nos estamos refiriendo a una teoría que procure o busque explicar
cómo esta hecho el universo, cual es su evolución, o fin. Nos estamos refiriendo
básicamente a como el ser humano en su dimensión subjetiva, espiritual va
evolucionando en el tiempo. Cual seria su fin, su inicio en el ámbito de fe, de
experiencia religiosa como búsqueda de Dios, de lo supremo.

Teoría del Big Bang


Según la teoría del Big Bang, el Universo se originó en una singularidad de
densidad infinita y físicamente paradójica. El espacio se ha expandido desde
entonces por lo que los objetos astrofísicos se han alejado unos respecto a otros.

La teoría del Big Bang o de la gran explosión, en cosmología, es la teoría


científica que describe el desarrollo del Universo temprano y su forma. La idea
central es que la teoría de la relatividad general puede ser combinada con las
observaciones a gran escala de galaxias y cambios de posición entre ellas,
permitiendo extrapolar las condiciones del universo a antes o después en el
tiempo. Una consecuencia natural del Big Bang es que en el pasado el universo
tenía una temperatura más alta y una mayor densidad. El término Big Bang se
utiliza tanto para referirse específicamente al momento en el tiempo en el que se
inició la expansión observable del universo (Ley de Hubble), como en un
sentido más general para referirse al paradigma cosmológico que explica el
origen y la evolución del mismo. Curiosamente fue uno de los detractores de
esta teoría, el astrofísico inglés Fred Hoyle (uno de los principales defensores de
la teoría del estado estacionario) quien, en 1950 y para mofarse, caricaturizó esta
explicación con la expresión big bang ("gran explosión", "gran boom" en el
inicio del universo), nombre con el que hoy se conoce dicha teoría.

Una consecuencia del Big Bang es que las condiciones del universo actual son
diferentes de sus condiciones en el pasado o en el futuro. A partir de este
modelo, George Gamow en 1948 pudo predecir que debería haber evidencia de
un Big Bang en un fenómeno más tarde bautizado como radiación de fondo de
microondas cósmicas (CMB). El CMB fue descubierto en la década de los 60 y se
utiliza como confirmación de la teoría del Big Bang sobre su más importante
alternativa, la teoría del estado estacionario.

Para llegar a esta explicación, diversos científicos, con sus estudios, han ido
construyendo el camino que lleva a la génesis del modelo del Big Bang.

Los trabajos de Alexander Friedman, del año 1922, y de Georges Lemaître, de


1927, utilizaron la teoría de la relatividad de Albert Einstein para demostrar que
el universo estaba en movimiento constante. Poco después, en 1929, el
astrónomo estadounidense Edwin Hubble (1889-1953), descubrió galaxias más
allá de la Vía Láctea que se alejaban de nosotros, como si el universo se dilatara
constantemente. En 1948, el físico ruso nacionalizado estadounidense, George
Gamow (1904-1968), planteó que el universo se creó a partir de una gran
explosión (Big Bang). Recientemente, ingenios espaciales puestos en órbita
(COBE) han conseguido "oír" el eco de esta gigantesca explosión primigenia.

Dependiendo de la cantidad de materia en el Universo, éste puede expandirse


indefinidamente o frenar su expansión lentamente hasta producirse una
contracción global. El fin de esa contracción se conoce con un término contrario
al Big Bang: el Big Crunch o 'Gran Colapso'. Si el Universo se encuentra en un
punto crítico, puede mantenerse estable ad eternum

Historia de la teoría
La teoría del Big Bang se desarrolló a partir de observaciones y de un avance
teórico. Por medio de observaciones en los años 1910, el astrónomo
estadounidense Vesto Slipher y después el de Estrasburgo Carl Wilhelm Wirtz
determinaron que la mayoría de las nebulosas espirales se alejaban de la tierra;
pero no llegaron a darse cuenta de las implicaciones cosmológicas de esta
observación, ni tampoco que las supuestas nebulosas eran en realidad galaxias
más allá de nuestra propia vía Láctea.

También en la segunda década del siglo XX, la teoría de Albert Einstein sobre la
relatividad general no admite soluciones estáticas (es decir, el universo debe
estar en expansión o en reducción) un resultado que él mismo consideró
equivocado, por lo que trató de corregirlo agregando la constante cosmológica.
El primero en aplicar formalmente la relatividad a la cosmología sin la constante
cosmológica fue Alexander Friedman cuyas ecuaciones describen el universo
Friedman-Lemaître-Robertson-Walker, que puede expandirse o contraerse.

Entre 1927 y 1930, el padre jesuita belga Georges Lemaître obtuvo


independientemente las ecuaciones Friedman-Lemaître-Robertson-Walker y
propuso, sobre la base de la recesión de las nebulosas espirales, que el universo
se inició con la explosión de un átomo primigenio, lo que más tarde fue llamado
el Big Bang.

En 1929, Edwin Hubble realizó observaciones que sirvieron de base para


comprobar la teoría de Lemaître. Hubble probó que las nebulosas espirales son
galaxias y midió sus distancias observando las estrellas variable cefeida en
galaxias distantes. Descubrió que las galaxias se alejan entre ellas a velocidades
(relativas a la tierra) directamente proporcionales a su distancia. Este hecho se
conoce ahora como la Ley de Hubble (véase Edwin Hubble: Marinero de las
Nebulosas por Edward Christianson).

Según el principio cosmológico, el alejamiento de las galaxias sugería que el


universo está en expansión. Esta idea ocasionó dos posibilidades opuestas. La
primera era la teoría Big Bang de Lemaître, apoyada y desarrollada por George
Gamow. La segunda posibilidad era el modelo de la teoría del estado
estacionario de Fred Hoyle, en la cual la nueva materia sería creada mientras las
galaxias se alejan entre ellas. En este modelo, el universo es básicamente el
mismo en un momento dado en el tiempo. Durante muchos años hubo adeptos
por igual a ambas teorías.

Con el pasar de los años, las evidencias observacionales apoyan la idea de que
el universo evolucionó a partir de un estado denso y caliente. Desde el
descubrimiento de la radiación de fondo de microondas en 1965, ha sido
considerada como la mejor teoría para explicar el origen y evolución del cosmos.
Antes de finales de los años 1960, muchos cosmólogos pensaban que la
singularidad infinitamente densa del tiempo inicial en el modelo cosmológico de
Friedman era una sobre idealización, y que el universo se contraería antes de
empezar a expandirse nuevamente. Esta es la teoría de Richard Tolman de un
universo oscilante. En los años 1960, Stephen Hawking y otros demostraron que
esta idea no era factible, y que la singularidad es un componente esencial de la
gravedad de Einstein. Esto llevó a la mayoría de los cosmólogos a aceptar la
teoría del Big Bang, según la cual el universo que observamos se inició hace un
tiempo finito.
Prácticamente todos los trabajos teóricos actuales en cosmología tratan de
extender o refinar elementos de la teoría del Big Bang. Mucho del trabajo actual
en cosmología incluye el entender cómo se formaron las galaxias en el contexto
del Big Bang, entender lo que allí ocurrió y cotejar nuevas observaciones con la
teoría básica.

A finales de los años 1990 y principios del siglo XXI se lograron enormes
avances en la cosmología del Big Bang como resultado de importantes avances
en telescopía en combinación con grandes cantidades de datos satelitales de
COBE, el telescopio espacial Hubble y WMAP. Estos datos han permitido a los
cosmólogos calcular muchos de los parámetros del Big Bang hasta un nuevo
nivel de precisión y condujeron al descubrimiento inesperado de que el universo
está en aceleración.

Descripción del Big Bang


Basándose en medidas de la expansión del universo utilizando observaciones de
las supernovas tipo 1a, en medidas de la variación de temperatura en diferentes
escalas en la radiación de fondo de microondas y en medidas de la función de
correlación de las galaxias, la edad del universo es de 13,7 ± 0,2 miles de
millones de años. Es notable el hecho de que tres medidas independientes sean
consistentes, por lo que se consideran como una fuerte evidencia del llamado
modelo de concordancia que describe la naturaleza detallada del universo.

El universo en sus primeros momentos estaba lleno homogénea e


isotrópicamente con una energía muy densa y tenía una temperatura y presión
concomitante. Se expandió y se enfrió, experimentando unos cambios de fase
análogos a la condensación de vapor o la congelación de agua, pero
relacionados con las partículas elementales.

Aproximadamente 10-35 segundos después de la época de Planck un cambio de


fase causó que el universo se expandiese de forma exponencial durante un
período llamado inflación cósmica. Al terminar la inflación, los componentes
materiales del universo quedaron en la forma de un plasma quark-gluon en
donde todas las partes que lo formaban estaban en movimiento en forma
relativista. Con el crecimiento en tamaño del universo, la temperatura bajó. A
cierta temperatura, debido a un cambio todavía desconocido llamado la
bariogénesis, los quarks y gluones se combinaron en bariones tal como el protón
y el neutrón, produciendo de alguna manera la asimetría observada entre materia
y antimateria. Las temperaturas aún más bajas condujeron a nuevos cambios de
fase que rompen la simetría así que les dieron su forma actual a las fuerzas
fundamentales de la física y a las partículas elementales. Más tarde unos protones
y neutrones se combinaron para formar los núcleos de deuterio y de helio en un
proceso llamado nucleosíntesis primordial. Al enfriarse el universo, la materia
gradualmente dejó de moverse de forma relativista y su densidad de energía
comenzó a dominar gravitacionalmente sobre la radiación. Pasados 300.000 años,
los electrones y los núcleos se combinaron para formar los átomos
(mayoritariamente de hidrógeno). Por eso la radiación se desacopló de los
átomos y continuó por el espacio prácticamente sin obstáculos. Ésta es la
radiación de fondo de microondas.
Al pasar el tiempo, algunas regiones ligeramente más densas de la materia casi
uniformemente distribuida crecieron gravitacionalmente haciéndose más densas,
formando nubes, estrellas, galaxias y el resto de las estructuras astronómicas que
actualmente se observan. Los detalles de este proceso dependen de la cantidad y
tipo de materia en el universo. Los tres tipos posibles se conocen como materia
oscura fría, materia oscura caliente y materia bariónica. Las mejores medidas
disponibles (provenientes del WMAP) muestran que la forma más común de
materia en el universo es la materia oscura fría. Los otros dos tipos de materia
sólo serían el 20% de la materia del universo.

El universo actual parece estar dominado por una forma misteriosa de energía
conocida como energía oscura. Aproximadamente 70% de la densidad de energía
del universo actual está en esa forma. Ese componente del universo se revela
por su propiedad de causar que la expansión del universo varíe de una relación
lineal entre velocidad y distancia produciendo que el espacio-tiempo se expanda
más rápidamente que lo esperado a grandes distancias. La energía oscura toma la
forma de una constante cosmológica en las ecuaciones de campo de Einstein de
la relatividad general, pero los detalles de esta ecuación de estado y su relación
con el modelo estándar de física de partículas continúan siendo investigados
tanto de forma teórica como por medio de observaciones.

Más misterios aparecen cuando se investiga más cerca del principio, cuando las
energías de las partículas eran más altas de lo que ahora se puede estudiar
mediante experimentos. No hay ningún modelo físico convincente para el primer
10-33 segundo del universo, antes del cambio de fase que forma parte de la teoría
de unificación grande. En el "primer instante", la teoría gravitacional de Einstein
predice una singularidad gravitacional en donde las densidades son infinitas.
Para resolver esta paradoja física, hace falta una teoría de la gravedad cuántica.
La comprensión de este período de la historia del universo figura entre los
mayores problemas no solucionados de la física.

Base teórica
La teoría del Big Bang en su forma actual depende de tres suposiciones:

1. La universalidad de las leyes de la física


2. El principio cosmológico
3. El principio de Copérnico

Inicialmente, estas tres ideas fueron tomadas como postulados, pero actualmente
se intenta verificar cada una de ellas. La universalidad de las leyes de física ha
sido verificada al nivel de las más grandes constantes físicas llevando su margen
de error hasta el orden de 10-5. La isotropía del universo que define el principio
cosmológico ha sido verificada hasta un orden de 10-5. Actualmente se intenta
verificar el principio copernicano observando la interacción entre grupos de
galaxias y el CMB por medio del efecto Sunyaev-Zeldovich con un nivel de
exactitud del 1%.

La teoría del Big Bang utiliza el postulado de Weyl para medir sin ambigüedad el
tiempo en cualquier momento en el pasado a partir del la época de Planck. Las
medidas en este sistema dependen de coordenadas conformales en las cuales las
llamadas distancias codesplazantes y tiempos conformales permiten no
considerar la expansión del universo para las medidas de espacio-tiempo. En ese
sistema de coordenadas, los objetos que se mueven con el flujo cosmológico
mantienen siempre la misma distancia codesplazante y el horizonte o límite del
universo se fija por el tiempo codesplazante.

Visto así, el Big Bang no es una explosión de materia que se aleja para llenar un
universo vacío, es el espacio-tiempo el que se extiende. Y su expansión es la
que causa el incremento de la distancia física entre dos puntos fijos en nuestro
universo. Cuando los objetos están ligados entre ellos (por ejemplo por una
galaxia), no se alejan con la expansión del espacio-tiempo debido a que se
asume que las leyes de la física que los gobiernan son uniformes e
independientes del espacio métrico. Más aún, la expansión del universo en las
escalas actuales locales es tan pequeño que cualquier dependencia de las leyes
de física en la expansión no sería medible con las técnicas actuales.

Evidencias
En general, se consideran tres las evidencias empíricas que apoyan la teoría
cosmológica del Big Bang. Éstas son la expansión del universo que se expresa
en la Ley de Hubble y que se puede apreciar en el corrimiento hacia el rojo de
las galaxias, las medidas detalladas del fondo cósmico de microondas, y la
abundancia de elementos ligeros. Además, la función de correlación de la
estructura a gran escala en el universo encaja con la teoría del Big Bang.

Expansión expresada en la ley de Hubble


Artículo principal: ley de Hubble

De la observación de galaxias y quasars lejanos se desprende que estos objetos


sufren un corrimiento hacia el rojo, lo que quiere decir que la luz que emiten se
ha desplazado proporcionalmente hacia longitudes de onda más largas. Esto se
comprueba tomando el espectro de los objetos y después comparando el patrón
espectroscópico de las líneas de emisión o absorción correspondientes a átomos
de los elementos que interactúan con la radiación. En este análisis, se puede
apreciar cierto corrimiento hacia el rojo, lo que se explica por una velocidad
recesional correspondiente al efecto Doppler en la radiación. Al representar estas
velocidades recesionales frente a las distancias a los objetos, guardan una
relación lineal, conocida como Ley de Hubble:

v = H0 D

donde v es la velocidad recesional, D es la distancia al objeto y H0 es la


constante de Hubble, que el satélite WMAP estimó en 71 ± 4 km/s/Mpc

Fondo cósmico de microondas


WMAP imagen de la radiación de fondo de microondas
Artículo principal: Radiación de fondo de microondas

Una de las características de la teoría del Big Bang es la predicción de la


radiación de fondo de microondas o CMB (Cosmic microwave background). El
universo temprano, debido a su alta temperatura, se habría llenado de luz
emitida por sus otros componentes. Mientras el universo se enfriaba debido a la
expansión, su temperatura habría caído por debajo de 3.000 K. Por encima de
esta temperatura, los electrones y protones están separados, haciendo el universo
opaco a la luz. Por debajo de 3.000 K, se forman los átomos, permitiendo el paso
de la luz a través del gas del universo. Esto es lo que se conoce como
disociación de fotones (***).

La radiación en este momento habría tenido el espectro del cuerpo negro y


habría viajado libremente durante el resto de vida del universo, sufriendo un
corrimiento hacia el rojo como consecuencia de la expansión de Hubble. Esto
hace variar el espectro del cuerpo negro de 3.000 K (*) a un espectro del cuerpo
negro con una temperatura mucho menor. La radiación, vista desde cualquier
punto del universo, parecerá provenir de todas las direcciones en el espacio.

En 1964, Arno Penzias y Robert Wilson, mientras desarrollaban una serie de


observaciones de diagnóstico con un receptor de microondas propiedad de los
Laboratorios Bell descubrieron el fondo cósmico de microondas. Su
descubrimiento proporcionó una confirmación sustancial de las predicciones
generales respecto al CMB —la radiación resultó ser isotrópica y constante, con
un espectro del cuerpo negro de cerca de 3 K— e inclinó la balanza hacia la
hipótesis del Big Bang. Penzias y Wilson recibieron el Premio Nobel por su
descubrimiento.

En 1989, la NASA lanzó el COBE (Cosmic background Explorer, y los resultados


iniciales, proporcionados en 1990, fueron consistentes con las predicciones
generales que la teoría del Big Bang hace sobre la CMB. El COBE halló una
temperatura residual de 2.726 K y determinó que el CMB era isotrópico en torno
a una de cada 105 partes. Durante la década de los 90 se investigó más
extensamente la anisotropía en el CMB mediante un gran número de
experimentos en tierra y, midiendo la distancia angular media (la distancia en el
cielo) de las anisotropías, se vio que el universo era geométricamente plano.***

A principios de 2003 se dieron a conocer los resultados de la Sonda Wilkinson


de Anisotropías del fondo de Microondas (en inglés Wilkinson Microwave
Anisotropy Probe o WMAP), mejorando los que hasta entonces eran los valores
más precisos de algunos parámetros cosmológicos. (Véase también experimentos
sobre el fondo cósmico de microondas). Este satélite también refutó varios
modelos inflacionistas específicos, pero los resultados eran constantes con la
teoría de la inflación en general.

Abundancia de elementos primordiales


Artículo principal: Nucleosíntesis primordial

Se puede calcular, usando la teoría del Big Bang, la concentración de helio-4,


helio-3, deuterio y litio-7 en el universo como proporciones con respecto a la
cantidad de hidrógeno normal, H. Todas las abundancias dependen de un solo
parámetro, la razón entre fotones y bariones. La proporción predicha es de cerca
de 0,25 para 4He/H, alrededor de 10-3 para ²H/H, alrededor de 10-4 para ³He/H y
cerca de 10-9 para el 7Li/H.

Estas abundancias medidas concuerdan con las predichas a partir de un único


valor de la razón barión frente a fotón***, y se considera una fuerte evidencia en
favor del Big Bang, ya que esta teoría es la única explicación conocida para la
abundancia relativa de elementos ligeros. De hecho no hay, fuera de la teoría del
Big Bang, ninguna otra razón obvia por la que el universo debiera, por ejemplo,
tener más helio-4 que deuterio o más deuterio que helio-3.

Evolución y distribución galáctica


Las observaciones detalladas de la morfología y estructura de las galaxias y
quasars proporcionan una fuerte evidencia del Big-Bang. La combinación de las
observaciones con la teoría sugiere que los primeros quasars y galaxias se
formaron hace alrededor de mil millones de años después del Big Bang, y desde
ese momento se han estado formando estructuras más grandes, como los
cúmulos de galaxias y supercúmulos. Las poblaciones de estrellas han ido
envejeciendo y evolucionando, de modo que las galaxias lejanas (que se
observan tal y como eran en el principio del universo) son muy diferentes de las
galaxias cercanas (que se observan en un estado más reciente). Por otro lado, las
galaxias formadas hace relativamente poco son muy diferentes de las galaxias
que se formaron a distancias similares pero poco después del Big Bang. Estas
observaciones son argumentos sólidos en contra de la teoría del estado
estacionario. Las observaciones de la formación estelar, la distribución de quasars
y galaxias, y las estructuras más grandes concuerdan con las simulaciones
obtenidas sobre la formación de la estructura en el universo a partir del Big
Bang, y están ayudando a completar detalles de la teoría.

Problemas comunes
Históricamente, han surgido un cierto número de problemas dentro de la teoría
del Big Bang. Algunos de ellos sólo tienen interés histórico y han sido evitados,
sea por medio de modificaciones a la teoría o como resultado de observaciones
más precisas. Otros aspectos, como el problema de la penumbra en cúspide y el
problema de la galaxia enana de materia oscura fría, no son considerados graves
dado que pueden ser resueltos por refinamiento de la teoría.
Existe un pequeño número de proponentes de cosmologías no estándar que
piensan que no hubo Big Bang. Afirman que las soluciones a los problemas
conocidos del Big Bang contienen modificaciones ad hoc y agregados a la teoría.
Las partes más atacadas de la teoría incluyen lo concerniente a la materia oscura,
la energía oscura y la inflación cósmica. Estas características del universo son
cada una sugeridas por observaciones de la radiación de fondo de microondas,
la estructura a gran escala del cosmos y las supernovas de tipo IA, pero se
encuentran en la frontera de la física moderna (ver problemas no resueltos de la
física). Si bien los efectos gravitacionales de materia y energía oscuras son bien
conocidos de forma observacional y teórica, todavía no han sido incorporados al
modelo estándar de la física de partículas de forma aceptable. Estos aspectos de
la cosmología estándar siguen sin tener una explicación adecuada, pero la
mayoría de astrónomos y físicos aceptan que la concordancia entre la teoría del
Big Bang y la evidencia observacional es tan cercana que permite establecer con
cierta seguridad casi todos los aspectos básicos de la teoría.

Los siguientes son algunos de los problemas y enigmas comunes del Big Bang:

El problema del horizonte


El problema del horizonte, también llamado problema de la causalidad, resulta
del hecho de que la información no puede viajar más rápido que la luz, de
manera que dos regiones en el espacio separadas por una distancia mayor que la
velocidad de la luz multiplicada por la edad del universo no pueden estar
causalmente conectadas. La isotropía observada de la radiación de fondo de
microondas (CMB) es en este aspecto problemática debido a que el tamaño del
horizonte de partículas en ese tiempo corresponde a un tamaño de cerca de dos
grados en el cielo. Si el universo hubiera tenido la misma historia de expansión
desde la época de Planck, no habría mecanismo que pudiera hacer que estas
regiones tuvieran la misma temperatura.

Esta aparente inconsistencia se resuelve con la teoría inflacionista en la cual un


campo de energía escalar isotrópico domina el universo al transcurrir un tiempo
de Planck luego de la época de Planck. Durante la inflación, el universo sufre
una expansión exponencial, y regiones que se afectan entre ellas se expanden
más allá de sus respectivos horizontes. El principio de incertidumbre de
Heisenberg predice que durante la fase inflacionista habrá fluctuaciones
primordiales, que serán amplificadas hasta la escala cósmica. Estas fluctuaciones
sirven de semilla para toda la estructura actual del universo. Al pasar la inflación,
el universo se expande siguiendo la ley de Hubble y las regiones que estaban
demasiado lejos para afectarse entre ellas vuelven al horizonte. Esto explica la
isotropía observada de la CMB. La inflación predice que las fluctuaciones
primordiales son casi invariantes según la escala y que tienen una distribución
normal o gaussiana, lo cual ha sido confirmado con precisión por medidas de la
CMB.

En 2003 apareció otra teoría para resolver este problema, la velocidad variante
de la luz de Joao Magueijo, que aunque a la larga contradice la relatividad de
Einstein usa su ecuación incluyendo la constante cosmológica para resolver el
problema de una forma muy eficaz que también ayuda a solucionar el problema
de la planeidad.
El problema de la planitud
El problema de la planitud (flatness en inglés) es un problema observacional
que resulta de las consecuencias que la métrica de Friedmann-Lemaître-
Robertson-Walker tiene para con la geometría del universo. En general, se
considera que existen tres tipos de geometrías posibles para nuestro universo
según su curvatura: geometría hiperbólica, geometría euclidiana o plana y
geometría elíptica. Dicha geometría viene determinada por la cantidad total de
densidad de energía del universo (medida mediante el tensor de tensión-
energía).

Siendo ρ la densidad de energía medida observacionalmente y ρc la densidad


crítica se tiene que para las diferentes geometrías las relaciones entre ambos
parámetros han de ser las que siguen:

Hiperbólico --> ρ < ρc || Plano --> ρ = ρc || Elíptico --> ρ > ρc

Se ha medido que en los primeros momentos del universo su densidad tuvo que
ser 10-15 veces (una milbillonésima parte) la densidad crítica. Cualquier
desviación mayor hubiese conducido a una muerte térmica o un Big Crunch y el
universo no sería como ahora. La solución a este problema viene de nuevo de la
teoría inflacionaria. Durante el periodo inflacionario el espaciotiempo se
expandió tan rápido que provocó una especie de estiramiento del universo
acabando con cualquier curvatura residual que pudiese haber. Así la inflación
pudo hacer al universo plano, de ahí el nombre planitud.

Edad de los cúmulos globulares

A mediados de los años 90, las observaciones realizadas de los cúmulos


globulares parecían no concondar con la Teoría del Big Bang. Las simulaciones
realizadas por ordenador de acuerdo con las observaciones de las poblaciones
estelares de cúmulos de galaxias sugirieron una edad de cerca de 15.000
millones de años, lo que entraba en conflicto con la edad del universo, estimada
en 13.700 millones de años. El problema quedó resuelto a finales de esa década,
cuando las nuevas simulaciones realizadas, que incluían los efectos de la pérdida
de masa debida a los vientos estelares, indicaron que los cúmulos globulares
eran mucho más jóvenes. Quedan aún en el aire algunas preguntas en cuanto a
con qué exactitud se miden las edades de los cúmulos, pero está claro que éstos
son algunos de los objetos más antiguos del universo.

Monopolos magnéticos

La objeción de los monopolos magnéticos fue propuesta a finales de la década


de 1970. Las teorías de la gran unificación predicen defectos topológicos en el
espacio que se manifestarían como monopolos magnéticos encontrándose en el
espacio con una densidad mucho mayor a la observada. De hecho, hasta ahora,
no se ha dado con ningún monopolo. Este problema también queda resuelto
mediante la inflación cósmica, dado que ésta elimina todos lo puntos
defectuosos del universo observable de la misma forma que conduce la
geometría hacia su forma plana. Es posible que aun así pueda haber monopolos
pero se ha calculado que apenas si habría uno por cada universo visible, una
cantidad ínfima y no observable en todo caso.

Materia oscura

En las diversas observaciones realizadas durante las décadas de los 70 y 80


(sobre todo las de las curvas de rotación de las galaxias) se mostró que no había
suficiente materia visible en el universo para explicar la intensidad aparente de
las fuerzas gravitacionales que se dan en y entre las galaxias. Esto condujo a la
idea de que hasta un 90% de la materia en el universo no es materia común o
bariónica sino materia oscura. Además, la asunción de que el universo estuviera
compuesto en su mayor parte por materia común llevó a predicciones que eran
fuertemente inconsistentes con las observaciones. En particular, el universo es
mucho menos "inhomogéneo" y contiene mucho menos deuterio de lo que se
puede considerar sin la presencia de materia oscura. Mientras que la existencia
de la materia oscura era inicialmente polémica, ahora es una parte aceptada de la
cosmología estándar, debido a las observaciones de las anisotropías en el CMB,
dispersión de velocidades de los cúmulos de galaxias, y en las estructuras a gran
escala, estudios de las lentes gravitacionales y medidas por medio de rayos x de
los cúmulos de galaxias. La materia oscura se ha detectado únicamente a través
de su huella gravitacional; no se ha observado en el laboratorio ninguna
partícula que se le pueda corresponder. Sin embargo, hay muchos candidatos a
materia oscura en física de partículas (como, por ejemplo, las partículas pesadas
y neutras de interacción débil o WIMPS (Wikly interactive massive particles)), y
se están llevando a cabo diversos proyectos para detectarla.

Energía oscura

En los años 90, medidas detalladas de la densidad de masa del universo


revelaron que ésta sumaba en torno al 30% de la densidad crítica. Puesto que el
universo es plano, como indican las medidas del fondo cósmico de microondas,
quedaba un 70% de densidad de energía sin contar. Este misterio aparece ahora
conectado con otro: las mediciones independientes de las supernovas de tipo Ia
han revelado que la expansión del universo experimenta una aceleración de tipo
no lineal, en vez de seguir estrictamente la Ley de Hubble. Para explicar esta
aceleración, la relatividad general necesita que gran parte del universo consista
en un componente energético con gran presión negativa. Se cree que esta
energía oscura constituye ese 70% restante. Su naturaleza sigue siendo uno de
los grandes misterios del Big Bang. Los candidatos posibles incluyen una
constante cosmológica escalar y una quintaesencia. Actualmente se están
realizando observaciones que podrían ayudar a aclarar este punto.

El futuro de acuerdo a la teoría del


Big Bang
Más información en: Destino último del universo

Antes de las observaciones de la energía oscura, los cosmólogos consideraron


dos posibles escenarios para el futuro del universo. Si la densidad de masa del
Universo se encuentra sobre la densidad crítica, entonces el Universo alcanzaría
un tamaño máximo y luego comenzaría a colapsarse. Este se haría más denso y
más caliente nuevamente, terminando en un estado similar al estado en el cual
empezó en un proceso llamado Big Crunch. Por otro lado, si la densidad en el
Universo es igual o menor a la densidad crítica, la expansión disminuiría su
velocidad, pero nunca se detendría. La formación de estrellas cesaría mientras el
Universo en crecimiento se haría menos denso cada vez. El promedio de la
temperatura del universo podría acercarse asintóticamente al cero absoluto (0 K
ò -273,15ºC). Los agujeros negros se evaporarían por efecto de la radiación
Hawking. La entropía del universo se incrementaría hasta el punto en que
ninguna forma de energía podría ser extraída de él, un escenario conocido como
muerte térmica. Más aún, si existe la descomposición del protón, proceso por el
cual un protón decaería a partículas menos masivas emitiendo radiación en el
proceso, entonces todo el hidrógeno, la forma predominante del materia
bariónica en el universo actual, desaparecería a muy largo plazo, dejando solo
radiación.

Las observaciones modernas de la expansión acelerada implican que cada vez


una mayor parte del universo visible en la actualidad quedará más allá de
nuestro horizonte de sucesos y fuera de contacto. Se desconoce cuál sería el
resultado de este evento. El modelo Lambda-CMD del universo contiene energía
oscura en la forma de una constante cosmológica (de alguna manera similar a la
que había incluido Einstein en su primera versión de las ecuaciones de campo).
Esta teoría sugiere que sólo los sistemas mantenidos gravitacionalmente, como
las galaxias, se mantendrían juntos, y ellos también estarían sujetos a la muerte
térmica a medida que el universo se enfriase y expandiese. Otras explicaciones
de la energía oscura-llamadas teorías de la energía fantasma sugieren que los
cúmulos de galaxias y finalmente las galaxias mismas se desgarrarán por la
eterna expansión del universo, en el llamado Big Rip.

Física especulativa más allá del Big


Bang
A pesar de que el modelo del Big Bang se encuentra bien establecido en la
cosmología, es probable que se refine en el futuro. Se tiene muy poco
conocimiento sobre el universo más temprano, durante el cual se postula que
ocurrió la inflación. También es posible que existan porciones del Universo
mucho más allá de lo que es observable en principio. En la teoría de la inflación,
ésto es un requisito: La expansión exponencial ha empujado grandes regiones
del espacio más allá de nuestro horizonte observable. Puede ser posible deducir
qué ocurrió cuando tengamos un mejor entendimiento de la física a altas
energías. Las especulaciones hechas al respecto, por lo general involucran teorías
de gravedad cuántica.

Algunas propuestas son:

inflación caótica
cosmología de membranas incluyendo el modelo ekpyrotico en el cual el
Big Bang es el resultado de una colisión entre membranas.
un universo oscilante en el cual el estado primitivo denso y caliente del
universo temprano deriva del Big Crunch de un universo similar al
nuestro. El universo pudo haber atravesado un número infinito de big
bangs y big crunchs. El cíclico, una extensión del modelo ekpyrótico, es
una variación moderna de esa posibilidad.
modelos que incluyen la condición de contorno de Hartle-Hawking en la
cual totalidad del espacio-tiempo es finito. Algunas posibilidades son
compatibles cualitativamente unas con otras. En cada una se encuentran
involucradas hipótesis aún no testeadas.

Interpretaciones filosóficas y religiosas


Existe un gran número de interpretaciones sobre la teoría del Big Bang que son
completamente especulativas o extra-científicas. Algunas de estas ideas tratan de
explicar la causa misma del Big Bang (primera causa), y fueron criticadas por
algunos filósofos naturalistas por ser solamente nuevas versiones del mito de la
creación. Algunas personas creen que la teoría del Big Bang brinda soporte a
antiguos enfoques de la creación, como por ejemplo el que se encuentra en el
Génesis, mientras otros creen que todas las teorías del Big Bang son
inconsistentes con las mismas.

El Big Bang como teoría científica no se encuentra asociado con ninguna


religión. Mientras algunas interpretaciones fundamentalistas de las religiones
entran en conflicto con la historia del universo postulada por la teoría del Big
Bang, la mayoría de las interpretaciones son liberales.

A continuación sigue una lista de varias interpretaciones religiosas de la teoría


del Big Bang:

Un número de apólogos del Cristianismo, la Iglesia Católica Romana en


particular, han aceptado el Big Bang como una descripción del origen del
Universo, interpretando que da a lugar a una primer causa filosófica. El
Papa Pío XII fue un entusiasta impulsor de la teoría del Big Bang, incluso
antes de que fuera establecida científicamente.
Algunos estudiantes del Kabbalah, el deísmo y otras fes no
antropomórficas, concuerdan con la teoría del Big Bang, conectándola por
ejemplo con la teoría de la "retracción divina" (tzimtzum) como es
explicado por el Judío Moises Maimonides.
Algunos islamicos modernos creen que el Corán hace un paralelo con el
Big Bang en su relato sobre la creación, descripta como sigue: "¿No ven
los no creyentes que los cielos y la tierra fueron unidos en una sola
unidad de creación, antes de que nosotros los separáramos a la fuerza?
Hemos creado todos los seres vivientes a partir del agua." (Cap:21,Ver:30).
El Corán también parece describir un universo en expansión: "Hemos
construido el cielo con poder, y lo estamos expandiendo."
(Cap:52,Ver:47).
Algunas ramas teístas del Hinduísmo, tales como las tradiciones de
Baishnava, conciben una teoría de la creación con ejemplos narrados en
el tercer libro de la Bhagavata Purana (principalmente, en los capítulos 10
y 26), donde se describe un estado primordial el cual explota mientras el
Gran Vishnu observa, transformándose en el estado activo de la suma
total de la materia ("prakriti").
El Budismo posee una concepción del universo en el cual no hay un
evento de creación. Sin embargo, no parece ser que la teoría del Big Bang
entrara en conflicto con la misma, ya que existen formas de obtener un
universo eterno según el paradigma. Cierto número de filósofos Zen
populares estuvieron muy interesados, en particular, por el concepto del
universo oscilante

Bibliografías
GRIBBIN, John. En busca del Big Bang. Colección "Ciencia hoy". Madrid:
Ediciones Pirámide, 09/1989. ISBN 84-368-0421-X e ISBN 978-84-368-0421-
8.
RIBÓN SÁNCHEZ, Mariano. Causas del big-bang. Barcelona: Ribón
Sánchez, Mariano , 01/2005. ISBN 84-609-3955-3 e ISBN 978-84-609-3955-
9.
HAWKING, S. W. Historia del tiempo : del Big Bang a los agujeros negros.
Barcelona: Círculo de Lectores, 09/1991. ISBN 84-226-2715-9 e ISBN 978-
84-226-2715-9.

Inglés

Introducciones técnicas
S. Dodelson, Modern Cosmology, Academic Press (2003). Released slightly
before the WMAP results, this is the most modern introductory textbook.
E. W. Kolb and M. S. Turner, The Early Universe, Addison-Wesley (1990).
This is the classic reference for cosmologists.
P. J. E. Peebles, Principles of Physical Cosmology, Princeton University
Press (1993). Peebles' book has a strong historical focus.

Fuentes de primera mano


G. Lemaître, "Un Univers homogène de masse constante et de rayon
croissant rendant compte de la vitesse radiale des nébuleuses
extragalactiques" (A homogeneous Universe of constant mass and growing
radius accounting for the radial velocity of extragalactic nebulae), Annals
of the Scientific Society of Brussels 47A (1927):41—General Relativity
implies the universe has to be expanding. Einstein brushed him off in the
same year. Lemaître's note was translated in Monthly Notices of the Royal
Astronomical Society 91 (1931): 483–490.
G. Lemaître, Nature 128 (1931) suppl.: 704, with a reference to the
primeval atom.
R. A. Alpher, H. A. Bethe, G. Gamow, "The Origin of Chemical Elements,
"Physical Review 73 (1948), 803. The so-called αρρ paper, in which Alpher
and Gamow suggested that the light elements were created by protons
capturing neutrons in the hot, dense early universe. Bethe's name was
added for symmetry.
G. Gamow, "The Origin of Elements and the Separation of Galaxies,"
Physical Review 74 (1948), 505. These two 1948 papers of Gamow laid
the foundation for our present understanding of big-bang nucleosynthesis.
G. Gamow, Nature 162 (1948), 680.
R. A. Alpher, "A Neutron-Capture Theory of the Formation and Relative
Abundance of the Elements," Physical Review 74 (1948), 1737.
R. A. Alpher and R. Herman, "On the Relative Abundance of the
Elements," Physical Review 74 (1948), 1577. This paper contains the first
estimate of the present temperature of the universe.
R. A. Alpher, R. Herman, and G. Gamow Nature 162 (1948), 774.
A. A. Penzias and R. W. Wilson, "A Measurement of Excess Antenna
Temperature at 4080 Mc/s," Astrophysical Journal 142 (1965), 419. The
paper describing the discovery of the cosmic microwave background.
R. H. Dicke, P. J. E. Peebles, P. G. Roll and D. T. Wilkinson, "Cosmic
Black-Body Radiation," Astrophysical Journal 142 (1965), 414. The
theoretical interpretation of Penzias and Wilson's discovery.
A. D. Sakharov, "Violation of CP invariance, C asymmetry and baryon
asymmetry of the universe," Pisma Zh. Eksp. Teor. Fiz. 5, 32 (1967),
translated in JETP Lett. 5, 24 (1967).
R. A. Alpher and R. Herman, "Reflections on early work on 'big bang'
cosmology" Physics Today Aug 1988 24–34. A review article.

Religión y filosofía
Leeming, David Adams, and Margaret Adams Leeming, A Dictionary of
Creation Myths. Oxford University Press (1995), ISBN 0195102754.
Pío XII (1952), "Modern Science and the Existence of God," The Catholic
Mind 49:182–192.

Enlaces externos
Open Directory Project: Cosmology
PBS.org, "From the Big Bang to the End of the Universe. The Mysteries of
Deep Space Timeline"
"Welcome to the History of the Universe". Penny Press Ltd.
Cambridge University Cosmology, "The Hot Big Bang Model". Includes a
discussion of the problems with the big bang.
Smithsonian Institution, "UNIVERSE! - The Big Bang and what came
before".
D'Agnese, Joseph, "The last Big Bang man left standing, physicist Ralph
Alpher devised Big Bang Theory of universe". Discover, July 1999.
Felder, Gary, "The Expanding Universe".
LaRocco, Chris and Blair Rothstein, "THE BIG BANG: It sure was BIG!!".
Mather, John C., and John Boslough 1996, The very first light: the true
inside story of the scientific journey back to the dawn of the universe.
ISBN 0-465-01575-1 p.300
Shestople, Paul, ""Big Bang Primer".
Singh, Simon, Big Bang: the origin of the universe, Fourth Estate (2005). A
historical review of the big bang. Sample text and reviews can be found at
[1].
Wright, Edward L., "Brief History of the Universe".
Ciertos científicos escriben acerca del big bang.

Artículos de investigación

La mayoría de los artículos científicos sobre cosmología están disponibles como


preimpresos en [2]. Generalmente son muy técnicos, pero algunas veces tienen
una introducción clara en inglés. Los archivos más relevantes, que cubren
experimentos y teoría están el el archivo de astrofísica, donde se ponen a
disposición artículos estrechamente basados en observaciones, y el archivo de
relatividad general y cosmología cuántica, el cual cubre terreno más especulativo.
Los artículos de interés para los cosmólogos también aparecen con frecuencia en
el archivo sobre Fenómenos de alta energía y sobre teoría de alta energía

Cronología del Big Bang


Instante fugaz entre la explosión original y los 10- 43
Cuanto más nos acercamos al Big Bang más energéticos son los procesos y más
dudoso es nuestro conocimiento. Para algunos físicos el Universo surgió de una
fluctuación en la "nada". En estos primeros instantes el Universo se encontraba
en un estado de extrema sencillez, y toda la materia se hallaba bajo la forma de
toda la energía

Instante comprendido entre los 1×10- 43 y los 10 segundos


La expansión del espacio-tiempo (formando 4 dimensiones) y el enfriamiento
permiten que parte de la energía se materialice y se forman partículas
elementales de materia: quarks y leptones (entre ellos los electrones). La fuerza
nuclear fuerte permite la unión de quarks para formar protones y neutrones.

Instante comprendido entre los 10 segundos y los 106 años


La fuerza nuclear fuerte permite la unión de protones y neutrones para formar
núcleos atómicos. Cuando el universo tiene 300.000 años se ha enfriado lo
suficiente para que actúe la fuerza electromagnética que permite la asociación de
los núcleos atómicos con sus correspondientes electrones para formar átomos.

Instante comprendido entre los 106 años y el momento


actual
Actúa la fuerza de la gravedad sobre los átomos de hidrógeno y helio, que
forman densas nubes de gas a partir de las cuales se formarán las galaxias y en
ellas las estrellas, los planetas y tal vez alguno de ellos, como la Tierra sea el
escenario donde la materia se organice y forme seres vivos.

La materia oscura puede provocar el Big Crunch que está conectado con otro Big
Bang a través de un agujero de gusano, como representa la serpiente
Uroboros,(de un mito Hindú). Es una serpiente que se muerde la cola
representando así la armonía entre los extremos, en el universo en el que todo
se crea a sí mismo.

Agujero blanco
Agujero Blanco
Un agujero blanco es un objeto celeste con una densidad tal que deforma el
espacio pero que, a diferencia del agujero negro, deja escapar materia y energía
en lugar de absorberla.

Los más importantes avances en esta teoría son debidos a los trabajos
independientes de los matemáticos Igor Nivikov y Yuval Ne'eman en la década
de 1960, basados en la solución de Schwarzschild de las ecuaciones de la
relatividad.

Aunque su existencia no ha podido aún ser demostrada, se supone que dentro


de dicha solución, el astro oscuro, tendría una anatomía que integraría un
agujero negro, un agujero de gusano y un agujero blanco.

Agujeros blancos y termodinámica


Al ser la desaparición de la materia en un punto sin fin contradictoria con la
primera y segunda ley de la termodinámica, en un principio se llegó a la
conclusión de que la materia debía de reaparecer en algún punto. Debido a esto
se propuso a los agujeros blancos como los responsables de recuperar esa
energía extraída por el agujero negro.

Tiempo atrás se creyó que la actividad de los agujeros blancos podía dar lugar a
la formación de universos nuevos, que crecían después de haberse acumulado la
suficiente materia crítica como para iniciar una expansión a gran escala. También
estaba en boga la idea de que los universos mantenían su equilibrio energético
debido a intercambios de materia entre ellos por redes de agujeros de gusano,
siendo los agujeros blancos sus canales de escape, obedeciendo así a la primera
ley de la termodinámica.

Agujero de gusano
En física, un agujero de gusano, también conocido como un puente de
Einstein-Rosen, es una hipotética característica topológica del espacio-tiempo,
descrita por las ecuaciones de la relatividad general, la cual es esencialmente un
"atajo" a través del espacio y el tiempo. Un agujero de gusano tiene por lo
menos dos extremos, conectados a una única "garganta", pudiendo la materia
'viajar' de un extremo a otro pasando a través de ésta.
En este sentido es una actualización de la decimonónica teoría de una cuarta
dimensión espacial que suponía -por ejemplo- dado un cuerpo toroidal en el que
se podían encontrar las tres dimensiones espaciales comúnmente perceptibles,
una cuarta dimensión espacial que abreviara las distancias...y así los tiempos de
viaje.

En la actualidad la Teoría de cuerdas admite la existencia de más de tres


dimensiones espaciales, pero las otras dimensiones espaciales estarían
contractadas o compactadas a escalas subatómicas (según el modelo topológico
de Kaluza-Klein) por lo que parece muy difícil (diríase "imposible) aprovechar
tales dimensiones espaciales "extra" para viajes en el espacio y en el tiempo.

El nombre "agujero de gusano" viene de la siguiente analogía, usada para


explicar el fenómeno: imagine que el universo es la cáscara de una manzana, y
un gusano viaja sobre su superficie. La distancia desde un lado de la manzana
hasta el otro es igual a la mitad de la circunferencia de la manzana si el gusano
permanece sobre la superficie de ésta, pero si en vez de ésto, cavara un agujero
directamente a través de la manzana la distancia que tiene que viajar es
considerablemente menor.

Debido a la posibilidad teórica de atravesar grandes distancias en el espacio-


tiempo de forma "instantánea", se utilizan habitualmente en ciencia ficción para
justificar el viaje a regiones lejanas del universo en tiempos cortos (véase, por
ejemplo, Stargate, o Viaje a las estrellas).

Agujero negro de
Kerr
Un agujero negro de Kerr o agujero negro en rotación es aquel que se
define por dos parámetros: la masa M y el momento angular J. Esta solución
nace del éxito del matemático Roy Kerr al resolver las ecuaciones de la
relatividad en torno a un objeto masivo en rotación.

Un agujero negro de Kerr es una región no isotrópica que queda delimitada por
un horizonte de sucesos y una ergoesfera presentando notables diferencias con
respecto al agujero negro de Schwarzschild. Esta nueva frontera describe una
región donde la luz aun puede escapar pero cuyo giro induce altas energías en
los fotones que la cruzan. Debido a la conservación del momento angular, este
espacio forma un elipsoide, en cuyo interior se encuentra un solo horizonte de
sucesos con su respectiva singularidad, que debido a la rotación deja de ser un
punto para transformarse en un anillo.

La zona que delimita la frontera de la ergoesfera se llama límite estático, que al


ser pasada nada puede escapar, y su fórmula depende de la masa y el momento
angular del agujero:
Donde es el perímetro de la ergoesfera, M es la masa y a es el parámetro de

rotación determinado por (donde J es el momento angular).

Antes del límite estático y más allá...


Fuera de la ergoesfera se genera, en caso de tener una estrella
compañera, otra zona llamada disco de acreción, donde la materia
interestelar que es atraída por la fuerte curvatura del agujero negro, se
arremolina alrededor alcanzando intensas energías. Se ha especulado que
esto puede llevar a que se generen intensas corrientes eléctricas, cuyo
flujo daría a lugar a un poderoso campo magnético que actuaría como un
electroimán gigante.
Entre la ergoesfera y el horizonte de sucesos, se forma una región de
dirección obligada, que atrae inevitablemente a todo objeto que en ella se
encuentre, y cuya turbulencia es enorme debido a la rotación del agujero
negro. Ya en el borde interno, o límite del horizonte de sucesos, nada
escapa de la fuerza gravitatoria generada por la singularidad..

Agujero negro de Reissner-


Nordstrom
Un agujero negro de Reissner-Nordstrøm es un agujero negro estático, con
simetría esférica y con carga eléctrica, viene definido por dos parámetros: la
masa M y la carga eléctrica Q. Su solución fue obtenida en 1918 por los
matemáticos Hans Reissner y Gunnar Nordstrøm a las ecuaciones de campo de
relatividad en torno a un objeto masivo eléctricamente cargado y carente de
momento angular.

El agujero negro de Reissner-Nordstrøm es una región isotrópica que queda


delimitada por dos horizontes de sucesos: uno externo llamado sin más
horizonte de sucesos, y otro interno llamado horizonte de Cauchy. Dichos
espacios forman una esfera perfecta, debido a la carencia de momento angular,
en cuyo centro se encuentra una singularidad simple (el caso contrario sería un
agujero negro de Kerr-Newman). La fórmula que determina la distancia de esta
con respecto a los respectivos horizontes de sucesos depende únicamente de la
masa y la carga del agujero:

Donde r es la distancia de cada horizonte de sucesos, M es la masa, Q es la


carga eléctrica y el signo determina el horizonte de sucesos en cuestión, siendo
el valor positivo (r + ) para el horizonte externo y el negativo (r − ) para el
horizonte de Cauchy.

Sobre la relación Q y M
Los valores que toman la carga eléctrica y la masa son muy importantes en la
anatomía de un agujero negro de Reissner-Nordstrøm, debido a que es su
relación la que determina el límite concreto entre sus horizontes de sucesos.
Existen básicamente tres relaciones:

| Q | < M o, como es usual, | Q | < < M: se parece mucho al caso del


agujero negro de Schwarzschild pero con dos horizontes de sucesos a una
distancia razonable el uno del otro.
|Q | = M: para este caso los horizontes de sucesos se fusionan,
formando un horizonte continuo que rodea a la singularidad.
| Q | > M: se supone que este caso no existe en la naturaleza, debido a
que no es común que la carga eléctrica supere a la gravedad, pues con
ello los horizontes se anulan dejando visible a la singularidad. Además,
existe la llamada hipótesis del sensor cósmico, propuesta por el
matemático Roger Penrose en 1965, que no permite la existencia de
singularidades desnudas en el universo.

Agujero negro de
Schwarzschild
Un agujero negro de Schwarzschild o agujero negro estático es aquel que se
define por un solo parámetro, la masa M. Es la primera solución propuesta y
también la más simple a las ecuaciones de relatividad general y fue encontrada
por Karl Schwarzschild.

El agujero negro de Schwarzschild es una región isotrópica que queda delimitada


por una superficie imaginaria llamada horizonte de sucesos. Esta frontera
describe un espacio del cual ni siquiera la luz puede escapar, de ahí el nombre
de agujero negro. Dicho espacio forma una esfera perfecta en cuyo centro se
halla la singularidad el radio de la cual recibe el nombre de radio de
Schwarzschild. La fórmula de dicho radio como se ha dicho depende únicamente
de la masa del agujero.

donde G es la constante gravitatoria, M es la masa del agujero y c la velocidad


de la luz.

La singularidad es una región teórica de densidad infinita y de volumen casi


nulo o nulo en las proximidades de la cual las leyes físicas deján de tener
sentido tal y como las conocemos actualmente. Cuanto mayor es la masa del
agujero negro, la cual determina el grado de curvatura espacio-temporal, mayor
es el radio de Schwarzschild. Pero existen otros modelos más complicados de
agujeros negros.

El agujero negro de Kerr es una agujero negro en rotación definido no


solo por su masa sino también por su momento angular. Dicho agujero
tiene una dirección privilegiada en el espacio y, por tanto, deja de ser
isotrópico. Este es el modelo que más se ajusta al tipo de agujeros negros
que se pueden observar fruto del colapso de estrellas supermasivas.
El agujero negro de Reissner-Nordstrom es un agujero con carga eléctrica
estático y posee unas propiedades especiales ya que no solo se forma una
singularidad gravitatoria sino también una singularidad en el campo
eléctrico generado por el agujero. Dicho agujero está sujeto también a dos
parámetros. Esta vez masa y carga. La existencia de tales agujeros no ha
sido observada pero se podría concebir la posibilidad de crearlos en
condiciones controladas tales como aceleradores de partículas.
Finalmente está el agujero negro de Kerr-Newman. Este cuarto tipo de
agujeros son el resultado de la combinación de los dos anteriores. Se
trataría de los agujeros negros con carga y en rotación. Estos agujeros
dependerían de los tres parámetros, masa, momento angular y carga.
Además, al rotar se provocaría un movimiento de cargas en su seno lo
que conllevaría la generación de un campo magnético también.

Ergosfera

Ergosfera rodeando el horizonte de eventos de un agujero negro en rotación.

La ergosfera (también conocida como ergoesfera) es la región exterior y cercana


al horizonte de eventos de un agujero negro en rotación. En esta región el
campo de gravedad del agujero negro rota junto con él arrastrando al espacio-
tiempo. Se trata de un fenómeno teorizado por el físico neozelandés Roy Kerr y
emana directamente de las teorías de la relatividad general de Einstein. El
modelo de agujero negro de Kerr parte del primer y más simple modelo de
agujero negro, el modelo de Schwarzschild. Las características principales de
ambos modelos son las siguientes:
El modelo de Schwarzschild

Más información en: Agujero negro de Schwarzschild

El primer modelo fundamental de un agujero negro fue el del alemán Karl


Schwarzschild. El agujero negro de Schwarzschild es básicamente una
singularidad puntual en el espacio-tiempo de momento angular nulo y constituye
la solución más simple y la primera en ser encontrada a las ecuaciones de la
relatividad general.

[editar]

El modelo de Kerr

Más información en: Agujero negro de Kerr

Este modelo es una solución a las ecuaciones de la relatividad general para un


agujero negro en rotación. Tal singularidad, a diferencia de la de Schwarzschild,
tendría forma anular. Los agujeros negros reales que se encuentran en la
naturaleza han de ser rotatorios ya que, por conservación del momento angular,
girarán tal y como lo hacía la estrella u objeto progenitor. Se sabe que las
estrellas al morir pierden gran parte del momento angular, siendo éste expulsado
junto con la materia eyectada por la explosión de supernova en la que el agujero
negro se forma. Pero, a pesar de esa pérdida de momento, una parte de éste
permanece. Tal agujero produciría, en cierta región denominada ergoesfera, una
zona de "arrastre" del espaciotiempo. La ergosfera es una estructura de forma
elipsoidal, coincidiendo su semieje menor con el eje de rotación de ésta. La
ergosfera se achata, por lo tanto, en la dirección del eje de giro de manera
similar a como lo hace la Tierra por efecto de su rotación.

La ergoesfera y los viajes en el tiempo

Más información en: Viaje en el tiempo

Dentro de la ergoesfera no existe el reposo. Es imposible que un cuerpo no se


mueva, pues el propio espacio gira en torno a la singularidad por lo que la
materia que se encuentre en esa región rotará junto a ella. Para el observador
externo a la ergosfera el cuerpo viajará a su velocidad propia sumada a la de la
rotación del espacio. Éste hecho según la teoría de la relatividad conlleva
curiosas consecuencias. La observación de un cuerpo que viajara suficientemente
rápido sobre la ergosfera podría dar una velocidad relativa con respecto a
nosotros superior incluso a la velocidad de la luz c. En ese caso, tal objeto
simplemente desaparecería de nuestra vista. Llegaría a su destino antes de que
hubiese partido, lo que en términos físicos significa que habría viajado al pasado.
Por esa sorprendente idea las ergoesferas se conciben, por los físicos teóricos,
como verdaderas máquinas del tiempo naturales. Máquinas donde, en cualquier
caso, no se puede viajar más allá del momento en que se formó el agujero en
cuestión.

Véase también
Agujero negro
Evolución estelar

Espacio-tiempo
La expresión espacio-tiempo ha devenido de uso corriente a partir de la Teoría
de la Relatividad especial formulada por Einstein en 1905.

De esta forma se hace referencia a la importancia de considerar como variable


no sólo las tres dimensiones del espacio sino también el tiempo para
comprender cabalmente los fenómenos físicos que ocurren en el Universo; es
usual la expresión "cuarta dimensión" o "espacio de cuatro dimensiones".

En general, un evento cualquiera puede ser descrito por una o más coordenadas
espaciales, y una temporal. Por ejemplo, para identificar de manera única un
accidente automovilístico, se pueden dar la longitud y latitud del punto donde
ocurrió (dos coordenadas espaciales), y cuándo ocurrió (una coordenada
temporal). En el espacio tridimensional, se requieren tres coordenadas
espaciales. Sin embargo, la visión tradicional, sobre la cual se basa la Mecánica
Clásica de Newton, es que el tiempo es una coordenada independiente de las
coordenadas espaciales. Esta visión concuerda con la experiencia: si un evento
ocurre a 10 metros, es natural preguntar a 10 metros de qué, pero si nos
informan que ocurrió un accidente a las 10 de la mañana en nuestro país, ese
tiempo tiene carácter absoluto.

Sin embargo, resultados como el experimento de Michelson-Morley, y las


Ecuaciones de Maxwell para la Electrodinámica, sugerían, a principios del Siglo
XX, que la velocidad de la luz es constante, independiente de la velocidad del
emisor u observador, en contradicción con la Mecánica clásica.

Einstein propuso, como solución a este y otros problemas de la Mecánica clásica,


considerar como postulado la constancia de la velocidad de la luz, y prescindir
de la noción del tiempo como una coordenada independiente. En la Teoría de la
Relatividad, espacio y tiempo tienen carácter relativo, y las transformaciones de
coordenadas entre observadores inerciales (las Transformaciones de Lorentz),
involucran una combinación de las coordenadas espaciales y temporal.

La expresión espacio-tiempo recoge entonces la noción de que el espacio y el


tiempo ya no pueden ser consideradas entidades independientes.

Las consecuencias de esta relatividad del tiempo han tenido diversas


comprobaciones experimentales. Una de ellas se realizó utilizando dos relojes
atómicos de elevada precisión, inicialmente sincronizados, uno de los cuales se
mantuvo fijo mientras que el otro fue transportado en un avión. Al regresar del
viaje se constató que mostraban horas distintas, habiendo transcurrido "el
tiempo" más lentamente para el reloj en movimiento.

Véase también
Viaje a través del tiempo

Antimateria
La Antimateria es materia compuesta de antipartículas de las partículas que
constituyen la materia normal. Un átomo de antihidrógeno, por ejemplo, está
compuesto de un antiprotón de carga negativa orbitado por un positrón de carga
positiva. Si una pareja partícula/antipartícula entra en contacto entre sí, se
aniquilan entre sí y producen un estallido de energía, que puede manifestarse en
forma de otras partículas, antipartículas o radiación electromagnética.

En 1995 se consiguió producir átomos de antihidrógeno, así como núcleos de


antideuterio, creados a partir de un antiprotón y un antineutrón, pero no se ha
logrado crear antimateria de mayor complejidad. La antimateria se crea en el
universo allí donde haya colisiones entre partículas de alta energía, como en el
centro de la galaxia, pero aún no se ha detectado ningún tipo de antimateria
como residuo del Big Bang (cosa que sí ocurre con la materia normal). La
desigual distribución entre la materia y la antimateria en el universo ha sido,
durante mucho tiempo, un misterio. La solución más probable reside en cierta
asimetría en las propiedades de los mesones-B y sus antipartículas, los anti-
mesones-B [1].

Los positrones y los antiprotones se pueden almacenar en un dispositivo


denominado "trampa", que usa una combinación de campos magnéticos y
eléctricos para retener las partículas cerca del centro de un vacío. Para la
creación de trampas que retengan átomos completos de antihidrógeno hace falta
emplear campos magnéticos muy intensos, así como temperaturas muy bajas; las
primeras de estas trampas fueron desarrollados por los proyectos ATRAP y
ATHENA.

El símbolo que se usa para describir una antipartícula es el mismo símbolo para
su contrapartida normal, pero con un sobrerrayado. Por ejemplo, un protón por
encima: .

Las reacciones entre materia y antimateria tienen aplicaciones prácticas en la


medicina, véase la tomografía de emisión de positrones (PET).

Véase también el teorema CPT.

La antimateria como
combustible
En las colisiones entre materia y antimateria, se convierte toda la masa posible de
las partículas en energía. Esta cantidad es mucho mayor que la energía química o
incluso la nuclear que puede obtenerse hoy día usando reacciones química o
fisión nuclear. La reacción de 1 kg de antimateria con 1 kg de materia produciría
1.8×1017 J de energía (según la ecuación E=mc²). En contraste, quemar un
kilogramo de petróleo produce 4.2×107 J, y la fusión nuclear de un kilogramo de
hidrógeno produce 2.6×1015 J.

La escasez de antimateria significa que no existe una disponibilidad inmediata


para ser usada como combustible. Generar un solo antiprotón es inmensamente
difícil y requiere aceleradores de partículas, así como vastas cantidades de
energía (mucho más de lo que se genera cuando este antiprotón se aniquila),
debido a la ineficiencia del proceso. Los métodos conocidos para producir
antimateria también producen una cantidad igual de materia normal, de forma
que el límite teórico del proceso es que la mitad de la energía suministrada se
convierte en antimateria. Inversamente, cuando la antimateria se aniquila con la
materia ordinaria, la energía emitida es el doble de la masa de antimateria, de
forma que el almacenamiento de energía en forma de antimateria podría ser (en
teoría) de una eficiencia del 100%.

La producción de antimateria en la actualidad es muy limitada, si bien aumenta


en progresión geométrica desde el descubrimiento el primer antiprotón en 1955.
La tasa actual de producción de antimateria es entre 1 y 10 nanogramos por
años, si bien se espera que se vea muy incrementada con las nuevas
instalaciones del CERN y el Fermilab.

Con la tecnología actual se considera que se puede obtener antimateria al coste


de 25.000 millones de dólares por gramo (más o menos 1000 veces el coste del
combustible propulsor de la lanzadera espacial), pero sólo si se optimizan los
parámetros de colisión y recogida (y siempre según los costes actuales de
generación eléctrica). Los costes de la producción en masa de antimateria están
linealmente relacionados con los costes de la electricidad, de forma que es poco
probable que se desarrolle el uso de la propulsión usando reacciones puras de
materia y antimateria sin la aparición de tecnologías como la fusión de átomos
de deuterio.

Dado que la densidad de energía es infinitamente mayor que con otras formas
de combustible, la ecuación de impulso por peso que se usa en astronáutica
sería muy distinta. De hecho, la energía de unos pocos gramos de antimateria
sería suficiente para transportar una nave pequeña a la luna. Se espera que la
antimateria pueda usarse como combustible para los viajes interplanetarios o,
quizá, viajes interestelares, pero también se teme que si la humanidad consigue
semejante tecnología, pueda usarse para construir armas de antimateria.

El Fisicomatemático Alexander R. Guerra introdujo los primeros conceptos de


cuantividad positronica, dando como tal, la propia definición de un concepto
antimatérico.

Historia de la Antimateria
Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea
de antimateria y, mucho menos, la capacidad de producirla. Pero el estadio
cambió cuando se empezaron a conocer los estudios del físico británico Paul
Dirac.
En la práctica, todo comienza con los trabajos de Dirac que publicó en el año
1929, en una época que coincide con los tiempos en que se descubrían los
primeros secretos de la materia, se teorizaba sobre el comportamiento de las
partículas que comportan la fuerza débil, y se profundizaban los estudios de los
componentes de los átomos, especialmente en la teorización de lo que se llama
fuerza fuerte. Fueron tiempos en que la audacia tuvo una preeminencia como rol
intelectual dentro del mundo de la física, en el cual se plantearon conceptos
como el de la mecánica ondulatoria, el principio de incertidumbre o, también, el
descubrimiento del espín en los electrones. Se dice que fue una de las épocas
más eclécticas de la física, en la cual hubo ejercitantes que concurrieron a
simpáticas metáforas para hacer más accesibles sus teorías, como fue el caso del
físico austríaco Erwin Schrödinger cuando apeló a la historia de los gatitos para
exponer su principio de indeterminación, con el cual describía en síntesis que las
partículas más pequeñas tienen un comportamiento que, dentro del
razonamiento común, no es el mayormente aceptado por las personas.

La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba


inserto cuando planteó que donde había materia, también podía haber
antimateria. Concretamente señaló, que si el átomo tenía partículas de carga
negativas llamadas electrones, debía haber partículas que fueran «electrones
antimateria», a los que se les llamó positrones y que debían tener la misma masa
del electrón, pero de carga opuesta y que se aniquilarían al entrar en contacto,
liberando energía. Este descubrimiento de Dirac fue tan revolucionario que lo
hizo merecedor del premio Nobel en el año 1933.

El siguiente paso se dio en 1932, cuando Carl Anderson, del Instituto


Tecnológico de California, en un trabajo de experimentación confirmó la teoría
de Dirac al detectar la existencia de un positrón al hacer chocar rayos cósmicos.
Pasaron dos décadas para dar otro salto y este vino en 1955, cuando un equipo
de la Universidad de Berkeley formado por los físicos Emilio Segre, Owen
Chamberlain (ambos ganadores del Nobel de física de 1959), Clyde Weingand y
Tom Ypsilantis lograron hallar el primer antiprotón, o sea, la primera partícula
especular del protón que es la partícula de carga positiva del átomo. Un año
después, con el uso de las mismas instalaciones, otro equipo, formado por Bruce
Cork, Oreste Piccione, William Wenzel y Glen Lambertson ubicaron el primer
antineutrón, el equivalente a la partícula de carga neutra de los átomos. La
carrera por las tres antipartículas básicas - equivalentes a la neutra, la negativa y
la positiva - estaba terminada. Otro paso lo dieron los soviéticos, que por el año
1965 contaban con el acelerador de partículas más poderoso de los existentes en
esos momentos. En un trabajo encabezado por el físico Leon Lederman, los
soviéticos lograron detectar la primera partícula compleja de antimateria, el
antineutrino, formado por dos partículas básicas. Posteriormente, usándose el
mismo acelerador se detectó el antihelio.

Con la inauguración, en 1978, de las instalaciones europeas del Consejo de


Investigación de Alta Energía (CERN) de Ginebra, y los avances tecnológicos que
ello implicó, se pudo lograr crear antitritio y, en 1981, realizar el primer choque
controlado entre materia y antimateria, con lo que comprobaron una hipótesis
valiosa: la cantidad de energía liberada por el mismo choque era enorme, mil
veces superior a la energía nuclear convencional. Pero para la receta para
generar antiátomos faltaba un ingrediente que permitiera la combinación de
antipartículas para poder producirlo, lo que precisamente faltaba era una fórmula
para conseguirlo.

La dificultad radicaba en la velocidad con que se producen las partículas de


antimateria y sus violentas colisiones. Era necesario contar con una fórmula que
permitiera desacelerarlas o igualar su velocidad para unirlas, interrogante que fue
respondida, en parte, por los trabajos del profesor de física de la Universidad de
Stanford Stan Brodsky y por el ingeniero físico chileno Iván Schmidt, de la
Universidad Técnica Federico Santa María.

En 1992, Brodsky y Schmidt publicaron sus trabajos de complejos cálculos en los


cuales sugerían la fórmula de un método para producir antiátomos, o sea, como
poder unir antielectrones y antiprotones. Pero también se requería capacidad de
experimentación. A ellos llegó Charles Munger, quién formó su propio equipo en
Chicago para realizar los experimentos. Pero las publicaciones nortearnericanas-
chilenas también llamaron la atención de físicos europeos del CERN donde se
formó un equipo multinacional encabezado por Walter Oelert con el objetivo de
experimentar en la creación de un antiátomo. En la práctica, con ello, se dio una
competencia científico-mundial para alcanzar este logro.

El 4 de enero de 1996, los científicos del CERN anunciaron el éxito de haber


obtenido en un proceso de experimentación, no uno, sino nueve antiátomos de
hidrógeno. No se trata de partículas fundamentales o de pequeñas
combinaciones, se trata - en propiedad - de lo que se puede mencionar como
átomos de antihidrógeno.

El método propuesto por la pareja Brodsky y Schmidt consistió, básicamente, en


hacer chocar un haz de antiprotones con un gas y, en cuyo proceso, se
producirían pares de electrón-positrón; luego, de esos positrones, una pequeña
fracción viajaría casi a la misma velocidad de los antiprotones, lo que implicaría
que los positrones sean capturados por un antiprotón, lo que haría que ambas
antipartículas se combinaran para formar un antiátomo.

Los antiprotones rompen los núcleos del xenón y crean algunos pares de
electrón y positrón(2). Una fracción de estos pares es capturada por los
antiprotones, alrededor de los cuales pasan a orbitar; se crean átomos de anti-
hidrógeno(3). Como estos átomos son eléctricamente neutros, el campo
magmético del acelerador no los desvía y continúan una trayectoria recta que los
lleva a atravesar a gran velocidad una fina barrera de silicio(4). Mientras que el
antiprotón continúa su camino, el positrón choca contra el electrón(6) con lo que
ambas partículas se aniquilan.

Ahora, el experimento que hizo el CERN consistió en la elección del hidrógeno


como elemento de trabajo porque es el más simple y abundante de todos los
que conforman el universo. Con apenas dos componentes - uno positivo y otro
negativo - era lo más sencillo. El acelerador LEAR, con el cual se realizó el
experimento, disparó un chorro de antiprotones a través de una fina nube de gas
xenón. Los antiprotones rompieron los núcleos del xenón y crearon algunos
pares de electro-positrón. Una fracción de estos pares fue capturada por los
antiprotones, lo que implicó que empezaran a orbitar alrededor de ellos;
entonces se crearon antiátomos de hidrógeno. Como estos antiátomos son
neutros, el campo magnético del acelerador no los desvía y continuarán una
trayectoria recta que los lleva a atravesar a gran velocidad una barrera de silicio.
Mientras tanto el antiprotón continúa su camino, el positrón choca contra el
electrón aniquilándose ambos. El resultado es una emisión de rayos gamma que
choca contra la barrera de silicio y delata lo que ocurrió.

Uno de los problemas interesantes para desarrollar el proceso fue el de poder


establecer como poder atrapar la antimateria. Una de las dificultades era la de
evitar que la antimateria explotara al tomar contacto con la materia. La solución a
la cual se llegó, en los trabajos realizados por el CERN, fue la de usar un envase
diseñado por el Laboratorio Nacional de Los Álamos de EE.UU.. Este tipo de
envase consiste en mantener a la partícula de antimateria en forma estable por
medio de campos eléctricos y magnéticos. Un ciclotrón puede frenar a un
antiprotón de modo que pueda ser capturado, detenido y paralizado con campos
magnéticos. Una vez quieto, el antiprotón es introducido en un envase que
comporta un vacío interior para evitar choques con átomos de aire y el
magnetismo impide que el antiprotón toque sus paredes, detonando una
explosión de rayos gamma.

En el proceso se detectaron once choques contra la barrera, de éstos, nueve son


considerados indudablemente causados por la aparición de antiátomos de
hidrógeno; sobre los otros dos hay dudas. El antiátomo de hidrógeno producido,
sólo dura 10 segundo antes de encontrar materia a su paso y desaparecer y, fue
por eso, que Brodsky y Schmidt propusieron en sus trabajos la creación de un
campo magnético para poder detectar los antiátomos en medio de todas las
partículas que se generan en el proceso. Las partículas - que tienen cargas
positivas o negativas - comportarán una órbita curva, pero el antiátomo (cuya
carga total es neutra) no será afectado por el campo magnético y saldrá en línea
recta.

El antihidrógeno es el estado más simple del límite atómico de la antimateria y,


hasta el anuncio efectuado por el CERN en enero de 1996, nunca antes se había
observado experimentalmente. Se logró sintetizar un átomo de antimateria desde
sus antipartículas comitentes.

El átomo de hidrógeno ha sido uno de los sistemas físicos más importantes para
una variedad amplia de medidas fundamentales relativas al comportamiento de la
materia ordinaria. La producción de antihidrógeno abre las puertas para una
investigación sistemática de las propiedades de la antimateria y la posibilidad
única de comprobar principios físicos fundamentales.

En la cosmología podemos prever que a futuro se podrán contar con tecnologías


que permitan investigar con más y mejor precisión la estructura del universo y,
por ende, las características y fuentes de emisión de antimateria en él. Para ello
en particular, la NASA ha desarrollado un proyecto para instalar en la estación
espacial Alpha, en el año 2002, un detector de antipartículas que se la ha
denominado Espectrómetro Alfa Magnético (AMS). El instrumento está diseñado
para detectar antimateria atómica (hasta ahora solamente se han observado
antipartículas) entre las partículas de los rayos cósmicos, que a la velocidad de la
luz bombardean intensamente la Tierra. La mayor parte de ellas provienen del
Sol y también de remanentes de estrellas que han explosionado en nuestra
galaxia, pero la detección de las más energéticas se ha conseguido en lugares
ubicados próximos al centro de la Vía Láctea y de fuentes lejanas de ésta. En
consecuencia, serán estos últimas los blancos focalizado para ejecutar los
procesos de detección de antimateria atómica espacial.

Pero no sólo para el campo de la investigación en física la producción de


antimateria tiene ribetes de excepción, si no que también en otros campos de la
ciencia podría tener aplicaciones inmensas como el aerospacial, o como ya se ha
demostrado en la medicina, etc.... Podemos soñar con energía ilimitada y barata;
motores para naves interestelares que podrían desarrollar velocidades a más de
un tercio la de la luz; mayor intensidad en la exploración del espacio y, por
supuesto, muchas otras cosas más que, por ahora, podrían ser consideradas pura
ciencia ficción.

Al momento de escribirse estas líneas, solamente se han desarrollado en


laboratorio diecinueve antiátomos de hidrógeno y el equipo de norteamericanos
encabezados por Charles Munger proyecta a futuro, lograr unos cien. Lo anterior,
no significa que se podrá contar en el corto plazo con reactores de materia-
antimateria, o que pronto se podrán unir antiátomos para crear antimoléculas y,
luego, anticosas. Por ahora, es mejor considerarlo como ficción. Consideremos
que para poder contar con un supercumbustible de antimateria para viajes
espaciales, hay todavía que pasar una multiplicidad de obstáculos. El primero es
encontrar un método para crear antiátomos en reposo, en vez de alta
velocidades, para que no desaparezcan al chocar con la materia. Luego, habría
que producir 1020 de estos, por lo menos. Lograrlo, no es imposible, pero por
ahora debe ser considerado a un largo plazo. En cuanto a las "anticosas", es
mejor adherirse a la idea de que nunca se puedan concretar. Se escogió hacer un
antiátomo de hidrógeno porque este es el más simple de todos. Pero para
producir moléculas de antiátomos, sería necesario crear antiátomos más
complejos, y luego unirlos, lo que teóricamente es factible, pero de ahí a la
práctica es casi invisualizable.

La antimateria en la ficción
El ejemplo de ficción más famoso de este tipo de fuente de energía es en la serie
de ciencia ficción, Star Trek, donde se usa la antimateria como fuente de energía
común en las naves espaciales.

Otro ejemplo del uso de la antimateria en la ficción, es la novela de Dan Brown,


Ángeles y Demonios, donde su descubrimiento forma parte de la trama.

Armas de antimateria
El desarrollo de armas de antimateria se basa en la hipotética construcción de
un equipo capaz de crear antimateria en cantidad suficiente (algo más de 100
nanogramos) como para producir una reacción en cadena al juntarse con la
materia.
De ser esto posible el dispositivo tendría la forma de una bomba-laboratorio
(imaginando que esto pudiera reducirse a tamaños prácticos) que se activaría
instantes antes de alcanzar su objetivo.

El resultado destructivo podría ser muy superior al de las bombas de hidrógeno


actualmente conocidas, dependiendo de la cantidad de antimateria que el
dispositivo pudiera crear. Así mismo es esperable que el rendimiento de la
reacción fuera muy superior, cercano al 100%.

En laboratorios BOT y MPA se investiga la posibilidad de manipular esta


tecnología y alcanzar una finalidad práctica, yendo más allá del simple poder
destructivo de estas armas como, por ejemplo, la utilización para navegación
espacial y terraformación de mundos inhóspitos.

Esto es sólo una elucubración poco probable en la actualidad, pero no imposible


en el futuro.

Hartree-Fock
La aproximación de Hartree-Fock es el equivalente, en química computacional,
a la aproximación de orbitales moleculares, de enorme utilidad conceptual para
los químicos. Este esquema de cálculo, también llamado de campo
autoconsistente, es un procedimiento iterativo para calcular la mejor solución
monodeterminantal a la ecuación de Schrödinger independiente del tiempo, para
moléculas aisladas, tanto en su estado fundamental como en estado excitados. La
interacción de un único electrón en un problema de muchos cuerpos con el
resto de los electrones del sistema se aproxima promediándolo como una
interacción entre dos cuerpos (tras aplicar la aproximación de Born-
Oppenheimer). De esta forma, se puede obtener una aproximación a la energía
total de la molécula. Como consecuencia, calcula la energía de intercambio de
forma exacta, pero no tiene en absoluto en cuenta el efecto de la correlación
electrónica.

Descripción cualitativa del método

El punto de partida para el cálculo Hartree-Fock es un conjunto de orbitales


aproximados. Para un cálculo atómico, estos son típicamente los orbitales de un
átomo hidrogenoide (un átomo con una carga nuclear cualquiera pero con un
sólo electrón). Para cálculos moleculares o cristalinos, las funciones de ondas
iniciales son típicamente una combinación lineal de orbitales atómicos. Esto da
una colección de orbitales monoelectrónicos, que por la naturaleza fermiónica de
los electrones, debe ser antisimétrica, lo que se consigue mediante el uso del
determinante de Slater. El procedimiento básico fue diseñado por Hartree, y Fock
añadió el antisimetrizado.

Una vez se ha construído una función de ondas inicial, se elige un electrón. Se


resume el efecto de todos los demás electrones, que se usa para generar un
potencial. (Por este motivo, se llama a veces a este método un procedimiento de
campo promedio). Esto da un electrón en un campo definido, para el que se
puede resolver la ecuación de Schrödinger, dando una función de ondas
ligeramente diferente para este electrón. Entonces, el procedimiento se repite
para cada uno de los otros electrones, hasta completar un paso del
procedimiento. De esta forma, con la nueva distribución electrónica se tiene un
nuevo potencial eléctrico. El procedimiento se repite, hasta alcanzar la
convergencia (hasta que el cambio entre un paso y el siguiente es lo
suficientemente pequeño).

Algoritmo
1. Especificar el sistema:
1. Conjunto de coordenadas nucleares, asociadas a los
correspondientes números atómicos
2. Número total de electrones
3. Funciones de base. La elección de una base puede ser crítico para
llegar a una convergencia adecuada, y con sentido físico, y no hay
un procedimiento general con garantía de éxito. Los científicos
cuánticos hablan del arte de escoger bien la base de funciones.
2. Calcular todas las integrales (interacciones) relevantes para las
funciones de base: las energías cinéticas medias, la atracción electrón-
núcleo, las repulsiones bielectrónicas. Como las funciones de base se
mantienen a lo largo de todo el cálculo, no es necesario volver a evaluar
las integrales. Dependiendo de las limitaciones técnicas del momento y de
la talla del sistema, las integrales pueden o no mantenerse en la RAM. En
caso de que no se mantengan, la estrategia óptima puede ser guardarlas
en un disco duro o cinta, o bien recalcularlas en cada momento en que
son necesarias.
3. Construir, con las integrales calculadas, la matriz de solapamiento S, que
mide la desviación de la ortogonalidad de las funciones de la base, y, a
partir de ella, la matriz de transformación X, que ortogonaliza la base.
4. Obtener una estimación de la matriz densidad P que, a partir de un
conjunto de funciones de base, especifica completamente la distribución
de densidad electrónica. Nuevamente, la primera estimación no es obvia,
y puede precisar de inspiración artística. Un cálculo de Hückel extendido
puede suponer una buena aproximación.
5. Conociendo la matriz densidad y las integrales bielectrónicas de las
funciones de nase, calcular el operador de interacción entre electrones, la
matriz G.
6. Construir la matriz de Fock como suma del hamiltoniano "fijo" (integrales
monoelectrónicas) y la matriz G
7. Transformar, con la matriz de transformación, la matriz de Fock en su
expresión para la base ortonormal, F'
8. Diagonalizar F', obtener C' y e (vectores y valores propios)
9. De C' y la matriz de transformación, recuperar C, que será la expresión en
las funciones de base originales
10. C define una nueva matriz densidad P
11. Si la nueva matriz densidad difiere de la anterior más que un criterio
previamente fijado (no ha convergido), volver al punto 5.
12. En caso contrario, usar C, P y F para calcular los valores esperados de
magnitudes observables, y otras cantidades de interés.
Si el cálculo diverge, o converge con lentitud, o llega a una solución que no es
una descripción adecuada de los fenómenos que son de interés,

o bien se corrigen los dos puntos artesanales, por ejemplo, dando más
flexibilidad a las funciones de base, o, por el contrario, restringiéndolas a
la parte fundamental de la física, u obtener una mejor primera estimación
de la matriz densidad P
o bien se aplican métodos que van más allá de la aproximación de
Hartree-Fock

Aplicaciones, problemas y más allá de Hartree-Fock

Se usa a menudo en el mismo área de cálculos que la Teoría del Funcional de la


Densidad, que puede dar soluciones aproximadas para las energías de canje y de
correlación. De hecho, es común el uso de cálculos que son híbridos de los dos
métodos. Adicionalmente, los cálculos a nivel Hartree-Fock se usan como punto
de partida para métodos más sofisticados, como la teoría perturbacional de
muchos cuerpos, o cálculos cuánticos de Monte-Carlo.

La inestabilidad numérica es un problema de este método, y hay varias vías para


combatirla. Una de las más básicas y más aplicadas es la mezcla-F. Con la
mezcla-F, no se usa directamente la función de ondas de un electrón conforme
se ha obtenido. En lugar de esto, se usa una combinación lineal de la función
obtenida con las previas, por ejemplo con la inmediatamente previa. Otro truco,
empleado por Hartree, es aumentar la carga nuclear para comprimir a los
electrones; tras la estabilización del sistema, se reduce gradualmente la carga
hasta llegar a la carga correcta.

Desarrollos más allá del campo autoconsistente o SCF son el CASSCF y la


interacción de configuraciones. Los cálculos de este tipo son relativamente
económicos frente a otros de la química cuántica. De esta forma, en ordenadores
personales es posible resolver moléculas pequeñas en muy poco tiempo. Las
moléculas más grandes, o los desarrollos más sofisticados, para obtener
resultados más exactos, siguen realizándose en superordenadores. Existen
múltiples paquetes informáticos que implementan el método de campo
autoconsistente, entre los que pueden destacarse Gaussian, MOLPRO y MOLCAS.

Bibliografía

El libro de texto "Modern Quantum Chemistry", de A. Szabo y N. S. Ostlund,


contiene un excelente tratamiento de la, desde los conceptos y herramientas
matemáticas subyacentes, pasando por un desarrollo formal completo, hasta una
implementación en fortran77 para un caso sencillo.

Ecuación de
Schrödinger
La ecuación de Schrödinger, desarrollada por el físico austríaco Erwin Rudolf
Josef Alexander Schrödinger en 1925, describe la dependencia temporal de los
sistemas mecanocuánticos. Es de importancia central en la teoría de la mecánica
cuántica, donde representa un papel análogo a las leyes de Newton en la
mecánica clásica.

En la mecánica cuántica, el conjunto de todos los estados posibles en un sistema


se describe por un espacio de Hilbert complejo, y cualquier estado instantáneo
de un sistema se describe por un vector unitario en ese espacio. Este vector
unitario codifica las probabilidades de los resultados de todas las posibles
medidas hechas al sistema. Como el estado del sistema generalmente cambia con
el tiempo, el vector estado es una función del tiempo. Sin embargo, debe
recordarse que los valores de un vector de estado son diferentes para distintas
localizaciones, en otras palabras, también es una función de x (o,
tridimensionalmente, de r). La ecuación de Schrödinger da una descripción
cuantitativa de la tasa de cambio en el vector estado.

Usando la notación bra-ket de Dirac, denotamos ese vector de estado


instantáneo a tiempo t como |ρ(t)〉. La ecuación de Schrödinger es, entonces::
Schrodinger Equation

donde i es el número imaginario unidad, es la constante de Planck dividida


por 2π(constante reducida de Plank), y el Hamiltoniano H es un operador lineal
hermítico (auto-adjunto) que actúa sobre el espacio de estados. El hamiltoniano
describe la energía total del sistema. Como con la fuerza en la segunda ley de
Newton, su forma exacta no la da la ecuación de Schrödinger, y ha de ser
determinada independientemente, a partir de las propiedades físicas del sistema
cuántico.

Para más información del papel de los operadores en mecánica cuántica, véase
la formulación matemática de la mecánica cuántica.

La ecuación de Schrödinger independiente del tiempo


Para cada hamiltoniano (si la energía potencial es independiente del tiempo),
existe un conjunto de estados cuánticos, conocidos como estados propios para
la energía que satisfacen la ecuación de valores propios

Soluciones de la ecuación de Schrödinger


Se pueden obtener soluciones analíticas de la ecuación de Schrödinger
independiente del tiempo para varios sistemas relativamente sencillos. Estas
soluciones sirven para entender mejor la naturaleza de los fenómenos cuánticos,
y en ocasiones son una aproximación razonable al comportamiento de sistemas
más complejos (como en mecánica estadística se aproximan las vibraciones
moleculares como osciladores armónicos). Algunas de las soluciones analíticas
más comunes son:

Números Cuánticos
La partícula en una caja
La partícula en un anillo
La partícula en un potencial de simetría esférica
El oscilador armónico cuántico
El átomo de hidrógeno
La partícula en una red monodimensional

Sin embargo, para muchos sistemas no hay solución analítica a la ecuación de


Schrödinger. En estos casos, hay que recurrir a soluciones aproximadas, como:

La teoría perturbacional
El principio variacional
Las soluciones Hartree-Fock
Los métodos cuánticos de Monte Carlo

Gato de Schrödinger

Como parte del Wikiproyecto:Wikipedia grabada, hay un archivo de audio para


este artículo. Escuche este artículo o lea más acerca de Wikipedia grabada.
Este archivo puede ser de una versión antigua.

El gato en la caja

El experimento del gato de Schrödinger o paradoja de Schrödinger es un


experimento imaginario, diseñado por Erwin Schrödinger para exponer uno de
los aspectos más extraños, a priori, de la mecánica cuántica.

Supongamos un sistema formado por una caja cerrada y opaca que contiene un
gato, una botella de gas venenoso, una partícula radiactiva con un 50% de
probabilidades de desintegrarse y un dispositivo tal que, si la partícula se
desintegra, se rompe la botella y el gato muere. Al depender todo el sistema del
estado final de un único átomo que actúa según la mecánica cuántica, tanto la
partícula como el gato forman parte de un sistema sometido a las leyes de la
mecánica cuántica.
Siguiendo la interpretación de Copenhague, mientras no abramos la caja, el gato
está en un estado tal que está vivo y muerto a la vez. En el momento en que
abramos la caja, la sola acción de observar al gato modifica el estado del gato,
haciendo que pase a estar solamente vivo, o solamente muerto.

Esto se debe a una propiedad fisica llamada superposición cuántica.

Albert Einstein
Albert Einstein

Físico alemán

Nacimiento 14 de marzo de 1879 Ulm, Alemania

Fallecimiento 18 de abril de 1955 Princeton, Nueva Jersey

Albert Einstein, nacido en Alemania en 1879 y nacionalizado en Estados Unidos


en 1940, es uno de los científicos más conocidos y trascendentes del siglo XX.

En 1905, siendo un joven físico desconocido, empleado en la Oficina de Patentes


de Berna (Suiza), publicó su Teoría de la Relatividad Especial. En ella incorporó,
en un marco teórico simple y con base en postulados físicos sencillos, conceptos
y fenómenos estudiados anteriormente por Henri Poincaré y Hendrik Lorentz.
Probablemente, la ecuación de la física más conocida a nivel popular es la
expresión matemática de la equivalencia masa - energía, E=mc², deducida por
Einstein como una consecuencia lógica de esta teoría. Ese mismo año publicó
otros trabajos que sentarían algunas de las bases de la física estadística y la
mecánica cuántica.

En 1916 presentó la Teoría General de la Relatividad, en la que reformuló por


completo el concepto de gravedad. Una de las consecuencias fue el surgimiento
del estudio científico del origen y evolución del universo por la rama de la física
denominada cosmología. Muy poco después Einstein se convirtió en un icono
popular de la ciencia alcanzando fama mundial, un privilegio al alcance de muy
pocos científicos.

Obtuvo el Premio Nobel de Física en 1921 por su explicación del efecto


fotoeléctrico y sus numerosas contribuciones a la física teórica, y no por la
Relatividad, pues en esa época era aún considerada un tanto polémica por parte
de algunos científicos.

Biografía

Albert Einstein de joven, 1893

Primeros años

Albert Einstein nació en Ulm, (Alemania) a unos 100 km al este de Stuttgart, en


el seno de una familia judía. Sus padres eran Hermann Einstein y Pauline (nacida
Koch). Su padre trabajaba como vendedor de colchones, pero luego ingresó en
la empresa electroquímica Hermann. Albert cursó sus estudios primarios en una
escuela católica; un periodo difícil que sobrellevaría gracias a las clases de violín
que le daría su madre y a la introducción al álgebra que le descubriría su tío
Jacob.

Otro de sus tíos incentivó sus intereses científicos en su adolescencia


proporcionándole libros de ciencia. Según relata el propio Einstein en su
autobiografía, de la lectura de estos libros de divulgación científica nacería un
constante cuestionamiento de las afirmaciones de la religión; un
librepensamiento decidido que fue asociado a otras formas de rechazo hacia el
Estado y la autoridad. Un escepticismo poco común en aquella época, a decir del
propio Einstein. Su paso por el Gymnasium, sin embargo, no fue muy
gratificante: la rigidez y la disciplina militar de los institutos de secundaria de la
época de Bismarck le granjearon no pocas polémicas con los profesores: "tu sola
presencia mina el respeto que me debe la clase", le dijo uno de ellos en una
ocasión. Otro le dijo que nunca llegaría a nada.

Einstein comenzó a estudiar matemáticas a la edad de 12 años. Se interesó por el


álgebra y la geometría para, a los 15 años, sin tutor ni guía, emprender el estudio
del cálculo infinitesimal. Existe el rumor, claramente infundado, sobre su
incapacidad de aprobar las asignaturas de matemáticas. Lo que sí es cierto es que
los cambios en el sistema educativo de aquellos años añadieron confusión a su
currículo.

En 1894 la compañía Hermann sufría importantes dificultades económicas y los


Einstein se mudaron de Múnich a Pavía en Italia cerca de Milán. Albert
permaneció en Munich para terminar sus cursos antes de reunirse con su familia
en Pavía, pero la separación duró poco tiempo: antes de obtener su título de
bachiller Albert decidió abandonar el Gymnasium.

Entonces, la familia Einstein intentó matricular a Albert en el Instituto Politécnico


de Zúrich (Eidgenössische Technische Hochschule) pero, al no tener el título de
bachiller, tuvo que presentarse a una prueba de acceso que suspendió a causa
de una calificación deficiente en una asignatura de letras. Esto supuso que fuera
rechazado inicialmente, pero el director del centro, impresionado por sus
resultados en ciencias, le aconsejó que continuara sus estudios de bachiller y que
obtuviera el título que le daría acceso directo al Politécnico. Su familia le envió a
Aarau para terminar sus estudios secundarios, y Albert consiguió graduarse en
1896 a la edad de 16 años. Ese mismo año renunció a su ciudadanía alemana e
inició los trámites para convertirse en ciudadano suizo. Poco después el joven
Einstein ingresó en el Instituto Politécnico de Zúrich, ingresando en la Escuela de
orientación matemática y científica, y con la idea de estudiar física.

Durante sus años en la políticamente vibrante Zurich, Einstein descubrió la obra


de diversos filósofos: Marx, Engels, Hume, Kant, Mach y Spinoza. También tomó
contacto con el movimiento socialista a través de Friedich Adler y con cierto
pensamiento inconformista y revolucionario en el que mucho tuvo que ver su
amigo Michele Besso. En 1898 conoció a Mileva Maric, una compañera de clase
serbia, también amiga de Nikola Tesla, de talante feminista y radical, de la que se
enamoró. En 1900 Albert y Mileva se graduaron en el Politécnico de Zurich y en
1901 consiguió la ciudadanía suiza. Durante este período Einstein discutía sus
ideas científicas con un grupo de amigos cercanos, incluyendo a Mileva. Albert
Einstein y Mileva tuvieron una hija en enero de 1902, llamada Liserl. El 6 de
enero de 1903 la pareja se casó.

Juventud

Tras graduarse, siendo el único de su promoción que no consiguió el grado de


maestro, Einstein no pudo encontrar un trabajo en la Universidad,
aparentemente, por la irritación que causaba entre sus profesores. El padre de un
compañero de clase le ayudó a encontrar un trabajo en la Oficina de Patentes
Suiza en 1902. Su personalidad le causó también problemas con el director de la
Oficina quien le enseñó a "expresarse correctamente".

En esta época Einstein se refería con amor a su mujer Mileva como "una persona
que es mi igual y tan fuerte e independiente como yo". Abram Joffe, en su
biografía de Einstein, argumenta que durante este periodo fue ayudado en sus
investigaciones por Mileva. Esto se contradice con otros biógrafos como Ronald
W. Clark, quien afirma que Einstein y Mileva llevaban una relación distante que
brindaba a Einstein la soledad necesaria para concentrarse en su trabajo.
En mayo de 1904, Einstein y Mileva tuvieron un hijo de nombre Hans Albert
Einstein. Ese mismo año consiguió un trabajo permanente en la Oficina de
patentes. Poco después finalizó su doctorado presentando una tesis titulada Una
nueva determinación de las dimensiones moleculares. En 1905 escribió cuatro
artículos fundamentales sobre la física de pequeña y gran escala. En ellos
explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba la
relatividad especial y la equivalencia masa-energía. El trabajo de Einstein sobre el
efecto fotoeléctrico le haría merecedor del Premio Nobel de física en 1921. Estos
artículos fueron enviados a la revista Annalen der Physik y son conocidos
generalmente como los artículos del Annus Mirabilis (del Latín, "Año
maravilloso").

Madurez

En 1908 fue contratado en la Universidad de Berna, Suiza, como profesor y


conferenciante (Privatdozent) sin cargas administrativas en donde se dedicó a dar
cursos de biomecánica, física nuclear y física cuántica. En ese período brindó 75
conferencias diferentes, incluida la más extraña de su carrera: el 7 de abril de
1909 dio una clase magistral sobre la injerencia del ají en la formación del
Universo. Einstein y Mileva tuvieron un nuevo hijo, Eduard, nacido el 28 de julio
de 1910. Poco después la familia se mudó a Praga, donde Einstein ocupó una
plaza de Professor, el equivalente a Catedrático en la Universidad Alemana de
Praga. En esta época trabajó estrechamente con Marcel Grossman y Otto Stern.
También comenzó a llamar al tiempo matemático cuarta dimensión.

Albert Einstein en 1920

En 1914, justo antes de la Primera Guerra Mundial, Einstein se estableció en


Berlín y fue escogido miembro de la Academia Prusiana de Ciencias y director
del Instituto de Física Káiser Wilhelm. Su pacifismo y actividades políticas pero,
especialmente, sus orígenes judíos, irritaban a los nacionalistas alemanes. Las
teorías de Einstein comenzaron a sufrir una campaña organizada de descrédito.
Su matrimonio tampoco iba bien. El 14 de febrero de 1919 se divorció de Mileva
y el 2 de junio de 1919 se casó con una prima suya, Elsa Loewenthal, nacida
Einstein: Loewenthal era el apellido de su primer marido, Max Loewenthal. Elsa
era tres años mayor que Einstein y le había cuidado tras sufrir una crisis nerviosa
combinada con problemas del sistema digestivo. Einstein y Elsa no tuvieron
hijos. El destino de la hija de Albert y Mileva, Lieserl, nacida antes de que sus
padres se casaran o encontraran trabajo, es desconocido. Algunos piensan que
murió en la infancia y otros afirman que fue entregada en adopción. De sus dos
hijos el segundo, Eduard, sufría esquizofrenia y fue internado durante largos
años muriendo en una institución mental. El primero, Hans Albert, se mudó a
California donde llegó a ser profesor universitario aunque con poca interacción
con su padre.

Tras la llegada de Adolf Hitler al poder en 1933, las expresiones de odio por
Einstein alcanzaron niveles más elevados. Fue acusado por el régimen
nacionalsocialista de crear una "Física judía" en contraposición con la "Física
alemana" o "Física aria". Algunos físicos nazis, incluyendo físicos tan notables
como los premios Nobel de Física Johannes Stark y Philipp Lenard, intentaron
desacreditar sus teorías. Los físicos que enseñaban la Teoría de la relatividad
como, por ejemplo, Werner Heisenberg, eran incluidos en listas negras políticas.
Einstein abandonó Alemania en 1933 con destino a Estados Unidos, donde se
instaló en el Instituto de Estudios Avanzados de Princeton y se nacionalizó
estadounidense en 1940. Durante sus últimos años Einstein trabajó por integrar
en una misma teoría las cuatro Fuerzas Fundamentales, tarea aún inconclusa.
Einstein murió en Princeton, New Jersey, el 18 de abril de 1955.

Trayectoria científica
Los artículos de 1905
En 1904 Einstein consiguió una posición permanente en la Oficina de Patentes
Suiza. En 1905 finalizó su doctorado presentando una tesis titulada Una nueva
determinación de las dimensiones moleculares. Ese mismo año escribió cuatro
artículos fundamentales sobre la física de pequeña y gran escala. En ellos
explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba la
relatividad especial y la equivalencia masa-energía. El trabajo de Einstein sobre el
efecto fotoeléctrico le proporcionaría el Premio Nobel de física en 1921. Estos
artículos fueron enviados a la revista "Annalen der Physik" y son conocidos
generalmente como los artículos del "Annus Mirabilis" (del Latín: Año
extraordinario). La Unión internacional de física pura y aplicada junto con la
UNESCO conmemoran 2005 como el Año mundial de la física [1] celebrando el
centenario de publicación de estos trabajos.

Movimiento browniano
Artículo principal: Movimiento browniano

El primero de sus artículos de 1905, titulado Sobre el movimiento requerido por


la teoría cinética molecular del calor de pequeñas partículas suspendidas en un
líquido estacionario, cubría sus estudios sobre el movimiento browniano.

El artículo explicaba el fenómeno haciendo uso de las estadísticas del


movimiento térmico de los átomos individuales que forman un fluido. El
movimiento browniano había desconcertado a la comunidad científica desde su
descubrimiento unas décadas atrás. La explicación de Einstein proporcionaba
una evidencia experimental incontestable sobre la existencia real de los átomos.
El artículo también aportaba un fuerte impulso a la mecánica estadística y a la
teoría cinética de los fluidos, dos campos que en aquella época permanecían
controvertidos.

Antes de este trabajo los átomos se consideraban un concepto útil en física y


química, pero la mayoría de los científicos no se ponían de acuerdo sobre su
existencia real. El artículo de Einstein sobre el movimiento atómico entregaba a
los experimentalistas un método sencillo para contar átomos mirando a través de
un microscopio ordinario.

Wilhelm Ostwald, uno de los líderes de la escuela antiatómica, comunicó a


Arnold Sommerfeld que había sido transformado en un creyente en los átomos
por la explicación de Einstein del movimiento Browniano.

Efecto fotoeléctrico
Artículo principal: Efecto fotoeléctrico

El segundo artículo se titulaba Un punto de vista heurístico sobre la producción y


transformación de luz. En él Einstein proponía la idea de "quanto" de luz (ahora
llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar
el efecto fotoeléctrico.

La teoría de los cuantos de luz fue un fuerte indicio de la dualidad onda-


corpúsculo y de que los sistemas físicos pueden mostrar tanto propiedades
ondulatorias como corpusculares. Este artículo constituyó uno de los pilares
básicos de la mecánica cuántica. Una explicación completa del efecto
fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más
avanzada. Por este trabajo, y por sus contribuciones a la física teórica, Einstein
recibió el Premio Nobel de Física de 1921.

Relatividad especial
Artículo principal: Teoría de la Relatividad Especial

El tercer artículo de Einstein de ese año se titulaba Zur Elektrodynamik bewegter


Körper ('Sobre la electrodinámica de cuerpos en movimiento'). En este artículo
Einstein introducía la teoría de la relatividad especial estudiando el movimiento
de los cuerpos y el electromagnetismo en ausencia de la fuerza de gravedad.

La relatividad especial resolvía los problemas abiertos por el experimento de


Michelson-Morley en el que se había demostrado que las ondas
electromagnéticas que forman la luz se movían en ausencia de un medio. La
velocidad de la luz es, por lo tanto, constante y no relativa al movimiento. Ya en
1894 George Fitzgerald había estudiado esta cuestión demostrando que el
experimento de Michelson-Morley podía ser explicado si los cuerpos se contraen
en la dirección de su movimiento. De hecho, algunas de las ecuaciones
fundamentales del artículo de Einstein habían sido introducidas anteriormente
(1903) por Hendrik Lorentz, físico holandés, dando forma matemática a la
conjetura de Fitzgerald.

Esta famosa publicación está cuestionada como trabajo original de Einstein,


debido a que en ella omitió citar toda referencia a las ideas o conceptos
desarrolladas por estos autores así como los trabajos de Poincaré. En realidad
Einstein desarrollaba su teoría de una manera totalmente diferente a estos
autores deduciendo hechos experimentales a partir de principios fundamentales
y no dando una explicación fenomenológica a observaciones desconcertantes. El
mérito de Einstein estaba por lo tanto en explicar lo sucedido en el experimento
Michelson-Morley como consecuencia final de una teoría completa y elegante
basada en principios fundamentales y no como una explicación ad-hoc o
fenomenológica de un fenómeno observado.

Su razonamiento se basó en dos axiomas simples: En el primero reformuló el


principio de simultaneidad, introducido por Galileo siglos antes, por el que las
leyes de la física deben ser invariantes para todos los observadores que se
mueven a velocidades constantes entre ellos, y el segundo, que la velocidad de
la luz es constante para cualquier observador. Este segundo axioma,
revolucionario, va más allá de las consecuencias previstas por Lorentz o Poincaré
que simplemente relataban un mecanismo para explicar el acortamiento de unos
de los brazos del experimento de Michelson y Morley. Este postulado implica
que si un destello de luz se lanza al cruzarse dos observadores en movimiento
relativo, ambos verán alejarse la luz produciendo un círculo perfecto con cada
uno de ellos en el centro. Si a ambos lados de los observadores se pusiera un
detector, ninguno de los observadores se pondría de acuerdo en qué detector se
activó primero (se pierden los conceptos de tiempo absoluto y simultaneidad).

La teoría recibe el nombre de "teoría especial de la relatividad" o "teoría


restringida de la relatividad" para distinguirla de la Teoría general de la
relatividad, que fue introducida por Einstein en 1915 y en la que se consideran
los efectos de la gravedad y la aceleración.

Equivalencia masa-energía
Artículo principal: Equivalencia entre masa y energía

El cuarto artículo de aquel año se titulaba Ist die Trägheit eines Körpers von
seinem Energieinhalt abhängig? ("¿Depende la inercia de un cuerpo de su
contenido de energía?") y mostraba una deducción de la ecuación de la
relatividad que relaciona masa y energía.

En este artículo se decía que "la variación de masa de un objeto que emite una
energía L es L/V²", donde V era la notación para la velocidad de la luz usada por
Einstein en 1905.

Esta ecuación implica que la energía E de un cuerpo en reposo es igual a su


masa m multiplicada por la velocidad de la luz al cuadrado:
Muestra cómo una partícula con masa posee un tipo de energía, "energía en
reposo", distinta de las clásicas energía cinética y energía potencial. La relación
masa - energía se utiliza comúnmente para explicar cómo se produce la energía
nuclear; midiendo la masa de núcleos atómicos y dividiendo por el número
atómico se puede calcular la energía de enlace atrapada en los núcleos atómicos.
Paralelamente, la cantidad de energía producida en la fisión de un núcleo
atómico se calcula como la diferencia de masa entre el núcleo inicial y los
productos de su desintegración multiplicada por la velocidad de la luz al
cuadrado.

Relatividad general
Artículo principal: Teoría General de la Relatividad

En noviembre de 1915 Einstein presentó una serie de conferencias en la


Academia de Ciencias de Prusia en las que describió la teoría de la relatividad
general. La última de estas charlas concluyó con la presentación de la ecuación
que reemplaza a la ley de gravedad de Newton. En esta teoría todos los
observadores son considerados equivalentes y no únicamente aquellos que se
mueven con una velocidad uniforme. La gravedad no es ya una fuerza o acción a
distancia, como era en la gravedad newtoniana, sino una consecuencia de la
curvatura del espacio-tiempo. La teoría proporcionaba las bases para el estudio
de la cosmología y permitía comprender características esenciales del Universo,
muchas de las cuales no serían descubiertas sino con posterioridad a la muerte
de Einstein.

La relatividad general fue obtenida por Einstein a partir de razonamientos


matemáticos, experimentos hipotéticos (Gedanken experiment) y rigurosa
deducción matemática sin contar realmente con una base experimental. El
principio fundamental de la teoría era el denominado principio de equivalencia.
A pesar de la abstracción matemática de la teoría, las ecuaciones permitían
deducir fenómenos comprobables. En 1919 Arthur Eddington fue capaz de
medir, durante un eclipse, la desviación de la luz de una estrella pasando cerca
del Sol, una de las predicciones de la relatividad general. Cuando se hizo pública
esta confirmación la fama de Einstein se incrementó enormemente y se consideró
un paso revolucionario en la física. Desde entonces la teoría se ha verificado en
todos y cada uno de los experimentos y verificaciones realizados hasta el
momento.

A pesar de su popularidad, o quizás precisamente por ella, la teoría contó con


importantes detractores entre la comunidad científica que no podían aceptar una
física sin un sistema de referencia absoluto.

Estadísticas de Bose-Einstein

Artículo principal: Estadística de Bose-Einstein

En 1924 Einstein recibió un artículo de un joven físico indio, Satyendra Nath


Bose, describiendo a la luz como un gas de fotones y pidiendo la ayuda de
Einstein para su publicación. Einstein se dio cuenta que el mismo tipo de
estadísticas podían aplicarse a grupos de átomos y publicó el artículo,
conjuntamente con Bose, en alemán, la lengua más importante en física en la
época. Las estadísticas de Bose-Einstein explican el comportamiento de grupos
de partículas indistinguibles entre sí y conocidas como bosones

El Instituto de Estudios Avanzados

Einstein dedicó sus últimos años de trabajo a la búsqueda de un marco unificado


de las leyes de la física. A esta teoría la llamaba Teoría de Campo Unificada.

Einstein intentó unificar la formulación de las fuerzas fundamentales de la


naturaleza mediante un modelo en el que, bajo las condiciones apropiadas, las
diferentes fuerzas surgirían como manifestación de una única fuerza. Sus intentos
fracasaron ya que las fuerzas nuclear fuerte y débil no se entendieron en un
marco común hasta los años 1970, después de numerosos experimentos en física
de altas energías y ya pasados quince años desde la muerte de Einstein. Este
objetivo sigue siendo perseguido por la moderna física teórica. Los intentos
recientes más destacados para alcanzar una teoría de unificación son las teorías
de supersimetría y la teoría de cuerdas.

Actividad política
Albert Einstein tuvo siempre una inclinación hacia la política y al compromiso
social como científico, interesándose profundamente por las relaciones entre
ciencia y sociedad. Fue cofundador del Partido Liberal Democrático Alemán. Con
el auge del movimiento nacional socialista en Alemania Einstein dejó su país y se
nacionalizó estadounidense. En plena Segunda Guerra Mundial apoyó una
iniciativa de Robert Oppenheimer para iniciar el programa de desarrollo de
armas nucleares conocido como Proyecto Manhattan.

Einstein y Oppenheimer

En mayo de 1949, Monthly Review publicó (en Nueva York) un artículo suyo
bajo el título de "¿Por qué el socialismo?" en el que reflexiona sobre la historia,
las conquistas y las consecuencias de la "anarquía económica de la sociedad
capitalista", artículo que hoy en día sigue teniendo vigencia. Hay que tener en
cuenta que Albert Einstein fue un enardecido activista político muy perseguido
durante la caza de brujas del senador anticomunista McCarthy por manifestar
opiniones de carácter anti-imperialista, aunque se salvó por aportar grandes
avances científicos de los que el gobierno estadounidense se valió para su
expansión armamentística.

Originario de una familia judía asimilada abogó por la causa sionista, aunque
hasta 1947 se había mostrado más partidario de un estado común entre árabes y
judíos. El Estado de Israel se creó en 1948. Cuando Chaim Weizmann, el primer
presidente de Israel y viejo amigo de Einstein, murió en 1952, Abba Eban,
embajador israelí en EE.UU., le ofreció la presidencia. Einstein rechazó el
ofrecimiento diciendo "Estoy profundamente conmovido por el ofrecimiento del
Estado de Israel y a la vez tan entristecido que me es imposible aceptarlo". En
sus últimos años fue un pacifista convencido y se dedicó al establecimiento de
un utópico Gobierno Mundial que permitiría a las naciones trabajar juntas y
abolir la guerra. En esta época lanzó el conocido Manifiesto Russell-Einstein que
hacía un llamado a los científicos para unirse en favor de la desaparición de las
armas nucleares. Este documento sirvió de inspiración para la posterior
fundación de las Conferencias Pugwash que en el 2005 se hicieron acreedoras
del Premio Nobel de la Paz

Creencias religiosas
Einstein creía en un "Dios que se revela en la armonía de todo lo que existe, no
en un Dios que se interesa en el destino y las acciones del hombre". Deseaba
conocer "cómo Dios había creado el mundo".

En algún momento resumió sus creencias religiosas de la manera siguiente: "Mi


religión consiste en una humilde admiración del ilimitado espíritu superior que
se revela en los más pequeños detalles que podemos percibir con nuestra frágil y
débil mente".

En una ocasión, en una reunión se le preguntó a Einstein si creía o no en un


Dios a lo que respondió: "Creo en el Dios de Spinoza, que es idéntico al orden
matemático del Universo".

Una cita más larga de Einstein aparece en Science, Philosophy, and Religion, A
Symposium (Simposio de ciencia, filosofía y religión), publicado por la
Conferencia de Ciencia, Filosofía y Religión en su Relación con la Forma de Vida
Democrática:

"Cuanto más imbuido esté un hombre en la ordenada regularidad de los


eventos, más firme será su convicción de que no hay lugar —del lado de
esta ordenada regularidad— para una causa de naturaleza distinta. Para
ese hombre, ni las reglas humanas ni las "reglas divinas" existirán como
causas independientes de los eventos naturales. De seguro, la ciencia
nunca podrá refutar la doctrina de un Dios que interfiere en eventos
naturales, porque esa doctrina puede siempre refugiarse en que el
conocimiento científico no puede posar el pie en ese tema. Pero estoy
convencido de que tal comportamiento de parte de las personas religiosas
no solamente es inadecuado sino también fatal. Una doctrina que se
mantiene no en la luz clara sino en la oscuridad, que ya ha causado un
daño incalculable al progreso humano, necesariamente perderá su efecto
en la humanidad. En su lucha por el bien ético, las personas religiosas
deberían renunciar a la doctrina de la existencia de Dios, esto es,
renunciar a la fuente del miedo y la esperanza, que en el pasado puso un
gran poder en manos de los sacerdotes. En su labor, deben apoyarse en
aquellas fuerzas que son capaces de cultivar el bien, la verdad y la belleza
en la misma humanidad. Esto es de seguro, una tarea más difícil pero
incomparablemente más meritoria y admirable."

En una carta fechada en marzo de 1954, que fue incluida en el libro Albert
Einstein: su lado humano (en inglés), editado por Helen Dukas y Banesh
Hoffman y publicada por Princeton University Press, Einstein dice:

"Por supuesto era una mentira lo que se ha leído acerca de mis


convicciones religiosas; una mentira que es repetida sistemáticamente. No
creo en un Dios personal y no lo he negado nunca sino que lo he
expresado claramente. Si hay algo en mí que pueda ser llamado religioso
es la ilimitada admiración por la estructura del mundo, hasta donde
nuestra ciencia puede revelarla. [...] No creo en la inmortalidad del
individuo, y considero que la ética es de interés exclusivamente humano,
sin ninguna autoridad sobrehumana sobre él."

Referencias
Biografía

Albert Einstein. (2004). "Colección Grandes Biografías, 59". Editorial


Planeta-De Agostini. Barcelona, España. ISBN 84-395-4730-7.
Amis, Martin. (2005). Los mounstruos de Einstein. Ediciones Minotauro.
Barcelona, España. ISBN 84-450-7089-4.
Clark, Ronald W., Einstein: The Life and Times, 1971, ISBN 0-380-44123-3.
Conferencia de Ciencia, Filosofía y Religión en su Relación con la Forma
de Vida Democrática, Science, Philosophy, and Religion, A Symposium
(Simposio de ciencia, filosofía y religión), Nueva York, 1941.

Dukas, Helen, y Banesh Hoffman, Albert Einstein: The Human Side


(Albert Einstein, el lado humano), Princeton University Press.
Hart, Michael H., The 100 (576 páginas), Carol Publishing Group, 1992,
ISBN 0806513500.
Pais, Abraham, Subtle is the Lord. The Science and the Life of Albert
Einstein, 1982, ISBN 0-19-520438-7.
Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo
XX", Cuadernos de Historia Contemporanéa nº 27 (2005), INSS 0214-400-
X.

Einstein y la teoría de la relatividad

Einstein, Albert, El significado de la relatividad, Espasa Calpe, 1971.


Greene, Brian, El universo elegante, Planeta, 2001.
Hawking, Stephen, Breve historia del tiempo, Planeta, 1992, ISBN
9684063563.
Russell, Bertrand, El ABC de la relatividad, 1925.

Material digital
Byron Preiss Multimedia. (2001). Einstein y su teoría de la relatividad.
"Colección Ciencia Activa". Anaya Multimedia-Anaya Interactiva. Madrid,
España. ISBN 84-415-0247-1. (dos CD y un manual)

Véase también

Wikiquote alberga
una colección de
frases célebres de o
sobre Albert Einstein

Wikimedia Commons
alberga contenido
multimedia sobre
Albert Einstein

Efecto fotoeléctrico
Física Teórica
Mecánica cuántica
Movimiento browniano
Teoría de la Relatividad
Teoría de la Relatividad Especial
Teoría General de la Relatividad

Enlaces externos
Trabajos de Albert Einstein en el Proyecto Gutenberg (en inglés)
Premio Nobel de Física: Premio Nobel de Física en 1921 Albert Einstein
(en inglés)
Revista TIME 100: Albert Einstein (en inglés)
¿Fue Einstein un extraterrestre?
Sobre la Teoría de la Relatividad (ebook)
Archivos Oficiales de Einstein Online (en inglés)
Manuscritos de Einstein (en inglés)
Archivos Albert Einstein (en inglés)
Instituto Max Planck: Living Einstein (en inglés)
Biografía de Einstein
Otra biografía de Einstein
Escrito socialista de Einstein
Teoría de la
Relatividad Especial
La Teoría de la Relatividad Especial, también llamada Teoría de la
Relatividad Restringida (en breve, relatividad especial o restringida, RE),
publicada por Albert Einstein en 1905, describe la física del movimiento en el
marco de sistemas de referencia inerciales. Estos conceptos fueron presentados
anteriormente por Poincaré y Lorentz, que son considerados también como
originadores de la teoría.

Hasta entonces, los físicos pensaban que la mecánica clásica de Newton, basada
en la llamada relatividad de Galileo (origen de las ecuaciones matemáticas
conocidas como transformaciones de Galileo), describía los conceptos de
velocidad y fuerza para todos los observadores (o sistemas de referencia). Sin
embargo, Hendrik Lorentz y otros habían comprobado que las ecuaciones de
Maxwell, que gobiernan el electromagnetismo, no se comportaban de acuerdo a
las leyes de Newton cuando el sistema de referencia cambia (por ejemplo,
cuando se considera el mismo problema físico desde el punto de vista de dos
observadores que se mueven uno respecto del otro). La noción de
transformación de las leyes de la física respecto a los observadores es la que da
nombre a la teoría, que se ajusta con el calificativo de especial o restringida por
ceñirse a casos de sistemas en los que no se tiene en cuenta campos
gravitatorios.

Una extensión de esta teoría, que incluye los sistemas en campos gravitatorios,
es la Teoría General de la Relatividad, publicada por Einstein en 1916. La
relatividad no se presentó nunca como una teoría completa, sino que fue
desarrollada en varios artículos. La división entre relatividad especial y general
fue posterior a los mismos. Al principio los sistemas acelerados o no inerciales se
consideraron como relatividad general, pero ahora se tiende a reservar este
término sólo para sistemas en campos gravitatorios.

Motivación de la teoría
Las leyes de Newton consideran que el tiempo y el espacio son los mismos para
los diferentes observadores de un mismo fenómeno físico. Antes de la
formulación de la teoría especial de la relatividad, Lorentz y otros ya habían
descubierto que el electromagnetismo difería de la física newtoniana en que las
observaciones de un fenómeno podrían diferir de una persona a otra que
estuviera moviéndose relativamente a la primera a velocidades próximas a la
velocidad de la luz. Así, uno puede observar la inexistencia de un campo
magnético mientras la otra observa dicho campo en el mismo espacio físico.

Lorentz sugirió una teoría del éter en la cual objetos y observadores viajarían a
través de un éter estacionario, sufriendo un acortamiento físico (hipótesis de
contracción de Lorentz) y un cambio en el paso del tiempo (dilatación del
tiempo). Lorentz estaba motivado por los resultados negativos del movimiento
relativo de la luz con respecto al éter proporcionados unos años antes por el
célebre experimento de Michelson-Morley. La explicación de Lorentz
suministraba una reconciliación parcial entre la física newtoniana y el
electromagnetismo, que se conjugaban aplicando la transformación de Lorentz,
que vendría a sustituír a la transformación de Galileo vigente en el sistema
newtoniano. La formulación del electromagnetismo frente a las transformaciones
de Lorentz fue también estudiada por el físico francés Henri Poincaré. Cuando las
velocidades involucradas son mucho menores que c (la velocidad de la luz), las
leyes resultantes son en la práctica las mismas que en la teoría de Newton, y las
transformaciones se reducen a las de Galileo. De cualquier forma, la teoría del
éter fue criticada incluso por el mismo Lorentz debido su naturaleza ad hoc.

Lorentz sugirió su transformación como una descripción matemática precisa de


los resultados de los experimentos. Sin embargo, Einstein derivó dichas
ecuaciones de dos hipótesis fundamentales: la constancia de la velocidad de la
luz, c, y la necesidad de que las leyes de la física sean iguales (invariantes en
diferentes sistemas inerciales, es decir, para diferentes observadores). De esta
idea surgió el título original de la teoría, "Teoría de los invariantes". Fue Max
Planck quien sugirió posteriormente el término "relatividad" para resaltar la
noción de transformación de las leyes de la física entre observadores moviéndose
relativamente entre sí.

La relatividad especial estudia el comportamiento de objetos y observadores que


permanecen en reposo o se mueven con movimiento uniforme (i.e., velocidad
relativa constante). En este caso, se dice que el observador está en un sistema de
referencia inercial. La comparación de espacios y tiempos entre observadores
inerciales puede ser realizada usando las transformaciones de Lorentz.

Características de la relatividad especial

Invariancia de la velocidad de la luz

PUNTO IMPORTANTE:

Para fundamentar la RE, Einstein postuló que la velocidad de la luz en el vacío


es la misma para todos los observadores inerciales. Asimismo, resaltó que toda
teoría física debe ser descrita por leyes que tengan forma matemática similar en
cualquier sistema de referencia inercial. El primer postulado está en concordancia
con las ecuaciones de Maxwell del electromagnetismo, y el segundo utiliza un
principio de razonamiento lógico similar al utilizado por Galileo para formular
sus relaciones de transformación entre sistemas de referencias.

Einstein mostró que de dichos principios se deducen las ecuaciones de Lorentz,


y, al aplicarlas bajo estos conceptos, la mecánica resultante tiene varias
propiedades interesantes:

Cuando las velocidades de los objetos considerados son mucho menores


que la velocidad de la luz, las leyes resultantes son las descritas por
Newton. Asimismo, el electromagnetismo no es ya un conjunto de leyes
que requiera una transformación diferente de la aplicada en mecánica.
El tiempo y el espacio dejan de ser invariantes al cambiar de sistema de
referencia, pasando a ser dependiente de las velocidades relativas de los
sistemas de referencia de los observadores: Dos eventos que ocurren
simultáneamente en diferentes lugares para un sistema de referencia,
pueden ocurrir en tiempos diferentes en otro sistema de referencia (la
simultaneidad es relativa). De igual manera, si ocurren en un mismo lugar
en un sistema, pueden ocurrir en lugares diferentes en otro.
Los intervalos temporales entre sucesos dependen del sistema de
referencia en que se miden (por ejemplo, la célebre paradoja de los
gemelos). Las distancias entres sucesos, también.

Las dos primeras propiedades resultaban muy atractivas, puesto que cualquier
teoría nueva debe explicar las observaciones ya existentes, y éstas indicaban que
las leyes de Newton eran muy precisas. La tercera conclusión fue inicialmente
muy discutida, puesto que tiraba por tierra muchos conceptos bien conocidos y
aparentemente obvios, como el concepto de simultaneidad.

Inexistencia de un sistema de referencia absoluto

Otra consecuencia es el rechazo de la noción de un único y absoluto sistema de


referencia. Previamente se creía que el universo viajaba a través de una sustancia
conocida como éter (identificable como el espacio absoluto) en relación a la cual
podían ser medidas velocidades. Sin embargo, los resultados de varios
experimentos, que culminaron en el famoso experimento de Michelson-Morley,
sugirieron que, o la Tierra estaba siempre estacionaria (lo que es un absurdo), o
la noción de un sistema de referencia absoluto era errónea y debía de ser
desechada. Einstein concluyó con la teoría especial de la relatividad que
cualquier movimiento es relativo, no existiendo ningún concepto universal de
"estacionario".

Equivalencia de masa y energía

Pero quizás mucho más importante fue la demostración de que la energía y la


masa, anteriormente consideradas propiedades medibles diferenciadas, eran
equivalentes, y se relacionaban a través de la que es sin duda la ecuación más
famosa de la teoría:

donde E es la energía, m es la masa y c es la velocidad de la luz en el vacío. Si


el cuerpo se está moviendo a la velocidad v relativa al observador, la energía
total del cuerpo es:

donde
El término ρ es frecuente en relatividad. Se deriva de las ecuaciones de
transformación de Lorentz. Cuando v es mucho menor que c se puede utilizar la
siguiente aproximación de ρ (obtenida por el desarrollo en serie de Taylor) :

por tanto,

lo que es precisamente igual a la energía en reposo, mc2, más la energía cinética


newtoniana, ½mv2. Este es un ejemplo de cómo las dos teorías coinciden cuando
las velocidades son pequeñas.

Además, a la velocidad de la luz la energía será infinita, lo que impide que las
partículas que tienen masa en reposo puedan alcanzar la velocidad de la luz.

La implicación más práctica de la teoría es que pone un límite superior a las


leyes (ver Ley de la naturaleza) de la Mecánica clásica y la gravedad propuestas
por Isaac Newton cuando las velocidades se acercan a las de la luz. Nada que
pueda transportar masa o información puede moverse más rápido que dicha
velocidad. Cuando la velocidad de un objeto se acerca a la velocidad de la luz
(en cualquier sistema) la cantidad de energía requerida para seguir aumentando
su velocidad aumenta rápida y asintóticamente hacia infinito, haciendo imposible
el alcanzar la velocidad de la luz. Sólo partículas sin masa, tales como los
fotones, pueden alcanzar dicha velocidad (y de hecho deben trasladarse en
cualquier sistema de referencia a esa velocidad) que es aproximadamente
300,000 km por segundo (3—108 ms-1).

El nombre taquión ha sido usado para nombrar partículas hipotéticas que se


podrían mover más rápido que la velocidad de la luz. Tales partículas tendrían
una masa imaginaria (descrita por un número complejo) y se moverían tanto más
rápido cuanto menor fuera su energía. En la actualidad, aún no ha sido hallada
evidencia experimental de su existencia.

La relatividad especial también muestra que el concepto de simultaneidad es


relativo al observador: Si la materia puede viajar a lo largo de una línea
(trayectoria) en el espacio-tiempo sin cambiar de velocidad, la teoría llama a esta
línea intervalo temporal, ya que un observador siguiendo dicha línea no podría
sentir movimiento (estaría en reposo), sino tan solo viajar en el tiempo de
acuerdo a sus sistema de referencia. Similarmente, un intervalo espacial significa
una línea recta en el espacio-tiempo a lo largo de la que ni la luz ni otra señal
más lenta podría viajar. Sucesos a lo largo de un intervalo espacial no pueden
influenciarse uno a otro transmitiendo luz o materia, y pueden aparecer como
simultáneos a un observador en un sistema de referencia adecuado. Para
observadores en diferentes sistemas de referencia, el suceso A puede parecer
anterior al B o viceversa. Esto no sucede cuando consideramos sucesos
separados por intervalos temporales.
La Relatividad Especial es universalmente aceptada por la comunidad física en la
actualidad, al contrario de la Relatividad General que está confirmada, pero con
experiencias que podrían no excluír alguna teoría alternativa de la gravitación.
Sin embargo, hay aún un conjunto de gente opuesta a la RE en varios campos,
habiéndose propuesto varias alternativas, como las llamadas Teorías del Éter.

Formulación matemática de la teoría


La RE usa tensores o cuadrivectores para definir un espacio no-euclídeo. Este
espacio, sin embargo, es similar al espacio euclídeo tridimensional en muchos
aspectos y es relativamente fácil trabajar en él. El diferencial de la distancia (ds)
en un espacio euclídeo se define como:

donde (dx1,dx2,dx3)' son diferenciales de las tres dimensiones espaciales. En la


geometría de la relatividad especial, una cuarta dimensión, el tiempo, ha sido
añadida, pero es tratada como una cantidad imaginaria con unidades de c,
quedando la ecuación para la distancia, en forma diferencial, como:

Si se reducen las dimensiones espaciales a 2, se puede hacer una representación


física en un espacio tridimensional,

Se puede ver que las geodésicas con medida cero forman un cono dual:

definido por la ecuación

La ecuación anterior es la de círculo con r=c*dt.

Si se extiende lo anterior a las tres dimensiones espaciales, las geodésicas nulas


son esferas concéntricas, con radio = distancia = c*(+ o -)tiempo.
Este doble cono de distancias nulas representa el "horizonte de visión" de un
punto en el espacio. Esto es, cuando se mira a las estrellas y se dice "La estrella
de la que estoy recibiendo luz tiene X años.", se está viendo a través de esa línea
de visión: una geodésica de distancia nula. Se está viendo viendo un suceso a

metros, y d/c segundos en el pasado. Por esta razón, el doble cono es también
conocido como cono de luz. (El punto inferior de la izquierda del diagrama
inferior representa la estrella, el origen representa el observador y la línea
representa la geodésica nula, el "horizonte de visión" o cono de luz.) Es
importante notar que sólo los puntos interiores al cono de luz del futuro de un
evento pueden ser afectados causalmente por ese evento.

Geométricamente, todos los "puntos" a lo largo del cono de luz dan información
(representan) el mismo punto en el espacio-tiempo (a causa de que la distancia
entre ellos es 0). Esto puede ser pensado como 'un punto de neutralización' de
fuerzas. ("La conexión se produce cuando dos movimientos, cada uno de los
cuales excluyente del otro, se juntan en un momento." (cita de James Morrison).
Es donde los sucesos en el espacio-tiempo intersectan, donde el espacio
interactúa consigo mismo. Es como un punto ve el resto del universo y es visto.
El cono en la región -t incluye la información que el punto recibe, mientras la
región +t del cono engloba la información que el punto envía. De esta forma, lo
que podemos visionar es un espacio de horizontes de visión:
y recaer en el concepto de autómata celular, aplicándolo en una secuencia
continua espacio-temporal. Esto también cuenta para puntos en movimiento
relativo uniforme de traslación respecto a sistemas inerciales:

Esto significa que la geometría del Universo permanece la misma sea cual sea la
velocidad (δx/δ t) (inercial) del observador. Así, recuperamos la primera ley de
movimiento de Newton: un objeto en movimiento tiende a permanecer en
movimiento; un objeto en reposo tiende a permanecer en reposo.

Indicios de la teoría de la relatividad general: conservación


de la energía cinética
En la relatividad especial, la geometría no permanece constante cuando hay
implicada una aceleración (δx2/δ t2), lo que conlleva la aplicación de una fuerza
(F=ma), y en consecuencia un cambio de energía. Estos factores indicaban la
necesidad de una teoría más amplia que permitiese estudiar las relaciones de
transformación entre sistemas de referencia no inerciales o sometidos a la acción
de fuerzas. Estos indicios llevaron finalmente a la formulación de la teoría de la
relatividad general, en la que la curvatura intrínseca del espacio-tiempo es
directamente proporcional a la densidad de energía en dicho punto.

Modificaciones de la relatividad especial


A comienzo del siglo XXI han sido postuladas un cierto número de versiones
modificadas de la RE.

Tests de postulados de la relatividad especial


Experimento Michelson-Morley – arrastre del éter.
Experimento Hamar – obstrucción del flujo del éter.
Experimento Trouton-Noble - torque en un condensador producido por el
arrastre del éter.
Experimento Kennedy-Thorndike – contracción del tiempo
Experimento sobre las formas de emisión.

Véase también

Wikimedia Commons
alberga contenido
multimedia sobre
Teoría de la
Relatividad Especial

Taquión
Relatividad general

Enlaces externos y referencias


Enlaces de interés:

http://www-gap.dcs.st-
and.ac.uk/~history/HistTopics/Special_relativity.html
http://www.ucm.es/info//hcontemp/leoc/hciencia.htm
http://www.hverdugo.cl/relatividad.htm
http://foro.migui.com/phpbb/viewtopic.php?t=1353

Referencias:

El ABC de la relatividad, Bertrand Russell, 1925.

Stephen Hawking
Stephen William Hawking (1942- ), físico teórico y cosmólogo británico.

Biografía
Stephen William Hawking nació el 8 de enero de 1942 (300 años después de
la muerte de Galileo) en Oxford, Inglaterra. La casa de sus padres estaba en el
norte de Londres, pero durante la Segunda Guerra Mundial se consideraba que
Oxford era uno de los lugares más seguros para tener niños. Cuando tenía ocho
años, su familia se mudó a St. Albans, un pueblo a unas 20 millas al norte de
Londres. A los once Stephen fue a la Escuela de St. Albans, y luego al Colegio
Mayor Universitario en Oxford, antiguo colegio de su padre. Stephen quería
hacer Matemáticas, pese a que su padre habría preferido Medicina. Como
Matemáticas no podía estudiarse en el Colegio Universitario, optó por Física.
Después de tres años y no mucho trabajo se le concedió el título de primera
clase con honores en Ciencias Naturales.

Tras obtener el Doctorado pasó a ser Investigador, y más tarde Profesor en los
Colegios Mayores de Gonville y Caius. Después de abandonar el Instituto de
Astronomía en 1973, Stephen entró en el Departamento de Matemáticas
Aplicadas y Física Teórica, y desde 1980 ocupa el puesto de Profesor Lucasiano
de Matemáticas. La Cátedra fue fundada en 1663 con fondos concedidos en el
testamento del Reverendo Henry Lucas, quien había sido Miembro del
Parlamento por la Universidad. Fue primero cubierta por Isaac Barrow, y luego
en 1669 por Isaac Newton.

En 1985 fue traqueostomizado y desde entonces utiliza un sintetizador de voz


para comunicarse. Gradualmente fue perdiendo el uso de sus brazos y piernas,
así como del resto de la musculatura voluntaria, incluyendo la fuerza del cuello
para mantener la cabeza erguida, con todo lo cual su movilidad es prácticamente
nula (Esclerosis lateral amiotrófica, el mismo caso de Jason Becker) . La silla de
ruedas que utiliza en público está controlada por un ordenador que Hawking
maneja mediante leves movimientos de cabeza y ojos, lo que también le permite
seleccionar palabras y frases en el sintetizador de voz.

Se caso por primera vez en julio de 1965 con Jane Wilde. Hawking se casó por
segunda vez con su enfermera - Elaine Mason - el 16 de septiembre de 1995.
Hawking continúa combinando la vida en familia (con su esposa, sus tres hijos y
un nieto) y su investigación en física teórica junto con un extenso programa de
viajes y conferencias.

Obra
Hawking ha trabajado en las leyes básicas que gobiernan el universo. Junto con
Roger Penrose mostró que la Teoría General de la Relatividad de Einstein implica
que el espacio y el tiempo han de tener un principio en el Big Bang y un final
dentro de agujeros negros. Semejantes resultados señalan la necesidad de
unificar la Relatividad General con la Teoría Cuántica, el otro gran desarrollo
científico de la primera mitad del siglo XX. Una consecuencia de tal unificación
que él descubrió era que los agujeros negros no eran totalmente negros, sino
que podían emitir radiación y eventualmente evaporarse y desaparecer. Otra
conjetura es que el universo no tiene bordes o límites en el tiempo imaginario.
Esto implicaría que el modo en que el universo empezó queda completamente
determinado por las leyes de la ciencia.

Sus numerosas publicaciones incluyen “La Estructura a Gran Escala del


Espaciotiempo” con G. F. R. Ellis, “Relatividad General: Revisión en el Centenario
de Einstein” con W. Israel, y “300 Años de Gravedad”, con W. Israel. Stephen
Hawking ha publicado tres libros de divulgación: su éxito de ventas “Breve
Historia del Tiempo”, “Agujeros Negros y Universos Bebés y Otros Ensayos” y
más recientemente en 2001, “El Universo en una Cáscara de Nuez”, y en 2005,
"Brevísima Historia del Tiempo", una versión revisada y ampliada de su primer
best-seller.

Currículum
El Profesor Hawking tiene doce doctorados honoríficos, ha ganado el CBE en
1982 y fue designado Compañero de Honor en 1989. Es el receptor de
numerosos premios (por ejemplo, el Premio Príncipe de Asturias de la Concordia
en 1989), galardones y medallas y es Miembro de Honor de la Royal Society y de
la U S National Academy of Sciencies.

Véase también
Colonización espacial
Física Teórica

Enlaces externos
Wikiquote alberga
una colección de
frases célebres de o
sobre Stephen
Hawking

Página oficial, en inglés

Electromagnetismo
El electromagnetismo, estudia los fenómenos eléctricos y magnéticos que se
unen en una sola teoría ideada por Faraday, que se resumen en cuatro
ecuaciones vectoriales que relacionan campos eléctricos y magnéticos conocidas
como las ecuaciones de Maxwell. Gracias a la invención de la pila de limón, se
pudieron efectuar los estudios de los efectos magnéticos que se originan por el
paso de corriente eléctrica a través de un conductor.

El Electromagnetismo, de esta manera es la parte de la Física que estudia los


campos eléctricos y campos magnéticos, sus interacciones con la materia y, en
general, la electricidad, el magnetismo y las partículas subatómicas que generan
flujo de carga eléctrica.

El electromagnetismo, por ende se comprende que estudia conjuntamente los


fenómenos físicos en los cuales intervienen cargas eléctricas en reposo y en
movimiento, así como los relativos a los campos magnéticos y a sus efectos
sobre diversas sustancias sólidas, líquidas y gaseosas.

Campos Eléctricos y Magnéticos


Es conveniente entender el electromagnetismo en dos conceptos separados: El
campo eléctrico y el campo magnético. Un campo eléctrico es producido por la
presencia de cargas eléctricas, las cuales crean una fuerza, relacionadas por la
ecuación: (Siendo q la carga eléctrica medida en culombios, y E el
campo eléctrico medido en Newtons/Coulombs). Esta fuerza eléctrica es la
responsable de la electricidad estática y dirige el flujo de carga eléctrica en un
area determinada (corriente eléctrica). También el campo magnético puede ser
producido por el movimiento de cargas eléctricas, o corriente eléctrica, las cuales
crean la fuerza magnética asociada con los imanes, como la magnetita.

El término electromagnetismo proviene del hecho de que no podemos estudiar


los campos eléctricos y magnéticos por separado. Un campo magnético variable
produce un campo eléctrico (como ocurre en el fenomemo de inducción
electromagnética, la cual es la base para el funcionamiento de generadores
eléctricos, motores de inducción eléctrica y transformadores). Similarmente, un
campo eléctrico variable genera un campo magnético.
Debido a esta dependencia mutua de los campos eléctricos y magnéticos, se
considera lógico considerarlos como uno solo: el campo electromagnético. Esta
unificación, la cual fue completada por James Clerk Maxwell, es uno de los
triunfos para los físicos del siglo XIX. Estos estudios trajeron consecuencias
sumamente importantes, siendo una de ellas la explicación de la naturaleza de la
luz.

Como se ha ido descubriendo, lo que percibimos como “luz visible” es realmente


una propagación oscilatoria en el campo electromagnético, es decir, una onda
electromagnética. Diferentes frecuencias de oscilación dan a lugar a las diferentes
formas de radiación electromagnética, desde las ondas de radio, de frecuencias
bajas, la luz visible, en frecuencias intermedias, hasta los rayos gamma con las
frecuencias bastante altas.

Las implicaciones teóricas del electromagnetismo llevaron a Albert Einstein a la


publicación de la Teoría de relatividad especial, en 1905.

Desarrollo histórico de la teoría electromagnética


Históricamente, el magnetismo y la electricidad habían sido tratados como
fenómenos distintos y eran estudiados como ciencias diferentes.
Sin embargo, los descubrimientos de Oersted y luego de Ampère, al observar
que la aguja de una brújula variaba su posición al pasar corriente a través de un
conductor situado próximo a ella. También los estudios de Faraday, en el mismo
campo, sugerían que la electricidad y el magnetismo eran manifestaciones de un
mismo fenómeno.

La idea anterior fue propuesta y materializada por el físico ingles James Clerk
Maxwell (1831-1879), quien luego de estudiar los fenómenos eléctricos y
magnéticos concluyó que son producto de una misma interacción, denominada
interacción electromagnética, lo que le llevó a formular, alrededor del año 1850,
las ecuaciones antes citadas, que llevan su nombre, en las que se describe el
comportamiento del campo electromagnético. Estas ecuaciones dicen
esencialmente que:

1. Existen portadores de cargas eléctricas, y las líneas del campo eléctrico


parten desde las cargas positivas y terminan en las cargas negativas.
2. No existen portadores de carga magnética; por lo tanto, el número de
líneas del campo magnético que salen desde un volumen dado, debe ser
igual al número de líneas que entran a dicho volumen.
3. Un imán en movimiento, o, dicho de otra forma, un campo magnético
variable, genera una corriente eléctrica llamada corriente inducida.
4. Cargas eléctricas en movimiento generan campos magnéticos.

Enlaces externos
Electromagnetismo: De la Ciencia a la Tecnología

Electromagnetismo
Electricidad — Magnetismo

Electrostática : Campo eléctrico — Carga eléctrica — Ley de Gauss — Ley


de Coulomb — Potencial eléctrico

Magnetostática : Amperio — Campo magnético — Corriente eléctrica —


Momento magnético

Electrodinámica : Campo electromagnético — Corriente de


desplazamiento — Ecuaciones de Maxwell — Fuerza electromotriz —
Fuerza de Lorentz — Inducción magnética — Ley de Lenz — Radiación
electromagnética

Circuito eléctrico : Condensador — Electrónica — Generador eléctrico —


Guía de onda — Impedancia — Inductancia — Resistencia eléctrica

Física Cuántica
La Física Cuántica es la parte de la física que estudia los procesos
microscópicos. La Física Cuántica comenzó con el desarrollo de una teoría
revolucionaria (aunque al principio no fue tomada en serio ni por su autor)
desarrollada por el gran físico y matemático Max Planck; esta teoría pretendía
explicar el espectro de radiaciones de un cuerpo negro y resolver así el
problema de la Catástrofe Ultravioleta (teoría clásica de la radiación), Max Planck
hizo dos hipótesis transcendentales:

La radiación en un cuerpo negro depende de la frecuencia de las ondas.


La energía está discretizada en unas cantidades mínimas a las que llamó
cuantos (quatum).

Mediante estos razonamientos llegó Planck a su famosa fórmula E=h—f Esta


fórmula es debida a Planck y no a Einstein que la utilizó más tarde para explicar
el efecto fotoeléctrico diciendo que cada fotón incidente tenía una energía E=h—f

El gran avance de la físca cuántica logró explicar muchos hechos inexplicables


mediante la teoría clásica; conocidos son la teoría ondulatoria de Schrödinger o
el Principio de Incertidumbre de Heisenberg.

Física de partículas
La Física de Partículas o Física de Altas Energías es la parte de la Física que
estudia los componentes elementales de la materia y las interacciones entre ellos.
Las partículas fundamentales se subdividen en bosones (partículas de espín
entero como por ejemplo 0, 1, 2...) y fermiones (partículas de espín semientero
como por ejemplo 1/2 ó 3/2). Las fuerzas fundamentales de la naturaleza son
transmitidas por bosones.

Se consideran 4 tipos de fuerzas o interacciones fundamentales:

Electromagnética: transmitida por fotones la sufren todas las partículas con


carga eléctrica.
Nuclear débil: transmitida por los bosones vectoriales W± y Z0 es la
responsable, por ejemplo, de la desintegración β.
Nuclear fuerte: transmitida por los gluones es la que hace que los quarks
se unan para formar mesones y bariones (nucleones). Solo la sufren los
hadrones.
Gravitación: transmitida por el gravitón (partícula no descubierta aún). Al
nivel de partículas fundamentales esta fuerza es de escasa importancia y
difícil de incluir en las teorías.

Algunas teorías fundamentales predicen la existencia de otros bosones más


pesados como el bosón de Higgs (a veces varios) que dotaría de masa a las
partículas fundamentales.

Los componentes básicos de la materia son fermiones, incluyendo los bien


conocidos protón, neutrón, y electrón. De éstos, solamente el electrón es
realmente elemental. Los otros dos son agregados de partículas más pequeñas
(quarks) unidos por la interacción fuerte. Los fermiones elementales existen en
cuatro variedades básicas, cada una de las cuales se clasifica en tres generaciones
con diversas masas:

• - Las partículas de la tabla solo tienen carga débil si son


levógiras o, para las antipartículas, si son dextrógiras.

Tipo Carga
Carga Carga
de Nombre Símbolo fuerte Masa
electromagnética débil*
fermión (color)

Leptón 0,511
Electrón e- -1 -1/2 0
MeV/c²

105,6
Muón µ- -1 -1/2 0
MeV/c²

1,784
Tauón τ- -1 -1/2 0
GeV/c²
Neutrino < 50
electrón νe 0 +1/2 0
eV/c²

Neutrino < 0,5


muón νµ 0 +1/2 0
MeV/c²

Neutrino < 70
tauón ντ 0 +1/2 0
MeV/c²

~5
up u +2/3 +1/2 R/G/B
MeV/c²

charm ~1.5
c +2/3 +1/2 R/G/B
(encanto) GeV/c²

>30
top t +2/3 +1/2 R/G/B
GeV/c²
Quark
~10
down d -1/3 -1/2 R/G/B
MeV/c²

strange ~100
s -1/3 -1/2 R/G/B
(extraño) MeV/c²

~4,7
bottom b -1/3 -1/2 R/G/B
GeV/c²

Las partículas se agrupan en generaciones. Existen tres generaciones. La primera


está compuesta por el electrón, su neutrino y los quarks up y down. La materia
ordinaria está compuesta por partículas de esta primera generación. Las
partículas de otras generaciones se desintegran en partículas de las generaciones
inferiores.

Los leptones existen libres. Sin embargo los quarks solo existen en grupos sin
color debido a que los gluones poseen carga de color. Estos grupos están
formados por dos (mesones) o tres (bariones) quarks. El protón y el neutrón son
algunos de los bariones existentes. El pion es uno de los mesones más
importantes.

Se puede encontrar información sobre las propiedades de las distintas partículas


elementales en inglés en el sitio web del Particle Data Group

Hiperespacio (geometría)
El hiperespacio es una forma de espacio que tiene cuatro o más dimensiones.

En teoría, si fuese posible controlar la energía de un agujero negro, su gran


fuerza gravitacional lograría curvar el espacio-tiempo de tal manera que 2
distancias muy lejanas se "juntarían" y así uno podria viajar más rápido que la
luz.

Interpretación de
Copenhague

Nombre que se le da a una interpretaciones de la mecánica cuántica atribuida


principalmente a Max Born, Werner Heisemberg, Niels Bohr y otros, se conoce
así debido al nombre de la ciudad en la que residía Bohr.

Fue formulada por el físico danés Niels Bohr, con ayuda de Max Born y Werner
Heisenberg entre otros en 1927 en una conferencia en Como, Italia. Se conoce
así debido al nombre de la ciudad en la que residía Bohr.

La interpretación de Copenhague incorpora el principio de incertidumbre de


Heisenberg, el cual establece que no se puede conocer con absoluta precisión la
posición y el momento de una partícula simultáneamente. La interpretación de
Copenhague señala el hecho de que el principio de incertidumbre no opera en
el mismo sentido hacia atrás y hacia delante en el tiempo. Muy pocos hechos en
física tienen en cuenta la forma en que fluye el tiempo, y este es uno de los
problemas fundamentales del universo que habitamos donde ciertamente hay
una distinción entre el pasado y futuro. Las relaciones de incertidumbre indican
que no es posible conocer la posición y el momento simultáneamente y
consiguientemente no es posible predecir el futuro ya que en palabras de
Heisenberg “no podemos conocer, por principio, el presente en todos sus
detalles”. Pero es posible de acuerdo con las leyes de la mecánica cuántica
conocer cual era la posición y el momento de una partícula en un momento del
pasado. El futuro es esencialmente impredecible e incierto mientras que el
pasado completamente definido. Por lo tanto nos movemos de un pasado
definido a un futuro incierto.

Bohr formuló en la interpretación de Copenhague lo que se conoce como el


principio de complementariedad que establece que ambas descripciones, la
ondulatoria y la corpuscular, son necesarias para comprender el mundo cuántico.
Bohr también señaló en esa conferencia que mientras en la física clásica un
sistema de partículas en dirección funciona como un aparato de relojería,
independientemente de que sean observadas o no, en física cuántica el
observador interactúa con el sistema en tal medida que el sistema no puede
considerarse con una existencia independiente.
Escogiendo medir con precisión la posición se fuerza a una partícula a presentar
mayor incertidumbre en su momento, y viceversa; escogiendo un experimento
para medir propiedades ondulatorias se eliminan peculiaridades corpusculares, y
ningún experimento puede mostrar ambos aspectos, el ondulatorio y el
corpuscular, simultáneamente (J.Gribbin)

Además según la interpretación de Copenhague toda la información la


constituyen los resultados de los experimentos. Se puede observar un átomo y
ver un electrón en el estado de energía A, después volver a observar y ver un
electrón en el estado de energía B. Se supone que el electrón saltó de A a B,
quizás a causa de la observación. De hecho, no se puede asegurar siquiera de
que se trate del mismo electrón y no se puede hacer ninguna hipótesis de lo que
ocurría cuando no se observaba. Lo que se puede deducir de los experimentos,
o de las ecuaciones de la mecánica cuántica, es la probabilidad de que si al
observar el sistema se obtiene el resultado A, otra observación posterior
proporcione el resultado B. Nada se puede afirmar de lo que pasa cuando no se
observa ni de cómo pasa el sistema del estado A al B.

Einstein y muchos otros físicos se negaron a aceptar esta interpretación de la


mecánica cuántica, presentando varias criticas. Las principales de ella son: la
paradoja E.P.R. presentada por Albert Einstein, Boris Podolsky y Nathan Rosen
en 1935 y la paradoja del gato de Schrödinger formulada por Edwin Schrödinger
también en 1935.

Interpretaciones de
la Mecánica cuántica
El gran problema lo constituye el proceso de medición. En la física clásica, medir
significa revelar o poner de manifiesto propiedades que estaban en el sistema
desde antes de que midamos. En mecánica cuántica el proceso de medición
altera de forma incontrolada la evolución del sistema. Constituye un error pensar
dentro del marco de la física cuántica que medir es revelar propiedades que
estaban en el sistema con anterioridad. La información que nos proporciona la
función de onda es la distribución de probabilidades, con la cual se podrá medir
tal valor de tal cantidad. Cuando medimos ponemos en marcha un proceso al
cual no es ajeno el azar, ya que habrá distintas probabilidades de medir distintos
resultados. Esta idea fue y es aún objeto de controversias y disputas entre los
físicos, filósofos y epistemólogos. Uno de los grandes objetores de esta
interpretación fue Albert Einstein, quien a propósito de esta idea dijo su famosa
frase Dios no juega a los dados.

Independientemente de los problemas de interpretación, la mecánica cuántica ha


podido explicar esencialmente todo el mundo microscópico y ha hecho
predicciones que han sido probadas experimentalmente de forma exitosa, por lo
que es una teoría unánimemente aceptada.
El problema de la medida
El problema de la medida se puede describir informalmente del siguiente
modo:

1. De acuerdo con la mecánica cuántica cuando un sistema físico, ya sea un


conjunto de electrones orbitando en un átomo, o un conjunto de políticos
decidiendo la siguiente guerra planetaria, queda descrito por una función
de onda. Dicha función de onda es un objeto matemático que
supuestamente describe la máxima información posible que contiene un
estado puro.
2. Si nadie externo al sistema ni dentro de él observara o tratara de ver
como está el sistema, la mecánica cuántica nos diría que el estado del
sistema evoluciona deterministamente. Es decir, que podría ser
perfectamente predecible hacia donde irá el sistema.
3. La función de onda, nos informa de cuales son los resultados posibles
de una medida y sus probabilidades relativas, pero no nos dice qué
resultado concreto se obtendrá si cuando un observador trate
efectivamente de medir el sistema o averiguar algo sobre él. De hecho la
medida sobre un sistema es un valor aleatorio de entre los resultados
posibles.

Eso plantea un problema serio, si las personas, los científicos u observadores son
también objetos físicos como cualquier otro, debería haber alguna forma
determinista de predecir como tras juntar el sistema en estudio con el aparato de
medida, finalmente llegamos a un resultado determinista. Pero el postulado de
que una medición destruye la "coherencia" de un estado inobservado e
inevitablemente tras la medida se queda en un estado mezcla aleatorio parece
solo nos deja tres salidas:

(A) O bien renunciamos a entender el proceso de decoherencia por


lo cual un sistema pasa de tener un estado puro que evoluciona
deterministamente a tener un estado mezcla o "incoherente"
(B) O bien admitimos que existen unos objetos no-físicos
llamados "conciencia" que no están sujetos a las leyes de la
mecánica cuántica y que nos resuelven el problema.
(C) O tratamos de inventar cualquier hipótesis exótica que nos
haga compatibilizar como por un lado deberíamos estar
observando tras una medida un estado no fijado por el estado
inicial y por otro lado que el estado del universo en su conjunto
evoluciona de forma determinista.

Ver también

Interpretación de Copenhague
Interpretación de Everett
Número cuántico
Wolfgang Pauli fue uno de los componentes más importantes del grupo de
científicos que crearon la teoría cuántica, juega un papel crucial en el desarrollo
de esta teoría. Cada una de las capas del modelo atómico de Bohr correspondía
a un conjunto de números cuánticos y formuló lo que hoy se conoce como el
principio de exclusión de Pauli, según el cual dos electrones no pueden tener
nunca el mismo conjunto de números cuánticos, proporcionando así una razón
para justificar la forma de llenarse las capas de átomos cada vez más pesados.

Desde un punto de vista mecano-cuántico, los números cuánticos son soluciones


de la Ecuación de Schrödinger.

Los números cuánticos se emplean para describir matemáticamente un modelo


tridimensional del átomo. El número cuántico principal, n, define el estado de
energía principal, o capa, de un electrón en órbita. El número cuántico orbital, l,
describe la magnitud del momento angular del electrón en órbita. El número
cuántico m describe la orientación magnética en el espacio del plano de la órbita
del electrón. El llamado espín se designa con el número cuántico de espín
magnético, ms, que puede adoptar el valor de – 1 o + 1 según la dirección del
espín. Para cada número cuántico, salvo ms, sólo están permitidos determinados
valores enteros. Las consecuencias de esta regla están sustancialmente de
acuerdo con la ley periódica.

Por ejemplo, cuando el número cuántico principal (n) es 1, la teoría cuántica


sólo permite que el número orbital (l) y el número cuántico magnético (m)
tengan un valor de 0, y que el número cuántico de espín (ms) sea + 1 o – 1. El
resultado es que sólo hay dos combinaciones posibles de números cuánticos: 1 –
0 – 0 – (+1) y 1 – 0 – 0 – (– 1). Según el principio de exclusión, cada una de
estas dos combinaciones de números cuánticos puede ser adoptada por un único
electrón. Por tanto, cuando el número cuántico principal es n = l, sólo dos
electrones pueden ocupar esa capa electrónica.

Cuando n = 2, la teoría cuántica permite que l sea 0 o 1, m sea +1, 0, o –1, y ms


sea + 1 o – 1. Existen ocho combinaciones posibles de estos números cuánticos.
Por tanto, en la segunda capa electrónica puede haber un máximo de ocho
electrones. Con este método puede establecerse el número máximo de
electrones permitidos en cada capa electrónica de cualquier átomo. La ley
periódica se explica por el diferente grado de llenado de las capas electrónicas
de los átomos.

Química
computacional
La química computacional es una rama de la química teórica y de la química
cuántica. El objetivo de la química computacional es producir y utilizar
programas informáticos para el estudio de las propiedades (como energía,
momento dipolar, frecuencias de vibración) de moléculas y, en menor medida,
sólidos extendidos. También se usa para cubrir áreas de solapamiento entre la
informática y la química.

En química teórica, los químicos y los físicos desarrollan algoritmos y teorías que
permiten predicciones precisas de propiedades atómicas o moleculares, o
caminos para las reacciones químicas. Los químicos computacionales usan los
programas y metodologías existentes y los aplican a problemas químicos
específicos.

Hay dos aproximaciones diferentes a esto:

1. estudios computacionales para encontrar un punto de partida para la


síntesis en laboratorio;
2. estudios computacionales para explorar mecanismos de reacción y
explicar observaciones en reacciones ya vistas en el laboratorio.

Hay varias areas en este campo:

la representación computacional de átomos y moléculas


almacenamiento, organización y búsqueda de datos sobre entidades
químicas (Bases de datos)
identificación de patrones, tendencias y correlaciones entre estructuras
químicas y sus propiedades ( QSPR )
elucidación de estructuras basadas en la simulación de campos de fuerzas
modelos para ayudar a la síntesis eficiente de compuestos
diseño de moléculas que interaccionen con otras de forma efectiva,
especialmente en diseño de fármacos

Los programas usados en química computacional se basan en diferentes métodos


mecanocuánticos que resuelven la ecuación de Schrödinger molecular. Los
métodos que no incluyen parámetros empíricos ni semi-empíricos en sus
ecuaciones se llaman métodos ab initio. Las clases más populares de métodos ab
initio son: Hartree-Fock, teoría de perturbaciones de Moller-Plesset, interacción
de configuraciones, coupled cluster, matrices de densidad reducidas y teoría del
funcional de la densidad (existen ciertas diferencias de opinión sobre si la teoría
del funcional de la densidad ha de considerarse puramente ab initio o
semiempírico). Cada clase contiene diversos métodos que usan diferentes
variantes de la teoría, típicamente orientados a una propiedad molecular
concreta, o a un conjunto especial de moléculas. La abundancia de estos
métodos es una prueba de que no hay un método único que sea adecuado para
todos los propósitos.

En principio, sería posible usar un método "exacto" (por ejemplo, interacción


completa de configuraciones con una base lo suficientemente grande) y aplicarlo
a todas las moléculas. Sin embargo, aunque estos métodos son bien conocidos y
están disponibles en muchos programas, el coste computacional crece
factorialmente (más rápido que exponencialmente) con el número de electrones
de la molécula. Por este motivo, hay un gran número de métodos aproximados
que buscan el mejor compromiso en cada caso entre exactitud y coste
computacional. Actualmente, la química computacional puede calcular con gran
precisión y sin grandes costes las propiedades de moléculas de hasta una decena
de electrones. El tratamiento de moléculas que contienen unas pocas docenas de
electrones prácticamente sólo es abordable por métodos más aproximados, como
la teoría del funcional de la densidad. Los sistemas mayores, como moléculas con
varios metales pesados, superficies, sistemas tridimensionales o enzimas, sólo se
pueden tratar de forma heterogénea, focalizando el interés en una zona del
espacio o en algunos de los electrones, y dejando que el resto se reproduzca por
pseudopotenciales, cargas eléctricas puntuales, o campos de fuerzas clásicos: los
llamados métodos híbridos QM/MM (siglas de las palabras inglesas Quantum
Mechanics / Molecular Mechanics, Mecánica Cuántica / Mecánica Molecular en
castellano).

Hay cierta polémica en el campo sobre si los métodos más aproximados son
suficientemente precisos como para describir adecuadamente reacciones
químicas complejas, como las que se dan en bioquímica.

Hay un gran número de paquetes informáticos disponibles que son


autosuficientes y que implementan muchos métodos mecanocuánticos. Entre los
más usados se encuentran deMon2k, GAUSSIAN, GAMESS, Q-Chem, ACES,
MOLPRO, DALTON, Spartan, PSI, JAGUAR, MOLCAS, MOPAC, NWChem y
PLATO.

Química cuántica
La química cuántica es la aplicación de la mecánica cuántica a problemas de
química.

Una aplicación de la química cuántica es el estudio del comportamiento de


átomos y moléculas, en cuanto a sus propiedades ópticas, eléctricas, magnéticas
y mecánicas, y también su reactividad química, sus propiedades red-ox, redox...
pero también se estudian materiales, tanto sólidos extendidos como superficies.

Como los estudios mecanocuánticos sobre átomos se consideran en la frontera


entre la química y la física, y no se incluyen por lo general dentro de la química
cuántica, frecuentemente se considera como primer cálculo de química cuántica
el llevado a cabo por los científicos alemanes Walter Heitler y Fritz London
(aunque a Heitler y a London se les suele considerar físicos) sobre la molécula
de dihidrógeno (H2) en 1927. El método de Heitler y London fue perfeccionado
por los químicos americanos John C. Slater y Linus Pauling, para convertirse en
el método de enlace de valencia (o Heitler-London-Slater-Pauling (HLSP)). En
este método, se presta atención particularmente a las interacciones entre pares
de átomos, y por tanto se relaciona mucho con los esquemas clásicos de enlaces
entre átomos.
Friedrich Hund y Robert S. Mulliken desarrollaron un método alternativo, en que
los electrones se describían por funciones matemáticas deslocalizadas por toda la
molécula. El método de Hund-Mulliken (o de orbitales moleculares) es menos
intuitivo para los químicos, pero, al haberse comprobado que es más potente a
la hora de predecir propiedades que el método de enlace de valencia, es
virtualmente el único usado en los últimos años.

Apartados de interés
Algunos subtemas de interés en química cuántica son:

la aproximación de Born-Oppenheimer
el método del campo autoconsistente
la aproximación de Hartree-Fock
la Teoría del Funcional de la Densidad

Químicos Cuánticos
La comunidad de científicos que han hecho grandes aportaciones a la química
cuántica incluye a:

Linus Carl Pauling


John C. Slater
Friedrich Hund
Erich Hückel

Véase también
Química computacional

Superposición
cuántica
Superposición cuántica es la aplicación del principio de superposición a la
mecánica cuántica. Ocurre cuando un objeto "posee simultáneamente" dos o más
valores de una cantidad observable (e.g. la posición o la energía de una
partícula).

Más específicamente, en mecánica cuántica, cualquier cantidad observable


corresponde a un autovector de un operador lineal hermitiano. La combinación
lineal de dos o más autovectores da lugar a la superposición cuántica de dos o
más valores de la cantidad. Si se mide la cantidad, el postulado de proyección
establece que el estado será colapsado aleatoriamente sobre uno de los valores
de la superposición (con una probabilidad proporcional a la amplitud de ese
autovector en la combinación lineal).
La pregunta en cuanto a porqué los objetos (macroscópicos, newtonianos) y los
acontecimientos "reales" no parecen exhibir propiedades mecánico cuánticas
tales como la superposición se presentó naturalmente. En 1935, Erwin
Schrödinger ideó un experimento de pensamiento bien conocido, ahora llamado
el gato de Schrödinger, que destacó la disonancia entre la mecánica cuántica y la
física newtoniana.

De hecho, la superposición cuántica da lugar a muchos efectos directamente


observables, tales como los picos de interferencia de una onda de electrón en el
experimento de doble-rendija.

Si dos observables corresponden a los operadores que no conmutan, obedecen a


un principio de incertidumbre y un estado definido de un observable
corresponde a una superposición de muchos estados para el otro observable.

Taquión
Un taquión es una partícula hipotética que se mueve a velocidades
superlumínicas. A los taquiones se les atribuyen muchas propiedades extrañas,
sobre todo por parte de los autores de ciencia ficción.

En el lenguaje de la teoría de la relatividad especial de Einstein, un taquión (si


existe) sería una partícula con un cuadrimomento de tipo especial. Si su energía
y momento son reales, su masa en reposo es imaginaria. Por lo que la norma de
Minkowski de su cuadrimomento sería negativa, ya que:

P aP a = m 2 c 2

Es dudoso que una masa imaginaria tenga algún significado físico. El tiempo
propio que experimenta un taquión es también imaginario. Un curioso efecto es
que a diferencia de partículas imaginarias, la velocidad de un taquión crece
cuando su energía decrece. Esto es una consecuencia de la relatividad especial
debido a que, en teoría, un taquión tiene masa cuadrada negativa. De acuerdo
con Einstein, la energía total de una partícula es la suma de la masa en reposo
multiplicada por la velocidad de la luz al cuadrado y la energía cinética del
cuerpo. Si m denota la masa en reposo, entonces la energía total es dada por la
relación

Para materia ordinaria, esta ecuación demuestra que E aumenta con la velocidad,
convirtiéndose infinita a la medida que v (velocidad) se aproxima a c, la
velocidad de la luz. Si m es imaginaria, por otra parte, el denominador de la
fracción necesita ser imaginario para mantener a la energía como un número
real. El denominador sería imaginario si el número en la raíz cuadrada es
negativo, lo cuál solo pasa si v es mayor que c.
Un taquión está limitado a la porción de tipo espacial del gráfico de energía-
momento. Por tanto, nunca puede ir a velocidades inferiores a la de la luz.
Curiosamente, mientras su energía disminuye, su velocidad aumenta.

Si existieran los taquiones y pudieran interactuar con la materia ordinaria, podría


violarse el principio de causalidad.

En la teoría de la relatividad general, es posible construir espacio-tiempos en los


cuales las partículas se propaguen más rápidamente que la velocidad de la luz,
relativo a un observador distante. Un ejemplo es la métrica de Alcubierre. Sin
embargo, estos no serían taquiones en el sentido anterior, puesto que no
superarían la velocidad de la luz localmente.

Mecánica cuántica

Fig. 1: La función de onda de un electrón de un átomo de hidrógeno posee


niveles de energía definidos y discretos denotados por un número cuántico
n=1,2,3,... y valores definidos de momento angular caracterizados por la
notación: s, p, d,... Las areas brillantes en la figura corresponden a densidades de
probabilidad elevadas de encontrar el electrón en dicha posición.

La mecánica cuántica, conocida también como mecánica ondulatoria y como


física cuántica, es la rama de la física que estudia el movimiento de las
partículas muy pequeñas, el comportamiento de la materia a escala muy
pequeña.

El concepto de partícula "muy pequeña" atiende al tamaño en el cual comienzan


a notarse efectos como la imposibilidad de conocer con exactitud arbitraria y
simultáneamente la posición y el momento de una partícula (véase Principio de
indeterminación de Heisenberg), entre otros. A tales efectos suele
denominárseles "efectos cuánticos". Así, la Mecánica cuántica es la que rige el
movimiento de sistemas en los cuales los efectos cuánticos sean relevantes. Se ha
documentado que tales efectos son importantes en materiales mesoscópicos
(unos 1000 átomos).

Las suposiciones más importantes de esta teoría son las siguientes:

La energía no se intercambia de forma continua, sino que en todo


intercambio energético hay una cantidad mínima involucrada, es decir un
cuanto (cuantización de la energía).
Al ser imposible fijar a la vez la posición y el momento de una partícula,
se renuncia al concepto de trayectoria, vital en Mecánica clásica. En vez
de eso, el movimiento de una partícula queda regido por una función
matemática que asigna, a cada punto del espacio y a cada instante, la
probabilidad de que la partícula descrita se halle en tal posición en ese
instante (al menos, en la interpretación de la Mecánica cuántica más usual,
la probabilística o "de Copenhague"). A partir de esa función, o función
de ondas, se extraen teóricamente todas las magnitudes del movimiento
necesarias.

Aunque la estructura formal de la teoría está bien desarrollada, y sus resultados


son coherentes con los experimentos, no sucede lo mismo con su interpretación,
que sigue siendo objeto de controversias.

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera


mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta
se puso de relieve por hechos experimentales como los siguientes, inexplicables
con las herramientas teóricas "anteriores" de la mecánica clásica o la
electrodinámica:

Espectro de la radiación del Cuerpo negro, resuelto por Max Planck con la
cuantización de la energía. La energía total del cuerpo negro resultó que
tomaba valores discretos más que continuos. Este fenómeno se llamó
cuantización, y los intervalos posibles más pequeños entre los valores
discretos son llamados quanta (singular: quantum, de la palabra latina
para "cantidad", de ahí el nombre de mecánica cuántica.") El tamaño de
los cuantos varía de un sistema a otro.
Bajo ciertas condiciones experimentales, los objetos microscópicos como
los átomos o los electrones exhiben un comportamiento ondulatorio,
como en la interferencia. Bajo otras condiciones, las mismas especies de
objetos exhiben un comportamiento corpuscular, de partícula, ("partícula"
quiere decir un objeto que puede ser localizado en una región especial
del Espacio), como en la dispersión de partículas. Este fenómeno se
conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias relacionadas pueden ser
correlacionadas en una amplitud prohibida por cualquier teoría clásica, en
una amplitud tal que sólo pueden ser descritos con precisión si nos
referimos a ambos a la vez. Este fenómeno es llamado entrelazamiento
cuántico y la desigualdad de Bell describe su diferencia con la correlación
ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron
de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que
volvió a aparecer esa "misteriosa" necesidad de cuantizar la energía.
Efecto Compton.

El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de muchos y


muy buenos físicos y matemáticos de la época como Erwin Schrödinger, Werner
Heisenberg, Albert Einstein, P.A.M. Dirac, Niels Bohr y Von Neumann entre otros
(la lista es larga). Algunos de los aspectos fundamentales de la teoría están
siendo aún estudiados activamente. La Mecánica cuántica ha sido también
adoptada como la teoría subyacente a muchos campos de la física y la química,
incluyendo en Materia condensada, Química cuántica y Física de partículas.

La región de origen de la Mecánica cuántica puede localizarse en la Europa


central, en Alemania y Austria, y en el contexto histórico del primer tercio del
siglo XX.

Descripción de la teoría
La mecánica cuántica describe el estado instantáneo de un sistema (estado
cuántico) con una función de ondas que codifica la distribución de probabilidad
de todas las propiedades medibles, u observables. Algunos observables posibles
sobre un sistema dado son la energía, posición, momento, y momento angular.
La mecánica cuántica no asigna valores definidos a los observables, sino que
hace predicciones sobre sus distribuciones de probabilidad. Las propiedades
ondulatorias de la materia son explicadas por la interferencia de las funciones de
onda.

Estas funciones de onda pueden transformarse con el transcurso del tiempo. Por
ejemplo, una partícula moviéndose en el espacio vacío puede ser descrita
mediante una función de onda que es un paquete de ondas centrado alrededor
de alguna posición media. Según pasa el tiempo, el centro del paquete puede
trasladarse, cambiar, de modo que la partícula parece estar localizada más
precisamente en otro lugar. La evolución temporal de las funciones de onda es
descrita por la Ecuación de Schrödinger.

Algunas funciones de onda describen distribuciones de probabilidad que son


constantes en el tiempo. Muchos sistemas que eran tratados dinámicamente en
mecánica clásica son descritos mediante tales funciones de onda estáticas. Por
ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una
partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por
una nube de probabilidad estática, esférico simétrica, que rodea al núcleo.

Cuando realizamos una medición en un observable del sistema, la función de


ondas se convierte en una del conjunto de las funciones llamadas funciones
propias, estados propios, eigen-estados...etc del observable en cuestión. Este
proceso es conocido como reducción de la función de onda. Las probabilidades
relativas de ese colapso sobre alguno de los estados propios posibles es descrita
por la función de onda instantánea justo antes de la reducción. Considera el
ejemplo anterior sobre la partícula en el vacío. Si medimos la posición de la
misma, obtendremos un valor aleatorio x. En general, es imposible para nosotros
predecir con precisión qué valor de x obtendremos, aunque es probable que
obtengamos un cercano al centro del paquete de ondas, donde la amplitud de la
función de onda es grande. Después de que hemos hecho la medida, la función
de onda de la partícula colapsa y se reduce a una que esté muy concentrada en
torno a la posición observada x.

La ecuación de Schrödinger es determinista en el sentido de que, dada una


función de onda a un tiempo inicial dado, la ecuación suministra una predicción
concreta de qué función tendremos en cualquier tiempo posterior. Durante una
medida, el eigen-estado al cual colapsa la función es probabilista, no
determinista. Así que la naturaleza probabilista de la mecánica cuántica nace del
acto de la medida.

Formulación matemática
En la formulación rigurosa matemática desarrollada por P.A.M. Dirac y John von
Neumann, los estados posibles de un sistema cuántico están representados por
vectores unitarios llamados (estados) que pertenecen a un Espacio de Hilbert
complejo separable (llamado el espacio de estados.) La naturaleza exacta de este
espacio depende del sistema; por ejemplo, el espacio de estados para los estados
de posición y momento es el espacio de funciones de cuadrado integrable. La
evolución temporal de un estado cuántico queda descrito por la Ecuación de
Schrödinger, en la que el Hamiltoniano, el operador correspondiente a la energía
total del sistema, tiene un papel central.

Cada observable queda representado por un operador lineal Hermítico


densamente definido actuando sobre el espacio de estados. Cada estado propio
de un observable corresponde a un eigenvector del operador, y el valor propio,
o eigenvalor asociado corresponde al valor del observable en aquel estado
propio. Es el espectro del operador es discreto, el observable sólo puede dar un
valor entre los eigenvalores discretos. Durante una medida, la probabilidad de
que un sistema colapse a uno de los eigenestados viene dada por el cuadrado
del valor absoluto del producto interior entre el eigen-estado (que podemos
conocer teóricamente antes de medir) y el vector estado del sistema antes de la
medida. Podemos así encontrar la distribución de probabilidad de un observable
en un estado dado computando la descomposición espectral del operador
correspondiente. El principio de incertidumbre de Heisenberg se representa por
la aseveración de que los operadores correspondientes a ciertos observables no
conmutan.

Los detalles sobre la formulación matemática se encuentran en el artículo


Formulación matemática de la mecánica cuántica.

Véase también
Química cuántica
Computación cuántica
Teoría de la relatividad
Citas célebres de la mecánica cuántica

Referencias
Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo
XX", Cuadernos de Historia Contemporánea, nº 27, 2005, INSS 0214-400-X
Teoría cuántica de
campos
La teoría cuántica de campos (QFT por Quantum Field Theory) es una teoría
que aplica las reglas cuánticas a los campos continuos de la Física, como por
ejemplo el campo electromagnético, así como a las interacciones entre estos y el
resto de la materia. Proporciona así un marco teórico usado extensamente en
física de partículas y física de la materia condensada. En particular, la teoría
cuántica del campo electromagnético, conocida como electrodinámica cuántica,
fue el primer ejemplo de teoría cuántica de campos que se estudió y es la teoría
probada experimentalmente con mayor precisión de la física. Los fundamentos
de la teoría de campos cuántica fueron desarrollados entre el fin de los años 20 y
los años 50, notablemente por Dirac, Fock, Pauli, Tomonaga, Schwinger,
Feynman, y Dyson.

los defectos de la mecánica cuántica


La teoría de campos cuántica corrige varias deficiencias de la mecánica ordinaria
cuántica, la que discutiremos brevemente.

La ecuación de Schrödinger, en la forma en que comúnmente se la encuentra, es:

donde ρ es la función de onda de una partícula, m su masa, y V su energía


potencial.

Hay dos problemas con esta ecuación. En primer lugar, no es relativista,


reduciéndose a la mecánica clásica más bien que a la mecánica relativista en el
límite de la correspondencia.

Para ver esto, observemos que el primer término de la izquierda es solamente la


energía cinética clásica p²/2m, con la energía en reposo mc² omitida. Es posible
modificar la ecuación de Schrödinger para incluir la energía en reposo, dando
por resultado la ecuación de Klein-Gordon o la ecuación de Dirac. Sin embargo,
estas ecuaciones tienen muchas propiedades insatisfactorias; por ejemplo,
poseen espectros de energía que se extienden a -∞, de modo que no hay ningún
estado de base. Tales inconsistencias ocurren porque estas ecuaciones descuidan
la posibilidad de crear o de destruir partículas dinámicamente, que es un aspecto
crucial de la relatividad. La relación masa-energía famosa de Einstein predice que
las partículas suficientemente masivas pueden decaer en varias partículas más
ligeras, y las partículas suficientemente energéticas pueden combinarse para
formar partículas masivas. Por ejemplo, un electrón y un positrón pueden
aniquilarse para crear fotones. Tales procesos deben considerarse dentro de una
teoría cuántica verdaderamente relativista.

El segundo problema ocurre cuando intentamos ampliar la ecuación a una gran


cantidad de partículas. Se descubrió que las partículas mecánico-cuánticas de la
misma especie son indistinguibles, en el sentido que la función de onda del
conjunto entero debe ser simétrico (bosones) o antisimétrico (fermiones) cuando
los coordenadas de sus partículas constitutivas se intercambian. Esto hace a la
función de onda de los conjuntos de muchas partículas, en extremo complicada.
Por ejemplo, la función de onda general de un conjunto de N bosones se
escribe:

donde ri son las coordenadas de la partícula -í-ésima, φi es la función de ondas


de cada partícula, y la suma se toma sobre todas las posibles permutaciones de
N elementos. En general, ésta es una suma de N! (N factorial) términos distintos,
que llega a ser rápidamente inmanejable con el incremento de N.

Campos cuánticos
Ambos problemas antedichos se resuelven moviendo nuestra atención desde un
conjunto de partículas indestructibles a un campo cuántico. El procedimiento por
el cual los campos cuánticos son construidos a partir de partículas individuales
fue introducido por Dirac, y (por razones históricas) se conoce como segunda
cuantización.

Debemos mencionar dos puntos posibles de confusión. En primer lugar, las


descripciones ya mencionadas del "campo" y de la "partícula" no se refieren a la
dualidad onda-partícula. Por "partícula", referimos a las entidades que poseen
propiedades de onda y de partícula puntual en el sentido mecánico-cuántico
usual, por ejemplo, estas "partículas" no se localizan en un punto dado, sino que
tienen cierta (amplitud de) probabilidad de ser encontradas en cada posición en
el espacio. A lo que nos referimos con "campo" es a una entidad que existe en
cada punto en el espacio, y que regula la creación y la aniquilación de las
partículas. En segundo lugar, la teoría del campo cuántica es esencialmente
mecánica cuántica, y no un reemplazo para la mecánica cuántica. Como
cualquier sistema cuántico, un campo cuántico posee un hamiltoniano H (no
obstante uno que es más complicado que hamiltonianos típicos de partículas
simples), y obedece la ecuación de Schrödinger usual:

(la teoría del campo cuántica se formula a menudo en términos de un


lagrangiano, con el que es más conveniente trabajar. Sin embargo, las
formulaciones lagrangianas y hamiltonianas se cree que son equivalentes.)
En segunda cuantización, hacemos uso de la indistinguibilidad de las partículas
para funciones de ondas de multi-partículas especificándolas en términos de
números de ocupación por partículas simples. Por ejemplo, suponga que
tenemos un sistema de N bosones que pueden ocupar varios estados de
partícula simple φ1, de φ2, de φ3, etcétera. El método usual de escribir una función
de onda multi-partícula es asignar un estado a cada partícula y después imponer
simetría de intercambio. Como hemos visto, la función de onda que resulta es
una suma poco manejable de N! términos. En el acercamiento por segunda
cuantización, listamos simplemente el número de partículas en cada uno de los
estados de partícula simple, recordando que la función de onda multi-partícula
es simétrica. Para ser precisos, suponga que N = 3, con una partícula en estado φ1
y dos en estado φ2. La manera normal de escribir la función de onda es:

mientras que en la forma segunda cuantización es simplemente

Aunque la diferencia es enteramente notacional, la última forma hace


extremadamente fácil definir los operadores de creación y aniquilación, que
agregan y restan partículas de los estados de la multi-partícula. Estos operadores
de creación y de aniquilación son muy similares a los definidos para el oscilador
armónico cuántico, que agrega y resta cuantos de energía. Sin embargo, estos
operadores, literalmente, crean y aniquilan partículas con un estado cuántico
dado. Por ejemplo, el operador de aniquilación a2 tiene los efectos siguientes:

(el factor √2 en la primera línea normaliza la función de onda, y no es


importante.)

Finalmente, introducimos operadores de campo que definen la probabilidad de


crear o de destruir una partícula en un punto particular en el espacio. Resulta
que la función de onda de la partícula simple está enumerado generalmente en
términos de su momento (como en el problema de una partícula en una caja),
así que los operadores del campo pueden ser construidos aplicándose
transformación de Fourier a los operadores de creación y de aniquilación. Por
ejemplo, el operador de aniquilación del campo bosónico φ(r) (que no debe ser
confundido con la función de onda) es

En las teorías cuánticas de campos, el hamiltoniano se escribe en términos de los


operadores de creación y de aniquilación o, equivalentemente, de los operadores
del campo. La práctica anterior es más común en la física de la materia
condensada, mientras que el último es más común en la física de partículas
puesto que hace más fácil ocuparse de relatividad. Un ejemplo de un
hamiltoniano escrito en términos de los operadores de creación y de aniquilación
es:

esto describe un campo de bosones (que no interactúan) libres, donde Ek es la


energía cinética del k-ésimo modo del momento. De hecho, este hamiltoniano es
útil para describir fonones que no interactúan.

Axiomas de Osterwalder-Schrader
Bajo ciertas asunciones técnicas, se ha demostrado que una teoría cuántica de
campos euclidiana puede ser Wick-rotada en una QFT de Wightman. Vea
Osterwalder-Schrader.

Axiomas de Wightman
Esta es una de las muchas tentativas de poner la teoría cuántica de campos
sobre una base matemática firme. Vea axiomas de Wightman.

W0 (asunciones de la mecánica cuántica relativista)

W1 (asunciones sobre el dominio y la continuidad del campo)

W2 (ley de transformación del campo)

W3 (conmutatividad local o causalidad microscópica)

Axiomas de Haag-Kastler
Ver física local cuántica.

Enlaces externos
Fields por Warren Siegel (Gratis pero enorme: 800 pp.)

Teoría de las
cuerdas
La teoría de cuerdas es un modelo físico que considera que la materia y el
espacio-tiempo se entretejen de una manera muy profunda a escala infinitesimal.
Sus bloques fundamentales de construcción son objetos extendidos (cadenas,
membranas y objetos de dimensiones superiores) en vez de puntos. Las teorías
de cuerdas son capaces de resolver varios problemas asociados a la presencia de
partículas puntuales en la teoría física de campos. Ciertamente no está
demostrada de manera experimental y es sólo confiable por ecuaciones
provenientes de fórmulas ancestrales de la fuerza fuerte.

El término teoría de cuerda se refiere en realidad a las teorías de cuerdas


bosónicas de 26 dimensiones y la teoría de supercuerdas de 10 dimensiones, esta
última descubierta al añadir supersimetría a la teoría de cuerdas bosónica. Hoy
en día la teoría de cuerdas se suele referir a la variante supersimétrica mientras
que la antigua se llama por el nombre completo de "teoría de cuerdas
bosónicas". Las diferentes teorías de supercuerdas demostraron ser diferentes
límites de una desconocida teoría de 11 dimensiones llamada Teoría-M propuesta
por Edward Witten en los años 90.

Algunos científicos creen que esta teoría es capaz de unificar las cuatro
interacciones fundamentales de la naturaleza:

Fuerza gravitatoria
Electromagnetismo
Fuerza nuclear fuerte (mantiene unido el núcleo atómico)
Fuerza nuclear débil (relacionada con la radiación)

Pero el desencanto es grande entre la comunidad científica por sus varias


dificultades e incongruencias, y la mayoría la considera solamente una curiosidad
matemática.

Teorías de campo y cuerdas


En la teoría cuántica de campos, un taquión es el cuanto de un campo,
usualmente un campo escalar el cual tiene una masa al cuadrado negativa. La
existencia de tal partícula es un significado de la inestabilidad del vacío espacio-
temporal, porque la energía del vacío tiene un máximo en vez de un mínimo. Un
pequeño impulso podría causar una decadencia de amplitudes exponenciales
que al mismo tiempo podrían inducir a una condensación de taquiones. El
mecanismo de Higgs es un ejemplo elemental, pero es bueno darse cuenta que
una vez que el campo taquiónico alcanza el mínimo de su potencial, su cuanta
dejan de ser taquiones para convertirse en bosones de Higgs con masa positiva.

Los taquiones se encuentran en muchas versiones de la teoría de cuerdas. En


general, la teoría de cuerdas establece que lo que vemos como "partículas" —
electrones, fotones, gravitones, etc.— son en realidad diferentes estados
vibratorios de la misma cuerda. La masa de una partícula puede ser deducida
como de la vibración ejercida por la cuerda; en otras palabras, la masa depende
de la nota que la cuerda este tocando. Los taquiones frecuentemente aparecen
en el espectro de estados de cuerdas permisibles, como queriendo decir que en
algunos estados tienen masas al cuadrado negativas, y por lo tanto masas
imaginarias.

Teoría del todo


En física, una teoría del todo es una teoría que unifica las cuatro fuerzas
fundamentales de la naturaleza: gravedad, fuerza nuclear fuerte, fuerza nuclear
débil y la fuerza electromagnética (Einstein trabajó 30 años de su vida en busca
de una única ecuación que resumiera la teoría del todo —la conocida como
ecuación maestra—), y es el objetivo de las investigaciones en gravedad
cuántica. De las diferentes fuerzas, la gravedad se explica geométricamente en la
teoría de la relatividad general de Einstein, mientras que las otras tres fuerzas se
explican como expresiones de campos cuánticos. Se han usado otros nombres
anteriormente para el concepto de teoría del todo, como son teoría unificada,
gran teoría unifícada y teoría de campos unificada. Una teoría del todo es
necesaria para explicar fenómenos tales como el big bang o las singularidadades
gravitacionales que las teorías de la relatividad general y la mecánica cuántica no
explican. Motivaciones teóricas para encontrar una teoría del todo incluyen la
creencia platónica de que la naturaleza última del universo es simple y que los
modelos corrientes de universo tales como el modelo estándar no pueden ser
completados debido a que son demasiado complicados.

Recientemente han surgido dos teorías que podrían algún día evolucionar hacia
la mencionada teoría unificada. Una es la Teoría M, una variante de la teoría de
cuerdas basada en un espacio de 11 dimensiones. La segunda es la denominada
teoría cuántica de bucles que postula que el propio espacio-tiempo estaría
cuantizado dimensionalmente, algo que por ahora no ha sido demostrado.

Hay que tener en cuenta que la relatividad general, que es la teoría empleada
actualmente cuando se trabaja a escala macroscópica, es una teoría clásica en el
sentido de que trabaja, como ya lo hiciera la de la Gravitación universal de
Newton, sobre un espacio-tiempo continuo, es decir, infinitamente divisible.

Véase también
Teoría M
Gravedad cuántica de bucles

Teoría M
La Teoría M es una de las candidatas a convertirse en la Teoría del todo. Tiene
su origen en la Teoría de las cuerdas según la cual todas las partículas son en
realidad diminutas cuerdas que vibran a cierta frecuencia y nosotros vivimos en
un universo vibrando a cierta frecuencia, lo cual requiere 11 dimensiones.
La teoría M es una solución propuesta para la desconocida teoría de todo, la cual
combina las 5 teorías de las supercuerdas y supergravedad en 11 dimensiones.
De acuerdo con el Dr.Edward Witten, quien propuso la teoría, herramientas
matemáticas, muchas de las cuales aún tienen que ser inventadas, son necesarias
para un total entendimiento de la misma.

El siguiente artículo es algo técnico en su naturaleza, vea Teoría M simplificada


para un nivel menos técnico.

Relación de la Teoría M con las supercuerdas y la


supergravedad
La teoría M en varios contextos geométricos es asociada con las diferentes teorías
de las supercuerdas (en diferentes transfondos geométricos), y aquellos límites
están relacionados a cada uno de los otros por el principio de dualidad. Dos
teorías físicas son duales entre sí cuando después de una cierta transformación
matemática tienen una física idéntica.

Los Tipos IIA y IIB están relacionados por la Dualidad-T, como son las dos
Heterotic theories. Tipos I y Heterotic SO(32) están relacionados por la Dualidad-
S. Tipo IIB también es Dual-S consigo misma.

Las teorías tipo II tienen dos supersimetrías en la 10 dimensión, el resto


sólo una.
La teoría tipo I es especial en que está basada en cuerdas no orientadas
abiertas y cerradas.
Las otras cuatro están basadas en cuerdas orientadas y cerradas.
La teoría IIA es especial porque es no quiral (conservación de la paridad).
Las otras cuatro son quirales (violación de la paridad).

En cada uno de estos casos hay una undécima dimensión que se convierte
.........Esta descripción de la teoría subyacente basada en once dimensiones es
llamada "Teoría M". Una historia de espacio tiempo de una cuerda puede ser
visualizada matemáticamente por funciones como:

Xµ(σ,τ)

que describe como las hojas coordenadas bidimensionales de la cuerda () son


mapeadas en el espacio-tiempo Xµ

Una interpretación de este resultado es que la undécima dimensión estaba


siempre presente pero invisible debido a que el radio de la undécima dimensión
es proporcional a la string coupling constant y la teoría tradicional perturbativa
de las cuerdas presume que esta es infinitesimal. Otra posible interpretación es
que la dimensión no es un concepto fundamental de la Teoría M.

Características de la teoría M
¡La teoría M contiene mucho más que sólo cuerdas! Contiene tanto objetos de
mayor como menor dimensionalidad. Estos objetos son llamados p-branas*
donde p denota su dimensionalidad (así, 1-brana podría ser una cuerda y 2-
brana una membrana) o d-branas (si son cuerdas abiertas). Objetos de mayores
dimensiones siempre estuvieron presentes en la teoría de las cuerdas pero nunca
pudieron ser estudiados antes de la Segunda Revolución de las Supercuerdas
debido a su naturaleza no-perturbativa.

Enlaces relacionados

Lecturas recomendadas

Michael J. Duff, The Theory Formerly Known as Strings, Scientific


American, February 1998, online at The University of Michigan.
John Gribbin, The Search for Superstrings, Symmetry, and the Theory of
Everything, ISBN 0316329754 , Little, Brown & Company, 1ST BACK B
Edition, August 2000, specifically pages 177-180.
Brian Greene, The Elegant Universe: Superstrings, Hidden Dimensions,
and the Quest for the Ultimate Theory, ISBN 0393046885 , W.W. Norton &
Company, February 1999

Enlaces externos

M-Theory-Cambridge
M-Theory-Caltech
The Elegant Universe Contiene una serie de videos de divulgación on line
acerca de las principales teorias cosmológicas, desde la Relatividad de
Einstein hasta las Teoría M.

Universos paralelos
Los universos paralelos son una construcción mental en la que entran en juego
la existencia de varios universos o realidades más o menos independientes. Los
universos paralelos aparecen típicamente en la ciencia ficción, y más tarde en la
pseudociencia. Sin embargo, algunas teorías de la física moderna con
pretensiones plenamente científicas se recurre a construcciones del tipo universo
paralelo.

Universos paralelos en la ciencia

Teoría de los universos múltiples de Everett

Una de las versiones científicas más curiosas que recurren a los universos
paralelos es la interpertación de los universos múltiples[1] de Hugh Everett.
Dicha teoría aparece dentro de la mecánica cuántica como una posible solución
al problema de la medida en mecánica cuántica. Everett describió su
interpretación más bien como una metateoría. Desde un punto de vista lógico la
construcción de Everett evade muchos de los problemas asociados a otras
interpretaciones más convencionales de la mecánica cuántica, sin embargo,
en el estado actual de conocimiento no hay una base empírica sólida a favor de
esta interpretación.

El problema de la medida, es uno de los principales "frentes filosóficos" que abre


la mecánica cuántica. Si bien la mecánica cuántica ha sido la teoría física más
precisa hasta el momento, permitiendo hacer cálculos teóricos relacionados con
procesos naturales que dan 20 decimales correctos y ha proporcionado una gran
cantidad de aplicaciones prácticas (centrales nucleares, relojes de altísima
precisión, ordenadores), existen ciertos puntos difíciles en la interpretación de
algunos de sus resultados y fundamentos (el premio Nobel Richard Feynman
llegó a bromear diciendo "creo que nadie entiende verdaderamente la mecánica
cuántica").

El problema de la medida se puede describir informalmente del siguiente


modo:

1. De acuerdo con la mecánica cuántica cuando un sistema físico, ya sea un


conjunto de electrones orbitando en un átomo, o un conjunto de políticos
decidiendo la siguiente guerra planetaria, queda descrito por una función
de onda. Dicha función de onda es un objeto matemático que
supuestamente describe la máxima información posible que contiene un
estado puro.
2. Si nadie externo al sistema ni dentro de él observara o tratara de ver
como está el sistema, la mecánica cuántica nos diría que el estado del
sistema evoluciona determinísticamente. Es decir, que podría ser
perfectamente predecible hacia donde irá el sistema.
3. La función de onda, nos informa de cuales son los resultados posibles
de una medida y sus probabilidades relativas, pero no nos dice qué
resultado concreto se obtendrá si cuando un observador trate
efectivamente de medir el sistema o averiguar algo sobre él. De hecho la
medida sobre un sistema es un valor aleatorio de entre los resultados
posibles.

Eso plantea un problema serio, si las personas, los científicos u observadores son
también objetos físicos como cualquier otro, debería haber alguna forma
determinista de predecir como tras juntar el sistema en estudio con el aparato de
medida, finalmente llegamos a un resultado determinista. Pero el postulado de
que una medición destruye la "coherencia" de un estado inobservado e
inevitablemente tras la medida se queda en un estado mezcla aleatorio parece
solo nos deja tres salidas:

(A) O bien renunciamos a entender el proceso de decoherencia por lo cual un


sistema pasa de tener un estado puro que evoluciona determinísticamente a
tener un estado mezcla o "incoherente"
(B) O bien admitimos que existen unos objetos no-físicos llamados
"conciencia" que no están sujetos a las leyes de la mecánica cuántica y que nos
resuelven el problema.
(C) O tratamos de inventar cualquier hipótesis exótica que nos haga
compatibilizar como por un lado deberíamos estar observando tras una medida
un estado no fijado por el estado inicial y por otro lado que el estado del
universo en su conjunto evoluciona de forma determinista.
Diferentes físicos han tomado diferentes soluciones a este “trilema”:

1. Niels Bohr propuso un modelo inicial de átomo que acabó dando lugar a
mecánica cuántica y fue considerado durante mucho tiempo uno de los
defensores de la interpretación ortodoxa de Copenhague se inclinaría
por (A).
2. John Von Neumann, el matemático que creó el formalismo matemático de
la mecánica cuántica y que aportó grandes ideas a la teoría cuántica, se
inclinaba por (B).
3. La interpretación de Hugh Everett es uno de los planteamientos que
apuesta de tipo (C).

La propuesta de Everett es que cada medida "desdobla" nuestro universo en una


serie de posibilidades (o tal vez existían ya los universos paralelos mutuamente
inobservables y en cada uno de ellos se da una realización diferente de los
posibles resultados de la medida). La idea y el formalismo de Everett es
perfectamente lógico y coherente, aunque algunos puntos sobre como interpretar
algunos puntos, en particular como se logra la inobservabilidad o coordinación
entre sí de esos universos para que en cada uno suceda algo ligeramente
diferente. Pero por lo demás es una explicación lógicamente coherente y posible,
que no despierta mucho entusiasmo sencillamente porque no está claro que sea
una posibilidad falsable.

Agujeros blancos y Universo de Reissner-Nordström

Artículo principal: Agujero blanco


Artículo principal: Agujero negro de Reissner-Nordstrom

Universos paralelos en la ficción


Universos paralelos y pseudociencia

Ver también
Agujero negro
Interpretaciones de la Mecánica cuántica

An Open Letter to the


Scientific Community
cosmologystatement.org

(Published in New Scientist, May 22, 2004)

The big bang today relies on a growing number of hypothetical entities,


things that we have never observed-- inflation, dark matter and dark
energy are the most prominent examples. Without them, there would
be a fatal contradiction between the observations made by astronomers
and the predictions of the big bang theory. In no other field of physics
would this continual recourse to new hypothetical objects be accepted
as a way of bridging the gap between theory and observation. It would,
at the least, raise serious questions about the validity of the underlying
theory.

But the big bang theory can't survive without these fudge factors.
Without the hypothetical inflation field, the big bang does not predict
the smooth, isotropic cosmic background radiation that is observed,
because there would be no way for parts of the universe that are now
more than a few degrees away in the sky to come to the same
temperature and thus emit the same amount of microwave radiation.

Without some kind of dark matter, unlike any that we have observed on
Earth despite 20 years of experiments, big-bang theory makes
contradictory predictions for the density of matter in the universe.
Inflation requires a density 20 times larger than that implied by big bang
nucleosynthesis, the theory's explanation of the origin of the light
elements. And without dark energy, the theory predicts that the
universe is only about 8 billion years old, which is billions of years
younger than the age of many stars in our galaxy.

What is more, the big bang theory can boast of no quantitative


predictions that have subsequently been validated by observation. The
successes claimed by the theory's supporters consist of its ability to
retrospectively fit observations with a steadily increasing array of
adjustable parameters, just as the old Earth-centered cosmology of
Ptolemy needed layer upon layer of epicycles.

Yet the big bang is not the only framework available for understanding
the history of the universe. Plasma cosmology and the steady-state
model both hypothesize an evolving universe without beginning or end.
These and other alternative approaches can also explain the basic
phenomena of the cosmos, including the abundances of light elements,
the generation of large-scale structure, the cosmic background radiation,
and how the redshift of far-away galaxies increases with distance. They
have even predicted new phenomena that were subsequently observed,
something the big bang has failed to do.

Supporters of the big bang theory may retort that these theories do not
explain every cosmological observation. But that is scarcely surprising,
as their development has been severely hampered by a complete lack
of funding. Indeed, such questions and alternatives cannot even now be
freely discussed and examined. An open exchange of ideas is lacking in
most mainstream conferences. Whereas Richard Feynman could say that
"science is the culture of doubt", in cosmology today doubt and dissent
are not tolerated, and young scientists learn to remain silent if they have
something negative to say about the standard big bang model. Those
who doubt the big bang fear that saying so will cost them their funding.

Even observations are now interpreted through this biased filter, judged
right or wrong depending on whether or not they support the big bang.
So discordant data on red shifts, lithium and helium abundances, and
galaxy distribution, among other topics, are ignored or ridiculed. This
reflects a growing dogmatic mindset that is alien to the spirit of free
scientific inquiry.

Today, virtually all financial and experimental resources in cosmology


are devoted to big bang studies. Funding comes from only a few
sources, and all the peer-review committees that control them are
dominated by supporters of the big bang. As a result, the dominance of
the big bang within the field has become self-sustaining, irrespective of
the scientific validity of the theory.

Giving support only to projects within the big bang framework


undermines a fundamental element of the scientific method -- the
constant testing of theory against observation. Such a restriction makes
unbiased discussion and research impossible. To redress this, we urge
those agencies that fund work in cosmology to set aside a significant
fraction of their funding for investigations into alternative theories and
observational contradictions of the big bang. To avoid bias, the peer
review committee that allocates such funds could be composed of
astronomers and physicists from outside the field of cosmology.

Allocating funding to investigations into the big bang's validity, and its
alternatives, would allow the scientific process to determine our most
accurate model of the history of the universe.
(Institutions for identification only)
Highlighted names are linked to related web pages

Halton Arp, Max-Planck-Institute Fur Astrophysik


(Germany)
Andre Koch Torres Assis, State University of Campinas
(Brazil)
Yuri Baryshev, Astronomical Institute, St. Petersburg State
University (Russia) 10
Ari Brynjolfsson, Applied Radiation Industries (USA)
Hermann Bondi, Churchill College, University of
Cambridge (UK)
Timothy Eastman, Plasmas International (USA)
Chuck Gallo, Superconix, Inc.(USA)
Thomas Gold, Cornell University (emeritus) (USA)
Amitabha Ghosh, Indian Institute of Technology, Kanpur
(India)
Walter J. Heikkila, University of Texas at Dallas (USA)
.................................................
Michael Ibison, Institute for Advanced Studies at Austin
(USA)
Thomas Jarboe, University of Washington (USA)
Jerry W. Jensen, ATK Propulsion (USA)
Menas Kafatos, George Mason University (USA)
Eric J. Lerner, Lawrenceville Plasma Physics (USA)
Paul Marmet, Herzberg Institute of Astrophysics (retired)
(Canada)
Paola Marziani, Istituto Nazionale di Astrofisica,
Osservatorio Astronomico di Padova (Italy)
Gregory Meholic, The Aerospace Corporation (USA)
Jacques Moret-Bailly, Université Dijon (retired) (France)
Jayant Narlikar, IUCAA(emeritus) and College de France
(India, France) ........................ 20
Marcos Cesar Danhoni Neves, State University of Maringá
(Brazil)
Charles D. Orth, Lawrence Livermore National Laboratory
(USA)
R. David Pace, Lyon College (USA)
Georges Paturel, Observatoire de Lyon (France)
Jean-Claude Pecker, College de France (France)
Anthony L. Peratt, Los Alamos National Laboratory (USA)
Bill Peter, BAE Systems Advanced Technologies (USA)
David Roscoe, Sheffield University (UK)
Malabika Roy, George Mason University (USA)
Sisir Roy, George Mason University (USA)
.................................................................... 30
Konrad Rudnicki, Jagiellonian University (Poland)
Domingos S.L. Soares, Federal University of Minas Gerais
(Brazil)
John L. West, Jet Propulsion Laboratory, California
Institute of Technology (USA)
James F. Woodward, California State University, Fullerton
(USA)

New signers of the Open letter since publication


Scientists and Engineers
Jorge Marao Universidade Estadual de Londrina Brazi
Martin John Baker, Loretto School Musselburgh, UK
Peter J Carroll, Psychonaut Institute, UK
Roger Y. Gouin, Ecole Superieure d'Electricite, France
John Murray, Sunyata Composite Ltd, UK
Jonathan Chambers, University of Sheffield, UK
................................................................. 40
Michel A. Duguay, Laval University, Canada
Qi Pan, Fitzwilliam College, Cambridge, UK
Fred Rost, University of NSW (Emeritus), Australia
Louis Hissink, Consulting Geologist, Australia
Hetu Sheth, Earth Sciences, Indian Institute of Technology Bombay,
India
Lassi Hyvärinen, IBM(Ret), France
Max Whisson, University of Melbourne, Australia
R.S.Griffiths, CADAS, UK
Adolf Muenker, Brane Industries, USA
Emre Isik Akdeniz University Turkey .................................. 50
Felipe de Oliveira Alves, Federal University of Minas Gerais, Brazil
Jean-Marc Bonnet-Bidaud, Service d'Astrophysique, CEA, France
Kim George, Curtin University of Technology, Australia
Tom Van Flandern, Meta Research, USA
Doneley Watson, IBM (ret.), USA
Fred Alan Wolf, Have Brains / Will Travel, USA
Robert Wood, IEEE, Canada
D. W. Harris, L-3 Communications, USA
Eugene Sittampalam, Engineering consultant, Sri Lanka
Joseph.B. Krieger, Brooklyn College, CUNY, USA
............................................................ 60
Pablo Vasquez, New Jersey Institute of Technology, USA
Peter F. Richiuso, NASA, KSC, USA
Roger A. Rydin, University of Virginia (Emeritus), USA
Stefan Rydstrom, Royal Institute of Technology, Sweden
Sylvan J. Hotch, The MITRE Corporation (Retired), USA
Thomas R. Love, CSU Dominguez Hills, USA
Andrew Coles, Embedded Systems, USA
Eit Gaastra, infinite universe researcher, The Netherlands
Franco Selleri, Università di Bari, Dipartimento di Fisica, Italy
Gerald Pease, The Aerospace Corporation, USA
.............................................................. 70
S.N. Arteha, Space Research Institute, Russia
Miroslaw Kozlowski, Warsaw University (emeritus), Poland
John Hartnett, School of Physics, University of Western Australia,
Australia
Robert Zubrin, Pioneer Astronautics, USA
Tibor Gasparik, SUNY at Stony Brook, USA
Alexandre Losev, Bulgarian Academy of Sciences, Bulgaria
Henry Hall, University of Manchester, UK 80
José da Silva, Universidade Federal de Minas Gerais, Brazil
Markus Rohner, Griesser AG, Switzerland
William C. Mitchell, Institute for Advanced Cosmological Studies, USA
.............................
Aurea Garcia-Rissmann, UFSC, Brazil
Cristian R. Ghezzi, Universidade Estadual de Campinas, Brazil
Daniel Nicolato Epitácio Pereira, Federal University of Rio de Janeiro,
Brazil
Gregory M. Salyards, US Naval Sea Systems Command (ret.), USA
Luiz Carlos Barbosa, Unicamp, Brazil
Luiz Carlos Jafelice, Federal University of the Rio Grande do Norte,
Brazil
Michael Sosteric, Athabasca University, Canada
Steven Langley Guy, University of Elizabeth (Physics Department),
Australia
Robert Fritzius, Shade Tree Physics, USA
Irineu Gomes Varella, Escola Municipal de Astrofísica, Brazil
............................................... 90
Tom Walther, Southern Cross University Australia , Australia
Mauro Cosentino, University of São Paulo, Brazil
Moacir Lacerda, Univeersidade Federal de Mato Grosso do Sul, Brazil
Roberto Assumpcao, PUC Minas, Brazil
Roberto Lopes Parra, University of Sao Paulo, Brazil
Ronaldo Junio Camppos Batista, Universidade Federal de Minas
Gerais, Brazil
Ermenegildo Caccese, University of Basilicata, Italy
Felipe Sofia Zanuzzo, Federal University of São Carlos, Brazil
Edival de Morais, Sociedade Brasileira de Física, Brazil
Graham Coupe, KAZ Technology Services, Australia
....................................................... 100
Gordon Petrie, High Altitude Observatory, NCAR, USA,
Jose B. Almeida, University of Minho, Portugal,
Antonio Cleiton, Laboratório de Sistemas Complexos - UFPI, Brazil
Sergey Karpov, L.V.Kirensky Institute of Physics Russian Academy of
Sciences, Russia
Wagner Patrick Junqueira de Souza Coelho Nicácio, Universidade
Federal de Minas Gerais, Brazil
Sokolov Vladimir, Special Astrophysical Observatory of RAS, Russia
Edwin G. Schasteen, TAP-TEN Research Foundation International,
USA
Gerry Zeitlin, openseti.org, USA
Henry H. Bauer, Virginia Polytechnic Institute & State University, USA
Yasha Fard,H.R. Cosmology Institute, Canada
.................................................................. 110
Roberto Caimmi, Astronomy Department, Padua University, Italy
Tobias Keller, ETH (SFIT) Zurich, Earth Sciences, Switzerland,
Deborah Foch, Center for the Study of Extraterrestrial Intelligence,
USA, 120
Henry Reynolds, UC Santa Cruz, USA,
Paramahamsa Tewari, Nuclear Power Corporation (ret.),India
Jouko Seppänen, Helsinki University of Technology, Finland,
Cristiane Ribeiro Bernardes, Universidade Federal de Minas Gerais,
Brazil
Eric Blievernicht. TRW, USA
Dr. Robert Bennett, Kolbe Center, USA,
Hilton Ratcliffe, Astronomical Society of South Africa, South Africa
.......................................
Wieslaw Sztumski, Silesian University, Poland
Lars Wåhlin,Colutron Research Corporation,USA
Riccardo Scarpa, European Southern Observatory, Italy,
Olivier Marco, European Southern Observatory, France
Joseph Garcia, International Radiation Protection, Germany,
Arkadiusz Jadczyk, International Institute of Mathematical Physics,
Lithuania
Jean de Pontcharra, Commissariat à l'Energie Atomique, France
Gerardus D. Bouw, Baldwin-Wallace College, USA
Josef Lutz, Chemnitz University of Technology, Germany,
Harold E. Puthoff, Institute for Advanced Studies at Austin, USA.
.......................................... 130
Hermann Dürkop, Nabla Systemberatung, Germany,
Klaus Fischer, Universität Trier, Germany,
Werner Holzmüller, University Leipzig, Germany
Sol Aisenberg, International Technology Group, USA
Richard Gancarczyk, University of Nottingham, UK
Steve Humphry, Murdoch University, Australia
Alberto Bolognesi, Università di Perugia, Italy
Daniele Carosati, Armenzano Observatory, Italy
Brendan Dean, H.R. Cosmology Institute, Canada
W. Jim Jastrzebski, Warsaw University, Poland
...................................................................... 140
Gero Rupprecht, European Southern Observatory, Germany
Rainer Herrmann TEWS-Elektronik Germany
Felix Pharand University of Montreal Canada
Jerry Bergman Northwest State University USA
Tibor Gasparik SUNY at Stony Brook USA
Rei Gunn University of Nantucket USA
Sinan Alis Eyuboglu Twin Observatories Turkey
Esat Rennan Pekünlü University of EGE Turkey
Anne M. Hofmeister Washington U. USA
Quentin Foreman IEEE New Zealand
.................................................................... 150
Marc Berndl University of Toronto Canada
Y. P. Varshni University of Ottawa Canada
Robert Martinek McMaster University Canada
Bob Criss Washington University USA
Sol Aisenberg, International Technology Group, USA 160
Paul LaViolette, The Starburst Foundation, U.S.A.
Seetesh Pandé, Universite Claude Bernard, Lyon France
TAHIR MAQSOOD, PSA, PAKISTAN
Hartmut Traunmüller, University of Stockholm, Sweden
.....................................................
Nico F. Benschop, Amspade Research, Netherlands
Aaron Blake, USAF, USA
M. Ross Fergus, University of Memphis, USA
Sonu Bhaskar, Council of Scientific and Industrial Research, India
Frederico V. F., Lima Universidade de Sao Paulo, Brazil
Andrei Kirilyuk, Institute of Metal Physics of the National Academy of
Sciences of Ukraine, Ukraine
Christian Jooss, Institut fuer Materialphysik, University of Goettingen,
Germany
Sonu Bhaskar, BCISR, India
Robert O. Myers, ROM Technologies, USA
Ana Cristina Oliveira, Universidade Federal de Minas Gerais, Brazil
..................................... 170
John Wey, Idaho National Laboratory, USA
Jorge Francisco Maldonado Serrano, UIS, Colombia
Pasquale Galianni, Dipartimento di Fisica Università di Lecce, Italy
Martín López-Corredoira, Instituto de Astrofísica de Canarias, Spain
Michael A. Ivanov, Belarus State University of Informatics and
Radioelectronics, Belarus
Xiao Jianhua , Shanghai Jiaotong University, China
Pierre J. Beaujon, Hoornbeeck College, The Netherlands
J.Georg von Brzeski Helios Labs. USA
vidyardhi nanduri , Cosmology Research center , India
Mike Rotch NBSA USA ....................................................... 180
Paul Noel, Independent_Researcher, USA
Swee Eng, AW Royal College of Pathologists, SINGAPORE
Ricardo Rodríguez , La Laguna University , Spain
Linda Camp Harvard University USA
James B. Schwartz , The Noah's Ark Research Foundation ,
Philippines
Marshall Douglas Smith , TeddySpeaks Foundation ,USA
Abbé Grumel , Association Copernic , France
Ives van Leth Waterboard Utrecht The Netherlands
Francis Michael C. Perez, Department of Transportation, USA
AHMED A. EL-DASH UNICAMP BRAZIL
................................................... 190
David C Ware, University of Auckland, New Zealand
Alek Atevik, Skopje Astronomy Society, Macedonia
Peter Rowlands, University of Liverpool, UK
Robert Day, Suntola Consulting, Ltd., USA
Luís Paulo Sousa Loureiro, Portugal
Maingot Fabrice, Université Louis Pasteur, France
Kris Krogh, University of California, USA 200
Pierre-Marie Robitaille, The Ohio State University, United States
Charles Creager Jr, Creation Research Society, United States
Stephan Gift, The University of the West Indies, St Augustine Campus,
Trinidad and Tobago ...
Joseph J. Smulsky, Institute of Earth's Cryosphere Siberian Branch
Russian Academy of Sciences, Russia
Jorge Marao Universidade Estadual de Londrina Brazil
Jim O'Reilly Orion Consultants USA
Robert MacKay University of Warwick UK
Chris Vermeulen Astronomical Society of Southern Africa South Africa
Emilson Pereira Leite Institute of Astronomy and Geophysics Brazil
Allen W Green ATK Space Systems USA
Ron Balsys Central Queensland University Australia
Paul ten Boom University of New South Wales Australia
Mosheh Thezion The Empirical Church, USA
.......................................... 210
Markus, Karsten,, Wilhelm-Foerster-Observatory Berlin e.V
Don. C. Wilson,: Process Technology and Development, USA
Marek Gajewski, Raytheon Co.,USA
Tuncay DOGAN, University of EGE, Turkey
Andrew M Uhl, Pennsylvania State Univeristy, USA
Klaus Wieder, Independent_Researcher, Germany
John Caley, Omegafour Pty Ltd, Australia
Keith Scott-Mumby, Capital University for Integrative
Medicine/California
Institute for Human Sciences, USA ............................. 218

Independent Researchers
Garth A Barber, independent researcher, UK
Alberto Bolognesi, Independent Researcher, Italy
DEAN L MAMAS, Independent Researcher, USA
David Blackford, Independent_Researcher, UK
Alan Rees, Independent Researcher, Sweden
Udayan Chakravarty, Independent Researcher, India
Georg Gane, Independent Researcher, Germany
Robin Whittle, Independent Researcher, Australi,
Joseph A. Rybczyk, Independent Researcher, USA
G.Srinivasan, Independent_Researcher, India,
........................................................ 10
Geoffrey E. Willcher independent researcher USA
Douglas S. Robbemond independent researcher the Netherlands
khosrow fariborzi independent researcher Iran
Etienne Bielen independent researcher Belgium
Steve Newman independent researcher USA
Ethan Skyler, Independent researcher, USA
Yvon Dufour, Independent Researcher, Canada 20
Jorge Ales Corona Independent Researcher Spain
Cristiano De Angelis, Independent Researcher, Italy
Roland Le Houillier, Independent Researcher, Canada
................................................
Richard Tobey Independent researcher USA
Steve McMahon Independent researcher USA
Eugene Savov, Independent researcher, Bulgaria
Lars Woldseth, Independent researcher, Norway
Robert L. Brueck, Independent researcher, USA
Mark S Thornhill, Independent Researcher, United Kingdom
Nainan. K. Varghese, Independent Researcher, India,
Andrew Kulikovsky, Independent Researcher, Australia
Charles Sven, Independent Researcher, USA
Gabriele Manzotti, Independent Researcher, Italy
..................................................... 30
Brian S. Clark independent researcher USA
Jim O'Reilly Orion Consultants USA
Geoffrey E. Willcher independent researcher USA
Douglas S. Robbemond independent researcher the Netherlands
khosrow fariborzi independent researcher Iran
Etienne Bielen independent researcher Belgium
Steve Newman independent researcher USA
Thomas G. Franzel independent researcher USA
Bernhard Reddemann independent researcher Germany
Ives van Leth Waterboard Utrecht The Netherlands
............................................... 40
Jeroen van der Rijst independent researcher The Netherlands
Harry Costas independent researcher Australia
Andrei Wasylyk independent researcher Canada
Jack Ruijs independent researcher The Netherlands
Leo Sarasúa independent researcher The Netherlands
Edward Smith independent researcher USA
Linda Camp Harvard University USA
Gary Meade independent researcher USA
Stan Kabacinski independent researcher Australia
Jack Dejong independent researcher USA
........................................................... 50
J.Georg von Brzeski Helios Labs. USA
Nigel Edwards, Independent Researcher, Australia
Dieter Schumacher, Independent Researcher, Germany
Rudolf Kiesslinger, Independent Researcher, Germany
Gerd Schulte, Independent Researcher, Germany
Stuart Eves, Independent Researcher, UK
James Marsen independent researcher USA
Edgar Paternina independent researcher Colombia
Donald E. Scott Independent_Researcher: USA
José M?df; Cat Casanovas, Independent researcher,
Spain ........................................... 60
Aaron Hill, Independent Researcher, USA,
Hans-Dieter Radecke, Independent Researcher, Germany 70
Mawell P Davis Independent Researcher New Zealand
Gordon E. Mackay Independent Researcher USA
Dave Sagar Independent Researcher USA
Benjamin I. Iglesias Independent Researcher Spain
Alper Kozan Independent Researcher Turkey
Hartmut Warm, Independent Researcher, Germany
Jan Mugele Independent Researcher Germany
Andrew Rigg Independent Researcher Australia
......................................................
Thomas Riedel Independent researcher Denmark
Helen Workman Independent researcher Canada
Morris Anderson, Independent researcher, USA
Mario Cosentino, Independent researcher, France
Paul Richard Price, Independent researcher, United States
Philip Lilien, Independent Researcher, USA
Ott Köstner, Independent researcher, Estonia
Bozidar Kornic, Independent researcher, USA
William F. Hamilton, Independent researcher, U.S.A.
Joel Morrison, Independent researcher, USA
....................................................... 80
James R. Frass, Independent Researcher, Canada
Arnold Wittkamp, Independent Researcher, Netherlands
Dimi Chakalov, Independent Researcher, Bulgaria
Herb Doughty, Independent Researcher, USA
Robert F. Beck, Independent Researcher, UK
Tuomo Suntola, Independent Researcher, Finland
Richard Hillgrove, Independent Researcher, New Zealand
Herbert J. Spencer, Independent Researcher, Canada
Thomas B. Andrews, Independent Researcher, USA
John Dean , Independent Researcher , South Africa
........................................................ 90
Peter Loster , Independent Researcher , Germany
Charles Francis, Independent Researcher , UK
Ahmed Mowaffaq AlANNI , Independent Researcher , Iraq
Mogens Wegener , Independent Researcher , DENMARK
Peter Jakubowski, Independent Researcher , Germany
John Brodix Merryman Jr. , Independent Researcher , USA
Christian Boland , Independent Researcher , Belgium
Warren S. Taylor, Independent Researcher, USA
Constantin Leshan, Independent Researcher , Moldova
Avid Samwaru, Independent Researcher, USA
...................................................... 100
Thomas Goodey, Independent Researcher, UK
Johan Masreliez, Independent Researcher, USA
Efrèn Cañedo, Independent Researcher , Mèxico
Michael Bliznetsov, Independent Researcher, Russia
Peter Michalicka, Independent Researcher, Austria
Ivan D. Alexander , Independent Researcher,
S. Ray DeRusse, Independent Researcher, USA
Chris Maharaj, Independent Researcher, Trinidad 110
Peter Warlow, Independent Researcher, United Kingdom
Gordon Wheeler, Independent Researcher, United States
..................................................
Boxer Ma, Independent Researcher, Thailand
Robert Wido, Independent Researcher, United States
John Hunter independent researcher U.K
Marcelo de Almeida Bueno independent researcher Brazil
Jean-Pierre Ady Fenyo, Independent Researcher, United Status
Adam W.L. Chan , Independent Researcher , Hong Kong
Renato Giussani independent researcher Italy
Brian S. Clark independent researcher USA
Mustafa Kemal Oyman, Independent Researcher, Turkey
Richard Wayte, independent researcher, UK
....................................................... 120
Ron Ragusa independent researcher USA
N.Vivian Pope independent researcher UK
Roy Caswell independent researcher United Kingdom
Erin S. Myers independent researcher USA
Ugo Nwaozuzu independent researcher Singapore
Daniel Coman independent researcher USA
Birgid Mueller independent researcher Mexico
Mihail Gonta independent researcher Moldova
Vladimir Rogozhin independent researcher Russia
J. J. Weissmuller independent researcher USA
......................................................... 130
Muhammed Anwar independent researcher India
Geldtmeijer Djamidin independent researcher Netherlands
Scott G. Beach independent researcher Canada
Neil Hargreaves independent researcher UK
julian braggins independent researcher Australia
Kari Saarikoski, Independent_Researcher, Finland
Marcelo de Almeida Bueno independent researcher Brazil
Ron Ragusa independent researcher USA
Brian S. Clark independent researcher USA
Geoffrey E. Willcher independent researcher USA
.................................................. 140
Douglas S. Robbemond independent researcher the Netherlands
khosrow fariborzi independent researcher Iran
Etienne Bielen independent researcher Belgium
Steve Newman independent researcher USA
John Hunter independent researcher U.K
Jeroen van der Rijst independent researcher The Netherlands
Thomas G. Franzel independent researcher USA
Bernhard Reddemann independent researcher Germany
Leo Sarasúa independent researcher The Netherlands
Edward Smith independent researcher USA
.......................................................... 150
Gary Meade independent researcher USA
Stan Kabacinski independent researcher Australia
Jack Dejong independent researcher USA 160
Harry Costas independent researcher Australia
Andrei Wasylyk independent researcher Canada
Jack Ruijs independent researcher The Netherlands
James Marsen independent researcher USA
Edgar Paternina independent researcher Colombia
Ghertza Roman, Independent_Researcher, Romania
Roland Schubert, Independent_Researcher, Germany
.....................................
Alexandre Wajnberg, Independent Researcher, Skyne, Belgium
Dennis H Cowdrick Scientific Independent_Researcher: USA
Michail Telegin Independent_Researcher: Russia
Robert L Stafford, Independent_Researcher, USA
Martin Sach, Independent_Researcher, UK
Charles L. Sanders, Independent_Researcher, USA/South Korea
Alex Carlson, Independent_Researcher, United States
Lyndon Ashmore, Independent_Researcher, UK
Liedmann, Matthias, Unaffiliated_Scientific_Researcher, Germany
Ingvar Astrand, Independent_Researcher, Sweden
......................................... 170
Olli Santavuori, Independent_Researcher, Finlande
Touho Ankka, Independent_Researcher, Finland
JR Croca, Independent_Researcher, Portugal
Sol Aisenberg, Independent_Researcher, USA
Mustafa Kemal OYMAN, Independent_Researcher, Turkey
Gerard ZONUS, Independent_Researcher, FRANCE
David W. Knight, Independent_Researcher, USA
Marcel Lutttgens, Independent_Researcher, France
Dr Stephen Birch, Independent_Researcher, United Kingdom
Abramyan G.L., Independent_Researcher, Russia
.................................. 180
Martin Peprnik, Independent_Researcher, Slowakia
Van Den Hauwe, PhD, Independent_Researcher,: Belgium
Ingvar Astrand, Independent_Researcher, Sweden
Daniel Toohey, Independent_Researcher, Australia
Jed Shlackman, M.S. Ed. (LMHC, C.Ht.), Independent_Researcher, USA
Dr. John Michael Nahay, Independent_Researcher
Guido Grzinic, Independent_Researcher, Australia ................. 187

Other Signers
Charles Weber,USA
David Gershon ,USA
Peter G Smith ,USA
Richard J. Lawrence ,USA
Naszvadi László, Hungary
Roger W. Browne, USA
Bart Clauwens, Netherlands
Noah Feiler-Poethke, USA 10
Jonathan Hardy, UK
John S. Kundrat, USA
...........................................................................
Vincent Sauve, USA
Chris Somers, Australia
Jagroop Sahota, USA
Edgar Raab, Germany
Gordon Hogenson, USA
Burebista Dacia, Romania
Christel Hahn, Germany
Burebista Dacia, Romania
Christel Hahn, Germany
Robert Angstrom, USA
.............................................................................. 20
Norman Chadwick, USA
Harley Orr, USA
Clive Martin-Ross, UK
Alasdair Martin, UK
Marcus Ellspermann, Germany
Bruce Richardson, USA
John Dill, USA
Judith Woollard Australia
Michael Cyrek USA
Randall Meyers ITALY
............................................................................................... 30
Craig Arend USA
Onur Cantimur Turkey
Roland Scheel France
Murat Isik Turkey
Markus Hellebrandt Germany
Mehmet Kara Turkey
Abhishek Dey Das India
D. N. Vazquez USA
Suzan R. Rodenburg USA
Shuming Zhang China
................................................................................................. 40
Codie Vickers USA
Richard Tobey USA
Elfriede Steiner-Grillmair, Canada
Gabriele Manzotti, Italy
Michael Wember, USA
Fuksz Levente, Romania
Seppo Tuominen, Finland
Marvin C. Katz, USA
Laura Fridley, USA
Michael Christian, U.S.A
........................................................................................... 50
Edgar S. Hill USA
Q. John T. Malone USA
Michael Bruttel Switzerland 60
Eric W. LaFlamme USA
Robert Diegis, Romania
William S. Jarnagin, USA
Kevin Glaser, USA
Robert Diegis, Romania
William S. Jarnagin, USA
Kevin Glaser, USA
................................................................................................
JoAnn Arcuri USA
Attila Csanyi USA
Pratik Sinha India
Donald C. Bull New Zealand
Hans Walhout Netherlands
Robyn Stewart Australia
Tor Johannessen Norway
Rick Schmidt USA
Terence Watts UK
Jody Fulford USA
............................................................................................ 70
Gene Gordon USA
Monica Veloso Alves Brazil
Ferdi Prins South Africa
Adam Hansil USA
Herbert M Watson USA
John Patchett UK
Jurrie Noordijk, The Netherlands
P.S. Phillips, U.S.A
JoAnn Arcuri USA
Martin Gradwell , ns, United Kingdom
.............................................................. 80
Sami Murtomäki, Ns, Finland
Anthony Abruzzo , United States
Tim Reed, ns, USA
Daniel Rijo , ns, USA
Ken Couesbouc , ns, France
David L. Harrison, United States
Kees de Boer
Tom HigginsUSA
David Calder Hardy, New Zealand
Jochen Moerman, Belgium
......................................................................... 90
Berend de Boer, New Zealand
Edward E. Rom, USA
Jukka Kinnunen, Finland
Jerome M. Hall, USA
Maria Alvarez, Argentina
Paul Chabot, Canada
Julia, Russia
Amr Malik: Canada
Maureen Bevill, USA 100
Horst Barwinek,
Austria................................................................
Lindsay Smith, Australia
Richard DeLano, USA.
Stefan Landherr, Australia
Peter Wilson, USA
Gregory Kiser, USA
............................................................. 105

Air Force pursuing antimatter weapons Program was


touted publicly, then came official gag order

Keay Davidson, Chronicle Science Writer


Monday, October 4, 2004

The U.S. Air Force is quietly spending millions of dollars investigating ways to
use a radical power source -- antimatter, the eerie "mirror" of ordinary matter --
in future weapons.

The most powerful potential energy source presently thought to be available to


humanity, antimatter is a term normally heard in science-fiction films and TV
shows, whose heroes fly "antimatter-powered spaceships" and do battle with
"antimatter guns."

But antimatter itself isn't fiction; it actually exists and has been intensively
studied by physicists since the 1930s. In a sense, matter and antimatter are the
yin and yang of reality: Every type of subatomic particle has its antimatter
counterpart. But when matter and antimatter collide, they annihilate each other
in an immense burst of energy.

During the Cold War, the Air Force funded numerous scientific studies of the
basic physics of antimatter. With the knowledge gained, some Air Force insiders
are beginning to think seriously about potential military uses -- for example,
antimatter bombs small enough to hold in one's hand, and antimatter engines
for 24/7 surveillance aircraft.

More cataclysmic possible uses include a new generation of super weapons --


either pure antimatter bombs or antimatter-triggered nuclear weapons; the
former wouldn't emit radioactive fallout. Another possibility is antimatter-
powered "electromagnetic pulse" weapons that could fry an enemy's electric
power grid and communications networks, leaving him literally in the dark and
unable to operate his society and armed forces.
Following an initial inquiry from The Chronicle this summer, the Air Force
forbade its employees from publicly discussing the antimatter research
program. Still, details on the program appear in numerous Air Force documents
distributed over the Internet prior to the ban.

These include an outline of a March 2004 speech by an Air Force official who,
in effect, spilled the beans about the Air Force's high hopes for antimatter
weapons. On March 24, Kenneth Edwards, director of the "revolutionary
munitions" team at the Munitions Directorate at Eglin Air Force Base in Florida
was keynote speaker at the NASA Institute for Advanced Concepts (NIAC)
conference in Arlington, Va.

In that talk, Edwards discussed the potential uses of a type of antimatter called
positrons.

Physicists have known about positrons or "antielectrons" since the early 1930s,
when Caltech scientist Carl Anderson discovered a positron flying through a
detector in his laboratory. That discovery, and the later discovery of
"antiprotons" by Berkeley scientists in the 1950s, upheld a 1920s theory of
antimatter proposed by physicist Paul Dirac.

In 1929, Dirac suggested that the building blocks of atoms -- electrons


(negatively charged particles) and protons (positively charged particles) -- have
antimatter counterparts: antielectrons and antiprotons. One fundamental
difference between matter and antimatter is that their subatomic building blocks
carry opposite electric charges. Thus, while an ordinary electron is negatively
charged, an antielectron is positively charged (hence the term positrons, which
means "positive electrons"); and while an ordinary proton is positively charged,
an antiproton is negative.

The real excitement, though, is this: If electrons or protons collide with their
antimatter counterparts, they annihilate each other. In so doing, they unleash
more energy than any other known energy source, even thermonuclear bombs.

The energy from colliding positrons and antielectrons "is 10 billion times ... that
of high explosive," Edwards explained in his March speech. Moreover, 1 gram
of antimatter, about 1/25th of an ounce, would equal "23 space shuttle fuel
tanks of energy." Thus "positron energy conversion," as he called it, would be a
"revolutionary energy source" of interest to those who wage war.

It almost defies belief, the amount of explosive force available in a speck of


antimatter -- even a speck that is too small to see. For example: One millionth of
a gram of positrons contain as much energy as 37.8 kilograms (83 pounds) of
TNT, according to Edwards' March speech. A simple calculation, then, shows
that about 50-millionths of a gram could generate a blast equal to the explosion
(roughly 4,000 pounds of TNT, according to the FBI) at the Alfred P. Murrah
Federal Building in Oklahoma City in 1995.

Unlike regular nuclear bombs, positron bombs wouldn't eject plumes of


radioactive debris. When large numbers of positrons and antielectrons collide,
the primary product is an invisible but extremely dangerous burst of gamma
radiation. Thus, in principle, a positron bomb could be a step toward one of the
military's dreams from the early Cold War: a so-called "clean" superbomb that
could kill large numbers of soldiers without ejecting radioactive contaminants
over the countryside.

A copy of Edwards' speech onNIAC's Web site emphasizes this advantage of


positron weapons in bright red letters: "No Nuclear Residue."

But talk of "clean" superbombs worries critics. " 'Clean' nuclear weapons are
more dangerous than dirty ones because they are more likely to be used," said
an e-mail from science historian George Dyson of the Institute for Advanced
Study in Princeton, N.J., author of "Project Orion," a 2002 study on a Cold War-
era attempt to design a nuclear spaceship. Still, Dyson adds, antimatter
weapons are "a long, long way off."

Why so far off? One reason is that at present, there's no fast way to mass
produce large amounts of antimatter from particle accelerators. With present
techniques, the price tag for 100-billionths of a gram of antimatter would be $6
billion, according to an estimate by scientists at NASA's Marshall Space Flight
Center and elsewhere, who hope to launch antimatter-fueled spaceships.

Another problem is the terribly unruly behavior of positrons whenever physicists


try to corral them into a special container. Inside these containers, known as
Penning traps, magnetic fields prevent the antiparticles from contacting the
material wall of the container -- lest they annihilate on contact. Unfortunately,
because like-charged particles repel each other, the positrons push each other
apart and quickly squirt out of the trap.

If positrons can't be stored for long periods, they're as useless to the military as
an armored personnel carrier without a gas tank. So Edwards is funding
investigations of ways to make positrons last longer in storage.

Edwards' point man in that effort is Gerald Smith, former chairman of physics
and Antimatter Project leader at Pennsylvania State University. Smith now
operates a small firm, Positronics Research LLC, in Santa Fe, N.M. So far, the
Air Force has given Smith and his colleagues $3.7 million for positron research,
Smith told The Chronicle in August.

Smith is looking to store positrons in a quasi-stable form called positronium. A


positronium "atom" (as physicists dub it) consists of an electron and
antielectron, orbiting each other. Normally these two particles would quickly
collide and self-annihilate within a fraction of a second -- but by manipulating
electrical and magnetic fields in their vicinity, Smith hopes to make positronium
atoms last much longer.

Smith's storage effort is the "world's first attempt to store large quantities of
positronium atoms in a laboratory experiment," Edwards noted in his March
speech. "If successful, this approach will open the door to storing militarily
significant quantities of positronium atoms."
Officials at Eglin Air Force Base initially agreed enthusiastically to try to arrange
an interview with Edwards. "We're all very excited about this technology,"
spokesman Rex Swenson at Eglin's Munitions Directorate told The Chronicle in
late July. But Swenson backed out in August after he was overruled by higher
officials in the Air Force and Pentagon.

Reached by phone in late September, Edwards repeatedly declined to be


interviewed. His superiors gave him "strict instructions not to give any interviews
personally. I'm sorry about that -- this (antimatter) project is sort of my
grandchild. ...

"(But) I agree with them (that) we're just not at the point where we need to be
doing any public interviews."

Air Force spokesman Douglas Karas at the Pentagon also declined to comment
last week.

In the meantime, the Air Force has been investigating the possibility of making
use of a powerful positron-generating accelerator under development at
Washington State University in Pullman, Wash. One goal: to see if positrons
generated by the accelerator can be stored for long periods inside a new type of
"antimatter trap" proposed by scientists, including Washington State physicist
Kelvin Lynn, head of the school's Center for Materials Research.

A new generation of military explosives is worth developing, and antimatter


might fill the bill, Lynn told The Chronicle: "If we spend another $10 billion (using
ordinary chemical techniques), we're going to get better high explosives, but the
gains are incremental because we're getting near the theoretical limits of
chemical energy."

Besides, Lynn is enthusiastic about antimatter because he believes it could


propel futuristic space rockets.

"I think," he said, "we need to get off this planet, because I'm afraid we're going
to destroy it."
Brief History of the
Universe
The Planck time: 10-
43 seconds. After this
time gravity can be
considered to be a
classical background
in which particles
and fields evolve
following quantum
mechanics. A region
about 10-33 cm
across is
homogeneous and
isotropic, The
temperature is
T=1032K.
Inflation begins. In
Linde's chaotic
inflation model
inflation starts at the
Planck time,
although it could
start when the
temperature falls to
point at which the
symmetry of Grand
Unified Theory
(GUT) is
spontaneously broken. This occurs when the temperature is around 1027
to 1028K at 10-35 seconds after the Big Bang.
Inflation ends. The time is 10-33 seconds, the temperature is again 1027 to
1028K as the vacuum energy density that drove inflation is converted into
heat. At the end of inflation the expansion rate is so fast that the apparent
age of the Universe [1/H] is only 10-35 seconds. Because of inflation, the
homogeneous regions from the Planck time are at least 100 cm across, a
growth by a factor greater than 1035 since the Planck time. However,
quantum fluctuations during inflation also create a pattern of low
amplitude inhomogeneities with a random pattern having equal power on
all scales.
Baryogenesis: a small difference between the reaction rates for matter and
antimatter leads to a mix with about 100,000,001 protons for every
100,000,000 antiprotons (and 100,000,000 photons).
Universe grows and cools until 0.0001 seconds after the Big Bang with
temperature about T=1013 K. Antiprotons annihilate with protons leaving
only matter, but with a very large number of photons per surviving proton
and neutron.
Universe grows and cools until 1 second after the Big Bang, with
temperature T=1010 K. The weak interaction freezes out with a
proton/neutron ratio of about 6. The homogeneous patch is now at least
1019.5 cm across.
Universe grows and cools until 100 seconds after the Big Bang. The
temperature is 1 billion degrees, 109 K. Electrons and positrons annihilate
to make more photons, while protons and neutrons combine to make
deuterons. Almost all of the deuterons combine to make helium. The final
result is about 3/4 hydrogen, 1/4 helium by mass; deuteron/proton ratio
30 parts per million. There are about 2 billion photons per proton or
neutron.
One month after the Big Bang the processes that convert the radiation
field to a blackbody spectrum become slower than the expansion of the
Universe, so the spectrum of the Cosmic Microwave Background (CMB)
preserves information back to this time.
Matter density equals radiation density 56,000 years after the Big Bang.
The temperature is 9000 K. Dark matter inhomogeneities can start to
collapse.
Protons and electrons combine to form neutral hydrogen. Universe
becomes transparent. Temperature is T=3000 K, time is 380,000 years after
the Big Bang. Ordinary matter can now fall into the dark matter clumps.
The CMB travels freely from this time until now, so the CMB anisotropy
gives a picture of the Universe at this time.
The first stars form 100-200 million years after the Big Bang, and reionize
the Universe.
The first supernovae explode and spread carbon, nitrogen, oxygen,
silicon, magnesium, iron, and so on up through uranium throughout the
Universe.
Galaxies form as many clumps of dark matter, stars and gas merge
together.
Clusters of galaxies form.
The Solar System and Sun form 4.6 billion years ago.
Now: The time is 13.7 Gyr after the Big Bang, and the temperature is
T=2.725 K. The homogeneous patch is at least 1029 cm across, which is
larger than observable Universe.

Humorous Outside Links:

In 200 words or less.


Ridiculously Short

Tutorial: Part 1 | Part 2 | Part 3 | Part 4


FAQ | Age | Distances | Bibliography | Relativity

© 2000-2004 Edward L. Wright. Last modified 15 July 2004

Potrebbero piacerti anche