Sei sulla pagina 1di 47

Mecánica cuántica

Ir a la navegaciónIr a la búsqueda

Funciones de onda del electrón en un átomo de hidrógeno a diferentes niveles de energía. La mecánica
cuántica no puede predecir la ubicación exacta de una partícula en el espacio, solo la probabilidad de
encontrarla en diferentes lugares. Las áreas más brillantes representan una mayor probabilidad de
encontrar el electrón.

Esquema de una función de onda monoelectrónica u orbital en tres dimensiones.

Esquema de un orbital en dos dimensiones.

La mecánica cuántica es la rama de la física que estudia la naturaleza a escalas espaciales


pequeñas, los sistemas atómicos y subatómicos y sus interacciones con la radiación
electromagnética, en términos de cantidades observables. Se basa en la observación de que
todas las formas de energía se liberan en unidades discretas o paquetes llamados cuantos.
Sorprendentemente, la teoría cuántica solo permite normalmente
cálculos probabilísticos o estadísticos de las características observadas de las partículas
elementales, entendidos en términos de funciones de onda. La ecuación de
Schrödinger desempeña el papel en la mecánica cuántica que las leyes de Newton y
la conservación de la energía hacen en la mecánica clásica. Es decir, la predicción del
comportamiento futuro de un sistema dinámico y es una ecuación de onda en términos de
una función de onda la que predice analíticamente la probabilidad precisa de los eventos o
resultados.
En teorías anteriores de la física clásica, la energía era tratada únicamente como un fenómeno
continuo, en tanto que la materia se supone que ocupa una región muy concreta del espacio y
que se mueve de manera continua. Según la teoría cuántica, la energía se emite y se absorbe
en cantidades discretas y minúsculas. Un paquete individual de energía, llamado cuanto, en
algunas situaciones se comporta como una partícula de materia. Por otro lado, se encontró
que las partículas exponen algunas propiedades ondulatorias cuando están en movimiento y
ya no son vistas como localizadas en una región determinada, sino más bien extendidas en
cierta medida. La luz u otra radiación emitida o absorbida por un átomo solo tiene
ciertas frecuencias (o longitudes de onda), como puede verse en la línea del
espectro asociado al elemento químico representado por tal átomo. La teoría cuántica
demuestra que tales frecuencias corresponden a niveles definidos de los cuantos de luz,
o fotones, y es el resultado del hecho de que los electrones del átomo solo pueden tener
ciertos valores de energía permitidos. Cuando un electrón pasa de un nivel permitido a otro,
una cantidad de energía es emitida o absorbida, cuya frecuencia es directamente proporcional
a la diferencia de energía entre los dos niveles.
La mecánica cuántica surge tímidamente en los inicios del siglo XX dentro de las tradiciones
más profundas de la física para dar una solución a problemas para los que las teorías
conocidas hasta el momento habían agotado su capacidad de explicar, como la
llamada catástrofe ultravioleta en la radiación de cuerpo negro predicha por la física
estadística clásica y la inestabilidad de los átomos en el modelo atómico de Rutherford. La
primera propuesta de un principio propiamente cuántico se debe a Max Planck en 1900, para
resolver el problema de la radiación de cuerpo negro, que fue duramente cuestionado, hasta
que Albert Einstein lo convierte en el principio que exitosamente pueda explicar el efecto
fotoeléctrico. Las primeras formulaciones matemáticas completas de la mecánica cuántica no
se alcanzan hasta mediados de la década de 1920, sin que hasta el día de hoy se tenga una
interpretación coherente de la teoría, en particular del problema de la medición.
El formalismo de la mecánica cuántica se desarrolló durante la década de 1920. En
1924, Louis de Broglie propuso que, al igual que las ondas de luz presentan propiedades de
partículas, como ocurre en el efecto fotoeléctrico, las partículas, a su vez, también presentan
propiedades ondulatorias. Dos formulaciones diferentes de la mecánica cuántica se
presentaron después de la sugerencia de Broglie. En 1926, la mecánica ondulatoria de Erwin
Schrödinger implica la utilización de una entidad matemática, la función de onda, que está
relacionada con la probabilidad de encontrar una partícula en un punto dado en el espacio. En
1925, la mecánica matricial de Werner Heisenberg no hace mención alguna de las funciones
de onda o conceptos similares, pero ha demostrado ser matemáticamente equivalente a la
teoría de Schrödinger. Un descubrimiento importante de la teoría cuántica es el principio de
incertidumbre, enunciado por Heisenberg en 1927, que pone un límite teórico absoluto en la
precisión de ciertas mediciones. Como resultado de ello, la asunción clásica de los científicos
de que el estado físico de un sistema podría medirse exactamente y utilizarse para predecir
los estados futuros tuvo que ser abandonada. Esto supuso una revolución filosófica y dio pie a
numerosas discusiones entre los más grandes físicos de la época.
La mecánica cuántica propiamente dicha no incorpora a la relatividad en su formulación
matemática. La parte de la mecánica cuántica que incorpora elementos relativistas de manera
formal para abordar diversos problemas se conoce como mecánica cuántica relativista o ya,
en forma más correcta y acabada, teoría cuántica de campos (que incluye a su vez a
la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo
estándar)1 y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La
única interacción elemental que no se ha podido cuantizar hasta el momento ha sido
la interacción gravitatoria. Este problema constituye entonces uno de los mayores desafíos de
la física del siglo XXI. La mecánica cuántica se combinó con la teoría de la relatividad en la
formulación de Paul Dirac de 1928, lo que, además, predijo la existencia de antipartículas.
Otros desarrollos de la teoría incluyen la estadística cuántica, presentada en una forma por
Einstein y Bose (la estadística de Bose-Einstein) y en otra forma por Dirac y Enrico
Fermi (la estadística de Fermi-Dirac); la electrodinámica cuántica, interesada en la interacción
entre partículas cargadas y los campos electromagnéticos, su generalización, la teoría
cuántica de campos y la electrónica cuántica.
La mecánica cuántica proporciona el fundamento de la fenomenología del átomo, de
su núcleo y de las partículas elementales (lo cual requiere necesariamente el enfoque
relativista). También su impacto en teoría de la información, criptografía y química ha sido
decisivo entre esta misma.

Índice

 1Contexto histórico
o 1.1Radiación electromagnética
o 1.2Inestabilidad de los átomos clásicos
o 1.3Desarrollo histórico
o 1.4Suposiciones más importantes
 2Descripción de la teoría
o 2.1Interpretación de Copenhague
o 2.2Formulación matemática
 3Relatividad y la mecánica cuántica
 4Véase también
 5Referencias
o 5.1Notas
o 5.2Bibliografía
 6Enlaces externos

Contexto histórico[editar]
La mecánica cuántica es, cronológicamente hablando, la última de las grandes ramas de
la física. Se formuló a principios del siglo XX, casi al mismo tiempo que la teoría de la
relatividad, aunque el grueso de la mecánica cuántica se desarrolló a partir de 1920 (siendo la
teoría de la relatividad especial de 1905 y la teoría general de la relatividad de 1915).
Además al advenimiento de la mecánica cuántica existían diversos problemas no resueltos en
la electrodinámica clásica. El primero de estos problemas era la emisión de radiación de
cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración
microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica
clásica, la energía que emitía esta radiación térmica tendía al infinito, si se suman todas las
frecuencias que emitía el objeto, con ilógico resultado para los físicos. También la estabilidad
de los átomos no podía ser explicada por el electromagnetismo clásico, y la noción de que el
electrón fuera o bien una partícula clásica puntual o bien una cáscara esférica de dimensiones
finitas resultaban igualmente problemáticas para esto.
Radiación electromagnética[editar]
El problema de la radiación electromagnética de un cuerpo negro fue uno de los primeros
problemas resueltos en el seno de la mecánica cuántica. Es en el seno de la mecánica
estadística donde surgen por primera vez las ideas cuánticas en 1900. Al físico alemán Max
Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral
de esas frecuencias por una suma no continua (discreta), se dejaba de obtener infinito como
resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con
lo que después era medido.
Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía
cuantizados introduciendo una constante estadística, que se denominó constante de Planck.
Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno
fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la
Sociedad Física de la Academia de Ciencias de Berlín.2
La idea de Planck habría permanecido muchos años solo como hipótesis sin verificar por
completo si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas
circunstancias, se comporta como partículas de energía (los cuantos de luz o fotones) en su
explicación del efecto fotoeléctrico. Fue Albert Einstein quien completó en 1905 las
correspondientes leyes del movimiento su teoría especial de la relatividad, demostrando que
el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha
dado en llamar física clásica, es decir, la física no-cuántica.
Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto
fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de
1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico,
es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad
la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada
partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa,
y a su velocidad. Así quedaba establecida la dualidad onda/materia. Poco tiempo
después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia»,
cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.
La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta
como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por
primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado
las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las
probabilidades.
Inestabilidad de los átomos clásicos[editar]
El segundo problema importante que la mecánica cuántica resolvió a través del modelo de
Bohr, fue el de la estabilidad de los átomos. De acuerdo con la teoría clásica un electrón
orbitando alrededor de un núcleo cargado positivamente debería emitir energía
electromagnética perdiendo así velocidad hasta caer sobre el núcleo. La evidencia empírica
era que esto no sucedía, y sería la mecánica cuántica la que resolvería este hecho primero
mediante postulados ad hoc formulados por Bohr y más tarde mediante modelos como
el modelo atómico de Schrödinger basados en supuestos más generales. A continuación se
explica el fracaso del modelo clásico.
En mecánica clásica, un átomo de hidrógeno es un tipo de problema de los dos cuerpos en
que el protón sería el primer cuerpo que tiene más del 99% de la masa del sistema y el
electrón es el segundo cuerpo que es mucho más ligero. Para resolver el problema de los dos
cuerpos es conveniente hacer la descripción del sistema, colocando el origen del sistema de
referencia en el centro de masa de la partícula de mayor masa, esta descripción es correcta
considerando como masa de la otra partícula la masa reducida que viene dada por

Siendo la masa del protón y la masa del electrón. En ese caso el problema del
átomo de hidrógeno parece admitir una solución simple en la que el electrón se moviera en
órbitas elípticas alrededor del núcleo atómico. Sin embargo, existe un problema con la
solución clásica, de acuerdo con las predicciones de electromagnetismo partícula eléctrica que
sigue un movimiento acelerado, como sucedería al describir una elipse debería emitir
radiación electromagnética, y por tanto perder energía cinética, la cantidad de energía radiada
sería de hecho:

Ese proceso acabaría con el colapso del átomo sobre el núcleo en un tiempo muy corto dadas
las grandes aceleraciones existentes. A partir de los datos de la ecuación anterior el tiempo de
colapso sería de 10-8 s, es decir, de acuerdo con la física clásica los átomos de hidrógeno no
serían estables y no podrían existir más de una cienmillonésima de segundo.
Esa incompatibilidad entre las predicciones del modelo clásico y la realidad observada llevó a
buscar un modelo que explicara fenomenológicamente el átomo. El modelo atómico de Bohr
era un modelo fenomenológico y provisorio que explicaba satisfactoriamente aunque de
manera heurística algunos datos, como el orden de magnitud del radio atómico y los espectros
de absorción del átomo, pero no explicaba cómo era posible que el electrón no emitiera
radiación perdiendo energía. La búsqueda de un modelo más adecuado llevó a la formulación
del modelo atómico de Schrödinger en el cual puede probarse que el valor esperado de la
aceleración es nulo, y sobre esa base puede decirse que la energía electromagnética emitida
debería ser también nula. Sin embargo, al contrario del modelo de Bohr, la representación
cuántica de Schrödinger es difícil de entender en términos intuitivos.
Desarrollo histórico[editar]
Artículo principal: Historia de la mecánica cuántica

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del
siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por
hechos experimentales como los siguientes, inexplicables con las herramientas teóricas
anteriores de la mecánica clásica o la electrodinámica:
Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía definidos y
discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de momento
angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura corresponden a
densidades elevadas de probabilidad de encontrar el electrón en dicha posición.

 Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de
la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más
que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más
pequeños entre los valores discretos son llamados quanta (singular: quantum, de la
palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). La magnitud de
un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10 -34 julios por
segundo.
 Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o
los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo
otras condiciones, las mismas especies de objetos exhiben un comportamiento
corpuscular, de partícula, («partícula» quiere decir un objeto que puede ser localizado en
una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se
conoce como dualidad onda-partícula.
 Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas,
en una amplitud prohibida para cualquier teoría clásica, solo pueden ser descritos con
precisión si se hace referencia a ambos a la vez. Este fenómeno es
llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la
correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron
algunas de las mayores comprobaciones de la mecánica cuántica.
 Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa
"misteriosa" necesidad de cuantizar la energía.
 Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría
están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada
como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de
la materia condensada, la química cuántica y la física de partículas.
La región de origen de la mecánica cuántica puede localizarse en la Europa central,
en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.
Suposiciones más importantes[editar]
Artículo principal: Interpretaciones de la mecánica cuántica

Las suposiciones más importantes de esta teoría son las siguientes:

 Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al


concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una
partícula puede ser explicado por una función matemática que asigna, a cada punto del
espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal
posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más
usual, la probabilista o interpretación de Copenhague). A partir de esa función, o función
de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.
 Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del
sistema o función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin
embargo, si se realiza una medida sobre el sistema, este sufre un «salto cuántico» hacia
un estado compatible con los valores de la medida obtenida (formalmente el nuevo estado
será una proyección ortogonal del estado original).
 Existen diferencias notorias entre los estados ligados y los que no lo están.
 La energía no se intercambia de forma continua en un estado ligado, sino en forma
discreta lo cual implica la existencia de paquetes mínimos de energía llamados cuantos,
mientras en los estados no ligados la energía se comporta como un continuo.

Descripción de la teoría[editar]
Interpretación de Copenhague[editar]
Artículo principal: Interpretación de Copenhague

Para describir la teoría de forma general es necesario un tratamiento matemático riguroso,


pero aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la
Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado
instantáneo de un sistema (estado cuántico) con una función de onda que codifica
la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos
observables posibles sobre un sistema dado son la energía, posición, momento y momento
angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace
predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la
materia son explicadas por la interferencia de las funciones de onda.
Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución
es determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución
es estocástica y se produce mediante colapso de la función de onda cuando se realiza una
medida sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin
interferencia en el espacio vacío puede ser descrita mediante una función de onda que es
un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el
centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar
localizada más precisamente en otro lugar. La evolución temporal determinista de las
funciones de onda es descrita por la ecuación de Schrödinger.
Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que
son constantes en el tiempo, estos estados se llaman estacionarios, son estados
propios del operador hamiltoniano y tienen energía bien definida. Muchos sistemas que eran
tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda
estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una
partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de
probabilidad estática que rodea al núcleo.
Cuando se realiza una medición en un observable del sistema, la función de ondas se
convierte en una del conjunto de las funciones llamadas funciones propias o estados propios
del observable en cuestión. Este proceso es conocido como colapso de la función de onda.
Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles son
descritas por la función de onda instantánea justo antes de la reducción. Considerando el
ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá
un valor impredecible x. En general, es imposible predecir con precisión qué valor de x se
obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas,
donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la
función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno
a la posición observada x.
La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función
de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué
función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual
colapsa la función es probabilista y en este aspecto es no determinista. Así que la naturaleza
probabilista de la mecánica cuántica nace del acto de la medida.
Formulación matemática[editar]
Artículos principales: Postulados de la mecánica cuántica y Notación braket.

En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados
posibles de un sistema cuántico están representados por vectores unitarios
(llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado
el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del
sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el

espacio de funciones de cuadrado integrable , mientras que la descripción de un sistema

sin traslación pero con un espín es el espacio . La evolución temporal de un estado


cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el operador
correspondiente a la energía total del sistema, tiene un papel central.
Cada magnitud observable queda representada por un operador lineal hermítico definido
sobre un dominio denso del espacio de estados. Cada estado propio de
un observable corresponde a un eigenvector del operador, y el valor propio o eigenvalor
asociado corresponde al valor del observable en aquel estado propio. El espectro de un
operador puede ser continuo o discreto. La medida de un observable representado por un
operador con espectro discreto solo puede tomar un conjunto numerable de posibles valores,
mientras que los operadores con espectro continuo presentan medidas posibles en intervalos
reales completos. Durante una medida, la probabilidad de que un sistema colapse a uno de
los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el
estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector
estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad
de un observable en un estado dado computando la descomposición espectral del operador
correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración
de que los operadores correspondientes a ciertos observables no conmutan.

Relatividad y la mecánica cuántica[editar]


Artículos principales: Teoría cuántica de campos y Segunda cuantización.

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad


general y la mecánica cuántica, aunque ambas teorías usan principios aparentemente
incompatibles. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del
quántum están apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se
resisten a ser incorporadas dentro de un mismo modelo coherente. Desde mediados del
siglo XX, aparecieron teorías cuánticas relativistas del campo electromagnético
(electrodinámica cuántica) y las fuerzas nucleares (modelo electrodébil, cromodinámica
cuántica), pero no se tiene una teoría cuántica relativista del campo gravitatorio que sea
plenamente consistente y válida para campos gravitatorios intensos (existen aproximaciones
en espacios asintóticamente planos). Todas las teorías cuánticas relativistas consistentes
usan los métodos de la teoría cuántica de campos.
En su forma ordinaria, la teoría cuántica abandona algunos de los supuestos básicos de
la teoría de la relatividad, como por ejemplo el principio de localidad usado en la descripción
relativista de la causalidad. El mismo Einstein había considerado absurda la violación del
principio de localidad a la que parecía abocar la mecánica cuántica. La postura de Einstein fue
postular que la mecánica cuántica si bien era consistente era incompleta. Para justificar su
argumento y su rechazo a la falta de localidad y la falta de determinismo, Einstein y varios de
sus colaboradores postularon la llamada paradoja de Einstein-Podolsky-Rosen (EPR), la cual
demuestra que medir el estado de una partícula puede instantáneamente cambiar el estado de
su socio enlazado, aunque las dos partículas pueden estar a una distancia arbitrariamente
grande. Modernamente el paradójico resultado de la paradoja EPR se sabe es una
consecuencia perfectamente consistente del llamado entrelazamiento cuántico. Es un hecho
conocido que si bien la existencia del entrelazamiento cuántico efectivamente viola el principio
de localidad, en cambio no viola la causalidad definido en términos de información, puesto que
no hay transferencia posible de información. Si bien en su tiempo, parecía que la paradoja
EPR suponía una dificultad empírica para mecánica cuántica, y Einstein consideró que la
mecánica cuántica en la interpretación de Copenhague podría ser descartada por
experimento, décadas más tarde los experimentos de Alain Aspect (1981) revelaron que
efectivamente la evidencia experimental parece apuntar en contra del principio de localidad. 3 Y
por tanto, el resultado paradójico que Einstein rechazaba como «sin sentido» parece ser lo
que sucede precisamente en el mundo real.

Véase también[editar]

 Portal:Física. Contenido relacionado con Física.


 Interpretaciones de la Mecánica cuántica
 Computación cuántica
 Cuanto
 Ecuación de Schrödinger
 Efecto túnel
 Energía del punto cero
 Entrelazamiento cuántico
 Espuma cuántica
 Fotón
 Gravedad cuántica
 Movimiento ondulatorio
 Onda
 Principio de exclusión
 Principio de incertidumbre
 Principio de complementariedad
 Química cuántica
 Relación de indeterminación de Heisenberg
 Segunda cuantización
 Síntesis granular
 Teoría de la relatividad
 Mecánica cuántica supersimétrica
Personalidades

 Niels Bohr
 Max Born
 Louis de Broglie
 George Gamow
 Werner Heisenberg
 Wolfgang Pauli
 Max Planck
 Erwin Schrödinger

Referencias[editar]
Notas[editar]

1. ↑ Halzen, Francis; Martin, Alan Douglas (1984). Universidad de Wisconsin, ed. Quarks and
Lepons: An Introducory Course in Modern Particle Physics. Universidad de Durham. Canadá: Wiley.
pp. 396. ISBN 9780471887416.
2. ↑ Vitaliĭ Isaakovich Rydnik (1987). Qué es la mecánica cuántica. Ediciones Quinto Sol. ISBN
37693524.
3. ↑ Aspect, Alain; Grangier, Philippe; Roger, Gérard (17 de agosto de 1981). «Experimental Tests
of Realistic Local Theories via Bell's Theorem». Physical Review Letters (en inglés) 47 (7): 460-
463. ISSN 0031-9007. doi:10.1103/PhysRevLett.47.460. Consultado el 7 de abril de 2019.

Bibliografía[editar]

 Andrade e Silva, J.; Lochak, Georges (1969). Los cuantos. Ediciones


Guadarrama. ISBN 978-84-250-3040-6.
 Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo XX" Cuadernos
de Historia Contemporánea, nº 27, 2005, INSS 0214-400-X
 Otero Carvajal, Luis Enrique: "La teoría cuántica y la discontinuidad en la física", Umbral,
Facultad de Estudios Generales de la Universidad de Puerto Rico, recinto de Río Piedras
 de la Peña, Luis (2006). Introducción a la mecánica cuántica (3 edición). México DF:
Fondo de Cultura Económica. ISBN 968-16-7856-7.
 Galindo, A. y Pascual P.: Mecánica cuántica, Ed. Eudema, Barcelona, 1989, ISBN 84-
7754-042-X.

La mecánica cuántica es la parte de la física que estudia el movimiento de las


partículas muy pequeñas o microobjetos. Los fundamentos de la mecánica cuántica
fueron establecidos en 1924 por Louis de Broglie, quien descubrió la naturaleza
corpuscular-ondulatoria de los objetos físicos. El concepto de partícula "muy pequeña"
atiende al tamaño en el cual comienzan a notarse efectos como la imposibilidad de
conocer con exactitud infinita y a la vez la posición y la velocidad de una partícula,
entre otros. A tales efectos suele denominárseles "efectos cuánticos". Así, la
Mecánica cuántica es la que rige el movimiento de sistemas en los cuales los efectos
cuánticos sean relevantes.

Sumario
[ocultar]

 1 La mecánica cuántica en las ciencias


 2 Introducción
o 2.1 Desarrollo histórico
 3 Espectro de radiación del cuerpo negro
o 3.1 El efecto fotoeléctrico
 4 Experimento de Young
 5 El átomo de Bohr
 6 Principio de complementariedad
 7 Dualidad onda-partícula
 8 El principio de incertidumbre
 9 Entrelazamiento
 10 La antimateria
 11 Interpretaciones
o 11.1 La interpretación de Copenhague
o 11.2 Otra interpretación: los múltiples mundos
o 11.3 Paradoja del gato de Schrödinger
o 11.4 Suposiciones más importantes
 12 Referencias
 13 Enlaces externos
 14 Fuentes

La mecánica cuántica en las ciencias


En Física, la mecánica cuántica (conocida originalmente como mecánica
ondulatoria)[1][2] es una de las ramas principales de la física, y uno de los más grandes
avances del siglo veinte para el conocimiento humano, que explica el comportamiento
de la materia y de la energía. Su aplicación ha hecho posible el descubrimiento y
desarrollo de muchas tecnologías, como por ejemplo los transistores que se usan más
que nada en la computación. La mecánica cuántica describe en su visión más
ortodoxa, cómo cualquier sistema físico, y por lo tanto todo el Universo, existe en una
diversa y variada multiplicidad de estados los cuales, habiendo sido organizados
matemáticamente por los físicos, son denominados autoestados de vector y valor
propio. De esta forma la mecánica cuántica explica y revela la existencia del Átomo y
los misterios de la Estructura atómica; lo que por otra parte, la Física clásica, y más
propiamente todavía la mecánica clásica, no podía explicar debidamente. De forma
específica, se considera también mecánica cuántica, a la parte de ella misma que no
incorpora la relatividad en su formalismo, tan sólo como añadido mediante teoría de
perturbaciones. La parte de la mecánica cuántica que sí incorpora elementos
relativistas de manera formal y con diversos problemas, es la Mecánica cuántica
relativista o ya, de forma más exacta y potente, la Teoría cuántica de campos (que
incluye a su vez a la Electrodinámica cuántica, Cromodinámica cuántica y Teoría
electrodébil dentro del Modelo estándar) y más generalmente, la Teoría cuántica de
campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar
ha sido la Interacción gravitatoria.

La mecánica cuántica es la base de los estudios del Átomo, los núcleos y


las Partículas elementales (siendo ya necesario el tratamiento relativista), pero
también en Teoría de la información, criptografía y Química.

Introducción
La mecánica cuántica es la última de las grandes ramas de la Física. Comienza a
principios del siglo XX, en el momento en que dos de las teorías que intentaban
explicar lo que nos rodea, la Ley de gravitación universal y la Teoría electromagnética
clásica, se volvían insuficientes para explicar ciertos fenómenos. La teoría
electromagnética generaba un problema cuando intentaba explicar la emisión de
radiación de cualquier objeto en equilibrio, llamada Radiación térmica, que es la que
proviene de la vibración microscópica de las partículas que lo componen. Pues bien,
usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta
radiación térmica dabaInfinito si se suman todas las frecuencias que emitía el objeto,
con ilógico resultado para los físicos.

Es en el seno de la Mecánica estadística donde nacen las ideas cuánticas en 1900. Al


físico Max Planck se le ocurrió un truco matemático: que si en el proceso aritmético se
sustituía la integral de esas frecuencias por una suma no continua se dejaba de
obtener un infinito como resultado, con lo que eliminaba el problema y, además, el
resultado obtenido concordaba con lo que después era medido. Fue Max Planck quien
entonces enunció la hipótesis de que la radiación electromagnética es absorbida y
emitida por la materia en forma de Cuantos de luz o Fotones de energía mediante
una constante estadística, que se denominó Constante de Planck. Su historia es
inherente al Siglo XX, ya que la primera formulación cuántica de un fenómeno fue
dada a conocer el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la
Academia de Ciencias de Berlín por el científico alemán Max Planck.

La idea de Planck hubiera quedado muchos años sólo como hipótesis si Albert
Einstein no la hubiera retomado, proponiendo que la Luz, en ciertas circunstancias, se
comporta como partículas de energía independientes (los cuantos de luz o fotones).
Fue Albert Einstein quién completó en 1905 las correspondientes leyes de movimiento
con lo que se conoce como Teoría especial de la relatividad, demostrando que el
electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que
se ha dado en llamar Física clásica, es decir, la física no-cuántica. Usó este punto de
vista llamado por él “heurístico”, para desarrollar su teoría del efecto fotoeléctrico,
publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de 1921. Esta
hipótesis fue aplicada también para proponer una teoría sobre el Calor específico, es
decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una
unidad la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis de Broglie propuso que
cada partícula material tiene una Longitud de onda asociada, inversamente
proporcional a su masa, (a la que llamó Momentum), y dada por su Velocidad. Poco
tiempo después Erwin Schrödinger formuló una Ecuación de movimiento para las
"ondas de materia", cuya existencia había propuesto de Broglie y varios experimentos
sugerían eran reales.

La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían


en los paradigmas físicos anteriores; con ella se descubre que el mundo atómico no
se comporta como esperaríamos. Los conceptos
de incertidumbre, Indeterminación o Cuantización son introducidos por primera vez
aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las
predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a
las probabilidades.

Desarrollo histórico
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad
del Siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de
relieve por hechos experimentales como los siguientes, inexplicables con las
herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:

 Espectro de la radiación del Cuerpo negro, resuelto por Max Planck con la
cuantización de la energía. La energía total del cuerpo negro resultó que tomaba
valores discretos más que continuos. Este fenómeno se llamó cuantización, y los
intervalos posibles más pequeños entre los valores discretos son
llamados quanta (singular: quantum, de la palabra latina para "cantidad", de ahí el
nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado
constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.
 Bajo ciertas condiciones experimentales, los objetos microscópicos como
los Átomos o los electrones exhiben un comportamiento ondulatorio, como en
la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben
un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto
que puede ser localizado en una región concreta del espacio), como en
la Dispersión de partículas. Este fenómeno se conoce como Dualidad onda-
partícula.
 Las propiedades físicas de objetos con historias relacionadas pueden ser
correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una
amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos
a la vez. Este fenómeno es llamado Entrelazamiento cuántico y la Desigualdad de
Bell describe su diferencia con la correlación ordinaria. Las medidas de las
violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la
mecánica cuántica.
 Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a
aparecer esa "misteriosa" necesidad de cuantizar la energía.
 Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la
teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido
también adoptada como la teoría subyacente a muchos campos de la física y la
química, incluyendo la Física de la materia condensada, la Química cuántica y
la Física de partículas.

La región de origen de la mecánica cuántica puede localizarse en la Europa central,


en Alemania y Austria, y en el contexto histórico del primer tercio del Siglo XX.

Espectro de radiación del cuerpo negro


Cuando se estudia la radiación electromagnética producida por un cuerpo caliente
común, se deben tener en cuenta los “errores introducidos” por la energía que éste
refleja. Los físicos, a finales del siglo XIX, querían estudiar de qué forma era el
espectro de radiación de un cuerpo que no reflejase energía; así pues, optaron por un
cuerpo negro, que en teoría es capaz de absorber toda la energía suministrada.

Teóricamente un cuerpo con estas características, al calentarlo, emite luz (radiación


electromagnética); esta luz aumenta poco a poco su longitud de onda a medida que el
cuerpo se va haciendo más caliente, hasta el punto de llegar al espectro visible. Se
disponía pues de dos leyes para predecir el comportamiento de un cuerpo en estas
condiciones:

la primera es la ley de Stefan, la cual postula que el poder emisor de un cuerpo negro
(la potencia, o lo que es igual: la cantidad de energía por segundo) es proporcional a
la cuarta potencia de la temperatura; La segunda es la ley de Wien-Golitzin, la cual
postula que al elevarse la temperatura del cuerpo negro, la longitud de onda
correspondiente al máximo del espectro va haciéndose más pequeña, desplazándose
hasta el violeta.

Con la primera ley no hay problema; pero la observaciones no concordaban con la


segunda, pues a medida que la temperatura aumentaba, el máximo correspondiente a
la longitud de onda se hacía azul y no violeta. Así pues, se trataron de unificar estas
dos leyes y “repararlas”, este trabajo fue conseguido por los físicos Rayleigh y Jeans,
pero esta nueva ley unificada tan sólo podía explicar la curva del espectro en los
intervalos del amarillo y el naranja, pues para el violeta, el ultravioleta y longitudes
más cortas predecía que la intensidad de la radiación crecía ilimitadamente, lo cual
era absurdo. La física clásica entró en crisis.

Max Planck era uno de lo físicos que estaba tratando de explicar la curva del espectro
obtenido. Aquél, a diferencia de otros colegas, optó por tratar de obtener la ecuación
matemática de la curva experimental, y como un golpe de suerte la consiguió. Ahora
planck tenía la ecuación que generaba la curva, pero éste se encontró en un callejón
sin salida cuando trató de deducirla de las leyes de la termodinámica. Luego de
agotadores días de trabajo, planck llegó a la conclusión de que con las leyes de la
física clásica no era posible deducir la curva; sólo es posible si se asume que la
energía no es emitida como un continuo sino como un conjunto de paquetes, a los
que planck llamó cuantos. Estos paquetes no pueden tener energías arbitrarias, sólo
pueden tener múltiplos enteros de una constante (constante de planck); además, la
energía radiada por un oscilador depende de su frecuencia de oscilación (no de la
amplitud). La hipótesis cuántica de planck se resume en la siguiente ecuación:

E=hf donde h es la constante de planck que vale 6,55*10^-34 j.s , y f es la frecuencia

Así pues, nace la teoría cuántica y caen dos supuestos clásicos : la energía no
depende de la amplitud sino de la frecuencia, y la energía no se radia como un
continuo sino como un conjunto de paquetes discretos. Planck, luego de su hipótesis
cuántica, no fue tomado muy en serio, pues ni él mismo era capaz de explicar algunas
implicaciones que esta hipótesis conllevaba. Sólo fue hasta que Einstein logró
aplicarla que todo empezó a tornarse más claro.

El efecto fotoeléctrico
Hacia 1899, el físico Lenard demostró que los rayos catódicos(electrones) pueden
producirse mediante la iluminación de una superficie metálica dispuesta en el vacío, y
descubrió algunos hechos interesantes: La cantidad de electrones desprendidos del
metal depende de la intensidad; la velocidad de los electrones desprendidos no
depende de la intensidad sino de la frecuencia del haz; y para cada metal existe un
valor mínimo de frecuencia por debajo del cual no hay emisión de electrones. Este
fenómeno no había podido ser explicado hasta la fecha; sólo un loco como Einstein,
con su gran imaginación, era capaz de revivir la teoría corpuscular de la luz
(de Newton) cuando se daba por hecho su naturaleza ondulatoria.

Einstein aplicó la hipótesis cuántica de planck para explicar el fenómeno de


desprendimiento de electrones por un haz de luz (conocido como efecto fotoeléctrico);
según Einstein, no era posible dar una explicación a este fenómeno si se asumía la
luz como una onda, había que darle pues una naturaleza corpuscular; a estos
corpúsculos Einstein los llamo fotones, y explicó con ellos los fenómenos detectados
por Lenard:

Los electrones de los átomos del metal sólo pueden absorber ciertos valores de
energía, múltiplos de un valor fundamental hf, es decir: la energía que absorben los
electrones debe estar cuantificada. Por esta razón, la luz debe venir en paquetes que
los electrones puedan absorber, y por esta razón, también, es que los metales no
emiten electrones por debajo de un cierto valor de frecuencia, pues a los electrones
sólo les “gustan” paquetes específicos. Como la energía es proporcional a la
frecuencia (E=hf) y no a la intensidad, es por esta razón que las frecuencias más altas
arrancan los electrones más veloces. Y debido a que mientras mayor sea la
intensidad hay más fotones “golpeando” electrones, la cantidad de estos que se
emiten depende de aquella. Einstein recibió el premio Nobel en 1921 por este trabajo.
Ecuación del efecto fotoeléctrico:

Ec=h.f-w

Ec: energía cinética del electrón desprendido; f: frecuencia; h: cte planck; w:(función
de trabajo)energía mínima requerida por un electrón para ser desprendido.
Funbral= w/h

F: frecuencia mínima para desprender el electrón

Los valores F y w dependen del metal.

Experimento de Young
El experimento de Young, también denominado experimento de la doble rendija, fue
realizado en 1801 por Thomas Young y es un experimento hipotético, que explica el
comportamiento de algunas partículas ante la medición o sola observación sobre la
misma. El experimento postula básicamente que una partícula (que es materia [muy
diminuta]) puede poseer caracteres de onda y de partícula simultáneamente, e invertir
completamente su comportamiento ante la medición de un observador.
Todo comienza en un laboratorio cotidiano en el que se hayan una dispositivo que
dispara materia (en este caso supongamos que son bolas de billar) contra una lámina
de de hierro que mide y señala los lugares de impacto de las bolas de billar, pero
entre el dispositivo que dispara materia y la lámina que señala los impactos hay otra
lámina con una sola rendija (abertura) vertical por la que algunas bolas de billar y
otras golpearan con la parte sólida de la lámina y no lograran golpear con la lámina
que mide los impactos. Entonces cuando se dispara materia cotidiana por una rendija
en la lámina de medición de impactos queda una franja vertical de impactos, como era
de esperar. Luego en lugar de lanzar materia por la rendija se hace una onda que va a
viajar por el agua, va a pasar por la rendija y va a marcar dos franjas verticales, esa
es la diferencia de una onda y materia a escala cotidiana, al igual de que si lanzaba
materia cotidiana por dos rendijas crearía dos franjas y di se generaran ondas que
pasan por dos rendijas se crearía un patrón de muchas franjas de impacto de las
crestas de las ondas o en otros términos: un patrón de interferencia, eso no es muy
dificil.

Ahora llevemos ese experimento a escala subatómica, o sease, escala cuántica, allí
en lugar de lanzar bolas de billar lanzaremos partículas subatómicas, lanzaremos
electrones a través de dos rendijas, y la sorpresa llega allí, cuándo los electrones que
son materia se comportan de una manera rara, pues los electrones al atravesar las
dos rendijas crea un patrón de interferencia al igual que como una onda lo haría. Para
saber que sucedió allí se coloca un dispositivo de observación para ver que sucedió
en el momento de que el electrón atraviesa las rendijas, entonces allí sucede los lo
más extraño, la lámina de medición marca dos franjas de impactos, tal como la
materia cotidiana, ¿que sucedió allí? fácil, los electrones cumplieron con la ley más
básica de la mecánica cuántica, al notar el dispositivo le estaba midiendo, el electrón
cambió su comportamiento cuántico y empezó a comportarse como materia ordinaria.
En resumen lo que demostró el experimento de Young fue que a escala cuántica la
materia puede comportarse como materia y como onda simultáneamente, eso es un
claro ejemplo de dualidad de onda-partícula, y no solo es un experimento hipotético,
partículas que poseen dualidad de onda-partícula son los fotones más conocidos
como las partículas lumínicas.

El átomo de Bohr
Hacia 1911, por medio de un experimento de dispersión de partículas en metales,
Rutherford descubrió que el átomo contenía una estructura interna, y que no era como
la “sandía” que Thomson había propuesto. Según Rutherford, el átomo estaba
compuesto por un núcleo cargado positivamente, y un exterior compuesto por
electrones (negativos); la suma de las cargas de los electrones era igual a la carga del
núcleo (y se conseguía la neutralidad del átomo).

Para que los electrones no cayeran al núcleo debido a la fuerza eléctrica, era
necesario que éstos giraran, y así su fuerza centrífuga fuera igual a la fuerza de
atracción eléctrica, para evitar el colapso del átomo; pero este movimiento por ser
curvado generaba una aceleración, y según la teoría de Maxwell éstos deberían emitir
radiación, lo que generaba que perdieran energía, y por ende se precipitaran en
espiral hacia el núcleo. Así pues, con las teorías y las leyes de que se disponía no era
posible explicar la estabilidad del átomo, como también el fenómeno de las líneas
espectrales “perfectas” de una sustancia pura. Niels Bohr, en 1913, introdujo un nuevo
modelo atómico, el cual combinaba tanto ideas clásicas como cuánticas; su trabajo se
basó, generalmente, en introducir la constante de Planck al modelo matemático que
representaba al átomo. Asumiendo el átomo como un sistema solar en miniatura, las
ideas de Bohr fueron: Las órbitas de los electrones en el interior del átomo no son
todas estables; de aquí se sigue que el electrón sólo puede estar en órbitas definidas
(a determinadas distancias del átomo). Esto debido a que cada órbita representa un
nivel de energía para el electrón, pero el electrón no puede tomar cualquier valor de
energía, sólo hf ; siendo el nivel uno correspondiente al valor de energía uno, el nivel
dos al dos....Los niveles aumentan de adentro hacia afuera; al nivel uno se le llama
estado fundamental, y el electrón no puede bajar de este estado, pues no hay órbitas
mas bajas que uno (los valores son enteros positivos).

Cuando el electrón se encuentra en una órbita estable, éste no emite energía, sólo
emite o absorbe energía cuando salta de una órbita a otra. Como el electrón no puede
emitir valores arbitrarios y continuos de energía en una órbita estable, no se cumple la
predicción electromagnética, el electrón sólo emite valores enteros de energía; esta
emisión cuantificada sólo se da cuando el electrón salta de una órbita o nivel de
energía mayor a uno menor, la emisión es un fotón, exactamente con la energía que
el electrón necesito para pasar de un estado menor a uno mayor; también se da el
caso contrario: para hacer subir a un electrón de órbita o nivel, se necesita
exactamente la energía de diferencia entre las dos órbitas o niveles, y el electrón
permanece allí durante un tiempo (se dice: exitado) hasta que cae otra vez a la órbita
o nivel original, y devuelve la misma energía que le fue suministrada en un comienzo
(es devuelta en forma de un fotón).

Mediante estas ideas, Bohr explicó las líneas aparecidas en el espectro del átomo
más sencillo, el hidrógeno; estas líneas eran muy bien definidas, y esto debido a que
los electrones al ser excitados (con la energía exacta), saltaban a órbitas mayores que
luego abandonaban, devolviendo la energía en forma de fotones con frecuencias muy
específicas; estos fotones componían las líneas espectrales. Para cada elemento las
líneas eran distintas, pues lo átomos también lo eran.

Esta interpretación, aunque errónea (pues luego fue tumbada por la mecánica
ondulatoria) , fue capaz de dar una explicación satisfactoria, bonita y acorde con lo
observado con relación a los espectros atómicos y a la paradoja del “átomo de
emisión continua”.

La verdadera importancia de esta explicación, es que todos los científicos de la época


se estaban convenciendo de que la teoría cuántica (o mecánica cuántica), era una
potente y única herramienta para explicar el mundo de lo muy pequeño: el mundo de
lo atómico.

Principio de complementariedad
Aunque Einstein ya estaba convencido de la existencia de los fotones, se necesitaba
la prueba experimental que corroborara esta teoría. Compton desde 1913, venía
trabajando con rayos x y su interacción con los electrones; aquél había descubierto
que cuando un fotón golpea a un electrón, éste gana momento y energía hf, pero el
fotón que ha entregado parte de su energía, disminuye su frecuencia (este fenómeno
es conocido como dispersión o efecto Compton).

Para poder lograr una descripción de este fenómeno, Compton tuvo que asumir que
los rayos x eran fotones muy energéticos (corroborando la teoría de Einstein), pero
para dar una descripción completa de este fenómeno no sólo bastaba con introducir la
teoría corpuscular de la luz, sino también la ondulatoria. Resultaban pues, dos teorías
de la luz: la ondulatoria y la corpuscular, ambas correctas. Esta dualidad onda-
partícula de la luz fue a lo que Bohr llamó “principio de complementariedad”, y se basa
en que las teorías corpuscular y ondulatoria de la luz no se excluyen sino que se
complementan, para así lograr una correcta descripción de la realidad. La luz es pues
onda y partículas.

Dualidad onda-partícula
El descubrimiento de la dualidad de la luz dejó inquieto a Louis de Broglie, un físico de
la época, que se preguntó: “si la luz también se comporta como partículas ¿por qué no
se deberían comportar los electrones también como ondas?” A los electrones sólo se
les puede asociar números enteros de órbitas y energías, y esto es algo propio en los
fenómenos de vibración en ondas. De Broglie le dio una estructura matemática a su
hipótesis asociándole una longitud de onda a los electrones o cualquier cuerpo
material:

λ = h/mv

mv: masa y velocidad del cuerpo; h: constante de Planck

Así pues, si los electrones tenían propiedades ondulatorias, deberían presentar


fenómenos de difracción. La longitud de onda asociada al electrón es de unos 10^-
7cm; para difractarlo se necesita que éste pase por un espacio del orden de esta
longitud. Hacia 1922 y 1923 los físicos Clinton Dawisson y Charles Kunsman habían
estudiado el comportamiento de los electrones al ser dispersados por cristales; de
Broglie, al enterarse, los disuadió para que realizaran el experimento, y en 1925 se
publicaron los resultados que corroboraban la teoría de de Broglie. Pero el mundo
científico era muy escéptico, más aún cuando se trataba de la teoría de un joven de
21 años.

Sólo fue hasta que Erwin Schrödinger formuló una teoría atómica con las ideas de de
Broglie, que los físicos empezaron a revaluar las ideas sobre el electrón.
En 1927 fueron publicados los resultados de nuevos experimentos, y fue comprobada
la hipótesis de de Broglie.

El total desprendimiento con la física clásica, fue cuando se comprobó que no sólo los
electrones y los fotones tienen esta dualidad onda-partícula sino también todas las
demás partículas existentes.

Un macro cuerpo también tiene estas propiedades, pero su longitud de onda es tan
ínfima que no puede detectarse. De Broglie, no interpretó muy bien este resultado,
pues según él el electrón era como un bote viajando por una ola. Luego Max Born y
[[[Heisemberg]]explicaron esta propiedad ondulatoria como la probabilidad de
encontrar al electrón en un punto dado.

El principio de incertidumbre
Supongamos que queremos conocer la velocidad y la posición de una partícula, para
lo cual es necesario una fuente de luz cuya longitud de onda sea igual o menor al
tamaño de dicha partícula; luz con esta característica son los rayos gamma. Así pues,
disparamos una haz de rayos gamma hacia la partícula, este rayo gamma va a
“rebotar” (dispersarse) en la partícula (este rayo dispersado va hacia un detector para
conocer algo sobre esa partícula), pero por efecto Compton este fotón gamma va a
suministrar energía a la partícula y por ende, ésta se va a “perder” pues se le ha dado
un golpe muy fuerte; así pues, vamos a tener algo de certeza sobre la velocidad pero
casi ninguna sobre su posición. Ahora bien, supongamos que la partícula está en
reposo (velocidad 0),si se sigue el mismo procedimiento anterior, cuando el fotón
golpee a la partícula, ésta, de nuevo va ha perderse y no podremos saber algo sobre
su posición. Werner Heisemberg, un precoz físico de la época y uno de los grandes
estructuradores de la mecánica cuántica (desarrollo el método matricial de ésta),
dedujo de las ecuaciones de la mecánica cuántica la conocida relación de
incertidumbre en 1927, que en honor a Heisemberg fue llamado el principio de
incertidumbre de Heisemberg. Las dos relaciones son:

Δp.Δx ≥ h

Δp: incertidumbre (Inexactitud) sobre el momento; Δx: incertidumbre (inexactitud)


sobre la posición h: constante de planck

ΔE.Δt ≥ h

ΔE: incertidumbre (inexactitud) sobre la energía; Δt: incertidumbre (inexactitud) sobre


el tiempo; h: constante de planck

Así pues, mientras con más precisión se quiera saber la velocidad (o momento) de un
cuerpo, más es la incertidumbre que se tiene sobre su posición. Así mismo, mientras
con más precisión se quiera saber la energía de un cuerpo más incertidumbre se
tendrá sobre la medida del tiempo.

El principio de incertidumbre es uno de los peldaños más estables e importantes de la


mecánica cuántica. Hay que aclarar que la incertidumbre no se condiciona al aparato
de medida, la incertidumbre es una propiedad intrínseca en la naturaleza.

Entrelazamiento
Dos o más partículas pueden estar entrelazadas de tal manera que en el momento
que estas partículas se entrelazan, estas dejan de ser dos partículas para empezar a
ser un sistema de partículas entrelazadas analíticamente. El accionar de ese sistema
de partículas es instantáneo, eso quiere decir que el comportamiento de una partícula
de ese sistema repercute instantáneamente en el resto de las partículas
entrelazadas, por ejemplo: una de las partículas de ese sistema realiza una suerte de
spin hacia la derecha e instantanea e independientemente de la ubicacion y la
distancia de ambas la otra particula hará el mismo spin pero hacia la izquierda.

La antimateria
Paul Dirac, un físico de la época (Dirac fue a la mecánica cuántica como Newton fue a
la física clásica), trató de obtener una versión relativista de la mecánica cuántica.
Según la ecuación de Einstein para la energía de una partícula de masa m y momento
p se tiene:

E²=m²c^2 + p²c² y esta formula se reduce a E=mc² cuando el momento es cero.

Pero al calcular esta energía se obtiene el resultado de una raíz, es decir: se obtienen
valores -mc² y +mc². Dirac no se detuvo aquí. Cuando se obtienen los niveles de
energía de la versión relativista de la mecánica cuántica resultan conjuntos positivos y
negativos; el mayor nivel negativo es menor al menor nivel positivo; según la teoría
atómica, el electrón debe caer al nivel más bajo ¿por qué entonces no caían todos los
electrones al nivel negativo? porque ya estaban llenos. Si ya había electrones allí ¿por
qué no suministrarles la energía necesaria para que saltaran a un nivel positivo?

Para que un electrón salte de un peldaño -mc² a uno +mc² se necesita energía 2mc²,
que para el electrón es aproximadamente 1 Mev (la energía de un rayo gamma
aprox). El electrón creado es común y corriente, pero habrá dejado un hueco en el
conjunto negativo; un hueco como estos deberá comportarse como una partícula
cargada positivamente y con la misma masa del electrón. Dirac afirmo erróneamente
que esta partícula era el protón a finales de los años 20. Pero un científico llamado
Carl Anderson descubrió por accidente, en un experimento de rayos cósmicos, una
partícula con la misma masa del electrón pero de carga positiva. Esta partícula fue
llamada positrón.

Luego se fueron descubriendo más antipartículas asociadas a partículas específicas,


lo cual llegó a la conclusión que toda partícula creada genera una antipartícula
(cualquier partícula tiene asociada una antipartícula).
Interpretaciones
La interpretación de Copenhague

Representación del campo magnético terrestre y el viento solar

Para muchos físicos de la época el principio de incertidumbre fue una habitación


oscura en la cual no se podía caminar con seguridad; sin embargo para unos cuantos,
fue la pieza que faltaba para que todo el sistema fuera completo y coherente. Bohr fue
uno de estos hombres, y en 1927 en una conferencia en Italia presentó la idea de
complementariedad, y lo que es conocido como interpretación de Copenhague.

Bohr señaló que mientras en la física clásica un sistema puede considerarse como un
mecanismo de relojería, en mecánica cuántica el observador interactúa con el
sistema, haciendo que el último pueda considerarse como algo no independiente: si
se realiza un experimento para medir la posición de una partícula se la obliga a que
halla incertidumbre en su velocidad, y si lo que se obtiene no es la posición sino su
velocidad, se la obliga a que halla incertidumbre en su posición, luego el observador
hace parte del experimento y la mera detección lo modifica todo; el primero de estos
experimentos muestra las propiedades corpusculares del sistema, mientras que el
segundo muestra las propiedades ondulatorias del mismo; así pues, nunca, mediante
un experimento podrán conocerse las propiedades corpusculares y ondulatorias de un
sistema a la vez (se dice que la relatividad es una teoría clásica puesto que permite
conocer posición y velocidad en el espacio-tiempo a la vez).

Toda la información sobre el sistema la proporciona el experimento, y como el


observador ha intervenido en éste, no puede decirse algo sobre el comportamiento de
este sistema cuando no se lo observa, sólo pueden obtenerse las probabilidades de
que un suceso se dé; por ejemplo, los saltos cuánticos en el átomo son una
interpretación de por qué se obtienen dos resultados diferentes del mismo
experimento, no pude saberse que hay entre salto y salto; No se tiene ni idea de lo
que hace una partícula cuando no se la observa, entonces podría decirse que no
existe mientras no se la observe; el núcleo atómico no existe, no existen las
partículas: “nada es real”.

Richard Feynman, uno de los desarrolladores de la electrodinámica cuántica,


presentó, por medio de un experimento imaginario, algunas implicaciones a las que se
llegaría con la interpretación de Bohr:

si realizáramos el experimento de la rendija, con el que Yuog demostró las


propiedades ondulatorias de la luz, usando partículas, los patrones de interferencia
nos llevarían a deducir las propiedades ondulatorias de éstas. Cuando se trata de una
onda, como una ola por ejemplo, esta onda pasa por los dos agujeros de difracción,
pero si hablamos de partículas como electrones o fotones ¿cuál partícula pasa por
cuál agujero? Imaginemos un montaje en el que se tiene la rejilla de difracción, un
detector de partículas (de electrones por ejemplo) y un cañón de partículas.

Asumamos electrones: el cañón se pone en funcionamiento, los electrones pasan a


través de la rejilla y producen patrones de interferencia; Ahora bien, si reducimos la
cantidad de electrones disparados por segundo de forma que sólo uno pase por la
rejilla, este electrón produce patrones de interferencia, pero ¿por dónde pasó el
electrón? ¿por cuál de los dos agujeros? Si tapamos uno de los dos agujeros el
electrón no produce interferencia, y si colocáramos un detector en los agujeros para
saber por dónde pasa el electrón tampoco se obtendría la interferencia (ocurriría lo
mismo si no es uno sino varios los electrones); entonces ¿sabe el electrón desde un
principio que están intentando detectarlo? “Sí”. Bien, entonces engañemos al electrón
¿cómo? Cuando sea disparado tapemos un agujero. Aún así, el electrón no produce
interferencia ¿Qué está pasando entonces?

Cuando tratamos de detectar el electrón estamos interviniendo en él buscando saber


su posición, lo que significa que este electrón muestre propiedades corpusculares (y
halla incertidumbre en su velocidad), se “materialice” y no halla interferencia; tapar un
agujero o saber por dónde pasa el electrón es tener certidumbre sobre su posición. Si
dejamos que el electrón “continúe en paz” su camino, como no sabemos algo de su
posición, éste se comporta como una onda produce interferencia. Es como si el
electrón se “enterara de todo”. En probabilidades esto significa: hay dos agujeros, en
cada uno hay probabilidades de que el electrón pase, estas probabilidades generan la
interferencia; Si se tapara un agujero o si se detectara el electrón, las probabilidades
se reducirían a un sólo agujero y ya no habría interferencia, esto equivale a decir: al
dejar el cañón, el electrón se divide en muchos electrones llamados electrones
fantasmas, estos muchos electrones producen la interferencia, pero si se detecta la
posición del sistema, los electrones fantasmas se materializan en un solo electrón
rompiendo la interferencia y produciendo lo que se llama colapso de función de onda,
es decir: ya no hay onda. También, si el electrón deja de observarse, se desdobla en
fantasmas de nuevo.

Aquí se entiende mejor por qué la onda asociada a un cuerpo material es la


probabilidad de encontrarlo en un sitio dado: pues si es la probabilidad de encontrarlo,
no se conoce su posición, y si no se conoce su posición presenta propiedades
ondulatorias.

Otra interpretación: los múltiples mundos


Bohr también dio una interpretación al experimento de la rendija:

Supóngase una partícula la cual tiene dos posibilidades: pasar por el agujero A o por
el B, estos agujeros pueden interpretarse como dos mundos; por un mundo la
partícula pasa por el agujero A, y por el otro mundo por el B. Nuestro mundo no es
alguno de estos dos mundos, sino una “mezcla híbrida” de los dos que genera la
interferencia. Pero cuando detectamos por donde pasa el electrón todo se reduce a un
sólo mundo: el mundo en donde la partícula pasó por ese agujero, y ya no hay
interferencia.

A cada partícula se le puede asociar dos mundos en este caso, pero ¿Cuántas
partículas hay en el universo?

Paradoja del gato de Schrödinger


Hacia 1935, Schödinger publicó una paradoja calificada por Einstein como la forma
más bonita de mostrar el carácter de incertidumbre en la mecánica cuántica, su
carácter incompleto (Einstein nunca aceptó la incertidumbre como una propiedad
intrínseca de la naturaleza).

Los fenómenos radiactivos son completamente aleatorios, y sólo pueden expresarse


en términos de probabilidades. Supóngase que se tiene una caja en la cual se ha
metido un gato, una botella con cianuro, un material radiactivo y un detector de
partículas; el experimento está diseñado de forma tal de que el detector esté
conectado a la botella, para que cuando reciba radiación del material rompa la botella
y mate al gato. Todo el sistema, se monta de forma de que halla un 50% de
posibilidad que un núcleo atómico se desintegre; la caja se cierra. No es posible saber
si el gato está vivo o no; la única manera de saberlo es si se abre la caja y se observa
al gato, pues, como se dijo, la desintegración radiactiva es aleatoria, y para el
experimento hay tantas posibilidades de que el gato muera como de que viva.

Así pues, puede interpretarse esto como si el gato tuviera tantas probabilidades de
vivir como de morir, esto genera una interferencia, que se rompe cuando se abre la
caja (colapso de onda) y las probabilidades se reducen a una. Desde el punto de vista
de los otros mundos, existen dos mundos: uno donde el gato está vivo y otro donde
está muerto. Pero se está en un mundo híbrido donde el gato está vivo y muerto, esto
genera la interferencia; cuando se abre la caja ya sólo se opta por un mundo, o donde
el gato vive o donde muere, y se rompe la interferencia.

Suposiciones más importantes


Las suposiciones más importantes de esta teoría son las siguientes:

 Al ser imposible fijar a la vez la posición y el momento de una partícula, se


renuncia al concepto de Trayectoria, vital en Mecánica clásica. En vez de eso, el
movimiento de una partícula queda regido por una función matemática que asigna,
a cada punto del espacio y a cada instante, la Probabilidad de que la partícula
descrita se halle en tal posición en ese instante (al menos, en la interpretación de
la Mecánica cuántica más usual, la probabilística o Interpretación de
Copenhague). A partir de esa función, o Función de ondas, se extraen
teóricamente todas las magnitudes del movimiento necesarias.

 Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del
sistema o Función de onda evolucionan de acuerdo con la Ecuación de
Schrödinger, sin embargo, si se realiza una medida sobre el sistema, éste sufre
un "salto cuántico" hacia un estado compatible con los valores de la medida
obtenida (formalmente el nuevo estado será una Proyección ortogonal del estado
original).
 Existen diferencias perceptibles entre los estados ligados y los que no lo están.

 La Energía no se intercambia de forma continua en un estado ligado, sino en


forma discreta lo cual implica la existencia de paquetes mínimos de energía
llamados cuantos, mientras en los estados no ligados la energía se comporta
como un continuo.

Referencias
1. Volver arriba↑ De Broglie (1926): Ondes et mouvements, París, Gauthier-Villars
2. Volver arriba↑ Schrödinger, [Quantisierung als Eigenwertproblem (Erste
Mitteilung.)], Ann. Phys., 79, p. 361-376, (1926)1924 & 1926

Mecánica cuántica
Ir a la navegaciónIr a la búsqueda

Funciones de onda del electrón en un átomo de hidrógeno a diferentes niveles de energía. La mecánica
cuántica no puede predecir la ubicación exacta de una partícula en el espacio, solo la probabilidad de
encontrarla en diferentes lugares. Las áreas más brillantes representan una mayor probabilidad de
encontrar el electrón.

Esquema de una función de onda monoelectrónica u orbital en tres dimensiones.


Esquema de un orbital en dos dimensiones.

La mecánica cuántica es la rama de la física que estudia la naturaleza a escalas espaciales


pequeñas, los sistemas atómicos y subatómicos y sus interacciones con la radiación
electromagnética, en términos de cantidades observables. Se basa en la observación de que
todas las formas de energía se liberan en unidades discretas o paquetes llamados cuantos.
Sorprendentemente, la teoría cuántica solo permite normalmente
cálculos probabilísticos o estadísticos de las características observadas de las partículas
elementales, entendidos en términos de funciones de onda. La ecuación de
Schrödinger desempeña el papel en la mecánica cuántica que las leyes de Newton y
la conservación de la energía hacen en la mecánica clásica. Es decir, la predicción del
comportamiento futuro de un sistema dinámico y es una ecuación de onda en términos de
una función de onda la que predice analíticamente la probabilidad precisa de los eventos o
resultados.
En teorías anteriores de la física clásica, la energía era tratada únicamente como un fenómeno
continuo, en tanto que la materia se supone que ocupa una región muy concreta del espacio y
que se mueve de manera continua. Según la teoría cuántica, la energía se emite y se absorbe
en cantidades discretas y minúsculas. Un paquete individual de energía, llamado cuanto, en
algunas situaciones se comporta como una partícula de materia. Por otro lado, se encontró
que las partículas exponen algunas propiedades ondulatorias cuando están en movimiento y
ya no son vistas como localizadas en una región determinada, sino más bien extendidas en
cierta medida. La luz u otra radiación emitida o absorbida por un átomo solo tiene
ciertas frecuencias (o longitudes de onda), como puede verse en la línea del
espectro asociado al elemento químico representado por tal átomo. La teoría cuántica
demuestra que tales frecuencias corresponden a niveles definidos de los cuantos de luz,
o fotones, y es el resultado del hecho de que los electrones del átomo solo pueden tener
ciertos valores de energía permitidos. Cuando un electrón pasa de un nivel permitido a otro,
una cantidad de energía es emitida o absorbida, cuya frecuencia es directamente proporcional
a la diferencia de energía entre los dos niveles.
La mecánica cuántica surge tímidamente en los inicios del siglo XX dentro de las tradiciones
más profundas de la física para dar una solución a problemas para los que las teorías
conocidas hasta el momento habían agotado su capacidad de explicar, como la
llamada catástrofe ultravioleta en la radiación de cuerpo negro predicha por la física
estadística clásica y la inestabilidad de los átomos en el modelo atómico de Rutherford. La
primera propuesta de un principio propiamente cuántico se debe a Max Planck en 1900, para
resolver el problema de la radiación de cuerpo negro, que fue duramente cuestionado, hasta
que Albert Einstein lo convierte en el principio que exitosamente pueda explicar el efecto
fotoeléctrico. Las primeras formulaciones matemáticas completas de la mecánica cuántica no
se alcanzan hasta mediados de la década de 1920, sin que hasta el día de hoy se tenga una
interpretación coherente de la teoría, en particular del problema de la medición.
El formalismo de la mecánica cuántica se desarrolló durante la década de 1920. En
1924, Louis de Broglie propuso que, al igual que las ondas de luz presentan propiedades de
partículas, como ocurre en el efecto fotoeléctrico, las partículas, a su vez, también presentan
propiedades ondulatorias. Dos formulaciones diferentes de la mecánica cuántica se
presentaron después de la sugerencia de Broglie. En 1926, la mecánica ondulatoria de Erwin
Schrödinger implica la utilización de una entidad matemática, la función de onda, que está
relacionada con la probabilidad de encontrar una partícula en un punto dado en el espacio. En
1925, la mecánica matricial de Werner Heisenberg no hace mención alguna de las funciones
de onda o conceptos similares, pero ha demostrado ser matemáticamente equivalente a la
teoría de Schrödinger. Un descubrimiento importante de la teoría cuántica es el principio de
incertidumbre, enunciado por Heisenberg en 1927, que pone un límite teórico absoluto en la
precisión de ciertas mediciones. Como resultado de ello, la asunción clásica de los científicos
de que el estado físico de un sistema podría medirse exactamente y utilizarse para predecir
los estados futuros tuvo que ser abandonada. Esto supuso una revolución filosófica y dio pie a
numerosas discusiones entre los más grandes físicos de la época.
La mecánica cuántica propiamente dicha no incorpora a la relatividad en su formulación
matemática. La parte de la mecánica cuántica que incorpora elementos relativistas de manera
formal para abordar diversos problemas se conoce como mecánica cuántica relativista o ya,
en forma más correcta y acabada, teoría cuántica de campos (que incluye a su vez a
la electrodinámica cuántica, cromodinámica cuántica y teoría electrodébil dentro del modelo
estándar)1 y más generalmente, la teoría cuántica de campos en espacio-tiempo curvo. La
única interacción elemental que no se ha podido cuantizar hasta el momento ha sido
la interacción gravitatoria. Este problema constituye entonces uno de los mayores desafíos de
la física del siglo XXI. La mecánica cuántica se combinó con la teoría de la relatividad en la
formulación de Paul Dirac de 1928, lo que, además, predijo la existencia de antipartículas.
Otros desarrollos de la teoría incluyen la estadística cuántica, presentada en una forma por
Einstein y Bose (la estadística de Bose-Einstein) y en otra forma por Dirac y Enrico
Fermi (la estadística de Fermi-Dirac); la electrodinámica cuántica, interesada en la interacción
entre partículas cargadas y los campos electromagnéticos, su generalización, la teoría
cuántica de campos y la electrónica cuántica.
La mecánica cuántica proporciona el fundamento de la fenomenología del átomo, de
su núcleo y de las partículas elementales (lo cual requiere necesariamente el enfoque
relativista). También su impacto en teoría de la información, criptografía y química ha sido
decisivo entre esta misma.

Índice

 1Contexto histórico
o 1.1Radiación electromagnética
o 1.2Inestabilidad de los átomos clásicos
o 1.3Desarrollo histórico
o 1.4Suposiciones más importantes
 2Descripción de la teoría
o 2.1Interpretación de Copenhague
o 2.2Formulación matemática
 3Relatividad y la mecánica cuántica
 4Véase también
 5Referencias
o 5.1Notas
o 5.2Bibliografía
 6Enlaces externos

Contexto histórico[editar]
La mecánica cuántica es, cronológicamente hablando, la última de las grandes ramas de
la física. Se formuló a principios del siglo XX, casi al mismo tiempo que la teoría de la
relatividad, aunque el grueso de la mecánica cuántica se desarrolló a partir de 1920 (siendo la
teoría de la relatividad especial de 1905 y la teoría general de la relatividad de 1915).
Además al advenimiento de la mecánica cuántica existían diversos problemas no resueltos en
la electrodinámica clásica. El primero de estos problemas era la emisión de radiación de
cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración
microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica
clásica, la energía que emitía esta radiación térmica tendía al infinito, si se suman todas las
frecuencias que emitía el objeto, con ilógico resultado para los físicos. También la estabilidad
de los átomos no podía ser explicada por el electromagnetismo clásico, y la noción de que el
electrón fuera o bien una partícula clásica puntual o bien una cáscara esférica de dimensiones
finitas resultaban igualmente problemáticas para esto.
Radiación electromagnética[editar]
El problema de la radiación electromagnética de un cuerpo negro fue uno de los primeros
problemas resueltos en el seno de la mecánica cuántica. Es en el seno de la mecánica
estadística donde surgen por primera vez las ideas cuánticas en 1900. Al físico alemán Max
Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral
de esas frecuencias por una suma no continua (discreta), se dejaba de obtener infinito como
resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con
lo que después era medido.
Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía
cuantizados introduciendo una constante estadística, que se denominó constante de Planck.
Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno
fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la
Sociedad Física de la Academia de Ciencias de Berlín.2
La idea de Planck habría permanecido muchos años solo como hipótesis sin verificar por
completo si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas
circunstancias, se comporta como partículas de energía (los cuantos de luz o fotones) en su
explicación del efecto fotoeléctrico. Fue Albert Einstein quien completó en 1905 las
correspondientes leyes del movimiento su teoría especial de la relatividad, demostrando que
el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha
dado en llamar física clásica, es decir, la física no-cuántica.
Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto
fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de
1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico,
es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad
la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada
partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa,
y a su velocidad. Así quedaba establecida la dualidad onda/materia. Poco tiempo
después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia»,
cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.
La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta
como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por
primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado
las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las
probabilidades.
Inestabilidad de los átomos clásicos[editar]
El segundo problema importante que la mecánica cuántica resolvió a través del modelo de
Bohr, fue el de la estabilidad de los átomos. De acuerdo con la teoría clásica un electrón
orbitando alrededor de un núcleo cargado positivamente debería emitir energía
electromagnética perdiendo así velocidad hasta caer sobre el núcleo. La evidencia empírica
era que esto no sucedía, y sería la mecánica cuántica la que resolvería este hecho primero
mediante postulados ad hoc formulados por Bohr y más tarde mediante modelos como
el modelo atómico de Schrödinger basados en supuestos más generales. A continuación se
explica el fracaso del modelo clásico.
En mecánica clásica, un átomo de hidrógeno es un tipo de problema de los dos cuerpos en
que el protón sería el primer cuerpo que tiene más del 99% de la masa del sistema y el
electrón es el segundo cuerpo que es mucho más ligero. Para resolver el problema de los dos
cuerpos es conveniente hacer la descripción del sistema, colocando el origen del sistema de
referencia en el centro de masa de la partícula de mayor masa, esta descripción es correcta
considerando como masa de la otra partícula la masa reducida que viene dada por

Siendo la masa del protón y la masa del electrón. En ese caso el problema del
átomo de hidrógeno parece admitir una solución simple en la que el electrón se moviera en
órbitas elípticas alrededor del núcleo atómico. Sin embargo, existe un problema con la
solución clásica, de acuerdo con las predicciones de electromagnetismo partícula eléctrica que
sigue un movimiento acelerado, como sucedería al describir una elipse debería emitir
radiación electromagnética, y por tanto perder energía cinética, la cantidad de energía radiada
sería de hecho:

Ese proceso acabaría con el colapso del átomo sobre el núcleo en un tiempo muy corto dadas
las grandes aceleraciones existentes. A partir de los datos de la ecuación anterior el tiempo de
colapso sería de 10-8 s, es decir, de acuerdo con la física clásica los átomos de hidrógeno no
serían estables y no podrían existir más de una cienmillonésima de segundo.
Esa incompatibilidad entre las predicciones del modelo clásico y la realidad observada llevó a
buscar un modelo que explicara fenomenológicamente el átomo. El modelo atómico de Bohr
era un modelo fenomenológico y provisorio que explicaba satisfactoriamente aunque de
manera heurística algunos datos, como el orden de magnitud del radio atómico y los espectros
de absorción del átomo, pero no explicaba cómo era posible que el electrón no emitiera
radiación perdiendo energía. La búsqueda de un modelo más adecuado llevó a la formulación
del modelo atómico de Schrödinger en el cual puede probarse que el valor esperado de la
aceleración es nulo, y sobre esa base puede decirse que la energía electromagnética emitida
debería ser también nula. Sin embargo, al contrario del modelo de Bohr, la representación
cuántica de Schrödinger es difícil de entender en términos intuitivos.
Desarrollo histórico[editar]
Artículo principal: Historia de la mecánica cuántica

La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del
siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por
hechos experimentales como los siguientes, inexplicables con las herramientas teóricas
anteriores de la mecánica clásica o la electrodinámica:

Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía definidos y
discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de momento
angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura corresponden a
densidades elevadas de probabilidad de encontrar el electrón en dicha posición.

 Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de
la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más
que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más
pequeños entre los valores discretos son llamados quanta (singular: quantum, de la
palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). La magnitud de
un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10 -34 julios por
segundo.
 Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o
los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo
otras condiciones, las mismas especies de objetos exhiben un comportamiento
corpuscular, de partícula, («partícula» quiere decir un objeto que puede ser localizado en
una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se
conoce como dualidad onda-partícula.
 Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas,
en una amplitud prohibida para cualquier teoría clásica, solo pueden ser descritos con
precisión si se hace referencia a ambos a la vez. Este fenómeno es
llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la
correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron
algunas de las mayores comprobaciones de la mecánica cuántica.
 Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa
"misteriosa" necesidad de cuantizar la energía.
 Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría
están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada
como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de
la materia condensada, la química cuántica y la física de partículas.
La región de origen de la mecánica cuántica puede localizarse en la Europa central,
en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.
Suposiciones más importantes[editar]
Artículo principal: Interpretaciones de la mecánica cuántica

Las suposiciones más importantes de esta teoría son las siguientes:

 Al ser imposible fijar a la vez la posición y el momento de una partícula, se renuncia al


concepto de trayectoria, vital en mecánica clásica. En vez de eso, el movimiento de una
partícula puede ser explicado por una función matemática que asigna, a cada punto del
espacio y a cada instante, la probabilidad de que la partícula descrita se halle en tal
posición en ese instante (al menos, en la interpretación de la Mecánica cuántica más
usual, la probabilista o interpretación de Copenhague). A partir de esa función, o función
de ondas, se extraen teóricamente todas las magnitudes del movimiento necesarias.
 Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del
sistema o función de onda evolucionan de acuerdo con la ecuación de Schrödinger, sin
embargo, si se realiza una medida sobre el sistema, este sufre un «salto cuántico» hacia
un estado compatible con los valores de la medida obtenida (formalmente el nuevo estado
será una proyección ortogonal del estado original).
 Existen diferencias notorias entre los estados ligados y los que no lo están.
 La energía no se intercambia de forma continua en un estado ligado, sino en forma
discreta lo cual implica la existencia de paquetes mínimos de energía llamados cuantos,
mientras en los estados no ligados la energía se comporta como un continuo.

Descripción de la teoría[editar]
Interpretación de Copenhague[editar]
Artículo principal: Interpretación de Copenhague

Para describir la teoría de forma general es necesario un tratamiento matemático riguroso,


pero aceptando una de las tres interpretaciones de la mecánica cuántica (a partir de ahora la
Interpretación de Copenhague), el marco se relaja. La mecánica cuántica describe el estado
instantáneo de un sistema (estado cuántico) con una función de onda que codifica
la distribución de probabilidad de todas las propiedades medibles, u observables. Algunos
observables posibles sobre un sistema dado son la energía, posición, momento y momento
angular. La mecánica cuántica no asigna valores definidos a los observables, sino que hace
predicciones sobre sus distribuciones de probabilidad. Las propiedades ondulatorias de la
materia son explicadas por la interferencia de las funciones de onda.
Estas funciones de onda pueden variar con el transcurso del tiempo. Esta evolución
es determinista si sobre el sistema no se realiza ninguna medida aunque esta evolución
es estocástica y se produce mediante colapso de la función de onda cuando se realiza una
medida sobre el sistema (Postulado IV de la MC). Por ejemplo, una partícula moviéndose sin
interferencia en el espacio vacío puede ser descrita mediante una función de onda que es
un paquete de ondas centrado alrededor de alguna posición media. Según pasa el tiempo, el
centro del paquete puede trasladarse, cambiar, de modo que la partícula parece estar
localizada más precisamente en otro lugar. La evolución temporal determinista de las
funciones de onda es descrita por la ecuación de Schrödinger.
Algunas funciones de onda describen estados físicos con distribuciones de probabilidad que
son constantes en el tiempo, estos estados se llaman estacionarios, son estados
propios del operador hamiltoniano y tienen energía bien definida. Muchos sistemas que eran
tratados dinámicamente en mecánica clásica son descritos mediante tales funciones de onda
estáticas. Por ejemplo, un electrón en un átomo sin excitar se dibuja clásicamente como una
partícula que rodea el núcleo, mientras que en mecánica cuántica es descrito por una nube de
probabilidad estática que rodea al núcleo.
Cuando se realiza una medición en un observable del sistema, la función de ondas se
convierte en una del conjunto de las funciones llamadas funciones propias o estados propios
del observable en cuestión. Este proceso es conocido como colapso de la función de onda.
Las probabilidades relativas de ese colapso sobre alguno de los estados propios posibles son
descritas por la función de onda instantánea justo antes de la reducción. Considerando el
ejemplo anterior sobre la partícula en el vacío, si se mide la posición de la misma, se obtendrá
un valor impredecible x. En general, es imposible predecir con precisión qué valor de x se
obtendrá, aunque es probable que se obtenga uno cercano al centro del paquete de ondas,
donde la amplitud de la función de onda es grande. Después de que se ha hecho la medida, la
función de onda de la partícula colapsa y se reduce a una que esté muy concentrada en torno
a la posición observada x.
La ecuación de Schrödinger es en parte determinista en el sentido de que, dada una función
de onda a un tiempo inicial dado, la ecuación suministra una predicción concreta de qué
función tendremos en cualquier tiempo posterior. Durante una medida, el eigen-estado al cual
colapsa la función es probabilista y en este aspecto es no determinista. Así que la naturaleza
probabilista de la mecánica cuántica nace del acto de la medida.
Formulación matemática[editar]
Artículos principales: Postulados de la mecánica cuántica y Notación braket.

En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados
posibles de un sistema cuántico están representados por vectores unitarios
(llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado
el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del
sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el

espacio de funciones de cuadrado integrable , mientras que la descripción de un sistema

sin traslación pero con un espín es el espacio . La evolución temporal de un estado


cuántico queda descrita por la ecuación de Schrödinger, en la que el hamiltoniano, el operador
correspondiente a la energía total del sistema, tiene un papel central.
Cada magnitud observable queda representada por un operador lineal hermítico definido
sobre un dominio denso del espacio de estados. Cada estado propio de
un observable corresponde a un eigenvector del operador, y el valor propio o eigenvalor
asociado corresponde al valor del observable en aquel estado propio. El espectro de un
operador puede ser continuo o discreto. La medida de un observable representado por un
operador con espectro discreto solo puede tomar un conjunto numerable de posibles valores,
mientras que los operadores con espectro continuo presentan medidas posibles en intervalos
reales completos. Durante una medida, la probabilidad de que un sistema colapse a uno de
los eigenestados viene dada por el cuadrado del valor absoluto del producto interior entre el
estado propio o auto-estado (que podemos conocer teóricamente antes de medir) y el vector
estado del sistema antes de la medida. Podemos así encontrar la distribución de probabilidad
de un observable en un estado dado computando la descomposición espectral del operador
correspondiente. El principio de incertidumbre de Heisenberg se representa por la aseveración
de que los operadores correspondientes a ciertos observables no conmutan.

Relatividad y la mecánica cuántica[editar]


Artículos principales: Teoría cuántica de campos y Segunda cuantización.

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad


general y la mecánica cuántica, aunque ambas teorías usan principios aparentemente
incompatibles. Los postulados que definen la teoría de la relatividad de Einstein y la teoría del
quántum están apoyados por rigurosa y repetida evidencia empírica. Sin embargo, ambas se
resisten a ser incorporadas dentro de un mismo modelo coherente. Desde mediados del
siglo XX, aparecieron teorías cuánticas relativistas del campo electromagnético
(electrodinámica cuántica) y las fuerzas nucleares (modelo electrodébil, cromodinámica
cuántica), pero no se tiene una teoría cuántica relativista del campo gravitatorio que sea
plenamente consistente y válida para campos gravitatorios intensos (existen aproximaciones
en espacios asintóticamente planos). Todas las teorías cuánticas relativistas consistentes
usan los métodos de la teoría cuántica de campos.
En su forma ordinaria, la teoría cuántica abandona algunos de los supuestos básicos de
la teoría de la relatividad, como por ejemplo el principio de localidad usado en la descripción
relativista de la causalidad. El mismo Einstein había considerado absurda la violación del
principio de localidad a la que parecía abocar la mecánica cuántica. La postura de Einstein fue
postular que la mecánica cuántica si bien era consistente era incompleta. Para justificar su
argumento y su rechazo a la falta de localidad y la falta de determinismo, Einstein y varios de
sus colaboradores postularon la llamada paradoja de Einstein-Podolsky-Rosen (EPR), la cual
demuestra que medir el estado de una partícula puede instantáneamente cambiar el estado de
su socio enlazado, aunque las dos partículas pueden estar a una distancia arbitrariamente
grande. Modernamente el paradójico resultado de la paradoja EPR se sabe es una
consecuencia perfectamente consistente del llamado entrelazamiento cuántico. Es un hecho
conocido que si bien la existencia del entrelazamiento cuántico efectivamente viola el principio
de localidad, en cambio no viola la causalidad definido en términos de información, puesto que
no hay transferencia posible de información. Si bien en su tiempo, parecía que la paradoja
EPR suponía una dificultad empírica para mecánica cuántica, y Einstein consideró que la
mecánica cuántica en la interpretación de Copenhague podría ser descartada por
experimento, décadas más tarde los experimentos de Alain Aspect (1981) revelaron que
efectivamente la evidencia experimental parece apuntar en contra del principio de localidad. 3 Y
por tanto, el resultado paradójico que Einstein rechazaba como «sin sentido» parece ser lo
que sucede precisamente en el mundo real.

Véase también[editar]

 Portal:Física. Contenido relacionado con Física.


 Interpretaciones de la Mecánica cuántica
 Computación cuántica
 Cuanto
 Ecuación de Schrödinger
 Efecto túnel
 Energía del punto cero
 Entrelazamiento cuántico
 Espuma cuántica
 Fotón
 Gravedad cuántica
 Movimiento ondulatorio
 Onda
 Principio de exclusión
 Principio de incertidumbre
 Principio de complementariedad
 Química cuántica
 Relación de indeterminación de Heisenberg
 Segunda cuantización
 Síntesis granular
 Teoría de la relatividad
 Mecánica cuántica supersimétrica
Personalidades

 Niels Bohr
 Max Born
 Louis de Broglie
 George Gamow
 Werner Heisenberg
 Wolfgang Pauli
 Max Planck
 Erwin Schrödinger

Referencias[editar]
Notas[editar]

4. ↑ Halzen, Francis; Martin, Alan Douglas (1984). Universidad de Wisconsin, ed. Quarks and
Lepons: An Introducory Course in Modern Particle Physics. Universidad de Durham. Canadá: Wiley.
pp. 396. ISBN 9780471887416.
5. ↑ Vitaliĭ Isaakovich Rydnik (1987). Qué es la mecánica cuántica. Ediciones Quinto Sol. ISBN
37693524.
6. ↑ Aspect, Alain; Grangier, Philippe; Roger, Gérard (17 de agosto de 1981). «Experimental Tests
of Realistic Local Theories via Bell's Theorem». Physical Review Letters (en inglés) 47 (7): 460-
463. ISSN 0031-9007. doi:10.1103/PhysRevLett.47.460. Consultado el 7 de abril de 2019.

Bibliografía[editar]

 Andrade e Silva, J.; Lochak, Georges (1969). Los cuantos. Ediciones


Guadarrama. ISBN 978-84-250-3040-6.
 Otero Carvajal, Luis Enrique: "Einstein y la revolución científica del siglo XX" Cuadernos
de Historia Contemporánea, nº 27, 2005, INSS 0214-400-X
 Otero Carvajal, Luis Enrique: "La teoría cuántica y la discontinuidad en la física", Umbral,
Facultad de Estudios Generales de la Universidad de Puerto Rico, recinto de Río Piedras
 de la Peña, Luis (2006). Introducción a la mecánica cuántica (3 edición). México DF:
Fondo de Cultura Económica. ISBN 968-16-7856-7.
 Galindo, A. y Pascual P.: Mecánica cuántica, Ed. Eudema, Barcelona, 1989, ISBN 84-
7754-042-X.
La mecánica cuántica es la parte de la física que estudia el movimiento de las
partículas muy pequeñas o microobjetos. Los fundamentos de la mecánica cuántica
fueron establecidos en 1924 por Louis de Broglie, quien descubrió la naturaleza
corpuscular-ondulatoria de los objetos físicos. El concepto de partícula "muy pequeña"
atiende al tamaño en el cual comienzan a notarse efectos como la imposibilidad de
conocer con exactitud infinita y a la vez la posición y la velocidad de una partícula,
entre otros. A tales efectos suele denominárseles "efectos cuánticos". Así, la
Mecánica cuántica es la que rige el movimiento de sistemas en los cuales los efectos
cuánticos sean relevantes.

Sumario
[ocultar]

 1 La mecánica cuántica en las ciencias


 2 Introducción
o 2.1 Desarrollo histórico
 3 Espectro de radiación del cuerpo negro
o 3.1 El efecto fotoeléctrico
 4 Experimento de Young
 5 El átomo de Bohr
 6 Principio de complementariedad
 7 Dualidad onda-partícula
 8 El principio de incertidumbre
 9 Entrelazamiento
 10 La antimateria
 11 Interpretaciones
o 11.1 La interpretación de Copenhague
o 11.2 Otra interpretación: los múltiples mundos
o 11.3 Paradoja del gato de Schrödinger
o 11.4 Suposiciones más importantes
 12 Referencias
 13 Enlaces externos
 14 Fuentes

La mecánica cuántica en las ciencias


En Física, la mecánica cuántica (conocida originalmente como mecánica
ondulatoria)[1][2] es una de las ramas principales de la física, y uno de los más grandes
avances del siglo veinte para el conocimiento humano, que explica el comportamiento
de la materia y de la energía. Su aplicación ha hecho posible el descubrimiento y
desarrollo de muchas tecnologías, como por ejemplo los transistores que se usan más
que nada en la computación. La mecánica cuántica describe en su visión más
ortodoxa, cómo cualquier sistema físico, y por lo tanto todo el Universo, existe en una
diversa y variada multiplicidad de estados los cuales, habiendo sido organizados
matemáticamente por los físicos, son denominados autoestados de vector y valor
propio. De esta forma la mecánica cuántica explica y revela la existencia del Átomo y
los misterios de la Estructura atómica; lo que por otra parte, la Física clásica, y más
propiamente todavía la mecánica clásica, no podía explicar debidamente. De forma
específica, se considera también mecánica cuántica, a la parte de ella misma que no
incorpora la relatividad en su formalismo, tan sólo como añadido mediante teoría de
perturbaciones. La parte de la mecánica cuántica que sí incorpora elementos
relativistas de manera formal y con diversos problemas, es la Mecánica cuántica
relativista o ya, de forma más exacta y potente, la Teoría cuántica de campos (que
incluye a su vez a la Electrodinámica cuántica, Cromodinámica cuántica y Teoría
electrodébil dentro del Modelo estándar) y más generalmente, la Teoría cuántica de
campos en espacio-tiempo curvo. La única interacción que no se ha podido cuantificar
ha sido la Interacción gravitatoria.

La mecánica cuántica es la base de los estudios del Átomo, los núcleos y


las Partículas elementales (siendo ya necesario el tratamiento relativista), pero
también en Teoría de la información, criptografía y Química.

Introducción
La mecánica cuántica es la última de las grandes ramas de la Física. Comienza a
principios del siglo XX, en el momento en que dos de las teorías que intentaban
explicar lo que nos rodea, la Ley de gravitación universal y la Teoría electromagnética
clásica, se volvían insuficientes para explicar ciertos fenómenos. La teoría
electromagnética generaba un problema cuando intentaba explicar la emisión de
radiación de cualquier objeto en equilibrio, llamada Radiación térmica, que es la que
proviene de la vibración microscópica de las partículas que lo componen. Pues bien,
usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta
radiación térmica dabaInfinito si se suman todas las frecuencias que emitía el objeto,
con ilógico resultado para los físicos.

Es en el seno de la Mecánica estadística donde nacen las ideas cuánticas en 1900. Al


físico Max Planck se le ocurrió un truco matemático: que si en el proceso aritmético se
sustituía la integral de esas frecuencias por una suma no continua se dejaba de
obtener un infinito como resultado, con lo que eliminaba el problema y, además, el
resultado obtenido concordaba con lo que después era medido. Fue Max Planck quien
entonces enunció la hipótesis de que la radiación electromagnética es absorbida y
emitida por la materia en forma de Cuantos de luz o Fotones de energía mediante
una constante estadística, que se denominó Constante de Planck. Su historia es
inherente al Siglo XX, ya que la primera formulación cuántica de un fenómeno fue
dada a conocer el 14 de diciembre de 1900 en una sesión de la Sociedad Física de la
Academia de Ciencias de Berlín por el científico alemán Max Planck.

La idea de Planck hubiera quedado muchos años sólo como hipótesis si Albert
Einstein no la hubiera retomado, proponiendo que la Luz, en ciertas circunstancias, se
comporta como partículas de energía independientes (los cuantos de luz o fotones).
Fue Albert Einstein quién completó en 1905 las correspondientes leyes de movimiento
con lo que se conoce como Teoría especial de la relatividad, demostrando que el
electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que
se ha dado en llamar Física clásica, es decir, la física no-cuántica. Usó este punto de
vista llamado por él “heurístico”, para desarrollar su teoría del efecto fotoeléctrico,
publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de 1921. Esta
hipótesis fue aplicada también para proponer una teoría sobre el Calor específico, es
decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una
unidad la temperatura de la unidad de masa de un cuerpo.

El siguiente paso importante se dio hacia 1925, cuando Louis de Broglie propuso que
cada partícula material tiene una Longitud de onda asociada, inversamente
proporcional a su masa, (a la que llamó Momentum), y dada por su Velocidad. Poco
tiempo después Erwin Schrödinger formuló una Ecuación de movimiento para las
"ondas de materia", cuya existencia había propuesto de Broglie y varios experimentos
sugerían eran reales.

La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían


en los paradigmas físicos anteriores; con ella se descubre que el mundo atómico no
se comporta como esperaríamos. Los conceptos
de incertidumbre, Indeterminación o Cuantización son introducidos por primera vez
aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado las
predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a
las probabilidades.

Desarrollo histórico
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad
del Siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de
relieve por hechos experimentales como los siguientes, inexplicables con las
herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:

 Espectro de la radiación del Cuerpo negro, resuelto por Max Planck con la
cuantización de la energía. La energía total del cuerpo negro resultó que tomaba
valores discretos más que continuos. Este fenómeno se llamó cuantización, y los
intervalos posibles más pequeños entre los valores discretos son
llamados quanta (singular: quantum, de la palabra latina para "cantidad", de ahí el
nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado
constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.
 Bajo ciertas condiciones experimentales, los objetos microscópicos como
los Átomos o los electrones exhiben un comportamiento ondulatorio, como en
la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben
un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto
que puede ser localizado en una región concreta del espacio), como en
la Dispersión de partículas. Este fenómeno se conoce como Dualidad onda-
partícula.
 Las propiedades físicas de objetos con historias relacionadas pueden ser
correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una
amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos
a la vez. Este fenómeno es llamado Entrelazamiento cuántico y la Desigualdad de
Bell describe su diferencia con la correlación ordinaria. Las medidas de las
violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la
mecánica cuántica.
 Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a
aparecer esa "misteriosa" necesidad de cuantizar la energía.
 Efecto Compton.

El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la
teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido
también adoptada como la teoría subyacente a muchos campos de la física y la
química, incluyendo la Física de la materia condensada, la Química cuántica y
la Física de partículas.

La región de origen de la mecánica cuántica puede localizarse en la Europa central,


en Alemania y Austria, y en el contexto histórico del primer tercio del Siglo XX.

Espectro de radiación del cuerpo negro


Cuando se estudia la radiación electromagnética producida por un cuerpo caliente
común, se deben tener en cuenta los “errores introducidos” por la energía que éste
refleja. Los físicos, a finales del siglo XIX, querían estudiar de qué forma era el
espectro de radiación de un cuerpo que no reflejase energía; así pues, optaron por un
cuerpo negro, que en teoría es capaz de absorber toda la energía suministrada.

Teóricamente un cuerpo con estas características, al calentarlo, emite luz (radiación


electromagnética); esta luz aumenta poco a poco su longitud de onda a medida que el
cuerpo se va haciendo más caliente, hasta el punto de llegar al espectro visible. Se
disponía pues de dos leyes para predecir el comportamiento de un cuerpo en estas
condiciones:

la primera es la ley de Stefan, la cual postula que el poder emisor de un cuerpo negro
(la potencia, o lo que es igual: la cantidad de energía por segundo) es proporcional a
la cuarta potencia de la temperatura; La segunda es la ley de Wien-Golitzin, la cual
postula que al elevarse la temperatura del cuerpo negro, la longitud de onda
correspondiente al máximo del espectro va haciéndose más pequeña, desplazándose
hasta el violeta.

Con la primera ley no hay problema; pero la observaciones no concordaban con la


segunda, pues a medida que la temperatura aumentaba, el máximo correspondiente a
la longitud de onda se hacía azul y no violeta. Así pues, se trataron de unificar estas
dos leyes y “repararlas”, este trabajo fue conseguido por los físicos Rayleigh y Jeans,
pero esta nueva ley unificada tan sólo podía explicar la curva del espectro en los
intervalos del amarillo y el naranja, pues para el violeta, el ultravioleta y longitudes
más cortas predecía que la intensidad de la radiación crecía ilimitadamente, lo cual
era absurdo. La física clásica entró en crisis.

Max Planck era uno de lo físicos que estaba tratando de explicar la curva del espectro
obtenido. Aquél, a diferencia de otros colegas, optó por tratar de obtener la ecuación
matemática de la curva experimental, y como un golpe de suerte la consiguió. Ahora
planck tenía la ecuación que generaba la curva, pero éste se encontró en un callejón
sin salida cuando trató de deducirla de las leyes de la termodinámica. Luego de
agotadores días de trabajo, planck llegó a la conclusión de que con las leyes de la
física clásica no era posible deducir la curva; sólo es posible si se asume que la
energía no es emitida como un continuo sino como un conjunto de paquetes, a los
que planck llamó cuantos. Estos paquetes no pueden tener energías arbitrarias, sólo
pueden tener múltiplos enteros de una constante (constante de planck); además, la
energía radiada por un oscilador depende de su frecuencia de oscilación (no de la
amplitud). La hipótesis cuántica de planck se resume en la siguiente ecuación:

E=hf donde h es la constante de planck que vale 6,55*10^-34 j.s , y f es la frecuencia

Así pues, nace la teoría cuántica y caen dos supuestos clásicos : la energía no
depende de la amplitud sino de la frecuencia, y la energía no se radia como un
continuo sino como un conjunto de paquetes discretos. Planck, luego de su hipótesis
cuántica, no fue tomado muy en serio, pues ni él mismo era capaz de explicar algunas
implicaciones que esta hipótesis conllevaba. Sólo fue hasta que Einstein logró
aplicarla que todo empezó a tornarse más claro.

El efecto fotoeléctrico
Hacia 1899, el físico Lenard demostró que los rayos catódicos(electrones) pueden
producirse mediante la iluminación de una superficie metálica dispuesta en el vacío, y
descubrió algunos hechos interesantes: La cantidad de electrones desprendidos del
metal depende de la intensidad; la velocidad de los electrones desprendidos no
depende de la intensidad sino de la frecuencia del haz; y para cada metal existe un
valor mínimo de frecuencia por debajo del cual no hay emisión de electrones. Este
fenómeno no había podido ser explicado hasta la fecha; sólo un loco como Einstein,
con su gran imaginación, era capaz de revivir la teoría corpuscular de la luz
(de Newton) cuando se daba por hecho su naturaleza ondulatoria.

Einstein aplicó la hipótesis cuántica de planck para explicar el fenómeno de


desprendimiento de electrones por un haz de luz (conocido como efecto fotoeléctrico);
según Einstein, no era posible dar una explicación a este fenómeno si se asumía la
luz como una onda, había que darle pues una naturaleza corpuscular; a estos
corpúsculos Einstein los llamo fotones, y explicó con ellos los fenómenos detectados
por Lenard:

Los electrones de los átomos del metal sólo pueden absorber ciertos valores de
energía, múltiplos de un valor fundamental hf, es decir: la energía que absorben los
electrones debe estar cuantificada. Por esta razón, la luz debe venir en paquetes que
los electrones puedan absorber, y por esta razón, también, es que los metales no
emiten electrones por debajo de un cierto valor de frecuencia, pues a los electrones
sólo les “gustan” paquetes específicos. Como la energía es proporcional a la
frecuencia (E=hf) y no a la intensidad, es por esta razón que las frecuencias más altas
arrancan los electrones más veloces. Y debido a que mientras mayor sea la
intensidad hay más fotones “golpeando” electrones, la cantidad de estos que se
emiten depende de aquella. Einstein recibió el premio Nobel en 1921 por este trabajo.
Ecuación del efecto fotoeléctrico:

Ec=h.f-w

Ec: energía cinética del electrón desprendido; f: frecuencia; h: cte planck; w:(función
de trabajo)energía mínima requerida por un electrón para ser desprendido.

Funbral= w/h

F: frecuencia mínima para desprender el electrón

Los valores F y w dependen del metal.

Experimento de Young
El experimento de Young, también denominado experimento de la doble rendija, fue
realizado en 1801 por Thomas Young y es un experimento hipotético, que explica el
comportamiento de algunas partículas ante la medición o sola observación sobre la
misma. El experimento postula básicamente que una partícula (que es materia [muy
diminuta]) puede poseer caracteres de onda y de partícula simultáneamente, e invertir
completamente su comportamiento ante la medición de un observador.
Todo comienza en un laboratorio cotidiano en el que se hayan una dispositivo que
dispara materia (en este caso supongamos que son bolas de billar) contra una lámina
de de hierro que mide y señala los lugares de impacto de las bolas de billar, pero
entre el dispositivo que dispara materia y la lámina que señala los impactos hay otra
lámina con una sola rendija (abertura) vertical por la que algunas bolas de billar y
otras golpearan con la parte sólida de la lámina y no lograran golpear con la lámina
que mide los impactos. Entonces cuando se dispara materia cotidiana por una rendija
en la lámina de medición de impactos queda una franja vertical de impactos, como era
de esperar. Luego en lugar de lanzar materia por la rendija se hace una onda que va a
viajar por el agua, va a pasar por la rendija y va a marcar dos franjas verticales, esa
es la diferencia de una onda y materia a escala cotidiana, al igual de que si lanzaba
materia cotidiana por dos rendijas crearía dos franjas y di se generaran ondas que
pasan por dos rendijas se crearía un patrón de muchas franjas de impacto de las
crestas de las ondas o en otros términos: un patrón de interferencia, eso no es muy
dificil.

Ahora llevemos ese experimento a escala subatómica, o sease, escala cuántica, allí
en lugar de lanzar bolas de billar lanzaremos partículas subatómicas, lanzaremos
electrones a través de dos rendijas, y la sorpresa llega allí, cuándo los electrones que
son materia se comportan de una manera rara, pues los electrones al atravesar las
dos rendijas crea un patrón de interferencia al igual que como una onda lo haría. Para
saber que sucedió allí se coloca un dispositivo de observación para ver que sucedió
en el momento de que el electrón atraviesa las rendijas, entonces allí sucede los lo
más extraño, la lámina de medición marca dos franjas de impactos, tal como la
materia cotidiana, ¿que sucedió allí? fácil, los electrones cumplieron con la ley más
básica de la mecánica cuántica, al notar el dispositivo le estaba midiendo, el electrón
cambió su comportamiento cuántico y empezó a comportarse como materia ordinaria.
En resumen lo que demostró el experimento de Young fue que a escala cuántica la
materia puede comportarse como materia y como onda simultáneamente, eso es un
claro ejemplo de dualidad de onda-partícula, y no solo es un experimento hipotético,
partículas que poseen dualidad de onda-partícula son los fotones más conocidos
como las partículas lumínicas.

El átomo de Bohr
Hacia 1911, por medio de un experimento de dispersión de partículas en metales,
Rutherford descubrió que el átomo contenía una estructura interna, y que no era como
la “sandía” que Thomson había propuesto. Según Rutherford, el átomo estaba
compuesto por un núcleo cargado positivamente, y un exterior compuesto por
electrones (negativos); la suma de las cargas de los electrones era igual a la carga del
núcleo (y se conseguía la neutralidad del átomo).

Para que los electrones no cayeran al núcleo debido a la fuerza eléctrica, era
necesario que éstos giraran, y así su fuerza centrífuga fuera igual a la fuerza de
atracción eléctrica, para evitar el colapso del átomo; pero este movimiento por ser
curvado generaba una aceleración, y según la teoría de Maxwell éstos deberían emitir
radiación, lo que generaba que perdieran energía, y por ende se precipitaran en
espiral hacia el núcleo. Así pues, con las teorías y las leyes de que se disponía no era
posible explicar la estabilidad del átomo, como también el fenómeno de las líneas
espectrales “perfectas” de una sustancia pura. Niels Bohr, en 1913, introdujo un nuevo
modelo atómico, el cual combinaba tanto ideas clásicas como cuánticas; su trabajo se
basó, generalmente, en introducir la constante de Planck al modelo matemático que
representaba al átomo. Asumiendo el átomo como un sistema solar en miniatura, las
ideas de Bohr fueron: Las órbitas de los electrones en el interior del átomo no son
todas estables; de aquí se sigue que el electrón sólo puede estar en órbitas definidas
(a determinadas distancias del átomo). Esto debido a que cada órbita representa un
nivel de energía para el electrón, pero el electrón no puede tomar cualquier valor de
energía, sólo hf ; siendo el nivel uno correspondiente al valor de energía uno, el nivel
dos al dos....Los niveles aumentan de adentro hacia afuera; al nivel uno se le llama
estado fundamental, y el electrón no puede bajar de este estado, pues no hay órbitas
mas bajas que uno (los valores son enteros positivos).

Cuando el electrón se encuentra en una órbita estable, éste no emite energía, sólo
emite o absorbe energía cuando salta de una órbita a otra. Como el electrón no puede
emitir valores arbitrarios y continuos de energía en una órbita estable, no se cumple la
predicción electromagnética, el electrón sólo emite valores enteros de energía; esta
emisión cuantificada sólo se da cuando el electrón salta de una órbita o nivel de
energía mayor a uno menor, la emisión es un fotón, exactamente con la energía que
el electrón necesito para pasar de un estado menor a uno mayor; también se da el
caso contrario: para hacer subir a un electrón de órbita o nivel, se necesita
exactamente la energía de diferencia entre las dos órbitas o niveles, y el electrón
permanece allí durante un tiempo (se dice: exitado) hasta que cae otra vez a la órbita
o nivel original, y devuelve la misma energía que le fue suministrada en un comienzo
(es devuelta en forma de un fotón).
Mediante estas ideas, Bohr explicó las líneas aparecidas en el espectro del átomo
más sencillo, el hidrógeno; estas líneas eran muy bien definidas, y esto debido a que
los electrones al ser excitados (con la energía exacta), saltaban a órbitas mayores que
luego abandonaban, devolviendo la energía en forma de fotones con frecuencias muy
específicas; estos fotones componían las líneas espectrales. Para cada elemento las
líneas eran distintas, pues lo átomos también lo eran.

Esta interpretación, aunque errónea (pues luego fue tumbada por la mecánica
ondulatoria) , fue capaz de dar una explicación satisfactoria, bonita y acorde con lo
observado con relación a los espectros atómicos y a la paradoja del “átomo de
emisión continua”.

La verdadera importancia de esta explicación, es que todos los científicos de la época


se estaban convenciendo de que la teoría cuántica (o mecánica cuántica), era una
potente y única herramienta para explicar el mundo de lo muy pequeño: el mundo de
lo atómico.

Principio de complementariedad
Aunque Einstein ya estaba convencido de la existencia de los fotones, se necesitaba
la prueba experimental que corroborara esta teoría. Compton desde 1913, venía
trabajando con rayos x y su interacción con los electrones; aquél había descubierto
que cuando un fotón golpea a un electrón, éste gana momento y energía hf, pero el
fotón que ha entregado parte de su energía, disminuye su frecuencia (este fenómeno
es conocido como dispersión o efecto Compton).

Para poder lograr una descripción de este fenómeno, Compton tuvo que asumir que
los rayos x eran fotones muy energéticos (corroborando la teoría de Einstein), pero
para dar una descripción completa de este fenómeno no sólo bastaba con introducir la
teoría corpuscular de la luz, sino también la ondulatoria. Resultaban pues, dos teorías
de la luz: la ondulatoria y la corpuscular, ambas correctas. Esta dualidad onda-
partícula de la luz fue a lo que Bohr llamó “principio de complementariedad”, y se basa
en que las teorías corpuscular y ondulatoria de la luz no se excluyen sino que se
complementan, para así lograr una correcta descripción de la realidad. La luz es pues
onda y partículas.

Dualidad onda-partícula
El descubrimiento de la dualidad de la luz dejó inquieto a Louis de Broglie, un físico de
la época, que se preguntó: “si la luz también se comporta como partículas ¿por qué no
se deberían comportar los electrones también como ondas?” A los electrones sólo se
les puede asociar números enteros de órbitas y energías, y esto es algo propio en los
fenómenos de vibración en ondas. De Broglie le dio una estructura matemática a su
hipótesis asociándole una longitud de onda a los electrones o cualquier cuerpo
material:

λ = h/mv
mv: masa y velocidad del cuerpo; h: constante de Planck

Así pues, si los electrones tenían propiedades ondulatorias, deberían presentar


fenómenos de difracción. La longitud de onda asociada al electrón es de unos 10^-
7cm; para difractarlo se necesita que éste pase por un espacio del orden de esta
longitud. Hacia 1922 y 1923 los físicos Clinton Dawisson y Charles Kunsman habían
estudiado el comportamiento de los electrones al ser dispersados por cristales; de
Broglie, al enterarse, los disuadió para que realizaran el experimento, y en 1925 se
publicaron los resultados que corroboraban la teoría de de Broglie. Pero el mundo
científico era muy escéptico, más aún cuando se trataba de la teoría de un joven de
21 años.

Sólo fue hasta que Erwin Schrödinger formuló una teoría atómica con las ideas de de
Broglie, que los físicos empezaron a revaluar las ideas sobre el electrón.
En 1927 fueron publicados los resultados de nuevos experimentos, y fue comprobada
la hipótesis de de Broglie.

El total desprendimiento con la física clásica, fue cuando se comprobó que no sólo los
electrones y los fotones tienen esta dualidad onda-partícula sino también todas las
demás partículas existentes.

Un macro cuerpo también tiene estas propiedades, pero su longitud de onda es tan
ínfima que no puede detectarse. De Broglie, no interpretó muy bien este resultado,
pues según él el electrón era como un bote viajando por una ola. Luego Max Born y
[[[Heisemberg]]explicaron esta propiedad ondulatoria como la probabilidad de
encontrar al electrón en un punto dado.

El principio de incertidumbre
Supongamos que queremos conocer la velocidad y la posición de una partícula, para
lo cual es necesario una fuente de luz cuya longitud de onda sea igual o menor al
tamaño de dicha partícula; luz con esta característica son los rayos gamma. Así pues,
disparamos una haz de rayos gamma hacia la partícula, este rayo gamma va a
“rebotar” (dispersarse) en la partícula (este rayo dispersado va hacia un detector para
conocer algo sobre esa partícula), pero por efecto Compton este fotón gamma va a
suministrar energía a la partícula y por ende, ésta se va a “perder” pues se le ha dado
un golpe muy fuerte; así pues, vamos a tener algo de certeza sobre la velocidad pero
casi ninguna sobre su posición. Ahora bien, supongamos que la partícula está en
reposo (velocidad 0),si se sigue el mismo procedimiento anterior, cuando el fotón
golpee a la partícula, ésta, de nuevo va ha perderse y no podremos saber algo sobre
su posición. Werner Heisemberg, un precoz físico de la época y uno de los grandes
estructuradores de la mecánica cuántica (desarrollo el método matricial de ésta),
dedujo de las ecuaciones de la mecánica cuántica la conocida relación de
incertidumbre en 1927, que en honor a Heisemberg fue llamado el principio de
incertidumbre de Heisemberg. Las dos relaciones son:

Δp.Δx ≥ h
Δp: incertidumbre (Inexactitud) sobre el momento; Δx: incertidumbre (inexactitud)
sobre la posición h: constante de planck

ΔE.Δt ≥ h

ΔE: incertidumbre (inexactitud) sobre la energía; Δt: incertidumbre (inexactitud) sobre


el tiempo; h: constante de planck

Así pues, mientras con más precisión se quiera saber la velocidad (o momento) de un
cuerpo, más es la incertidumbre que se tiene sobre su posición. Así mismo, mientras
con más precisión se quiera saber la energía de un cuerpo más incertidumbre se
tendrá sobre la medida del tiempo.

El principio de incertidumbre es uno de los peldaños más estables e importantes de la


mecánica cuántica. Hay que aclarar que la incertidumbre no se condiciona al aparato
de medida, la incertidumbre es una propiedad intrínseca en la naturaleza.

Entrelazamiento
Dos o más partículas pueden estar entrelazadas de tal manera que en el momento
que estas partículas se entrelazan, estas dejan de ser dos partículas para empezar a
ser un sistema de partículas entrelazadas analíticamente. El accionar de ese sistema
de partículas es instantáneo, eso quiere decir que el comportamiento de una partícula
de ese sistema repercute instantáneamente en el resto de las partículas
entrelazadas, por ejemplo: una de las partículas de ese sistema realiza una suerte de
spin hacia la derecha e instantanea e independientemente de la ubicacion y la
distancia de ambas la otra particula hará el mismo spin pero hacia la izquierda.

La antimateria
Paul Dirac, un físico de la época (Dirac fue a la mecánica cuántica como Newton fue a
la física clásica), trató de obtener una versión relativista de la mecánica cuántica.
Según la ecuación de Einstein para la energía de una partícula de masa m y momento
p se tiene:

E²=m²c^2 + p²c² y esta formula se reduce a E=mc² cuando el momento es cero.

Pero al calcular esta energía se obtiene el resultado de una raíz, es decir: se obtienen
valores -mc² y +mc². Dirac no se detuvo aquí. Cuando se obtienen los niveles de
energía de la versión relativista de la mecánica cuántica resultan conjuntos positivos y
negativos; el mayor nivel negativo es menor al menor nivel positivo; según la teoría
atómica, el electrón debe caer al nivel más bajo ¿por qué entonces no caían todos los
electrones al nivel negativo? porque ya estaban llenos. Si ya había electrones allí ¿por
qué no suministrarles la energía necesaria para que saltaran a un nivel positivo?

Para que un electrón salte de un peldaño -mc² a uno +mc² se necesita energía 2mc²,
que para el electrón es aproximadamente 1 Mev (la energía de un rayo gamma
aprox). El electrón creado es común y corriente, pero habrá dejado un hueco en el
conjunto negativo; un hueco como estos deberá comportarse como una partícula
cargada positivamente y con la misma masa del electrón. Dirac afirmo erróneamente
que esta partícula era el protón a finales de los años 20. Pero un científico llamado
Carl Anderson descubrió por accidente, en un experimento de rayos cósmicos, una
partícula con la misma masa del electrón pero de carga positiva. Esta partícula fue
llamada positrón.

Luego se fueron descubriendo más antipartículas asociadas a partículas específicas,


lo cual llegó a la conclusión que toda partícula creada genera una antipartícula
(cualquier partícula tiene asociada una antipartícula).

Interpretaciones
La interpretación de Copenhague

Representación del campo magnético terrestre y el viento solar

Para muchos físicos de la época el principio de incertidumbre fue una habitación


oscura en la cual no se podía caminar con seguridad; sin embargo para unos cuantos,
fue la pieza que faltaba para que todo el sistema fuera completo y coherente. Bohr fue
uno de estos hombres, y en 1927 en una conferencia en Italia presentó la idea de
complementariedad, y lo que es conocido como interpretación de Copenhague.

Bohr señaló que mientras en la física clásica un sistema puede considerarse como un
mecanismo de relojería, en mecánica cuántica el observador interactúa con el
sistema, haciendo que el último pueda considerarse como algo no independiente: si
se realiza un experimento para medir la posición de una partícula se la obliga a que
halla incertidumbre en su velocidad, y si lo que se obtiene no es la posición sino su
velocidad, se la obliga a que halla incertidumbre en su posición, luego el observador
hace parte del experimento y la mera detección lo modifica todo; el primero de estos
experimentos muestra las propiedades corpusculares del sistema, mientras que el
segundo muestra las propiedades ondulatorias del mismo; así pues, nunca, mediante
un experimento podrán conocerse las propiedades corpusculares y ondulatorias de un
sistema a la vez (se dice que la relatividad es una teoría clásica puesto que permite
conocer posición y velocidad en el espacio-tiempo a la vez).

Toda la información sobre el sistema la proporciona el experimento, y como el


observador ha intervenido en éste, no puede decirse algo sobre el comportamiento de
este sistema cuando no se lo observa, sólo pueden obtenerse las probabilidades de
que un suceso se dé; por ejemplo, los saltos cuánticos en el átomo son una
interpretación de por qué se obtienen dos resultados diferentes del mismo
experimento, no pude saberse que hay entre salto y salto; No se tiene ni idea de lo
que hace una partícula cuando no se la observa, entonces podría decirse que no
existe mientras no se la observe; el núcleo atómico no existe, no existen las
partículas: “nada es real”.

Richard Feynman, uno de los desarrolladores de la electrodinámica cuántica,


presentó, por medio de un experimento imaginario, algunas implicaciones a las que se
llegaría con la interpretación de Bohr:

si realizáramos el experimento de la rendija, con el que Yuog demostró las


propiedades ondulatorias de la luz, usando partículas, los patrones de interferencia
nos llevarían a deducir las propiedades ondulatorias de éstas. Cuando se trata de una
onda, como una ola por ejemplo, esta onda pasa por los dos agujeros de difracción,
pero si hablamos de partículas como electrones o fotones ¿cuál partícula pasa por
cuál agujero? Imaginemos un montaje en el que se tiene la rejilla de difracción, un
detector de partículas (de electrones por ejemplo) y un cañón de partículas.

Asumamos electrones: el cañón se pone en funcionamiento, los electrones pasan a


través de la rejilla y producen patrones de interferencia; Ahora bien, si reducimos la
cantidad de electrones disparados por segundo de forma que sólo uno pase por la
rejilla, este electrón produce patrones de interferencia, pero ¿por dónde pasó el
electrón? ¿por cuál de los dos agujeros? Si tapamos uno de los dos agujeros el
electrón no produce interferencia, y si colocáramos un detector en los agujeros para
saber por dónde pasa el electrón tampoco se obtendría la interferencia (ocurriría lo
mismo si no es uno sino varios los electrones); entonces ¿sabe el electrón desde un
principio que están intentando detectarlo? “Sí”. Bien, entonces engañemos al electrón
¿cómo? Cuando sea disparado tapemos un agujero. Aún así, el electrón no produce
interferencia ¿Qué está pasando entonces?

Cuando tratamos de detectar el electrón estamos interviniendo en él buscando saber


su posición, lo que significa que este electrón muestre propiedades corpusculares (y
halla incertidumbre en su velocidad), se “materialice” y no halla interferencia; tapar un
agujero o saber por dónde pasa el electrón es tener certidumbre sobre su posición. Si
dejamos que el electrón “continúe en paz” su camino, como no sabemos algo de su
posición, éste se comporta como una onda produce interferencia. Es como si el
electrón se “enterara de todo”. En probabilidades esto significa: hay dos agujeros, en
cada uno hay probabilidades de que el electrón pase, estas probabilidades generan la
interferencia; Si se tapara un agujero o si se detectara el electrón, las probabilidades
se reducirían a un sólo agujero y ya no habría interferencia, esto equivale a decir: al
dejar el cañón, el electrón se divide en muchos electrones llamados electrones
fantasmas, estos muchos electrones producen la interferencia, pero si se detecta la
posición del sistema, los electrones fantasmas se materializan en un solo electrón
rompiendo la interferencia y produciendo lo que se llama colapso de función de onda,
es decir: ya no hay onda. También, si el electrón deja de observarse, se desdobla en
fantasmas de nuevo.

Aquí se entiende mejor por qué la onda asociada a un cuerpo material es la


probabilidad de encontrarlo en un sitio dado: pues si es la probabilidad de encontrarlo,
no se conoce su posición, y si no se conoce su posición presenta propiedades
ondulatorias.
Otra interpretación: los múltiples mundos
Bohr también dio una interpretación al experimento de la rendija:

Supóngase una partícula la cual tiene dos posibilidades: pasar por el agujero A o por
el B, estos agujeros pueden interpretarse como dos mundos; por un mundo la
partícula pasa por el agujero A, y por el otro mundo por el B. Nuestro mundo no es
alguno de estos dos mundos, sino una “mezcla híbrida” de los dos que genera la
interferencia. Pero cuando detectamos por donde pasa el electrón todo se reduce a un
sólo mundo: el mundo en donde la partícula pasó por ese agujero, y ya no hay
interferencia.

A cada partícula se le puede asociar dos mundos en este caso, pero ¿Cuántas
partículas hay en el universo?

Paradoja del gato de Schrödinger


Hacia 1935, Schödinger publicó una paradoja calificada por Einstein como la forma
más bonita de mostrar el carácter de incertidumbre en la mecánica cuántica, su
carácter incompleto (Einstein nunca aceptó la incertidumbre como una propiedad
intrínseca de la naturaleza).

Los fenómenos radiactivos son completamente aleatorios, y sólo pueden expresarse


en términos de probabilidades. Supóngase que se tiene una caja en la cual se ha
metido un gato, una botella con cianuro, un material radiactivo y un detector de
partículas; el experimento está diseñado de forma tal de que el detector esté
conectado a la botella, para que cuando reciba radiación del material rompa la botella
y mate al gato. Todo el sistema, se monta de forma de que halla un 50% de
posibilidad que un núcleo atómico se desintegre; la caja se cierra. No es posible saber
si el gato está vivo o no; la única manera de saberlo es si se abre la caja y se observa
al gato, pues, como se dijo, la desintegración radiactiva es aleatoria, y para el
experimento hay tantas posibilidades de que el gato muera como de que viva.

Así pues, puede interpretarse esto como si el gato tuviera tantas probabilidades de
vivir como de morir, esto genera una interferencia, que se rompe cuando se abre la
caja (colapso de onda) y las probabilidades se reducen a una. Desde el punto de vista
de los otros mundos, existen dos mundos: uno donde el gato está vivo y otro donde
está muerto. Pero se está en un mundo híbrido donde el gato está vivo y muerto, esto
genera la interferencia; cuando se abre la caja ya sólo se opta por un mundo, o donde
el gato vive o donde muere, y se rompe la interferencia.

Suposiciones más importantes


Las suposiciones más importantes de esta teoría son las siguientes:

 Al ser imposible fijar a la vez la posición y el momento de una partícula, se


renuncia al concepto de Trayectoria, vital en Mecánica clásica. En vez de eso, el
movimiento de una partícula queda regido por una función matemática que asigna,
a cada punto del espacio y a cada instante, la Probabilidad de que la partícula
descrita se halle en tal posición en ese instante (al menos, en la interpretación de
la Mecánica cuántica más usual, la probabilística o Interpretación de
Copenhague). A partir de esa función, o Función de ondas, se extraen
teóricamente todas las magnitudes del movimiento necesarias.

 Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del
sistema o Función de onda evolucionan de acuerdo con la Ecuación de
Schrödinger, sin embargo, si se realiza una medida sobre el sistema, éste sufre
un "salto cuántico" hacia un estado compatible con los valores de la medida
obtenida (formalmente el nuevo estado será una Proyección ortogonal del estado
original).
 Existen diferencias perceptibles entre los estados ligados y los que no lo están.

 La Energía no se intercambia de forma continua en un estado ligado, sino en


forma discreta lo cual implica la existencia de paquetes mínimos de energía
llamados cuantos, mientras en los estados no ligados la energía se comporta
como un continuo.

Referencias
3. Volver arriba↑ De Broglie (1926): Ondes et mouvements, París, Gauthier-Villars
4. Volver arriba↑ Schrödinger, [Quantisierung als Eigenwertproblem (Erste
Mitteilung.)], Ann. Phys., 79, p. 361-376, (1926)1924 & 1926