Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Ir a la navegaciónIr a la búsqueda
Funciones de onda del electrón en un átomo de hidrógeno a diferentes niveles de energía. La mecánica
cuántica no puede predecir la ubicación exacta de una partícula en el espacio, solo la probabilidad de
encontrarla en diferentes lugares. Las áreas más brillantes representan una mayor probabilidad de
encontrar el electrón.
Índice
1Contexto histórico
o 1.1Radiación electromagnética
o 1.2Inestabilidad de los átomos clásicos
o 1.3Desarrollo histórico
o 1.4Suposiciones más importantes
2Descripción de la teoría
o 2.1Interpretación de Copenhague
o 2.2Formulación matemática
3Relatividad y la mecánica cuántica
4Véase también
5Referencias
o 5.1Notas
o 5.2Bibliografía
6Enlaces externos
Contexto histórico[editar]
La mecánica cuántica es, cronológicamente hablando, la última de las grandes ramas de
la física. Se formuló a principios del siglo XX, casi al mismo tiempo que la teoría de la
relatividad, aunque el grueso de la mecánica cuántica se desarrolló a partir de 1920 (siendo la
teoría de la relatividad especial de 1905 y la teoría general de la relatividad de 1915).
Además al advenimiento de la mecánica cuántica existían diversos problemas no resueltos en
la electrodinámica clásica. El primero de estos problemas era la emisión de radiación de
cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración
microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica
clásica, la energía que emitía esta radiación térmica tendía al infinito, si se suman todas las
frecuencias que emitía el objeto, con ilógico resultado para los físicos. También la estabilidad
de los átomos no podía ser explicada por el electromagnetismo clásico, y la noción de que el
electrón fuera o bien una partícula clásica puntual o bien una cáscara esférica de dimensiones
finitas resultaban igualmente problemáticas para esto.
Radiación electromagnética[editar]
El problema de la radiación electromagnética de un cuerpo negro fue uno de los primeros
problemas resueltos en el seno de la mecánica cuántica. Es en el seno de la mecánica
estadística donde surgen por primera vez las ideas cuánticas en 1900. Al físico alemán Max
Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral
de esas frecuencias por una suma no continua (discreta), se dejaba de obtener infinito como
resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con
lo que después era medido.
Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía
cuantizados introduciendo una constante estadística, que se denominó constante de Planck.
Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno
fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la
Sociedad Física de la Academia de Ciencias de Berlín.2
La idea de Planck habría permanecido muchos años solo como hipótesis sin verificar por
completo si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas
circunstancias, se comporta como partículas de energía (los cuantos de luz o fotones) en su
explicación del efecto fotoeléctrico. Fue Albert Einstein quien completó en 1905 las
correspondientes leyes del movimiento su teoría especial de la relatividad, demostrando que
el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha
dado en llamar física clásica, es decir, la física no-cuántica.
Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto
fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de
1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico,
es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad
la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada
partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa,
y a su velocidad. Así quedaba establecida la dualidad onda/materia. Poco tiempo
después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia»,
cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.
La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta
como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por
primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado
las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las
probabilidades.
Inestabilidad de los átomos clásicos[editar]
El segundo problema importante que la mecánica cuántica resolvió a través del modelo de
Bohr, fue el de la estabilidad de los átomos. De acuerdo con la teoría clásica un electrón
orbitando alrededor de un núcleo cargado positivamente debería emitir energía
electromagnética perdiendo así velocidad hasta caer sobre el núcleo. La evidencia empírica
era que esto no sucedía, y sería la mecánica cuántica la que resolvería este hecho primero
mediante postulados ad hoc formulados por Bohr y más tarde mediante modelos como
el modelo atómico de Schrödinger basados en supuestos más generales. A continuación se
explica el fracaso del modelo clásico.
En mecánica clásica, un átomo de hidrógeno es un tipo de problema de los dos cuerpos en
que el protón sería el primer cuerpo que tiene más del 99% de la masa del sistema y el
electrón es el segundo cuerpo que es mucho más ligero. Para resolver el problema de los dos
cuerpos es conveniente hacer la descripción del sistema, colocando el origen del sistema de
referencia en el centro de masa de la partícula de mayor masa, esta descripción es correcta
considerando como masa de la otra partícula la masa reducida que viene dada por
Siendo la masa del protón y la masa del electrón. En ese caso el problema del
átomo de hidrógeno parece admitir una solución simple en la que el electrón se moviera en
órbitas elípticas alrededor del núcleo atómico. Sin embargo, existe un problema con la
solución clásica, de acuerdo con las predicciones de electromagnetismo partícula eléctrica que
sigue un movimiento acelerado, como sucedería al describir una elipse debería emitir
radiación electromagnética, y por tanto perder energía cinética, la cantidad de energía radiada
sería de hecho:
Ese proceso acabaría con el colapso del átomo sobre el núcleo en un tiempo muy corto dadas
las grandes aceleraciones existentes. A partir de los datos de la ecuación anterior el tiempo de
colapso sería de 10-8 s, es decir, de acuerdo con la física clásica los átomos de hidrógeno no
serían estables y no podrían existir más de una cienmillonésima de segundo.
Esa incompatibilidad entre las predicciones del modelo clásico y la realidad observada llevó a
buscar un modelo que explicara fenomenológicamente el átomo. El modelo atómico de Bohr
era un modelo fenomenológico y provisorio que explicaba satisfactoriamente aunque de
manera heurística algunos datos, como el orden de magnitud del radio atómico y los espectros
de absorción del átomo, pero no explicaba cómo era posible que el electrón no emitiera
radiación perdiendo energía. La búsqueda de un modelo más adecuado llevó a la formulación
del modelo atómico de Schrödinger en el cual puede probarse que el valor esperado de la
aceleración es nulo, y sobre esa base puede decirse que la energía electromagnética emitida
debería ser también nula. Sin embargo, al contrario del modelo de Bohr, la representación
cuántica de Schrödinger es difícil de entender en términos intuitivos.
Desarrollo histórico[editar]
Artículo principal: Historia de la mecánica cuántica
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del
siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por
hechos experimentales como los siguientes, inexplicables con las herramientas teóricas
anteriores de la mecánica clásica o la electrodinámica:
Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía definidos y
discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de momento
angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura corresponden a
densidades elevadas de probabilidad de encontrar el electrón en dicha posición.
Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de
la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más
que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más
pequeños entre los valores discretos son llamados quanta (singular: quantum, de la
palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). La magnitud de
un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10 -34 julios por
segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o
los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo
otras condiciones, las mismas especies de objetos exhiben un comportamiento
corpuscular, de partícula, («partícula» quiere decir un objeto que puede ser localizado en
una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se
conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas,
en una amplitud prohibida para cualquier teoría clásica, solo pueden ser descritos con
precisión si se hace referencia a ambos a la vez. Este fenómeno es
llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la
correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron
algunas de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa
"misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría
están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada
como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de
la materia condensada, la química cuántica y la física de partículas.
La región de origen de la mecánica cuántica puede localizarse en la Europa central,
en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.
Suposiciones más importantes[editar]
Artículo principal: Interpretaciones de la mecánica cuántica
Descripción de la teoría[editar]
Interpretación de Copenhague[editar]
Artículo principal: Interpretación de Copenhague
En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados
posibles de un sistema cuántico están representados por vectores unitarios
(llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado
el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del
sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el
Véase también[editar]
Niels Bohr
Max Born
Louis de Broglie
George Gamow
Werner Heisenberg
Wolfgang Pauli
Max Planck
Erwin Schrödinger
Referencias[editar]
Notas[editar]
1. ↑ Halzen, Francis; Martin, Alan Douglas (1984). Universidad de Wisconsin, ed. Quarks and
Lepons: An Introducory Course in Modern Particle Physics. Universidad de Durham. Canadá: Wiley.
pp. 396. ISBN 9780471887416.
2. ↑ Vitaliĭ Isaakovich Rydnik (1987). Qué es la mecánica cuántica. Ediciones Quinto Sol. ISBN
37693524.
3. ↑ Aspect, Alain; Grangier, Philippe; Roger, Gérard (17 de agosto de 1981). «Experimental Tests
of Realistic Local Theories via Bell's Theorem». Physical Review Letters (en inglés) 47 (7): 460-
463. ISSN 0031-9007. doi:10.1103/PhysRevLett.47.460. Consultado el 7 de abril de 2019.
Bibliografía[editar]
Sumario
[ocultar]
Introducción
La mecánica cuántica es la última de las grandes ramas de la Física. Comienza a
principios del siglo XX, en el momento en que dos de las teorías que intentaban
explicar lo que nos rodea, la Ley de gravitación universal y la Teoría electromagnética
clásica, se volvían insuficientes para explicar ciertos fenómenos. La teoría
electromagnética generaba un problema cuando intentaba explicar la emisión de
radiación de cualquier objeto en equilibrio, llamada Radiación térmica, que es la que
proviene de la vibración microscópica de las partículas que lo componen. Pues bien,
usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta
radiación térmica dabaInfinito si se suman todas las frecuencias que emitía el objeto,
con ilógico resultado para los físicos.
La idea de Planck hubiera quedado muchos años sólo como hipótesis si Albert
Einstein no la hubiera retomado, proponiendo que la Luz, en ciertas circunstancias, se
comporta como partículas de energía independientes (los cuantos de luz o fotones).
Fue Albert Einstein quién completó en 1905 las correspondientes leyes de movimiento
con lo que se conoce como Teoría especial de la relatividad, demostrando que el
electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que
se ha dado en llamar Física clásica, es decir, la física no-cuántica. Usó este punto de
vista llamado por él “heurístico”, para desarrollar su teoría del efecto fotoeléctrico,
publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de 1921. Esta
hipótesis fue aplicada también para proponer una teoría sobre el Calor específico, es
decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una
unidad la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis de Broglie propuso que
cada partícula material tiene una Longitud de onda asociada, inversamente
proporcional a su masa, (a la que llamó Momentum), y dada por su Velocidad. Poco
tiempo después Erwin Schrödinger formuló una Ecuación de movimiento para las
"ondas de materia", cuya existencia había propuesto de Broglie y varios experimentos
sugerían eran reales.
Desarrollo histórico
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad
del Siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de
relieve por hechos experimentales como los siguientes, inexplicables con las
herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:
Espectro de la radiación del Cuerpo negro, resuelto por Max Planck con la
cuantización de la energía. La energía total del cuerpo negro resultó que tomaba
valores discretos más que continuos. Este fenómeno se llamó cuantización, y los
intervalos posibles más pequeños entre los valores discretos son
llamados quanta (singular: quantum, de la palabra latina para "cantidad", de ahí el
nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado
constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como
los Átomos o los electrones exhiben un comportamiento ondulatorio, como en
la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben
un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto
que puede ser localizado en una región concreta del espacio), como en
la Dispersión de partículas. Este fenómeno se conoce como Dualidad onda-
partícula.
Las propiedades físicas de objetos con historias relacionadas pueden ser
correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una
amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos
a la vez. Este fenómeno es llamado Entrelazamiento cuántico y la Desigualdad de
Bell describe su diferencia con la correlación ordinaria. Las medidas de las
violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la
mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a
aparecer esa "misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la
teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido
también adoptada como la teoría subyacente a muchos campos de la física y la
química, incluyendo la Física de la materia condensada, la Química cuántica y
la Física de partículas.
la primera es la ley de Stefan, la cual postula que el poder emisor de un cuerpo negro
(la potencia, o lo que es igual: la cantidad de energía por segundo) es proporcional a
la cuarta potencia de la temperatura; La segunda es la ley de Wien-Golitzin, la cual
postula que al elevarse la temperatura del cuerpo negro, la longitud de onda
correspondiente al máximo del espectro va haciéndose más pequeña, desplazándose
hasta el violeta.
Max Planck era uno de lo físicos que estaba tratando de explicar la curva del espectro
obtenido. Aquél, a diferencia de otros colegas, optó por tratar de obtener la ecuación
matemática de la curva experimental, y como un golpe de suerte la consiguió. Ahora
planck tenía la ecuación que generaba la curva, pero éste se encontró en un callejón
sin salida cuando trató de deducirla de las leyes de la termodinámica. Luego de
agotadores días de trabajo, planck llegó a la conclusión de que con las leyes de la
física clásica no era posible deducir la curva; sólo es posible si se asume que la
energía no es emitida como un continuo sino como un conjunto de paquetes, a los
que planck llamó cuantos. Estos paquetes no pueden tener energías arbitrarias, sólo
pueden tener múltiplos enteros de una constante (constante de planck); además, la
energía radiada por un oscilador depende de su frecuencia de oscilación (no de la
amplitud). La hipótesis cuántica de planck se resume en la siguiente ecuación:
Así pues, nace la teoría cuántica y caen dos supuestos clásicos : la energía no
depende de la amplitud sino de la frecuencia, y la energía no se radia como un
continuo sino como un conjunto de paquetes discretos. Planck, luego de su hipótesis
cuántica, no fue tomado muy en serio, pues ni él mismo era capaz de explicar algunas
implicaciones que esta hipótesis conllevaba. Sólo fue hasta que Einstein logró
aplicarla que todo empezó a tornarse más claro.
El efecto fotoeléctrico
Hacia 1899, el físico Lenard demostró que los rayos catódicos(electrones) pueden
producirse mediante la iluminación de una superficie metálica dispuesta en el vacío, y
descubrió algunos hechos interesantes: La cantidad de electrones desprendidos del
metal depende de la intensidad; la velocidad de los electrones desprendidos no
depende de la intensidad sino de la frecuencia del haz; y para cada metal existe un
valor mínimo de frecuencia por debajo del cual no hay emisión de electrones. Este
fenómeno no había podido ser explicado hasta la fecha; sólo un loco como Einstein,
con su gran imaginación, era capaz de revivir la teoría corpuscular de la luz
(de Newton) cuando se daba por hecho su naturaleza ondulatoria.
Los electrones de los átomos del metal sólo pueden absorber ciertos valores de
energía, múltiplos de un valor fundamental hf, es decir: la energía que absorben los
electrones debe estar cuantificada. Por esta razón, la luz debe venir en paquetes que
los electrones puedan absorber, y por esta razón, también, es que los metales no
emiten electrones por debajo de un cierto valor de frecuencia, pues a los electrones
sólo les “gustan” paquetes específicos. Como la energía es proporcional a la
frecuencia (E=hf) y no a la intensidad, es por esta razón que las frecuencias más altas
arrancan los electrones más veloces. Y debido a que mientras mayor sea la
intensidad hay más fotones “golpeando” electrones, la cantidad de estos que se
emiten depende de aquella. Einstein recibió el premio Nobel en 1921 por este trabajo.
Ecuación del efecto fotoeléctrico:
Ec=h.f-w
Ec: energía cinética del electrón desprendido; f: frecuencia; h: cte planck; w:(función
de trabajo)energía mínima requerida por un electrón para ser desprendido.
Funbral= w/h
Experimento de Young
El experimento de Young, también denominado experimento de la doble rendija, fue
realizado en 1801 por Thomas Young y es un experimento hipotético, que explica el
comportamiento de algunas partículas ante la medición o sola observación sobre la
misma. El experimento postula básicamente que una partícula (que es materia [muy
diminuta]) puede poseer caracteres de onda y de partícula simultáneamente, e invertir
completamente su comportamiento ante la medición de un observador.
Todo comienza en un laboratorio cotidiano en el que se hayan una dispositivo que
dispara materia (en este caso supongamos que son bolas de billar) contra una lámina
de de hierro que mide y señala los lugares de impacto de las bolas de billar, pero
entre el dispositivo que dispara materia y la lámina que señala los impactos hay otra
lámina con una sola rendija (abertura) vertical por la que algunas bolas de billar y
otras golpearan con la parte sólida de la lámina y no lograran golpear con la lámina
que mide los impactos. Entonces cuando se dispara materia cotidiana por una rendija
en la lámina de medición de impactos queda una franja vertical de impactos, como era
de esperar. Luego en lugar de lanzar materia por la rendija se hace una onda que va a
viajar por el agua, va a pasar por la rendija y va a marcar dos franjas verticales, esa
es la diferencia de una onda y materia a escala cotidiana, al igual de que si lanzaba
materia cotidiana por dos rendijas crearía dos franjas y di se generaran ondas que
pasan por dos rendijas se crearía un patrón de muchas franjas de impacto de las
crestas de las ondas o en otros términos: un patrón de interferencia, eso no es muy
dificil.
Ahora llevemos ese experimento a escala subatómica, o sease, escala cuántica, allí
en lugar de lanzar bolas de billar lanzaremos partículas subatómicas, lanzaremos
electrones a través de dos rendijas, y la sorpresa llega allí, cuándo los electrones que
son materia se comportan de una manera rara, pues los electrones al atravesar las
dos rendijas crea un patrón de interferencia al igual que como una onda lo haría. Para
saber que sucedió allí se coloca un dispositivo de observación para ver que sucedió
en el momento de que el electrón atraviesa las rendijas, entonces allí sucede los lo
más extraño, la lámina de medición marca dos franjas de impactos, tal como la
materia cotidiana, ¿que sucedió allí? fácil, los electrones cumplieron con la ley más
básica de la mecánica cuántica, al notar el dispositivo le estaba midiendo, el electrón
cambió su comportamiento cuántico y empezó a comportarse como materia ordinaria.
En resumen lo que demostró el experimento de Young fue que a escala cuántica la
materia puede comportarse como materia y como onda simultáneamente, eso es un
claro ejemplo de dualidad de onda-partícula, y no solo es un experimento hipotético,
partículas que poseen dualidad de onda-partícula son los fotones más conocidos
como las partículas lumínicas.
El átomo de Bohr
Hacia 1911, por medio de un experimento de dispersión de partículas en metales,
Rutherford descubrió que el átomo contenía una estructura interna, y que no era como
la “sandía” que Thomson había propuesto. Según Rutherford, el átomo estaba
compuesto por un núcleo cargado positivamente, y un exterior compuesto por
electrones (negativos); la suma de las cargas de los electrones era igual a la carga del
núcleo (y se conseguía la neutralidad del átomo).
Para que los electrones no cayeran al núcleo debido a la fuerza eléctrica, era
necesario que éstos giraran, y así su fuerza centrífuga fuera igual a la fuerza de
atracción eléctrica, para evitar el colapso del átomo; pero este movimiento por ser
curvado generaba una aceleración, y según la teoría de Maxwell éstos deberían emitir
radiación, lo que generaba que perdieran energía, y por ende se precipitaran en
espiral hacia el núcleo. Así pues, con las teorías y las leyes de que se disponía no era
posible explicar la estabilidad del átomo, como también el fenómeno de las líneas
espectrales “perfectas” de una sustancia pura. Niels Bohr, en 1913, introdujo un nuevo
modelo atómico, el cual combinaba tanto ideas clásicas como cuánticas; su trabajo se
basó, generalmente, en introducir la constante de Planck al modelo matemático que
representaba al átomo. Asumiendo el átomo como un sistema solar en miniatura, las
ideas de Bohr fueron: Las órbitas de los electrones en el interior del átomo no son
todas estables; de aquí se sigue que el electrón sólo puede estar en órbitas definidas
(a determinadas distancias del átomo). Esto debido a que cada órbita representa un
nivel de energía para el electrón, pero el electrón no puede tomar cualquier valor de
energía, sólo hf ; siendo el nivel uno correspondiente al valor de energía uno, el nivel
dos al dos....Los niveles aumentan de adentro hacia afuera; al nivel uno se le llama
estado fundamental, y el electrón no puede bajar de este estado, pues no hay órbitas
mas bajas que uno (los valores son enteros positivos).
Cuando el electrón se encuentra en una órbita estable, éste no emite energía, sólo
emite o absorbe energía cuando salta de una órbita a otra. Como el electrón no puede
emitir valores arbitrarios y continuos de energía en una órbita estable, no se cumple la
predicción electromagnética, el electrón sólo emite valores enteros de energía; esta
emisión cuantificada sólo se da cuando el electrón salta de una órbita o nivel de
energía mayor a uno menor, la emisión es un fotón, exactamente con la energía que
el electrón necesito para pasar de un estado menor a uno mayor; también se da el
caso contrario: para hacer subir a un electrón de órbita o nivel, se necesita
exactamente la energía de diferencia entre las dos órbitas o niveles, y el electrón
permanece allí durante un tiempo (se dice: exitado) hasta que cae otra vez a la órbita
o nivel original, y devuelve la misma energía que le fue suministrada en un comienzo
(es devuelta en forma de un fotón).
Mediante estas ideas, Bohr explicó las líneas aparecidas en el espectro del átomo
más sencillo, el hidrógeno; estas líneas eran muy bien definidas, y esto debido a que
los electrones al ser excitados (con la energía exacta), saltaban a órbitas mayores que
luego abandonaban, devolviendo la energía en forma de fotones con frecuencias muy
específicas; estos fotones componían las líneas espectrales. Para cada elemento las
líneas eran distintas, pues lo átomos también lo eran.
Esta interpretación, aunque errónea (pues luego fue tumbada por la mecánica
ondulatoria) , fue capaz de dar una explicación satisfactoria, bonita y acorde con lo
observado con relación a los espectros atómicos y a la paradoja del “átomo de
emisión continua”.
Principio de complementariedad
Aunque Einstein ya estaba convencido de la existencia de los fotones, se necesitaba
la prueba experimental que corroborara esta teoría. Compton desde 1913, venía
trabajando con rayos x y su interacción con los electrones; aquél había descubierto
que cuando un fotón golpea a un electrón, éste gana momento y energía hf, pero el
fotón que ha entregado parte de su energía, disminuye su frecuencia (este fenómeno
es conocido como dispersión o efecto Compton).
Para poder lograr una descripción de este fenómeno, Compton tuvo que asumir que
los rayos x eran fotones muy energéticos (corroborando la teoría de Einstein), pero
para dar una descripción completa de este fenómeno no sólo bastaba con introducir la
teoría corpuscular de la luz, sino también la ondulatoria. Resultaban pues, dos teorías
de la luz: la ondulatoria y la corpuscular, ambas correctas. Esta dualidad onda-
partícula de la luz fue a lo que Bohr llamó “principio de complementariedad”, y se basa
en que las teorías corpuscular y ondulatoria de la luz no se excluyen sino que se
complementan, para así lograr una correcta descripción de la realidad. La luz es pues
onda y partículas.
Dualidad onda-partícula
El descubrimiento de la dualidad de la luz dejó inquieto a Louis de Broglie, un físico de
la época, que se preguntó: “si la luz también se comporta como partículas ¿por qué no
se deberían comportar los electrones también como ondas?” A los electrones sólo se
les puede asociar números enteros de órbitas y energías, y esto es algo propio en los
fenómenos de vibración en ondas. De Broglie le dio una estructura matemática a su
hipótesis asociándole una longitud de onda a los electrones o cualquier cuerpo
material:
λ = h/mv
Sólo fue hasta que Erwin Schrödinger formuló una teoría atómica con las ideas de de
Broglie, que los físicos empezaron a revaluar las ideas sobre el electrón.
En 1927 fueron publicados los resultados de nuevos experimentos, y fue comprobada
la hipótesis de de Broglie.
El total desprendimiento con la física clásica, fue cuando se comprobó que no sólo los
electrones y los fotones tienen esta dualidad onda-partícula sino también todas las
demás partículas existentes.
Un macro cuerpo también tiene estas propiedades, pero su longitud de onda es tan
ínfima que no puede detectarse. De Broglie, no interpretó muy bien este resultado,
pues según él el electrón era como un bote viajando por una ola. Luego Max Born y
[[[Heisemberg]]explicaron esta propiedad ondulatoria como la probabilidad de
encontrar al electrón en un punto dado.
El principio de incertidumbre
Supongamos que queremos conocer la velocidad y la posición de una partícula, para
lo cual es necesario una fuente de luz cuya longitud de onda sea igual o menor al
tamaño de dicha partícula; luz con esta característica son los rayos gamma. Así pues,
disparamos una haz de rayos gamma hacia la partícula, este rayo gamma va a
“rebotar” (dispersarse) en la partícula (este rayo dispersado va hacia un detector para
conocer algo sobre esa partícula), pero por efecto Compton este fotón gamma va a
suministrar energía a la partícula y por ende, ésta se va a “perder” pues se le ha dado
un golpe muy fuerte; así pues, vamos a tener algo de certeza sobre la velocidad pero
casi ninguna sobre su posición. Ahora bien, supongamos que la partícula está en
reposo (velocidad 0),si se sigue el mismo procedimiento anterior, cuando el fotón
golpee a la partícula, ésta, de nuevo va ha perderse y no podremos saber algo sobre
su posición. Werner Heisemberg, un precoz físico de la época y uno de los grandes
estructuradores de la mecánica cuántica (desarrollo el método matricial de ésta),
dedujo de las ecuaciones de la mecánica cuántica la conocida relación de
incertidumbre en 1927, que en honor a Heisemberg fue llamado el principio de
incertidumbre de Heisemberg. Las dos relaciones son:
Δp.Δx ≥ h
ΔE.Δt ≥ h
Así pues, mientras con más precisión se quiera saber la velocidad (o momento) de un
cuerpo, más es la incertidumbre que se tiene sobre su posición. Así mismo, mientras
con más precisión se quiera saber la energía de un cuerpo más incertidumbre se
tendrá sobre la medida del tiempo.
Entrelazamiento
Dos o más partículas pueden estar entrelazadas de tal manera que en el momento
que estas partículas se entrelazan, estas dejan de ser dos partículas para empezar a
ser un sistema de partículas entrelazadas analíticamente. El accionar de ese sistema
de partículas es instantáneo, eso quiere decir que el comportamiento de una partícula
de ese sistema repercute instantáneamente en el resto de las partículas
entrelazadas, por ejemplo: una de las partículas de ese sistema realiza una suerte de
spin hacia la derecha e instantanea e independientemente de la ubicacion y la
distancia de ambas la otra particula hará el mismo spin pero hacia la izquierda.
La antimateria
Paul Dirac, un físico de la época (Dirac fue a la mecánica cuántica como Newton fue a
la física clásica), trató de obtener una versión relativista de la mecánica cuántica.
Según la ecuación de Einstein para la energía de una partícula de masa m y momento
p se tiene:
Pero al calcular esta energía se obtiene el resultado de una raíz, es decir: se obtienen
valores -mc² y +mc². Dirac no se detuvo aquí. Cuando se obtienen los niveles de
energía de la versión relativista de la mecánica cuántica resultan conjuntos positivos y
negativos; el mayor nivel negativo es menor al menor nivel positivo; según la teoría
atómica, el electrón debe caer al nivel más bajo ¿por qué entonces no caían todos los
electrones al nivel negativo? porque ya estaban llenos. Si ya había electrones allí ¿por
qué no suministrarles la energía necesaria para que saltaran a un nivel positivo?
Para que un electrón salte de un peldaño -mc² a uno +mc² se necesita energía 2mc²,
que para el electrón es aproximadamente 1 Mev (la energía de un rayo gamma
aprox). El electrón creado es común y corriente, pero habrá dejado un hueco en el
conjunto negativo; un hueco como estos deberá comportarse como una partícula
cargada positivamente y con la misma masa del electrón. Dirac afirmo erróneamente
que esta partícula era el protón a finales de los años 20. Pero un científico llamado
Carl Anderson descubrió por accidente, en un experimento de rayos cósmicos, una
partícula con la misma masa del electrón pero de carga positiva. Esta partícula fue
llamada positrón.
Bohr señaló que mientras en la física clásica un sistema puede considerarse como un
mecanismo de relojería, en mecánica cuántica el observador interactúa con el
sistema, haciendo que el último pueda considerarse como algo no independiente: si
se realiza un experimento para medir la posición de una partícula se la obliga a que
halla incertidumbre en su velocidad, y si lo que se obtiene no es la posición sino su
velocidad, se la obliga a que halla incertidumbre en su posición, luego el observador
hace parte del experimento y la mera detección lo modifica todo; el primero de estos
experimentos muestra las propiedades corpusculares del sistema, mientras que el
segundo muestra las propiedades ondulatorias del mismo; así pues, nunca, mediante
un experimento podrán conocerse las propiedades corpusculares y ondulatorias de un
sistema a la vez (se dice que la relatividad es una teoría clásica puesto que permite
conocer posición y velocidad en el espacio-tiempo a la vez).
Supóngase una partícula la cual tiene dos posibilidades: pasar por el agujero A o por
el B, estos agujeros pueden interpretarse como dos mundos; por un mundo la
partícula pasa por el agujero A, y por el otro mundo por el B. Nuestro mundo no es
alguno de estos dos mundos, sino una “mezcla híbrida” de los dos que genera la
interferencia. Pero cuando detectamos por donde pasa el electrón todo se reduce a un
sólo mundo: el mundo en donde la partícula pasó por ese agujero, y ya no hay
interferencia.
A cada partícula se le puede asociar dos mundos en este caso, pero ¿Cuántas
partículas hay en el universo?
Así pues, puede interpretarse esto como si el gato tuviera tantas probabilidades de
vivir como de morir, esto genera una interferencia, que se rompe cuando se abre la
caja (colapso de onda) y las probabilidades se reducen a una. Desde el punto de vista
de los otros mundos, existen dos mundos: uno donde el gato está vivo y otro donde
está muerto. Pero se está en un mundo híbrido donde el gato está vivo y muerto, esto
genera la interferencia; cuando se abre la caja ya sólo se opta por un mundo, o donde
el gato vive o donde muere, y se rompe la interferencia.
Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del
sistema o Función de onda evolucionan de acuerdo con la Ecuación de
Schrödinger, sin embargo, si se realiza una medida sobre el sistema, éste sufre
un "salto cuántico" hacia un estado compatible con los valores de la medida
obtenida (formalmente el nuevo estado será una Proyección ortogonal del estado
original).
Existen diferencias perceptibles entre los estados ligados y los que no lo están.
Referencias
1. Volver arriba↑ De Broglie (1926): Ondes et mouvements, París, Gauthier-Villars
2. Volver arriba↑ Schrödinger, [Quantisierung als Eigenwertproblem (Erste
Mitteilung.)], Ann. Phys., 79, p. 361-376, (1926)1924 & 1926
Mecánica cuántica
Ir a la navegaciónIr a la búsqueda
Funciones de onda del electrón en un átomo de hidrógeno a diferentes niveles de energía. La mecánica
cuántica no puede predecir la ubicación exacta de una partícula en el espacio, solo la probabilidad de
encontrarla en diferentes lugares. Las áreas más brillantes representan una mayor probabilidad de
encontrar el electrón.
Índice
1Contexto histórico
o 1.1Radiación electromagnética
o 1.2Inestabilidad de los átomos clásicos
o 1.3Desarrollo histórico
o 1.4Suposiciones más importantes
2Descripción de la teoría
o 2.1Interpretación de Copenhague
o 2.2Formulación matemática
3Relatividad y la mecánica cuántica
4Véase también
5Referencias
o 5.1Notas
o 5.2Bibliografía
6Enlaces externos
Contexto histórico[editar]
La mecánica cuántica es, cronológicamente hablando, la última de las grandes ramas de
la física. Se formuló a principios del siglo XX, casi al mismo tiempo que la teoría de la
relatividad, aunque el grueso de la mecánica cuántica se desarrolló a partir de 1920 (siendo la
teoría de la relatividad especial de 1905 y la teoría general de la relatividad de 1915).
Además al advenimiento de la mecánica cuántica existían diversos problemas no resueltos en
la electrodinámica clásica. El primero de estos problemas era la emisión de radiación de
cualquier objeto en equilibrio, llamada radiación térmica, que es la que proviene de la vibración
microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica
clásica, la energía que emitía esta radiación térmica tendía al infinito, si se suman todas las
frecuencias que emitía el objeto, con ilógico resultado para los físicos. También la estabilidad
de los átomos no podía ser explicada por el electromagnetismo clásico, y la noción de que el
electrón fuera o bien una partícula clásica puntual o bien una cáscara esférica de dimensiones
finitas resultaban igualmente problemáticas para esto.
Radiación electromagnética[editar]
El problema de la radiación electromagnética de un cuerpo negro fue uno de los primeros
problemas resueltos en el seno de la mecánica cuántica. Es en el seno de la mecánica
estadística donde surgen por primera vez las ideas cuánticas en 1900. Al físico alemán Max
Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la integral
de esas frecuencias por una suma no continua (discreta), se dejaba de obtener infinito como
resultado, con lo que se eliminaba el problema; además, el resultado obtenido concordaba con
lo que después era medido.
Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía
cuantizados introduciendo una constante estadística, que se denominó constante de Planck.
Su historia es inherente al siglo XX, ya que la primera formulación cuántica de un fenómeno
fue dada a conocer por el mismo Planck el 14 de diciembre de 1900 en una sesión de la
Sociedad Física de la Academia de Ciencias de Berlín.2
La idea de Planck habría permanecido muchos años solo como hipótesis sin verificar por
completo si Albert Einstein no la hubiera retomado, proponiendo que la luz, en ciertas
circunstancias, se comporta como partículas de energía (los cuantos de luz o fotones) en su
explicación del efecto fotoeléctrico. Fue Albert Einstein quien completó en 1905 las
correspondientes leyes del movimiento su teoría especial de la relatividad, demostrando que
el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha
dado en llamar física clásica, es decir, la física no-cuántica.
Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto
fotoeléctrico, publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de
1921. Esta hipótesis fue aplicada también para proponer una teoría sobre el calor específico,
es decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una unidad
la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada
partícula material tiene una longitud de onda asociada, inversamente proporcional a su masa,
y a su velocidad. Así quedaba establecida la dualidad onda/materia. Poco tiempo
después Erwin Schrödinger formuló una ecuación de movimiento para las «ondas de materia»,
cuya existencia había propuesto De Broglie y varios experimentos sugerían que eran reales.
La mecánica cuántica introduce una serie de hechos contraintuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta
como esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por
primera vez aquí. Además la mecánica cuántica es la teoría científica que ha proporcionado
las predicciones experimentales más exactas hasta el momento, a pesar de estar sujeta a las
probabilidades.
Inestabilidad de los átomos clásicos[editar]
El segundo problema importante que la mecánica cuántica resolvió a través del modelo de
Bohr, fue el de la estabilidad de los átomos. De acuerdo con la teoría clásica un electrón
orbitando alrededor de un núcleo cargado positivamente debería emitir energía
electromagnética perdiendo así velocidad hasta caer sobre el núcleo. La evidencia empírica
era que esto no sucedía, y sería la mecánica cuántica la que resolvería este hecho primero
mediante postulados ad hoc formulados por Bohr y más tarde mediante modelos como
el modelo atómico de Schrödinger basados en supuestos más generales. A continuación se
explica el fracaso del modelo clásico.
En mecánica clásica, un átomo de hidrógeno es un tipo de problema de los dos cuerpos en
que el protón sería el primer cuerpo que tiene más del 99% de la masa del sistema y el
electrón es el segundo cuerpo que es mucho más ligero. Para resolver el problema de los dos
cuerpos es conveniente hacer la descripción del sistema, colocando el origen del sistema de
referencia en el centro de masa de la partícula de mayor masa, esta descripción es correcta
considerando como masa de la otra partícula la masa reducida que viene dada por
Siendo la masa del protón y la masa del electrón. En ese caso el problema del
átomo de hidrógeno parece admitir una solución simple en la que el electrón se moviera en
órbitas elípticas alrededor del núcleo atómico. Sin embargo, existe un problema con la
solución clásica, de acuerdo con las predicciones de electromagnetismo partícula eléctrica que
sigue un movimiento acelerado, como sucedería al describir una elipse debería emitir
radiación electromagnética, y por tanto perder energía cinética, la cantidad de energía radiada
sería de hecho:
Ese proceso acabaría con el colapso del átomo sobre el núcleo en un tiempo muy corto dadas
las grandes aceleraciones existentes. A partir de los datos de la ecuación anterior el tiempo de
colapso sería de 10-8 s, es decir, de acuerdo con la física clásica los átomos de hidrógeno no
serían estables y no podrían existir más de una cienmillonésima de segundo.
Esa incompatibilidad entre las predicciones del modelo clásico y la realidad observada llevó a
buscar un modelo que explicara fenomenológicamente el átomo. El modelo atómico de Bohr
era un modelo fenomenológico y provisorio que explicaba satisfactoriamente aunque de
manera heurística algunos datos, como el orden de magnitud del radio atómico y los espectros
de absorción del átomo, pero no explicaba cómo era posible que el electrón no emitiera
radiación perdiendo energía. La búsqueda de un modelo más adecuado llevó a la formulación
del modelo atómico de Schrödinger en el cual puede probarse que el valor esperado de la
aceleración es nulo, y sobre esa base puede decirse que la energía electromagnética emitida
debería ser también nula. Sin embargo, al contrario del modelo de Bohr, la representación
cuántica de Schrödinger es difícil de entender en términos intuitivos.
Desarrollo histórico[editar]
Artículo principal: Historia de la mecánica cuántica
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad del
siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de relieve por
hechos experimentales como los siguientes, inexplicables con las herramientas teóricas
anteriores de la mecánica clásica o la electrodinámica:
Fig. 1: La función de onda del electrón de un átomo de hidrógeno posee niveles de energía definidos y
discretos denotados por un número cuántico n=1, 2, 3,... y valores definidos de momento
angular caracterizados por la notación: s, p, d,... Las áreas brillantes en la figura corresponden a
densidades elevadas de probabilidad de encontrar el electrón en dicha posición.
Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la cuantización de
la energía. La energía total del cuerpo negro resultó que tomaba valores discretos más
que continuos. Este fenómeno se llamó cuantización, y los intervalos posibles más
pequeños entre los valores discretos son llamados quanta (singular: quantum, de la
palabra latina para «cantidad», de ahí el nombre de mecánica cuántica). La magnitud de
un cuanto es un valor fijo llamado constante de Planck, y que vale: 6.626 ×10 -34 julios por
segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los átomos o
los electrones exhiben un comportamiento ondulatorio, como en la interferencia. Bajo
otras condiciones, las mismas especies de objetos exhiben un comportamiento
corpuscular, de partícula, («partícula» quiere decir un objeto que puede ser localizado en
una región concreta del espacio), como en la dispersión de partículas. Este fenómeno se
conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias asociadas pueden ser correlacionadas,
en una amplitud prohibida para cualquier teoría clásica, solo pueden ser descritos con
precisión si se hace referencia a ambos a la vez. Este fenómeno es
llamado entrelazamiento cuántico y la desigualdad de Bell describe su diferencia con la
correlación ordinaria. Las medidas de las violaciones de la desigualdad de Bell fueron
algunas de las mayores comprobaciones de la mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a aparecer esa
"misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la teoría
están siendo aún estudiados activamente. La mecánica cuántica ha sido también adoptada
como la teoría subyacente a muchos campos de la física y la química, incluyendo la física de
la materia condensada, la química cuántica y la física de partículas.
La región de origen de la mecánica cuántica puede localizarse en la Europa central,
en Alemania y Austria, y en el contexto histórico del primer tercio del siglo XX.
Suposiciones más importantes[editar]
Artículo principal: Interpretaciones de la mecánica cuántica
Descripción de la teoría[editar]
Interpretación de Copenhague[editar]
Artículo principal: Interpretación de Copenhague
En la formulación matemática rigurosa, desarrollada por Dirac y von Neumann, los estados
posibles de un sistema cuántico están representados por vectores unitarios
(llamados estados) que pertenecen a un Espacio de Hilbert complejo separable (llamado
el espacio de estados). Qué tipo de espacio de Hilbert es necesario en cada caso depende del
sistema; por ejemplo, el espacio de estados para los estados de posición y momento es el
Véase también[editar]
Niels Bohr
Max Born
Louis de Broglie
George Gamow
Werner Heisenberg
Wolfgang Pauli
Max Planck
Erwin Schrödinger
Referencias[editar]
Notas[editar]
4. ↑ Halzen, Francis; Martin, Alan Douglas (1984). Universidad de Wisconsin, ed. Quarks and
Lepons: An Introducory Course in Modern Particle Physics. Universidad de Durham. Canadá: Wiley.
pp. 396. ISBN 9780471887416.
5. ↑ Vitaliĭ Isaakovich Rydnik (1987). Qué es la mecánica cuántica. Ediciones Quinto Sol. ISBN
37693524.
6. ↑ Aspect, Alain; Grangier, Philippe; Roger, Gérard (17 de agosto de 1981). «Experimental Tests
of Realistic Local Theories via Bell's Theorem». Physical Review Letters (en inglés) 47 (7): 460-
463. ISSN 0031-9007. doi:10.1103/PhysRevLett.47.460. Consultado el 7 de abril de 2019.
Bibliografía[editar]
Sumario
[ocultar]
Introducción
La mecánica cuántica es la última de las grandes ramas de la Física. Comienza a
principios del siglo XX, en el momento en que dos de las teorías que intentaban
explicar lo que nos rodea, la Ley de gravitación universal y la Teoría electromagnética
clásica, se volvían insuficientes para explicar ciertos fenómenos. La teoría
electromagnética generaba un problema cuando intentaba explicar la emisión de
radiación de cualquier objeto en equilibrio, llamada Radiación térmica, que es la que
proviene de la vibración microscópica de las partículas que lo componen. Pues bien,
usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta
radiación térmica dabaInfinito si se suman todas las frecuencias que emitía el objeto,
con ilógico resultado para los físicos.
La idea de Planck hubiera quedado muchos años sólo como hipótesis si Albert
Einstein no la hubiera retomado, proponiendo que la Luz, en ciertas circunstancias, se
comporta como partículas de energía independientes (los cuantos de luz o fotones).
Fue Albert Einstein quién completó en 1905 las correspondientes leyes de movimiento
con lo que se conoce como Teoría especial de la relatividad, demostrando que el
electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que
se ha dado en llamar Física clásica, es decir, la física no-cuántica. Usó este punto de
vista llamado por él “heurístico”, para desarrollar su teoría del efecto fotoeléctrico,
publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de 1921. Esta
hipótesis fue aplicada también para proponer una teoría sobre el Calor específico, es
decir, la que resuelve cuál es la cantidad de calor necesaria para aumentar en una
unidad la temperatura de la unidad de masa de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis de Broglie propuso que
cada partícula material tiene una Longitud de onda asociada, inversamente
proporcional a su masa, (a la que llamó Momentum), y dada por su Velocidad. Poco
tiempo después Erwin Schrödinger formuló una Ecuación de movimiento para las
"ondas de materia", cuya existencia había propuesto de Broglie y varios experimentos
sugerían eran reales.
Desarrollo histórico
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera mitad
del Siglo XX. El hecho de que la energía se intercambie de forma discreta se puso de
relieve por hechos experimentales como los siguientes, inexplicables con las
herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:
Espectro de la radiación del Cuerpo negro, resuelto por Max Planck con la
cuantización de la energía. La energía total del cuerpo negro resultó que tomaba
valores discretos más que continuos. Este fenómeno se llamó cuantización, y los
intervalos posibles más pequeños entre los valores discretos son
llamados quanta (singular: quantum, de la palabra latina para "cantidad", de ahí el
nombre de mecánica cuántica). El tamaño de un cuanto es un valor fijo llamado
constante de Planck, y que vale: 6.626 ×10-34 julios por segundo.
Bajo ciertas condiciones experimentales, los objetos microscópicos como
los Átomos o los electrones exhiben un comportamiento ondulatorio, como en
la interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben
un comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto
que puede ser localizado en una región concreta del espacio), como en
la Dispersión de partículas. Este fenómeno se conoce como Dualidad onda-
partícula.
Las propiedades físicas de objetos con historias relacionadas pueden ser
correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una
amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos
a la vez. Este fenómeno es llamado Entrelazamiento cuántico y la Desigualdad de
Bell describe su diferencia con la correlación ordinaria. Las medidas de las
violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la
mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a
aparecer esa "misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de varios físicos y
matemáticos de la época como Schrödinger, Heisenberg, Einstein, Dirac, Bohr y Von
Neumann entre otros (la lista es larga). Algunos de los aspectos fundamentales de la
teoría están siendo aún estudiados activamente. La mecánica cuántica ha sido
también adoptada como la teoría subyacente a muchos campos de la física y la
química, incluyendo la Física de la materia condensada, la Química cuántica y
la Física de partículas.
la primera es la ley de Stefan, la cual postula que el poder emisor de un cuerpo negro
(la potencia, o lo que es igual: la cantidad de energía por segundo) es proporcional a
la cuarta potencia de la temperatura; La segunda es la ley de Wien-Golitzin, la cual
postula que al elevarse la temperatura del cuerpo negro, la longitud de onda
correspondiente al máximo del espectro va haciéndose más pequeña, desplazándose
hasta el violeta.
Max Planck era uno de lo físicos que estaba tratando de explicar la curva del espectro
obtenido. Aquél, a diferencia de otros colegas, optó por tratar de obtener la ecuación
matemática de la curva experimental, y como un golpe de suerte la consiguió. Ahora
planck tenía la ecuación que generaba la curva, pero éste se encontró en un callejón
sin salida cuando trató de deducirla de las leyes de la termodinámica. Luego de
agotadores días de trabajo, planck llegó a la conclusión de que con las leyes de la
física clásica no era posible deducir la curva; sólo es posible si se asume que la
energía no es emitida como un continuo sino como un conjunto de paquetes, a los
que planck llamó cuantos. Estos paquetes no pueden tener energías arbitrarias, sólo
pueden tener múltiplos enteros de una constante (constante de planck); además, la
energía radiada por un oscilador depende de su frecuencia de oscilación (no de la
amplitud). La hipótesis cuántica de planck se resume en la siguiente ecuación:
Así pues, nace la teoría cuántica y caen dos supuestos clásicos : la energía no
depende de la amplitud sino de la frecuencia, y la energía no se radia como un
continuo sino como un conjunto de paquetes discretos. Planck, luego de su hipótesis
cuántica, no fue tomado muy en serio, pues ni él mismo era capaz de explicar algunas
implicaciones que esta hipótesis conllevaba. Sólo fue hasta que Einstein logró
aplicarla que todo empezó a tornarse más claro.
El efecto fotoeléctrico
Hacia 1899, el físico Lenard demostró que los rayos catódicos(electrones) pueden
producirse mediante la iluminación de una superficie metálica dispuesta en el vacío, y
descubrió algunos hechos interesantes: La cantidad de electrones desprendidos del
metal depende de la intensidad; la velocidad de los electrones desprendidos no
depende de la intensidad sino de la frecuencia del haz; y para cada metal existe un
valor mínimo de frecuencia por debajo del cual no hay emisión de electrones. Este
fenómeno no había podido ser explicado hasta la fecha; sólo un loco como Einstein,
con su gran imaginación, era capaz de revivir la teoría corpuscular de la luz
(de Newton) cuando se daba por hecho su naturaleza ondulatoria.
Los electrones de los átomos del metal sólo pueden absorber ciertos valores de
energía, múltiplos de un valor fundamental hf, es decir: la energía que absorben los
electrones debe estar cuantificada. Por esta razón, la luz debe venir en paquetes que
los electrones puedan absorber, y por esta razón, también, es que los metales no
emiten electrones por debajo de un cierto valor de frecuencia, pues a los electrones
sólo les “gustan” paquetes específicos. Como la energía es proporcional a la
frecuencia (E=hf) y no a la intensidad, es por esta razón que las frecuencias más altas
arrancan los electrones más veloces. Y debido a que mientras mayor sea la
intensidad hay más fotones “golpeando” electrones, la cantidad de estos que se
emiten depende de aquella. Einstein recibió el premio Nobel en 1921 por este trabajo.
Ecuación del efecto fotoeléctrico:
Ec=h.f-w
Ec: energía cinética del electrón desprendido; f: frecuencia; h: cte planck; w:(función
de trabajo)energía mínima requerida por un electrón para ser desprendido.
Funbral= w/h
Experimento de Young
El experimento de Young, también denominado experimento de la doble rendija, fue
realizado en 1801 por Thomas Young y es un experimento hipotético, que explica el
comportamiento de algunas partículas ante la medición o sola observación sobre la
misma. El experimento postula básicamente que una partícula (que es materia [muy
diminuta]) puede poseer caracteres de onda y de partícula simultáneamente, e invertir
completamente su comportamiento ante la medición de un observador.
Todo comienza en un laboratorio cotidiano en el que se hayan una dispositivo que
dispara materia (en este caso supongamos que son bolas de billar) contra una lámina
de de hierro que mide y señala los lugares de impacto de las bolas de billar, pero
entre el dispositivo que dispara materia y la lámina que señala los impactos hay otra
lámina con una sola rendija (abertura) vertical por la que algunas bolas de billar y
otras golpearan con la parte sólida de la lámina y no lograran golpear con la lámina
que mide los impactos. Entonces cuando se dispara materia cotidiana por una rendija
en la lámina de medición de impactos queda una franja vertical de impactos, como era
de esperar. Luego en lugar de lanzar materia por la rendija se hace una onda que va a
viajar por el agua, va a pasar por la rendija y va a marcar dos franjas verticales, esa
es la diferencia de una onda y materia a escala cotidiana, al igual de que si lanzaba
materia cotidiana por dos rendijas crearía dos franjas y di se generaran ondas que
pasan por dos rendijas se crearía un patrón de muchas franjas de impacto de las
crestas de las ondas o en otros términos: un patrón de interferencia, eso no es muy
dificil.
Ahora llevemos ese experimento a escala subatómica, o sease, escala cuántica, allí
en lugar de lanzar bolas de billar lanzaremos partículas subatómicas, lanzaremos
electrones a través de dos rendijas, y la sorpresa llega allí, cuándo los electrones que
son materia se comportan de una manera rara, pues los electrones al atravesar las
dos rendijas crea un patrón de interferencia al igual que como una onda lo haría. Para
saber que sucedió allí se coloca un dispositivo de observación para ver que sucedió
en el momento de que el electrón atraviesa las rendijas, entonces allí sucede los lo
más extraño, la lámina de medición marca dos franjas de impactos, tal como la
materia cotidiana, ¿que sucedió allí? fácil, los electrones cumplieron con la ley más
básica de la mecánica cuántica, al notar el dispositivo le estaba midiendo, el electrón
cambió su comportamiento cuántico y empezó a comportarse como materia ordinaria.
En resumen lo que demostró el experimento de Young fue que a escala cuántica la
materia puede comportarse como materia y como onda simultáneamente, eso es un
claro ejemplo de dualidad de onda-partícula, y no solo es un experimento hipotético,
partículas que poseen dualidad de onda-partícula son los fotones más conocidos
como las partículas lumínicas.
El átomo de Bohr
Hacia 1911, por medio de un experimento de dispersión de partículas en metales,
Rutherford descubrió que el átomo contenía una estructura interna, y que no era como
la “sandía” que Thomson había propuesto. Según Rutherford, el átomo estaba
compuesto por un núcleo cargado positivamente, y un exterior compuesto por
electrones (negativos); la suma de las cargas de los electrones era igual a la carga del
núcleo (y se conseguía la neutralidad del átomo).
Para que los electrones no cayeran al núcleo debido a la fuerza eléctrica, era
necesario que éstos giraran, y así su fuerza centrífuga fuera igual a la fuerza de
atracción eléctrica, para evitar el colapso del átomo; pero este movimiento por ser
curvado generaba una aceleración, y según la teoría de Maxwell éstos deberían emitir
radiación, lo que generaba que perdieran energía, y por ende se precipitaran en
espiral hacia el núcleo. Así pues, con las teorías y las leyes de que se disponía no era
posible explicar la estabilidad del átomo, como también el fenómeno de las líneas
espectrales “perfectas” de una sustancia pura. Niels Bohr, en 1913, introdujo un nuevo
modelo atómico, el cual combinaba tanto ideas clásicas como cuánticas; su trabajo se
basó, generalmente, en introducir la constante de Planck al modelo matemático que
representaba al átomo. Asumiendo el átomo como un sistema solar en miniatura, las
ideas de Bohr fueron: Las órbitas de los electrones en el interior del átomo no son
todas estables; de aquí se sigue que el electrón sólo puede estar en órbitas definidas
(a determinadas distancias del átomo). Esto debido a que cada órbita representa un
nivel de energía para el electrón, pero el electrón no puede tomar cualquier valor de
energía, sólo hf ; siendo el nivel uno correspondiente al valor de energía uno, el nivel
dos al dos....Los niveles aumentan de adentro hacia afuera; al nivel uno se le llama
estado fundamental, y el electrón no puede bajar de este estado, pues no hay órbitas
mas bajas que uno (los valores son enteros positivos).
Cuando el electrón se encuentra en una órbita estable, éste no emite energía, sólo
emite o absorbe energía cuando salta de una órbita a otra. Como el electrón no puede
emitir valores arbitrarios y continuos de energía en una órbita estable, no se cumple la
predicción electromagnética, el electrón sólo emite valores enteros de energía; esta
emisión cuantificada sólo se da cuando el electrón salta de una órbita o nivel de
energía mayor a uno menor, la emisión es un fotón, exactamente con la energía que
el electrón necesito para pasar de un estado menor a uno mayor; también se da el
caso contrario: para hacer subir a un electrón de órbita o nivel, se necesita
exactamente la energía de diferencia entre las dos órbitas o niveles, y el electrón
permanece allí durante un tiempo (se dice: exitado) hasta que cae otra vez a la órbita
o nivel original, y devuelve la misma energía que le fue suministrada en un comienzo
(es devuelta en forma de un fotón).
Mediante estas ideas, Bohr explicó las líneas aparecidas en el espectro del átomo
más sencillo, el hidrógeno; estas líneas eran muy bien definidas, y esto debido a que
los electrones al ser excitados (con la energía exacta), saltaban a órbitas mayores que
luego abandonaban, devolviendo la energía en forma de fotones con frecuencias muy
específicas; estos fotones componían las líneas espectrales. Para cada elemento las
líneas eran distintas, pues lo átomos también lo eran.
Esta interpretación, aunque errónea (pues luego fue tumbada por la mecánica
ondulatoria) , fue capaz de dar una explicación satisfactoria, bonita y acorde con lo
observado con relación a los espectros atómicos y a la paradoja del “átomo de
emisión continua”.
Principio de complementariedad
Aunque Einstein ya estaba convencido de la existencia de los fotones, se necesitaba
la prueba experimental que corroborara esta teoría. Compton desde 1913, venía
trabajando con rayos x y su interacción con los electrones; aquél había descubierto
que cuando un fotón golpea a un electrón, éste gana momento y energía hf, pero el
fotón que ha entregado parte de su energía, disminuye su frecuencia (este fenómeno
es conocido como dispersión o efecto Compton).
Para poder lograr una descripción de este fenómeno, Compton tuvo que asumir que
los rayos x eran fotones muy energéticos (corroborando la teoría de Einstein), pero
para dar una descripción completa de este fenómeno no sólo bastaba con introducir la
teoría corpuscular de la luz, sino también la ondulatoria. Resultaban pues, dos teorías
de la luz: la ondulatoria y la corpuscular, ambas correctas. Esta dualidad onda-
partícula de la luz fue a lo que Bohr llamó “principio de complementariedad”, y se basa
en que las teorías corpuscular y ondulatoria de la luz no se excluyen sino que se
complementan, para así lograr una correcta descripción de la realidad. La luz es pues
onda y partículas.
Dualidad onda-partícula
El descubrimiento de la dualidad de la luz dejó inquieto a Louis de Broglie, un físico de
la época, que se preguntó: “si la luz también se comporta como partículas ¿por qué no
se deberían comportar los electrones también como ondas?” A los electrones sólo se
les puede asociar números enteros de órbitas y energías, y esto es algo propio en los
fenómenos de vibración en ondas. De Broglie le dio una estructura matemática a su
hipótesis asociándole una longitud de onda a los electrones o cualquier cuerpo
material:
λ = h/mv
mv: masa y velocidad del cuerpo; h: constante de Planck
Sólo fue hasta que Erwin Schrödinger formuló una teoría atómica con las ideas de de
Broglie, que los físicos empezaron a revaluar las ideas sobre el electrón.
En 1927 fueron publicados los resultados de nuevos experimentos, y fue comprobada
la hipótesis de de Broglie.
El total desprendimiento con la física clásica, fue cuando se comprobó que no sólo los
electrones y los fotones tienen esta dualidad onda-partícula sino también todas las
demás partículas existentes.
Un macro cuerpo también tiene estas propiedades, pero su longitud de onda es tan
ínfima que no puede detectarse. De Broglie, no interpretó muy bien este resultado,
pues según él el electrón era como un bote viajando por una ola. Luego Max Born y
[[[Heisemberg]]explicaron esta propiedad ondulatoria como la probabilidad de
encontrar al electrón en un punto dado.
El principio de incertidumbre
Supongamos que queremos conocer la velocidad y la posición de una partícula, para
lo cual es necesario una fuente de luz cuya longitud de onda sea igual o menor al
tamaño de dicha partícula; luz con esta característica son los rayos gamma. Así pues,
disparamos una haz de rayos gamma hacia la partícula, este rayo gamma va a
“rebotar” (dispersarse) en la partícula (este rayo dispersado va hacia un detector para
conocer algo sobre esa partícula), pero por efecto Compton este fotón gamma va a
suministrar energía a la partícula y por ende, ésta se va a “perder” pues se le ha dado
un golpe muy fuerte; así pues, vamos a tener algo de certeza sobre la velocidad pero
casi ninguna sobre su posición. Ahora bien, supongamos que la partícula está en
reposo (velocidad 0),si se sigue el mismo procedimiento anterior, cuando el fotón
golpee a la partícula, ésta, de nuevo va ha perderse y no podremos saber algo sobre
su posición. Werner Heisemberg, un precoz físico de la época y uno de los grandes
estructuradores de la mecánica cuántica (desarrollo el método matricial de ésta),
dedujo de las ecuaciones de la mecánica cuántica la conocida relación de
incertidumbre en 1927, que en honor a Heisemberg fue llamado el principio de
incertidumbre de Heisemberg. Las dos relaciones son:
Δp.Δx ≥ h
Δp: incertidumbre (Inexactitud) sobre el momento; Δx: incertidumbre (inexactitud)
sobre la posición h: constante de planck
ΔE.Δt ≥ h
Así pues, mientras con más precisión se quiera saber la velocidad (o momento) de un
cuerpo, más es la incertidumbre que se tiene sobre su posición. Así mismo, mientras
con más precisión se quiera saber la energía de un cuerpo más incertidumbre se
tendrá sobre la medida del tiempo.
Entrelazamiento
Dos o más partículas pueden estar entrelazadas de tal manera que en el momento
que estas partículas se entrelazan, estas dejan de ser dos partículas para empezar a
ser un sistema de partículas entrelazadas analíticamente. El accionar de ese sistema
de partículas es instantáneo, eso quiere decir que el comportamiento de una partícula
de ese sistema repercute instantáneamente en el resto de las partículas
entrelazadas, por ejemplo: una de las partículas de ese sistema realiza una suerte de
spin hacia la derecha e instantanea e independientemente de la ubicacion y la
distancia de ambas la otra particula hará el mismo spin pero hacia la izquierda.
La antimateria
Paul Dirac, un físico de la época (Dirac fue a la mecánica cuántica como Newton fue a
la física clásica), trató de obtener una versión relativista de la mecánica cuántica.
Según la ecuación de Einstein para la energía de una partícula de masa m y momento
p se tiene:
Pero al calcular esta energía se obtiene el resultado de una raíz, es decir: se obtienen
valores -mc² y +mc². Dirac no se detuvo aquí. Cuando se obtienen los niveles de
energía de la versión relativista de la mecánica cuántica resultan conjuntos positivos y
negativos; el mayor nivel negativo es menor al menor nivel positivo; según la teoría
atómica, el electrón debe caer al nivel más bajo ¿por qué entonces no caían todos los
electrones al nivel negativo? porque ya estaban llenos. Si ya había electrones allí ¿por
qué no suministrarles la energía necesaria para que saltaran a un nivel positivo?
Para que un electrón salte de un peldaño -mc² a uno +mc² se necesita energía 2mc²,
que para el electrón es aproximadamente 1 Mev (la energía de un rayo gamma
aprox). El electrón creado es común y corriente, pero habrá dejado un hueco en el
conjunto negativo; un hueco como estos deberá comportarse como una partícula
cargada positivamente y con la misma masa del electrón. Dirac afirmo erróneamente
que esta partícula era el protón a finales de los años 20. Pero un científico llamado
Carl Anderson descubrió por accidente, en un experimento de rayos cósmicos, una
partícula con la misma masa del electrón pero de carga positiva. Esta partícula fue
llamada positrón.
Interpretaciones
La interpretación de Copenhague
Bohr señaló que mientras en la física clásica un sistema puede considerarse como un
mecanismo de relojería, en mecánica cuántica el observador interactúa con el
sistema, haciendo que el último pueda considerarse como algo no independiente: si
se realiza un experimento para medir la posición de una partícula se la obliga a que
halla incertidumbre en su velocidad, y si lo que se obtiene no es la posición sino su
velocidad, se la obliga a que halla incertidumbre en su posición, luego el observador
hace parte del experimento y la mera detección lo modifica todo; el primero de estos
experimentos muestra las propiedades corpusculares del sistema, mientras que el
segundo muestra las propiedades ondulatorias del mismo; así pues, nunca, mediante
un experimento podrán conocerse las propiedades corpusculares y ondulatorias de un
sistema a la vez (se dice que la relatividad es una teoría clásica puesto que permite
conocer posición y velocidad en el espacio-tiempo a la vez).
Supóngase una partícula la cual tiene dos posibilidades: pasar por el agujero A o por
el B, estos agujeros pueden interpretarse como dos mundos; por un mundo la
partícula pasa por el agujero A, y por el otro mundo por el B. Nuestro mundo no es
alguno de estos dos mundos, sino una “mezcla híbrida” de los dos que genera la
interferencia. Pero cuando detectamos por donde pasa el electrón todo se reduce a un
sólo mundo: el mundo en donde la partícula pasó por ese agujero, y ya no hay
interferencia.
A cada partícula se le puede asociar dos mundos en este caso, pero ¿Cuántas
partículas hay en el universo?
Así pues, puede interpretarse esto como si el gato tuviera tantas probabilidades de
vivir como de morir, esto genera una interferencia, que se rompe cuando se abre la
caja (colapso de onda) y las probabilidades se reducen a una. Desde el punto de vista
de los otros mundos, existen dos mundos: uno donde el gato está vivo y otro donde
está muerto. Pero se está en un mundo híbrido donde el gato está vivo y muerto, esto
genera la interferencia; cuando se abre la caja ya sólo se opta por un mundo, o donde
el gato vive o donde muere, y se rompe la interferencia.
Existen dos tipos de evolución temporal, si no ocurre ninguna medida el estado del
sistema o Función de onda evolucionan de acuerdo con la Ecuación de
Schrödinger, sin embargo, si se realiza una medida sobre el sistema, éste sufre
un "salto cuántico" hacia un estado compatible con los valores de la medida
obtenida (formalmente el nuevo estado será una Proyección ortogonal del estado
original).
Existen diferencias perceptibles entre los estados ligados y los que no lo están.
Referencias
3. Volver arriba↑ De Broglie (1926): Ondes et mouvements, París, Gauthier-Villars
4. Volver arriba↑ Schrödinger, [Quantisierung als Eigenwertproblem (Erste
Mitteilung.)], Ann. Phys., 79, p. 361-376, (1926)1924 & 1926