Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1) Evolución de la física
Es conocido que la mayoría de las civilizaciones de la antigüedad trataron desde un principio de
explicar el funcionamiento de su entorno; miraban las estrellas y pensaban cómo ellas podían regir
su mundo. Esto llevó a muchas interpretaciones de carácter más filosófico que físico; no en vano en
esos momentos a la física se le llamaba filosofía natural. Muchos filósofos se encuentran en el
desarrollo primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros
en tratar de buscar algún tipo de explicación a los fenómenos que les rodeaban.1 A pesar de que las
teorías descriptivas del universo que dejaron estos pensadores eran erradas, estas tuvieron validez
por mucho tiempo, casi dos mil años, en parte por la aceptación de la Iglesia católica de varios de sus
preceptos, como la teoría geocéntrica o las tesis de Aristóteles.
Posteriormente, en el siglo XVII un científico inglés reunió las ideas de Galileo y Kepler en un solo
trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la Tierra en lo que él
llamó gravedad. En 1687, Isaac Newton, en su obra Philosophiae Naturalis Principia Mathematica,
formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal, que
transformaron por completo el mundo físico; todos los fenómenos podían ser vistos de una manera
mecánica.
El trabajo de Newton en este campo perdura hasta la actualidad; todos los fenómenos macroscópicos
pueden ser descritos de acuerdo a sus tres leyes. Por eso durante el resto de ese siglo y el
posterior siglo XVIII todas las investigaciones se basaron en sus ideas. De ahí que se desarrollaron
otras disciplinas, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística.
Los conocidos trabajos de Daniel Bernoulli, Robert Boyle y Robert Hooke, entre otros, pertenecen a
esta época.
1
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Durante el siglo XX, la física se desarrolló plenamente. En 1904, Hantarō Nagaoka había propuesto
el primer modelo del átomo,6 el cual fue confirmado en parte por Ernest Rutherford en 1911, aunque
ambos planteamientos serían después sustituidos por el modelo atómico de Bohr, de 1913. En 1905,
Einstein formuló la teoría de la relatividad especial, la cual coincide con las leyes de Newton cuando
los fenómenos se desarrollan a velocidades pequeñas comparadas con la velocidad de la luz. En
1915 extendió la teoría de la relatividad especial, formulando la teoría de la relatividad general, la cual
sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas. Max
Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la teoría cuántica, a fin de explicar resultados
experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la
existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de
partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac,
formularon la mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra
las herramientas teóricas para la Física de la materia condensada.
Los intentos de unificar las cuatro interacciones fundamentales han llevado a los físicos a nuevos
campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general,
que son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles
cuando se las quiere ver desde un mismo punto de vista. Por eso se han formulado nuevas teorías,
como la súper gravedad o la teoría de cuerdas, donde se centran las investigaciones a inicios del siglo
XXI.
Transición cuántico-clásica
En física cuántica no hay una explicación causal para la definición clásica de un sistema físico desde
la indefinición ontológica que rige el comportamiento cuántico. No existe una ley causa-efecto que
define la trayectoria desde lo clásico a lo cuántico. Es más, algunas interpretaciones físicas introducen
la idea de un salto cuántico totalmente opuesto a la idea del continuismo clásico.
2
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
La alternativa física más consolidada actualmente para explicar el proceso de medida entiende la
transición cuántico-clásica como un proceso de decoherencia, donde la indefinición cuántica va
paulatinamente debilitándose a medida que el sistema cuántico va interactuando con su entorno
clásico. Decimos que la coherencia cuántica de un sistema lo permite estar en un estado de
indefinición ontológica clásica.
Al acoplarse con el medio macroscópico la coherencia se diluye según se perfila el sistema hasta que
finalmente se vuelve clásico a todos los efectos prácticos. La decoherencia cuántica permite suavizar
y cuantificar el proceso de medida pero, últimamente, la emergencia del estado clásico concreto y
bien definido es una transición estocástica sin explicación causal.
Consecuentemente, la física debe desprenderse del clásico anhelo de crear un conjunto de leyes
causales que predigan cuanto existe en el Universo. Ciertas cualidades del mundo físico no puede
explicarse mediante leyes causales deterministas, pues están fuera de su alcance explicativo. El
origen del universo físico o la emergencia del mundo clásico desde un fondo cuántico indeterminado
son problemáticas abiertas que dejan entrever una realidad ontológica que desborda el enrejado de
las leyes deterministas de causa y efecto.
El determinismo de la física
En la descripción de un sistema mecánico clásico se realiza mediante una serie de magnitudes de
posición y velocidades (alternativamente momentos lineales) asociadas a cada punto material del
sistema y que varían con el tiempo de acuerdo a ciertas leyes. Por simplicidad en esta sección nos
restringiremos a sistemas mecánicos con un número finito de grados de libertad. En el caso de los
fluidos y otras áreas de la física necesitamos definir funciones sobre regiones continuas, lo cual
formalmente equivale a tratarlos como sistemas con un número infinito de grados de libertad.
La formulación matemática de la mecánica clásica, y otras disciplinas de la física clásica, son tales
que el estado de un sistema mecánico queda completamente determinado si se conoce su cantidad
3
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Ahora bien el objetivo habitual de las aplicaciones de la mecánica clásica no es precisar el estado de
un sistema sin más, sino además, partiendo de un estado dado, predecir y definir unívocamente
cualquier estado posterior del mismo sistema. En esto consiste el determinismo clásico.
La mecánica clásica ha podido defender durante mucho tiempo este tipo de determinismo
apoyándose en sus éxitos. Lo que para Newton era todavía un supuesto implícito, se convierte
con Laplace en doctrina.
Teoría de la relatividad
La teoría de la relatividad incluye tanto a la teoría de la relatividad especial como a la de relatividad
general, formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la
incompatibilidad existente entre la mecánica newtoniana y el electromagnetismo.
La teoría de la relatividad especial, publicada en 1905, trata de la física del movimiento de los cuerpos
en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del
electromagnetismo con una reformulación de las leyes del movimiento.
La teoría de la relatividad general, publicada en 1915, es una teoría de la gravedad que reemplaza a
la gravedad newtoniana, aunque coincide numéricamente con ella para campos gravitatorios
débiles y "pequeñas" velocidades. La teoría general se reduce a la teoría especial en ausencia de
campos gravitatorios.
4
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Es en el seno de la mecánica estadística donde surgen las ideas cuánticas en 1900. Al físico
alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la
integral de esas frecuencias por una suma no continua, se dejaba de obtener infinito como resultado,
con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo que después
era medido.
Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía mediante una
constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya
que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14
de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.4
La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera
retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía
independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en 1905 las
correspondientes leyes de movimiento en su teoría especial de la relatividad, demostrando que
el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado
en llamar física clásica, es decir, la física no-cuántica.
Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto fotoeléctrico,
publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921. Esta hipótesis
fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál
es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa
de un cuerpo.
El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada partícula
material tiene una longitud de onda asociada, inversamente proporcional a su masa, y dada por
su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las
«ondas de materia», cuya existencia había propuesto De Broglie y varios experimentos sugerían que
eran reales.
5
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
La mecánica cuántica introduce una serie de hechos contra intuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como
esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez aquí.
Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones
experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.
Todo cuerpo emite energía en forma de ondas electromagnéticas, siendo esta radiación, que se emite
incluso en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía
radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de
onda superiores a las de la luz visible (es decir, de menor frecuencia). Al elevar la temperatura no
sólo aumenta la energía emitida sino que lo hace a longitudes de onda más cortas; a esto se debe el
cambio de color de un cuerpo cuando se calienta. Los cuerpos no emiten con igual intensidad a todas
las frecuencias o longitudes de onda, sino que siguen la ley de Planck.
6
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
La intensidad de la radiación emitida por un cuerpo negro, con una temperatura en la frecuencia
, viene dada por la ley de Planck:
La longitud de onda en la que se produce el máximo de emisión viene dada por la ley de Wien; por lo
tanto, a medida que la temperatura aumenta, el brillo de un cuerpo va sumando longitudes de onda,
cada vez más pequeñas, y pasa del rojo al blanco según va sumando las radiaciones desde el amarillo
hasta el violeta. La potencia emitida por unidad de área viene dada por la ley de Stefan-Boltzmann.
Antes de Planck, la Ley de Rayleigh-Jeans modelizaba el comportamiento del cuerpo negro utilizando
el modelo clásico. De esta forma, el modelo que define la radiación del cuerpo negro a una longitud
de onda concreta:
Esta ley predice una producción de energía infinita a longitudes de onda muy pequeñas. Esta
situación que no se corrobora experimentalmente es conocida como la catástrofe ultravioleta.
7
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Teorema de Equipartición
En mecánica estadística, clásica, el teorema de equipartición es una fórmula general que relaciona
la temperatura de un sistema con su energía media. El teorema de equipartición también se conoce
como la ley de equipartición, equipartición de la energía, o simplemente equipartición. La idea central
de la equipartición es que, en equilibrio térmico, la energía se reparte en partes iguales entre sus
varias formas; por ejemplo, la energía cinética promedio en un movimiento de traslación de una
molécula debe ser igual a la energía cinética promedio en su movimiento de rotación.
8
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
El efecto fotoeléctrico fue descubierto y descrito por Heinrich Hertz en 1887, al observar que el arco
que salta entre dos electrodos conectados a alta tensión alcanza distancias mayores cuando se
ilumina con luz ultravioleta que cuando se deja en la oscuridad. La explicación teórica fue hecha
por Albert Einstein, quien publicó en 1905 el revolucionario artículo “Heurística de la generación y
conversión de la luz”, basando su formulación de la fotoelectricidad en una extensión del trabajo sobre
los cuantos de Max Planck. Más tarde Robert Andrews Millikan pasó diez años experimentando para
demostrar que la teoría de Einstein no era correcta, para finalmente concluir que sí lo era. Eso permitió
que Einstein y Millikan fueran condecorados con premios Nobel en 1921 y 1923, respectivamente.
Se podría decir que el efecto fotoeléctrico es lo opuesto a los rayos X, ya que el efecto fotoeléctrico
indica que los fotones pueden transferir energía a los electrones. Los rayos X (no se sabía la
naturaleza de su radiación, de ahí la incógnita "X") son la transformación en un fotón de toda o parte
de la energía cinética de un electrón en movimiento. Esto se descubrió casualmente antes de que se
dieran a conocer los trabajos de Planck y Einstein (aunque no se comprendió entonces).
Introducción
Los fotones tienen una energía característica determinada por la frecuencia de onda de la luz. Si un
átomo absorbe energía de un fotón y tiene más energía que la necesaria para expulsar un electrón
del material y además posee una trayectoria dirigida hacia la superficie, entonces el electrón puede
ser expulsado del material. Si la energía del fotón es demasiado pequeña, el electrón es incapaz de
escapar de la superficie del material. Los cambios en la intensidad de la luz no modifican la energía
de sus fotones, tan sólo el número de electrones que pueden escapar de la superficie sobre la que
incide y por tanto la energía de los electrones emitidos no depende de la intensidad de la radiación
que le llega, sino de su frecuencia. Si el fotón es absorbido, parte de la energía se utiliza para liberarlo
del átomo y el resto contribuye a dotar de energía cinética a la partícula libre.
9
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
En principio, todos los electrones son susceptibles de ser emitidos por efecto fotoeléctrico. En realidad
los que más salen son los que necesitan menos energía para ser expulsados y, de ellos, los más
numerosos.
A la temperatura ambiente, los electrones más energéticos se encuentran cerca del nivel de
Fermi (salvo en los semiconductores intrínsecos en los cuales no hay electrones cerca del nivel de
Fermi). La energía que hay que dar a un electrón para llevarlo desde el nivel de Fermi hasta el exterior
del material se llama función de trabajo, y la frecuencia mínima necesaria, de radiación incidente,
para sacar un electrón del metal, recibe el nombre de frecuencia umbral. El valor de esa energía es
muy variable y depende del material, estado cristalino y, sobre todo, de las últimas capas atómicas
que recubren la superficie del material. Los metales alcalinos (sodio, calcio, cesio, etc.), presentan
las más bajas funciones de trabajo. Aún es necesario que las superficies estén limpias a nivel atómico.
Una de la mayores dificultades en los experimentos de Millikan era que había que fabricar las
superficies de metal en el vacío.
Explicación
Los fotones del rayo de luz tienen una energía característica determinada por la frecuencia de la luz.
En el proceso de fotoemisión, si un electrón absorbe la energía de un fotón y éste último tiene más
energía que la función de trabajo, el electrón es arrancado del material. Si la energía del fotón es
demasiado baja, el electrón no puede escapar de la superficie del material.
Aumentar la intensidad del haz no cambia la energía de los fotones constituyentes, solo cambia el
número de fotones. En consecuencia, la energía de los electrones emitidos no depende de la
intensidad de la luz, sino de la energía de los fotones.
Los electrones pueden absorber energía de los fotones cuando son irradiados, pero siguiendo un
principio de "todo o nada". Toda la energía de un fotón debe ser absorbida y utilizada para liberar un
electrón de un enlace atómico, o si no la energía es re-emitida. Si la energía del fotón es absorbida,
una parte libera al electrón del átomo y el resto contribuye a la energía cinética del electrón como una
partícula libre.
Einstein no se proponía estudiar las causas del efecto en el que los electrones de ciertos metales,
debido a una radiación luminosa, podían abandonar el metal con energía cinética. Intentaba explicar
el comportamiento de la radiación, que obedecía a la intensidad de la radiación incidente, al
10
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
conocerse la cantidad de electrones que abandonaba el metal, y a la frecuencia de la misma, que era
proporcional a la energía que impulsaba a dichas partículas.
Formulación matemática
Para analizar el efecto fotoeléctrico cuantitativamente utilizando el método derivado por Einstein es
necesario plantear las siguientes ecuaciones:
Energía de un fotón absorbido = Energía necesaria para liberar 1 electrón + energía cinética del
electrón emitido.
Algebraicamente:
11
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
En algunos materiales esta ecuación describe el comportamiento del efecto fotoeléctrico de manera
tan sólo aproximada. Esto es así porque el estado de las superficies no es perfecto (contaminación
no uniforme de la superficie externa).
Historia
Heinrich Hertz
Las primeras observaciones del efecto fotoeléctrico fueron llevadas a cabo por Heinrich Hertz en 1887
en sus experimentos sobre la producción y recepción de ondas electromagnéticas. Su receptor
consistía en una bobina en la que se podía producir una chispa como producto de la recepción de
ondas electromagnéticas. Para observar mejor la chispa Hertz encerró su receptor en una caja negra.
Sin embargo la longitud máxima de la chispa se reducía en este caso comparada con las
observaciones de chispas anteriores. En efecto la absorción de luz ultravioleta facilitaba el salto de
los electrones y la intensidad de la chispa eléctrica producida en el receptor. Hertz publicó un artículo
con sus resultados sin intentar explicar el fenómeno observado.
J. J. Thomson
En 1897, el físico británico Joseph John Thomson investigaba los rayos catódicos. Influenciado por
los trabajos de James Clerk Maxwell, Thomson dedujo que los rayos catódicos consistían de un flujo
de partículas cargadas negativamente a los que llamó corpúsculos y ahora conocemos
como electrones.
Thomson utilizaba una placa metálica encerrada en un tubo de vacío como cátodo exponiendo este
a luz de diferente longitud de onda. Thomson pensaba que el campo electromagnético de frecuencia
variable producía resonancias con el campo eléctrico atómico y que si estas alcanzaban una amplitud
suficiente podía producirse la emisión de un "corpúsculo" subatómico de carga eléctrica y por lo tanto
el paso de la corriente eléctrica.
La intensidad de esta corriente eléctrica variaba con la intensidad de la luz. Incrementos mayores de
la intensidad de la luz producían incrementos mayores de la corriente. La radiación de mayor
frecuencia producía la emisión de partículas con mayor energía cinética.
Von Lenard
En 1902 Philipp von Lenard realizó observaciones del efecto fotoeléctrico en las que se ponía de
manifiesto la variación de energía de los electrones con la frecuencia de la luz incidente.
La energía cinética de los electrones podía medirse a partir de la diferencia de potencial necesaria
para frenarlos en un tubo de rayos catódicos. La radiación ultravioleta requería por ejemplo
potenciales de frenado mayores que la radiación de mayor longitud de onda. Los experimentos de
12
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Lenard arrojaban datos únicamente cualitativos dados las dificultades del equipo instrumental con el
cual trabajaba.
Cuantos de luz de Einstein
En 1905, el mismo año que descubrió su teoría de la relatividad especial, Albert Einstein propuso una
descripción matemática de este fenómeno que parecía funcionar correctamente y en la que la emisión
de electrones era producida por la absorción de cuantos de luz que más tarde serían llamados
fotones. En un artículo titulado "Un punto de vista heurístico sobre la producción y transformación de
la luz" mostró como la idea de partículas discretas de luz podía explicar el efecto fotoeléctrico y la
presencia de una frecuencia característica para cada material por debajo de la cual no se producía
ningún efecto. Por esta explicación del efecto fotoeléctrico Einstein recibiría el Premio Nobel de
Física en 1921.
El trabajo de Einstein predecía que la energía con la que los electrones escapaban del material
aumentaba linealmente con la frecuencia de la luz incidente. Sorprendentemente este aspecto no
había sido observado en experiencias anteriores sobre el efecto fotoeléctrico. La demostración
experimental de este aspecto fue llevada a cabo en 1915 por el físico estadounidense Robert Andrews
Millikan.
Dualidad onda-corpúsculo
El efecto fotoeléctrico fue uno de los primeros efectos físicos que puso de manifiesto la dualidad onda-
corpúsculo característica de la mecánica cuántica. La luz se comporta como ondas pudiendo producir
interferencias y difracción como en el experimento de la doble rendija de Thomas Young, pero
intercambia energía de forma discreta en paquetes de energía, fotones, cuya energía depende de la
frecuencia de la radiación electromagnética. Las ideas clásicas sobre la absorción de radiación
electromagnética por un electrón sugerían que la energía es absorbida de manera continua. Este tipo
de explicaciones se encontraban en libros clásicos como el libro de Millikan sobre los electrones o el
escrito por Compton y Allison sobre la teoría y experimentación con rayos X. Estas ideas fueron
rápidamente reemplazadas tras la explicación cuántica de Albert Einstein.
13
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
En este modelo los electrones giran en órbitas circulares alrededor del núcleo, ocupando la órbita de
menor energía posible, o la órbita más cercana posible al núcleo. El electromagnetismo clásico
predecía que una partícula cargada moviéndose de forma circular emitiría energía por lo que los
electrones deberían colapsar sobre el núcleo en breves instantes de tiempo. Para superar este
problema Bohr supuso que los electrones solamente se podían mover en órbitas específicas, cada
una de las cuales caracterizada por su nivel energético. Cada órbita puede entonces identificarse
mediante un número entero n que toma valores desde 1 en adelante. Este número "n" recibe el
nombre de número cuántico principal.
Bohr supuso además que el momento angular de cada electrón estaba cuantizado y sólo podía variar
en fracciones enteras de la constante de Planck. De acuerdo al número cuántico principal calculó las
distancias a las cuales se hallaba del núcleo cada una de las órbitas permitidas en el átomo de
hidrógeno. Estos niveles en un principio estaban clasificados por letras que empezaban en la "K" y
terminaban en la "Q". Posteriormente los niveles electrónicos se ordenaron por números. Cada órbita
tiene electrones con distintos niveles de energía obtenida que después se tiene que liberar y por esa
razón el electrón va saltando de una órbita a otra hasta llegar a una que tenga el espacio y nivel
adecuado, dependiendo de la energía que posea, para liberarse sin problema y de nuevo volver a su
órbita de origen. Sin embargo no explicaba el espectro de estructura fina que podría ser explicado
algunos años más tarde gracias al modelo atómico de Sommerfeld. Históricamente el desarrollo del
modelo atómico de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin
Schrödinger descubrir la ecuación fundamental de la mecánica cuántica.
Postulados de Bohr
En 1913, Niels Bohr desarrolló su célebre modelo atómico de acuerdo a tres postulados
fundamentales:
14
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Primer postulado
Los electrones describen órbitas circulares en torno al núcleo del átomo sin irradiar energía.
La causa de que el electrón no irradie energía en su órbita es, de momento, un postulado, ya que
según la electrodinámica clásica una carga con un movimiento acelerado debe emitir energía en
forma de radiación.
Para mantener la órbita circular, la fuerza que siente el electrón —la fuerza coulombiana por la
presencia del núcleo— debe ser igual a la fuerza centrípeta. Esto nos da la siguiente expresión:
Y ahora, con esta ecuación, y sabiendo que la energía total es la suma de las energías cinética y
potencial:
Donde queda expresada la energía de una órbita circular para el electrón en función del radio de
dicha órbita.
Segundo postulado
No toda órbita para electrón está permitida, tan solo se puede encontrar en órbitas cuyo radio
cumpla que el momento angular, del electrón sea un múltiplo entero de h=h/2pi
15
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
A partir de ésta condición y de la expresión para el radio obtenida antes, podemos eliminar y
queda la condición de cuantización para los radios permitidos:
Con n=1,2,3,..; subíndice introducido en esta expresión para resaltar que el radio ahora es una
magnitud discreta, a diferencia de lo que decía el primer postulado.
Ahora, dándole valores a , número cuántico principal, obtenemos los radios de las órbitas
permitidas. Al primero de ellos (con n=1), se le llama radio de Bohr:
Del mismo modo podemos ahora sustituir los radios permitidos en la expresión para la energía
de la órbita y obtener así la energía correspondiente a cada nivel permitido:
Igual que antes, para el átomo de hidrógeno (Z=1) y el primer nivel permitido (n=1), obtenemos:
Tercer postulado
El electrón solo emite o absorbe energía en los saltos de una órbita permitida a otra. En
dicho cambio emite o absorbe un fotón cuya energía es la diferencia de energía entre ambos
niveles. Este fotón, según la ley de Planck tiene una energía:
16
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Esta última expresión fue muy bien recibida porque explicaba teóricamente la fórmula fenomenológica
hallada antes por Balmer para describir las líneas espectrales observadas desde finales del siglo
XIX en la des excitación del Hidrógeno, que venían dadas por:
Se puede demostrar que este conjunto de hipótesis corresponde a la hipótesis de que los electrones
estables orbitando un átomo están descritos por funciones de onda estacionarias. Un modelo atómico
es una representación que describe las partes que tiene un átomo y como están dispuestas para
formar un todo. Basándose en la constante de Planck consiguió cuantizar las órbitas
observando las líneas del espectro.
El modelo permitió aclarar por primera vez por qué las sustancias químicas reaccionaban
en proporciones estequiométricas fijas (Ley de las proporciones constantes), y por qué cuando dos
sustancias reaccionan para formar dos o más compuestos diferentes, entonces las proporciones de
estas relaciones son números enteros (Ley de las proporciones múltiples). Por ejemplo 12 g de
carbono (C), pueden reaccionar con 16 g de oxígeno (O2) para formar monóxido de carbono (CO) o
pueden reaccionar con 32 g de oxígeno para formar dióxido de carbono (CO2). Además el modelo
aclaraba que aun existiendo una gran variedad de sustancias diferentes, estas podían ser explicadas
en términos de una cantidad más bien pequeña de constituyentes elementales o elementos. En
esencia, el modelo explicaba la mayor parte de la química de fines del siglo XVIII y principios del siglo
XIX, reduciendo una serie de hechos complejos a una teoría combinatoria realmente simple.
17
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Postulados de Dalton
1. La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles
y no se pueden destruir.
2. Los átomos de un mismo elemento son iguales entre sí, tienen la misma masa y propiedades.
Los átomos de diferentes elementos tienen masas diferentes. Comparando las masas de los
elementos con los del hidrógeno tomado como la unidad propuso el concepto de peso
atómico relativo.
3. Los átomos permanecen sin división, aun cuando se combinen en las reacciones químicas.
4. Los átomos, al combinarse para formar compuestos guardan relaciones simples.
5. Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar
más de un compuesto.
6. Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.
La materia está formada por partículas muy pequeñas llamadas “átomos”. Estos átomos no se pueden
dividir ni romper, no se crean ni se destruyen en ninguna reacción química, y nunca cambian.
Los átomos de un mismo elemento son iguales entre sí, tienen la misma masa y dimensiones. Por
ejemplo: todos los átomos de hidrógeno son iguales.
Por otro lado, los átomos de elementos diferentes son diferentes. Por ejemplo: los átomos
de oxígeno son diferentes a los átomos de hidrógeno.
Los átomos pueden combinarse para formar compuestos químicos. Por ejemplo: los átomos de
hidrógeno y oxígeno pueden combinarse y formar moléculas de agua.
Los átomos se combinan para formar compuestos en relaciones numéricas simples. Por ejemplo: al
formarse agua, la relación es de 2 a 1 (dos átomos de hidrógeno con un átomo de oxígeno).
Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más de
un compuesto. Por ejemplo: un átomo de carbono con uno de oxígeno forman monóxido de
carbono (CO), mientras que dos átomos de oxígeno con uno de carbono, forman dióxido de
carbono (CO2).
18
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
La importancia del modelo de Rutherford residió en proponer por primera vez la existencia de un
núcleo en el átomo (término que, paradójicamente, no aparece en sus escritos). Lo que Rutherford
consideró esencial, para explicar los resultados experimentales, fue "una concentración de carga" en
el centro del átomo, ya que sin ella, no podía explicarse que algunas partículas fueran rebotadas en
dirección casi opuesta a la incidente. Este fue un paso crucial en la comprensión de la materia, ya
que implicaba la existencia de un núcleo atómico donde se concentraba toda la carga positiva y más
del 99,9% de la masa. Las estimaciones del núcleo revelaban que el átomo en su mayor parte estaba
vacío.
19
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Rutherford propuso que los electrones orbitarían en ese espacio vacío alrededor de un minúsculo
núcleo atómico, situado en el centro del átomo. Además se abrían varios problemas nuevos que
llevarían al descubrimiento de nuevos hechos y teorías al tratar de explicarlos:
Por un lado se planteó el problema de cómo un conjunto de cargas positivas podían mantenerse
unidas en un volumen tan pequeño, hecho que llevó posteriormente a la postulación y
descubrimiento de la fuerza nuclear fuerte, que es una de las cuatro interacciones fundamentales.
Por otro lado existía otra dificultad proveniente de la electrodinámica clásica que predice que una
partícula cargada y acelerada, como sería el caso de los electrones orbitando alrededor del
núcleo, produciría radiación electromagnética, perdiendo energía y finalmente cayendo sobre el
núcleo. Las leyes de Newton, junto con las ecuaciones de
Maxwell del electromagnetismo aplicadas al átomo de Rutherford llevan a que en un tiempo del
orden de s, toda la energía del átomo se habría radiado, con la consiguiente caída de los
electrones sobre el núcleo.2 Se trata, por tanto de un modelo físicamente inestable, desde el
punto de vista de la física clásica.
Según Rutherford, las órbitas de los electrones no están muy bien definidas y forman una estructura
compleja alrededor del núcleo, dándole un tamaño y forma algo indefinidos. Los resultados de
su experimento le permitieron calcular que el radio atómico era diez mil veces mayor que el núcleo
mismo, y en consecuencia, que el interior de un átomo está prácticamente vacío.
En 1916, Sommerfeld perfeccionó el modelo atómico de Bohr intentando paliar los dos principales
defectos de éste. Para eso introdujo dos modificaciones básicas: Órbitas casi-elípticas para los
electrones y velocidades relativistas. En el modelo de Bohr los electrones sólo giraban en órbitas
circulares. La excentricidad de la órbita dio lugar a un nuevo número cuántico: el número cuántico
azimutal, que determina la forma de los orbitales, se lo representa con la letra l y toma valores que
van desde 0 hasta n-1. Las órbitas son:
20
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Para hacer coincidir las frecuencias calculadas con las experimentales, Sommerfeld postuló que
el núcleo del átomo no permanece inmóvil, sino que tanto el núcleo como el electrón se mueven
alrededor del centro de masas del sistema, que estará situado muy próximo al núcleo al tener este
una masa varios miles de veces superior a la masa del electrón.
La crítica radical de los conceptos clásicos sobre el movimiento que realizó la mecánica cuántica, de
la que son expresión la ecuación de De Broglie y la relación de incertidumbre de Heisemberg, exigió
una modificación igualmente radical del formalismo matemático utilizado para describir el movimiento
o, más en general, para describir el estado de un sistema y su evolución.
21
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Esto es coherente con el carácter dual de la materia y con el concepto de deslocalización exigido por
el principio de incertidumbre de Heisemberg. Schrödinger recibió el premio Nóbel de Física en 1933
por haber desarrollado su ecuación y Born recibió el mismo galardón en 1954 por la interpretación
probabilística de la función de ondas de dicha ecuación.
Es importante que se entienda que la mecánica cuántica no es una ampliación de la anterior mecánica
clásica, sino una teoría autónoma, cuyo campo de aplicación se extiende allá donde se podía aplicar
la mecánica de Newton y también, por supuesto, al ámbito donde las predicciones de la mecánica de
Newton erraban (física atómica, nuclear, partículas). La ecuación de Schrödinger juega en la
mecánica cuántica el mismo papel que juega la segunda ley de Newton en la mecánica clásica, de
tal modo que en las situaciones en las que es insignificante el carácter ondulatorio de los objetos, la
ecuación de Schrödinger (de aplicación general) se reduce a la segunda ley de Newton.
Decir finalmente que la ecuación de Schrödinger no tuvo en cuenta las predicciones de la relatividad
y, por ello, sólo puede describir partículas cuya velocidad sea pequeña comparada con la velocidad
de la luz. Otra limitación de la ecuación es que no incorporó el espín adecuadamente. Pauli (1900-
1958), que en 1924 había introducido el cuarto número cuántico, generalizó ligeramente la ecuación
de Schrödinger introduciendo términos que predicen correctamente el espín, y en 1928 Dirac (1902-
1984) introdujo los efectos relativistas.
Dualidad onda-corpúsculo
De Broglie (1892-1987), en su tesis doctoral de 1924 atribuyó a toda partícula con impulso, p (para
una partícula de masa, m, y velocidad, v, p=m·v), una onda asociada de longitud de onda l = h/p (h es
la constante de Planck). La generalización de esta ley de De Broglie a todos los objetos materiales
inició el desarrollo de la física cuántica, donde se establece que toda entidad individual (las partículas
y también los fotones) tiene una naturaleza dual, de modo que su comportamiento global presenta
dos aspectos complementarios: ondulatorio y corpuscular. Dependiendo de la situación predomina
uno de estos dos aspectos.
Así por ejemplo, consideramos el ejemplo de una mota de polvo que se desplaza a una velocidad
de 1m/s (masa aproximada = 0.01g = 1·10-5 Kg,, radio aproximado = 1·10 -3m). Su longitud de onda
es del orden de 10-28m (l = h/m·v = 6.67·10-34/1·10-5 = 6.67·10-29m), por tanto 10-25 veces más
pequeña que su tamaño, lo que hace totalmente insignificante el carácter ondulatorio de la mota de
polvo. Dicha mota de polvo se comporta, a todos los efectos, como una partícula.
En contraposición, consideramos ahora a un electrón impulsado por un campo eléctrico, como, por
ejemplo, el generado entre las placas de un condensador (me = 9.1·10-31 Kg, ve =2·106m/s). Su
longitud de onda es del orden de entre 10-10m y 10-9m (l = h/m·v = 6.67·10-34/9.1·10-31·2·106 =
22
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
3.6·10-9m), siendo 10-10m (1 Angstrom) una longitud del orden de magnitud del tamaño atómico. Por
lo tanto, en su contexto el electrón tiene una masa y una cantidad de movimiento (propiedades
corpusculares), y también una longitud de onda (propiedad ondulatoria), significativas. En una
colisión de dos electrones predomina el comportamiento corpuscular de ambos, pero también
ocurre que un haz de electrones se difracta cuando pasa por un pequeño orificio circular de tamaño
comparable a su longitud de onda.
Principio de Incertidumbre
El sentido físico de la longitud de onda de una partícula es señalar la existencia de una cierta
deslocalización o, lo que es igual, de una indeterminación en el movimiento que puede seguir la
partícula. Significa que la partícula carece de una trayectoria absolutamente determinada y como
consecuencia se tiene una imposibilidad, al contrario de lo que suponía la mecánica clásica, de
determinar de forma simultánea con precisión absoluta su posición y su velocidad. El formalismo
matemático de la mecánica cuántica permite deducir los límites de dicha imprecisión, mediante las
siguientes relaciones:
23
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
Heisemberg(1901-
La imprecisión impuesta por el principio de incertidumbre a las magnitudes
1976)
posición y velocidad (cantidad de movimiento), también se aplica a otras
parejas de magnitudes relacionadas con éstas y cuyo producto tiene las
mismas dimensiones que tiene el producto de posición y cantidad de
movimiento. Así, la determinación simultánea de la energía y el tiempo,
viene afectada por un límite del que es expresión la siguiente
ecuación: ΔE · Δt ≥ h/2π
Para entender por qué pasó desapercibido para la física clásica el principio de incertidumbre
consideramos un objeto de pequeñas dimensiones, como un grano de polvo de 10-6m de diámetro
que se mueve con una velocidad de 1m/s. Si se determina su velocidad con una imprecisión Dv =10-
3
m (muy pequeña con relación al valor de v), la imprecisión en la determinación de su posición
es Dx =10-29m, absolutamente despreciable frente al tamaño del objeto. En este caso, la posición y,
por tanto, la trayectoria del grano de polvo se pueden determinar casi perfectamente.
Rehaciendo estos mismos cálculos para un electrón que avanzara hipotéticamente a la misma
velocidad y se determinara con la misma precisión, obtenemos una imprecisión en su posición
de Dx =10-1m, que es billones de veces superior al tamaño convencional del electrón (10-15m). Por
tanto, dicho electrón queda totalmente deslocalizado.
24
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
En mecánica cuántica, una función de onda es una forma de representar el estado físico de
un sistema de partículas. Usualmente es una función compleja, de cuadrado integrable y univaluada
de las coordenadas espaciales de cada una de las partículas. Las propiedades mencionadas de la
función de onda permiten interpretarla como una función de cuadrado integrable. La ecuación de
Schrödinger proporciona una ecuación determinista para explicar la evolución temporal de la
función de onda y, por tanto, del estado físico del sistema en el intervalo comprendido entre dos
medidas (cuando se hace una medida, de acuerdo con el postulado IV, la evolución no es
determinista).
Históricamente el nombre función de onda se refiere a que el concepto fue desarrollado en el marco
de la primera física cuántica, donde se interpretaba que las partículas podían ser representadas
mediante una onda física que se propaga en el espacio. En la formulación moderna, la función de
onda se interpreta como un objeto mucho más abstracto, que representa un elemento de un
cierto espacio de Hilbert de dimensión infinita que agrupa a los posibles estados del sistema.
25
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
La fórmula de De Broglie encontró confirmación experimental en 1927 un experimento que probó que
la ley de Bragg, inicialmente formulada para rayos X y radiación de alta frecuencia, era también válida
para electrones lentos si se usaba como longitud de onda la longitud postulada por De Broglie. Esos
hechos llevaron a los físicos a tratar de formular una ecuación de ondas cuántica que en el límite
clásico macroscópico se redujera a las ecuaciones de movimiento clásicas o leyes de Newton. Dicha
ecuación ondulatoria había sido formulada por Erwin Schrödinger en 1925 y es la celebrada Ecuación
de Schrödinger:
donde se interpretó originalmente como un campo físico o campo de materia que por
razones históricas se llamó función de onda y fue el precedente histórico del moderno concepto de
función de onda.
El concepto actual de función de onda es causa de debate en la Física actual, sobre todo en lo que
respecta la realidad objetiva e intrínseca de dicha función de onda. Matemáticamente, la implicación
del cuadrado de la función de onda es la amplitud de la probabilidad de presencia de materia. Esta
interpretación, introducida por Max Born, le valió la concesión del premio Nobel de física en 1954.
26
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa
El aspecto no local de la naturaleza sugerido por el Teorema de Bell, se ajusta a la teoría cuántica
por medio del colapso de la función de onda, que es un cambio repentino y global de la función de
onda como sistema. Se produce cuando alguna parte del sistema es observada. Es decir, cuando se
hace una observación/medición del sistema en una región, la función de onda varía
instantáneamente, y no sólo en esa región de la medida sino en cualquier otra por muy distante que
esté.
27