Sei sulla pagina 1di 27

Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

1) Evolución de la física
Es conocido que la mayoría de las civilizaciones de la antigüedad trataron desde un principio de
explicar el funcionamiento de su entorno; miraban las estrellas y pensaban cómo ellas podían regir
su mundo. Esto llevó a muchas interpretaciones de carácter más filosófico que físico; no en vano en
esos momentos a la física se le llamaba filosofía natural. Muchos filósofos se encuentran en el
desarrollo primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros
en tratar de buscar algún tipo de explicación a los fenómenos que les rodeaban.1 A pesar de que las
teorías descriptivas del universo que dejaron estos pensadores eran erradas, estas tuvieron validez
por mucho tiempo, casi dos mil años, en parte por la aceptación de la Iglesia católica de varios de sus
preceptos, como la teoría geocéntrica o las tesis de Aristóteles.

Esta etapa, denominada oscurantismo en la ciencia de Europa, termina cuando el canónigo y


científico Nicolás Copérnico, considerado padre de la astronomía moderna, en 1543 recibe la primera
copia de su De Revolutionibus Orbium Coelestium. A pesar de que Copérnico fue el primero en
formular teorías plausibles, es otro personaje al cual se le considera el padre de la física como la
conocemos ahora. Un catedrático de matemáticas de la Universidad de Pisa a finales del siglo
XVI cambiaría la historia de la ciencia, empleando por primera vez experimentos para comprobar sus
aseveraciones: Galileo Galilei. Mediante el uso del telescopio para observar el firmamento y sus
trabajos en planos inclinados, Galileo empleó por primera vez el método científico y llegó a
conclusiones capaces de ser verificadas. A sus trabajos se les unieron grandes contribuciones por
parte de otros científicos como Johannes Kepler, Blaise Pascal y Christian Huygens.

Posteriormente, en el siglo XVII un científico inglés reunió las ideas de Galileo y Kepler en un solo
trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la Tierra en lo que él
llamó gravedad. En 1687, Isaac Newton, en su obra Philosophiae Naturalis Principia Mathematica,
formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal, que
transformaron por completo el mundo físico; todos los fenómenos podían ser vistos de una manera
mecánica.

El trabajo de Newton en este campo perdura hasta la actualidad; todos los fenómenos macroscópicos
pueden ser descritos de acuerdo a sus tres leyes. Por eso durante el resto de ese siglo y el
posterior siglo XVIII todas las investigaciones se basaron en sus ideas. De ahí que se desarrollaron
otras disciplinas, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística.
Los conocidos trabajos de Daniel Bernoulli, Robert Boyle y Robert Hooke, entre otros, pertenecen a
esta época.

En el siglo XIX se produjeron avances fundamentales en la electricidad y el magnetismo,


principalmente de la mano de Charles-Augustin de Coulomb, Luigi Galvani, Michael Faraday y Georg
Simon Ohm, que culminaron en el trabajo de James Clerk Maxwell de 1855, que logró la unificación

1
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

de ambas ramas en el llamado electromagnetismo. Además, se producen los primeros


descubrimientos sobre radiactividad y el descubrimiento del electrón por parte de Joseph John
Thomson en 1897.

Durante el siglo XX, la física se desarrolló plenamente. En 1904, Hantarō Nagaoka había propuesto
el primer modelo del átomo,6 el cual fue confirmado en parte por Ernest Rutherford en 1911, aunque
ambos planteamientos serían después sustituidos por el modelo atómico de Bohr, de 1913. En 1905,
Einstein formuló la teoría de la relatividad especial, la cual coincide con las leyes de Newton cuando
los fenómenos se desarrollan a velocidades pequeñas comparadas con la velocidad de la luz. En
1915 extendió la teoría de la relatividad especial, formulando la teoría de la relatividad general, la cual
sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas. Max
Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la teoría cuántica, a fin de explicar resultados
experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la
existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de
partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac,
formularon la mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra
las herramientas teóricas para la Física de la materia condensada.

Posteriormente se formuló la teoría cuántica de campos, para extender la mecánica cuántica de


acuerdo con la Teoría de la Relatividad especial, alcanzando su forma moderna a finales de la década
de 1940, gracias al trabajo de Richard Feynman, Julian Schwinger, Tomonaga y Freeman Dyson, que
formularon la teoría de la electrodinámica cuántica. Esta teoría formó la base para el desarrollo de
la física de partículas. En 1954, Chen Ning Yang y Robert Mills desarrollaron las bases del modelo
estándar. Este modelo se completó en los años 1970, y con él fue posible predecir las propiedades
de partículas no observadas previamente, pero que fueron descubiertas sucesivamente, siendo la
última de ellas el quark top.

Los intentos de unificar las cuatro interacciones fundamentales han llevado a los físicos a nuevos
campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general,
que son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles
cuando se las quiere ver desde un mismo punto de vista. Por eso se han formulado nuevas teorías,
como la súper gravedad o la teoría de cuerdas, donde se centran las investigaciones a inicios del siglo
XXI.

Transición cuántico-clásica
En física cuántica no hay una explicación causal para la definición clásica de un sistema físico desde
la indefinición ontológica que rige el comportamiento cuántico. No existe una ley causa-efecto que
define la trayectoria desde lo clásico a lo cuántico. Es más, algunas interpretaciones físicas introducen
la idea de un salto cuántico totalmente opuesto a la idea del continuismo clásico.

2
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

La alternativa física más consolidada actualmente para explicar el proceso de medida entiende la
transición cuántico-clásica como un proceso de decoherencia, donde la indefinición cuántica va
paulatinamente debilitándose a medida que el sistema cuántico va interactuando con su entorno
clásico. Decimos que la coherencia cuántica de un sistema lo permite estar en un estado de
indefinición ontológica clásica.

Al acoplarse con el medio macroscópico la coherencia se diluye según se perfila el sistema hasta que
finalmente se vuelve clásico a todos los efectos prácticos. La decoherencia cuántica permite suavizar
y cuantificar el proceso de medida pero, últimamente, la emergencia del estado clásico concreto y
bien definido es una transición estocástica sin explicación causal.

Consecuentemente, la física debe desprenderse del clásico anhelo de crear un conjunto de leyes
causales que predigan cuanto existe en el Universo. Ciertas cualidades del mundo físico no puede
explicarse mediante leyes causales deterministas, pues están fuera de su alcance explicativo. El
origen del universo físico o la emergencia del mundo clásico desde un fondo cuántico indeterminado
son problemáticas abiertas que dejan entrever una realidad ontológica que desborda el enrejado de
las leyes deterministas de causa y efecto.

El determinismo de la física
En la descripción de un sistema mecánico clásico se realiza mediante una serie de magnitudes de
posición y velocidades (alternativamente momentos lineales) asociadas a cada punto material del
sistema y que varían con el tiempo de acuerdo a ciertas leyes. Por simplicidad en esta sección nos
restringiremos a sistemas mecánicos con un número finito de grados de libertad. En el caso de los
fluidos y otras áreas de la física necesitamos definir funciones sobre regiones continuas, lo cual
formalmente equivale a tratarlos como sistemas con un número infinito de grados de libertad.

El determinismo de la mecánica clásica


Las ecuaciones de movimiento describen las restricciones e interacciones que impone una parte del
sistema mecánico sobre la otra y generalmente se pueden representar como ecuaciones diferenciales
de segundo orden o como sistema de ecuaciones diferenciales. En este caso las variables posición
y cantidad de movimiento son las variables de estado. En el espacio euclídeo tridimensional
de n partículas con movimiento no restringido mediante enlaces exteriores tendrá 6n grados de
libertad.

La formulación matemática de la mecánica clásica, y otras disciplinas de la física clásica, son tales
que el estado de un sistema mecánico queda completamente determinado si se conoce su cantidad

3
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

de movimiento y posición siendo estas simultáneamente medibles. Indirectamente, este enunciado


puede ser reformulado por el principio de causalidad. En este caso se habla
de predictibilidad teóricamente infinita: matemáticamente si en un determinado instante se conocieran
(con precisión infinita) las posiciones y velocidades de un sistema finito de N partículas teóricamente
pueden ser conocidas las posiciones y velocidades futuras, ya que en principio existen las funciones
vectoriales que proporcionan las posiciones de las partículas en cualquier instante de tiempo. Estas
funciones se obtienen de unas ecuaciones generales denominadas ecuaciones de movimiento que
se manifiestan de forma diferencial relacionando magnitudes y sus derivadas. Las funciones se
obtienen por integración, una vez conocida la naturaleza física del problema y las condiciones
iniciales.

Ahora bien el objetivo habitual de las aplicaciones de la mecánica clásica no es precisar el estado de
un sistema sin más, sino además, partiendo de un estado dado, predecir y definir unívocamente
cualquier estado posterior del mismo sistema. En esto consiste el determinismo clásico.

La mecánica clásica ha podido defender durante mucho tiempo este tipo de determinismo
apoyándose en sus éxitos. Lo que para Newton era todavía un supuesto implícito, se convierte
con Laplace en doctrina.

Teoría de la relatividad
La teoría de la relatividad incluye tanto a la teoría de la relatividad especial como a la de relatividad
general, formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la
incompatibilidad existente entre la mecánica newtoniana y el electromagnetismo.

La teoría de la relatividad especial, publicada en 1905, trata de la física del movimiento de los cuerpos
en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del
electromagnetismo con una reformulación de las leyes del movimiento.

La teoría de la relatividad general, publicada en 1915, es una teoría de la gravedad que reemplaza a
la gravedad newtoniana, aunque coincide numéricamente con ella para campos gravitatorios
débiles y "pequeñas" velocidades. La teoría general se reduce a la teoría especial en ausencia de
campos gravitatorios.

4
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

2) Génesis de la mecánica cuántica


La mecánica cuántica es, cronológicamente, la última de las grandes ramas de la física. Comienza a
principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar ciertos
fenómenos, la ley de gravitación universal y la teoría electromagnética clásica, se volvían
insuficientes para esclarecerlos. La teoría electromagnética generaba un problema cuando intentaba
explicar la emisión de radiación de cualquier objeto en equilibrio, llamada radiación térmica, que es la
que proviene de la vibración microscópica de las partículas que lo componen. Usando las ecuaciones
de la electrodinámica clásica, la energía que emitía esta radiación térmica tendía al infinito si se
suman todas las frecuencias que emitía el objeto, con ilógico resultado para los físicos.

Es en el seno de la mecánica estadística donde surgen las ideas cuánticas en 1900. Al físico
alemán Max Planck se le ocurrió un artificio matemático: si en el proceso aritmético se sustituía la
integral de esas frecuencias por una suma no continua, se dejaba de obtener infinito como resultado,
con lo que se eliminaba el problema; además, el resultado obtenido concordaba con lo que después
era medido.

Fue Max Planck quien entonces enunció la hipótesis de que la radiación electromagnética es
absorbida y emitida por la materia en forma de «cuantos» de luz o fotones de energía mediante una
constante estadística, que se denominó constante de Planck. Su historia es inherente al siglo XX, ya
que la primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14
de diciembre de 1900 en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.4

La idea de Planck habría quedado muchos años sólo como hipótesis si Albert Einstein no la hubiera
retomado, proponiendo que la luz, en ciertas circunstancias, se comporta como partículas de energía
independientes (los cuantos de luz o fotones). Fue Albert Einstein quien completó en 1905 las
correspondientes leyes de movimiento en su teoría especial de la relatividad, demostrando que
el electromagnetismo era una teoría esencialmente no mecánica. Culminaba así lo que se ha dado
en llamar física clásica, es decir, la física no-cuántica.

Usó este punto de vista llamado por él «heurístico», para desarrollar su teoría del efecto fotoeléctrico,
publicando esta hipótesis en 1905, lo que le valió el Premio Nobel de Física de 1921. Esta hipótesis
fue aplicada también para proponer una teoría sobre el calor específico, es decir, la que resuelve cuál
es la cantidad de calor necesaria para aumentar en una unidad la temperatura de la unidad de masa
de un cuerpo.

El siguiente paso importante se dio hacia 1925, cuando Louis De Broglie propuso que cada partícula
material tiene una longitud de onda asociada, inversamente proporcional a su masa, y dada por
su velocidad. Poco tiempo después Erwin Schrödinger formuló una ecuación de movimiento para las
«ondas de materia», cuya existencia había propuesto De Broglie y varios experimentos sugerían que
eran reales.

5
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

La mecánica cuántica introduce una serie de hechos contra intuitivos que no aparecían en los
paradigmas físicos anteriores; con ella se descubre que el mundo atómico no se comporta como
esperaríamos. Los conceptos de incertidumbre o cuantización son introducidos por primera vez aquí.
Además la mecánica cuántica es la teoría científica que ha proporcionado las predicciones
experimentales más exactas hasta el momento, a pesar de estar sujeta a las probabilidades.

Teoría de radiación de cuerpo oscuro


Un cuerpo negro es un objeto teórico o ideal que absorbe toda la luz y toda la energía radiante que
incide sobre él. Nada de la radiación incidente se refleja o pasa a través del cuerpo negro. A pesar
de su nombre, el cuerpo negro emite luz y constituye un sistema físico idealizado para el estudio de
la emisión de radiación electromagnética. El nombre Cuerpo negro fue introducido por Gustav
Kirchhoff en 1862. La luz emitida por un cuerpo negro se denomina radiación de cuerpo negro.

Todo cuerpo emite energía en forma de ondas electromagnéticas, siendo esta radiación, que se emite
incluso en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía
radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de
onda superiores a las de la luz visible (es decir, de menor frecuencia). Al elevar la temperatura no
sólo aumenta la energía emitida sino que lo hace a longitudes de onda más cortas; a esto se debe el
cambio de color de un cuerpo cuando se calienta. Los cuerpos no emiten con igual intensidad a todas
las frecuencias o longitudes de onda, sino que siguen la ley de Planck.

A igualdad de temperatura, la energía emitida depende también de la naturaleza de la superficie; así,


una superficie mate o negra tiene un poder emisor mayor que una superficie brillante. Así, la energía
emitida por un filamento de carbón incandescente es mayor que la de un filamento de platino a la
misma temperatura. La ley de Kirchhoff establece que un cuerpo que es buen emisor de energía es
también buen absorbente de dicha energía. Así, los cuerpos de color negro son buenos absorbentes.

Modelos clásico y cuántico de cuerpo negro


Los principios físicos de la mecánica clásica y la mecánica cuántica conducen a predicciones
mutuamente excluyentes sobre los cuerpos negros o sistemas físicos que se les aproximan. Las
evidencias de que el modelo clásico hacía predicciones la emisión a pequeñas longitudes de onda
en abierta contradicción con lo observado llevaron a Planck a desarrollar un modelo heurístico que
fue el germen de la mecánica cuántica. La contradicción entre las predicciones clásicas y los
resultados empíricos a bajas longitudes de onda, se conoce como catástrofe ultravioleta.

6
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Ley de Planck (Modelo cuántico)

La intensidad de la radiación emitida por un cuerpo negro, con una temperatura en la frecuencia
, viene dada por la ley de Planck:

donde es la cantidad de energía por unidad de área, unidad de tiempo y unidad


de ángulo sólido emitida en el rango de frecuencias entre y ; es una constante que se
conoce como constante de Planck; es la velocidad de la luz; y es la constante de Boltzmann.

Se llama Poder emisivo de un cuerpo a la cantidad de energía radiante emitida por la


unidad de superficie y tiempo entre las frecuencias y .

La longitud de onda en la que se produce el máximo de emisión viene dada por la ley de Wien; por lo
tanto, a medida que la temperatura aumenta, el brillo de un cuerpo va sumando longitudes de onda,
cada vez más pequeñas, y pasa del rojo al blanco según va sumando las radiaciones desde el amarillo
hasta el violeta. La potencia emitida por unidad de área viene dada por la ley de Stefan-Boltzmann.

Ley de Rayleigh-Jeans (Modelo Clásico)

Antes de Planck, la Ley de Rayleigh-Jeans modelizaba el comportamiento del cuerpo negro utilizando
el modelo clásico. De esta forma, el modelo que define la radiación del cuerpo negro a una longitud
de onda concreta:

donde c es la velocidad de la luz, k es la constante de Boltzmann y T es


la temperatura absoluta.

Esta ley predice una producción de energía infinita a longitudes de onda muy pequeñas. Esta
situación que no se corrobora experimentalmente es conocida como la catástrofe ultravioleta.

7
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Teorema de Equipartición
En mecánica estadística, clásica, el teorema de equipartición es una fórmula general que relaciona
la temperatura de un sistema con su energía media. El teorema de equipartición también se conoce
como la ley de equipartición, equipartición de la energía, o simplemente equipartición. La idea central
de la equipartición es que, en equilibrio térmico, la energía se reparte en partes iguales entre sus
varias formas; por ejemplo, la energía cinética promedio en un movimiento de traslación de una
molécula debe ser igual a la energía cinética promedio en su movimiento de rotación.

De la aplicación del teorema de equipartición surgen predicciones cuantitativas. Al igual que


el teorema de virial, da las energías cinética y potencial totales del sistema a una dada temperatura,
a partir de la cual es posible calcular la capacidad calórica del sistema. Sin embargo, equipartición
también da los valores promedio de los componentes individuales de la energía, tal como la energía
cinética de una partícula específica o la energía potencial de un resorte aislado. Por ejemplo, el
teorema predice que cada molécula en un gas ideal posee una energía cinética promedio de (3/2)
kBT en equilibrio térmico, donde kB es la constante de Boltzmann y T es la temperatura. En forma
más general, puede ser aplicado a cualquier sistema clásico en equilibrio térmico, no importa cuán
complejo sea el mismo. El teorema de equipartición puede ser utilizado para derivar la ley de los
gases ideales clásica , y la Ley de Dulong-Petit para los calores específicos de los sólidos. También
puede ser utilizado para predecir las propiedades de las estrellas, aún las enanas blancas y estrellas
de neutrones, dado que su validez se extiende a situaciones en las que existan efectos relativistas.

A pesar de que el teorema de equipartición realiza predicciones muy precisas en ciertas


circunstancias, esto no es así cuando los efectos cuánticos son relevantes. La equipartición es válida
solo cuando la energía térmica kBT es mucho mayor que el espaciamiento entre los niveles de
energía cuánticos. Cuando la energía térmica es menor que el espaciamiento entre niveles de energía
cuánticos en un grado de libertad en particular, la energía promedio y la capacidad calórica de este
grado de libertad son menores que los valores predichos por la equipartición. Se dice que dicho grado
de libertad está "congelado". Por ejemplo, el calor específico de un sólido disminuye a bajas
temperaturas dado que varios tipos de movimientos se congelan, en lugar de permanecer constantes
como predice la equipartición. Estas reducciones en los calores específicos fueron los primeros
síntomas que notaron los físicos del siglo XIX en el sentido que la física clásica era incorrecta y que
era necesario avanzar en el desarrollo de nuevas teorías físicas. La falla de la equipartición en el
campo de la radiación electromagnética — también conocida como catástrofe ultravioleta — indujo
a Albert Einstein a sugerir que la luz exhibe un comportamiento dual: como onda y como fotones, una
hipótesis revolucionaria que impulsó el desarrollo de la mecánica cuántica y la teoría cuántica de
campos.

8
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

b) Teoría del efecto fotoeléctrico


El efecto fotoeléctrico consiste en la emisión de electrones por un material cuando se hace incidir
sobre él una radiación electromagnética (luz visible o ultravioleta, en general).1 A veces se incluyen
en el término otros tipos de interacción entre la luz y la materia:

 Fotoconductividad: es el aumento de la conductividad eléctrica de la materia o en diodos


provocada por la luz. Descubierta por Willoughby Smith en el selenio hacia la mitad del siglo XIX.
 Efecto fotovoltaico: transformación parcial de la energía lumínica en energía eléctrica. La primera
célula solar fue fabricada por Charles en 1884. Estaba formada por selenio recubierto de una fina
capa de oro.

El efecto fotoeléctrico fue descubierto y descrito por Heinrich Hertz en 1887, al observar que el arco
que salta entre dos electrodos conectados a alta tensión alcanza distancias mayores cuando se
ilumina con luz ultravioleta que cuando se deja en la oscuridad. La explicación teórica fue hecha
por Albert Einstein, quien publicó en 1905 el revolucionario artículo “Heurística de la generación y
conversión de la luz”, basando su formulación de la fotoelectricidad en una extensión del trabajo sobre
los cuantos de Max Planck. Más tarde Robert Andrews Millikan pasó diez años experimentando para
demostrar que la teoría de Einstein no era correcta, para finalmente concluir que sí lo era. Eso permitió
que Einstein y Millikan fueran condecorados con premios Nobel en 1921 y 1923, respectivamente.

Se podría decir que el efecto fotoeléctrico es lo opuesto a los rayos X, ya que el efecto fotoeléctrico
indica que los fotones pueden transferir energía a los electrones. Los rayos X (no se sabía la
naturaleza de su radiación, de ahí la incógnita "X") son la transformación en un fotón de toda o parte
de la energía cinética de un electrón en movimiento. Esto se descubrió casualmente antes de que se
dieran a conocer los trabajos de Planck y Einstein (aunque no se comprendió entonces).

Introducción
Los fotones tienen una energía característica determinada por la frecuencia de onda de la luz. Si un
átomo absorbe energía de un fotón y tiene más energía que la necesaria para expulsar un electrón
del material y además posee una trayectoria dirigida hacia la superficie, entonces el electrón puede
ser expulsado del material. Si la energía del fotón es demasiado pequeña, el electrón es incapaz de
escapar de la superficie del material. Los cambios en la intensidad de la luz no modifican la energía
de sus fotones, tan sólo el número de electrones que pueden escapar de la superficie sobre la que
incide y por tanto la energía de los electrones emitidos no depende de la intensidad de la radiación
que le llega, sino de su frecuencia. Si el fotón es absorbido, parte de la energía se utiliza para liberarlo
del átomo y el resto contribuye a dotar de energía cinética a la partícula libre.

9
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

En principio, todos los electrones son susceptibles de ser emitidos por efecto fotoeléctrico. En realidad
los que más salen son los que necesitan menos energía para ser expulsados y, de ellos, los más
numerosos.

En un aislante (dieléctrico), los electrones más energéticos se encuentran en la banda de valencia.


En un metal, los electrones más energéticos están en la banda de conducción. En un semiconductor
de tipo N, son los electrones de la banda de conducción los que son más energéticos. En un
semiconductor de tipo P también, pero hay muy pocos en la banda de conducción. Así que en ese
tipo de semiconductor hay que tener en cuenta los electrones de la banda de valencia.

A la temperatura ambiente, los electrones más energéticos se encuentran cerca del nivel de
Fermi (salvo en los semiconductores intrínsecos en los cuales no hay electrones cerca del nivel de
Fermi). La energía que hay que dar a un electrón para llevarlo desde el nivel de Fermi hasta el exterior
del material se llama función de trabajo, y la frecuencia mínima necesaria, de radiación incidente,
para sacar un electrón del metal, recibe el nombre de frecuencia umbral. El valor de esa energía es
muy variable y depende del material, estado cristalino y, sobre todo, de las últimas capas atómicas
que recubren la superficie del material. Los metales alcalinos (sodio, calcio, cesio, etc.), presentan
las más bajas funciones de trabajo. Aún es necesario que las superficies estén limpias a nivel atómico.
Una de la mayores dificultades en los experimentos de Millikan era que había que fabricar las
superficies de metal en el vacío.

Explicación
Los fotones del rayo de luz tienen una energía característica determinada por la frecuencia de la luz.
En el proceso de fotoemisión, si un electrón absorbe la energía de un fotón y éste último tiene más
energía que la función de trabajo, el electrón es arrancado del material. Si la energía del fotón es
demasiado baja, el electrón no puede escapar de la superficie del material.

Aumentar la intensidad del haz no cambia la energía de los fotones constituyentes, solo cambia el
número de fotones. En consecuencia, la energía de los electrones emitidos no depende de la
intensidad de la luz, sino de la energía de los fotones.

Los electrones pueden absorber energía de los fotones cuando son irradiados, pero siguiendo un
principio de "todo o nada". Toda la energía de un fotón debe ser absorbida y utilizada para liberar un
electrón de un enlace atómico, o si no la energía es re-emitida. Si la energía del fotón es absorbida,
una parte libera al electrón del átomo y el resto contribuye a la energía cinética del electrón como una
partícula libre.

Einstein no se proponía estudiar las causas del efecto en el que los electrones de ciertos metales,
debido a una radiación luminosa, podían abandonar el metal con energía cinética. Intentaba explicar
el comportamiento de la radiación, que obedecía a la intensidad de la radiación incidente, al

10
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

conocerse la cantidad de electrones que abandonaba el metal, y a la frecuencia de la misma, que era
proporcional a la energía que impulsaba a dichas partículas.

Leyes de la emisión fotoeléctrica

1. Para un metal y una frecuencia de radiación incidentes dados, la cantidad de fotoelectrones


emitidos es directamente proporcional a la intensidad de luz incidente.
2. Para cada metal dado, existe una cierta frecuencia mínima de radiación incidente debajo de
la cual ningún fotoelectrón puede ser emitido. Esta frecuencia se llama frecuencia de corte,
también conocida como "Frecuencia Umbral".
3. Por encima de la frecuencia de corte, la energía cinética máxima del fotoelectrón emitido es
independiente de la intensidad de la luz incidente, pero depende de la frecuencia de la luz
incidente.
4. La emisión del fotoelectrón se realiza instantáneamente, independientemente de la intensidad
de la luz incidente. Este hecho se contrapone a la teoría Clásica: la Física Clásica esperaría
que existiese un cierto retraso entre la absorción de energía y la emisión del electrón, inferior
a un nanosegundo.

Formulación matemática
Para analizar el efecto fotoeléctrico cuantitativamente utilizando el método derivado por Einstein es
necesario plantear las siguientes ecuaciones:

Energía de un fotón absorbido = Energía necesaria para liberar 1 electrón + energía cinética del
electrón emitido.

Algebraicamente:

Que puede también escribirse como

donde h es la constante de Planck, f0 es la frecuencia de corte o frecuencia mínima de los fotones


para que tenga lugar el efecto fotoeléctrico, Φ es la función de trabajo, o mínima energía necesaria
para llevar un electrón del nivel de Fermi al exterior del material y Ek es la máxima energía cinética
de los electrones que se observa experimentalmente.

11
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

En algunos materiales esta ecuación describe el comportamiento del efecto fotoeléctrico de manera
tan sólo aproximada. Esto es así porque el estado de las superficies no es perfecto (contaminación
no uniforme de la superficie externa).

Historia

Heinrich Hertz

Las primeras observaciones del efecto fotoeléctrico fueron llevadas a cabo por Heinrich Hertz en 1887
en sus experimentos sobre la producción y recepción de ondas electromagnéticas. Su receptor
consistía en una bobina en la que se podía producir una chispa como producto de la recepción de
ondas electromagnéticas. Para observar mejor la chispa Hertz encerró su receptor en una caja negra.
Sin embargo la longitud máxima de la chispa se reducía en este caso comparada con las
observaciones de chispas anteriores. En efecto la absorción de luz ultravioleta facilitaba el salto de
los electrones y la intensidad de la chispa eléctrica producida en el receptor. Hertz publicó un artículo
con sus resultados sin intentar explicar el fenómeno observado.
J. J. Thomson

En 1897, el físico británico Joseph John Thomson investigaba los rayos catódicos. Influenciado por
los trabajos de James Clerk Maxwell, Thomson dedujo que los rayos catódicos consistían de un flujo
de partículas cargadas negativamente a los que llamó corpúsculos y ahora conocemos
como electrones.

Thomson utilizaba una placa metálica encerrada en un tubo de vacío como cátodo exponiendo este
a luz de diferente longitud de onda. Thomson pensaba que el campo electromagnético de frecuencia
variable producía resonancias con el campo eléctrico atómico y que si estas alcanzaban una amplitud
suficiente podía producirse la emisión de un "corpúsculo" subatómico de carga eléctrica y por lo tanto
el paso de la corriente eléctrica.

La intensidad de esta corriente eléctrica variaba con la intensidad de la luz. Incrementos mayores de
la intensidad de la luz producían incrementos mayores de la corriente. La radiación de mayor
frecuencia producía la emisión de partículas con mayor energía cinética.
Von Lenard

En 1902 Philipp von Lenard realizó observaciones del efecto fotoeléctrico en las que se ponía de
manifiesto la variación de energía de los electrones con la frecuencia de la luz incidente.

La energía cinética de los electrones podía medirse a partir de la diferencia de potencial necesaria
para frenarlos en un tubo de rayos catódicos. La radiación ultravioleta requería por ejemplo
potenciales de frenado mayores que la radiación de mayor longitud de onda. Los experimentos de

12
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Lenard arrojaban datos únicamente cualitativos dados las dificultades del equipo instrumental con el
cual trabajaba.
Cuantos de luz de Einstein

En 1905, el mismo año que descubrió su teoría de la relatividad especial, Albert Einstein propuso una
descripción matemática de este fenómeno que parecía funcionar correctamente y en la que la emisión
de electrones era producida por la absorción de cuantos de luz que más tarde serían llamados
fotones. En un artículo titulado "Un punto de vista heurístico sobre la producción y transformación de
la luz" mostró como la idea de partículas discretas de luz podía explicar el efecto fotoeléctrico y la
presencia de una frecuencia característica para cada material por debajo de la cual no se producía
ningún efecto. Por esta explicación del efecto fotoeléctrico Einstein recibiría el Premio Nobel de
Física en 1921.

El trabajo de Einstein predecía que la energía con la que los electrones escapaban del material
aumentaba linealmente con la frecuencia de la luz incidente. Sorprendentemente este aspecto no
había sido observado en experiencias anteriores sobre el efecto fotoeléctrico. La demostración
experimental de este aspecto fue llevada a cabo en 1915 por el físico estadounidense Robert Andrews
Millikan.
Dualidad onda-corpúsculo

El efecto fotoeléctrico fue uno de los primeros efectos físicos que puso de manifiesto la dualidad onda-
corpúsculo característica de la mecánica cuántica. La luz se comporta como ondas pudiendo producir
interferencias y difracción como en el experimento de la doble rendija de Thomas Young, pero
intercambia energía de forma discreta en paquetes de energía, fotones, cuya energía depende de la
frecuencia de la radiación electromagnética. Las ideas clásicas sobre la absorción de radiación
electromagnética por un electrón sugerían que la energía es absorbida de manera continua. Este tipo
de explicaciones se encontraban en libros clásicos como el libro de Millikan sobre los electrones o el
escrito por Compton y Allison sobre la teoría y experimentación con rayos X. Estas ideas fueron
rápidamente reemplazadas tras la explicación cuántica de Albert Einstein.

c) Teoría cuántica del átomo de hidrógeno de Bohr


El modelo atómico de Bohr o de Bohr-Rutherford es un modelo clásico del átomo, pero fue el
primer modelo atómico en el que se introduce una cuantización a partir de ciertos postulados. Fue
propuesto en 1913 por el físico danés Niels Bohr, para explicar cómo los electrones pueden
tener órbitas estables alrededor del núcleo y por qué los átomos presentaban espectros de emisión
característicos (dos problemas que eran ignorados en el modelo previo de Rutherford). Además el
modelo de Bohr incorporaba ideas tomadas del efecto fotoeléctrico, explicado por Albert
Einstein en 1905.

13
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Bohr se basó en el átomo de hidrógeno para hacer el


modelo que lleva su nombre. Bohr intentaba realizar un
modelo atómico capaz de explicar la estabilidad de
la materia y los espectros de emisión y absorción discretos
que se observan en los gases. Describió el átomo de
hidrógeno con un protón en el núcleo, y girando a su
alrededor un electrón. El modelo atómico de Bohr partía
conceptualmente del modelo atómico de Rutherford y de
las incipientes ideas sobre cuantización que habían
surgido unos años antes con las investigaciones de Max
Planck y Albert Einstein.

En este modelo los electrones giran en órbitas circulares alrededor del núcleo, ocupando la órbita de
menor energía posible, o la órbita más cercana posible al núcleo. El electromagnetismo clásico
predecía que una partícula cargada moviéndose de forma circular emitiría energía por lo que los
electrones deberían colapsar sobre el núcleo en breves instantes de tiempo. Para superar este
problema Bohr supuso que los electrones solamente se podían mover en órbitas específicas, cada
una de las cuales caracterizada por su nivel energético. Cada órbita puede entonces identificarse
mediante un número entero n que toma valores desde 1 en adelante. Este número "n" recibe el
nombre de número cuántico principal.

Bohr supuso además que el momento angular de cada electrón estaba cuantizado y sólo podía variar
en fracciones enteras de la constante de Planck. De acuerdo al número cuántico principal calculó las
distancias a las cuales se hallaba del núcleo cada una de las órbitas permitidas en el átomo de
hidrógeno. Estos niveles en un principio estaban clasificados por letras que empezaban en la "K" y
terminaban en la "Q". Posteriormente los niveles electrónicos se ordenaron por números. Cada órbita
tiene electrones con distintos niveles de energía obtenida que después se tiene que liberar y por esa
razón el electrón va saltando de una órbita a otra hasta llegar a una que tenga el espacio y nivel
adecuado, dependiendo de la energía que posea, para liberarse sin problema y de nuevo volver a su
órbita de origen. Sin embargo no explicaba el espectro de estructura fina que podría ser explicado
algunos años más tarde gracias al modelo atómico de Sommerfeld. Históricamente el desarrollo del
modelo atómico de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin
Schrödinger descubrir la ecuación fundamental de la mecánica cuántica.

Postulados de Bohr
En 1913, Niels Bohr desarrolló su célebre modelo atómico de acuerdo a tres postulados
fundamentales:

14
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Primer postulado

Los electrones describen órbitas circulares en torno al núcleo del átomo sin irradiar energía.

La causa de que el electrón no irradie energía en su órbita es, de momento, un postulado, ya que
según la electrodinámica clásica una carga con un movimiento acelerado debe emitir energía en
forma de radiación.

Para mantener la órbita circular, la fuerza que siente el electrón —la fuerza coulombiana por la
presencia del núcleo— debe ser igual a la fuerza centrípeta. Esto nos da la siguiente expresión:

Donde el primer término es la fuerza eléctrica o de Coulomb, y el segundo es la fuerza centrífuga; k es


la constante de la fuerza de Coulomb, Z es el número atómico del átomo, e es la carga del
electrón, es la masa del electrón, v es la velocidad del electrón en la órbita y r el radio de la órbita.

En la expresión anterior podemos despejar el radio, obteniendo:

Y ahora, con esta ecuación, y sabiendo que la energía total es la suma de las energías cinética y
potencial:

Donde queda expresada la energía de una órbita circular para el electrón en función del radio de
dicha órbita.

Segundo postulado

No toda órbita para electrón está permitida, tan solo se puede encontrar en órbitas cuyo radio
cumpla que el momento angular, del electrón sea un múltiplo entero de h=h/2pi

Esta condición matemáticamente se escribe:

15
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

A partir de ésta condición y de la expresión para el radio obtenida antes, podemos eliminar y
queda la condición de cuantización para los radios permitidos:

Con n=1,2,3,..; subíndice introducido en esta expresión para resaltar que el radio ahora es una
magnitud discreta, a diferencia de lo que decía el primer postulado.

Ahora, dándole valores a , número cuántico principal, obtenemos los radios de las órbitas
permitidas. Al primero de ellos (con n=1), se le llama radio de Bohr:

Expresando el resultado en angstrom.

Del mismo modo podemos ahora sustituir los radios permitidos en la expresión para la energía
de la órbita y obtener así la energía correspondiente a cada nivel permitido:

Igual que antes, para el átomo de hidrógeno (Z=1) y el primer nivel permitido (n=1), obtenemos:

Que es la llamada energía del estado fundamental del átomo de Hidrógeno.

Y podemos expresar el resto de energías para cualquier Z y n como:

Tercer postulado

El electrón solo emite o absorbe energía en los saltos de una órbita permitida a otra. En
dicho cambio emite o absorbe un fotón cuya energía es la diferencia de energía entre ambos
niveles. Este fotón, según la ley de Planck tiene una energía:

Donde identifica la órbita inicial y la final, y es la frecuencia.

Entonces las frecuencias de los fotones emitidos o absorbidos en la transición serán:

16
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

A veces, en vez de la frecuencia se suele dar la inversa de la longitud de onda:

Esta última expresión fue muy bien recibida porque explicaba teóricamente la fórmula fenomenológica
hallada antes por Balmer para describir las líneas espectrales observadas desde finales del siglo
XIX en la des excitación del Hidrógeno, que venían dadas por:

Con n=3,4,5,.., y donde es la constante de Rydberg para el hidrógeno. Y como vemos, la


expresión teórica para el caso nf=2, es la expresión predicha por Balmer, y el valor medido
experimentalmente de la constante de Rydberg, coincide con el valor de la fórmula teórica.

Se puede demostrar que este conjunto de hipótesis corresponde a la hipótesis de que los electrones
estables orbitando un átomo están descritos por funciones de onda estacionarias. Un modelo atómico
es una representación que describe las partes que tiene un átomo y como están dispuestas para
formar un todo. Basándose en la constante de Planck consiguió cuantizar las órbitas
observando las líneas del espectro.

Modelo atómico de Dalton


El modelo atómico de Dalton surgido en el contexto de la química, fue el primer modelo atómico con
bases científicas, formulado entre 1803 y 1807 por John Dalton.

El modelo permitió aclarar por primera vez por qué las sustancias químicas reaccionaban
en proporciones estequiométricas fijas (Ley de las proporciones constantes), y por qué cuando dos
sustancias reaccionan para formar dos o más compuestos diferentes, entonces las proporciones de
estas relaciones son números enteros (Ley de las proporciones múltiples). Por ejemplo 12 g de
carbono (C), pueden reaccionar con 16 g de oxígeno (O2) para formar monóxido de carbono (CO) o
pueden reaccionar con 32 g de oxígeno para formar dióxido de carbono (CO2). Además el modelo
aclaraba que aun existiendo una gran variedad de sustancias diferentes, estas podían ser explicadas
en términos de una cantidad más bien pequeña de constituyentes elementales o elementos. En
esencia, el modelo explicaba la mayor parte de la química de fines del siglo XVIII y principios del siglo
XIX, reduciendo una serie de hechos complejos a una teoría combinatoria realmente simple.

17
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Postulados de Dalton

Dalton explicó su teoría formulando una serie de enunciados simples:

1. La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles
y no se pueden destruir.
2. Los átomos de un mismo elemento son iguales entre sí, tienen la misma masa y propiedades.
Los átomos de diferentes elementos tienen masas diferentes. Comparando las masas de los
elementos con los del hidrógeno tomado como la unidad propuso el concepto de peso
atómico relativo.
3. Los átomos permanecen sin división, aun cuando se combinen en las reacciones químicas.
4. Los átomos, al combinarse para formar compuestos guardan relaciones simples.
5. Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar
más de un compuesto.
6. Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.

La materia está formada por partículas muy pequeñas llamadas “átomos”. Estos átomos no se pueden
dividir ni romper, no se crean ni se destruyen en ninguna reacción química, y nunca cambian.

Los átomos de un mismo elemento son iguales entre sí, tienen la misma masa y dimensiones. Por
ejemplo: todos los átomos de hidrógeno son iguales.

Por otro lado, los átomos de elementos diferentes son diferentes. Por ejemplo: los átomos
de oxígeno son diferentes a los átomos de hidrógeno.

Los átomos pueden combinarse para formar compuestos químicos. Por ejemplo: los átomos de
hidrógeno y oxígeno pueden combinarse y formar moléculas de agua.

Los átomos se combinan para formar compuestos en relaciones numéricas simples. Por ejemplo: al
formarse agua, la relación es de 2 a 1 (dos átomos de hidrógeno con un átomo de oxígeno).

Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar más de
un compuesto. Por ejemplo: un átomo de carbono con uno de oxígeno forman monóxido de
carbono (CO), mientras que dos átomos de oxígeno con uno de carbono, forman dióxido de
carbono (CO2).

Modelo atómico de Thomson


El modelo atómico de Thomson es una teoría sobre la estructura atómica propuesta en 1904
por Joseph John Thomson, quien descubrió el electrón1 en 1898, mucho antes del descubrimiento
del protón y del neutrón. En dicho modelo, el átomo está compuesto por electrones de carga negativa

18
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

en un átomo positivo, embebidos en éste al igual que las pasas de un budín.


A partir de esta comparación, fue que el supuesto se denominó "Modelo
del budín de pasas”. Postulaba que los electrones se distribuían
uniformemente en el interior del átomo suspendido en una nube de
carga positiva. El átomo se consideraba como una esfera con carga
positiva con electrones repartidos como pequeños gránulos. La
herramienta principal con la que contó Thomson para su modelo atómico
fue la electricidad. Si bien el modelo atómico de Dalton daba debida cuenta
de la formación de los procesos químicos, postulando átomos indivisibles, la
evidencia adicional suministrada por los rayos catódicos sugería que esos átomos contenían
partículas eléctricas de carga negativa. El modelo de Dalton ignoraba la estructura interna, pero el
modelo de Thomson aunaba las virtudes del modelo de Dalton y simultáneamente podía explicar los
hechos de los rayos catódicos.

Modelo atómico de Rutherford


El modelo atómico de Rutherford es un modelo atómico o teoría sobre la estructura interna
del átomo propuesto por el químico y físico británico-neozelandés Ernest Rutherford para explicar los
resultados de su "experimento de la lámina de oro", realizado en 1911.

El modelo de Rutherford fue el primer modelo atómico que consideró al átomo


formado por dos partes: la "corteza" (luego denominada periferia),
constituida por todos sus electrones, girando a gran velocidad alrededor
de un "núcleo" muy pequeño; que concentra toda la carga eléctrica
positiva y casi toda la masa del átomo.

Rutherford llegó a la conclusión de que la masa del átomo se


concentraba en una región pequeña de cargas positivas que impedían
el paso de las partículas alfa. Sugirió un nuevo modelo en el cual el átomo
poseía un núcleo o centro en el cual se concentra la masa y la carga positiva,
y que en la zona extra nuclear se encuentran los electrones de carga negativa.

La importancia del modelo de Rutherford residió en proponer por primera vez la existencia de un
núcleo en el átomo (término que, paradójicamente, no aparece en sus escritos). Lo que Rutherford
consideró esencial, para explicar los resultados experimentales, fue "una concentración de carga" en
el centro del átomo, ya que sin ella, no podía explicarse que algunas partículas fueran rebotadas en
dirección casi opuesta a la incidente. Este fue un paso crucial en la comprensión de la materia, ya
que implicaba la existencia de un núcleo atómico donde se concentraba toda la carga positiva y más
del 99,9% de la masa. Las estimaciones del núcleo revelaban que el átomo en su mayor parte estaba
vacío.

19
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Rutherford propuso que los electrones orbitarían en ese espacio vacío alrededor de un minúsculo
núcleo atómico, situado en el centro del átomo. Además se abrían varios problemas nuevos que
llevarían al descubrimiento de nuevos hechos y teorías al tratar de explicarlos:

 Por un lado se planteó el problema de cómo un conjunto de cargas positivas podían mantenerse
unidas en un volumen tan pequeño, hecho que llevó posteriormente a la postulación y
descubrimiento de la fuerza nuclear fuerte, que es una de las cuatro interacciones fundamentales.
 Por otro lado existía otra dificultad proveniente de la electrodinámica clásica que predice que una
partícula cargada y acelerada, como sería el caso de los electrones orbitando alrededor del
núcleo, produciría radiación electromagnética, perdiendo energía y finalmente cayendo sobre el
núcleo. Las leyes de Newton, junto con las ecuaciones de
Maxwell del electromagnetismo aplicadas al átomo de Rutherford llevan a que en un tiempo del
orden de s, toda la energía del átomo se habría radiado, con la consiguiente caída de los
electrones sobre el núcleo.2 Se trata, por tanto de un modelo físicamente inestable, desde el
punto de vista de la física clásica.

Según Rutherford, las órbitas de los electrones no están muy bien definidas y forman una estructura
compleja alrededor del núcleo, dándole un tamaño y forma algo indefinidos. Los resultados de
su experimento le permitieron calcular que el radio atómico era diez mil veces mayor que el núcleo
mismo, y en consecuencia, que el interior de un átomo está prácticamente vacío.

Modelo atómico de Sommerfeld


El Modelo atómico de Sommerfeld es un modelo atómico hecho por el físico alemán Arnold
Sommerfeld (1868-1951) que básicamente es una generalización relativista del modelo (1913).

En 1916, Sommerfeld perfeccionó el modelo atómico de Bohr intentando paliar los dos principales
defectos de éste. Para eso introdujo dos modificaciones básicas: Órbitas casi-elípticas para los
electrones y velocidades relativistas. En el modelo de Bohr los electrones sólo giraban en órbitas
circulares. La excentricidad de la órbita dio lugar a un nuevo número cuántico: el número cuántico
azimutal, que determina la forma de los orbitales, se lo representa con la letra l y toma valores que
van desde 0 hasta n-1. Las órbitas son:

 l = 0 se denominarían posteriormente orbitales s o sharp


 l = 1 se denominarían p o principal.
 l = 2 se denominarían d o diffuse.
 l = 3 se denominarían f o fundamental.

20
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Para hacer coincidir las frecuencias calculadas con las experimentales, Sommerfeld postuló que
el núcleo del átomo no permanece inmóvil, sino que tanto el núcleo como el electrón se mueven
alrededor del centro de masas del sistema, que estará situado muy próximo al núcleo al tener este
una masa varios miles de veces superior a la masa del electrón.

Para explicar el desdoblamiento de las líneas espectrales, observando al emplear espectroscopios de


mejor calidad, Sommerfeld supuso que las órbitas del electrón pueden ser circulares y elípticas.
Introdujo el número cuántico secundario o azimutal, en la actualidad llamado l, que tiene los valores

0, 1, 2,… (n-1), e indica el momento angular del electrón en la órbita en unidades de ,


determinando los subniveles de energía en cada nivel cuántico y la excentricidad de la órbita.

3) Principios de la mecánica cuántica


Ecuación de Schrödinger

La crítica radical de los conceptos clásicos sobre el movimiento que realizó la mecánica cuántica, de
la que son expresión la ecuación de De Broglie y la relación de incertidumbre de Heisemberg, exigió
una modificación igualmente radical del formalismo matemático utilizado para describir el movimiento
o, más en general, para describir el estado de un sistema y su evolución.

En la física clásica, el estado de movimiento de un objeto en un instante determinado se describe


dando los valores de su posición y su velocidad. Como acabamos de ver, en la mecánica cuántica
esto no es posible y la descripción completa del estado del objeto sólo puede aspirar a predecir las
probabilidades de los distintos valores que pueden obtenerse al medir la posición y la velocidad del
objeto. Además, se ha de considerar su carácter dual, de modo que el estado del objeto también
viene en función de sus propiedades ondulatorias, como la longitud de onda.

En 1925 Schrödinger (1887-1961), modificó la ecuación general de los movimientos ondulatorios


usando la relación de De Broglie, para que reflejase también las propiedades corpusculares. La
ecuación obtenida permite calcular una función de onda, Ψ, que depende de la posición y el tiempo,
Ψ(x, t). Un año después, en 1926, Born (1882-1970), que había trabajado junto con Heisenberg,
apreció que en la ecuación de Schrödinger, el cuadrado de la función de onda
Ψ2 [formalmente, |ψ|2 = ψ*ψ] se podía interpretar como una densidad de probabilidad. Después de
aplicar la ecuación (a un electrón, a un bloque de madera,..), el cuadrado de la función de onda
obtenida como solución de dicha ecuación, representa la probabilidad de que el objeto sea detectado
en un lugar y en un instante determinados

21
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Esto es coherente con el carácter dual de la materia y con el concepto de deslocalización exigido por
el principio de incertidumbre de Heisemberg. Schrödinger recibió el premio Nóbel de Física en 1933
por haber desarrollado su ecuación y Born recibió el mismo galardón en 1954 por la interpretación
probabilística de la función de ondas de dicha ecuación.

Es importante que se entienda que la mecánica cuántica no es una ampliación de la anterior mecánica
clásica, sino una teoría autónoma, cuyo campo de aplicación se extiende allá donde se podía aplicar
la mecánica de Newton y también, por supuesto, al ámbito donde las predicciones de la mecánica de
Newton erraban (física atómica, nuclear, partículas). La ecuación de Schrödinger juega en la
mecánica cuántica el mismo papel que juega la segunda ley de Newton en la mecánica clásica, de
tal modo que en las situaciones en las que es insignificante el carácter ondulatorio de los objetos, la
ecuación de Schrödinger (de aplicación general) se reduce a la segunda ley de Newton.

Decir finalmente que la ecuación de Schrödinger no tuvo en cuenta las predicciones de la relatividad
y, por ello, sólo puede describir partículas cuya velocidad sea pequeña comparada con la velocidad
de la luz. Otra limitación de la ecuación es que no incorporó el espín adecuadamente. Pauli (1900-
1958), que en 1924 había introducido el cuarto número cuántico, generalizó ligeramente la ecuación
de Schrödinger introduciendo términos que predicen correctamente el espín, y en 1928 Dirac (1902-
1984) introdujo los efectos relativistas.

Dualidad onda-corpúsculo

De Broglie (1892-1987), en su tesis doctoral de 1924 atribuyó a toda partícula con impulso, p (para
una partícula de masa, m, y velocidad, v, p=m·v), una onda asociada de longitud de onda l = h/p (h es
la constante de Planck). La generalización de esta ley de De Broglie a todos los objetos materiales
inició el desarrollo de la física cuántica, donde se establece que toda entidad individual (las partículas
y también los fotones) tiene una naturaleza dual, de modo que su comportamiento global presenta
dos aspectos complementarios: ondulatorio y corpuscular. Dependiendo de la situación predomina
uno de estos dos aspectos.
Así por ejemplo, consideramos el ejemplo de una mota de polvo que se desplaza a una velocidad
de 1m/s (masa aproximada = 0.01g = 1·10-5 Kg,, radio aproximado = 1·10 -3m). Su longitud de onda
es del orden de 10-28m (l = h/m·v = 6.67·10-34/1·10-5 = 6.67·10-29m), por tanto 10-25 veces más
pequeña que su tamaño, lo que hace totalmente insignificante el carácter ondulatorio de la mota de
polvo. Dicha mota de polvo se comporta, a todos los efectos, como una partícula.
En contraposición, consideramos ahora a un electrón impulsado por un campo eléctrico, como, por
ejemplo, el generado entre las placas de un condensador (me = 9.1·10-31 Kg, ve =2·106m/s). Su
longitud de onda es del orden de entre 10-10m y 10-9m (l = h/m·v = 6.67·10-34/9.1·10-31·2·106 =

22
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

3.6·10-9m), siendo 10-10m (1 Angstrom) una longitud del orden de magnitud del tamaño atómico. Por
lo tanto, en su contexto el electrón tiene una masa y una cantidad de movimiento (propiedades
corpusculares), y también una longitud de onda (propiedad ondulatoria), significativas. En una
colisión de dos electrones predomina el comportamiento corpuscular de ambos, pero también
ocurre que un haz de electrones se difracta cuando pasa por un pequeño orificio circular de tamaño
comparable a su longitud de onda.

En 1927 Davidsson (1881-1958) y Germer (1856-1951) realizaron un experimento pionero


demostrativo del carácter ondulatorio del electrón. Hicieron incidir muy oblicuamente un haz de
electrones sobre un cristal de níquel. La distancia entre los átomos de níquel es del orden de
magnitud de la longitud de onda de los electrones. Por tanto, el cristal ejerció de red de difracción
de éstos cuanto los electrones eran reflejados tras penetrar débilmente en el interior del cristal. Se
tomaron "fotografías" (usando un detector de partículas cargadas) que mostraron con claridad la
difracción de los electrones y los cálculos realizados a partir de las figuras de difracción
proporcionaron valores de la longitud de onda predicha por la hipótesis de De Broglie.

Principio de Incertidumbre

El sentido físico de la longitud de onda de una partícula es señalar la existencia de una cierta
deslocalización o, lo que es igual, de una indeterminación en el movimiento que puede seguir la
partícula. Significa que la partícula carece de una trayectoria absolutamente determinada y como
consecuencia se tiene una imposibilidad, al contrario de lo que suponía la mecánica clásica, de
determinar de forma simultánea con precisión absoluta su posición y su velocidad. El formalismo
matemático de la mecánica cuántica permite deducir los límites de dicha imprecisión, mediante las
siguientes relaciones:

Δx · Δ(mvx) ≥ h/2π Δy · Δ(mvy) ≥ h/2π Δz · Δ(mvz) ≥ h/2π

Estas relaciones son expresión del principio de incertidumbre, planteado


en 1927 por Heisemberg (1901-1976). Es uno de los principios
fundamentales de la mecánica cuántica. Indica que existe un límite en la
precisión con la que podemos medir simultáneamente la posición y la
velocidad de un objeto, límite que viene dado por el valor de la constante
de Planck, h, y por la masa, m, del objeto.

23
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

Heisemberg(1901-
La imprecisión impuesta por el principio de incertidumbre a las magnitudes
1976)
posición y velocidad (cantidad de movimiento), también se aplica a otras
parejas de magnitudes relacionadas con éstas y cuyo producto tiene las
mismas dimensiones que tiene el producto de posición y cantidad de
movimiento. Así, la determinación simultánea de la energía y el tiempo,
viene afectada por un límite del que es expresión la siguiente
ecuación: ΔE · Δt ≥ h/2π

Para entender por qué pasó desapercibido para la física clásica el principio de incertidumbre
consideramos un objeto de pequeñas dimensiones, como un grano de polvo de 10-6m de diámetro
que se mueve con una velocidad de 1m/s. Si se determina su velocidad con una imprecisión Dv =10-
3
m (muy pequeña con relación al valor de v), la imprecisión en la determinación de su posición
es Dx =10-29m, absolutamente despreciable frente al tamaño del objeto. En este caso, la posición y,
por tanto, la trayectoria del grano de polvo se pueden determinar casi perfectamente.

Rehaciendo estos mismos cálculos para un electrón que avanzara hipotéticamente a la misma
velocidad y se determinara con la misma precisión, obtenemos una imprecisión en su posición
de Dx =10-1m, que es billones de veces superior al tamaño convencional del electrón (10-15m). Por
tanto, dicho electrón queda totalmente deslocalizado.

La indeterminación que expresa el principio de incertidumbre de Heisemberg no se ha de atribuir a


posibles faltas de precisión de los instrumentos y/o técnicas utilizadas (subsanables en mayor o
menor grado con un perfeccionamiento de dichos instrumentos o técnicas) ni tampoco se ha de
entender como un límite impuesto por la naturaleza a la posibilidad de conocerla. Por el contrario, el
principio de indeterminación supone un conocimiento más profundo de la realidad, que hace
referencia a la propia naturaleza de la materia, e informa, por ejemplo, de que el electrón no es ese
objeto puntual que creíamos, sino algo mucho más complejo.

24
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

4) Interpretaciones de la mecánica cuántica


Función de onda

En mecánica cuántica, una función de onda es una forma de representar el estado físico de
un sistema de partículas. Usualmente es una función compleja, de cuadrado integrable y univaluada
de las coordenadas espaciales de cada una de las partículas. Las propiedades mencionadas de la
función de onda permiten interpretarla como una función de cuadrado integrable. La ecuación de
Schrödinger proporciona una ecuación determinista para explicar la evolución temporal de la
función de onda y, por tanto, del estado físico del sistema en el intervalo comprendido entre dos
medidas (cuando se hace una medida, de acuerdo con el postulado IV, la evolución no es
determinista).

Históricamente el nombre función de onda se refiere a que el concepto fue desarrollado en el marco
de la primera física cuántica, donde se interpretaba que las partículas podían ser representadas
mediante una onda física que se propaga en el espacio. En la formulación moderna, la función de
onda se interpreta como un objeto mucho más abstracto, que representa un elemento de un
cierto espacio de Hilbert de dimensión infinita que agrupa a los posibles estados del sistema.

Formulación original de Schrödinger-De Brogli


En 1923 De Broglie propuso la llamada hipótesis de De Broglie por la que a cualquier partícula podía
asignársele un paquete de ondas materiales o superposición de ondas de frecuencia y longitud de
onda asociada con el momento lineal y la energía:

donde son el momento lineal y la energía cinética de la partícula, y son el vector


número de onda y la frecuencia angular. Cuando se consideran partículas macroscópicas muy
localizadas el paquete de ondas se restringe casi por completo a la región del espacio ocupada por
la partícula y, en ese caso, la velocidad de movimiento de la partícula no coincide con la velocidad de
fase de la onda sino con la velocidad de grupo del paquete:

25
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

donde . Si en lugar de las expresiones clásicas del momento lineal y la energía


se usan las expresiones relativistas, lo cual da una descripción más precisa para partículas rápidas,
un cálculo algo más largo, basado en la velocidad de grupo, lleva a la misma conclusión.

La fórmula de De Broglie encontró confirmación experimental en 1927 un experimento que probó que
la ley de Bragg, inicialmente formulada para rayos X y radiación de alta frecuencia, era también válida
para electrones lentos si se usaba como longitud de onda la longitud postulada por De Broglie. Esos
hechos llevaron a los físicos a tratar de formular una ecuación de ondas cuántica que en el límite
clásico macroscópico se redujera a las ecuaciones de movimiento clásicas o leyes de Newton. Dicha
ecuación ondulatoria había sido formulada por Erwin Schrödinger en 1925 y es la celebrada Ecuación
de Schrödinger:

donde se interpretó originalmente como un campo físico o campo de materia que por
razones históricas se llamó función de onda y fue el precedente histórico del moderno concepto de
función de onda.

El concepto actual de función de onda es causa de debate en la Física actual, sobre todo en lo que
respecta la realidad objetiva e intrínseca de dicha función de onda. Matemáticamente, la implicación
del cuadrado de la función de onda es la amplitud de la probabilidad de presencia de materia. Esta
interpretación, introducida por Max Born, le valió la concesión del premio Nobel de física en 1954.

Colapso de la Función de onda

El colapso de la función de onda es un proceso físico relacionado con el problema de la medida de


la mecánica cuántica consistente en la variación abrupta del estado de un sistema después de haber
obtenido una medida.

La naturaleza de dicho proceso es intensamente discutida en diferentes interpretaciones de la


Mecánica cuántica. Algunos autores sostienen que el proceso de decoherencia cuántica de hecho
podría explicar cómo aparentemente el estado de un sistema "colapsa" de acuerdo con el postulado
IV de la mecánica cuántica, aunque realmente el sistema formado por el sistema cuántico más el
resto de universo, incluyendo el aparato de medida, no ha sufrido efectivamente un "colapso". En esta
interpretación el colapso sería aparente, mientras que la función de onda global del universo habría
seguido evolucionando de manera unitaria.

26
Universidad de Mendoza - Dispositivos Electrónicos Romanello - Correa

El aspecto no local de la naturaleza sugerido por el Teorema de Bell, se ajusta a la teoría cuántica
por medio del colapso de la función de onda, que es un cambio repentino y global de la función de
onda como sistema. Se produce cuando alguna parte del sistema es observada. Es decir, cuando se
hace una observación/medición del sistema en una región, la función de onda varía
instantáneamente, y no sólo en esa región de la medida sino en cualquier otra por muy distante que
esté.

En la interpretación de Copenhague, este comportamiento se considera natural en una función que


describe probabilidades. Puesto que las probabilidades dependen de lo que se conoce como el
sistema, si el conocimiento que se tiene del sistema cambia como consecuencia del resultado de una
observación, en ese caso la pprobabilidad deberá obviamente cambiar. Por esta razón, ante el
aumento de información, un cambio de la función de probabilidad en una región distante es normal
incluso en la física clásica. Refleja el hecho de que las partes de un sistema están correlacionadas
entre sí y, por lo tanto, un incremento de la información aquí está acompañado por un incremento de
la función del sistema en cualquier otra parte. Sin embargo en la teoría cuántica este colapso de la
función de onda es tal que aquello que ocurre en un lugar distante, en muchos casos tiene que
depender de lo que el observador eligió observar. Lo que uno ve allí depende de lo que yo hago aquí.
Este es un efecto completamente no-local, no-clásico."

27

Potrebbero piacerti anche