Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Quizás no exista otro proceso físico que requiera ser caracterizado con una diversidad tan amplia
de magnitudes y parámetros que la luz.
• Recorrido o Marcha Óptica: coincide con el valor de la distancia s que la luz recorrería
en el vacío en el mismo tiempo que en determinado medio (de índice re fracción n)
recorrería cierta distancia geométrica , [m].
• Vector Intensidad de Campo Eléctrico: una de las magnitudes vectoriales que oscilan
durante el proceso ondulatorio, E [V/m].
• Vector Inducción Magnética: otra de las magnitudes vectoriales que oscilan durante el
proceso ondulatorio, B [T].
• Período: tiempo empleado por la onda en una oscilación, T [s].
Fig. 1.4.1: Onda plana ilustrando B(t) y E(t) y señalando el período.
• Frecuencia: número de oscilaciones en la unidad de tiempo, [Hz].
• Longitud de Onda: distancia que avanza la onda en un período, [m].
Fig. 1.4.2: Onda plana ilustrando B(x) y E(x) y señalando la longitud de onda.
El caso más sencillo de una onda lo es el caso en la que la misma está caracterizada por una sola
frecuencia. Aquellas ondas compuestas por una sola frecuencia ó longitud de onda poseen, en todo
instante de tiempo, un perfil de intensidades que corresponde a una onda armónica monocromática
u onda "pura".
Fig. 1.4.3: Perfil de amplitudes que caracteriza a una onda armónica de una sola frecuencia.
La fuentes luminosas reales están compuestas en última instancia por un conjunto de ondas
armónicas dispuestas en cierto diapasón de frecuencias.
Fig. 1.4.4: Perfil de amplitudes de una onda "no pura" o formada por un conjunto de componentes de diferentes
frecuencias.
Pudiera pensarse que es el "color" lo que solamente propicia esta diversidad de fuentes
luminosas.
Figura 1.5.1: Espectro electromagnético
Dentro del espectro electromagnético, aún cuando la luz ocupa un estrecho intervalo de
frecuencias (longitudes de onda), existe una variedad amplia de características de ellas y cuyas
especificidades van más allá de estos parámetros.
Un haz láser puede vaporizar tejido biológico a altas intensidades, y puede desencadenar positivos
efectos biológicos, sin incrementar la temperatura prácticamente, a bajas intensidades. En este
caso decide la intensidad de la onda incidente.
Es de destacar las diferencias tan acusadas entre los rayos X ó los rayos con la luz visible
cuando se trata de su interacción con los seres vivos. Esta última es inofensiva, aún con altas
intensidades, y los primeros son ionizantes aún con bajas intensidades. Aquí decide
fundamentalmente la frecuencia de la radiación.
La propiedades de la radiación electromagnética
• Monocromaticidad
• Divergencia o Direccionalidad
• Polarización
• Coherencia
No obstante a ello, procede caracterizarlas de manera cualitativa, y con el auxilio de las fuentes
asociadas a cada una de ella.
- Monocromaticidad:
Cada fuente luminosa tiene su espectro correspondiente. El espectro no es más que el conjunto
de frecuencias de que se compone la luz de dicha fuente.
Por lo general, las fuentes luminosas no emiten ondas de un mismo "color". Otras emiten luz
blanca que sería la unión de todos los colores. Pero esta explicación no es convincente si se trata
de diferenciar la "luz blanca" proveniente del sol o la "luz blanca" proveniente de una lámpara
incandescente. Es que la "mezcla" de los colores no se realiza en igual proporción. A continuación
se detallan las diferencias utilizando el llamado perfil de intensidades para cada longitud de onda.
a) Luz del sol que emite casi uniformemente la radiación b) Luz proveniente de una lámpara fluorescente, conocida
en todo el espectro visible. como "luz fría" y que contrasta con el espectro de la
lámpara incandescente disminuyendo sensiblemente en la
zona roja e infrarroja.
c) La lámpara incandescente posee una gran emitancia d) Perfil de emitancia espectral de una lámpara de descarga
espectral en la zona roja e incluso la infrarroja, de ahí el gaseosa que, como la de hidrógeno atómico, mercurio, y
calentamiento que produce. otros ejemplos, son policromáticas de espectros de rayas.
Fig 1.5.2: Perfil de intensidades de diferentes fuentes luminosas: a) sol, b) lámpara fluorescente, c) lámpara
incandescente, d) lámpara de descarga .
Las radiaciones que poseen una sola componente de longitudes de onda o de frecuencia, poseen
un perfil de intensidades muy estrecho, centrado en una sola longitud de onda, y se dicen
monocromáticas. Este estado es difícil de lograr, salvo en fuentes luminosas como el láser.
Hay fuentes luminosas de espectro continuo ejemplos: el sol, lámpara incandescentes, lámpara de
"luz fría" o tubo Geiger. No obstante a que el espectro asociado es continuo y correspondiente a la
denominada luz blanca (luz de todas las componentes visibles), todas las componentes de
longitudes de onda no están igualmente representadas en las radiaciones emitidas por estas
fuentes. A esta diferenciación se le denomina composición espectral.
Las fuentes de espectro discreto como por ejemplo las lámparas de descarga de gases atómicos
como la de H, He, Na, Hg etc... cuyas rayas espectrales se disponen en solamente algunas
porciones, por lo general, estrechas, poseen, alrededor de la frecuencia para la cual es máxima la
intensidad luminosa correspondiente, un cierto ancho de banda.
Es de destacar el perfil de intensidades del caso de la fuente del láser. Es la que posee el menor
ancho de banda, o sea, de todas las mostradas es la de mayor monocromaticidad.
Una manera muy cotidiana de obtener luz con cierto grado de monocromaticidad es utilizando
filtros de colores.
(a) (b)
(c) (d)
Figura 1.5.3: Efecto de los diferentes filtros de colores en la foto de una mariposa. Las fotos (a), (b), y (c)
corresponden a imágenes de la mariposa pero obtenidas a través de filtros rojo, verde y azul respectivamente. La foto
(d) se obtiene sin auxilia de ningún filtro de color.
- Divergencia:
Aún cuando existan recursos para concentrar la radiación o sea disminuir la divergencia, las
posibilidades prácticas tienen un límite.
- Coherencia:
Los radiadores elementales emiten de forma aleatoria. Aún cuando sea el átomo la unidad
emisora, basta que la misma se excite para que de forma espontánea se des-excite y no exista una
relación de fase entre los trenes de onda emitidos.
Los trenes de onda no están correlacionados entre sí. Esta correlación entre los trenes de onda,
algo tan aparentemente sutil y que se origina en lo microscópico del emisor luminoso, posee una
importancia enorme. Pero esta importancia no se manifiesta a simple vista.
Aún cuando existen métodos para lograr aumentar la coherencia, como colocar aperturas de
diámetro pequeño, no se eleva considerablemente el grado de coherencia de la radiación a
partir de una fuente convencional.
Solamente el láser constituye una fuente con alto grado de coherencia. Esta es una fuente de luz
no convencional.
- Polarización:
Esta característica esta relacionada con el grado de organización de los vectores campo eléctrico o
campo magnético en sus oscilaciones. Esto se logra para fuentes convencionales con la utilización,
por ejemplo, de polarizadores y láminas birrefringentes pero de forma natural ninguna fuente
convencional emite radiación polarizada. Existe cierta relación entre la polarización y la
coherencia.
En la Tabla se detallan las fuentes luminosas que han sido desarrolladas por el hombre y los
mecanismos físicos de generación que utilizan.
Tabla I: Mecanismos y principales propiedades de la radiación emitida por las diferentes fuentes
luminosas.
MECANISMO
FUENTE FÍSICO DE PROPIEDADES
EMISIÓN
LUZ BLANCA, AMPLIO ESPECTRO DE
SOL FUSIÓN NUCLEAR
FRECUENCIAS
LLAMA COMBUSTIÓN LUZ BLANCA, ALTO CONTENIDO DE INFRARROJO
LÁMPARA DE ARCO LUZ BLANCA, ALTO CONSUMO, EMITE
ARCO ELÉCTRICO
ELÉCTRICO INFRARROJO Y ULTRAVIOLETA
LÁMPARA INCANDESCENTE EFECTO JOULE LUZ BLANCA, ALTO CONTENIDO DE INFRARROJO
LUZ CON EMISIÓN ESPECTRAL SELECTIVA, A
EMISIÓN DIFERENTES LONGITUDES DE ONDA EN
LÁMPARA DE DESCARGA
ESPONTÁNEA DEPENDENCIA DEL GAS, CON RELATIVA
INTENSIDAD Y BAJO CONSUMO.
DIODO DE
EMISIÓN CONSIDERABLE GRADO DE MONOCROMATICIDAD,
SEMICONDUCTOR
ESPONTÁNEA BAJO CONSUMO
ELECTROLUMINISCENTE .
ALTA MONOCROMATICIDAD, ALTO GRADO DE
EMISIÓN
LÁSER COHERENCIA, GRAN DIRECCIONALIDAD, ALTAS
ESTIMULADA
INTENSIDADES
Las fuentes luminosas convencionales no emiten radiaciones puras en cuanto a colores. Sus
espectros luminosos son continuos o discretos. Sin embargo, desde el punto de vista radiotécnico,
es bastante fácil lograr una onda de una sola frecuencia.
La fuente más natural de existencia es el Sol. La luz del Sol es un buen ejemplo de radiación de
espectro continuo.
La radiación emitida por la lámpara incandescente, formada por un filamento de tungsteno al rojo
vivo, está más “cargada” o desplazada hacia las frecuencias bajas correspondientes a los colores
naranja, rojo e incluso una buena parte de infrarrojo. La presencia de éste le confiere la posibilidad
de emitir energía calorífica.
La lámpara luminiscente o de “luz fría” sin embargo, está más “cargada” hacia la zona de la altas
frecuencias siendo muy pocas o, mejor dicho, de poca importancia las componentes espectrales
más “cálidas” siendo más importantes las componentes de mayor frecuencia, azules y violetas.
Otras lámparas como los diodos semiconductores, denominadas LED (light emitting diode) emiten
radiación de espectros discretos, como los provenientes de lámparas de descarga, pero con una
sola longitud de onda pero, poseen para cada pico de intensidad un ancho de banda muy estrecho,
aunque no tanto como el correspondiente al láser. Al no ser pura, por tanto, tampoco tendrá alto
grado de coherencia ni de polarización.
Pero existen otras diferencias más allá de la composición espectral pero que están enmascaradas
en detalles de la manifestación de los fenómenos que serán estudiados a lo largo de este libro,
como los fenómenos de interferencia y de polarización fundamentalmente.
Quizás sea más sencillo, en este momento, explicar la importancia de ellas a través de la
contraposición de aquellas fuentes de radiación electromagnética en la zona radiotécnica y
aquellas generadas por vía óptica.
Es conocido que para recepcionar una OEM en el rango radiotécnico se utilizan osciladores
catódicos, osciladores de Hertz, los circuitos Thomsom, y éstas son recepcionadas por antenas
auxiliadas por un circuito LC. En el caso de las ondas luminosas, es imposible diseñar un circuito
LC, en específico un capacitor con valores de capacitancia factibles...por eso son detectadas con
otros tipos de detectores, ente las cuales están nuestro sistema visual, las placas fotográficas, por
ejemplo.
Fig. 1.5.5: Esquema del espectro electromagnético atendiendo, en orden decreciente, a la longitud de onda, la frecuencia,
la clasificación, el modelo de generación, proceso físico base y ejemplos de equipos conocidos en la vida cotidiana.
En el caso de las fuentes de radiación luminosa, de manera convencional, las características son:
Se destaca una nueva fuente de luz: el LASER (acrónimo de la frase en inglés: Light
Amplification by Stimulated Emission of Radiation) que revolucionaría la Óptica y sus
aplicaciones, y que se desarrolló tecnológicamente en la década del 60 del siglo XX no obstante a
que desde inicios del mismo ya estaba teóricamente argumentado por Einstein.
Ya a mediados del siglo XX, con el necesario desarrollo tecnológico se logra construir, por
Maiman, el primer equipo láser en 1960, el cual fue un láser de Rubí por lo que le confieren un
Certificado de Invención al año siguiente.
Se considera que el Láser es una de los grandes éxitos tecnológicos del siglo XX, otorgándosele
en 1964 el Premio Nóbel a Basov, Projorov y Townes.
Existen actualmente una amplia variedad de equipos láser y una amplia variedad de aplicaciones.
Existen diferentes maneras de clasificarlos. Una de ellas es atendiendo a su medio activo, o sea, a
la sustancia emisora de la luz.
El primer láser que fue construido en 1960, fue el láser de Rubí, un láser de estado sólido que
emitía en el rango visible del espectro electromagnético, en este caso en el rojo. El láser de
Neodimio-YAG que emite en el infrarrojo posee una longitud de onda de 1064 nm pero puede
emitir, bajo ciertas condiciones de excitación, luz visible de 532 nm. Los láseres de Alexandrita
emiten en el infrarrojo cercano, entre 750 nm y 780 nm y el de Holmio lo hace ya en longitudes de
onda mayores, de 2100 nm.
Los láseres líquido como los de Rodamina, de interés en ciertas investigaciones, emiten el rango
visible desde 570 nm hasta el rojo de 650 nm.
Se destacan los láseres de tipo gaseoso como el de CO2 cuya longitud de onda es de 10,6 nm, o
sea, en el rango infrarrojo del espectro electromagnético.
Otros láseres gaseosos como el de Argón emiten en el rango visible, en este caso azul de 488 nm,
y el Excímer en el ultravioleta con longitudes de onda que van desde 193 nm hasta 351 nm. El de
Krypton que emite en el rojo y el más conocido de todos es el que utiliza como medio activo
(sustancia emisora) una mezcla gaseosa de Helio y Neón, utilizado en las experiencias
demostrativas de este libro de texto.
Dentro de las fuentes no convencionales, o fuentes láser, existen no obstante toda una diversidad
de situaciones. Por ejemplo:
Láser de He-Ne. Es un láser atómico. Puede generar en variadas longitudes de onda siendo las
más empleadas 632,8 nm, 1,15 mm y 3,39 mm. Las transiciones inducidas ocurren entre los
niveles del Neón. El Helio se añade para hacer más efectivo el proceso de bombeo. El tubo del
láser es de vidrio de alta calidad, cuarzo o cerámica. En láseres pequeños se emplea un cátodo y
un ánodo pero ya en aquellos más grandes se utilizan dos ánodos y un cátodo o dos cátodos y un
ánodo. Los cátodos pueden ser fríos o calientes. Emiten de forma óptima bajo determinadas
condiciones: diámetro del tubo~1,5 mm, relación entre presiones He-Ne 1:10 y 1:5 y poseen muy
alta coherencia.
En 1962 se desarrolló un diodo semiconductor que emitía luz coherente, pero la tecnología no fue
desarrollada completamente hasta la década del 70. Se iniciaba la investigación y desarrollo de la
tecnología láser semiconductor utilizándose el Arseniuro de Galio. Inicialmente se obtuvieron
dispositivos que emitían en el infrarrojo en longitudes de onda de 940 nm, 904 nm, 830 nm hasta
obtener uniones semiconductoras emisoras en el visible. Actualmente el mercado ofrece láseres de
diodo semiconductor (LD: laser diode ) que emiten desde el rojo hasta el azul con potencias muy
variadas. Aún cuando sean diferentes los resultados de sus descargas luminosas, las características
más generales de este tipo de láser son:
En la actualidad existe una amplia diversidad de equipamiento láser para las diferentes
aplicaciones tecnológicas, médicas e incluso artísticas.
¿Qué es la Luz?
La luz como proceso físico posee una naturaleza compleja y el interés por conocer su naturaleza
fue motivo de polémica y debate científico durante siglos.
La luz se encuentra bajo una concepción dualista de su naturaleza. Incluso esta dualidad converge
en la descripción que de ella se realiza.
¿cuál sería la diferencia entre un haz de microondas y la luz emitida por una lámpara
incandescente?
¿cuál sería la diferencia entre un haz de luz roja proveniente de una lámpara de Neón y un haz de
luz roja proveniente de un puntero láser?
Existe una diversidad de características de las ondas que sustentan la diversidad del espectro.
Estas características responden a las denominadas propiedades de la radiación.
Si bien existen diferencias entre las ondas electromagnéticas de la zona radiotécnica del espectro y
la zona visible, existe una diversidad mayor dentro de esta última. A continuación, en la Tabla,
se intentará resumir algunas de las características más importantes:
VÍAS DE GENERACIÓN DE LA RADIACIÓN ELECTROMAGNÉTICA
VÍA ÓPTICA
CARACTERÍSTICAS DE VÍA
LA RADIACIÓN RADIOTÉCNICA EMISIÓN EMISIÓN
TÉRMICA MOLECULAR
ESPONTÁNEA ESTIMULADA
varias
fija, a seleccionar variable,
frecuencias,
en el equipo variable, en un discretos valores, variables, por
FRECUENCIA discretos valores,
generador por el continuo cierto ancho de bandas
ancho de banda
operador banda
muy estrecho
no
monocromática monocromática
espectro discreto espectro de
MONOCROMATICIDAD bastante amplio monocromática
policromática bandas continuas
aproximada diapasón de
frecuencias
emisión continua
CONTINUIDAD DE LA
aproximadamente no continua discontinua discontinua discontinua
EMISIÓN
fase fija
LONGITUD DE LOS medianamente
muy largos cortos cortos cortos
TRENES DE ONDA largos
cierto grado de alto grado de
COHERENCIA incoherentes incoherentes incoherentes
coherencia coherencia
polarizada, a
ESTADOS DE alto grado de
decisión del no polarizada no polarizada no polarizada
POLARIZACIÓN polarización
diseñador
En la Tabla se detallan las fuentes luminosas que han sido desarrolladas por el hombre y los
mecanismos físicos de generación que utilizan.
Casi todos los tipos de fuentes son conocidas a partir de la experiencia cotidiana y de los sistemas
de iluminación domésticos. La cotidianidad del contexto tecnológico actual del Hombre lleva a
éste a conocer en la tecnología informática al láser. Esta fuente de luz: el LASER (acrónimo de la
frase en inglés: Light Amplification by Stimulated Emission of Radiation), revolucionaría la Óptica
y sus aplicaciones, a partir de la construcción del primero de ellos por Maiman en 1960.
Pero incluso en esta especialísima fuente luminosa, en todas ellas hay un factor común de
funcionamiento independientemente del mecanismo físico: "se lleva al sistema físico a un estado
de alto contenido energético para posteriormente regresar a estados de menor energía y entregar
así el resto de la energía en forma de radiación".
Ese proceso en todos los casos, se realiza debido a la tendencia que tiene todo sistema físico a
estados de mínima energía lo cual se alcanza de forma continuada y natural para cada uno de los
componentes de dicho sistema.
Los diferentes mecanismos de generación, aún cuando cumplan la condición general anterior,
utilizan diferentes vías de excitación y de emisión. Solamente una explicación a nivel
microscópico y que por tanto escapa del enfoque clásico podría explicar las diferentes propiedades
de la radiación.
Es por ello que es imprescindible, para caracterizar las diferentes propiedades de la luz, aludir a
los diferentes mecanismos de generación, y por lo tanto a los aspectos cuánticos de la misma.
Estos temas serán tratados, parcialmente, en el Capítulo de Óptica Cuántica, aunque el tratamiento
riguroso de todos los temas se encuentran fuera del alcance de una asignatura de Física General, y
por tanto, fuera del alcance de este libro.
Este epígrafe presentará el punto de partida para el tratamiento de los fenómenos de la propagación, es decir, de
aquellos fenómenos que serán tratados en el Capítulo III: Óptica Ondulatoria.
Por la importancia que tiene, y dado que los orígenes que este tema tiene en la denominada Ecuación de Onda,
en este capítulo se trata el basamento teórico del tratamiento que recibirán los fenómenos de interferencia y
difracción así como la propagación de una onda polarizada en los medios anisótropos en los cuales es posible
lograr nuevamente un proceso de interferencia, pero de diferentes características.
Y es que una de las propiedades más importantes de la Ecuación de Ondas es el Principio de Superposición.
• "La suma algebraica de las amplitudes que representan diferentes perturbaciones, también representa
una perturbación."
• "Cualquier solución general de la Ecuación de Ondas puede ser descompuesta en una suma de
soluciones elementales."
En todos ellos se utiliza, de alguna manera, la combinación de dos o más ondas. En dependencia de las
características de las ondas coincidentes, se darán las diferentes situaciones físicas. Más rigurosamente a esta
coincidencia se le denomina superposición.
así como:
ÓPTICA GEOMÉTRICA
Los primeros estudios acerca de los fenómenos luminosos identificaron precisamente este hecho, uno de los
más evidentes de la vida cotidiana. Se sustentó un concepto que, proveniente del conocimiento común, se
incorporó al conocimiento científico: el concepto de rayo luminoso.
La propagación rectilínea de la luz fue utilizada para fundamentar el funcionamiento de la cámara oscura y
la formación de las imágenes en la superficie de los lagos y estanques.
2-1. Óptica Geométrica y Óptica Ondulatoria.
El concepto de rayo luminoso posee una relación muy directa con la concepción ondulatoria de la
luz.
Cuando se trata la onda luminosa, al tener un carácter electromagnético, se expresan en el orden
matemático, dos ecuaciones ondulatorias vectoriales que, en el espacio libre - es decir, en el vacío,
ausencia de sustancia, de cargas y de corrientes eléctricas, adoptan la forma:
2.1.1
Los vectores asociados al campo eléctrico (E) y al campo magnético (B) se relacionan entre sí a
través del sistema de Ecuaciones de Maxwell, que en el espacio libre, o sea, en el vacío (ausencia
de sustancias, de cargas y de corrientes eléctricas) se expresan de la siguiente manera:
2.1.2
La solución de estas ecuaciones constituyen las denominadas ondas vectoriales. Trabajar con
ellas entraña cierta dificultad en la operatoria, pues el trabajo con rotacionales y con el potencial
vectorial magnético ( ) sería algo que no puede ser esquivado en cierto tipo de problemas
técnicos donde la alternación matemática de los vectores campo eléctrico- campo magnético es
indispensable en el tratamiento del problema, como ocurre en el caso de las antenas.
Sin embargo, en una gran mayoría de los problemas de interés técnico los fenómenos
electromagnéticos pueden tratarse estudiando aisladamente lo que le sucede a una sola
componente. Se tendrán en estos casos las ondas electromagnéticas más sencillas que existen y
que se conocen como ondas escalares, pues puede reducirse el vector campo eléctrico como si
fuera un escalar.
2.1.3
2.1.4
que representa una perturbación según el eje de las x, en sentido positivo, y con velocidad c.
Se denomina frente de onda al lugar geométrico de puntos que poseen igual fase.
Un caso particular de onda será aquella armónica, para la cual la dependencia es del tipo:
2.1.5
Ésta sería la expresión de una onda esférica que podrá propagarse en un medio que posee en
todas direcciones las mismas propiedades electromagnéticas, es decir la permitividad eléctrica y la
permeabilidad magnética. El medio con estas características se denomina isótropo desde el punto
de vista eléctrico y magnético. En el caso de la onda de tipo esférica será un frente de onda
esférico.
Otra solución sería el caso particular de la onda armónica plana, en este caso que se propaga
según el eje de las x y en sentido positivo, donde la amplitud es una constante:
2.1.6
Tanto el frente de onda como el rayo son representaciones del proceso continuo de propagación
de la energía electromagnética a través del espacio.
Fig. 2.1.1: Relación geométrica entre el frente de onda y el rayo luminoso para a) frente de onda plano y b) frente de
onda esférico.
Para el caso de un frente de onda esférico y para el caso de un frente de onda plano los rayos
luminosos serán ó rectas paralelas ó rectas radiales tal y como muestra la Figura 2.1.1.
Existen fenómenos en que la onda electromagnética pierde hasta su carácter ondulatorio. Son los
fenómenos electromagnéticos más simples en los cuales solamente interesa la dirección de
propagación de la onda en el espacio físico en cuestión, como lo son los conocidos fenómenos de
la reflexión y la refracción. Es en este caso cuando basta el tratamiento que hace la Óptica
Geométrica, por lo que es suficiente la descripción de los fenómenos a través de la descripción
geométrica de los rayos.
Así como la frecuencia de la onda electromagnética sea mayor, esto es, mientras menor sea la
longitud de onda, más exacta es la descripción por rayos. Esto caracteriza la simplicidad posible
en el tratamiento de los fenómenos de la Óptica Geométrica.
Aún cuando ya se ha anunciado el tratamiento de que será objeto cada proceso de formación de
imágenes, es necesario profundizar acerca de los fundamentos matemáticos de esta formulación
geométrica. Para ello es indispensable volver a la formulación ondulatoria.
Las soluciones que satisfacen la Ecuación de Onda serían ondas armónicas (sinusoidales ó
cosinusoidales):
2.2.1
2.2.2
2.2.3
2.2.4
2.2.5
Entonces la ecuación de onda de la expresión de la onda armónica f también puede ponerse como:
2.2.6
En el caso de una onda plana, en la que las superficies de igual fase sean planos geométricos, la
parte espacial de la onda puede escribirse como:
2.2.7
obligado interés.
2.3.1
En el caso de una onda plana, en la que las superficies de igual fase sean planos geométricos, la
parte espacial de la onda puede escribirse como:
2.3.2
donde es un vector unitario en la dirección de propagación de la onda y el radiovector. El
2.3.3
2.3.4
Para longitudes de onda pequeñas, los términos cuadráticos no pueden ser grandes, luego el
paréntesis que multiplica a k2 debe ser muy pequeño, por lo que:
2.3.5
solución de la ecuación de onda para valores grandes de k, o sea, valores pequeños de longitudes
de onda. La ecuación diferencial de segundo grado y primer orden para la función f(x,y,z) pasa a
ser una ecuación de primer orden y segundo grado para L.
2.3.6
2.3.7
Este vector unitario puede expresarse como , siendo (s) el vector posición del punto P
sobre el rayo. Entonces, sustituyendo en la ecuación 2.3.7, se obtiene:
2.3.8
Cuando se trabaja con el concepto de rayo luminoso, se asume que esta aproximación es válida.
Entonces podría cuestionarse bajo cuáles circunstancias puede hacerse esta aproximación.
La respuesta a esta pregunta dependerá de las condiciones bajo las cuales se obtuvo la ecuación
fundamental. Es menester tener en cuenta dos situaciones que limitan la validez de la
aproximación de la Óptica Geométrica:
• Toda propagación óptica de rayos conduce a sombras y lugares iluminados. En los límites
de la sombra hay una variación de la amplitud u(x,y,z), entonces el gradiente será una
magnitud elevada en valor, entonces la aproximación no será válida y se estaría en
presencia de fenómenos de difracción.
• En las fuentes o sumideros luminosos, esto es, donde los rayos divergen (focos puntuales)
Por otro lado, y desde el punto de vista energético, la aproximación de la Óptica Geométrica ¿qué ventajas trae
al interpretar el concepto de Intensidad luminosa?
2.3.10
El promedio del Vector de Poynting se considera en la dirección normal del frente de onda, o sea, la dirección
del rayo luminoso. La magnitud de este vector sería el producto del promedio energético de la ecuación 2.3.10
con la velocidad de propagación de la onda , que no es más que la dirección del Vector de Poynting, o
2.3.11
La Intensidad luminosa, en estos términos, se define como el valor promedio absoluto en el tiempo del Vector
de Poynting:
2.3.12
2.3.13
Fig. 2.3.3: Porción volumétrica generada por la propagación del frente de onda luminoso.
En cierta porción volumétrica del frente de onda que se propaga (Ver Figura 2.3.3), se cumple que dada la
2.4.2
Si n1 2, , y el rayo transmitido (refractado) se acerca a la dirección normal a la
<n
Reflexión Total: En este último caso, es de interés una experiencia que demuestra que existe
2.4.3
2.4.4
En el caso del ejemplo, el aire posee un índice de refracción igual a 1, el agua de mar 1,33 por lo
No solamente fue de interés estudiar el curso de los rayos luminosos, es decir, el cambio de
dirección. También fue de interés determinar de cuáles factores dependía la intensidad de los
haces involucrados en los procesos de reflexión y de refracción.
Augustin Jean Fresnel, ya hace casi aproximadamente doscientos años, obtuvo un conjunto de
expresiones que permiten calcular la cantidad de luz reflejada y transmitida en una interfaz.
(a) (b)
Figura 2.5.1: Esquema explicativo de las diferentes componentes de la luz para el caso de: (a) Haz incidente con el
vector E perpendicular al plano de incidencia. (b) Haz incidente con el vector B perpendicular al plano de incidencia
En la Figura 2.5.1 se ilustran dos situaciones físicas que pueden tratarse según la Teoría
Ondulatoria Electromagnética de la luz.
A partir de las Ecuaciones de Maxwell, se obtienen ciertas condiciones que deben cumplir las
diferentes componentes de los vectores y , cuando la onda incide en la superficie de
separación de dos medios de índices de refracción ni y nt . Se considerará que no existen
distribuciones de carga en la frontera ni distribuciones de corriente eléctrica.
Se supondrá además, una onda plana incidente, es decir una onda cuyos vectores característicos
- y por tanto - se encuentran siempre en un plano. Como quiera que, en virtud del Principio de
Superposición, cualquier componente de la luz, ya sea incidente como reflejada y transmitida,
puede descomponerse a su vez en componentes paralelas al plano de incidencia y al plano
Componentes tangenciales:
Componentes normales:
• En presencia de una densidad de carga superficial, las componentes normales de
cambiarán abruptamente.En caso contrario, estas componentes serán continuas.
• Las componentes normales de son continuas.
La mayor parte de las situaciones físicas de interés en Óptica Geométrica, constituyen los casos en
que los dos medios ópticos entre los cuales ocurre la reflexión y la refracción son dieléctricos, por
lo tanto no existirán en la superficie ni densidades de carga eléctrica ni corrientes eléctricas.
Por lo tanto, ya sean las componentes tangenciales como las normales de y de serán
continuas.
Como basta con detallar el comportamiento del vector E, solamente será necesario encontrar las
transmitida (refractada).
Las expresiones de los coeficientes de amplitud de la onda reflejada y de la onda transmitida serán
rxx=
Ecuaciones de
txx=
Fresnel
Y para las componentes perpendiculares:
Puede definirse también la Reflectancia como la razón entre el flujo ó potencia reflejado y el flujo
ó potencia incidente. La Tramitancia, igualmente la relación entre el flujo ó potencia transmitido
respecto al flujo ó potencia incidente:
Ejemplo 2.5.2: Derive las expresiones de los coeficientes de amplitud bajo la condición de
incidencia normal.
Ejemplo 2.5.3: Supóngase que la luz linealmente polarizada incide en una superficie tal que
Supongamos un rayo luminoso que, en su recorrido desde S hasta P atraviesa segmentos con
distancias s1, s2, ......sm en medios de índices n1, n2,.......nm, respectivamente. El tiempo total
empleado en ello será:
2.6.1
La última sumatoria no es más que el recorrido ó marcha óptica. El Principio de Fermat puede
entonces ser reenunciado como: Un rayo luminoso recorrerá una trayectoria que corresponde al
menor recorrido ó marcha óptica.
Para expresar de manera más general y moderna el contenido del Principio de Fermat, se acude al
concepto de valor estacionario de una función. La función f(x) se dice que posee un valor
estacionario en x=x0 si su derivada df/dx se anula en x=x0. Un valor estacionario puede
corresponder a un mínimo, a un máximo ó a un punto de inflexión con la tangente horizontal. En
cualquier caso, f(x) varía lentamente en el entorno del valor estacionario f(x0) de tal manera que
para .
2.6.2
El recorrido de la luz será aquél que hace la derivada de esta función igual a cero.
De esta ecuación se desprende también el Principio de Fermat ó Principio de Acción Mínima ó del
mínimo camino óptico.
La integral en cuestión tiene un valor mínimo a lo largo de un rayo. Esto es, el valor de esta
integral, es un mínimo tomado a lo largo de la curva que revela la propagación de los rayos en un
medio con cierta variación del índice de refracción. En ciertos problemas de propagación de ondas
en la atmósfera se utiliza este principio.
Ley de la Reflexión
En la Figura 2.6.1 nótese que el rayo que parte de S incide en B y se refleja hasta llegar a P. Se
asume el medio homogéneo de índice de refracción n. La función recorrido ó marcha óptica no es
más que:
La función recorrido ó marcha óptica es función de x, y la luz solamente seguirá la trayectoria que
haga que su derivada sea nula, es decir:
entonces:
2.6.3
Ley de Snell
Entonces la condición:
que conduce a:
2.6.4
Fig. 2.6.3: Esquema que muestra dos trayectorias cercanas del rayo luminoso en el caso de la refracción de la luz.
La Figura 2.6.3 ilustra dos trayectorias cercanas, para el caso de la refracción de la luz entre dos
medios de índice ni y nt. La trayectorias ópticas a lo largo de estas dos rutas serán cercanamente
El Principio de Fermat resulta de gran utilidad para el análisis de diferentes situaciones físicas
durante la propagación de la luz.
Como se ha visto en los anteriores epígrafes, al despreciar , o mejor, considerar , las leyes
ópticas pueden ser formuladas en lenguaje de la Geometría y la energía puede considerarse como
transportada la lo largo de ciertas curvas denominadas rayos luminosos. Estos rayos luminosos
son ortogonales al frente de onda.
El trabajo con rayos luminosos que se propagan en línea recta y la aplicación consecuente de las
Leyes de la Reflexión y Refracción, permiten encontrar las imágenes formadas en los diferentes
sistemas ópticos.
Los sistemas ópticos no son más que un conjunto de superficie refringentes y/o reflectantes que
se disponen unos a continuación de los otros con el objetivo de alterar el frente de onda de la luz
que las atraviesa para lograr determinados propósitos.
Es muy frecuente encontrar sistemas ópticos en instrumentos y equipamiento variado. Una de las
funciones principales de los sistemas ópticos es la de formar imágenes. Es este propósito el que
de manera especial ocupará el interés de este epígrafe.
• Lentes ópticas: dispositivo formado por la limitación física de un medio refringente a partir
de dos superficies refringentes.
• Espejos: dispositivo simple que ofrece solamente una frontera reflectante a un frente de
onda ó haz luminoso.
O también sistemas ópticos más complejos como instrumentos ópticos de uso frecuente como la
lupa, el microscopio, el telescopio, e incluso sistema de lentes simples para formar una lente
compuesta como la lente de una cámara fotográfica.
Describir un sistema óptico no es más que poder caracterizar las diferentes situaciones que se
presentan en la formación de imágenes. Para ello es indispensable poseer la ecuación del sistema
óptico en cuestión, es decir, la expresión que relaciona magnitudes importantes en esta
descripción: el aumento, el tipo de imagen, la distancia objeto, la distancia imagen, tamaño del
objeto y tamaño de la imagen. Claro que cada sistema óptico posee otras magnitudes
características propias, como puede ser el radio de curvatura de un espejo esférico, o la distancia
focal de una lente.
Para encontrar la ecuación del sistema óptico, basta con aplicar las leyes generales de la Óptica
Geométrica: La Ley de la Reflexión, la Ley de la Refracción (Ley de Snell) ó el Principio de
Fermat, en cada caso particular. A continuación se resuelven cada uno de los casos básicos
interesantes.
En la Figura 2.7.2 se representa la misma situación anterior pero considerando que el dispositivo
óptico que modifica el frente de onda que diverge y que parte de S a convergente tendiendo a P, es
una superficie curva que separa dos medios transparentes de diferentes índice de refracción.
2.7.1
Ejemplo 2.7.1 -1: Escribir la expresión del Ovoide Cartesiano cuyas distancias objeto e
imagen son 8 cm y 10 cm respectivamente. Suponga que el medio refringente es de vidrio
(ng=1,5) y que ésta se encuentra rodeada de aire (na=1,0). Dibujar el esquema de la
interfase.
SOLUCIONES
Para "enderezar" ó aplanar el frente de onda esférico que incide en la superficie de separación de
los dos medios, se requiere que aquella porción del mismo que se encuentre más alejada del eje
aventaje al resto. Para el caso de que n1>n2 , significaría que la interfase presentara la parte
convexa a la derecha, o sea, los rayos más alejados requerirán recorrer una mayor distancia en el
medio de menor índice de refracción y compensar el camino óptico recorrido por aquellos más
cercanos al eje.
(b) Demostrar que la interfase deseada en este caso es realmente un elipsoide en revolución
de excentricidad n21=n2 / n1.
De gran interés práctico es el estudio de las superficies esféricas por cuanto constituyen parte de
las lentes.
En la sección anterior (2.7.1) se estudió el caso en el cual un cono de rayos que corresponde a un
frente de onda esférico divergente desde S convergerá en P si la superficie tallada fuera un Ovoide
Cartesiano.
Se considera el caso en que A es cercano a V, esto es, se consideran rayos muy cercanos al eje del
sistema óptico lo cual se denomina la aproximación paraxial. Bastaría aplicar la Ley de Snell y se
obtiene:
2.7.2
• Caso en que la imagen se localiza en el infinito. Se conoce como distancia focal objeto
aquella distancia a la cual habría que colocar el objeto para que su imagen se
encuentre en el infinito. O sea, que los rayos emergentes correspondan a un frente de onda
plano.
2.7.3
2.7.4
Fig. 2.7.4: Esquema que ilustra el concepto de distancia focal
imagen en una superficie refringente.
Para poder aplicar la ecuación de las superficies refringentes, es necesario aún declarar ciertas
convenciones de signos que permitirían interpretar adecuadamente los resultados de su aplicación.
• Un objeto se denominará objeto real, cuando la luz diverge de él (Figura 2.7.5a) y objeto
virtual cuando la luz converge detrás de él (Figura 2.7.5b).
(a) (b)
Fig. 2.7.5: Esquema que ilustra la construcción gráfica de rayos para los casos de: (a) objeto real (b) objeto virtual.
• Una imagen se denominará imagen real, cuando la luz converge detrás de ella (Figura
2.7.6.a) y que se forma por el corte físico de los rayos, y será una imagen virtual (Figura
2.7.6.b) en el caso en que la luz diverge a partir de ella, es decir, la luz parece venir de ella.
(a) (b)
Fig. 2.7.6: Esquema que ilustra la construcción gráfica de rayos para los casos de: (a) objeto real (b) objeto virtual.
• Las distancias objeto, imagen, tamaño objeto y tamaño imagen, así como el radio de
curvatura de la superficie, estarán sujetas a cierto convenio de signos. Éste puede ser
concebido a voluntad, pero deberá ocurrir que una vez adoptado, debe respetarse.
Solamente así podrán obtenerse buenos resultados.
+ A la izquierda de V
+ A la derecha de V
R + Cuando C está a la derecha de V
+ Por encima del eje
+ A la izquierda de Fo
+ A la derecha de Fi
2.7.5
Una lente es un sistema de superficies refractantes que consiste en dos o más interfaces en las que
al menos una de ellas es curva. Los medios ópticos que se encuentran entre una y otra de las
interfaces serán considerados homogéneos, es decir, que poseen un índice de refracción idéntico
en todo el medio.
Una lente óptica se considera formada, si fuera compuesta, por varias lentes simples. Dentro de
estas últimas, y con bastante buena aproximación para las aplicaciones más comunes, juegan un
importante rol las llamadas lentes delgadas.
Fig. 2.7.7: Esquema representativo de una lente delgada. superficie refractante. Por ello se
aplicaría consecutivamente la
ecuación de las superficies
refractantes.
Si consideramos la disposición de los siguientes medios: primeramente aire n1=1 y vidrio n2=n y
posteriormente la separación entre el vidrio n2=n y el aire n3 =1. En este caso la imagen de la
primera fase de construcción del proceso, será el objeto para la segunda fase.
Y para la segunda:
Se considerará el caso de la lente delgada, es decir, de espesor despreciable, es decir, que
2.7.6
Los focos pueden ser caracterizados para la condición: , se obtiene para el foco imagen
y que sería la misma expresión que se obtiene al considerar , en la que para el foco objeto
se obtiene .
2.7.7
2.7.8
Las lentes pueden ser convergentes ó divergentes. La lentes convergentes se distinguen por ser
más gruesas en el centro que en los extremos, lo contrario que las divergentes.
La Figura 2.7.8 resume los hechos más significativos que las diferencian entre sí.
Fig. 2.7.8: Esquema comparativo de las funciones de las lentes convergentes para diferentes condiciones de
incidencia. Se incluye la situación no frecuente en que el índice de refracción de la lente sea inferior que la del medio
que la rodea.
Se define como Potencia Óptica de una lente a la suma algebraica de las potencias de las
superficies que la forman. Por lo tanto, para una lente delgada puede demostrarse que .
Aún cuando el tratamiento realizado en todos los epígrafes anteriores consideran la incidencia de
un haz axial (o cercano al eje) de rayos luminosos, es necesario precisar que, para cualquier haz de
rayos paralelos incidentes en una lente, los rayos emergentes deberán cortarse también en el foco,
o mejor, en una superficie plana que pasa por este punto focal. La superficie plana representada
en el caso de una lente convergente, es denominada plano focal posterior. El eje cortará a esta
superficie en el punto Fi .
La Figura 2.7.9 ilustra
este concepto. En ella se
representa el corte de tres
parejas de haces
paralelos, incluyendo
aquel ya conocido cuya
intersección ocurrirá en
el eje. Existirá
igualmente un plano
Fig. 2.7.9: Concepto de plano focal posterior. focal anterior que pasa
por el punto focal Fo.
De la misma manera se puede describir la formación de imágenes en una lente delgada utilizando
los términos de plano objeto y plano imagen. Pero para ello es necesario obtener gráficamente al
menos dos puntos de la imagen. Es por ello que se utilizan los rayos notables (central, paralelo y
focal).
(a)
(b)
Fig. 2.7.10: Rayos notables 1,2,y 3 utilizados en la formación gráfica de la imagen. Rayo 1: rayo central que no se
desvía de su trayectoria. Rayo 2: rayo que incide paralelo al eje y que emergerá en dirección del foco imagen. Rayo 3:
rayo que incide en dirección del foco objeto y que emergerá paralelo.
(a):Caso de una lente convergente. (b): Caso de una lente divergente.
La Figura 2.7.10 detalla claramente la posibilidad de utilización de estos rayos para obtener
gráficamente la posición de la imagen.
El ejemplo utilizado es el de un objeto que se coloca delante de una lente convergente y de una
lente divergente, para la cual la distancia objeto es mayor que la distancia focal . La
imágenes resultantes diferirán en sus características. La obtenida en el caso de le lente
convergente, mediante el corte físico de los rayos, se denomina imagen real. En el caso de la lente
divergente, la imagen se forma por la prolongación de los rayos por lo que en realidad no se forma
en un plano, sino que parece estar formada ó lo que es lo mismo, es como si los rayos emergentes
"partieran" de los que se considerará una imagen virtual.
Fig. 2.7.11: Esquema definitivo adoptado que ilustra todas las magnitudes características de interés en el caso de una
lente delgada.
La Figura 2.7.11 representa la situación de la Figura 2.7.10 para el caso de la lente convergente.
La única diferencia es que el objeto se ha colocado en el semiplano superior, y que se han tenido
en cuenta las distancias xo y xi para las cuales se puede demostrar que se cumple:
2.7.9
Se detalla que, para la construcción gráfica de la imagen, es preferible precisar el plano central de
la lente que corta al eje en el punto O. Los rayos emergentes se dibujarán suponiendo que no
existe desviación de ellos dentro de la lente de espesor despreciable.
2.7.10
De la construcción geométrica se puede inferir que, por triángulos semejantes se obtiene que:
2.7.11
O también:
2.7.12
Resolver un sistema óptico de una lente delgada, significa resolver la Ecuación de las Lentes
Delgadas (Ecuación 2.7.8) pero observando con absoluta rigurosidad el Convenio de Signos. Las
Tablas 2.7.2, 2.7.3 y 2.7.4 resumen el significado físico de los signos de varias de las magnitudes
características del sistema óptico. Utilizar el Convenio de Signos al interpretar ls datos de un
problema dado, e interpretar según dicho Convenio de Signos los resultados obtenidos, garantiza
el éxito de cualesquiera de las situaciones que puedan aparecer.
Tabla 2.7.2: La significación física de los signos de las lentes delgadas y los parámetros de las interfaces esféricas.
Signo
Magnitud
+ -
so objeto real objeto virtual
si imagen real imagen virtual
f lente convergente lente divergente
yo objeto derecho objeto invertido
yi imagen derecha imagen invertida
MT imagen derecha imagen invertida
Tabla 2.7.3: Características de la imagen en lentes delgadas para objetos reales (lentes convexas o convergentes).
OBJETO IMAGEN
Ubicación Tipo Ubicación Orientación Tamaño relativo
∞ > so > 2f real f < si < 2f invertida disminuida
so = 2f real si = 2f invertida idéntico tamaño
f < so < 2f real ∞ > si > 2f invertida aumentada
so >= f ± ∞
so < f virtual derecha aumentada
Tabla 2.7.4: Características de la imagen en lentes delgadas para objetos reales (lentes cóncavas o divergentes).
OBJETO IMAGEN
Ubicación Tipo Ubicación Orientación Tamaño relativo
cualquiera virtual derecha disminuida
Espejo plano:
Los triángulos rectos ASB y APB poseen común el lado AB. Como por lo que ,o
sea, la imagen virtual se formará simétricamente detrás del espejo y por lo tanto el aumento será
unitario. Una imagen derecha, de igual tamaño y virtual se formará del otro lado del espejo.
Los espejos curvos se categorizan en
asféricos y esféricos.
Espejos asféricos:
Espejos esféricos:
2.7.13
so, f + a la izquierda de V
si + a la izquierda de V
cuando C está a la derecha de
R +
V
yo, yi + sobre el eje óptico
Tabla 2.7.6: La significación física de los signos de las lentes delgadas y los parámetros de los espejos esféricos.
Signo
Magnitud
+ -
so objeto real objeto virtual
si imagen real imagen virtual
f espejo cóncavo espejo convexo
yo objeto derecho objeto invertido
yi imagen derecha imagen invertida
MT imagen derecha imagen invertida
R espejo convexo espejo cóncavo
Aunque existen muchas excepciones, los materiales con mayor densidad de masa tienen mayor
índice de refracción que los materiales menos densos.
Las investigaciones en la parte visible del espectro y para sustancias transparentes han demostrado
que el valor absoluto de n en diferentes sustancias. Pero se conoce que, la variación de n con la
longitud de onda , será siempre aproximadamente de la misma forma. Para los casos citados n y
: permeabilidad magnética.
Pero para poder realizar una descripción del fenómeno de la dispersión, las ecuaciones de
Maxwell necesitan ser complementadas por cierto modelo del medio. Esto lo logra la
interpretación molecular de la teoría electrónica, que permite explicar la influencia de la
frecuencia de la onda electromagnética sobre y por consiguiente sobre n.
En general, para los cuerpos transparentes, la dispersión es normal en toda la extensión del
espectro visible (se manifiesta un aumento lento de n con ), mientras que al acercarse a la zona
infrarroja o ultravioleta del espectro, el índice de refracción comienza a variar rápidamente, lo
cual es la indicación de la proximidad de las bandas de absorción que están situadas en estas zonas
del espectro.
Cauchy halló que la dispersión normal puede ser descrita en general por la expresión:
donde A y B son constantes características del medio que pueden ser determinadas
experimentalmente, midiendo n para dos valores diferentes de .
La fórmula de Cauchy es bastante precisa para una sustancia transparente en la región visible del
espectro, pero a medida que nos acercamos a la zona infrarroja, donde el medio absorbe
fuertemente la luz, el índice de refracción decrece mucho más rápidamente que lo indicado por la
fórmula de Cauchy.
Un estudio detallado muestra que los tramos IR y UV, correspondientes a las bandas de
absorción, están conectados por una curva continua, como la mostrada en línea discontinua..
Cuando una onda incidente (primaria), interacciona con los electrones e iones que componen la
sustancia, se generan ondas secundarias cuya amplitud y fase dependen de las oscilaciones
forzadas que bajo la acción de la onda incidente ejecutan estas partículas.
Así cada partícula cargada que toma parte en este fenómeno, puede ser concebida como un
oscilador armónico con frecuencia propia ; de manera que al incidir la luz las partículas
ejecutan oscilaciones forzadas, cuya amplitud se incrementa a medida que la frecuencia de la onda
(solución para el problema simplificado donde las fuerzas de resistencia son despreciadas).
Aquí es necesario tener en cuenta que las ondas primarias incidentes y las ondas secundarias
resultado de las oscilaciones forzadas, se superponen, dando una onda resultante con amplitud y
fase diferentes de la onda incidente. Esta es la razón por la cual la velocidad de fase de la onda
resultante será diferente a la velocidad de la luz en el vacío, o sea que la dispersión de la luz por
las partículas del medio afecta el índice de refracción, pues la amplitud y frecuencia de la luz
dispersada (ondas secundarias) depende de la frecuencia del haz incidente, lo que origina la
dependencia entre n y ; es decir el fenómeno de la dispersión
La Óptica Ondulatoria trata de los fenómenos que ocurren durante la propagación de la luz, y que
son explicados con satisfactorios resultados por la Teoría Ondulatoria Electromagnética.
Las franjas que ocurren en una pompa de jabón, o las que aparecen en los útiles interferogramas
que pueden brindar información de las tensiones que ocurren en una pieza mecánica responden al
fenómeno de la interferencia.
Los motivos de los colores que aparecen a través de nuestras pestañas cuando entornamos los ojos
en un soleado día de verano, o las causas que determinan que las lentes de calidad permitan una
mayor nitidez y resolución de los más pequeños detalles de los objetos que son visualizados a
través de ellas están en la difracción que experimentan los rayos luminosos.
La polarización, sin embargo es mucho más que un fenómeno que ocurre en algunas situaciones
físicas. La polarización es una propiedad de todas las ondas transversales. Los fenómenos que
permiten la obtención de radiación luminosa polarizada, como la reflexión bajo el ángulo de
Brewster o el dicroismo que presentan algunos materiales anisótropos.
El título de este epígrafe preside el inicio de un análisis más profundo de tres anunciadas
propiedades que poseen una extraordinaria importancia en la Ciencia de la Luz y en las
aplicaciones que de ella se derivan.
Los fenómenos de Interferencia, Difracción y Polarización poseen una estrecha relación con la
composición espectral y con la coherencia de la radiación luminosa
Alrededor de estas tres centrales propiedades de la luz se teje toda una trama de conceptos y
teorías, se tiende la base gnoseológica de diversos fenómenos, se diferencian las diversas fuentes
luminosas y se suscitan aún debates.
Aún cuando pudiera encontrarse una descripción y un tratamiento un tanto independiente de cada
una de ellas, y aún cundo muchos autores prefieren presentarlas de manera separada, en esta
oportunidad se irán realizando reflexiones que analizan las relaciones entre ellas, y profundizando
el tratamiento de las mismas.
Polarización. Introducción.
La presentación de este tema obedece a una concepción pedagógica que pretende presentar el
tema de la Polarización de la luz, a través de una serie de demostraciones de laboratorio, algunas
de ellas a través de Experiencias Demostrativas, así como de la referencia de una serie de hechos
físicos de la vida profesional y cotidiana.
Más que un fenómeno, la polarización de la luz es una propiedad de la radiación que depende
muy directamente de las características de los procesos de generación de las mismas y de los
procesos que tienen lugar durante la propagación.
La polarización tiene que ver con el ordenamiento de las oscilaciones que componen las ondas,
en este caso, transversales. En el caso de la luz, como onda electromagnética que es, la
polarización o no de la radiación dependerá del ordenamiento o no de las oscilaciones del vector
eléctrico.
Polarización de la luz.
Introducción:
A diferencia de los fenómenos de interferencia y difracción, que ocurren dado el cumplimiento de
ciertas condiciones durante el proceso de propagación de cualquier tipo de ondas, el a veces
tratado fenómeno de polarización exige de un enfoque específico diferenciándose de los dos
primeros.
Más que un fenómeno, la polarización de las ondas es una propiedad de la radiación que depende
muy directamente de las características de los procesos de generación de ellas.
En primer lugar, es conveniente precisar: ¿qué tipos de ondas van a ser consideradas?
Aquellas que permiten hablar de posible ordenamiento de las oscilaciones que presupone
el movimiento ondulatorio: las ondas transversales. Éstas se caracterizan porque las
oscilaciones son perpendiculares a la dirección de propagación. Entre éstas se encuentran
las ondas electromagnéticas.
En segundo lugar, ¿son ordenadas las oscilaciones de las ondas electromagnéticas (OEM)
generadas por cualquier tipo de emisor?.
Fig. 3.1.1: Esquema del espectro electromagnético que resalta una serie de datos interesantes de ellas y que destaca, entre
otros aspectos, los diferentes mecanismos de generación.
En toda la extensión del espectro electromagnético, existe una diversidad de situaciones en cuanto
a las características de la emisión.
Las OEM que clasifican en la primera, en general y para ciertas condiciones de diseño, son
ordenadas en sus oscilaciones, esto es, son ordenadas. Todo depende del diseño del emisor y la
antena. Casi siempre pueden modificarse en dependencia de la decisión del hombre y, claro está,
de los recursos materiales a su disposición.
Fig. 3.1.2: OEM generada por vía radiotécnica. La radiación se emite con la frecuencia de la corriente que alimenta el
conductor. Esta es la conocida antena dipolar.
i. Debe trabajarse en una zona lejana de la antena, es decir, en condiciones de despreciar los
campos de "zona cercana".
ii. La antena debe ser pequeña comparada con la longitud de onda.
Si se cumplen estas condiciones se puede tomar solo una carga equivalente para representar el
movimiento de todos los electrones de la antena.
Para casos en que la antena tenga una longitud de varias longitudes de onda, los electrones de
diferentes lugares contribuyen con diferentes fases; entonces se toma más de una carga
equivalente y se tiene lo que se conoce como radiación multipolar.
Pero es posible, en el caso de las ondas generadas por vía radiotécnica, lograr condiciones técnicas
que permitan obtener una radiación polarizada.
Las OEM generadas por vía óptica, en general escapan de cierta manera de la decisión del
investigador. Se generan a nivel del átomo o la molécula. Aún escogiendo con gran cuidado el
sistema atómico, no puede esquivarse la esencia estadística del problema. Se podría pensar en una
cantidad enorme de osciladores microscópicos dipolares. ¿Estarían organizados todos los vectores
eléctricos y magnéticos de todos los emisores entre sí? Imposible. Se desarrolla una complicada
superposición de las diferentes emisiones. Es por ello que, de manera natural, la luz que emerge de
las diferentes fuentes, no está organizada, o lo que es lo mismo no está polarizada.
Solamente en el caso de los láseres, y en aquellos en los que se dota al generador óptico-cuántico
de dispositivos o accesorios específicos, es que se puede lograr una radiación ordenada en el
sentido en que se está hablando en este epígrafe. En este caso se refiere al uso de las Ventanas de
Brewster en el láser de He-Ne.
El resto de las formas de emisión de OEM por vía óptica no logran un ordenamiento de las
oscilaciones correspondiente de la radiación emitida. Es por ello que hay una amplia diversidad de
situaciones que obliga a precisar cuáles son las características de la radiación que será utilizada en
determinada aplicación técnica.
En tercer lugar, si se tiene una OEM no polarizada, ¿será posible lograr un ordenamiento de dicha
OEM?.
Ya después, incluso se podría formular la siguiente pregunta: ¿será posible modificar este
ordenamiento en otro?
Encontrar las respuestas a estas preguntas constituye el objetivo de este epígrafe del Capítulo 3 de
Óptica Ondulatoria.
¿Cómo se describen los diferentes ordenamientos de las oscilaciones? Una variante sería la
descripción de las oscilaciones a partir de sus componentes.
Se puede descomponer en
Luz analizada
Dos ondas
Linealmente
o
Polarizada L.P.
Dos Ondas
Circularmente Linealmente
Polarizada C.P. Polarizadas L.P. en
planos mutuamente
perpendiculares
Elípticamente
Polarizada E.P.
diferentes a
las anteriores
Por supuesto que ambas componentes poseen igual frecuencia e igual fase.
En lo adelante, para referirse a una onda bastará representar la parte eléctrica de ella.
En este epígrafe se tratará de la superposición de dos ondas luminosas con planos de polarización
ortogonales y que poseen la misma frecuencia.
El campo eléctrico de la onda resultante no tendrá que oscilar en un plano fijo, sino que éste puede
rotar en el tiempo. La amplitudes y fase relativa de las ondas que interactúan e interfieren
determinará el estado de polarización de la perturbación resultante.
Estas ondas se moverán en la dirección z positiva y poseerán una diferencia de fase relativa .
Polarización plana:
• Sea el caso específico en que , o sea, que las componentes están en fase,
entonces la onda resultante será:
Polarización circular:
• Supóngase ahora dos estados ortogonales de ondas plano polarizadas o linealmente polarizadas poseen
La amplitud de la onda resultante será constante, pero la dirección de la onda resultante dependerá de z
y de t. El vector intensidad de campo eléctrico rotará en el sentido positivo o sentido de las manecillas
del reloj según una vista que se dispone mirando hacia la fuente, y se desplazándose según el sentido que
determina la velocidad de propagación, o sea, el extremo del vector describirá una helicoide y se dirá
3.1.1.- Emisión de la radiación y polarización.
Existe una íntima relación entre las características de una onda electromagnética y la fuente que la
originó. Basta detenerse en el espectro electromagnético para, ya de inicio, comprender la amplia
diversidad de situaciones.
Fig. 3.1.1.1: Esquema del espectro electromagnético que resalta una serie de datos interesantes de ellas y que destaca,
entre otros aspectos, los diferentes mecanismos de generación.
Son completamente diferentes los mecanismos de emisión, también diferentes las maneras en que
se manifiestan en su propagación, y por supuesto diferentes las vías para su detección. Y por lo
tanto también son diferentes las maneras en que se manifiestan sus propiedades.
Como ondas electromagnética que es, los vectores intensidad de campo eléctrico y el vector
inducción magnética oscilarán perpendiculares entre sí y perpendiculares a su vez, a la dirección
de propagación. La periodicidad en el espacio es la longitud de onda.
(a) (b)
Fig. 3.1.1.2: Relación entre los vectores eléctrico y magnético para el caso de una onda electromagnética plana.
(a) dependencia espacial en la cual se señala la longitud de onda, (b) dependencia temporal señalando el período.
Estas ondas se emiten con la frecuencia del generador que alimenta a la antena que puede
mantenerse fija a voluntad del diseñador, por lo que podrá ser con una buena aproximación:
monocromática. Durante el tiempo en que es excitado el emisor de la antena, y que puede ser lo
suficientemente extenso como para considerar que el tren de ondas emitido mantendrá todos sus
parámetros constantes, incluso la fase inicial, permite considerar coherente dicho tren de ondas. Y
por otro lado, el mantenimiento del ordenamiento de las oscilaciones eléctricas y magnéticas de la
onda emitida, que dependerá también del diseño de la antena, permitirá considerar ordenada la
onda emitida.
Se dice entonces que la onda luminosa está polarizada, por cuanto una onda polarizada, en el
caso de las ondas electromagnéticas, es una onda en la cual las oscilaciones del campo eléctrico (y
por ende, las del campo magnético) son ordenadas, es decir, el extremo del vector eléctrico
describe una ley de movimiento fija. Esta ley puede ser una elipse y todos los casos particulares
que de ella se derivan.
Fig. 3.1.1.2: OEM generada por vía radiotécnica. La radiación se emite con la frecuencia de la corriente que alimenta
el conductor. Este ejemplo corresponde con el modelo de la antena dipolar.
El ordenamiento de las oscilaciones puede representarse por un trazo que recuerde la trayectoria
que sigue el extremo del vector intensidad de campo eléctrico . Este ordenamiento podrá ser
lineal, circular ó elíptico.
Las OEM generadas por vía radiotécnica poseen una tendencia natural al ordenamiento, lo cual
no quiere decir que todas lo sean. Esta problemática va más allá del proceso inicial de la
generación para depender, en última instancia, de los detalles de diseño mecánico y electrónico.
Todo dependerá del diseño del emisor y la antena.
Pero es posible, en el caso de las ondas generadas por vía radiotécnica, lograr condiciones técnicas
que permitan obtener una radiación ordenada en sus oscilaciones o polarizada.
Cada haz luminoso trae consigo asociado cierto "ancho de banda" que está relacionado tanto al
proceso natural de la transición electrónica inherente a la misma, pero también está asociada a la
estructura electrónica del átomo. Pero cada átomo podrá tener asociado un espectro característico,
es decir, un conjunto de frecuencias respectivas a las diferentes transiciones probables y que son
atributos de cada átomo y solo de él. Esta situación lleva a la policromaticidad.
Ahora bien, cada fuente luminosa está formada por un sistema de osciladores y no por uno de
ellos. Los osciladores atómicos se integran en un gas, por ejemplo. El proceso de integración de
diferentes átomos para formar una molécula presupone diferentes trenes de onda cada uno con
características muy propias y no idénticas entre sí. Esto implica que, aún cuando las frecuencias
emitidas por lo átomos que forman el sistema sean las mismas, la fase y el estado de polarización
de ellas no serían idénticas.
Dicho de otra manera, aunque la fase inicial de cada tren de ondas sea fija durante el proceso de
emisión de una pequeña onda componente, el vector eléctrico correspondiente a las pequeñas
ondas individuales no gira en torno a la dirección de propagación de ellas, sino que mantiene una
misma dirección de oscilación, cuando hay un número elevado de átomos emitiendo toda esta
situación cambia radicalmente. Debido a la corta duración del proceso de emisión de los trenes de
luz, y el carácter estadístico de todo este proceso a nivel atómico y/o molecular, se tendrán un
conjunto de oscilaciones posee implicaciones la consecuencia los ángulos están distribuidos de
forma aleatoria, las propiedades del haz de luz son las mismas en todas direcciones, y se dice que
la luz está no polarizada en general. La corta extensión del tren de ondas presupone en su
esencia el alejamiento de la condición de polarización, sino de la monocromaticidad y la
coherencia, por lo que las ondas además serán no monocromáticas e incoherentes en general.
Será más difícil, entonces, encontrar luz monocromática, coherente y polarizada, que
radioondas monocromáticas, coherentes y polarizadas.
Será analizada la situación de una radiación de microonda que incide en una rejilla metálica tal y
como se ilustra en la Figura 3.2.1.
El campo eléctrico de la radiación incidente impone el movimiento de los electrones a lo largo del
alambre. Dicho alambre actuará como una carga resistiva. Los electrones de conducción alcanzan
una velocidad final en un tiempo que es corto comparado con el período de las microondas
(frecuencia de 1000 MHz).
Los electrones no pueden moverse libremente a lo largo de la menor dimensión del alambre, pues
no pueden abandonar el alambre. En lugar de alcanzar una velocidad final estacionaria (como lo
hacen en la otra situación), los electrones construyen rápidamente una carga superficial a lo largo
de los bordes del alambre.
Es más, se utiliza también el término filtro polarizador para identificar este tipo de dispositivo.
componente del vector eléctrico y otra Fig. 3.1.3.1: Onda L.P de microonda incidente en una rejilla
polarizadora. El vector E a la salida será una componente del
vector eléctrico de la onda incidente Eo.
al eje óptico de la rejilla, coincidiendo
esta última con el plano del vector eléctrico
de la onda L.P. a la salida de la lámina.
Como:
3.1.3.1
Solamente las componentes paralelas al eje óptico podrán atravesar la rejilla. A la salida de la
lámina puede calcularse la fracción de la intensidad luminosa, elevando al cuadrado la expresión
de la componente resultante pues la componente perpendicular no aporta pues es "absorbida".
3.1.3.2
3.1.3.3
Esta expresión es conocida como la Ley de Malus y es aplicable solamente en el caso en que la
onda incidente sea plano polarizada o linealmente polarizada.
A la salida del sistema, los valores de la intensidad de la onda estarán representados en la figuras
que a continuación se muestran.
Fig. 3.1.3.2a: Variación de la intensidad de la microoonda a la salida de la rejilla polarizadora si incidiera una onda
L.P. en coordenadas rectangulares.
Fig. 3.1.3.2b: Variación de la intensidad de la microoonda a la salida de la rejilla polarizadora si incidiera una onda
L.P. en coordenadas polares.
Ley de Malus
Para la luz, estos dispositivos polarizadores funcionan similarmente a las rejillas de alambre en el
caso de las microondas. A la salida de un polarizador, por analogía con el epígrafe 3.1.3, existirá
luz plano polarizada o linealmente polarizada.
Se comprueba la existencia de una posición para la cual no existe prácticamente luz transmitida,
es en esta posición que se dice que "los polarizadores están cruzados".
Y existe otra situación límite para la cual es máxima la intensidad luminosa transmitida.
Cada polarizador posee una dirección preferencial llamada eje óptico del polarizador, dirección
preferencial para la cual emergerán solamente aquellas ondas cuyo vector intensidad de campo
eléctrico y que sean paralelas a dicho eje.
Fig. 3.1.4.2: Vista a través de dos polarizadores superpuestos en tres situaciones: (a) Los dos ejes ópticos paralelos
entre sí, (b) los dos ejes ópticos perpendiculares y, (c) Los dos ejes ópticos forman cierto ángulo.
Por tanto, si a la salida de uno de los polarizadores emerge luz linealmente polarizada, con su
plano de oscilación del vector eléctrico paralelo a dicho eje, la situación que se identifica en el
último polarizador, llamado analizador, es la de la Ley de Malus, similar al caso de la rejilla
polarizadora y la microonda.
Fig. 3.1.4.3: Esquema de un sistema formado por dos láminas polarizadoras (material Polaroide) al cual incide luz.
¿Cuál sería la fracción de la intensidad de la luz incidente que emergería del analizador o segundo
polarizador, si la luz incidente fuera de intensidad Io?
Para responder a esta pregunta será necesario tener en cuenta que, cualquier situación de luz
polarizada puede ser analizada partiendo de la Ley de Malus.
Es conocida la relación entre la intensidad y la amplitud de las ondas, es decir, se conoce que la
intensidad de una onda es proporcional al cuadrado de su amplitud. Por lo tanto, bastaría conocer
cuál componente del vector eléctrico de la onda incidente emergerá de polarizador, para estimar la
fracción correspondiente de energía por unidad de tiempo y de área, que es en definitiva la
intensidad luminosa.
Luz incidente linealmente polarizada (L.P.)
Como:
3.1.4.1
3.1.4.2
Solamente las componentes paralelas al eje óptico podrán atravesar el analizador. A la salida de la
lámina puede calcularse la fracción de la intensidad luminosa, elevando al cuadrado la expresión
de la componente resultante pues la componente perpendicular no aporta pues es "absorbida".
3.1.4.3
Esta expresión, conocida como la Ley de Malus, es aplicable solamente en el caso en que la onda
incidente sea plano polarizada o linealmente polarizada.
A la salida del analizador, si la luz incidente fuera L.P., los valores de la intensidad de la onda
estarán representados en las figuras que a continuación se muestran.
Fig. 3.1.4.5a: Variación de la intensidad de la luz a la salida del polarizador si incidiera una onda L.P. en coordenadas
rectangulares.
Fig. 3.1.4.5b: Variación de la intensidad de la luz a la salida del polarizador si incidiera una onda L.P. en coordenadas
polares.
Las sustancias que constituyen este tipo de dispositivo se denominan polarizadores y presentan el
fenómeno de dicroísmo.
En 1938, Edwin Land inventó el Polaroide. Este consiste en un elemento de material plástico que
se comporta de manera parecida a como lo hace la rejilla de alambre para las microondas. Durante
el proceso de fabricación del Polaroide, se obtienen largas cadenas de hidrocarburos alineadas en
una dirección. Posteriormente se sumerge esta lámina plástica en una solución que contiene yodo,
el cual actúa sobre las cadenas de hidrocarburos y produce electrones de conducción que pueden
moverse a lo largo de las cadenas pero no perpendiculares a ella. En esta dirección perpendicular a
las cadenas es que se identifica el eje óptico.
Un polarizador sólo transmite una componente de la vibración, aquella paralela al eje óptico, ya
sea reflejando la otra mediante combinaciones de prismas adecuadamente tallados o
absorbiéndola.
El analizador no es más que un polarizador que diagnostica, analiza la luz incidente atendiendo a
su estado de polarización.
La aplicación de la Ley de Malus, aún cuando solamente es posible al caso en el cual la luz
incidente sea L.P., puede ser aplicada con cuidado y por separado a las componentes L.P.
concebidas en este modelo para explicar los diferentes estados de polarización.
Ahora bien, ¿cómo podrá utilizarse un analizador para estudiar la luz de otros tipos u estados de
polarización? Este tema será tratado en el epígrafe 3.1.9.
Existe una diferencia fundamental entre la luz polarizada y la luz no polarizada o luz natural .
y ésta se encuentra en el ordenamiento de las oscilaciones que forman la onda. Si la polarizada es
luz ordenada en sus oscilaciones, y este ordenamiento pudiera ser casi perfecto, la luz no
polarizada será luz completamente desorganizada en lo que respecta a sus oscilaciones, será
aleatoria por completo.
Toda la luz existente en la naturaleza, la proveniente del sol, y de todas y cada una de la fuentes
luminosas creadas por el hombre, emiten luz no polarizada.
a. Cuando dos perturbaciones son incoherentes, la diferencia de fase entre ellas cambia
constantemente de una forma aleatoria. Para cada instante las dos componentes de luz no
polarizada corresponde a cierta polarización elíptica.
b. También puede ser considerada como luz polarizada elípticamente en la cual la forma y la
orientación de la elipse está constantemente cambiando y que incluye los casos especiales
de luz linealmente polarizada (L.P) y circularmente polarizada (C.P.).
Fig. 3.1.5.1: Esquema que ilustra el La aleatoriedad es tal que, puede aceptarse la suposición de
experimento realizado y los detalles
que la luz no polarizada o luz natural, como también se
explicativos.
Es igualmente probable, por tanto, el aporte neto que las diferentes y aleatorias componentes que
se suman tanto en la dirección paralela al eje óptico como en la dirección perpendicular al mismo.
El afán del hombre por lograr lo que de manera natural no se le ofrece, ha dictado pautas en el
desarrollo científico técnico. Así ha ocurrido con el desarrollo tecnológico asociado al diseño y
construcción de las fuentes luminosas.
Al inicio, en los diseños constructivos de las fuentes luminosas primó aquél relacionado con lograr
luz de diferentes características espectrales y energéticas: longitudes de onda e intensidad
luminosa. Son muy variadas las fuentes y muy variadas las propiedades de la radiación luminosa
emitida.
Puede comprobarse que la luz de una vela, las lámparas incandescencia, las lámparas
fluorescentes, así como lámparas de descarga, e incluso las fuentes coherentes como el láser,
emiten radiaciones luminosas que no se encuentran totalmente polarizadas.
Los detalles constructivos de las fuentes luminosas y de los accesorios que se les añaden, permiten
hoy día mostrar toda una diversidad de posibilidades en cuanto a propiedades.
A continuación se exponen las características de un equipo láser de Helio-Neón que exhibe la
propiedad de una altísimo grado de polarización.
Este tubo que almacena la mezcla gaseosa, constituye el medio activo, que a su vez se encuentra
dentro de un diseño de cierta disposición geométrica que, con ayuda de dos espejos de alta
reflectancia, permiten la resonancia y la amplificación de la luz coherente emitida a nivel del
sistema cuántico.
Un haz de luz incidente en una superficie se divide en un haz reflejado y un haz de luz refractada.
Al parecer, y de alguna manera, la luz refractada es "filtrada" de una de las dos componentes en
que ella puede ser descompuesta para su análisis.
Esta situación puede ser corroborada también para el caso del haz de luz reflejado.
Ley de Brewster
Para cierta superficie, el ángulo para el cual
ocurre esta polarización en la reflexión y esta
cuasi-polarización en la transmisión no es el
mismo. Este fenómeno que se ha mostrado se
llama Polarización por reflexión, y será tema de
análisis en futuros epígrafes.
Una fuente de luz ordinaria consiste en un gran número de emisores atómicos aleatoriamente dispuestos.
Cada átomo o emisor emitirá un tren de ondas de corta duración, y que coincide con el tiempo de vida de
un átomo en estado excitado cuando la emisión es espontánea, es decir, de solamente 10-8 segundos. La
superposición de estas ondas, aún cuando posean una misma frecuencia, generará una onda resultante cuyo
estado de polarización cambia cada 10-8 segundo de manera y que es imposible de predecir debido a la
extrema aleatorización de las oscilaciones emergentes. Esta onda, denominada no-polarizada también es
una situación extrema, por lo que también es una idealización.
En realidad, en los casos prácticos, la luz no es ni totalmente polarizada ni no polarizada, sino una mezcla
de los dos tipos. Así, dos estados ortogonales L.P. representarían la onda que poseerá amplitudes diferentes
ó una fase variable no de manera aleatoria. Este caso se dice que la onda está parcialmente polarizada.
Una medición del grado de polarización V sería el factor adimensional que relaciona la intensidad de la
parte polarizada y la no polarizada de la siguiente manera:
Como sería la intensidad total, entonces, Vp no sería más que la fracción de la componente
polarizada.
Ley de Brewster
La luz reflejada en la superficie, y en ciertas condiciones de incidencia que dependen del material
y de su grado de pulimentación, será en general parcialmente polarizada.
Un analizador colocado en el haz reflejado permitirá apreciar dos posiciones diferentes: una de
máxima transmisibilidad y otra de mínima, giradas entre sí 90 grados.
(a)
(b)
Fig. 3.1.7.1: Resultado de la medición de la intensidad de luz transmitida por el analizador durante el proceso de
diagnóstico (a) en coordenadas rectangulares (b) en coordenadas polares
Compare esta figura (Figura 3.1.7.1.a) y b)) y la que se obtiene en el caso del análisis que realiza
un polarizador pero en el caso de la luz elípticamente polarizada (Figura 3.1.4.9 a) y b)).
Ley de Brewster
Se puede inferir que la luz reflejada está parcialmente polarizada. El analizador elimina parte de esta luz,
aquella cuya contribución a la intensidad luminosa es mayor. Es por ello que la intensidad transmitida por
el analizador, para diferentes posiciones, variará.
Fig. 3.1.8.3: Láser de Helio Neón apagado. Se destacan las Fig. 3.1.8.4: Láser de Helio Neón encendido. Se destacan
partes internas que lo constituyen . las partes internas que lo constituyen .
Al colocar a la salida del láser un analizador, se obtiene el siguiente resultado, por demás, esperado.
Los filtros polarizadores o simplemente polarizadores son sustancias que presentan el fenómeno
de dicroísmo.
Ley de Malus
Cada polarizador posee una dirección preferencial llamada eje óptico, paralela a la cual
emergerán solamente aquellas ondas cuyo vector intensidad de campo eléctrico sean paralelas a
dicho eje.
Fig. 3.1.9.1: Vista a través de dos polarizadores superpuestos en tres situaciones: (a) Los dos ejes ópticos paralelos
entre sí, (b) los dos ejes ópticos perpendiculares y, (c) los dos ejes ópticos forman cierto ángulo.
Por tanto, si a la salida de uno de los polarizadores emerge luz linealmente polarizada, con su
plano de oscilación del vector eléctrico paralelo a dicho eje, la situación que se identifica en el
último polarizador, también llamado analizador, es la de la Ley de Malus, similar al caso de la
rejilla polarizadora y la microonda.
Fig. 3.1.9.2: Esquema de un sistema formado por dos láminas polarizadoras (material Polaroide) al cual incide luz.
Dos grandes teorías marcaron la Física del pasado siglo XX: la Teoría de la Relatividad y la
Teoría Cuántica. Ambas, de cierta manera, ligadas a la luz. Emergía una nueva concepción
acerca del espacio-tiempo por un lado, y por el otro nacía una nueva manera de describir los
procesos físicos incorporando la dualidad.
Desde la lejana época de Newton hasta la reciente época de Maxwell, ningún nuevo hecho ó
fenómeno descubierto había puesto en duda el sistema de conocimientos adoptado en la Física.
La primera, la sustancia, asociada a los cuerpos y para las cuales los corpúsculos que la
constituían se subordinaban a las Leyes de Newton que al ser aplicadas, permitían predecir con
absoluta seguridad el estado del sistema por la posición y la velocidad.
Con los recientes aportes que hicieran Maxwell y Hertz, la comunidad científica veía finalizar un
siglo identificado por muchos como el Siglo de las Ondas. La radiación, se aceptaba, consistía en
ondas electromagnéticas asociadas en cada punto del espacio a los campos eléctrico y magnético
en una interesante imbricación denominada campo electromagnético.
Desde la época de Newton no había existido motivo alguno de discrepancia con los nuevos hechos
descubiertos y con la experiencia de los hombres de ciencia en el campo de la Física.
Pero con el nacimiento del Siglo XX vinieron aparejados un conjunto de fenómenos que no
encontraron explicación en la Física que más tarde se denominó Física Clásica.
Tres problemas fundamentales de la Física de finales del siglo XIX ilustran el dilema de la Física
Clásica y su salida dentro de ese marco de una nueva concepción de los fenómenos físicos, que
está asociada a una constante universal: la Constante de Planck. El papel fundamental de esta
importante constante que tomó el nombre de un genial físico alemán: Max Planck, se ven
evidenciado en el tratamiento de tres problemas que constituyen:
3. La Estructura Atómica.
Hoy día se sabe que el tratamiento riguroso de estos tres problemas están relacionados con
procesos de interacción microscópica y las vibraciones de partículas cargadas a nivel de átomos y
moléculas. La leyes que describen estos procesos de interacción de las partículas cargadas y la
radiación rebasan el marco de la Electrodinámica Clásica y poseen un carácter cuántico.
Por ser el curso de Óptica un curso parte de la Física General, se estudiarán estos fenómenos
cuánticos sin tratar los mecanismos internos lo cual será tema de la Mecánica Cuántica y la
Electrodinámica Cuántica.
La primera, la sustancia, asociada a los cuerpos y para las cuales los corpúsculos que la
constituían se subordinaban a las Leyes de Newton que al ser aplicadas, permitían predecir con
absoluta seguridad el estado del sistema por la posición y la velocidad.
Con los recientes aportes que hicieran Maxwell y Hertz, la comunidad científica veía finalizar un
siglo identificado por muchos como el Siglo de las Ondas. La radiación, se aceptaba, consistía en
ondas electromagnéticas asociadas en cada punto del espacio a los campos eléctrico y magnético
en una interesante imbricación denominada campo electromagnético.
Desde la época de Newton no había existido motivo alguno de discrepancia con los nuevos hechos
descubiertos y con la experiencia de los hombres de ciencia en el campo de la Física.
Pero con el nacimiento del Siglo XX vinieron aparejados un conjunto de fenómenos que no
encontraron explicación en la Física que más tarde se denominó Física Clásica.
Tres problemas fundamentales de la Física de finales del siglo XIX ilustran el dilema de la Física
Clásica y su salida dentro de ese marco de una nueva concepción de los fenómenos físicos, que
está asociada a una constante universal: la Constante de Planck. El papel fundamental de esta
importante constante que tomó el nombre de un genial físico alemán: Max Planck, se ven
evidenciado en el tratamiento de tres problemas que constituyen:
3. La Estructura Atómica.
Hoy día se sabe que el tratamiento riguroso de estos tres problemas están relacionados con
procesos de interacción microscópica y las vibraciones de partículas cargadas a nivel de átomos y
moléculas. La leyes que describen estos procesos de interacción de las partículas cargadas y la
radiación rebasan el marco de la Electrodinámica Clásica y poseen un carácter cuántico.
Por ser el curso de Óptica un curso parte de la Física General, se estudiarán estos fenómenos
cuánticos sin tratar los mecanismos internos lo cual será tema de la Mecánica Cuántica y la
Electrodinámica Cuántica
Este último proceso ocurren durante la acción que los produce, cesando inmediatamente después
de eliminar los motivos de la misma. La energía que se transforma en el caso de este tipo de
fenómeno es la energía cinética de las partículas, es decir, la energía térmica asociada a átomos ó
moléculas. Es a nivel microscópico el proceso de emisión.
Toda radiación va acompañada de una pérdida de energía del cuerpo que la produce. Si un cuerpo
recibe de otro circundante una cantidad de energía capaz de compensar exactamente la pérdida de
energía que él experimenta por su propia radiación, se dice que este proceso de radiación se
realiza equilibradamente. En estas condiciones el estado del cuerpo radiante puede determinarse
por una temperatura T.
El equilibrio térmico es un equilibrio de tipo dinámico, pues aún cuando dos cuerpos calentados y
separados entre sí lleguen a una mismo valor de temperatura, podrán seguir emitiendo radiación
electromagnética pues estos cuerpos a la vez de emitir, también absorben energía de esta misma
naturaleza.
4.1.1.1
longitudes de onda próximo a la longitud de onda dada. Ésta será una función de distribución
para Re .
4.1.1.2
Le emitancia de radiación total referida a todas las longitudes de onda viene expresada por:
4.1.1.3
Los cuerpos también absorben la luz. Supongamos que sobre un cuerpo incide un flujo radiante
Absortividad ó Poder Absorbente ( ) : magnitud que se define por la relación entre el flujo
radiante diferencial absorbido y el incidente.
4.1.1.4
Todos los cuerpos no absorben por igual los flujos de las diferentes longitudes de onda. Los
materiales poseen cierta selectividad.
4.1.1.4
Experimentalmente se obtiene que tanto la energía que absorbe un cuerpo como la que emite es
directamente proporcional a la intensidad que incide y que se emite respectivamente. La
proporcionalidad depende del material del cual está constituido dicho cuerpo emisor ó receptor así
como del estado en que se encuentre.
La experiencia demuestra que entre el poder emisivo espectral y el poder absorbente existe cierta
relación.
Ley de Kirchoff:
Kirchoff demostró que si los cuerpos A1, A2, A3....... se caracterizan por sus respectivas relaciones:
4.1.2.1
"La relación de un cuerpo no depende de su naturaleza, sino que es igual para todos los
Para el estudio de la Radiación Térmica, ha sido de gran utilidad la adopción de un modelo para el
cual se realice un estudio de referencia: el modelo del cuerpo negro ó radiador ideal.
Modelo del cuerpo negro:
"Cuerpo negro: aquél cuerpo ideal para el cual el poder absorbente es igual a la unidad, o sea,
es un absorbedor ideal que absorbe todo el flujo que incide".
Es una idealización que puede imaginarse como una cavidad cerrada en cuyas paredes se practica
un orificio muy pequeño de tal manera que si incidiera un rayo de luz en ella, éste experimentará
sucesivas reflexiones internas en las paredes de la cavidad. En cada reflexión una parte de la
energía será absorbida y la otra reflejada. Así, después de muchas reflexiones solamente una
porción muy pequeña de la radiación incidente a la cavidad podrá salir del orificio. Prácticamente
toda la energía fue absorbida por la cavidad.
4.1.2.2
Por tanto, todos los cuerpos negros a la misma temperatura poseerán la misma distribución de
energía radiante entre las longitudes de onda; la emitancia de radiación de todos lo cuerpos negros
experimenta la misma variación al cambiar la temperatura.
En la Naturaleza no existen cuerpos cuyas cualidades coincidan con las del cuerpo negro, por
ejemplo, los cuerpos cubiertos con una capa de negro de humo ó negro de platino tienen un
sólo en un intervalo limitado de longitudes de onda. Artificialmente un cuerpo negro puede ser un
recipiente casi cerrado con un orificio pequeño. Todo rayo de luz que entre en dicho recipiente
sólo podrá salir después de múltiples reflexiones.
Por la Ley de Kirchoff, la emitancia de radiación de
.
Experimentalmente se conoce que la curva de
distribución de la emitancia de radiación de un
cuerpo negro, para las diferentes longitudes de
onda, cambia de manera que el área bajo la
curva aumenta si la temperatura aumenta. A la
vez, el máximo de esta curva se desplaza hacia
la longitudes de onda más cortas. En la Figura
4.1.2 se ilustra este efecto.
Las leyes que a continuación se obtienen forman parte de los resultados experimentales que
constituyen las bases de los estudios sobre la emisión de radiación de los cuerpos.
Ley de Stefan-Boltzman
Deducida teóricamente por Boltzman, esta ley trata de la variación de la intensidad total de la
radiación del cuerpo negro con la temperatura.
Boltzman aplica las leyes del Ciclo de Carnot a una máquina en la cual la radiación hace el papel
de la sustancia de trabajo.
Figura 4.1.3: Esquema de la situación termodinámica de la Radiación Térmica según razonamientos termodinámicos
clásicos.
La máquina de referencia está formada por diferentes partes: un cilindro, un pistón y una base
aisladas térmicamente, además perfectamente reflectores excepto la base que posee un orificio que
puede ser cubierto por una placa reflectora. El pistón se mueve sin fricción. A través del orificio
esta máquina puede poner en contacto dos cavidades B1 y B2 que encierran radiación a temperatura
T1=constante y T2=constante respectivamente.
El análisis del ciclo será referido a cada una de las cuatro fases en las que se puede descomponer
el Ciclo de Carnot.
es isotérmica, la energía U se mantiene constante al igual que P1 y para que esto ocurra debe entrar
radiación por el orificio O desde la cavidad B1 a T1=constante. En esta fase se pueden obtener los
siguientes resultados:
Trabajo realizado:
4.1.3.1
4.1.3.2
4.1.3.3
Se cierra el orificio O con una lámina perfectamente reflectora y se realiza una expansión
adiabática llegando a C. Como no hay intercambio de energía con el medio, el trabajo realizado se
hace a costa de la energía interna. Como el incremento de temperatura de supone tan pequeño
como se desee, entonces:
4.1.3.4
c) FASE C: compresión isotérmica
Se cierra el orificio O y se realiza una compresión hasta los valores iniciales. El trabajo neto en el
ciclo podrá identificarse con el área bajo la curva y considerando que , éste coincide con
, o sea:
4.1.35
4.1.3.6
4.1.3.7
Y como
Entonces:
4.1.3.8
4.1.3.9
situación de los máximos de las curvas de distribución, o sea, donde es máxima. Esta ley puede
obtenerse si se calcula en el Ciclo de Carnot anterior, el trabajo que se realiza en la expansión
adiabática, así como varía la longitud de onda de la radiación con la longitud recorrida por el
pistón.
4.1.310
4.1.3.11
4.1.3.12
4.1.3.13
4.1.3.14
4.1.3.15
Así, a cada modo de vibración electromagnética le correspondería una energía igual a kT. Estos
modos de vibración pueden ser calculados a partir de las Ecuaciones de Maxwell del
Electromagnetismo tomadas para el vacío.
Por conveniencia se considera la cavidad como una caja rectangular. Es fácil verificar por
sustitución que las siguientes ecuaciones definen una solución de las Ecuaciones de Maxwell que
satisfacen las condiciones de contorno.
4.1.4.1
4.1.4.2
entonces: Además:
.
4.1.4.3
, existiendo infinidad de celdas y por cada una de ellas habrán ocho puntos en las
Los puntos que representan frecuencias menores que un valor dado se pueden determinar
4.1.4.4
El número de puntos incluidos será igual al volumen del octante multiplicado por la densidad de
puntos la cual es abd multiplicado por 2 ya que existen dos modos de vibración en cada
frecuencia. De esta manera el número de modos de vibración de los campos por unidad de
volumen será:
4.1.4.5
De acuerdo con los principios clásicos de la equipartición de la energía, el promedio de cada modo
de vibración será kT. La energía radiante por unidad de volumen en el intervalo de longitudes de
rλ = 8π kTλ -4
4.1.4.6
Entonces el poder emisivo espectral para el cuerpo negro será según las teorías clásicas:
8π kTλ -
4.1.4.7
4
Esta fórmula concuerda con los resultados experimentales solamente para la zona de las altas
longitudes de onda. Para longitudes de onda pequeñas esta teoría resulta un fracaso. La curva
experimental posee un máximo y después tiende a cero, mientras esta ecuación para tiende
a infinito. A esta situación se le dio el nombre de Catástrofe del Ultravioleta, ya que en los
experimentos realizados es precisamente en la zona del ultravioleta donde los datos
experimentales se apartan ampliamente de los valores calculados por Rayleigh-Jeans.
4.1.4.8
También puede obtenerse, a partir de la Teoría de Rayleigh-Jeans, que al integrar en todo el rango
de frecuencias la emitancia espectral, la integral se indefine. No sería posible entonces el
equilibrio térmico. Este resultado: la Catástrofe del Ultravioleta fue deducido por Erenfest.
En 1918 fue reconocido Max Planck con el Premio Nóbel por el descubrimiento de los cuantos de
energía.
Los experimentos de Hertz sobre las ondas electromagnéticas parecían proporcionar una
confirmación a la teoría electromagnética de la luz. Esto convenció a Planck que la clave del
espectro del cuerpo negro pudiera ser encontrado en las leyes que gobiernan la absorción y la
emisión de radiación por osciladores eléctricos.
La cavidad isotérmica tomada como punto de partida, puede interpretarse como una cavidad
compuesta por osciladores de todas las frecuencias, tal y como un oscilador hertziano, y que la
emisión y la absorción de la radiación por las paredes es causada por estos osciladores. Planck
llega a la conclusión de que los osciladores solamente son afectados por la radiación de la misma
frecuencia que la que propiamente posee. Entonces, en el estado de equilibrio se podría definir
una relación entre la emitancia de radiación a cierta frecuencia y la energía promedio de los
osciladores a esta frecuencia. Entonces, razonaba Planck, el problema del cuerpo negro se
reduciría al problema de la energía promedio de un oscilador a la temperatura dada.
Siguiendo el razonamiento de Planck, si se asumía que la energía promedio de los osciladores era
kT como asumía la Termodinámica, se llegaba a la expresión de Rayleigh-Jeans, pero por otro
camino. Como esta fórmula fallaba, Planck decidió seguir otro camino: tratar de llegar a una
fórmula que correspondiera con los resultados experimentales.
Sea un oscilador lineal de masa m que oscila con movimiento armónico simple. Suponiendo que x
4.1.5.2
Según la Mecánica Clásica Estadística: el número dN de los osciladores que poseen sus valores de
las coordenadas x y p dentro de dx y dp estará dado por:
4.1.5.3
Tomando dos elipses separadas un intervalo de energía dE, se tiene encuentra un anillo elíptico en
el que se presupone el término que sería constante. Por lo tanto, en estado de equilibrio
térmico, el número de osciladores representados por los puntos en el anillo será:
4.1.5.4
La integral no es más que el área del anillo elíptico y su valor se expresa en función de
estas coordenadas: . Los valores que toman estas coordenadas son los valores máximos
durante la vibración de un oscilador de energía E. En esta expresión de la Energía del oscilador,
para valores nulos de cada una de las coordenadas, se puede calcular la otra.
4.1.5.5
4.1.5.6
4.1.5.7
donde:
Energía:
4.1.5.8
El número de osciladores Nn sobre el n-ésimo anillo puede ser descrito por la siguiente expresión,
4.1.5.9
La energía total E de los osciladores será entonces, aproximadamente:
4.1.5.10
4.1.5.11
De manera similar, se encuentra que:
4.1.5.12
Entonces es posible encontrar para la energía promedio de cada oscilador la siguiente expresión:
4.1.5.13
Planck no supuso que , sino que supuso que h era de un valor finito. En la primera
formulación de su teoría, Planck asume que los osciladores asociados con un anillo dado, todos
poseen la energía propia asociada a ese anillo. De acuerdo con esta hipótesis, la energía de un
oscilador no puede variar continuamente, sino que toma valores discretos.
Al asumir valores discretos para la energía de un oscilador, se está completamente apartado de las
ideas clásicas. De acuerdo con todo esto, si la energía de un gran número de osciladores fuera
medida, se encontraría osciladores con energía de valores fraccionarios del producto . Por lo
tanto, la decisión de Planck presupone que la energía de los osciladores ha de cambiar rápida y
discontinuamente. Esto contradice las concepciones energéticas de la Física anterior.
Si los osciladores solamente pueden variar u energía de manera discontinua, entonces los procesos
de absorción y emisión de la radiación deberán ser procesos discontinuos. De acuerdo con la
nueva teoría, la emisión solamente se produce cuando el oscilador "salta" de un estado a otro
estado menos energético y la absorción cuando el oscilador "salta" de un estado a otro más
energético. Esta hipótesis encontró grandes dificultades.
El mismo Planck reconsideró en varias oportunidades estos presupuestos teóricos que traerían
consecuencias tan drásticas en el pensamiento. Aún quedaban muchas incógnitas...el hecho de que
una porción discreta de energía radiante emitida por un oscilador, después se disperse en el
espacio según se esparce el frente de onda, era tan incomprensible como imaginarse que la energía
pueda ser reunida posteriormente para producir un salto cuántico en la absorción...En la primera
versión de la Teoría de Planck, la absorción era imposible, es por ello que para él la emisión se
hacía de manera discreta y la absorción de manera continua.
La experiencia posterior demostró que Planck se había equivocado y que tanto la absorción como
la emisión ocurrían de manera discreta. El efecto fotoeléctrico y el efecto Compton, poco después,
constituyeron prueba de ello.
No obstante a lo señalado anteriormente, los aportes de Planck fueron suficientes para modificar el
desarrollo ulterior de la Física.
Las ideas fundamentales de su teoría, los presupuestos fundamentales que supone y que pasaron a
la Historia como Hipótesis de Planck, pueden resumirse en las dos ideas s siguientes:
Hipótesis de Planck:
Planck deduce la expresión para la radiancia espectral teniendo en cuenta la expresión obtenida
para los modos de vibración o grados de libertad para el campo dentro de la cavidad tratada como
si ellos fueran osciladores.
La expresión 4.1.4.5 del epígrafe anterior: , son los modos de oscilación o grados de
el producto de esta expresión por la energía promedio de cada oscilador <E> y se obtendría la
siguiente igualdad:
4.1.5.13
4.1.5.14
Esta expresión es la conocida Fórmula de
Planck de la Radiación Térmica ó del
Cuerpo Negro.
Se incorporó al listado de las Constantes Universales una nueva constante, aquella que fue
introducida al asociar en el espacio x-p de fases, los osciladores con idéntica energía. El valor de
esta constante denominada Constante de Planck, en homenaje al autor de esta importante
hipótesis, comienza a aparecer en la solución de incontables problemas no solo de la Física sino de
otras Ciencias.
4.1.5.15
Es una variable angular de acción, donde son las coordenadas y momentos generalizados
respectivamente. Las
.
4.1.5.16
Se puede identificar que es la expresión general, aquella que de manera ilustrativa permite
comprender los puntos de unión de ambas teorías:
4.1.5.17
O sea, que es el valor de el que determina a fin de cuentas la posición científica al resolver el
problema teórico:
Ahora bien, al tratar de graficar y comparar estas expresiones , es útil realizar los siguientes
análisis:
4.1.5.18
4.1.5.19
Las mediciones aportan valores para la constante de Stefan-Boltzman que es deducida de la Teoría
Wien que éste había propuesto en 1896 de manera empírica, la solución limitada a las bajas
Del espectro electromagnético, la zona infrarroja constituye una zona de gran interés desde el
punto de vista tecnológico.
La zona visible está comprendida entre 0,38 µ m (violeta) y 0,76 µ m (rojo). Aquí en los 0,76
µ m comienza la zona infrarroja siendo el límite superior hasta unas centenas de µ m y en
dependencia de los principios de detección es este límite variable entre 400 µ m, 100 µ m y hasta
20 µ m.
Las radiaciones infrarrojas que tienen relación con las aplicaciones térmicas corresponde con una
zona relativamente reducida , sin embargo las aplicaciones térmicas es una de las más
importantes.
• El Sol, fuente de vida, es una fuente que radia su energía en forma de luz y más que nada
en infrarrojo.
• Las lámparas incandescentes transforman en infrarrojo la mayor parte de la energía que se
les suministra.
• Los hornos, las estufas y los radiadores en general son fuentes de infrarrojo por excelencia.
• Los seres vivos realizan como base de su existencia un conjunto de procesos metabólicos
durante los cuales se disipa energía en forma de radiación, fundamentalmente de
infrarrojo.
Aún cuando Planck introdujo su hipótesis (Hipótesis de Planck) para el caso de la emisión de la
radiación, también fue un aporte considerar que durante la absorción también ella es aplicable.
El valor del cuanto de energía luminosa, esto es, el cuanto de energía electromagnética, como
característica de los osciladores, no dependerá de la temperatura (característica macroscópica)
sino que dependerá solamente de las frecuencias propias de éstos.
Interpretando en toda su amplitud esta idea, Albert Einstein fue el primero en ampliarla en la
explicación del efecto fotoeléctrico externo, y realiza una extensión de la misma en su convicción
de que es la luz era también un conjunto de cuantos de energía.
En 1887 fue Hertz el primero en observar los efectos de la incidencia de un haz de luz sobre dos
superficies metálicas, en este caso dos esferas de zinc entre las cuales ocurrían descargas
eléctricas. Estas descargas se producían con mayor facilidad si una de ellas se iluminaba con un
haz de luz ultravioleta.
En 1888, Hallwachs encuentra que si se ilumina con un haz de luz ultravioleta una superficie
pulida de plata, ésta pierde su carga si está inicialmente cargada negativamente, pero la retiene si
ésta fuera positiva. Después comprobó que, para una placa neutra, ésta se convierte en positiva
debido a la radiación. Por lo tanto se asoció la expulsión de carga negativa al proceso de
incidencia de la luz en una placa neutra.
En 1890 Stolietov demostró que pasará una corriente continua entre la placa y la rejilla si la
primera se hace negativa. Se observó una corriente fotoeléctrica que fluye bajo condicione de
vacío. Se concluyó que la fotocorriente era debido al movimiento de portadores negativos.
En 1900 Lenard realiza un experimento sobre el efecto fotoeléctrico que provocaba una corriente
eléctrica entre una amalgama de sodio y un alambre de Platino. Se comprobó la naturaleza
negativa de los portadores de carga precisando que éstos eran electrones.
El estudio diferenciado de este fenómeno con respecto a la longitud de onda de la luz fue realizado
según el esquema de Hughes en 1912.
(a) (b)
Fue irradiada la superficie metálica M con luz monocromática y medida la corriente que llegaba al
colector C como función del voltaje aplicado entre M y la rejilla C. Para voltajes positivos la
corriente es cercanamente constante pero para voltajes negativos la corriente cae y corta la curva
en cierto valor de voltaje.
estudiado detalladamente.
Para completar el análisis del efecto fotoeléctrico, se analizarán los resultados que se utilizan en el
arreglo experimental similar al utilizado por Hughes y se completará el mismo. El clásico
experimento del efecto fotoeléctrico se ilustra en el esquema de la Figura 4.2.2. Un bulbo al vacío
posee dos electrodos que consisten en dos placas metálicas y a las cuales se aplica una diferencia
de potencial en dos regímenes de polaridad: en directa y en inversa. En ambas situaciones un
voltímetro y un amperímetro registran los valores de las magnitudes diferencia de potencial entre
los electrodos e intensidad de la corriente eléctrica.
Cuando se aplica una diferencia de potencial entre las placas no se observa circulación alguna de
corriente eléctrica, aunque la diferencia de potencial se incremente considerablemente y se
invierta o no su sentido.
• Sólo basta que se ilumine la placa K con una luz adecuada para que el amperímetro
detecte el paso de una corriente eléctrica de manera instantánea. Los estudios
realizados permitieron asegurar que esta corriente era originada por un conjunto de
electrones que emergían del electrodo K (cátodo) y llegaban al electrodo A (ánodo) y que
eran arrancados del electrodo K y llamados fotoelectrones. Mediciones precisas permiten
asegurar que el tiempo que transcurre desde el comienzo de la incidencia de la radiación
luminosa hasta la aparición de la corriente fotoelétrica no es mayor que 10-9 s.
• El valor del potencial de corte es el Fig. 4.2.4: Característica voltampérica de una fotocelda
para diferentes valores de intensidad luminosa del haz
mismo si no varía la frecuencia del haz que mantienen la misma frecuencia.
incidente.
Ahora se hace incidir radiaciones luminosas de frecuencias variables. El valor del voltaje de corte
varía con la frecuencia según indica la gráfica de la Figura 4.2.5.
• Se comprueba que para diferentes materiales del cátodo, y diferentes grados de rugosidad
de esta superficie, serán diferentes las frecuencias umbrales ó frecuencias de corte.
Aún cuando el aporte de Planck había sido dado a conocer al mundo científico, no se había
comprendido con amplitud lo que encerraba para el futuro la Hipótesis de Planck.
Es por ello que resulta instructivo analizar en detalle dónde radican las contradicciones que
demuestran lo improcedente de la teoría ondulatoria para explicar el efecto fotoeléctrico.
Sólo basta que se ilumine la placa K con una luz adecuada para que el amperímetro detecte
el paso de una corriente eléctrica de manera instantánea.
• El tiempo necesario para que un átomo pueda acumular la energía que hace falta para que
se desprenda un electrón puede ser bastante grande cuando la iluminación de la onda es
pequeña. El átomo estaría extrayendo energía de la onda hasta que acumule la energía
suficiente como para poder expulsar el electrón. Entonces al inicio, y durante bastante
tiempo, no aparecerán fotoelectrones y por tanto no aparecerá fotocorriente. Después, un
enorme número de átomos emitirán fotoelectrones al mismo tiempo.
El valor del potencial de corte es el mismo si no varía la frecuencia del haz incidente.
• Una onda luminosa al incidir sobre un cuerpo deberá provocar en los electrones de dicho
cuerpo, oscilaciones forzadas de amplitud proporcional a las amplitudes de las propias
ondas luminosas. Si las fuerza que sujetan a los electrones dentro del cuerpo no fueran lo
suficientemente intensas, los electrones podrán escaparse al exterior con una velocidad que
dependerá de la amplitud de la onda incidente. Se conoce que la amplitud de las ondas
luminosas, es decir, las amplitudes de los vectores intensidad de campo eléctrico e
inducción magnética, determinan la potencia del flujo luminoso, es decir, la intensidad de
la luz. Por lo tanto al aumentar la intensidad de la luz incidente, independientemente de
que el valor de la frecuencia de la luz no cambie, según la Teoría Ondulatoria
Electromagnética de Maxwell la velocidad de los electrones desprendidos debería
aumentar; y con la velocidad de los fotoelectrones debería consecuentemente aumentar el
valor del voltaje de corte.
Existirá un valor umbral de frecuencia por debajo de la cual deja de ocurrir el efecto
fotoeléctrico externo.
Esto en realidad no ocurre así. Solamente ocurrirá fotoefecto para valores mayores que
cierta frecuencia umbral que dependerá de la sustancia que constituye a la superficie metálica
iluminada
Los tres resultados referidos en el epígrafe anterior, y que constituyen contradicciones con la
Teoría Ondulatoria Electromagnética de Maxwell, pueden ser explicados en base a la Teoría
Cuántica de la Luz, iniciada por Planck y completada por Einstein.
Según Einstein, la luz viaja por el espacio en paquetes concentrados de energía llamados fotones.
La energía de un solo fotón se expresa mediante la expresión utilizada por Planck en su Hipótesis:
Al incidir los fotones en la superficie del metal, se produce una interacción fotón-electrón de la
red cristalina. Los electrones en el metal se encuentran en un pozo de potencial como muestra la
Figura 4.2.6.
Fig. 4.2.6: Pozo de potencial de los electrones para el caso del efecto fotoeléctrico externo.
. Los electrones más superficiales justamente podrían salir de este pozo para el caso de
Si
una frecuencia de la luz incidente justa para la cual la energía del fotón coincida con la función
trabajo de extracción.
Si , caso en que la energía del fotón exceda el requerimiento energético del trabajo de
extracción, la energía excedente quedará como energía de los fotoelectrones.
Los electrones más ligados a la estructura electrónica de la red cristalina, o sea, aquellos más
profundo en el pozo de potencial, requerirán mayor energía para salir del metal. Es por ello que les
restará una energía cinética menor. Entonces los fotoelectrones emitidos estarán en un rango de
energía cinética amplio .
La energía potencial justa para la anulación de la fotocorriente sería igual a la energía cinética de
los fotoelectrones emitidos:
Entonces:
Como puede comprobarse, pueden ser explicados los tres resultados experimentales
fundamentales que constituyeron contradicciones con la Teoría Ondulatoria Electromagnética.
• Solamente ocurrirá fotoefecto para valores mayores que cierta frecuencia umbral
que dependerá de la sustancia que constituye a la superficie metálica iluminada.
Los fotones incidentes interaccionan uno a uno con los electrones de la red. La emisión de
los fotoelectrones, de ser posible energéticamente el efecto fotoeléctrico, se realiza
instantáneamente, abruptamente.
Aquí es necesario razonar como queda la expresión de la Intensidad del haz de fotones. Si
podría expresarse en función del total de fotones por unidad de área: , es decir el
Las fuentes luminosas emiten luz de características muy diversas que estarán en fuerte
dependencia con los mecanismos internos de generación luminosa.
Es el mecanismo de emisión decisivo en las propiedades de los trenes de onda y/o fotones
emitidos por una fuente luminosa. Existen algunas fuentes de radiación naturales y otras
artificiales que han sido construidas por el hombre. Los mecanismos de emisión son variados y
todos asociados a procesos a nivel microscópico.
MECANISMO
FUENTE FÍSICO DE PROPIEDADES
EMISIÓN
En base a los procesos de Radiación Térmica pueden explicarse los principios de funcionamiento
de algunos tipos de fuentes luminosas, como las fuentes incandescentes.
Para explicar las fuentes de descarga por emisión espontánea y el láser, sin embargo, es necesario
acudir a la estructura atómica y estudiar la relación de esta estructura con sus espectros.
El desarrollo de instrumentos ópticos permitió, desde finales del siglo XIX, estudiar la
composición espectral de la radiación emitida por la fuentes luminosas naturales y aquellas que el
hombre construía en su afán de extender a la noche las posibilidades de iluminación del día.
Desde la época de Newton era conocido el espectro de la luz blanca. Este espectro era conocido
como un espectro continuo. La luz solar, la luz proveniente de la luz de una vela, o la luz
proveniente de las lámparas de combustión que fueron las primeras construidas por el hombre,
proporcionaban espectros de características similares.
Se conocía incluso que los cuerpos sólidos calentados emitían un espectro continuo. Como se
ilustra a continuación, el espectro continuo es un conjunto continuo de rayas espectrales
características de determinado tipo de radiación luminosa.
(a) sol (b) lámpara fluorescente
Aún cuando todos los espectros de las fuentes de combustión, de arco, y de incandescencia son
espectros continuos, éstos se diferencias en el diferente perfil de la emitancia espectral, o sea, la
emitancia para diferentes longitudes de onda.
El aspecto de la luz emitida por todas estas fuentes luminosas acuñó la denominación de la luz que
contiene todas las longitudes del espectro visible: "luz blanca".
No fue hasta inicios del siglo XX que se desarrolló un tipo de fuente luminosa que se diferenciaba
de las fuentes anteriores, en que el haz luminoso emitido por ella se identificaba por un color
dominante.El principio de funcionamiento de estas lámparas era la aplicación de una descarga
eléctrica a través de dos electrodos colocados dentro de un ámpula de vidrio a presión muy baja.
A inicios del siglo XX se construyó la lámpara gaseosa de Neón. La apariencia de esta lámpara se
conocía por su color rojizo. Ésta lámpara de Neón que emitía luz rojiza, y la lámpara de Minin que
emitía luz azulada, impulsaron el desarrollo de la Fototerapia en Occidente con muy buenos
resultados.
De cierta manera se colocaba el gas de determinada sustancia dentro del ámpula ó se propiciaba la
producción del vapor de un sólido.
Fig. 4.3.3: Espectro del hidrógeno molecular (H2). Se muestra una banda extensa en la zona violeta y azul del espectro ,
un espacio oscuro y a continuación un conjunto de rayas en la zona de bajas frecuencias del espectro visible.
Fig. 4.3.4: Espectro de rayas correspondiente al gas hidrógeno ionizado, es decir, hidrógeno atómico. A pesar de ser
hidrógeno, existen marcadas diferencias que permiten adelantar la relación del espectro con la estructura atómica.
Esta situación se repite en los gases monoatómicos. Éstos tienen asociadas las rayas espectrales
correspondientes a diferentes transiciones electrónicas en el diagrama de niveles de energía
asociado al elemento en cuestión. Cada transición constituye una raya espectral. Al conjunto de
rayas espectrales correspondiente se le denomina: espectro discreto.
Fig. 4.3.5: Espectros discretos de diferentes sustancias obtenidos en lámparas de descarga eléctrica. En todos los casos se
destacan las líneas más intensas del espectro correspondiente. (a) Sodio , (b) Neón y (c) Mercurio.
El elemento atómico más simple es el hidrógeno, de ahí que fuera desde el inicio el más estudiado.
El espectro del hidrógeno fue la inspiración de muchos en el ansia de explicar los motivos
estructurales atómicos de este tipo de radiación policromática.
Como la posición de las líneas espectrales se caracteriza por la longitud de onda ó la frecuencia,
fue un objetivo para poder describir los espectros de las sustancias, poder determinar las
longitudes de onda respectivas. Como aún no se conocía con aceptable exactitud el valor de la
velocidad de la luz, se prefirió utilizar la longitud de onda.
Cuando más, en 1890 Rydberg, uno de los iniciadores de la Espectroscopía, introdujo el concepto
de numero de onda: .
La Espectroscopía, como rama de la Óptica, surgió con el objetivo de estudiar los diferentes
espectros. En este estudio se pretendía obtener las expresiones analíticas de los diferentes términos
espectrales. Uno de los resultados más importantes fue establecido en 1908 por Ritz y se
denominó principio de combinación de Ritz. Establece que los números de onda de los
diferentes componentes del espectro de cierta sustancia puede ser expresado por medio de
combinaciones de un número menor de magnitudes, denominadas términos espectrales. El
principio de Ritz establece:
4.3.1
Los valores de T son positivos y con el aumento de n, T disminuye. Si se fija el valor de n1 , los
No obstante se verificó experimentalmente que no todas las rayas espectrales predichas por el
principio de combinación de Ritz se encuentran. Esto permite justificar un concepto que
posteriormente tuvo otra explicación, y que se refiere a l existencia de determinadas limitaciones
en la combinación de los elementos espectrales que constituyen las llamadas reglas de selección.
El estudio espectroscópico del hidrógeno atómico permitió a Balmer, ya desde 1885, formular la
siguiente expresión analítica para los términos Tn en el caso del hidrógeno y para los números
enteros n=1, 2, 3,...:
4.3.2
Aquí se introduce una constante universal llamada Constante de Rydberg en honor a este famoso
espectroscopista. Válida para los isótopos de hidrógeno R=109677.576 cm-1 , toma otros valores
muy parecidos para el caso de los monoelectrónico.
Diferentes espectroscopistas descubrieron cada una de las series espectrales del hidrógeno que se
detallan a continuación:
transición que parte del valor de . En este limite las líneas se acercan y sus intensidades
disminuyen sensiblemente.
Todo este análisis que intentaba encontrar una relación combinatoria entre los valores de las
longitudes de onda o entre los números de onda, no deja de ser solamente un aspecto interesante
del problema. Indudablemente no existía detrás un basamento teórico sino un intento descriptivo
de los espectros. Aún estos no eran interpretados en términos de la cuantización de la energía y
esto no fue posible hasta que Planck y Einstein propusieron el concepto de fotón.
No obstante a lo anterior, era necesaria una teoría sobre la estructura atómica que explicara de
manera precisa el carácter discreto de los espectros.
Niels Bohr en 1913 introdujo la discretización en el átomo, similar a como Planck y Einstein
hicieron en relación a los procesos de emisión y absorción de la luz.
Cuando una onda electromagnética interacciona con un sistema de cargas como un átomo, una
molécula o un núcleo, los campos eléctrico y magnético de la onda perturban el movimiento de las
cargas. En el lenguaje de la Física Clásica, se puede decir que la onda impone una oscilación
forzada sobre el movimiento natural de las cargas. Resulta, por tanto, que ocurre una absorción de
energía por parte del sistema de cargas. El oscilador clásico responderá con mayor facilidad
cuando la frecuencia de las oscilaciones forzadas sea la misma que la frecuencia natural y se
suscita una situación conocida como resonancia. En condiciones de resonancia, el oscilador
absorbe la energía con rapidez máxima.
Salvo esta anterior selectividad, no existe preferencia alguna con las frecuencias. Pero se conoce
experimentalmente que existe una estrecha relación entre la naturaleza del sistema y los
requerimientos energéticos para que ocurra la interacción.
Las diferentes características y propiedades de las fuentes luminosas, entendidas como su espectro
asociado a cada una de ellas, demostraban desde un inicio la necesidad de una explicación
satisfactoria.
Si el sistema de cargas se encuentra en un estado excitado, éste puede liberar su exceso de energía
en forma de radiación electromagnética. Las frecuencias observadas en la radiación emitida
constituyen el llamado espectro de emisión del sistema de cargas.
valores
Cada valor de energía posible caracteriza un nivel de energía. Es posible entonces suponer que
las únicas frecuencias posibles como resultado de la emisión son aquellas correspondientes a las
transiciones entre ciertos dos niveles y que aquella frecuencia de la radiación emitida
Para el proceso de absorción ocurriría algo similar, la única diferencia sería que el tipo de energía
absorbida puede ser de diferente naturaleza y no solamente energía radiante electromagnética.
Bohr utilizó el concepto de fotón y extendió la suposición de Planck E=hν a la energía emitida
durante el proceso de generación de la luz, asociando dos estados energéticos atómicos, de
energías .
En estas ideas se basó la teoría propuesta por Bohr. A manera de dos postulados se expresan de
manera sintética.
Postulados de Bohr:
1. La energía de un sistema de cargas como un átomo, una molécula, ó sistema similar, puede
encontrarse solamente en aquellos caracterizados por determinados valores de energía y no en
todos los estados que admite la Mecánica Clásica. En estos estados cuánticos discretos
4.3.3
Los esquemas ó diagrama de niveles de energía constituyen una manera de representar los
procesos de emisión y absorción.
• El concepto de estados estacionarios fue introducido por Bohr como idea ad hoc Este
postulado se supuso de manera especial, sin justificación teórica alguna. El éxito del
mismo fue tal que se realizaron algunos experimentos para demostrar esta idea.
• Los estados estacionarios no implican solamente la existencia de espectro energético. En
muchas circunstancias, todos los valores de la energía en una porción o banda energética
son alcanzados por lo que sería de esperar un espectro energético continuo.
De gran importancia resulta la comprensión de la siguiente situación:
Para el caso de un protón y un electrón en reposo y separados entre sí una distancia muy
grande. Todos los estados estacionarios de energía negativa, que corresponderían a estados
ligados en los cuales el electrón se mueve alrededor del protón para formar un átomo de
hidrógeno, estarían cuantizados y la energía de estos estados podrían alcanzar solamente
ciertos valores:
• A partir de los Postulados de Bohr se pueden explicar las relaciones combinatorias de los
espectroscopistas. Por ejemplo, sustituyendo en la expresión del segundo postulado se
obtiene el Principio de Combinación de Ritz:
4.3.4
• El postulado segundo de Bohr también explica por qué se observan en la emisión todas las
series espectrales del hidrógeno, y en la absorción solamente puede verse la serie de
Lyman. Al excitarse el átomo, éste alcanza estados energéticos superiores. Posteriormente
el átomo emitirá energía pasando a niveles inferiores hasta llegar a los niveles de mínima
energía. La absorción de la serie de Lyman, como en estado inicial el átomo s encuentra en
su estado de menor energía, es decir n=1, él no puede emitir partiendo de n=1. La serie de
Lyman se observa al realizarse transiciones a niveles de energía superiores a 2 en
dependencia del valor energético de los estímulos. Las otras series que corresponden a
niveles superiores se encuentran mezcladas con las series espectrales de emisión.
Hasta el momento, los Postulados de Bohr permiten explicar la discretización del espectro de
hidrógeno, al menos como sistema conceptual. Faltaría corroborar los resultados experimentales
en base a las expresiones y valores obtenidos por el análisis relacional combinatorio analizado en
el epígrafe anterior
A finales del siglo XIX y posterior a todo el trabajo experimental desarrollado en relación a la
caracterización de los espectros discretos de la radiación emitida cuando se producían descargas
eléctricas en los gases, se había logrado encontrar un conjunto de expresiones para el átomo más
simple de todos: el átomo de Hidrógeno.
Todo este trabajo experimental fue de índole espectroscópico y no fue sorprendente encontrar que
de todos los átomos estudiados, el espectro más sencillo era precisamente el de hidrógeno.
Fueron encontradas la líneas espectrales de la zona visible que ya habían sido estudiadas por
Balmer, y otros conjuntos de rayas espectrales que pueden resumirse en la siguiente expresión
obtenida empíricamente que tomó el nombre de Fórmula de Rydberg:
(4.3.3.1)
En esta expresión se sintetizan todas las series que se obtienen con los valores correspondientes de
los llamados números cuánticos inicial y final:
En 1913, Niels Bohr desarrolló la Teoría del átomo de Hidrógeno para el cual la Fórmula de
Rydberg había sido derivada.
Bohr continuó basándose en la concepción planetaria donde la ligera carga negativa (electrón) gira
alrededor del pesado núcleo positivo.
La fuerza que mantiene el movimiento del electrón en la órbita responde a una fuera de tipo
eléctrica:
(4.3.3.2)
donde .
(4.3.3.3)
donde m es la masa del electrón y su energía total, que sería su energía cinética y su energía
potencial estaría dada por:
(4.3.3.4)
Ahora, como el electrón se mueve en su órbita con cierto momentum lineal, se podría asociar
cierta longitud de onda. Aplicando el Primer Postulado de Bohr de la cuantización del momentum
angular, pueden derivarse las siguientes expresiones:
(4.3.3.5)
(4.3.3.6)
Es posible obtener, en base a las anteriores expresiones, los resultados que permiten describir las
relaciones entre el radio, la energía y la velocidad de las respectivas órbitas de los electrones en el
átomo:
(4.3.3.7)
Las anteriores expresiones están referidas a los valores correspondientes a la primera órbita para la
cual n=1.
(4.3.3.8)
Las anteriores magnitudes no dependen más que de constantes universales por lo que sus valores
numéricos serán constantes. Sustituyendo éstas:
(4.3.3.9)
Bohr postuló, modificando los presupuestos de la Electrodinámica Clásica, que el átomo emitirá
radiación, solamente cuando el electrón, inicialmente en un estado de energía Ei más energético,
cambia a otro valor correspondiente a un estado de menor energía Ef. En esta transición se emite
un fotón cuya energía, aplicando el Segundo Postulado de Bohr:
o lo cual es equivalente:
(4.3.3.10)
Al evaluar el término:
(4.3.3.12)
experimentales y que es de .
se obtiene:
Compton dirigió un haz de rayos X de longitud de onda λ bien precisa a un bloque de grafito, y
midió para diversos ángulos de dispersión, la intensidad de los rayos X dispersados en función de
sus longitudes de onda. La Figura 4.4.1 ilustra un esquema de su experimento.
Fig. 4.4.1: Esquema del experimento realizado por Compton sobre la dispersión de los rayos X.
Como el fotón incidente transmite parte de su energía al electrón con el que interacciona por
choque, el fotón dispersado deberá poseer una energía inferior y por consiguiente deberá
poseer una frecuencia menor que el incidente, lo cual equivale a una longitud de onda menor.
Cualitativamente, al menos, la concepción corpuscular de la luz permite explicar el denominado
efecto Compton.
Fig. 4.4.3: Esquema del efecto Compton. (a) antes del choque (b) después del choque.
El electrón está inicialmente en reposo y prácticamente libre, esto es, no ligado a los átomos del
dispersador.
El interés del hombre por lograr imágenes cada vez mejores, con mayor resolución y mayor calidad en
general, hizo que naciera la Holografía y el Procesamiento de Imágenes.
También el procesamiento de las imágenes se puede hacer ópticamente lo cual se identifica con el llamado
Procesamiento Óptico de la Información. Algunas de las bases de este campo de la Óptica se encuentran en
la denominada Óptica de Fourier y la posibilidad que posee una lente, bajo ciertas condiciones, de realizar
una Transformada de Fourier.
En este epígrafe se realizará una sencilla presentación del tema y se mostrarán algunos resultados
experimentales de interés.
En el epígrafe 3.3. se encontró que para el caso de la Difracción de Fraunhofer, el campo difractado posee la
6.1.2.- Efecto transformador-Fourier de la lente convergente.
Una lente, por ejemplo, es un elemento transformador Fourier de las distribuciones espaciales.
Entre la distribución óptica de entrada (frente de onda) y la distribución óptica de salida, existe
una operación Transformada de Fourier.
Cualquier elemento de enfoque, en la aproximación de la Óptica Geométrica, hace que el haz
luminoso converja a un punto. Si la curvatura se describe como siendo r la distancia al foco.
aproximación .
De la misma manera, puede irse aplicando esta concepción de análisis para definir planos claves
de las lentes como lo son los planos focales y las distancias específicas objeto e imagen para cada
caso específico.
Sea la distancia focal para los valores de distancia objeto y distancia imagen,
Una lente convergente realizará una Transformada de Fourier , de manera casi instantánea (a la
velocidad de la luz). Ninguna otra vía podrá superar tal rapidez.
6.1.3.1
Sin embargo, la distribución radial de S(u,v), es una medida de lo grueso o fino de la textura, y la
distribución angular una medida de su direccionalidad /2, 3/.
Una textura gruesa tendrá valores grandes de S(u,v) en las inmediaciones de su origen mientras
que una textura fina dará una función S(u,v) más distribuida en un área mayor. Una textura con
líneas o bordes en una cierta dirección tendrá valores elevados de S(u,v) concentrados alrededor
de la dirección mientras que una textura no direccional originará una distribución S(u,v) no
(a) (b)
Fig. 6.1.1: Imágenes tomadas por una cámara aerofotográfica de una misma zona natural de una zona periférica de la
Ciudad de La Habana con filtros diferentes. (a) utilizando un filtro rojo (b) utilizando un filtro
infrarrojo
Aparentemente para un observador común, la foto del canal rojo posee una calidad mayor que la
del canal infrarrojo. Sin embargo, desde el punto de vista profesional, la imagen infrarroja puede
brindar una información de otros aspectos "no visibles" desde el punto de vista perceptual directo.
En este rango se encuentran otros aspectos de interés del trabajo profesional con imágenes.
Una rotación de la estructura en el plano imagen redundará en una rotación del espectro
energético.
Fig. 6.1.4: Espectros energéticos de (A) una zona urbana y (B) un canal de un puerto pequeño. Son evidentes las
diferencias entre ambas estructuras.
Una zona urbana, con sus calles responde a una estructura con suficiente información en dos
direcciones, pero un sistema de canales posee información fundamentalmente en una dirección.
Los patrones de Fourier respectivos serán los siguientes:
Fig. 6.1.5: Espectros energéticos de dos zonas boscosas correspondientes a: (A) pinos, (B) caoba africana.
En el caso de estructuras parecidas, por ejemplo, dos regiones boscosas de caoba africana y de
pinos, proporcionan, sobretodo por el canal infrarrojo información diferente.
Fig. 6.1.6: Foto y espectro de un sembrado de caoba africana con alta direccionalidad.
Un comentario final:
6.2.- El láser.
6.2.1.- Introducción
El láser es un producto del siglo XX. ¿Efecto, proceso, equipo? A todos se le denomina LASER:
acrónimo de la frase en inglés: Light Amplification by Stimulated Emission of Radiation . Esta
nueva fuente luminosa revolucionaría la Óptica y sus aplicaciones.
Los antecedentes del primer equipo láser se pueden asociar a los siguientes hechos significativos:
Aunque se desarrolló tecnológicamente en la década del 60 del siglo XX, desde el punto de vista
teórico ya estaba argumentado por Einstein desde inicios de ese siglo. Pero en esa época no
existían las condiciones técnicas para construirlo.
Ya a mediados del siglo XX, con el requerido desarrollo tecnológico: se logra construir, por
Maiman, el primer equipo láser en 1960: un láser de Rubí. Le confieren a Maiman un Certificado
de Invención al año siguiente, 1961.
Se considera que el Láser es una de los grandes éxitos tecnológicos del siglo XX, otorgándosele
en 1964 el Premio Nóbel a Basov,Projorov y Townes.
Todo equipo láser esta formado por tres bloques componentes para su operación.
Medio activo: material cuya estructura de niveles de energía permite ser selectivamente poblado
de forma conveniente para generar radiación estimulada y a la vez sea capaz de amplificar la luz
que pasa a través de él.
Fuente de bombeo: Sistema que realiza el proceso de bombeo y que tiene la función de producir
y mantener la inversión de población entre parejas de niveles energéticos.
Cavidad resonante: Cavidad electromagnética que contiene al medio activo y que sirve para
almacenar la radiación que mantenga la coherencia del campo electromagnético
Estas tres partes componentes se conforman de diferente manera con diseños muy propios,
existiendo una gran variedad de variantes. Por ejemplo:
Si el medio activo:
• es sólido, éste constituye en forma de barra con sección transversal circular o rectangular y
en sus extremos se colocan un par de espejos con alta calidad;
• si es un gas, este está contenido en un tubo de descarga con sección transversal circular o
rectangular y en sus extremos se colocan un par de espejos con alta calidad;
• si es un gas, este está contenido en un tubo de descarga con ventanas en sus dos extremos
planos y paralelos entre sí.
La fuente de bombeo varía de acuerdo al tipo de láser; en el caso de los sólidos es usualmente
una lámpara de xenón o de arco, mientras que el semiconductor el mecanismo de bombeo se logra
energizando eléctricamente.
La cavidad está provista de dos espejos
diseñados y alineados cuidadosamente.
Éstos espejos poseen; uno de ellos un alta
reflectividad y el otro algo menor en
dependencia de la potencia de salida del
láser.
Cada átomo, de acuerdo a la teoría cuántica, puede poseer energías solamente en ciertos estados
discretos o niveles de energía. Normalmente los átomos de cualquier material están en su estado
de menor energía o estado básico. Y también normalmente el número de electrones en estados
excitados es mucho menor que la cantidad de electrones en es estado básico.
Un átomo en el estado básico puede saltar a niveles superiores, es decir, a estados excitados de
energía a partir de un estímulo externo. Por ejemplo, una fuente potente (lámpara "flash") que
ilumine dicho material.
Fig. 6.2.5.1: Comparativa de transiciones fotones son liberados desde el mismo estado excitado con la
entre dos estados energéticos. misma fase y frecuencia que el fotón inductor. A este proceso
se le denomina emisión estimulada.
Pero no bastaba con entender todo esto para lograr en la práctica esta emisión estimulada.
Hay que identificar primero en qué sistema atómico, o molecular, o de estado sólido,
pudieran darse las condiciones, desde el punto de vista físico (en este caso mecano-
cuántico) para este tipo de emisión tan especial, porque en todos los sistemas atómico la
tendencia de emisión sería la de tipo natural: la espontánea. Hace falta un conocimiento
más profundo de todo este problema estructural de la sustancia, y de los requerimientos a
cumplir para lograr los presupuestos tan diferentes de la emisión estimulada.
Vale aclarar que, desde 1917 ya Einstein había proyectado teóricamente la posibilidad de
lograr este tipo especial de transición, pero que no fue hasta 1960 en que se logró en la
práctica una fuente capaz de emitir de manera estable este tipo de radiación. No existía, en
1917, ni las condiciones técnica ni las condiciones teóricas para construir un equipo como
éste. Se necesitaría el desarrollo de la Mecánica Cuántica, la Técnica de Vacío, la Física de
las Capas Delgadas, el Cultivo artificial de cristales y la Física de los Semiconductores.
Por ello se explica que no fue hasta 1960 en que el hombre construyera la primera fuente
de luz láser.
Cuándo ciertas condiciones favorables son creadas para la emisión estimulada, cada vez más y
más átomos del material son forzados a producir estos fotones por lo que se inicia un proceso de
avalancha liberándose una considerable cantidad de energía. Estos resultados conllevan a una
rápida emisión energía radiante que se desplaza coherentemente en una dirección fija y precisa.
Este proceso es denominado amplificación por emisión estimulada.
En un sistema láser ordinario, la barra láser se mantiene entre los espejos reflectantes con una
lámpara (flash de xenón) suministrando energía para el bombillo; la energía guardada es disparada
en cortos pulsos de cortos intervalos de milisegundos.
Para incrementar la potencia láser se emplea una técnica conocida como "Q-switching" por
interposición de un "shutter" entre el extremo de la barra y el espejo parcialmente reflector. El
"shutter" permite que se dispara la radiación láser para un tiempo predeterminado. Después de que
cierta energía suficiente se almacena en el nivel de energía, el "shutter" se abrirá en intervalos
muy cortos del orden de los nanosegundos (10-9s) o incluso menos y toda la energía almacena en
forma de un pulso gigante, será emitida.
En esta forma es posible obtener salidas del equipo láser con picos de potencia del orden de giga
watts (GW) con pulsos de duración de nanosegundos (ns).
• alta coherencia,
• alta monocromaticidad,
• pequeña divergencia, y ,
• alta potencia.
siendo:
El efecto láser (o umbral láser) comienza cuando la energía adquirida por el flujo luminoso en el
medio activo por ciclo excede las pérdidas de energía incluyendo la energía de la radiación láser
que parte del sistema. En este umbral la densidad de flujo en el sistema no es tan como el cambio
de densidad de población de los niveles, por lo tanto podemos asumir que siendo el
factor de ganancia en ausencia de flujo luminoso.
Como el láser es un resonador óptico, se utiliza la terminología de esta especialidad para ello. Las
pérdidas de energía por período de oscilación se caracteriza por la relación entre la energía
almacenada en el sistema y las pérdidas por ciclo.
Se puede demostrar, para el caso de un resonador láser:
Entonces la condición:
Esto quiere decir que la condición necesaria para el funcionamiento es que la amplificación sobre
una media longitud de onda sea igual o mayor que el recíproco del factor Q. A menor Q, mayor
umbral para el efecto láser. Se alcanza primero esta condición para que los rayos paraxiales, esto
es, los más cercanos al eje. Es precisamente por esta razón, por supuesto además de la disposición
de los espejos que limitan la cavidad resonante, que se logra un haz luminoso con tal alta
direccionalidad.
Cuando una onda electromagnética interactúa con un sistema de cargas como un átomo, o un
núcleo, los campos magnéticos y eléctricos de la onda perturban el movimiento de este sistema.
No fue hasta el surgimiento de la Física Cuántica que tuvo una explicación satisfactoria este
problema y con él el del hecho del espectro discreto de los átomos y la existencia de estados
estacionarios, entre los cuales pueden explicarse los procesos de absorción y emisión de
radiación.
Un sistema en estado excitado puede retornar a un estado de
menor energía espontáneamente o puede llegar a el de
forma inducida o estimulada "saltando" al estado inferior
con la emisión de radiación.
Sean:
En los casos de las transiciones inducidas, el número de ellas será proporcional a la densidad de
energía pues dependerá de la presencia de la radiación de frecuencia .
Por tanto, conocidas estas probabilidades, pueden resumirse las expresiones del número de átomos
involucrados en estos procesos, simplemente multiplicando la expresión de la probabilidad por la
cantidad de átomo en el estado inicial de la transición correspondiente.
Para E1 al igual:
O sea:
En el caso general en el cual la radiación interactúa con la sustancia sin necesariamente ocurrir el
equilibrio, la relación entre rapidez de emisión y la rapidez de absorción será:
la de absorción. En otras palabras, pasa a través del sistema y la radiación emergente posee
más fotones de frecuencia que la incidente, resultado una amplificación de la radiación a dicha
No es posible mantener toda esta situación explicada con un sistema de dos niveles siendo
necesario, al menos, la existencia de un tercer nivel de energía tal y como se muestra a
continuación:
Así como el sistema retorna al estado básico, algunos átomos excitados alcanzan el estado meta
estable y éste puede fácilmente lograr una acumulación de población alta debido a que el tiempo
de vida en dicho estado es muy superior que en otros niveles.
pues
Utilizando la notación:
El producto de la velocidad de la luz en el medio, para la frecuencia y el de la densidad de
energía no es más que la densidad de flujo de energía.
entonces:
6.3.- Holografía
Los temas de Óptica resultaban ya clásicos a inicios del siglo pasado, cuando ocurren dos
acontecimientos importantes para el posterior desarrollo de este campo del saber.
Un Premio Nóbel otorgado en al año 1971 reconoció el trabajo de Dennis Gabor, físico húngaro, y
quien desde 1948 había logrado un resultado derivado de sus investigaciones en Microscopía
Electrónica.
¿Qué tiene que ver la Microscopía Electrónica con la Óptica? En principio...nada...pues la imagen
en el microscopio electrónico no está formada por luz ...
Pasaron los años, década del 60, y el trabajo realizado por Dennis
Dennis Gabor (1900-1979)
Gabor fue repetido pero esta vez con la novedosa fuente de luz
una señal de gran interés, una señal que no puede ser tratada como la señal temporal, lo cual
tradicionalmente constituye tarea de la Radiotécnica y las Telecomunicaciones. En estas últimas
se puede introducir una información temporal, modulando, por ejemplo en el tiempo, la señal
electromagnética tanto en amplitud, frecuencia, fase, etc.
Las señales ópticas, por su carácter y utilidad a través de sensores de imágenes, constituyen otro
tipo de problema.
La información que recibe nuestro aparato visual - imágenes - resulta una información producto
de la modulación en intensidad de señales incoherentes. Toda la información en la fase espacial de
las señales se pierde.
Sin embargo resulta ventajoso también en Óptica determinado procedimiento que permita registrar
la amplitud y la fase de las señales ópticas. En esto precisamente consiste la Holografía, un
procedimiento indirecto en dos etapas que permite el registro de la información contenida en la
amplitud y fase de señales coherentes ópticas, radiotécnicas e incluso acústicas.
Supóngase una transparencia fotográfica que contiene una cierta información susceptible de
representarse matemáticamente por una cierta función de transmitancia .
Si dicha transparencia se ilumina mediante una señal coherente proveniente de un láser, al pasar
por la transparencia, la señal se modula especialmente recogiendo la información que tanto de
amplitud como fase existe en la transparencia.
Dado que la transparencia es equivalente a una cierta abertura, la señal modulada se difracta de
determinada manera y en el plano de registro del holograma existirá una cierta distribución de
amplitudes complejas que se denomina señal objeto ya que atraviesa éste.
Simultáneamente con esta señal, al plano de registro del holograma llega otra señal, en este caso
esférica, proveniente de una derivación que del mismo láser se ha realizado mediante espejos. Esta
señal se denomina señal de referencia y producto de que es coherente con la señal objeto
interferirá con ésta.
Fig. 6.3.1: Esquema ilustrativo del proceso de construcción de un holograma.
Mesa holográfica
En el caso que se analiza - en el cual suponemos que la distancia al plano de registro es grande,
la distribución de intensidades en el plano de registro podemos representarla como:
Y la transmitancia será una función de:
En dependencia de la estructura del campo difractado de la señal objeto en el plano de registro del
holograma, así será el tipo de holograma construido.
Ahora bien, ¿cómo se recupera la información del objeto, esto es, cómo se reconstruye la imagen
del objeto?
La estructura interferencial del holograma en la cual está grabada la información del objeto actúa
como una red de difracción. Si se ilumina el holograma con una señal electromagnética análoga a
la de referencia, tendremos que la onda luminosa de reconstrucción a la salida de la transparencia
del holograma constará de cuatro términos, ya que de cuatro términos consta la función de la
transmitancia que actuará de moduladora.
• Habrá un término proporcional a si la referencia era una señal puntual, esto es,
una onda esférica que partía de un punto señal puntual, esto es, una onda esférica que
partía de un punto, entonces en la reconstrucción dará origen a un punto.
• Los términos y contienen información del objeto. Como el holograma se
comporta análogamente a una red de difracción, estos términos darán origen a dos
imágenes del objeto, conjugadas una de otra y con la misma información.
Al particularizar los detalles del proceso de registro y por ende, las características de la imagen
reconstruida, se pueden diferenciar diferentes tipos de hologramas.
Al igual que las señales temporales de la Radiotecnia, las señales de la Óptica, que son espaciales,
se relacionan con su espectro. El espectro de las señales radiotécnicas, temporales, son las
frecuencias. Por tanto, para las señales ópticas, que son espaciales y bidimensionales, le
corresponderán las llamadas frecuencias espaciales.
Las frecuencias espaciales no son más que la cantidad de líneas por milímetro producto de la
interferencia en las direcciones en el plano de registro del holograma.
El Holograma de Fourier, uno de los más simples de construir, es aquel que cumple:
El holograma, como cualquier otra imagen, puede transmitirse por canales de comunicación como
la televisión, el facsímil, lo cual permite la transmisión de señales codificadas y altamente
resistente a los ruidos.
Para realizar estos procedimientos se construyen los llamados filtros holográficos. Éstos pueden
ser construidos en el laboratorio o ser generados en computadoras mediante la holografía digital .
Un tipo de holograma son los hologramas de volumen. Éstos, además de ser interesantes por el
tipo de objeto que puede procesar, poseen aplicaciones de interés artístico, museológico.
Uno de los temas más fascinantes y útiles relacionados con la luz y sus aplicaciones ha sido, y
sigue siendo en la actualidad, aquel relacionado con los procesos de interacción de la misma con
los seres vivos, que en el caso del hombre, condicionan un conjunto de aplicaciones tanto con
fines de diagnóstico como terapéutico.
Las terapias luminosas o terapias ópticas poseen orígenes muy antiguos, tanto en el mundo
occidental donde el uso de la luz del sol en la antigua Grecia dio origen a la denominada
Helioterapia, como en el oriental en el que la luz y sus colores fueron asociados, desde tiempos
mucho más remotos, a los chakras dentro de la antigua Medicina Ayurvédica en la India, o a las
causas exógenas de las enfermedades y a los tipos de energía en el caso de la Medicina China
como lo ilustra la Cromoterapia.
La luz, en el ámbito médico occidental, es identificada como un medio físico terapéutico, o sea, un
procedimiento técnico - especializado que propicia, en su interacción con el organismo humano,
un conjunto de efectos positivos de carácter clínico.
Si bien la conocida Fototerapia se desarrolló en Europa a fines del siglo XIX y principios del siglo
XX, ésta quedó olvidada y silenciada durante décadas, no fue hasta mediados del siglo XX que
recobró la atención de la comunidad médica cuando un impactante acontecimiento tecnológico le
imprimió novedad científica a la Fototerapia: el LASER.
En los últimos años, ante el nuevo paradigma de la Medicina, cobran interés antiguos procederes
médicos. Se habla mucho hoy en día de la Cromoterapia o Colorterapia, se difunde la
Visualización de Colores, y con el desarrollo tecnológico se siguen produciendo fuentes luminosas
de variadas características que son utilizadas en equipamiento electromédico con fines
terapéuticos tanto para el diagnóstico como para la terapia.
Los efectos de la luz sobre los seres vivos y su utilidad en el mejoramiento de la calidad de vida
del hombre así como el interés que se confiere al conocimiento interdisciplinario sobre estos
efectos permiten avizorar nuevos resultados en este apenas iniciado Tercer Milenio.
Esta epígrafe pretende integrar, según la experiencia de los autores, el state- of- the- art de las
terapias que utilizan la luz como estímulo energético y/o informacional. Se abordan los
antecedentes históricos, las tendencias actuales y las perspectivas de las terapias ópticas o
luminosas tanto en el orden biomédico como tecnológico.
La luz puede aplicarse sobre la lesión o región anatómica afectada, directamente sobre la piel,
puede ser apreciada por el sistema visual, puede ser recibida a través de la iluminación indirecta
en el local, y puede ser visualizada también.
Las propiedades de la luz emitida por las diversas fuentes utilizadas también varían en un amplio
diapasón de cualidades.
Aún cuando el término Fototerapia designa todo proceder que utiliza la luz como estímulo, existe
una variedad muy amplia de posibilidades de empleo.
Mundo Oriental. En el Oriente, las antiguas civilizaciones utilizaban el ente luz, no solamente
con fines curativos, sino que además constituía ésta un elemento indispensable en sus filosofías.
De ahí la riqueza de su concepción.
En la Medicina Tradicional China la luz y sus colores no solamente se utilizan con fines
terapéuticos sino que también se asocian a las bases del pensamiento filosófico que la soporta. A
través de los trigramas, los colores se corresponden a los órganos y también a los tipos de energía.
Es también el Feng Shui un arte en el que el color adquiere una dimensión relevante.
La Medicina Ayurvédica de la India sostiene que los centros de energía o chakras son asociados a
siete diferentes colores y vibraciones. Estos colores también son asociados a través de la
meditación.
Los colores no influyen de forma igual sobre todos los sujetos. Existen efectos físicos,
psicológicos y fisiológicos diferenciados.
Mundo Occidental. En Occidente las primeras evidencias se remontan a la Antigua Grecia,
donde los baños de sol eran indicados a algunos pacientes. Este tipo de tratamiento
se conoce como Helioterapia. En el caso de ser combinado con la aplicación de los
baños de mar, se denomina Talasoterapia. Estos tratamientos son naturales.
Pero no fue hasta la segunda mitad del siglo XIX que en Occidente se comenzaron a realizar
investigaciones sistemáticas sobre la acción biológica y terapéutica de la luz sobre el organismo:
Fue Alemania el escenario científico en el que se obtuvieron importantes resultados.
• Pluger y Braun, en 1881, publican trabajos acerca de las diferencias entre la respuesta
dada por animales dotados de la visión y aquellos ciegos siendo los resultados más
evidentes en el caso de los primeros. También se dan a conocer resultados acerca del
mantenimiento de la actividad fisiológica de la luz aún cuando ésta se aplique directamente
al tejido muscular aislados y no sobre los órganos de la visión.
Los primeros trabajos utilizando franjas de la parte visible del espectro electromagnético
evidenciaron diferentes grados de desprendimiento de CO2 para diversas longitudes de onda:
A fines de siglo XIX se reconocía que en relación al metabolismo de las proteínas en animales, la
luz roja deprimió el proceso de oxidación en los tejidos y la azul los activó de forma significativa.
Hasta el momento no existe una opinión precisa sobre la efectividad relativa de la irradiación
monocromática de diversas longitudes de onda. Como se ve los resultados que se reportan son un
tanto contradictorios
Sobre los organismos vivos se pueden resumir algunos resultados que contrastan:
• la luz de diversa composición espectral sobre la superficie del cuerpo de ratas actúa de forma diferente:
la azul y la roja aumentan el desprendimiento de CO2 y la verde no influye.
• sobre células animales, según la actividad estimulante se ordenan: azul-verde-roja,
• la actividad biosintética de las células es estimulada por luz azul; la roja, infrarroja, verde y blanca
resultaron no efectivas.
Durante este período también se acumularon otra serie de resultados muy importantes:
Desde el punto de vista terapéutico ya desde finales del siglo pasado se habían establecido algunos métodos de
tratamiento. Estos métodos estuvieron muy ligados a la aparición de nuevas fuentes artificiales de luz como la
lámpara de arco eléctrico, creada en 1808, y la lámpara incandescente desarrollada por Edison en 1879. Estas
lámparas fueron, posterior al Sol, las primeras a ser utilizadas en la Fototerapia.
En el siglo XX fueron desarrollándose otras fuentes luminosas como las lámparas gaseosas de descarga. De
este tipo es la lámpara utilizada por Finzer que trató con éxito la viruela con luz roja demostrando una
inhibición de la supuración y con luz ultravioleta y azul obtuvo una efectiva influencia sobre el lupus.
En la luz ultravioleta se identificó una evidente acción estimulante que aumenta la producción y efectividad de
los factores humorales y celulares de la inmunidad y un aumento de la resistencia al resfriado. Se le confirió
gran importancia a las dosis, la longitud de onda y el régimen de acción de estas lámparas. Fue muy lento sin
embargo el desarrollo de esta dirección de la Fototerapia.
A principios de siglo se reportaron métodos de tratamiento con luz roja para la viruela, sarampión, erisipela,
escarlatina y algunas dermatosis. Las lámparas utilizadas fueron las propias incandescentes con filtros de luz y
también se introdujo la utilización de la lámpara de neón.
6.4.3.- utilizada
Con la lámpara de Minin, Indicaciones, equipamiento
desde 1891, y dosimetría
y que emite luz azul, se refieren los buenos resultados de
• Dermatología • Otorrinolaringología
• Ginecología • Rehabilitación
• Medicina Estética y Cirugía Plástica • Reumatología
• Neurología • Sistema Vascular Periférico
• Odontología • Urología
pulsátil la frecuencia de pulsos puede ser fija o vaiable, entre 2 Hz y 300 Hz; las potencias de
salida oscilan entre 1mW a 100 mW, aunque para el pulsátil puede alcanzar valores de potencia
pico de hasta decenas de Watt...
En cuanto al equipamiento, las ofertas comerciales sobrepasan con creces el número de trabajos
científicos que las fundamenten.
Sin un fundamento científico de todas estas posibilidades, es de suponer que todo este alarde
tecnológico está divorciado de las necesidades reales de la Medicina lo cual conduce al
encarecimiento del equipamiento y condiciona su aplicación a los recursos financieros de la
entidad o el país que pretenda incluir esta tecnología en su programa de salud.
Tiempo de
Longitud de Onda Potencia Media Frecuencia de
Marca País exposición (s*,min)
(nm) (mW) Pulsos (Hz)
780 5 0 -
OMNIPROBE USA
810 20 0 -
ENDOLASER 780 0,1-30 0/300 1*-100
HOL
476 830 0,1-100 0/300 1*-100
780 0-2 0
ENDOLASER 1-2-5-10-20-40-80-
HOL 750 Y 160-292-584-1168- -
465 2336-73-146
830 0-10
10/20/40 (x10/
904 5/10 1-99
PROMETHEUS BUL x100)
632,8 9 0 10/20/30/40/50
LASERMED 101
CUBA 632,8 0-2 0 0-10
LASERMED 401
CUBA 904 0,06-7 Nogier 0-2
Tabla II : Características técnicas de algunos equipos láser de baja potencia con fines terapéuticos.
Dosimetría.
Clasificación de los láseres en dependencia del régimen de trabajo
Régimen continuo :
- potencia constante
- potencia media
Régimen pulsátil:
- potencia pico
- - potencia media
- frecuencia de pulsos
- duración de un pulso
• Densidad de potencia
• Densidad de energía
• Tiempo de exposición
• Total de puntos a irradiar
• Número de sesiones de tratamiento
Resumir de forma apretada la argumentación de los efectos de la luz sobre los seres vivos es una
tarea ambiciosa.
En el caso de los seres humanos, los efectos son mucho más complicados que en el caso de la
materia inorgánica. Ha prevalecido el enfoque químico o bioquímico de la interacción que
encuentra su máxima expresión en la denominada Teoría Fotoquímica.
Los fenómenos que ocurren posterior a la irradiación del ser humano con luz son diversos y aún
no se encentran completamente estudiados. Estas acciones tienen lugar no solo a nivel del sistema
visual sino a través de la piel y de todo el sistema como un todo.
Desde el punto de vista óptico, al incidir un haz de luz en la superficie de separación entre dos
medios, ocurren dos fenómenos: el de la reflexión y el de la refracción. La energía luminosa
asociada a cada uno se reparte entre ambos haces.
El haz reflejado se mantiene dentro del medio del cual provino el haz, y el refractado se
desarrollará en el seno del medio al cual incidió la luz estando sujeto a dos fenómenos
denominados difusión y absorción. Estos procesos de difusión y absorción determinan que existan
límites en el poder de penetración del haz transmitido en el medio. La fracción del has transmitido
dependerá de características propias del medio en cuestión.
Leyes de la Reflexión y la Refracción: Para el caso de medios inorgánicos, son conocidas las
Leyes de la Reflexión y de la Refracción que dan información acerca del cambio ocurrido en la
trayectoria rectilínea de la luz para el caso del haz reflejado y el haz refractado:
• A mayor , mayor .
Ley de Lambert- Beer: Esta Ley establece la relación entre la intensidad de luz transmitida
después de los proceso de absorción y dispersión o difusión de la luz dentro del medio.
6.4.4.2.- Mecanismos que permiten lograr la acción selectiva y localizada de la luz sobre los
tejidos.
En dependencia de la absorción por los tejidos con la frecuencia de la luz: Se puede actuar
selectivamente sobre un tejido si éste absorbe más fuertemente, en comparación con los tejidos
que le rodean, la radiación de cierta longitud de onda.
• Al ser irradiado el tejido, parte de la energía se emplea en los procesos locales y otra parte
se difunde en forma de calor hacia los tejidos colindantes.
• La cantidad de energía calorífica transferida depende de la conductividad térmica del
tejido y del tiempo que dure la exposición.
• Cuanto más pequeña la duración del pulso, para una misma cantidad de energía
depositada, menor será la fracción de energía que se difundirá a los tejidos aledaños. Esto
implica que la acción del láser será más localizada.
Capacidad de hacer converger y diverger los haces luminosos:
Variando el área de irradiación sobre un tejido se puede lograr converger la luz en los más
profundos (iluminación y exposición bajas) sin perturbar los más superficiales (iluminación y
exposición altas).
Agua: Principal constituyente de los tejidos biológicos(70% al 90%) que influye en sus
propiedades ópticas y termofísicas. Absorbe mejor en la zona infra-roja del espectro para
. Las radiaciones de los láseres de Erbio en YAG (2,94 ) y CO2 (10,6 ) son
mucho mejor absorbidas por el agua que la proveniente de los de Neodimio en YAG (1,06 ).
Argón (0,488 y 0,515 ), Fluoruro de Argón (o,193 ) y otros...
Melanina: Cromóforo que absorbe fuertemente la radiación azul y violeta, absorbiendo poco en la
zona del rojo y del infrarrojo.
Fotoquimioterapia
Fotobioestimulación
• Irradiación que permite el mejoramiento de los parámetros fisiológicos (ejemplo:
Laserterapia)
Fig. 6.4.2: Resultados de un tratamiento luminoso en puntos de acupuntura en la Hipertensión Arterial Esencial. La
curva ilustra la tendencia en la disminución de parámetros estadísticos como la varianza de la variabilidad de la tensión
arterial media durante el tratamiento.
• Electromecánico
• Fotoablativo
• Térmico
• Vaporizante
• Coagulante
• Citotóxico
• No térmico
Los tres primeros efectos son de naturaleza térmica, siendo estas las más conocidas para las cuales
existen modelos muy bien fundamentados.
Los no térmicos no son muy conocidos y son los de interés cuando se trata del LÁSER de baja
potencia.
• Efectos físicos
• Mecánicos
• Térmicos
• Electromagnéticos
• Cuánticos
En el LÁSER de baja potencia no tienen interés los dos primeros pues se ha comprobado que no
existe un aumento de temperatura resultante cuando se utilizan radiaciones de baja potencia.
Para explicar a interacción LÁSER de baja potencia con el tejido tuvo éxito durante un tiempo la
Teoría Fotoquímica.
Teoría Fotoquímica.
Esta teoría tiene sus antecedentes en trabajos publicados en las décadas del 20 y 30 que pusieron
de manifiesto:
• los distintos componentes del espectro luminoso por separado actúan de un modo
totalmente distinto al de la luz blanca, la luz blanca recibida diariamente puede actuar
fuertemente sobre células que hayan sido cultivadas en la oscuridad
• que distintas bandas del espectro pueden ser antagonistas
• que la luz blanca ejerce sobre las células no cultivadas en la oscuridad, la misma influencia
que en ausencia de ella.
• Konev- Vototousky, 1976 proponen un esquema del efecto fotobiológico del organismo.
• Karu - 1985 observó algunas irregularidades y propuso un esquema general de la
influencia de la luz sobre la célula.
• que la foto-respuesta se hace evidente con pequeñas dosis y en breve tiempo.
• la radiación breve desencadena un efecto estable de estimulación del crecimiento durante
algunas generaciones de células (existencia de "memoria larga").
• en los distintos espectros de acción se observa un punto más elevado en la zona roja con
un máximo para = 620 nm.
• los mecanismos de acción y los fotoreceptores primarios no necesariamente han de ser
idénticos para todos los casos.
• hasta ahora se manifiesta gran complejidad para establecer el fotoreceptor primario.
• Hasta el momento se destaca -según Karu- la importancia del AMPc cíclico intracelular
cuya concentración cambia variando el estado redox de la membrana y con ello los niveles
de concentración de los ácidos nucleicos y los sistemas de transporte a través de dicha
membrana, estimulándose la síntesis del DNA. Otros autores encontraron el efecto
inhibidor pero también la relación del AMPc cíclico y los cationes de Ca+.
Por lo tanto se demostró el papel regulador del AMPc cíclico por cuanto si en una primera fase la
función del AMPc es la de extraer Ca+, en la segunda penetran más inducidos por otros factores,
se disminuye la acción inhibidora y se acelera el ciclo celular.
La aparición del LÁSER en la década del 60 hizo que se atribuyera su influencia tan destacada
sobre el organismo a propiedades como la coherencia... sin embargo estudios posteriores de
Fotobiología celular arrojaron que, en primer lugar, la monocromaticidad es la primera
responsable de sus efectos y en segundo lugar la densidad de potencia.
Desde el punto de vista físico sigue sin resolver el problema de la interacción de la luz con los
organismos vivos.
En los últimos años, con el desarrollo del electrodiagnóstico, se le ha reconocido importancia a los
aspectos bioenergéticos del organismo.
En este sentido es imprescindible consultar la abra del Dr. Jorge Juan Carvajal Posada, eminente
médico colombiano que ha estructurado la denominada Sintergética, modelo terapéutico
integrativo en gestación
1. Estímulo a la microcirculación
• estímulo a la vasodilatación
• mayor aporte de nutrientes
• mayor oxigenación
• acción sobre la histamina
• se favorece el efecto anti-inflamatorio
2. Estímulo a la actividad neural
3. Aumento de los potenciales de acción nerviosa
4. Efectos sobre el trofismo local
• regeneración del tejido de granulación
• regeneración de fibras nerviosas
• regeneración del tejido óseo
• activación del bulbo piloso
• neoformación de vasos
5. Incremento en la síntesis del atp, rna y dna
• incremento del índice mitótico
• formación de proteínas
• estímulo a la microcirculación
Beneficios del empleo del láser de baja potencia como recurso terapéutico.
Fig. 6.4.4: Secuencia de ultrasonogramas que ilustran las potencialidades de la laserterapia en lesiones musculares.
La foto de la izquierda muestra un desgarro músculo-tendinoso y en la derecha el estudio evolutivo a solo cinco días
de la lesión.
• mejora los procesos inflamatorios pues produce un efecto celular directo, favorece la
reabsorción del edema intersticial y es selectivo, local,
• mejora la cicatrización de heridas, reabsorción de hematomas y re-estructuración de la
fibrosis,
• inhibe la transmisión del estímulo doloroso interfiriendo el mensaje eléctrico a nivel local,
• reduce en un 50% el tiempo de convalescencia en lesiones que, sobretodo conllevan a
degradación tisular,
• potencializa la acción de diversos medicamentos,
• sustituye medicamentos, sobretodo analgésicos, anti-inflamatorios e incluso esteroides.
Contraindicaciones:
Precauciones
• los láseres que emiten en las zonas visible e infrarrojo cercano constituyen un riesgo
especial para el ojo.
• entre 400 nm a 1400 nm el mayor riesgo es sobre la retina.
• la córnea, el humor acuoso, el cristalino y el humor vítreo son transparentes para este
intervalo de longitudes de onda, y tienden a producir una concentración sobre la radiación
sin atenuarla significativamente.
• los pigmentos de los bastoncillos y conos solamente absorberán el 5% de la radiación
incidente.
• la mayor parte de la luz es absorbida por la melanina contenida en el epitelio pigmentado.
• el pigmento macular absorbe fuertemente entre 400 nm y 500 nm , produciendo un
calentamiento local y la quemadura del epitelio pigmentado, bastones y bastoncillos
adyacentes.
• para <400 nm y >1400 nm el mayor riesgo consiste en un daño del cristalino o la
córnea.
• la piel soporta un mayor grado de exposición a la energía del haz láser que el ojo.
• el efecto biológico de irradiar la piel con láseres que funcionan en la región espectral de
400 nm a 700 nm, con potencias altas, puede variar desde un eritema benigno a una
ampolla severa.
• para densidades de potencia en tejidos de alta absorción altas prevalece la carbonización.
LEA: se definen a partir de los valores más pequeños de EMP en cada clase
Medidas de seguridad:
Normas de seguridad
Para el operador
Para el paciente
• tierra física
• climatización
• no deben existir espejos ni superficies metálicas pulidas que reflejen los haces luminosos
Lejos de nuestro ánimo la intención de empequeñecer la propia grandeza de las cosas levantando
un canto más de infinita vulgaridad, de forma rastrera y cansina, a lo que por si solo es expresión
máximo, perspicuidad nunca igualada, arquetipo de claridad. Lejos también, la pretensión de dejar
impresa, ni en corta ni larga palabra, la relación definitiva, acabada, conclusa, de lo que cualquier
agente natural puede ser; quede este dogmatismo para quien piense que ya comprendió y sabe,
porque se le ha quedado escondido en otras dimensiones, lo que en recorridos superficiales de que
sólo es capaz, no pudo avizorar.
Ciencia, que para el profano es vértice firme e inamovible, atalaya de ilimitados horizontes de que
todo se otea según la sabiduría que pregona la grita del sabio de salón, es, en oposición y contraste
a todo esto, temeroso y callado tanteo, cambio constante, voltario movimiento que quiere ser de
trayectoria que vence todas las gravedades, para fijarse por cima de todos los niveles en una
cúspide seguramento inaccesible. Ciencia: nombre de que se usa y abusa por cualquier aventurero
trashumante para nominar su actividad, nombre de múltiple connotación, que en su acepción
elevada y radical no encierra ni bien ni mal, sino un esquema de constante cambio en su ideal de
constituir una representación de cómo las cosas Podrían ser; estructura cambiante de esencial
volubilidad que desprecia unas veces para rehabilitar después.
Y de las ciencias, ésta que vive de contactos materiales, de íntima y entera saturación de
materialidad, que palpa el Universo con los tentáculos de la mente y deja correr por el caz de los
fenómenos la inervación de la matemática qué enlaza y concreta, y guarda del enlace la forma
estricta, concentrada y fecunda en predicciones. Esta, que es expresión de la naturaleza, inanimada
tal vez, pero con vida, sostén de toda posible filosofía que es como la animación fecunda de esta
vida fatal y desesperadamente matemática; ésta que ansía penetrar la esencia de los agentes
naturales, para convertirlos en elementos de una función general de cuya discusión lógica resulte
una discriminación en que cada elemento diferenciado sea una realidad objetiva, o, al menos, un
esquema tangente a esta realidad.
Tal la física, uno de cuyos tópicos más interesantes trataré de esbozar en esta exposición,
esforzándome, no tanto en distraer vuestro espíritu, como en fijar algunas ideas que con su fama
de complejidad disuelven en la timidez muchas apetencias.
Teoría de la emisión.---
Las primeras ideas sobre la naturaleza de la luz son de una vaguedad que cuadra muy bien con el
temperamento de los filósofos de la época en que se iniciaron, y baste decir, para solidificar este
aserto, que muchos de ellos, entre los cuales pueden citarse algunos de la edad moderna,
afirmaban que la luz era una creación del órgano de la visión; sostenían, en efecto, que el ojo
emitía los rayos luminosos, actuando como una especie de linterna, como un proyector, y que
estos rayos, a manera de filamentos tentaculares, recorrían los objetos llevando al cerebro la
impresión correspondiente.
Contra esto hace notar Aristóteles, en .réspice contundente, que de ser cierta semejante propiedad
del órgano de la visión, éste regularía la claridad y las tinieblas haciendo posible la visión en la
obscuridad. Sin embargo, pese a tan poderosa razón, muchos pensadores persistieron en la idea
primitiva más o menos modificada a un extremo tal que el mismo Descartes considera a veces
como indudable esta rara e insostenible teoría de los rayos vivientes.
Protágoras parece haber sido el primero en esbozar una teoría análoga a la de la emisión,
explicando la visión como el resultado del golpeteo producido por una afluencia de partículas mal
definidas, pero probablemente materiales, provenientes de los cuerpos cuyas imágenes vemos.
Esta hipótesis se reproduce en Gassendi para quien los cuerpos visibles emiten, ya átomos de una
sustancia particular, ya átomos de su propia materia, que son capaces de atravesar los medios del
ojo para producir por su choque en la retina la sensación visual. El ilustre rival de Descartes es
atomista en todas sus explicaciones y para él los átomos constituyen la base fundamental del
posible esclarecimiento de todo acontecimiento en el dominio de la realidad. Descartes, a su vez,
da las bases de una teoría de la luz, considerándola como una perturbación en un medio material
comprendido entre el foco y el observador. En ella explica los colores por los movimientos
particulares de los elementos que forman el medio, pero vuelve a veces a las hipótesis pretéritas
sin que se precise en él un criterio definido.
Todas las tentativas anteriores a Newton están formadas por hipótesis apropiadas a la explicación
defectuosa de algunos fenómenos aislados; implican consecuencias absurdas de evidencia
inmediata, y carecen todas. de la unidad y facilidad de adaptación a casos enteramente diversos
que debe ser la característica de una hipótesis bien escogida. Con esta mentalidad; quizás la
cúspide de las que han dejado sus frutos en la ciencia, cuyo nombre no puede ser pronunciado sin
emoción, aparece una hipótesis que si bien puede considerarse como una variante de las de
Protágoras y Gassendi, merece, por el extraordinario auge con que se mantuvo por un período
superior a un siglo, que le dediquemos algunas palabras.
La emisión.---
Veamos cómo se, exponen rápidamente los fundamentos de, la teoría de la emisión. Los cuerpos
luminosos, centros de transformación de energía según las nuevas orientaciones, están. dejando
escapar constantemente un número enorme de partículas de naturaleza desconocida, un flujo
corpuscular con ciertos atributos materiales al que algunos daban el nombre de lumínico,
considerado como análogo al calórico, especie de fluido que simultáneamente emiten los cuerpos
luminosos y los que no gozan de esta propiedad cuando la temperatura se eleva.
Demostrada ya en aquella época la propagación de la luz con velocidad finita, admite Newton que
estas partículas materiales, estos corpúsculos de lumínico, se mueven en línea recta con la
velocidad ya conocida de aquel agente, distribuyéndose en todas direcciones a partir del foco
luminoso. Veamos cómo, auxiliado de nuevas hipótesis, explica los fenómenos fundamentales con
relativa facilidad.
¿Por qué no admitir esta hipótesis que, indudablemente, es la más simple? En primer lugar, porque
nos exponemos a no poder explicar más fenómeno que el de la reflexión; en segundo lugar, por no
prejuzgar sobre la naturaleza de las partículas que han de ser base de la explicación de otros
muchos fenómenos, y porque no sabemos, dado su grado de pequeñez, si es propio o no aplicarles
las leyes del choque de los cuerpos de dimensiones corrientes.
Admitamos, dice Newton, y he aquí otra nueva hipótesis, como facultad intrínseca a la región
superficial de todo cuerpo, como acción exterior característica de toda superficie, el supuesto de
que, desde el momento en que la partícula se encuentra infinitamente próxima a ella, aparezca una
fuerza repulsiva que tienda a distanciarla de la misma.
Ahora bien, admitida la existencia de tal fuerza, ésta tiende, en virtud de lo dicho, a separar la
partícula de la superficie, y, supuesta constante, hace que se mueva describiendo una parábola
MON, comprendida entre la superficie reflectora y la línea de puntos que limita la región dentro
de la cual se manifiesta la fuerza hipotética de repulsión.
Este movimiento parabólico se produce exactamente de la misma manera y por análoga razón que
lo adquiere un proyectil lanzado en el vacío con una velocidad inicial dirigida oblicuamente con
respecto a la vertical.
En el caso del corpúsculo de lumínico, la
velocidad de la luz es la que se imprime al
proyectil y la repulsión de la superficie se
comporta como la acción gravitatoria.
Claro está que tanto en uno como en otro caso, al cesar en N la acción repulsiva o atractiva de la
superficie, las partículas deberán seguir moviéndose, en virtud de la inercia, con movimiento
rectilíneo y uniforme, de igual velocidad que el incidente en la. reflexión, y con velocidad alterada
por la naturaleza del segundo medio en la refracción.
En este segundo caso demuestra Newton, que las velocidades de la luz en uno y otros medios, son
inversamente proporciona1es a los senos de los ángulos de incidencia y de refracción de modo
que su conclusión es
relación constante cuyo significado todos conocemos, pues representa el índice de la refracción
del segundo medio con respecto al primero. En ella está contenida la segunda ley del fenómeno.
V1 y V2 representan las velocidades de los corpúsculos en el primero y segundo medios
respectivamente.
De esta relación se desprende inmediatamente que si el ángulo en el segundo medio es menor que
en el primero la vlocidad de la luz en aquél es mayor que en éste; es decir, que la luz marcha más
aprisa donde el ángulo es menor y más despacio donde es mayor.
Esta última conclusión de la teoría expuesta, que es preciso tener muy presente, fue la que más
contribuyó a definir la quiebra que había de desraizarla, a pesar de que, a primera vista, parece
explicar muy rápida y diáfanamente los fenómenos fundamentales de la óptica
La primera dificultad que se manifiesta, a poco que se medite sobre los razonamientos expuestos,
es el hecho de que, en todos los casos, si bien con diversa intensidad, los dos fenómenos son
concomitantes, y no es fácil comprender cómo unos elementos del lumínico son atraídos por la
región ópticamente activa, infinitamente próxima a la superficie de separación de los medios,
mientras que los otros son repelidos.
En vista dé ello se hace indispensable imaginar en estas partículas cualidades selectivas. Nos
inclinamos a suponerlas con la facultad inherente, periódica o no, de optar por la reflexión o la
refracción en un momento determinado, de donde resultaría que de los diferentes corpúsculos que
dispuestos en serie forman el rayo, unos se comportarían como los de nuestro primer esquema y
otros como los del segundo, alternándose según una ley cualquiera o arbitrariamente, en el
momento de estar próximos al contacto con la superficie de discontinuidad óptica. En suponer la
existencia de tal facultad en los corpúsculos, es decir, en admitir que pueden comportarse de
diferente manera hasta en las mismas circunstancias, consistió la nueva hipótesis de Newton que
dió el nombre de fits a esta propiedad, a este atributo de los elementos del lumínico: de este .modo
cada uno de ellos tiene en un momento determinado fits de fácil reflexión o refracción, es decir,
proclividad, tendencia, idoneidad, en determinado caso, para la reflexión o refracción.
Pero ¿de qué modo adquieren los corpúsculos el estado propiciatorio a uno u otro fenómeno? ¿Por
una facultad misteriosa, inherente a su propia naturaleza? Esta propuesta resulta, evidentemente,
inaceptable, so pena de dar a la materia inerte facultades directivas incomprensibles. Entonces ¿se
debe esto a que la superficie en que incide el rayo actúa de una manera sobre unos y de otra
totalmente opuesta sobre los otros? Es evidente que caben muchas hipótesis suplementarias, que,
en conjunto, valen menos que aceptar el fenómeno per se, sin discusión. Pero, no siendo posible la
explicación de las leyes familiarísimas que son el fundamento de la óptica geométrica, de muy
poco nos habría de servir una teoría sobre la naturaleza de la luz.
A pesar de estas dificultades, el gran investigador no flaquea, sino que persiste en su objetivo
persiste en su objetivo, y agrega a las anteriores una nueva hipótesis, atribuyendo funciones
especiales al éter, un éter imprecisó, el éter sutil e imponderable de que tanto hemos oído hablar
sin escuchar en nuestras primeras lecciones de física, el único imponderable del siglo dieciocho
que se ha mantenido en los predios de la ciencia; trasgo de rara estirpe que todo lo penetra y cuya
elasticidad mecánica corre parejas con su flexibilidad para ciertos razonamientos que tienen
mucho de filosófica martingala.
En el nuevo supuesto este medio actuará como un regulador del comportamiento de los
corpúsculos, admitiendo que, moviéndose éstos en aquél, que llena todos los espacios, le hacen
adquirir un movimiento de carácter periódico, que, reaccionando sobre ellos, les impele a actuar
en determinado sentido, con lo que se pretende regularizar la volubilidad de actitud de los
corpúsculos, introduciendo a la vez un factor de periodicidad.
Pensando con Boscovich, contemporáneo de Newton, los fits son una consecuencia de la
movilidad de las partículas de lumínico, que, dotadas de cierta polaridad, se comportarán de
diversa manera según presenten a la superficie una región u otra, esto es: las citadas partículas
poseen a manera de imanes, una determinada asimetría, debida, posiblemente, a una forma
geométrica característica.
Para explicar la luz diversamente coloreada, supone Newton que cada color está formado por
partículas. idénticas entre sí, pero diferentes de las que forman otro color. De acuerdo con esto, y
siguiendo una pendiente más o menos dirigida hacia la hipótesis, la luz violeta está formada por
los elementos más pequeños y más refrangibles, continuando en serie los correspondientes a los
demás colores, creciendo en tamaño y perdiendo facultad de refrangibilidad. De modo que, con el
aumento de volumen, disminuye la atracción que determinado medio ejerce sobre ellos. Cada uno
de estos colores debe ser, pues, puro, simple; indescomponible, y cuando se superponen todos, dan
como resultante la luz blanca, la más compleja de todas.
Tal es la luz según la visión del pensador que tan vigorosa y tristemente influyera, en lo que a este
dominio se refiere; en el espíritu de los pensadores de un largo período en que se consideraban
como profesión de fe las concepciones de aquel creador casi divino.
La onda fresneliana.---
Alborea siquiera pálidamente con Grimaldi, la idea de considerar la luz como el resultado
de una perturbación mecánica particular de un medio ignoto, y, pese a sus contradicciones
frecuentes, no se resigna a dar calor a la teoría de la emisión con su imaginado efluvio de
partículas materiales, y logra, con su hipótesis mal definida, dar una. explicación de la ley de la
refracción que no dista mucho de la que se da en los cursos elementales hoy día.
Huyghens toma como arma esta hipótesis en la época de Newton, y a pesar de su hermoso Traité
de la lumiére, verdadero foco de luz en que se demuestran admirablemente; no sólo las leyes
fundamentales, sino también los fenómenos de doble refracción de reciente aparición en aquella
época, rebeldes a toda explicación por la teoría newtoniana, no pudo contener el torrente del éxito
de la concepción de Newton. Ciertamente, el prestigio de está era tal, que mantenía ahogado todo
progreso, y la misma obra vigorosa y genial de Huyghens quedó por mucho tiempo postergada,
aparentemente vencida y anulada por los ataques del propio Newton, y sus partidarios.
Con esta nueva base entramos ya en una primera aproximación de la concepción de la onda
luminosa, con tal acierto, que no se diferencian gran cosa las exposiciones que se hacen
actualmente en los cursos corrientes, de la forma que hace 250 anos le dio Huyghens.
Para hacer comprender esta concepción, que con modificaciones más o menos profundas es la que
nos va a servir de base para mostrar en qué consiste la onda luminosa tal como habitualmente se
expone en las obras corrientes, intentemos, en primer lugar, un resumen de cómo es el éter, o,
mejor todavía, de cómo hay que suponer constituido este medio, cómo apremia condicionario,
para que su plasticidad se adapte a los moldes que le vamos a imponer.
Del estudio de las propiedades elásticas de los diferentes cuerpos, resulta que toda deformación en
un punto de uno de ellos, que, supone el cambio de posición de unos de estos puntos por lo menos,
con la pugnacidad de los inmediatos, y, por ende, con un gasto de lo que llamamos energía por
cuenta del agente perturbador, da lugar a que, con diferente vigor en los distintos cuerpos, el punto
o sistema. de puntos separado de su posición primitiva, tienda a recobrarla y a devolver, por
consiguiente, la energía gastada; tal sucede en multitud de fenómenos perfectamente conocidos,
tales como la vibración de una lámina o el retorno a la posición de equilibrio de un péndulo
previamente separado de la misma.
Cuando el medio posee estas cualidades decimos que es elástico, y tanto más elástico, cuando con
mayor vigor se manifieste la tendencia de sus elementos a recuperar la primitiva posición,
respecto de los otros puntos del mismo.
Ahora bien, cuando una perturbación de esta clase se inicia en un punto que está rodeado de otros
del medio elástico de que forma parte, estos otros experimentan alteraciones que se manifiestan
por cambios en sus posiciones de equilibrio, de tal modo, que lo que fue perturbación solamente
en una pequeña región determinada, aparece como tal, al cabo de cierto tiempo, en otros puntos
más o menos lejanos. En una palabra, las perturbaciones producidas en un punto del medio,
pueden propagarse a las diferentes porciones del mismo. Siendo esto así, cabe preguntarse de qué
manera se produce esta propagación, y pensamos enseguida que pueden existir, y existen en
realidad, una infinidad de formas de propagación, sin que haya razón que las haga suponer
necesariamente simples, pues el problema mecánico que plantean es, en el fondo, el de la
constitución última de los cuerpos.
Todo parece indicar que aproximadamente al menos, en la mayoría de los casos la propagación se
reduce a dos tipos; uno de estos tipos es el llamado longitudinal, que se caracteriza porque los
diferentes puntos del medio oscilan en trayectorias que coinciden con la línea de propagación, y el
otro, llamado transversal, en que las oscilaciones se producen perpendicularmente a dicha línea.
En esta traslación de la perturbación inicial, la energía que se proporcionó al medio se distribuye
en los diferentes puntos del mismo, de modo que a cierta distancia los efectos son insensibles, y
aun en el mismo centro de perturbación, al cabo de cierto tiempo, las manifestaciones son
imperceptibles.
En realidad, los medios materiales, tal como se presentan en la naturaleza, muestran, en último
análisis, propiedades que varían de manera extraordinariamente compleja, y si identificáramos el
éter con cualquiera de ellos, resultaría, si no imposible, complicadamente operosa la creación de
una onda capaz de permitir la explicación medianamente fiel de los fenómenos luminosos.
Veamos como se elabora; a partir de la realidad, la constitución de este medio.
La experiencia enseña que si hemos de considerar el éter como asiento de las perturbaciones
llamadas antes caloríficas, luminosas y eléctricas designadas hoy en conjunto con el nombre de
energía radiante, o de radiaciones energéticas, este medio debe poseer cualidades bastante
extrañas si se le compara con los, diferentes medios materiales. En efecto, las citadas experiencias
prueban, en primer lugar, que la propagación de los movimientos ondulatorios capaces de producir
los fenómenos de energía radiante, debe ser de carácter transversal, es decir, repitiendo lo dicho
más arriba, que los diferentes puntos del medio han de estar animados de movimientos vibratorios
cuyas trayectorias son normales a la línea de propagación en ningún caso ha sido posible
identificar radiación alguna de este género con una perturbación de propagación longitudinal. Pero
dada la enorme velocidad con que se propagan las perturbaciones objeto de nuestro estudio, nos
parece lo más natural atribuir al éter cualidades análogas a las de un fluido. Ahora bien, llevado a
cabo el estudio experimental y analítico de cualquiera de ellos, encontramos que solamente
permiten a través de su masa la propagación de perturbaciones de carácter longitudinal; por tanto,
el éter no puede ser asimilado a ninguno de los fluidos conocidos. Si hacemos el estudio más
complejo, pero posible, del comportamiento de un sólido cualquiera, veríamos que en todos
aparecen los dos tipos de propagación, siendo el mecanismo de esta generación cinemática muy
simple y comprensible. En efecto, al separar en el medio una partícula A, de su posición de
equilibrio hasta B, y dejarla libre, aparecerían dos ondas: una de propagación transversal que daría
el rayo AM; perpendicular a AB, y otra de propagación longitudinal que daría un rayo en la
dirección AB. Pero hemos dicho ya que en el éter no se manifiestan perturbaciones de
propagación longitudinal, luego, no podemos identificarlo con ninguno de los cuerpos conocidos.
Pero como la propagación de una onda longitudinal a lo largo de una dirección, supone una
sucesión de dilataciones y condensaciones según esta dirección, precisa admitir por esta razón que
el éter es incompresible, o bien, que su compresibilidad es extraordinariamente pequeña. Además,
como es cualidad privativa de los medios dotados de rigidez relativamente grande el ser camino
propicio a las ondas transversales, el éter debe presentar una rigidez análoga a la de los cuerpos
sólidos. Por mal que esta necesidad se avenga con los prejuicios que la visión superficial de las
cosas nos ha sembrado en el espíritu.
En segundo lugar, mediciones múltiplemente repetidas han dado para la velocidad de propagación
de las ondas de energía radiante un valor próximo de 300 000 kilómetros por segundo, velocidad
realmente fantástica, y como ésta ha satisfacer a la relación
c=
reiteradamente demostrada y comprobada, resulta, que habiendo de ser o muy grande el valor e,
que representa el coeficiente de elasticidad del medio debe ser un número elevado, mientras que d,
que simboliza la densidad de aquél, es forzosamente muy pequeño.
Lord Kelvin admite que para satisfacer las condiciones impuestas, el éter debe ser
extraordinariamente sutil, de modo que su densidad con respecto al agua sería de orden de 5.10-18,
de donde resultaría para el módulo de elasticidad del mismo: e =4500. Concluye este físico que
el éter es extraordinariamente incompresible y que la velocidad de propagación de la perturbación
longitudinal es prácticamente nula.
Pese a todo lo dicho, aparece un grave escollo en la definición de la naturaleza del éter; en efecto,
si éste ha de ser el vehículo del rayo luminoso, debe llenar todos los espacios, tanto
interplanetarios como intratómicos, así como los que median entre los diferentes cuerpos, so pena
de no poder explicar la marcha de la luz a su través. El Universo es, pues, como una esponja entre
cuyos corpúsculos materiales se embebe el éter sutilísimo y elástico y en él a su vez se embebe la
materia. Supuesto este medio en reposo absoluto, constituyendo, por así decirlo, algo inherente al
espacio mismo, al espacio llamado absoluto de la mecánica newtoniana, los diferentes cuerpos en
movimiento, y, en particular, los astros, deben resbalar a través del mismo arrastrando o no parte
de él. Por sutil que lo imaginemos entonces, por pequeña que sea la viscosidad que le
atribuyamos, con relación a sí mismo o a la superficie de los cuerpos en su contacto, se originaría
siempre un retraso en el movimiento de los astros, como consecuencia de la pérdida de energía en
el frotamiento. Pero nada indica la existencia de semejante aceleración negativa en la marcha de
los cuerpos celestes, y sólo queda aceptar la idea de Stokes admitiendo, ya que el éter no posee
una constitución molecular semejante a la de los cuerpos conocidos, ya que esta constitución es de
tal naturaleza, que los cuerpos pueden resbalar en el como lo harían en un vacío quintaesenciado.
De todo esto se deduce que nuestros conocimientos sobre el éter en sí son bien pobres, al extremo
de que algunos niegan su existencia a trueque de aceptar las acciones a distancia que tanto han
repelido siempre todos los pensadores.
Consideremos, pues, el éter, como un medio real o ficticio, en el cual pueden solamente obtenerse
movimientos vibratorios de propagación transversal de tal manera, que nos permita crear una onda
luminosa con cuyo auxilio nos sea posible explicar todos los fenómenos que deben su origen a la
energía radiante. Vale tanto como decir con algunos autores: el éter es; simplemente, un sujeto
para el verbo vibrar.
Sentada la naturaleza del medio, ¿cómo se puede suponer constituida la radiación en sí? Para
Huyghens esta radiación se manifiesta en forma de una onda de propagación longitudinal, pero tal
hipótesis queda destruida ante la imposibilidad de explicar por ella los conocidos fenómenos de
polarización.
Fig. 3.
sucesivamente cuando del éter libre se trata; o mejor
todavía, cuando este medio conserva las cualidades de
isotropía.
Consideremos una vibración completa de uno de los puntos del medio. Poseyendo éste una rigidez
apropiada, y visto el fenómeno en un plano perpendicular al del papel de la Figura 1, si
suponemos que AB, (Fig. 4) es la trayectoria de una de las vibraciones de la molécula de que
hablamos antes, el movimiento vibratorio de ésta se trasmitirá a la inmediata y de ellas a las
siguientes, con cierto retraso en cada una, de modo que si el movimiento de la primera es de los
llamados armónicos, al cabo de una oscilación completa del primer punto; las partículas que se
hallaban alineadas según OQ, se encuentran en el espacio en los diferentes puntos. de una
sinusoide OCDE, habiendo efectuado la primera, O, una oscilación completa, y empezando la
última, Q, a moverse en ese instante.
Fig. 4.
Esto quiere decir que en un tiempo igual a un período, el movimiento vibratorio se ha propagado
la distancia OQ, que es constante en un medio isótropo, a la que se ha dado el nombre de longitud
de onda de la radiación correspondiente y cuya invarianza en un mismo medio afirma la
experiencia
Onda natural.---
Puede aventurarse, a nuestro entender, una forma de. la onda, distinta a la que exponen los
diferentes autores, particularmente dócil a la explicación de los fenómenos y que no tiene el
inconveniente de aparecer siempre rectilíneamente polarizada. Admitamos, para conseguirlo, que
el punto situado en A, (fig. 5) efectúa una oscilación completa primero, en el plano del papel y en
la dirección 1, dando lugar a la distribución sinusoidal 1' que se propaga a lo largo del medio
situada siempre en el mismo plano.
Fig. 5.
La segunda vibración se producirá, por ejemplo, en la dirección 2, originando la onda 2' cuyo
plano forma con el de la 1' el mismo ángu1o que las direcciones 1 y 2. Asimismo, si la tercera
oscilación se produce en la dirección 3, genera la onda 3', situada en un plano que formará con el
de la 1' el mismo ángulo que las direcciones 1 y 3.
Este fenómeno se produce indefinidamente, de tal manera, que el rayo está formado por el
conjunto de las diferentes ondas 1', 2', 3', distribuidas en el espacio en planos diferentes en
general, que pasan todos por la dirección de propagación AB. Tal nos parece la onda natural
fresneliana que se puede llamar rectilínea, ya que todos los puntos del éter describen trayectorias
de esta naturaleza, perpendiculares a la dirección de propagación.
De acuerdo con esto, una molécula cualquiera del rayo tal como la M, (fig. 1) efectuará una
primera vibración completa AB, contenida en el plano del papel de la figura 3, por ejemplo;
después, otra A'B', situada en un plano distinto que formaría cierto ángulo con el primero; otra
según A" B" y así sucesivamente mientras el rayo luminoso o en general, la radiación está
avanzando a lo largo de AB.
Polarización.---
Podemos ahora concebir un medio material cuyas moléculas estén distribuidas según un orden tal,
que a su través sólo sea posible la propagación cuando las vibraciones se efectúen todas en un
mismo plano, o como quiere la naturaleza, paralelamente a dos planos fijos perpendiculares entre
sí: tal sucede con todas las sustancias cristalizadas en todos los sistemas cristalinos excepto el
regular, para una infinidad de direcciones en los mismos, no coincidentes con una o dos
particulares.
Consideremos, por ejemplo, un cristal de espato de Islandia, cuerpo que, cristaliza en romboedros.
El paso de la luz por el mismo, salvo en una dirección privilegiada, da lugar a la aparición de dos
rayos emergentes para uno solo incidente, rayos que se diferencian de este último en ciertas
particularidades que permiten atribuirle una determinada polaridad. Como se comprende, sería
impropio de este lugar hacer el estudio experimental o analítico que ha permitido llegar al
conocimiento de la estructura de estos rayos, e indicaremos solamente cómo están constituidos.
Todo parece indicar que nuestro éter, nuestro sujeto del verbo vibrar está de tal modo espaciado
entre las moléculas de espato y de las sustancias dotadas de propiedades análogas que, sea por la
manera de estar acomodado entre ellas, sea porque éstas le imprimen parte de sus propios
movimientos, deja pasar solamente las perturbaciones de propagación transversal que se verifican
en dos planos perpendiculares determinados, de modo que si un rayo luminoso se propaga según
una cierta dirección, y encuentra en un punto al cristal, de tal manera que al llegar allí el punto del
éter situado en él vibra según cierta recta, esta vibración se descompone en otras dos situadas en
dos planos perpendiculares, dando lugar a dos ondas que se propagan en éstos, de modo que en
cada una de ellos, las moléculas del de cada rayo vibran en el plano correspondiente llamado
plano de vibración. Estas ondas particulares se llaman ondas polarizadas, y los rayos que emergen
del cristal salen con idéntica polaridad que poseían dentro. Si consideramos, pues, como rayo, el
conjunto de fenómenos que se producen a lo largo de la línea de propagación, según la teoría
ondulatoria, para que la propagación rectilínea sea posible, el éter en los medios isótropos debe
estar constituido de modo que su elasticidad posea un carácter solenoidal, filar, de modo que sus
diferentes puntos formen collares rectilíneos a lo largo de los cuales tiende a propagarle siempre
toda perturbación armónica.
Pero el rayo de luz puede presentarse todavía en otro aspecto. Existen medios tales, que al ser
atravesados por una radiación, dan lugar a la formación de un rayo, (Fig. 7) en que cada uno de los
puntos del éter describe una elipse E, cuyo centro está en la línea de propagación OA. El
movimiento de cada punto presenta diferentes fases en las elipses sucesivas, de modo que el lugar
geométrico de todos los puntos en un instante dado está representado por la curva BMCDF de la
figura. Se dice en este caso que el rayo está polarizado elípticamente. En particular, puede suceder
que los diversos puntos describan círculos en lugar de elipses y entonces se tiene el rayo
polarizado circularmente. Se concibe la posibilidad de imaginar un rayo en que cada punto
describa periódicamente una curva de naturaleza tan complicada como nos plazca. La teoría de los
movimientos vibratorios nos enseña, que para lograrlo, bastaría suponer la molécula inicial
animada de dos o más movimientos periódicos de períodos convenientemente escogidos.
Fig. 7.
Con estos y algún otro supuesto sobre la naturaleza de la onda se explican con relativa facilidad la
mayoría de los fenómenos característicos de la energía radiante, y, en particular, las leyes de la
reflexión y de la refracción, gracias a la introducción de la noción de superficie de onda de
Huyghens-Fresnel. De esta teoría de los fenómenos fundamentales se llega a la conclusión de que
la relación entre los senos de los ángulos de incidencia y de refracción, es igual a la relación entre
las velocidades de propagación en el primero y segundo medios, consecuencia que está en abierta
y completa contradicción con la conclusión a que llegó Newton con su teoría de los corpúsculos, y
de conformidad con las experiencias de Foucault y Fizeau, que sirvieron de experimentum crucis
para decidir definitivamente entre ambas teorías.
Para esta teoría, que en el camino infinitamente variable de la ciencia contemporánea se sostiene
bastante bien todavía, las radiaciones visibles, las invisibles actínicas y caloríficas, y otras de que
hablaremos después, están constituidas por ondas de esta naturaleza que pueden presentarse
polarizadas o no. La diferencia entre estas radiaciones y aun entre las diversas de un mismo tipo,
está, cuando se propagan en un mismo medio, solamente en la longitud de onda, magnitud
susceptible de una rigurosa medición. De este modo, y para fijar las ideas, entre las radiaciones
visibles existe una infinidad de longitudes de onda, cada una de las cuales corresponde a un color
perfectamente definido cuando la propagación se produce en un medio determinado. Las
longitudes de onda de todos los colores visibles varían desde ocho diezmilésimas de milímetro
para el rojo extremo hasta cuatro diezmilésimas de la misma unidad para el violado extremo. Una
verdadera octava del color que instila en nosotros una gran proporción de la belleza de la
naturaleza, en esa misteriosa y variable sensación, que se reduce para el físico, de igual modo que
todas las sonoridades, a una longitud de onda, o mejor aún, a un período de vibración, a un simple
número.
Onda electromagnética.---
Salvo ciertas cuestiones, principalmente las relativas a la radiación del cuerpo negro, si bien
muchas veces gracias al empleo de nuevas hipótesis, con esta imagen, del rayo de energía radiante
se explica un número enorme de fenómenos y se ha podido predecir otros en número casi parejo.
Pero la predicción magnífica de Maxwell, y las experiencias y generalizaciones admirables de
Herz, hicieron manifiesta y casi palpable la onda electromagnética que se llama actualmente
herziana, y que podría llamarse con igual derecho maxwelliana, trasminando nuevas relaciones y
esperanzas que son hoy una plenitud de realidades. Para comprender lo que va a seguir,
recordemos unas nociones muy elementales que, de no ser conocidas, serán rápidamente
asimiladas por aquellos que no hayan dedicado algún tiempo a esta clase de estudios.
Campos.---
La noción de carga eléctrica se adquiere por las acciones de los cuerpos electrizados entre sí y
sobre los otros cuerpos, sin que nos sea posible penetrar su naturaleza íntima. Para adquirirla,
frotemos dos cuerpos en condiciones apropiadas, y veremos como cada uno de ellos adquirirá
propiedades nuevas que no son asimilables a las comúnmente conocidas. Los cuerpos en tal estado
atraerán las partículas materiales ligeras hasta que en el momento del contacto serán de nuevo
repelidas, de tal manera que la brizna o fragmento de papel puesto en contacto con uno de ellos es
repelido por él y atraído por el otro, y recíprocamente.
Expresamos esto diciendo que los dos cuerpos poseen electricidad y que existen dos especies de
esta electricidad susceptibles de producir efectos opuestos. Llega así a nosotros la noción de carga
eléctrica, que en una atrevida, pero utilísima abstracción, podemos suponer separada de todo
cuerpo material para comodidad y amplitud del razonamiento. De estas dos especies de
electricidad, una se considera como positiva y la otra como negativa, y son las únicas que existen
en la naturaleza.
Multitud de experiencias y consideraciones en cuyo detalle no podemos entrar, han probado que la
electricidad está formada de corpúsculos elementales a la manera como la materia está formada de
átomos, y que estos corpúsculos son unas veces positivos y otras negativos, siendo estos últimos
los que han recibido le nombre de electrones, cuya naturaleza íntima escapa a nuestras ambiciones
de conocimiento, pero que parecen estar constituidos por la menor cantidad da electricidad
negativa que puede existir, y carecen, según todas las probabilidades, de soporte material. A estos
corresponden cargas positivas de igual valor absoluto que algunos llaman electrones positivos,
pero que más generalmente se designan con el nombre de protones, y parecen estar constituidos
por una carga positiva inseparable de una masa material que es el mínima minimorun de la
materia. Según esto, una carga eléctrica estará formada por un agrupamiento de corpúsculos de
esta naturaleza, y ejercerá sus acciones en todos los puntos del espacio circundante, constituyendo
lo que llamamos el campo eléctrico de dicha carga.
Todos conocemos asimismo los imanes y su polaridad, y la acción a distancia de los mismos,
pudiendo hablar, en una abstracción análoga a la expuesta, de masas o polos magnéticos aislados,
cuyas acciones se manifiestan en todo un dominio que constituye un campo magnético.
Prestemos un poco de atención a los simples conceptos que vamos explicar, que son eje, núcleo y
punto de partida de la posible compresión de nuestra onda electromagnética. El éter es el asiento
de campos eléctricos y magnéticos creados por masas de esta naturaleza a distancias cualesquiera.
Así, una masa eléctrica unidad, situada en un campo eléctrico, estará sometida a la acción de un
vector E, cuyo valor representa la intensidad del campo en este punto, definido de tal modo, que la
fuerza que actúa sobre una masa cualquiera m, colocada en el mismo punto se obtiene por la
relación
F=mE.
Análogamente, si cierta región del espacio es el dominio de un campo magnético, una masa
magnética unitaria estará sometida a la acción de un vector H, que es la intensidad del campo
magnético en este punto, definida de modo que la fuerza a que se hallaría sometida una masa
magnética cualquiera, m, situada en el mismo punto, se obtendría por
F=mH.
Es fácil imaginar un estado de variación de las cargas creadoras del campo en virtud de la cual
éste adquiere a su vez un estado especial de variación; en estas circunstancias, el campo poseerá
en cada uno de sus puntos valores diferentes en 1os instantes sucesivos, de modo que, en un punto
cualquiera A, tuviese en un instante determinado el valor E, que fuese decreciendo o
continuamente y adquiriendo valores E1, E2.... .0, cambiando después de sentido y adquiriendo
valores que serían negativos, hasta un máximo de este signo para volver después a cero, pudiendo
concebirse las variaciones de tal modo, que los valores del campo siguieran la misma ley de
variación que las elongaciones de las partículas en el movimiento vibratorio armónico.
Consideremos, para ilustrar lo dicho, una carga eléctrica en cualquier región del espacio animada
de un movimiento del tipo pendular; una masa unidad situada en sus proximidades, recibe las
acciones de ésta que varían con la distancia según una ley conocidísima, y el vector campo
correspondiente, experimentará variaciones concomitantes: ved con qué facilidad hemos creado
un campo eléctrico variable.
Imaginemos ahora dos masas, una magnética y otra eléctrica, juntas o separadas; en todos los
puntos del campo se ejercerán acciones sobre las masas eléctricas o magnéticas situadas en ellos,
puesto que ambas masas dan lugar a la coexistencia de dos campos que no son incompatibles.
Imaginemos ahora que las dos masas creadoras del campo se comportan de tal modo que por
variaciones de valor o de posición dan lugar a determinadas alteraciones de su acción exterior;
resultará entonces que todas las masas situadas en el campo recibirán acciones también variables,
de tal manera que para un observador atento al comportamiento de dos de ellas, una eléctrica y
otra magnética, colocadas en un cierto punto, las alteraciones de las masas generadoras del campo
se manifestarán por una perturbación perfectamente definida y cognoscible: henos ya en presencia
de un campo electromagnético variable.
Consideremos lo que los físicos llaman un explosor, formado simplemente por dos conductores
casi siempre terminados por dos esferas metálicas, separadas por una capa de aire de pequeño
espesor; establezcamos por un procedimiento cualquiera una diferencia de potencial entre ellos, y
regulemos su distancia hasta que salte la chispa. Cuando ésta aparece, tenemos el fenómeno de la
descarga eléctrica entre los dos conductores, y la primera inquisición de la mente va dirigida a
investigar en qué consiste esta descarga disruptiva que produce calor y luz y ese ruido seco
característico. Un estudio atento le permite llegar, por razones de analogía, a la conclusión de que
la descarga se reduce al paso de la corriente a través del dieléctrico que constituye el medio
interpuesto, es decir, al movimiento de las masas eléctricas de uno a otro conductor venciendo las
dificultades que el medio le opone y dando lugar a la aparición de parte de la energía que
gastamos en establecer la diferencia de potencial; en aquellas formas diversas: hemos llevado el
fardo a la cumbre, y en su caída, puede levantar un peso igual al propio.
Está descarga eléctrica se manifiesta en el medio exterior en forma bien singular y disímil de la
energía que le dio origen, y no conociendo su naturaleza íntima, limitémonos a representar por la
imagen Faraday-Maxwelliana los efectos que produce en el exterior.
Si consideramos dos cargas A y B, de signos contrarios para fijar las ideas, éstas hacen aparecer
un campo eléctrico en toda la región circundante del espacio, lo cual quiere decir simplemente,
como ya hemos visto, que si se dispone una carga eléctrica cualquiera en un punto de este
dominio, ésta se encuentra sometida a una acción particular que tiene grandes analogías con una
fuerza; ahora bien, si las dos primeras cargas permanecen invariables en magnitud y posición, y
colocamos la tercera carga que nos va a servir para conocer de la existencia del campo, en
condiciones apropiadas de libertad, encontraríamos que, de poder moverse, lo haría siempre
describiendo una línea fija y determinada para cada posición: una línea según la cual se ejerce la
acción de la fuerza eléctrica 'en cada uno de sus puntos, y a la que designaremos con el nombre de
línea de fuerza cuya propiedad característica es la de ser tangente en cada uno de Sus puntos a la
dirección de la fuerza eléctrica en ellos. La teoría y la experiencia enseñan que en todo campo
eléctrico pasa una línea de fuerza por cada uno de sus puntos y sólo una, y razones que no son de
este lugar nos darían para, la distribución de las mismas una apariencia análoga a la que se ve en
la figura (Fig. 8). Todas empiezan en una carga positiva y terminan en una negativa, y aunque en
la figura solamente representamos un número limitado de ellas es preciso imaginarse todas las
regiones intermedias colmadas de tales elementos ficticios.
Veamos ahora cómo, en el caso de la descarga nos encontramos con otro factor de gran
trascendencia, que va a complicar la estructura muy simple del campo eléctrico con la
superposición de otro campo, si bien semejante en la forma, de comportamiento muy distinto en el
fondo. Constituye una noción elemental muy conocida el hecho de que una corriente eléctrica crea
un campo magnético en todos los puntos que la circundan; esto quiere decir, que si en las
cercanías de un conductor por el cual pasa una corriente colocamos un polo de un imán, este polo
quedará, sometido a la acción de una fuerza que no coincide con la que se ejercía sobre la carga
eléctrica colocada en el mismo punto, sino que es perpendicular a la dirección de aquella y de otra
naturaleza muy diversa.
Sentado lo anterior, si consideramos la serie de puntos de una línea recta situada en el medio
perturbado CD, en cada uno de ellos se cortarán dos líneas de fuerza, una eléctrica y otra
magnética, de tal modo, que los valores de ambos campos serán, por ejemplo, los representados en
la figura por E, H y E', H'. Si admitimos que las perturbaciones son periódicas y de carácter
sinusoidal, para lo cual basta condicionar apropiadamente la descarga, resultará que, a lo largo de
la línea recta escogida arbitrariamente la distribución de los vectores eléctrico y magnético es la
indicada, y se ve que el lugar geométrico de sus extremidades en un instante dado, define una
curva de las llamadas sinusoides que ya encontramos al describir la onda fresneliana.
Estas dos ondas representadas aparte (Fig. 10) están contenidas en dos planos perpendiculares, P1
P2 y son concordantes en fase, es decir que a los máximos y mínimos de una de ellas corresponden
también los valores extremos de la otra, tal es la estructura de la onda electromagnética más
simple que se puede concebir, y debe tenerse presente que ésta avanza constantemente con una
velocidad de 300 000 km por segundo, de modo que todo pasa como si los diferentes puntos de la
misma avanzaran en la dirección CD. (1)
Fig. 10.
Múltiples razones de semejanza en el comportamiento y de concurrencia en la aparición nos
fuerzan a afirmar la identidad de naturaleza entre la onda electromagnética y la luminosa, así
como las que constituyen las radiaciones caloríferas, los rayos de Rongen, y toda forma de energía
radiante. ¿Cuáles son, pues, las variantes que hacen presentar tan diversos aspectos a una misma
manifestación? La respuesta es casi del dominio popular por su carácter elemental; la diferencia
es. solamente una cuestión de extensión; depende de la longitud de onda; vale decir, de la
distancia que separa dos puntos inmediatos en igualdad de condiciones de perturbación cuando el
medio en que se propaga la perturbación es fijo. De acuerdo con esto, es sabido que existe una
doble infinidad de aspectos de la energía radiante de las cuales una sola es conocida y abraza una
serie de regiones en el espectro teórico ilimitado. Las que corresponden a longitudes de onda muy
larga -que puede ser de varios kilómetros hasta algunos microns-, son ondas electromagnéticas
propiamente dichas, llamadas comúnmente herzianas, que tan populares se han hecho hoy con sus
aplicaciones a la radiocomunicación; las que siguen en longitud hasta unas 8 décimas de micron,
son radiaciones caloríferas; las comprendidas entre este valor y unas 4 décimas de micron, son las
radiaciones visibles que forman la deslumbradora octava del color, cada una de cuyas unidades es
una longitud de onda bien definida. Después, la región ultravioleta, la luz negra que la retina es
incapaz de percibir pero que impresiona las placas fotográficas, y entre las más cortas, salvando
lagunas ignotas, los rayos X, invisibles, pero capaces de hacer brillar intensamente determinadas
sustancias, aún a través de los cuerpos opacos, poder de penetración que es la admiración de los
espectadores profanos.
Pero si esta unificación fecunda es cierta, es preciso explicar de qué manera puede la materia, en
determinadas circunstancias, producir una radiación, es decir, emitir ondas electromagnéticas. Si
la forma normal de generación es la expuesta al explicar este tipo de perturbación, preciso es
asentar, siquiera sea hipotéticamente, un tipo o un sistema de tipos de osciladores en cada
elemento de los cuerpos de la naturaleza ya que todos ellos son capaces de emitir radiaciones,
según afirman todos los datos experimentales.
Pero todos los cuerpos están constituidos por agrupaciones de átomos y éstos deben ser,
naturalmente, los centros emisores. Pero para ello, el átomo debe estar necesariamente en
condiciones de generar esta emisión, y así llegamos a la convicción de que el problema de la
investigación de las condiciones emisoras trae aparejado el más trascendental y abrumador de la
estructura íntima del átomo, y se traslumbra ya que ésta debe ser bastante menos simplista de lo
que la suponían hipótesis pretéritas. Todas estas cuestiones han dado lugar a que se recrudecieran
las apetencias de conocimiento en este sector de las ciencias naturales, dando lugar a los vigorosos
movimientos científicos del último medio siglo que han conmovido la ciencia en lo más profundo
de sus reconditeces, llegándose a veces a rotundas afirmaciones de insólita apariencia, que
alternan de lo paradójico al aparente absurdo.
El átomo.---
La inquieta historia del desarrollo de la constitución del átomo, no puede constituir un modesto
aparte de esta exposición, por el hecho sencillo de que no cabe en él y nos limitaremos a tomar
como definitivo el modelo más generalizado, para dar una idea de cómo las cosas pudieran ser.
Dejaremos a un lado de todo intento esos recientísimos trabajos sobre la nueva mecánica
ondulatoria con sus electrones tremolantes debidos a de Broglie, Schrodinger, Heisemberg, Landé
y tantos otros. Aquel modelo es el designado con el nombre de átomo de Bohr, y han concurrido a
su formación, enlace por enlace, trayectoria por trayectoria, los más conspicuos hombres de
ciencia.
Procedamos como gran principio podría haber actuado en el origen de la cosmogonía, para llegar
al estado presente de las cosas.
Hemos empezado por el misterio y, pese al rigor ponderado de la ciencia, sigue el misterio. Sin
que sepamos la causa, duda en que se mientan todas las religiones, todos estos corpúsculos se
orientan, se agrupan, forman una multitud de complejos, y aparecen, en número limitado, todos
los átomos de la naturaleza. Observemos algunos, y para ello supongámonos dotados de una
ilimitada aunque inexistente agudeza visual.
De la soldadura de átomos iguales o diferentes resultan todos los cuerpos simples y compuestos
de la naturaleza, y de todo lo dicho se infiere que son todos ellos simples agrupamientos de este
polvo cósmico. Por otra parte, como las distancias entre los elementos del átomo son
extraordinariamente pequeñas, la acción eléctrica exterior del mismo es nula, de modo que
funciona como si protones y electrones estuviesen soldados en el núcleo.
Sentado esto, cabe pensar si en un átomo determinado -tomemos el de hidrógeno para fijar las
ideas- los grupos de electrones en una órbita o nivel cualquiera permanecen invariablemente en
ella, o si estos corpúsculos, mediante una acción exterior, están facultados para pasar de una órbita
de equilibrio a otra más alejada o más próxima del núcleo.