Sei sulla pagina 1di 14

E.T. Nº 24 – D.E. 17 3º año c.b.

Temas de Química
ESTRUCTURA DE LA MATERIA
Concepto de elemento químico
Desde la antigüedad, los hombres se han preguntado de qué están hechas las cosas. El
primero del que tenemos noticias fue un pensador griego, Tales de Mileto, quien en el siglo VII
antes de Cristo, afirmó que todo estaba constituido a partir de agua, que enrareciéndose o
solidificándose formaba todas las sustancias conocidas. Con posterioridad, otros pensadores
griegos supusieron que la sustancia primigenia era otra. Así, Anaxímenes, en al siglo VI a. C.
creía que era el aire y Heráclito el fuego.
En el siglo V a. C., Empédocles reunió las teorías de sus predecesores y
propuso no una, sino cuatro sustancias primordiales, los cuatro elementos: Aire, agua,
tierra y fuego. La unión de estos cuatro elementos, en distinta proporción, daba lugar
a la vasta variedad de sustancias distintas que se presentan en la naturaleza.
Aristóteles, añadió a estos cuatro elementos un quinto: el quinto elemento, el éter o
quintaesencia, que formaba las estrellas, mientras que los otros cuatro formaban las
sustancias terrestres.
Tras la muerte de Aristóteles, gracias a las conquistas de Alejandro Magno, sus ideas se propagaron por todo el
mundo conocido, desde España, en occidente, hasta la India, en el oriente. La mezcla de las teorías de Aristóteles con los
conocimientos prácticos de los pueblos conquistados hicieron surgir una nueva idea: La alquimia. Cuando se fundían
ciertas piedras con carbón, las piedras se convertían en metales, al calentar arena y caliza se formaba vidrio y similarmente
muchas sustancias se transformaban en otras. Los alquimistas suponían que puesto que todas las sustancias estaban
formadas por los cuatro elementos de Empédocles, se podría, a partir de cualquier sustancia, cambiar su composición y
convertirla en oro, el más valioso de los metales de la antigüedad. Durante siglos, los alquimistas intentaron encontrar,
evidentemente en vano, una sustancia, la piedra filosofal, que transformaba las sustancias que tocaba en oro, y a la que
atribuían propiedades maravillosas y mágicas.
Las conquistas árabes del siglo VII y VIII púsieron en contacto a éste pueblo con las
ideas alquimistas, que adoptaron y expandieron por el mundo, y cuando Europa, tras la
caída del imperio romano cayó en la incultura, fueron los árabes, gracias a sus conquistas
en España e Italia, los que difundieron en ella la cultura clásica. El más importante
alquimista árabe fue Yabir (también conocido como Geber) funcionario de Harún al-
Raschid (el califa de Las mil y una noches) y de su visir Jafar (el conocido malvado de la
película de Disney). Geber añadió dos nuevos elementos a la lista: el mercurio y el azufre.
La mezcla de ambos, en distintas proporciones, originaba todos los metales. Fueron los
árabes los que llamaron a la piedra filosofal al-iksir y de ahí deriva la palabra elixir.
Aunque los esfuerzos de los alquimistas eran vanos, su trabajo no lo fue.
Descubrieron el antimonio, el bismuto, el zinc, los ácidos fuertes, las bases o álcalis (palabra que también deriva del
árabe), y cientos de compuestos químicos. El último gran alquimista, en el siglo XVI, Theophrastus Bombastus von
Hohenheim, más conocido como Paracelso, natural de Suiza, introdujo un nuevo elemento, la sal.
Robert Boyle, en el siglo XVII, desechó todas las ideas de los elementos alquímicos y definió los elementos químicos
como aquellas sustancias que no podían ser descompuestas en otras más simples. Fue la primera definición moderna y
válida de elemento y el nacimiento de una nueva ciencia: La Química. Durante los siglos siguientes, los químicos,
olvidados ya de las ideas alquimistas y aplicando el método científico, descubrieron nuevos e importantes principios
químicos, las leyes que gobiernan las transformaciones químicas y sus principios fundamentales. Al mismo tiempo, se
descubrían nuevos elementos químicos.
Apenas iniciado el siglo XIX, Dalton, recordando las ideas de un filósofo griego, Demócrito, propuso la teoría
atómica, según la cual, cada elemento estaba formado un tipo especial de átomo, de forma que todos los átomos de un
elemento eran iguales entre sí, en tamaño, forma y peso, y distinto de los átomos de los distintos elementos. Fue el
comienzo de la formulación y nomenclatura química, que ya
había avanzado a finales del siglo XVIII Lavoisier.
En la actualidad, se acepta como definición de elemento
químico la siguiente: es el componente común de
todas las sustancias puras compuestas de las que se
lo puede extraer por algún método de extracción, a las
sustancias simples y a sus variedades alotrópicas,
manteniendo siempre el mismo número atómico.

Sustancias simples y compuestas. Atomicidad


Ya se generó en el modelo presentado por Dalton una diferenciación entre las sustancias que por descomposición
podían dar otras (compuestas) y aquellas que no se podían descomponer (simples), indicando inclusive en uno de sus
postulados que las primeras estaban armadas por “átomos compuestos”(concepto erróneo ya que si se respetaba la idea
Ciclo Lectivo 2013 Página 1 Prof. Hernán Morozóvich
E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
griega de  como partícula indivisible, no podía contener partes internas a si misma pasibles de ser separadas; en
la actualidad se reconoce a la partícula de una sustancia compuesta como molécula) mientras que las segundas estaban
formadas por átomos simples. Pero mas adelante, con el avance de los conocimientos sobre estructura de la materia,
permitió identificar las diferentes variedades atómicas que forman parte de las moléculas, llegándose a encontrar que no
en todos los casos la cantidad de átomos de un mismo elemento se mantenía entre diferentes sustancias; inclusive,
cuando se investigaron los gases elementales, se encontró que a pesar de ser un elemento individual no se correspondían
con partículas elementales formadas por un solo átomo.
Por todo esto se creó el concepto de atomicidad: es el número de átomos de un mismo elemento presente en una
molécula, ya sea esta compuesta o simple (lo que se conoce como variedades alotrópicas muchas veces son variaciones
en la atomicidad, como es el caso del oxígeno, que se presenta como oxígeno molecular, O 2, y como ozono, O3).
Modelos atómicos
Como vimos anteriormente, las primeras ideas sobre la existencia de una pequeña partícula unitaria de la materia, el
átomo, y con el la concepción de la materia como un ente discontinuo, surge en la Grecia preclásica de la mano de
personas como Demócrito de Abdera, Tales de Mileto, Leucipo, entre otros. Pero esas ideas fueron abandonadas hasta su
recuperación por parte de John Dalton, quien no solo las sacó del olvido sino que les agregó los conceptos necesarios para
formular el primer modelo que intentó explicar según un criterio atomista y moderno el comportamiento y la estructura de la
materia.
Sus ideas y propuestas están condensadas en lo que se conoce como Postulados de Dalton:
1. Los elementos están formados por partículas discretas, diminutas, e indivisibles llamadas átomos, que
permanecen inalterables en cualquier proceso químico.
2. Los átomos de un mismo elemento son todos iguales entre sí en masa, tamaño y en cualquier otra propiedad
física o química.
3. En las reacciones químicas, los átomos ni se crean ni se destruyen, solo cambian su distribución.
4. Los compuestos químicos están formados por "átomos de compuesto" (moléculas), todos iguales entre sí; es
decir, cuando dos o más átomos de diferentes elementos se combinan para formar un mismo compuesto lo hacen siempre
en proporciones de masa definidas y constantes.
De la teoría atómica de Dalton destacamos las siguientes definiciones:
 Un Átomo es la partícula más pequeña de un elemento que conserva sus propiedades.
 Un Elemento es una sustancia que está formada por átomos iguales.
 Un Compuesto es una sustancia fija que está formada por átomos distintos combinados en proporciones fijas.
De la misma manera ahora sabemos que también tenía errores y/o contradicciones:
 Los átomos no son indivisibles; las partículas subatómicas y la energía nuclear muestras que el átomo no es la
partícula material mínima.
 Dentro de los átomos de un mismo elemento (según lo que actualmente se considera elemento químico) pueden
tener diferencias en sus masas atómicas (isótopos); por lo tanto no son totalmente iguales.
 La partícula mínima de un compuesto no es un átomo, definido por Dalton como indivisible; el criterio actual es que
se denomina molécula.
El logro real de Dalton fue, a pesar de las contradicciones expuestas, recuperar al atomismo griego y poner a la
ciencia en una senda que desembocaría en la actual física nuclear.
Descubrimiento del electrón
La palabra "elektron" es la palabra griega para designar el ámbar, la resina amarilla fósil de los árboles de hoja
perenne, un "material plástico natural" que ya era conocido por los antiguos griegos. Es sabido que cuando se frota el
ámbar con un paño seco, se produce la que hoy es conocida como electricidad estática, que puede atraer objetos ligeros
como trozos de papel.
William Gilbert, un médico que vivió en Londres en la época de la reina Isabel I y de Shakespeare, estudió por medio
de su experimento de la "terrella", los fenómenos magnéticos y demostró que la propia tierra era un gigantesco imán. Pero
también estudió la atracción producida cuando se frotan materiales como el ámbar, la denominó atracción "eléctrica". De
esto proviene la palabra "electricidad" y todas sus derivadas.
Una propiedad que liga claramente a la materia con la electricidad, también descubierta a principios del siglo XIX, se
refiere a la disociación de compuestos químicos por corrientes eléctricas en un proceso conocido como electrólisis. Este
proceso fue descubierto accidentalmente en 1800 por William Nicholson y Antony Carlisle mientras estudiaban la operación
de baterías eléctricas. Utilizando gotas de agua para mejorar el contacto eléctrico de una batería, notaron que se producían
burbujas. Luego, al estudiar con más cuidado el fenómeno, se dieron cuenta de que cerca de la terminal negativa de la
batería el gas liberado era hidrógeno, mientras que en el lado positivo se producía oxígeno. Pronto se estudió la
disociación de otros compuestos utilizando este método. Uno de los trabajos más extensos realizados en este campo fue el
de sir Humphrey Davy, quien con la ayuda de la electrólisis descubrió los elementos sodio y potasio al someter ciertas
soluciones salinas a la acción de corrientes eléctricas. La primera interpretación aceptable de esta fenomenología fue
desarrollada por el célebre Michael Faraday en la década de 1830. Nacido en 1791, el joven Faraday trabajó como
encuadernador de libros, mismos que aprovechaba para educarse. En 1812, lleno de inquietudes, Faraday concursó por

Ciclo Lectivo 2013 Página 2 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
una plaza de ayudante en el laboratorio de Davy, quien quedó tan impresionado que lo contrató inmediatamente.
Diecinueve años más tarde, Faraday lo sustituyó como director del laboratorio. En sus experimentos, Faraday encontró que
los productos de la electrólisis siempre aparecían en una proporción fija. Por ejemplo, al pasar una corriente eléctrica por
una muestra de agua, se obtienen ocho partes de oxígeno por una de hidrógeno. También observó que una carga eléctrica
fija cedida en la electrólisis producía cantidades constantes de elementos disociados. Faraday denominó iones a los
productos de la disociación y, más específicamente, aniones y cationes según si éstos eran colectados en la vecindad del
ánodo —la terminal positiva— o del cátodo —terminal negativa—. Esta nomenclatura se utiliza hoy todavía. Faraday, de
acuerdo con la teoría atómica, dedujo que debería existir una cantidad irreducible de carga. Durante el siglo XIX se hizo
evidente que la carga eléctrica tenía una unidad natural que no se podía subdividir más, y en 1891 Johnstone Stoney le
propuso el nombre de "electrón".
Descargas a través de gases
El fenómeno eléctrico más espectacular es el de las descargas entre nubes (los rayos), que originalmente era
asociado al estado de ánimo de algunas deidades; fue Benjamín Franklin el primero en demostrar su naturaleza eléctrica
en su famoso experimento con cometas de papel. Sin embargo, los rayos resultaron demasiado esporádicos e
incontrolables como para permitir su estudio sistemático. Las descargas eléctricas a través de gases habían sido
observadas en el laboratorio por Francis Hauskbee quien, en 1709, reportó la aparición de una luz extraña cuando
electrificaba un recipiente de vidrio que contenía aire a baja presión. Otros estudiosos del fenómeno fueron William
Watson, quien en 1748 notó la aparición de flamas en la zona de vacío de sus barómetros de mercurio, y Michael Faraday,
quien en 1838 realizó experimentos con descargas eléctricas a través de gases enrarecidos. La conducción eléctrica a
través de gases intrigó a Faraday, ya que incluso los gases que eran considerados como aislantes, cuando eran
enrarecidos, propiciaban fácilmente ese tipo de descargas. ¿Sería posible la conducción eléctrica en el vacío? En tal caso,
se podría estudiar directamente la naturaleza del fluido eléctrico.
Los rayos catódicos
Antes de que se lograra dar respuesta a esta pregunta, debieron desarrollarse tres técnicas experimentales
fundamentales: una bomba de vacío eficiente, un sello metal-vidrio que permitiera transmitir el potencial eléctrico a los
electrodos dentro de la zona evacuada y la bobina de inducción para obtener las enormes diferencias de potencial
requeridas. La necesidad de este tipo de cambios se aprecia mejor si se considera que Faraday utilizaba un tubo de vidrio
tapado en ambos extremos por corchos a través de los cuales hacía pasar alambres para conectar los electrodos internos
a una batería.
Las primeras bombas de vacío funcionaban con pistones ajustados a sus respectivos cilindros a través de empaques
que sellaban muy mal. No fue sino hasta 1855 que Johann Heinrich Geissler inventó en Bonn, Alemania, una bomba que
utilizaba columnas de mercurio como pistones, y que eliminaba así los empaques. De este modo, se lograron obtener
presiones de una diezmilésima de atmósfera. Simultáneamente, el mismo Geissler desarrolló nuevos tipos de vidrio cuyos
coeficientes de dilatación eran iguales a los de algunos metales, con lo que permitió pasar alambres a través de vidrio
fundido sin peligro de que se formaran fracturas por las que se perdiera el vacío.
Otra mejora indispensable fue la obtención de grandes diferencias de potencial eléctrico. En este sentido, la
contribución de otro alemán, Heinrich Daniel Ruhmkorff, fue importante. Como ya se mencionó, los primeros experimentos
con tubos de descarga obtenían sus voltajes de baterías enormes conectadas en serie. Ruhmkorff modificó la bobina de
inducción para obtener algo parecido a las bobinas de los automóviles actuales, con las que se producen descargas de
miles de voltios a partir de una batería de menos de diez voltios.
Con estos avances, en 1858 el profesor alemán Julius Plucker estudió la conducción de electricidad a través de
gases a muy baja presión utilizando un tubo de vidrio en el que colocó dos placas metálicas en la parte interior de los
extremos. Tal como se había observado antes para un vacío pobre, Plucker vio cómo se iluminaba todo el tubo al aplicar
electricidad a las placas. Sin embargo, cuando casi todo el gas era evacuado notó que esa luz desaparecía quedando tan
sólo un resplandor verdoso en el vidrio cercano a la zona de la placa conectada a la terminal positiva de su fuente de
electricidad (el ánodo); la imagen luminosa no dependía mucho de la posición de ese electrodo. Más bien, parecía como si
la luminosidad en esa zona fuera producida por algún tipo de rayos emitidos por la placa conectada al cátodo, y que
viajaban de una placa a la otra a través del vacío. Plucker también
observó que la posición de la imagen luminosa podía ser
modificada si se acercaba un imán a la zona del ánodo. Un alumno
de Plucker, J. W. Hittorf, encontró que al interponer objetos entre el
cátodo y el ánodo se producían sombras en la imagen luminosa,
A la bomba de vacio
con lo que reforzó la idea del origen catódico para esos rayos. El
nombre de rayos catódicos fue introducido años después por el
Generador c.c 10.000 V investigador alemán Eugen Goldstein, quien además demostró
que las propiedades de esos rayos no dependían del material de
que estuviera hecho el cátodo.
Una de las primeras teorías sobre la naturaleza de los rayos catódicos fue propuesta por el inglés William Crookes,
quien sugirió que se podía tratar de moléculas de gas, cargadas eléctricamente en el cátodo y, posteriormente, repelidas
violentamente por la acción del campo eléctrico. Goldstein puso en duda esta hipótesis basado en la gran penetrabilidad
que demostraban tener los rayos catódicos, lo cual había sido interpretado por el físico alemán Heinrich Hertz como una
indicación de que, en lugar de partículas, los rayos catódicos serían ondas electromagnéticas tal como él mismo había

Ciclo Lectivo 2013 Página 3 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
demostrado que era la luz. Sin embargo, en 1895 el físico francés Jean Baptiste Perrin encontró que los rayos catódicos
depositaban carga en un electroscopio, con lo que confirmó que se trataba de partículas cargadas. Fue por aquellas fechas
que el inglés Joseph John Thomson se interesó en medir la velocidad de dichas partículas.
Thomson y el electrón
Las primeras determinaciones que se realizaron sobre los rayos catódicos fueron para
determinar exactamente su naturaleza, trayectoria, signo de la carga y velocidad. Para ello
se recurrió a diferentes tubos de descarga con varias configuraciones internas. Para
determinar su trayectoria Thomson colocó como ánodo una cruz de malta en el interior del
tubo de descarga y detrás de la misma una pantalla fluorescente; de esta manera, si la
trayectoria de los rayos era rectilínea debía aparecer una sombra definida en la pantalla,
mientras que en caso de no ser así no se observaría dicha imagen. Al conectarse el tubo se
observó una imagen neta de la cruz de malta: los rayos catódicos tenían trayectoria
rectilínea.
Luego se determinó su naturaleza: se buscó provocar el movimiento de un
molinillo colocado en la trayectoria de los rayos de manera que si eran de
naturaleza corpuscular el impacto de las partículas debía justamente girar las
paletas, mientras que si eran de naturaleza ondulatoria no se observaría este
efecto. El resultado de la experiencia (se observó girar el obstáculo) permitió
concluir que los rayos catódicos tenían naturaleza material.
La determinación del signo de la carga
de los rayos catódicos se realizó colocando
una pantalla internamente paralela a la trayectoria de manera que un haz dibujara una
línea fluorescente, La misma se afectaba por un campo eléctrico trasversal a la misma
de manera que pudiera observarse el desvío de la trayectoria hacia uno de los polos del
campo eléctrico. La prueba mostró una desviación hacia el polo positivo, lo que
determinaba un signo negativo para la partícula catódica.
Para medir la velocidad de los rayos catódicos, Thomson los
hacía pasar por la combinación de un campo eléctrico y uno magnético,
producidos por un par de placas conectadas a una batería y por un par
de electroimanes, respectivamente . Tanto la fuerza eléctrica como la
magnética ejercidas sobre las supuestas partículas eran directamente
proporcionales a la relación entre su carga y su masa. Sin embargo, la
fuerza magnética depende, además, de la velocidad. Con este principio, Thomson ajustaba ambos campos para
compensar con el segundo la deflección ocasionada por el primero. En estas condiciones, conocer el cociente de los
campos era medir la velocidad. Como información adicional, el experimento permitía medir la relación entre la carga y la
masa de las partículas en cuestión. Esta relacion c/m arrojó un valor de 1,78 X 10 12 colulomb/kg.
Los resultados del trabajo de Thomson indicaban que la velocidad de los rayos con los que él trabajaba era,
aproximadamente, diez veces menor que la de la luz. Sin embargo, lo que más llamó su atención es que la relación
carga/masa obtenida era mil veces mayor que la esperada para iones. Este resultado sugería que, si los rayos catódicos
tenían algún origen atómico, se trataba de partículas (los electrones) mil veces más ligeras que el átomo de hidrógeno.
Estas partículas resultaron ser los electrones.
Estrictamente, el que la masa del electrón fuese mil veces menor que la del átomo que lo contenía era sólo una de
las posibles interpretaciones, que dependía de suponer que la carga del electrón era igual a la unidad electrolítica de
carga. Fue entonces necesario determinar experimentalmente, y en forma independiente, la carga y/o la masa del electrón.
Carga y masa del electrón
Los primeros experimentos tendientes a determinar la carga del electrón fueron motivados por el descubrimiento de
un alumno de Thomson, Charles Thomson Rees Wilson, en el sentido de que los iones podían servir como semillas de
condensación de gotas en las nubes. La fascinación de Wilson por los fenómenos ópticos producidos por la luz del sol al
pasar por las nubes, lo motivaron a estudiar en el laboratorio la producción de atmósferas gaseosas. Antes que Wilson,
Coulier y Aitken habían descubierto un método para producir nubes al expandir una cámara que contuviera una atmósfera
húmeda. Siguiendo este método, en 1894 Wilson encontró que, en ausencia de polvo, se podía lograr una atmósfera
supersaturada de humedad libre de gotas. La producción de gotas sólo se producía si se rebasaba cierto límite de
saturación, o bien si se provocaba algún tipo de ionización de las moléculas del medio. Aparentemente, cada ion atrapaba
a las moléculas libres para formar gotas. En 1895, cuando Roentgen descubrió los rayos X, J. J. Thomson propuso a
Wilson estudiar el efecto de esos rayos sobre medios supersaturados con su cámara de expansión, y se encontró que esos
rayos eran altamente ionizantes. Poco tiempo después, con el descubrimiento de la radiactividad, vio que ésta era capaz
de producir gotas en la cámara. La cámara de Wilson fue esencial en el descubrimiento de algunas de las partículas
elementales, motivo por el cual recibió el Premio Nobel de física en 1927.
Thomson y otros de sus colegas, J. S. E. Townsend y H. A. Wilson, cada uno por su cuenta, diseñaron métodos para
medir la masa de las gotitas que se formaban alrededor de cada ion. Townsend, por ejemplo, separaba el líquido de las
gotitas que se formaban alrededor de iones, midiendo la carga total. La masa de cada gotita era deducida de la velocidad

Ciclo Lectivo 2013 Página 4 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
de caída bajo la acción conjunta de la gravedad y la viscosidad del aire. La masa total del líquido dividido por la masa de
cada gotita determinaba el número de gotitas acumuladas, y la carga total dividida por el número de gotitas daba la carga
de cada gotita. En el supuesto de que cada gotita creció alrededor de un ion, la carga de cada gotita sería la carga del ion.
Y ya que este tipo de ionización se puede asociar con la pérdida de un electrón por parte de una molécula, la carga del ion
es de la misma magnitud que la del electrón perdido, puesto que la molécula no ionizada es eléctricamente neutra. El
método de Thomson utilizaba medidas de conductividad eléctrica y térmica de la nube gaseosa para determinar la masa
líquida, mientras que H. A. Wilson mejoró el método de Townsend al incluir un campo eléctrico variable, paralelo al
gravitacional, que permitía una medida más directa de la carga de cada gotita. Sus resultados, publicados
independientemente entre 1897 y 1903, indicaban que la carga iónica era del orden de l0 -19 coulombs.
Las medidas del grupo de Thomson, a pesar de ser bastante cercanas
al valor aceptado actualmente (1.6021 X 10 -19 coulomb), fueron vistas con
desconfianza y abrieron el camino para medidas más precisas. En 1906, el
físico norteamericano Robert Andrews Millikan atacó el problema repitiendo
las medidas de H. A. Wilson con la ayuda de Harvey Fletcher, entonces
estudiante de doctorado. Pronto se dieron cuenta que la masa de las gotitas
variaba rápidamente debido a la evaporación. Para minimizar este efecto
empezaron a utilizar gotitas de aceite. Otro cambio importante fue que, en
lugar de observar el comportamiento global, Millikan se concentró en el
comportamiento de gotas individuales al ser expuestas al efecto combinado
de la gravedad y el campo eléctrico a la manera de Wilson. Los resultados
mostraron que, si bien la carga inicial de cada gotita observada era enorme comparada con lo reportado por Thomson y su
grupo, ésta fluctuaba de una a otra (para la misma gotita) en pasos discretos. Pronto se dieron cuenta de que estas
diferencias eran múltiplos pequeños de una misma carga, aparentemente debidas a la pérdida o ganancia de algunos
electrones por interacción con el medio en su trayecto. Luego de un simple análisis estadístico, esto los llevó a deducir
1.592 X l0-19 coulombs como la carga del electrón, que se denota comúnmente con la letra e. Millikan recibió el Premio
Nobel en 1923 por este trabajo.
Una vez determinada la carga del electrón, su masa pudo ser deducida utilizando la relación carga/masa medida por
Thomson, que dio como resultado 9 X 10 -31 kg y la masa del ion de hidrógeno a partir de la relación carga/masa deducida
en electrólisis, que dio 1.66 X 10 -27 kg. Es decir, la masa del electrón es casi 1/2000 de la del átomo que lo contiene. Un
cálculo aritmético simple también permitió a Thomson deducir que las dimensiones de un átomo son del orden de 10 -10
metros.
Modelo atómico de Thomsom o modelo del budín con pasas.
Según el modelo de Thomson el átomo consistía en una esfera uniforme de materia
cargada positivamente en la que se hallaban incrustados los electrones de un modo parecido a
como lo están las pasas de uva en el interior de un budín. Este sencillo modelo explicaba el
hecho de que la materia fuese eléctricamente neutra, pues en los átomos de Thomson la carga
positiva era neutralizada por la negativa. Además los electrones podrían ser arrancados de la
esfera si la energía en juego era suficientemente importante como sucedía en los tubos de
descarga.
Experiencia de Rutherford. Modelo atómico planetario
El experimento de Rutherford rectificó el modelo atómico de Thomson (modelo del
Budín). Su experimento consistió, en primer lugar, en obtener un haz de partículas
alfa de una fuente con polonio, el cual se desintegra fácilmente emitiendo
partículas alfa. Para obtener un rayo de dichas
partículas, se colocó el polonio en una caja de plomo,
el cual es un buen absorbente de partículas
radioactivas. Esta caja de plomo detiene todas las
partículas, menos las que salen por el orificio.
Luego se colocaron láminas delgadas de oro en el
recorrido de los rayos alfa, para poder observar cómo
las láminas de metal afectan la trayectoria de dichos
rayos. Según Thompson, las partículas tendrían poca posibilidad de desviarse, pero Rutherford
observó que algunas partículas se desviaban hacia la fuente de polonio.
Rutherford concluyó que el hecho de que la mayoría de las partículas atravesaran la
hoja metálica, indica que gran parte del átomo está vacío y que la desviación de las partículas
alfa, indica que el deflector y las partículas poseen una carga igualmente positiva, pues la
desviación siempre es dispersa. El rebote de las partículas indica un encuentro directo con una zona fuertemente positiva
del átomo y a la vez muy densa.
El modelo atómico de Rutherford mantenía el planteamiento de Thompson, de que los átomos poseen cargas
eléctricas positivas y negativas en su interior, pero su explicación sostenía que todo átomo estaba formado por núcleo y
corteza, habiendo un espacio vacío entre ellos. También afirmaba que en el núcleo se encontraban reunidas todas las
cargas positivas y casi toda la masa y que a su alrededor giran los electrones, describiendo órbitas circulares o elípticas.
Ciclo Lectivo 2013 Página 5 Prof. Hernán Morozóvich
E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
Según Rutherford, las órbitas de los electrones no estaban muy bien definidas y formaban una estructura compleja
alrededor del núcleo, dándole un tamaño y forma indefinida. También calculó que el radio del átomo, según su modelo, era
diez mil veces mayor que el núcleo mismo, lo que implicaba un gran espacio vacío en el átomo.
Contradicciones del modelo atómico planetario
La falla del modelo de Rutherford radica en el planteamiento de que toda partícula eléctrica, separada de su posición
de equilibrio, vibra con una frecuencia determinada, originando la emisión de una onda electromagnética. Esta vibración
disminuye cuando pierde energía, hasta quedar en reposo, por lo que la fuerza centrífuga se anula, ocasionando un
choque entre el electrón y el núcleo. Otra falla se encontró mas adelante, ya que al determinar el núcleo atómico formado
nada mas que de protones, no se tenía en cuenta la repulsión entre cargas de igual signo, con una fuerza terriblemente
grande por ser las dimensiones nucleares tan pequeñas; al mismo tiempo, no se explicaba la existencia de variedades
isotópicas de un mismo elemento, ya que no se conocían aún los neutrones.
Cuantización del átomo. Modelo atómico de Bohr.
Para corregir los problemas que aún mostraba el modelo atómico planetario, Niels Bohr propuso el siguiente basado
en los cuantos energéticos de Planck. (La Física Cuántica comenzó con el desarrollo de una teoría revolucionaria (aunque
al principio no fue tomada en serio ni por su autor) desarrollada por el gran físico y matemático Max Planck; esta teoría
pretendía explicar el espectro de radiaciones de un cuerpo negro y resolver así el problema de la Catástrofe ultravioleta
(teoría clásica de la radiación), Max Planck hizo dos hipótesis transcendentales:
 La radiación en un cuerpo negro depende de la frecuencia de las ondas.
 La energía está discretizada en unas cantidades mínimas a las que llamó cuantos (quantum).
La constante de Planck, simbolizada con la letra h, es una constante física usada para describir el nivel de energía
de los cuantos en fórmulas como la ecuación de Schrödinger. Desempeña un papel central en la teoría de la mecánica
cuántica y recibe su nombre de su descubridor, Max Planck, uno de los padres de dicha teoría. La constante de Planck
también es utilizada al medir la energía de los fotones, tal como en la ecuación E=hν, donde E es la energía, h es la
constante de Planck, y ν es la frecuencia de la onda lumínica. La constante de Planck se utiliza para describir la
cuantización, un fenómeno que ocurre en las partículas elementales subatómicas como electrones y fotones en los cuales
ciertas propiedades físicas ocurren en cantidades fijas, en lugar de tomar un rango continuo de posibles valores.)
Se basó en el átomo de hidrógeno para realizar el modelo que lleva su nombre. Bohr intentaba realizar un modelo
atómico capaz de explicar la estabilidad de la materia y los espectros de emisión y absorción discretos que se observan en
los gases. Describió el átomo de hidrógeno con un protón en el núcleo, y girando a su alrededor un electrón. Debido a su
simplicidad el modelo de Bohr es todavía utilizado frecuentemente como una simplificación de la estructura de la materia.
En este modelo los electrones giran en órbitas circulares alrededor del núcleo, ocupando la órbita de menor energía
posible, o sea la órbita más cercana al núcleo posible. El electromagnetismo clásico predecía que una partícula cargada
moviéndose de forma circular emitiría energía por lo que los electrones deberían colapsar sobre el núcleo en breves
instantes de tiempo. Para superar este problema Bohr supuso que los electrones solamente se podían mover en órbitas
específicas, cada una de las cuales caracterizada por su nivel energético. Cada órbita puede entonces identificarse
mediante un número entero n que toma valores desde 1 en adelante. Este número "n" recibe el nombre de Número
Cuántico Principal.
Bohr supuso además que el momento angular de cada electrón estaba cuantizado y sólo podía variar en fracciones
enteras de la constante de Planck. De acuerdo al número cuántico principal calculó las distancias a las cuales se hallaba
del núcleo cada una de las órbitas permitidas en el átomo de hidrógeno. Estos niveles en un principio estaban clasificados
por letras que empezaban en la "K" y terminaban en la "Q". Posteriormente los niveles electrónicos se ordenaron por
números. Cada órbita tiene electrones con distintos niveles de energía obtenida que después se tiene que liberar y por esa
razón el electrón va saltando de una órbita a otra hasta llegar a una que tenga el espacio y nivel adecuado, dependiendo
de la energía que posea, para liberarse sin problema y de nuevo volver a su órbita de origen.
El modelo atómico de Bohr constituyó una de las bases fundamentales de la mecánica cuántica. Explicaba la
estabilidad de la materia y las características principales del espectro de emisión del hidrógeno. Sin embargo no explicaba
el espectro de estructura fina que podría ser explicado algunos años más tarde gracias al modelo atómico de Sommerfeld.
Históricamente el desarrollo del modelo atómico de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin
Schrödinger descubrir la ecuación fundamental de la mecánica cuántica.
Postulados de Bohr.
En 1913 Niels Bohr desarrolló su célebre modelo atómico de acuerdo a cuatro postulados fundamentales:
1. Los electrones orbitan el átomo en niveles discretos y
cuantizados de energía, es decir, no todas las órbitas están
permitidas, tan sólo un número finito de éstas.
2. Los electrones pueden saltar de un nivel electrónico a otro
sin pasar por estados intermedios.
3. El salto de un electrón de un nivel cuántico a otro implica la
emisión o absorción de un único cuanto de luz (fotón) cuya energía
corresponde a la diferencia de energía entre ambas órbitas.

Ciclo Lectivo 2013 Página 6 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
4. Las órbitas permitidas tienen valores discretos o cuantizados del momento angular orbital L de acuerdo con la
siguiente ecuación:

Donde n = 1,2,3,… es el número cuántico angular o número cuántico principal.


La cuarta hipótesis asume que el valor mínimo de n es 1. Este valor corresponde a un mínimo radio de la órbita del
electrón de 0.0529 nm. A esta distancia se le denomina radio de Bohr. Un electrón en este nivel fundamental no puede
descender a niveles inferiores emitiendo energía.
Fallos del modelo de Böhr.
El modelo de Böhr permitió explicar adecuadamente el espectro del átomo de hidrógeno,
pero fallaba al intentar aplicarlo a átomos polielectrónicos y al intentar justificar el enlace
químico. Además, los postulados de Böhr suponían una mezcla un tanto confusa de
mecánica clásica y mecánica cuántica..
Correcciones al modelo de Böhr: números cuánticos.
En el modelo original de Böhr, se precisa un único parámetro (el número cuántico principal,
n), que se relaciona con el radio de la órbita circular que el electrón realiza alrededor del
núcleo, y también con la energía total del electrón. Los valores que puede tomar este
número cuántico son los enteros positivos: 1, 2, 3... Sin embargo, pronto fue necesario
modificar el modelo para adaptarlo a los nuevos datos experimentales, con lo que se
introdujeron otros tres números cuánticos para caracterizar al electrón:
a. número cuántico secundario o azimutal (l)
b. número cuántico magnético (m)
c. número cuántico de espín (s)
s = 1/2
n=1 l=0 m=0
s = - 1/2 a. Número cuántico secundario o azimutal (l): (corrección de Sommerfeld.): En 1916,
Sommerfeld modificó el modelo de Böhr considerando que las órbitas del electrón no eran
s = 1/2
l=0 m=0 necesariamente circulares, sino que también eran posibles órbitas elípticas; esta
s = -1/2
modificación exige disponer de dos parámetros para caracterizar al electrón. Una elipse
s = 1/2
m = -1 viene definida por dos parámetros, que son los valores de sus semiejes mayor y menor. En
s = -1/2
n=2 el caso de que ambos semiejes sean iguales, la elipse se convierte en una circunferencia.
s = 1/2
l=1 m=0 Así, introducimos el número cuántico secundario o azimutal (l), cuyos valores permitidos
s = -1/2
son: l = 0, 1, 2, ..., n – 1. Por ejemplo, si n = 3, los valores que puede tomar l serán: 0, 1, 2.
s = 1/2
m=1
s = -1/2 b. Número cuántico magnético (m): Indica las posibles orientaciones en el espacio que
n = 3 l = 0 m = 0 s = 1/2 puede adoptar la órbita del electrón cuando éste es sometido a un campo magnético
s = -1/2 externo (efecto Zeemann). Valores permitidos: - l, ..., 0, ..., + l. Por ejemplo, si el número
s = 1/2 cuántico secundario vale l = 2, los valores permitidos para m serán: -2, -1, 0, 1, 2. (El efecto
m = -1
s = -1/2 Zeeman se debe a que cualquier carga eléctrica en movimiento crea un campo magnético;
s = 1/2 por lo tanto, también el electrón lo crea, así que deberá sufrir la influencia de cualquier
l=1 m=0
s = -1/2 campo magnético externo que se le aplique.)
s = 1/2 c. Número cuántico de spín(s): Indica el sentido de giro del electrón en torno a su
m=1
s = -1/2 propio eje. Puede tomar sólo dos valores: +1/2, -1/2.
s = 1/2
m = -2 Modelo atómico ondulatorio - Dualidad corpúsculo-onda: hipótesis de Louis de
s = -1/2 Broglie.
s = 1/2
m = -1 Tradicionalmente, los electrones se han considerado como partículas, y por tanto un
s = -1/2
s = 1/2 haz de electrones sería algo claramente distinto de una onda. Louis de Broglie propuso
l=2 m=0
s = -1/2 (1923) eliminar esta distinción: un haz de partículas y una onda son esencialmente el
s = 1/2 mismo fenómeno; simplemente, dependiendo del experimento que realicemos,
m=1
s = -1/2 observaremos un haz de partículas u observaremos una onda. Así, el electrón posee una
s = 1/2 longitud de onda (que es un parámetro totalmente característico de las ondas) que viene
m=2 dada por la siguiente
s = -1/2
expresión:
Esta idea, que en un principio era una simple
propuesta teórica, fue confirmada experimentalmente en
1927, cuando se consiguió que haces de electrones
experimentasen un fenómeno muy característico de las
ondas: la distorsión de la onda al atravesar una rendija
muy estrecha (difracción).
Principio de indeterminación de Heisenberg.

Ciclo Lectivo 2013 Página 7 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
Establece que es imposible conocer simultáneamente la posición y la velocidad del electrón, y por tanto es imposible
determinar su trayectoria. Cuanto mayor sea la exactitud con que se conozca la posición, mayor será el error en la
velocidad, y viceversa. Solamente es posible determinar la probabilidad de que el electrón se encuentre en una región
determinada. Podemos entender mejor este Principio si pensamos en lo que sería la medida de la posición y velocidad de
un electrón: para realizar la medida (para poder "ver" de algún modo el electrón) es necesario que un fotón de luz choque
con el electrón, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el
experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy
perfectos que sean nuestros instrumentos.
Este Principio, enunciado en 1927, supone un cambio básico en nuestra forma de estudiar la Naturaleza, ya que se
pasa de un conocimiento teóricamente exacto (o al menos, que en teoría podría llegar a ser exacto con el tiempo) a un
conocimiento basado sólo en probabilidades y en la imposibilidad teórica de superar nunca un cierto nivel de error.
Modelo atómico de la mecánica cuántica: ecuación de Schrödinger.

La Mecánica Cuántica (1927) engloba la hipótesis de Louis de Broglie y el Principio de indeterminación de


Heisenberg. El carácter ondulatorio del electrón se aplica definiendo una función de ondas, y, y utilizando una ecuación de
ondas, que matemáticamente es una ecuación diferencial de segundo grado, es decir, una ecuación en la cual intervienen
derivadas segundas de la función y:
Al resolver la ecuación diferencial, se obtiene que la función y depende de una serie de parámetros, que se
corresponden con los números cuánticos, tal y como se han definido en el modelo de Böhr. La ecuación sólo se cumplirá
cuando esos parámetros tomen determinados valores permitidos (los mismos valores que se han indicado antes para el
modelo de Böhr). El cuadrado de la función de ondas, y 2, corresponde a la probabilidad de encontrar al electrón en una
región determinada, con lo cual se está introduciendo en el modelo el Principio de Heisenberg. Por ello, en este modelo
aparece el concepto de orbital: región del espacio en la que hay una máxima probabilidad de encontrar al electrón. (No
debe confundirse el concepto de orbital con el de órbita, que corresponde al modelo de Böhr: una órbita es una trayectoria
perfectamente definida que sigue el electrón, y por tanto es un concepto muy alejado de la mecánica probabilística.)
Números cuánticos.
En este modelo atómico, se utilizan los mismos números cuánticos que en el modelo de Böhr y con los mismos
valores permitidos, pero cambia su significado físico, puesto que ahora hay que utilizar el concepto de orbital:
Números cuánticos Significado físico Valores Permitidos
Energía total del electrón (nivel energético en que se encuentra el electrón)
principal (n) 1, 2, 3, ....
Distancia del electrón al núcleo.
Subnivel energético en donde está el electrón, dentro del nivel
determinado por n.
secundario o azimutal Forma del orbital:
0,1,2,3, … , n-1
(l) l = 0: orbital s (esférico)
l = 1: orbital p (bilobulado) (un orbital p en la dirección de cada eje coordenado: px, py, pz)
 l = 2: orbital d
magnético (m) Orientación del orbital cuando se aplica un campo magnético externo. -l, …, 0, …, +l
espín (s) Sentido de giro del electrón en torno a su propio eje. ± 1/2
Así, cada conjunto de cuatro números cuánticos caracteriza a un electrón:
 n determina el nivel energético
 l determina el subnivel energético
 m determina el orbital concreto dentro de ese subnivel
 s determina el electrón concreto dentro de los que pueden alojarse en cada orbital (puede haber dos electrones en
cada orbital).
Esto se refleja en el Principio de exclusión de Pauli (1925): en un átomo no puede haber dos electrones que
tengan los cuatro números cuánticos iguales, al menos se tendrán que diferenciar en uno de ellos.
Descubrimiento del protón
El protón fue descubierto en 1918 por Ernest Rutherford. Éste descubrió que si bombardeaba gas nitrógeno con
partículas alfa, sus detectores de centelleo mostraban datos de núcleos de hidrógeno. Rutherford determinó que el único
Ciclo Lectivo 2013 Página 8 Prof. Hernán Morozóvich
E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
lugar del cual este hidrógeno pudo haber venido era del nitrógeno, y, consecuentemente, el nitrógeno debe contener
núcleos de hidrógeno. Asimismo, él sugirió que el núcleo de hidrógeno, del cual se sabía que debía tener 1 como número
atómico, era una partícula elemental. Lo llamó protón (en griego protós, , significa primero) es una partícula
subatómica con una carga eléctrica de una unidad fundamental positiva (1,602 x 10 –19 culombios) y una masa de 938,3
MeV/c2 (1,6726 × 10–27 kg) o, del mismo modo, unas 1836 veces la masa de un electrón. Experimentalmente, se observa el
protón como estable, con un límite inferior en su vida media de unos 1035 años, aunque algunas teorías predicen que el
protón puede desintegrarse. El protón y el neutrón, en conjunto, se conocen como nucleones, ya que conforman el núcleo
de los átomos.
El núcleo del isótopo más común del átomo de hidrógeno (también el átomo estable más simple posible) es un único
protón. Los núcleos de otros átomos están compuestos de nucleones unidos por la fuerza nuclear fuerte. Debido a que la
fuerza electromagnética es muchos órdenes de magnitud más fuerte que la fuerza gravitatoria, la carga del protón debe ser
opuesta e igual (en valor absoluto) a la carga del electrón; en caso contrario, la repulsión neta de tener un exceso de carga
positiva o negativa causaría un efecto expansivo sensible en el universo, y, asimismo, en cualquier cúmulo de materia
(planetas, estrellas, etc.). En química y bioquímica, el término protón puede referirse al ion de hidrógeno (H+). En este
contexto, un emisor de protones es un ácido, y un receptor de protones una base. Esta especie, H+, es inestable en
solución, por lo que siempre se encuentra unida a otros átomos. En soluciones acuosas forma el ion hidronio (H3O+), donde
el protón está unido de forma covalente a una molécula de agua. En este caso se dice que se encuentra hidratado, pero
también pueden existir especies de hidratación superior.
Descubrimiento del neutrón
En 1930, en Alemania, Walther Bothe y H. Becker descubrieron que si las partículas alfa del polonio, dotadas de una
gran energía, caían sobre materiales livianos, específicamente berilio, boro o litio, se producía una radiación
particularmente penetrante. En un primer momento se pensó que eran rayos gamma, aunque estos eran más penetrantes
que todos los rayos gammas hasta ese entonces conocidos, y los detalles de los resultados experimentales eran difíciles
de interpretar sobre estas bases. En 1932, en París, Irène Joliot-Curie y Frédéric Joliot mostraron que esta radiación
desconocida, al golpear parafina u otros compuestos que contenían hidrógeno, producía protones a una alta energía. Eso
no era inconsistente con la suposición de que eran rayos gammas de la radiación, pero un detallado análisis cuantitativo de
los datos hizo difícil conciliar la ya mencionada hipótesis. Finalmente (a fines de 1932) el físico James Chadwick, en
Inglaterra, realizó una serie de experimentos que mostraron como la hipótesis de los rayos gammas fuese insostenible. Él
sugirió que la nueva radiación consistía en partículas sin carga con masa aproximadamente igual a la de los protones, y
continuó con otra serie de experimentos para demostrar su hipótesis. Forma, junto con los protones, los núcleos atómicos.
Fuera del núcleo atómico es inestable y tiene una vida media de unos 15 minutos emitiendo un electrón y un antineutrino
para convertirse en un protón. Su masa es muy similar a la del protón.
Algunas de sus propiedades:
 Masa: mn = 1,672x10-27 Kg
 Vida media: tn = 886,7 ± 1,9 s
 Carga eléctrica: qn = (-0,4 ± 1.1) x 10-21 e
El neutrón es necesario para la estabilidad de casi todos los núcleos atómicos (la única excepción es el hidrógeno),
ya que interactúa fuertemente atrayéndose con electrones y protones, pero no se repele con ninguno, como sí lo hacen los
protones, que se atraen nuclearmente pero se repelen electrostáticamente.
Nº atómico y nº másico
Actualmente se acepta que la constitución interna del átomo está formada por un núcleo – que contiene
prácticamente toda la masa del átomo – compuesto por protones y neutrones, rodeado por una nube de electrones
estructurados en orbitales o niveles probabilísticos y sus correspondientes subniveles, ordenados según los valores que
adopten para cada partícula los cuatro números cuánticos, el principio de exclusión, el principio de incertidumbre y la regla
de Hund ( esta última indica que no se puede completar una orientación con todos los electrones que la misma admita
hasta que en cada orientación del subnivel se ubique un electrón, con sus spines paralelos ).
Si bien existen una muy gran cantidad de partículas – vectores intermedios, neutrinos, muones, tauones, etc. – para
una identificación elemental solo alcanza con las tres principales. De esta manera se pueden definir dos propiedades que
identifican cada clase de elemento: el número atómico, Z, que es la cantidad de electrones o protones que posee cada
átomo en su estado fundamental; mientras que el número másico, A, contabiliza la cantidad de protones y neutrones que
dicho átomo posee en su núcleo.
Con estos dos valores cada átomo elemental queda identificado de la siguiente manera: en posición
A
Z X superior izquierda al símbolo elemental se coloca el valor que tiene dicho elemento de número másico,
mientras que en posición inferior izquierda se coloca el valor correspondiente a número atómico ( tal como se
muestra en la figura). De esta forma, un átomo de hidrógeno que posee 1 protón en su núcleo y 1 electrón
girando alrededor de éste se identifica como 11H, mientras que un átomo de oxígeno, con 8 protones y 8 neutrones en su
núcleo y 8 electrones rodeando al mismo, se identifica de la siguiente manera: 168 O.
Configuración electrónica por niveles cuánticos.
Como ya se ha mencionado, los electrones del átomo giran en torno al núcleo en unas
órbitas determinadas por los números cuánticos:

Ciclo Lectivo 2013 Página 9 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
1) El número cuántico principal, n, determina el tamaño de las órbitas, por tanto, la distancia al núcleo de un electrón
vendrá determinada por este número cuántico. Todas las órbitas con el mismo número cuántico principal forman una capa.
Su valor puede ser cualquier número natural mayor que 0 (1, 2, 3...) y dependiendo de su valor, cada capa recibe como
designación una letra. Si el número cuántico principal es 1, la capa se denomina K, si 2 L, si 3 M, si 4 N, si 5 P, etc.
2) El número cuántico azimutal, l, determina la excentricidad de la órbita, cuanto mayor
sea, más excéntrica será, es decir, más aplanada será la elipse que recorre el electrón. Su valor
depende del número cuántico principal n, pudiendo variar desde 0 hasta una unidad menos que
éste(desde 0 hasta n-1). Así, en la capa K, como n vale 1, l sólo puede tomar el valor 0,
correspondiente a una órbita circular. En la capa M, en la que n toma el valor de 3, l tomará los valores
de 0, 1 y 2, el primero correspondiente a una órbita circular y los segundos a órbitas cada vez más
excéntricas.
3) El número cuántico magnético, ml, determina la orientación espacial
de las órbitas, de las elipses. Su valor dependerá del número de elipses
existente y varía desde -l hasta l, pasando por el valor 0. Así, si el valor de l
es 2, las órbitas podrán tener 5 orientaciones en el espacio, con los valores de m -2, -1, 0, 1 y 2. Si
el número cuántico azimutal es 1, existen tres orientaciones posible (-1, 0 y 1), mientras que si es
0, sólo hay una posible orientación espacial, correspondiente al valor de m 0.
n l m orbital El conjunto de estos tres números cuánticos determinan la forma y
1 0 0 (1,0,0) orientación de la órbita que describe el electrón y que se denomina orbital.
2 0 0 (2,0,0) Según el número cuántico azimutal (l), el orbital recibe un nombre distinto.
1 -1 (2,1,-1)
0 (2,1,0)
cuando l = 0, se llama orbital s; si vale 1, se denomina orbital p, cuando 2 d,
1 (2,1,1) si su valor es 3, se denomina orbital f, si 4 g, y así sucesivamente. Pero no todas las capa tienen el
3 0 0 (3,0,0) mismo número de orbitales, el número de orbitales depende de la capa y, por tanto, del número
1 -1 (3,1,-1) cuántico n. Así, en la capa K, como n = 1, l sólo puede tomar el valor 0 (desde 0 hasta n-1, que es 0)
0 (3,1,0) y m también valdrá 0 (su valor varía desde -l hasta l, que en este caso valen ambos 0), así que sólo
1 (3,1,1)
2 -2 (3,2,-2)
hay un orbital s, de valores de números cuánticos (1,0,0). En la capa M, en la que n toma el valor 3.
-1 (3,2,-1) El valor de l puede ser 0, 1 y 2. En el primer caso (l = 0), m tomará el valor 0, habrá un orbital s; en el
0 (3,2,0) segundo caso (l = 1), m podrá tomar los valores -1, 0 y 1 y existirán 3 orbitales p; en el caso final (l =
1 (3,2,1) 2) m tomará los valores -2, -1, 0, 1 y 2, por lo que hay 5 orbitales d. En general, habrá en cada capa
2 (3,2,2) n2 orbitales, el primero s, 3 serán p, 5 d, 7 f, etc.
4)Cada electrón, en un orbital, gira sobre si mismo. Este giro puede ser en el mismo sentido
que el de su movimiento orbital o en sentido contrario. Este hecho se determina mediante un
nuevo número cuántico, el número cuántico spin s, que puede tomar dos valores, 1/2 y -1/2.
Según el principio de exclusión de Pauli, en un átomo no pueden existir dos electrones con
los cuatro números cuánticos iguales, así que en cada orbital sólo podrán colocarse dos electrones (correspondientes a los
valores de s 1/2 y -1/2) y en cada capa podrán situarse 2n2 electrones (dos en cada orbital).
Llenado de orbitales
s p d f
1 1s Aunque en un átomo existen infinitos orbitales (el valor de n no está
2 2s
2p limitado), no se llenan todos con electrones, estos sólo ocupan los
3 3s
3p 3d orbitales (dos electrones por orbital, a lo sumo) con menor energía,
4 4s
4p 4d 4f energía que puede conocerse, aproximadamente, por la regla de Auf-
5 5s
5p 5d 5f Bau, regla nemotécnica que permite determinar el orden de llenado de
6 6s
6p 6d los orbitales de la mayoría de los átomos. Según esta regla, siguiendo
7 7s
7p
las diagonales de la tabla de la derecha, de arriba abajo, se obtiene el
orden de energía de los orbitales y su orden, consecuentemente, su orden de llenado.
Como en cada capa hay 1 orbital s, en la primera columna se podrán colocar 2 electrones. Al existir 3 orbitales p, en
la segunda columna pueden colocarse hasta 6 electrones (dos por orbital). Como hay 5 orbitales d, en la tercera columna
se colocan un máximo de 10 electrones y en la última columna, al haber 7 orbitales f, caben 14 electrones. De la misma
forma se pueden calcular también la máxima cantidad de electrones por nivel u orbital, coincidente con la expresión 2n 2,
con los siguientes resultados: el primer nivel admite hasta 2 e -, el segundo hasta 8 e-, el tercero hasta 18 e-, el cuarto hasta
32 e-, etc.
A modo de ejemplo podemos realizar la configuración electrónica del Níquel:
Ni: Z=28: 1s2 2s2 2p6 3s2 3p6 4s2 3d8
La cantidad de electrones en cada subnivel se indica como un superíndice ( RECORDAR QUE NO SE TRATA DE
EXPONENTES) y luego se los representa de la siguiente manera:
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
↑ ↑
↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
1s 2s 2p 3s 3p 4s 3d

L ECTURA PARA ANÁLISIS .

Ciclo Lectivo 2013 Página 10 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
Radiactividad
La radiactividad o radioactividad es un fenómeno físico natural, por el cual algunas sustancias o elementos químicos
llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas fotográficas, ionizar gases, producir
fluorescencia, atravesar cuerpos opacos a la luz ordinaria, etc.
Debido a esa capacidad se las suele denominar radiaciones
ionizantes (en contraste con las no ionizantes). Las radiaciones
emitidas pueden ser electromagnéticas en forma de rayos X o rayos
gamma, o bien par-tículas, como pueden ser núcleos de Helio,
electrones o positrones, protones u otras. La radiactividad es una
propiedad de los isótopos que son "inestables". Es decir que se
mantienen en un estado excitado en sus capas electrónicas o
nucleares, con lo que para alcanzar su estado fundamental deben
perder energía. Lo hacen en emisiones electromagnéticas o en
emisiones de partículas con una determinada energía cinética. Esto
se produce variando la energía de sus electrones (emitiendo Rayos
X), sus nucleones (rayo gamma) o variando el isótopo (al emitir
neutrones, protones o partículas más pesadas), y en varios pasos
sucesivos, con lo que un isótopo pesado puede terminar
convirtiéndose en uno mucho más ligero, como el uranio que con el El color indica el periodo de semidesintegraci de los isopos
transcurrir de los siglos acaba convirtiéndose en plomo. Es radiactivos conocidos, tambi 駭 llamado HY
aprovechada para la obtención de energía, usada en medicina PERLINK "http://es.wikipedia.org/wiki/Semivida" \o "Semivida" se
(radioterapia y radiodiagnóstico) y en aplicaciones industriales mivida yv
ida media.
(medidas de espesores y densidades entre otras). La radiactividad
puede ser:
 Natural: Manifestada por los isótopos que se encuentran en la naturaleza.
 Artificial o inducida: Manifestada por radioisótopos producidos en transformaciones artificiales.
Radiactividad natural
En 1896 Becquerel descubrió que ciertas sales de uranio emitían radiaciones
espontáneamente, al observar que velaban las placas fotográficas envueltas en papel negro.
Hizo ensayos con el mineral en caliente, en frío, pulverizado, disuelto en ácidos y la intensidad
de la misteriosa radiación era siempre la misma. Por tanto, esta nueva propiedad de la
materia, que recibió el nombre de radiactividad, no dependía de la forma física o química en la
que se encontraban los átomos del cuerpo radiactivo, sino que era una propiedad que radicaba
Símbolo utilizado tradicional- en el interior mismo del átomo. El estudio del nuevo fenómeno y su desarrollo posterior se
mente para indicar la presencia
de radiactividad, adoptado por la debe casi exclusivamente a los esposos Curie, quienes encontraron otras sustancias
ISO en 2007 para fuentes que radiactivas como el torio, polonio y radio. La intensidad de la radiación emitida era proporcional
puedan resultar peligrosas.
Estandard ISO #21482 a la cantidad de uranio presente, por lo que dedujo Marie Curie que la radiactividad era una
propiedad atómica. El fenómeno de la radiactividad se origina exclusivamente en el núcleo de
los átomos radiactivos. Se cree que la causa que lo origina es debida a la interacción neutrón-protón del mismo. Al estudiar
la radiación emitida por el radio se comprobó que era compleja, pues al aplicarle un campo magnético parte de ella se
desviaba de su trayectoria y otra parte no. Procede de las materias existentes en todo el universo, y puede ser radiación
visible (como por ejemplo la luz), o invisible (por ejemplo los rayos ultravioleta). Esta radiación, procede de las radiaciones
cósmicas del espacio exterior (Sol y estrellas), pues ellos son gigantescos reactores nucleares, aunque lejanos; también
proceden estas radiaciones de los elementos naturales radiactivos (uranio, torio, radio) que existen de forma natural en el
aire, agua, alimentos, o el propio cuerpo humano (potasio, carbono-14). Esta radiación natural, es del orden del 88% de la
radiación total recibida por el ser humano, clasificándose de la siguiente manera:
- Radiación cósmica: 15%
- Radiación de alimentos, bebidas, etc.: 17%
- Radiación de elementos naturales: 56%
Radiactividad artificial
Se produce la radiactividad inducida cuando se bombardean ciertos núcleos estables con partículas apropiadas. Si
la energía de estas partículas tiene un valor adecuado penetran dentro del núcleo bombardeado y forman un nuevo núcleo
que, en caso de ser inestable, se desintegra después radiactivamente. Fue descubierta por los esposos Jean Frédéric
Joliot-Curie e Irène Joliot-Curie, bombardeando núcleos de boro y aluminio con partículas alfa . Observaron que las
sustancias bombardeadas emitían radiaciones después de retirar el cuerpo radiactivo emisor de las partículas a de
bombardeo. El estudio de la radiactividad permitió un mayor conocimiento de la estructura del núcleo atómico y de las
partículas subatómicas. Se abre la posibilidad de convertir unos elementos en otros. Incluso el sueño de los alquimistas de
transformar otros elementos en oro se hace realidad, aunque no resulte rentable.
Clases de radiación
Se comprobó que la radiación puede ser de tres clases diferentes:

Ciclo Lectivo 2013 Página 11 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
1)Radiación alfa: Son flujos de partículas cargadas positivamente compuestas por dos neutrones y dos protones
(núcleos de Helio). Son desviadas por campos eléctricos y magnéticos. Son poco penetrantes aunque muy ionizantes. Y
son muy energéticos.
2)Radiación beta: Son flujos de electrones (beta negativas) o positrones (beta positivas) resultantes de la
desintegración de los neutrones o protones del núcleo cuando este se encuentra en un estado excitado. Es desviada por
campos magnéticos. Es más penetrante aunque su poder de ionización no es tan elevado como el de las partículas alfa.
Por lo tan-to cuando un átomo expulsa una partícula beta aumenta o disminuye su número atómico una unidad (debido al
protón ganado o perdido).
3)Radiación gamma: Son ondas electromagnéticas. Es el tipo más penetrante de radiación. Al ser ondas elec-
tromagnéticas de longitud de onda corta, tienen mayor penetración y se necesitan capas muy gruesas de plomo u
hormigón para detenerlos.
Las leyes de desintegración radiactiva, descritas por Soddy y Fajans, son:
 Cuando un átomo radiactivo emite una partícula alfa, la masa del átomo resultante disminuye en 4 unidades y el
número atómico en 2.
 Cuando un átomo radiactivo emite una partícula beta, el número atómico aumenta en una unidad y la masa
atómica disminuye en una unidad.
 Cuando un núcleo excitado emite radiación gamma no varía ni su masa ni su número atómico, solo pierde una
cantidad de energía hv (donde "h" es la constante de Planck y "nu" es la frecuencia de la radiación emitida).
Las dos primeras leyes nos indican que cuando un átomo emite una radiación alfa o beta se transforma en otro
átomo de un elemento diferente. Este nuevo elemento puede ser radiactivo, transformándose en otro, y así sucesivamente,
dando lugar a las llamadas series radiactivas.
Periodo de semidesintegración radiactiva
Se llama constante de desintegración radiactiva (λ) a la constante de proporcionalidad entre el número de
desintegraciones por segundo y el número de átomos radiactivos (λ = A / N). Se llama vida media de un radioisótopo al
tiempo promedio de vida de un átomo radiactivo antes de desintegrarse. Es igual a la inversa de la constante de
desintegración radiactiva (τ = 1 / λ). Al tiempo que transcurre hasta que la cantidad de núcleos radiactivos de un isótopo
radiactivo se reduzca a la mitad de la cantidad inicial, se lo llama periodo de semidesintegración, período, semiperiodo,
semivida o vida mitad (T1 / 2 = ln(2) / λ). Al fin de cada período la radiactividad se reduce a la mitad de la radiactividad
inicial. Cada radioisótopo tiene un semiperiodo característico, en general diferente del de otros isótopos.
Velocidad de desintegración
La velocidad de desintegración o actividad radiactiva se Isótopo Periodo Emisión
mide en Bq, en el SI. Un becquerel vale 1 desintegración por Uranio-238 4510 millones de años Alfa
segundo. También existen otras unidades como el rutherford, Carbono-14 5730 años Beta
que equivale a 106 desintegraciones por segundo, o el curio, Cobalto-60 5,271 años Gamma
10
que equivale idénticamente a 3,7 · 10 desintegraciones por Radón-222 3,82 días Alfa
segundo (unidad basada en la actividad de 1g de Radio que es cercana a esa cantidad). La actividad radiactiva decrece
exponencialmente de acuerdo con la siguiente ecuación:

 At es la actividad radiactiva en el instante t


 A 0 es la actividad radiactiva inicial (cuando t = 0)
 e es la base de los logaritmos neperianos
 t es el tiempo transcurrido
 λ es la constante de desintegración radiactiva, que es propia de cada radioisótopo
Ley de la radiosensibilidad
La ley de la radiosensibilidad dice que los tejidos y órganos más sensibles a las radiaciones son los menos
diferenciados y los que exhiben alta actividad reproductiva. Como ejemplo, tenemos:
1. Tejidos altamente radiosensibles: epitelio intestinal, órganos reproductivos (ovarios, testículos), médula ósea
2. Tejidos medianamente radiosensibles: tejido conectivo
3. Tejidos altamente radioresistentes: neuronas, hueso
Consecuencias para la salud de la exposición a las radiaciones ionizantes
Los efectos de la radiactividad sobre la salud son complejos. Dependen de la dosis absorbida por el organismo.
Como no todas las radiaciones tienen la misma nocividad, se multiplica cada radiación absorbida por un coeficiente de
ponderación, para tener en cuenta las diferencias. Esto se llama dosis equivalente, que se mide en sieverts, ya que el
becquerel mide mal la peligrosidad de un elemento puesto que considera como idénticas los tres tipos de radiaciones (alfa,
beta y gamma). Una radiación alfa o beta es relativamente poco peligrosa fuera del cuerpo. En cambio, es
extremadamente peligrosa cuando se inhala. Por otro lado, las radiaciones gamma son siempre dañinas puesto que se las
neutraliza con dificultad.

Ciclo Lectivo 2013 Página 12 Prof. Hernán Morozóvich


E.T. Nº 24 – D.E. 17 3º año c.b. Temas de Química
Riesgos para la salud
El riesgo para la salud no sólo depende de la intensidad de la radiación y la duración de la exposición, sino también
del tipo de tejido afectado y de su capacidad de absorción, por ejemplo, los órganos reproductores son 20 veces más
sensibles que la piel.
Dosis aceptable de irradiación
En general se considera que el medio ambiente natural (alejado de cualquier fuente radiactiva) es inofensivo: emite
una radiación inferior a 0,00012 mSv/h o 0,012 mrem/h. Si se tiene que poner un umbral mínimo de inocuidad, la dosis se
vuelve peligrosa a corto plazo a partir de los 0,002 mSv/h o 0,2 mrem/h aunque, como en el caso de las radiografías, todo
depende del tiempo durante el cual se expone a la persona a las radiaciones. Las palabras clave son: “Tiempo, Blindaje,
Distancia”. Puede estar bajo una radiación con una dosis de 50 mSv/h sin arriesgar su vida si no está más de 5 s expuesto
a la fuente, puesto que la dosis recibida es muy débil. Por ejemplo, aquí se muestran las dosis actualmente toleradas en
los diferentes sectores de una central nuclear:
Zona Dosis Dosis máxima permitida
Zona azul de 0,0025 a 0,0075 mSv/h Se trata de una dosis acumulada, una exposición continua a las
radiaciones ionizantes durante un año que tiene en cuenta ciertos factores de
Zona verde de 0,0075 a 0,02 mSv/h ponderación. Hasta 1992 los valores variaban de un factor 4 entre Europa y
Zona Estados Unidos. Hoy estas dosis están estandarizadas y son periódicamente
de 0,02 a 2 mSv/h
amarilla revisadas, a la baja. La dosis acumulada de una fuente radiactiva artificial es
Zona peligrosa a partir de 500 mSv o 50 rem, donde se empiezan a notar los
de 2 a 100 mSv/h
naranja primeros síntomas de alteración sanguínea. ¡En 1992 la dosis máxima
Zona roja > 100 mSv/h permitida para una persona que trabajara bajo radiaciones ionizantes se fijaba
en 15 mSv sobre los 12 últimos meses en Europa (CERN e Inglaterra) y en 50
mSv sobre los 12 últimos meses en Estados Unidos! Desde agosto de 2003 la dosis máxima permitida ha pasado a 20
mSv sobre los 12 últimos meses. Recordemos de paso que en un escáner médico recibimos aproximadamente 150 mSv
en media jornada. ¡Estaríamos en una zona roja en una central nuclear! Para evitar todo síntoma de alteración sanguínea,
es mejor limitarse a un máximo de tres exámenes de este tipo por año.
Principales isótopos radiactivos

Ciclo Lectivo 2013 Página 13 Prof. Hernán Morozóvich


Plutonio 239Pu y 241Pu Yodo 129I, 131I y 133I Cloro 36Cl
Uranio 235U y 238U Antimonio 125Sb Carbono 14C
Curio 242Cm y 244Cm Rutenio 106Ru Tritio 3H
Americio 241Am Estroncio 90Sr Radón 222Rn
Torio 234Th Criptón 85Kr y 89Kr Polonio <210>Po
Radio 226Ra y 228Ra Selenio 75Se
Cesio 134Cs, 135Cs y 137Cs Cobalto 60Co

Actividades de Repaso.
1)Confeccionar una línea de tiempo con los descubrimientos e invenciones que generaron el desarrollo de
los diferentes modelos atómicos.
2)Averiguar cuales son las fuentes de radiación en tu casa y que cantidad de radiación emiten para
calcular el nivel de radiación que recibes.
3)Dar la configuración electrónica completa de los elementos con los primeros 20 números atómicos.

Potrebbero piacerti anche