Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Modelos
En las ciencias fácticas y particularmente en la física
19 de febrero de 2018
Introducción ________________________________________________________________ 1
Bibliografía ________________________________________________________________ 17
Introducción
La presente monografía tiene como intención, por un lado, estudiar la evolución de la utilización
de algunos modelos en la física y en las ciencias fácticas en general, y para ello se recurrirá a
breves reseñas históricas. Por otro lado se buscará caracterizar los distintos tipos de modelos
de uso corriente, a saber: los modelos de caja negra y de caja traslúcida, los cuales son
esenciales para las ciencias fácticas. Y por último se intentará abordar la cuestión de la
contrastación de modelos teóricos frente a sus referentes, los sistemas reales.
“Puede registrar y comprimir todos los hechos; en realidad la Ciencia es un enorme Registro”.
“Es un juego esotérico. Los que lo juegan establecen sus reglas y las cambian de vez en
cuando de un modo misterioso. Nadie sabe a qué juega ni con qué fin… la Ciencia, como el
lenguaje, es un Juego”.
“Es un hombre que medita y ayuna, tiene visiones, intenta probar que son erradas y no se
enorgullece cuando no lo consigue… la Ciencia es un Visionario Flagelante”.
Finalmente, un quinto sabio, supuesta encarnación del autor, diría que la ciencia “es mucho
más complicada que los modelos del Registro, el Calculador, el Juego o el Visionario
Flagelante”, aunque reconoce su deuda con todos ellos y espera salvarse de la ira de los
seguidores de credos sencillos, en blanco y negro, en los que se pueda creer con certeza.
Ahora, siguiendo el simbolismo del cuento de Bunge, se me ocurriría agregar, por qué no, otro
sabio al grupo de los anteriores, uno que opine que la ciencia:
Es un escultor perfeccionista pero minimalista, que pretende reproducir hasta las más
complicadas figuras, utilizando sólo los elementos más indispensables y la arcilla más noble;
La Ciencia es un Modelador Austero.
Y es que lo que este sabio intentaría evocar sería un aspecto crucial de la ciencia: el modelado
de sistemas reales. Sin embargo, una reproducción idéntica de un sistema concreto sería, en
muchas ocasiones, extremadamente complicado y tal vez incluso imposible: es por eso que
una tarea muy importante es la de seleccionar sólo aquellas variables que sean más relevantes
en relación al problema que se quiera abordar y que mejor lo representen a ese sistema real.
Así, para la labor de un físico resulta de vital importancia saber cómo y porqué se trabaja
diariamente con modelos representacionales y fenomenológicos. Y por supuesto, los modelos
1
no son solo vitales para el trabajo de un físico, sino que son también necesarios en el marco de
las demás ciencias fácticas, como la biología, la psicología, la sociología o la economía, puesto
que es a través del modelado teórico que las ciencias fácticas modernas construyen y
contrastan sus hipótesis y teorías frente a sistemas reales.
Conceptos preliminares
Los hechos (sucesos y procesos) de la realidad, que la ciencia pretende explicar, se dan en
sistemas en donde intervienen una enorme cantidad de variables, tanto internas como externas
al sistema. Para que la actividad científica consiga trascender los hechos se han de seleccionar
algunos elementos de esa realidad tan compleja (CUDMANI, JAÉN).
Metafísicamente, “modelo” puede designar al “modo de ser de las ideas o formas platónicas”.
Siendo el modelo de una realidad equivalente a esta realidad en su estado de perfección, el
modelo es aquello a lo que tiende toda realidad para ser plenamente sí misma, en vez de ser
una sombra, copia, disminución o desviación de lo que es.
Estéticamente, el vocablo “modelo” puede ser equiparado por un lado, a lo que un artista
intenta reproducir o tiene en su mente como un ideal al cual trata de acercarse lo más posible y
por otro lado, puede ser equiparado a una serie de valores que serían los modelos últimos de
toda realización estética.
Primero se debe aclarar una instancia aún más fundamental: ¿qué son los conceptos
científicos? Los conceptos son “los elementos últimos de todos los pensamientos” (FERRATER
MORA, PFÄNDER) o las “unidades del pensamiento” (CUDMANI, JAÉN). Los conceptos son los
ladrillos del conocimiento científico, la mínima entidad con significado. De su claridad, precisión
y de la comprensión compartida de sus significados por parte de quienes los usan, dependerá
en gran medida el rigor y la objetividad del marco teórico general al que pertenecen y la
posibilidad del consenso intersubjetivo.
2
Vale decir que el concepto científico no tiene necesariamente un referente fáctico. Cuando
aparece en un enunciado científico es necesario hacer una “traducción” que permita establecer
una correlación entre dicho enunciado y una situación real dada, pues, aún en el caso de que
el concepto tenga un referente empírico, no es equivalente a dicho referente.
Todo concepto se refiere a un objeto, ya sea este real, ideal, metafísico o axiológico, sin
embargo, el concepto no es el objeto, ni siquiera lo reproduce, sino que es simplemente su
correlato intencional (FERRATER MORA).
Las fuentes puntuales de luz, los puntos materiales, las cargas puntuales, los frentes de onda
planos, las ondas monocromáticas, los pulsos senoidales, los pulsos escalonados, los
orbitales, el átomo de Bohr, los gases ideales, los fluidos incompresibles, la materia continua o
las corrientes continuas, no existen en el universo físico y a pesar de esto, es a ellos a quienes
se aplican los enunciados científicos, y no a los objetos o al campo factual de donde fueron
abstraídos (CUDMANI, JAÉN).
Si los conceptos pueden ser "el contenido significativo de determinadas palabras", las palabras
no son los conceptos, mas únicamente los signos y los símbolos de las significaciones. Ello
queda en evidencia por el hecho de que hay o puede haber conceptos sin que existan las
palabras correspondientes, así como palabras o frases sin sentido, sin que correspondan a
ellas significaciones. También debe tenerse en cuenta que la palabra no es la única instancia
por la cual pueda mentarse un concepto; al lado de ella existen los números, los signos, los
símbolos de toda clase.
Un enunciado cualquiera está formulado mediante términos, vale decir, por unidades
lingüísticas. Pero no cualquier término designa un concepto y no cualquier concepto se refiere
a un rasgo de la realidad. Por consiguiente pueden distinguirse tres niveles de entidades:
3
Figura 1. Esquema ilustrativo de los distintos niveles de entidades. Se representan los niveles conceptual y concreto.
Mientras que los objetos materiales que nos rodean pertenecen al nivel concreto, los objetos
modelos, que son sus correlatos intencionales, pertenecen al nivel conceptual. El concepto de
objeto modelo ha sido usado y desarrollado con el fin de poner de relieve ciertos modos de
explicación de la realidad. Los modelos han sido empleados en todas las ciencias fácticas: en
la física, biología, psicología, sociología, etc., así, se ha hablado de modelos mecánicos de
movimiento, pero también de modelos conductistas o del comportamiento (FERRATER MORA).
Esta representación es siempre parcial y más o menos convencional. El objeto modelo pierde
ciertos rasgos de su referente, incluye elementos idealizados, sólo recupera las relaciones
entre los aspectos que incorpora de manera aproximada e ignora deliberadamente la mayor
parte de las variaciones individuales del objeto que representa.
4
A su vez, debe distinguirse entre un objeto modelo y una teoría específica, también llamada
“modelo teórico”, aun cuando ambos se hallan muy estrechamente relacionados, pues el
modelo para una teoría específica equivale a una interpretación de una teoría general. Un
modelo teorético es un sistema hipotético-deductivo concerniente a un objeto modelo, que es a
su vez una representación conceptual esquemática de una cosa o de una situación real o
supuesta real.
Por otro lado, se ha discutido en abundancia si los modelos tienen solamente un valor
heurístico para la construcción, uso o interpretación de teorías o si poseen un valor explicativo
que no se reduce a su utilidad. Es común distinguir hoy entre una explicación (teórica) en
sentido estricto y un modelo (el cual es un modo de ver una realidad o un proceso como si
tuvieran tales o cuales características). Ello supone dar al modelo un cierto valor heurístico,
pero no reducirlo al mismo, ya que ver una realidad o un proceso como si tuvieran tales o
cuales características es también explicar la realidad o el proceso en cuestión (FERRATER
MORA).
Por último, existen diferentes clases de modelos teóricos. En un extremo del espectro se
encuentra el modelo de caja negra, provisto solamente de terminales de entrada y salida, como
por ejemplo la óptica de rayos, la cinemática, la teoría de los circuitos eléctricos, o la
termodinámica, mientras que en el otro extremo se encuentra una caja llena de mecanismos
más o menos ocultos que sirven para explicar el comportamiento exterior de la caja, como la
óptica ondulatoria, la dinámica, la teoría de electromagnética de campos, o la mecánica
estadística.
Figura 2. Esquema que ilustra los diferencias entre los modelos de caja negra, semitraslúcida y traslúcida.
5
Las teorías de caja negra son aquellas cuyas variables son todas externas y globales, sea
directamente observables (como la forma y color de cuerpos perceptibles por ejemplo) o
indirectamente mensurables (como la temperatura y la diferencia de potencial). Las teorías de
caja traslúcida, por otra parte, contienen además referencias a procesos internos que se
describen por medio de variables indirectamente controlables, las cuales no ocurren en la
descripción de la experiencia ordinaria; ejemplos de tales construcciones hipotéticas son la
cantidad de movimiento lineal de un fotón, la fase de una onda o la amplitud de la función de
onda en la mecánica cuántica. Ninguno de estos conceptos puede manejarse de la misma
forma que las variables externas, si bien a menudo son objetivables de cierta manera, más o
menos complicada, que, habitualmente, coimplica alguna teoría sofisticada.
En pocas palabras, las teorías de caja negra se concentran en la conducta de los sistemas y,
particularmente, en sus entradas y salidas observables. Las teorías de caja traslúcida no
consideran la conducta como un algo último e inmediato, sino que intentan explicarla en
términos de la constitución y estructura de los sistemas concretos de los que se ocupa; a tal fin
introducen construcciones hipotéticas que establecen detallados vínculos entre los inputs y los
outputs observables.
Una teoría de caja negra puede proporcionar una explicación y predicción lógicamente
satisfactorias de un conjunto de datos, en el sentido de su derivación de la teoría y de la
información específica. Pero dejará de proporcionar lo que se llamaría una interpretación de los
mismos datos. Una interpretación tal en términos descriptivos se obtiene cuando se postula un
“mecanismo” y se asignan todos los parámetros a propiedades del mecanismo. El mecanismo
en el caso de la termodinámica serán las moléculas en incesante movimiento aleatorio y
colisión, en el caso de la óptica de rayos serán las ondas electromagnéticas y en el caso de la
cinemática serán las fuerzas que actúen sobre los cuerpos.
Siempre que aparece la necesidad de una nueva teoría en algún campo de la ciencia factual,
surge el problema de elegir la clase de teoría que debería plantearse a continuación. ¿Deberá
la siguiente tentativa ir en la dirección de creciente detalle y profundidad (crecimiento de
población de entidades teóricas)? ¿O deberá evitar la especulación en torno lo que sucede en
los más íntimos recovecos de la realidad y dirigir su atención, por otra parte, hacia el ajuste de
datos, con la sola ayuda de variables observables exclusivamente de modo directo? En otras
palabras la pregunta es ¿el modelo deberá ser representacional o fenomenológico, atomista o
6
globalista, concebirse como un cuadro más fiel de la realidad o sólo como un instrumento más
efectivo de resumir y predecir observaciones?
El procedimiento lógico natural, que no es sin embargo el de curso histórico por lo general,
sería comenzar por el objeto modelo más simple, agregarle después una estructura sencilla
(por ejemplo, mediante la división de “la caja” en dos partes) y proseguir este proceso de
complicación hasta llegar a explicar todo aquello que se desee. Vale aclarar que no es cuestión
de imitar los epiciclos de Ptolomeo para el movimiento de los astros: los mecanismos
hipotéticos deberían ser contrastables, proponiendo maneras de poner en evidencia la
aplicabilidad de los mecanismos propuestos (BUNGE, 1981).
Reseña histórica
Desde sus inicios, la ciencia ha tenido como dos de sus objetivos principales a la predicción de
fenómenos y a la descripción del mundo que nos rodea. Sin embargo, en los últimos cinco
siglos la ciencia ha buscado, cada vez más, poder enunciar y organizar hipótesis en sistemas
teóricos, que además sean fértiles para la derivación de nuevas hipótesis plausibles que
puedan contrastarse, que sean también capaces de explicar fenómenos reales
preferentemente mediante procesos o mecanismos, y que interrelacionen cada vez más áreas
del conocimiento.
Desde el año 1800 antes de nuestra era los babilonios se dedicaron a observar los cielos
desde los zigurats (templos con forma de torre o pirámide escalonada) y a formular augurios
que reunían en colecciones de tablillas cuneiformes. Cada uno de estos augurios consistía en
un enunciado que establecía una supuesta relación entre la posición de los astros o ciertos
fenómenos celestes y algún evento natural, social o político que, según creían, era predicho
por dicha particular configuración del firmamento (DE ASÚA).
En manos de sacerdotes especializados, este tipo de práctica generó una sólida tradición de
observación de la bóveda celeste, la astronomía mesopotámica propiamente dicha, que abarcó
aproximadamente los últimos tres siglos anteriores a nuestra era, fue la fase culminante de
esta tradición de un milenio y medio.
7
predecir la posición de un astro en términos de una función periódica no aspiraban a explicar ni
a dar cuenta de por qué sucedían las fenómenos celestes. Sin lugar a dudas se trataba de los
precursores de los modelos de caja negra que se reconocen actualmente.
A partir del siglo VI antes de nuestra era se desarrolló en Grecia un ideal de saber muy distinto
al de los pueblos mesopotámicos. Por un lado, los filósofos de la naturaleza de las ciudades de
Jonia comenzaron a especular acerca de las causas y el principio de todas las cosas. Por otro,
a diferencia de los matemáticos egipcios y babilonios que inventaron métodos particulares para
resolver problemas concretos, los geómetras griegos aspiraron a la demostración universal de
las propiedades de las figuras (DE ASÚA).
Muchos siglos después, en el siglo XVII de nuestra era, Descartes reemplaza la lógica
silogística aristotélica con la demostración matemática y Galileo es el primero en contrastar
empíricamente sus leyes cinemáticas para la caída libre (las cuales se desprenden
teóricamente de su hipótesis de aceleración constante) con sus experimentos acerca de
cuerpos que caen a lo largo de rampas.
En su libro “Dos nuevas ciencias”, Galileo estudia el movimiento de los cuerpos que caen
libremente y, para ello, primero construye un modelo matemático sencillo para describir el
movimiento con aceleración constante. En segundo lugar, establece la hipótesis de que ese es
el tipo de movimiento que tiene un cuerpo pesado cuando cae libremente. Luego, en tercer
lugar, deriva de esta hipótesis otros enunciados que sean contrastables y finalmente, utilizando
rampas con diferentes ángulos de inclinación, somete sus leyes de movimiento a la
contrastación experimental y consigue así soporte experimental para su hipótesis de
constancia de la aceleración en la caída libre (HOLTON).
Este hito resulta ser una de las primeras ocasiones en las que se utiliza un modelo para
representar un sistema concreto, implicando a su vez que es de las primeras ocasiones en las
que se seleccionan las variables relevantes en relación a un problema determinado. Y además
es una de las primeras contrastaciones experimentales de hipótesis registrada en la historia de
la ciencia, marcando así el inicio de la ciencia moderna.
Esta es una proeza inusitada en la historia de la ciencia, si se tiene en cuenta además que aún
las más cuidadosas observaciones de los fenómenos naturales no son en absoluto bases
suficientes para a formulación de una hipótesis, mucho menos aún de una teoría; diferentes
cuerpos que caen libremente en el aire no llegan evidentemente a la tierra en el mismo
8
instante: pero esto, al pensarlo más detenidamente, es menos importante que el hecho de que
lleguen casi al mismo tiempo (HOLTON).
Merece la pena, por su utilidad, prestar atención a este último punto, en que se dejan a un lado
las primeras impresiones, lo evidente, porque en él se considera la discrepancia de que los
tiempos de caída sean iguales, en lugar de como una pequeña desviación, explicable por la
circunstancia experimental del rozamiento del aire. Cuando fue inventada la bomba de vacío,
en 1650 por Otto von Guericke, la hipótesis de que todos los cuerpos caen con la misma
aceleración fue confirmada por la observación de que una pluma y una moneda, dentro de un
tubo de vidrio en el que se producía un vacío, caían en el mismo tiempo.
Es pertinente recordar el viejo dicho de que la ciencia ha crecido casi más por lo que ha sabido
ignorar que por lo que ha tomado en cuenta. En este caso particular, todo depende de ser
capaces de no tomar “en consideración” el efecto del aire en la caída libre. Esto es bastante
fácil para quienes conozcan las bombas de vacío, pero en aquel tiempo era conceptualmente
casi imposible por varias razones, algunas evidentes y otras muy sutiles, por ejemplo siendo
que el mismo Aristóteles había negado la posibilidad de que exista el vacío en la región
terrestre (HOLTON).
En su última obra Galileo escribe: “El porvenir conducirá a una ciencia más amplia y mejor, de
la cual nuestra labor no es sino el comienzo; espíritus más profundis que el mío explorarán los
rincones más oscuros de la ciencia”. Esta previsión efectivamente fue cumplida por Newton,
quien completa la construcción de la teoría de la mecánica clásica (PAPP).
Una célebre declaración de Newton es: “Si pude ver más lejos, es porque gigantes me elevaron
sobre sus espaldas. El físico inglés antepone a su obra definiciones y leyes axiomáticas; su
método es esencialmente hipotético-deductivo. Sin duda, sus leyes y definiciones estaban ya
en parte comprendidas en las investigaciones de Galileo y Huygens, sin embargo, él es el
primero en formularlas rigurosamente y en forjar con ellas los cimientos de la mecánica. Pues
ni Galileo ni Huygens pudieron discernir cuáles son las leyes y conceptos primordiales que
permiten la construcción de la teoría (PAPP).
Para sintetizar este proceso de progreso histórico que se llevó a cabo en las ciencias físicas
descrito anteriormente puede utilizarse el siguiente cuadro:
9
Período Actores Área del Breve
Tipo de modelo
histórico involucrados conocimiento comentario
De los primeros
s. XVIII a. n. e. Pueblos
Astronomía Caja negra modelos de caja
- s. III a. n. e. mesopotámicos
negra
Introduce el uso
Caja traslúcida
s. IV a. n. e. Aristóteles Cinemática de la lógica en
cualitativa
la ciencia
Primera
s. XVI Galileo Cinemática Caja negra contrastación
experimental
Primer sistema
s. XVII Newton Mecánica Caja traslúcida hipotético-
deductivo
Tabla 1. Síntesis de algunos modelos físicos utilizados históricamente.
Este florecimiento interdisciplinario puede situarse en torno a los años 1950. No se trató
simplemente del reemplazo de una teoría científica por otra, sino que fue más bien un esfuerzo
de teorización en campos hasta entonces incipientemente teóricos. Se trataba de una nueva
metodología, una nueva manera de trabajar, la que nació hacia 1950 en las ciencias fácticas no
físicas, como la sociología o la psicología. Se empieza por plantear problemas bien
circunscriptos y con claridad, de ser posible en lenguaje matemático; para resolverlos, se
avanza con hipótesis precisas; se producen datos empíricos a fin de contrastarlas; se examina
el peso de esos resultados, y el grado en que convalidan o refutan las hipótesis; en fin, se
discuten cuestiones metodológicas, y en ocasiones, incluso filosóficas planteadas por esos
procedimientos.
Actualmente, entre las distintas ciencias fácticas sólo hay diferencias de objeto, de técnicas
especializadas y de estadios de evolución, pues ahora son metodológicamente uniformes. No
10
es una fiscalización de la ciencia no positivista: no se trata de renunciar a estudiar procesos no
físicos o de intentar reducirlos a procesos físicos o químicos, sino de estudiarlos
científicamente y en profundidad. La importancia del proceso iniciado hacia 1950 recae en la
manera de abordar el estudio de los objetos no físicos, como los sociales y los psicológicos por
ejemplo (BUNGE, 1981).
Contrastación de modelos
El análisis de la realidad comienza por realizar idealizaciones. Para ello se identifican las
características comunes a un conjunto de individuos, agrupándolos en especies, es decir,
clases de equivalencia, eliminándose así de los rasgos individuales de los objetos.
Sin embargo, para introducir un objeto modelo en una teoría es necesario atribuirle
propiedades susceptibles de ser tratadas por la misma. El modelo conceptual ignorará muchos
de los rasgos del objeto que se estudia y lo separará de las características que lo
individualizan; pero esto es propio de la generalidad de la ciencia. La formación de cada
modelo comienza por simplificaciones y si un modelo dado carece de un detalle de interés,
será posible en principio complicarlo.
Por otra parte, un individuo concreto cualquiera podrá representarse de diversas maneras,
según los medios de los que se disponga y los fines de la representación.
Un objeto modelo servirá de poco a menos que se lo sumerja en un cuerpo de ideas en cuyo
seno puedan establecerse relaciones deductivas. Este cuerpo de ideas constituirá un modelo
teorético de una clase de individuos concretos. Se denominará también teoría específica a este
modelo teórico, y no es más que una teoría general enriquecida con un objeto modelo en
particular.
Como ejemplo puede mencionarse al modelo teórico de gases ideales: la teoría general en la
que está enmarcado este modelo es la mecánica estadística; el objeto modelo que se inserta
en esta teoría general es el modelo de gas ideal, el cual está construido a partir una serie de
supuestos determinados; y por último la teoría específica resultante es la teoría de los gases
ideales.
Son estos modelos teoréticos los que pueden someterse a contrastaciones empíricas: las
teorías generales, siendo indiferentes a las particularidades, permanecen, salvo que se
11
enriquezcan con modelos de sus referentes, incontrastables, y los objetos modelos estériles, a
menos que se introduzcan o desarrollen dentro de alguna teoría (BUNGE, 1981).
Figura 3. Ilustración que representa la relación entre una teoría específica y un sistema real, su correlato intencional.
Sin embargo, todo modelo teorético es parcial y aproximativo: no capta sino una parte de las
particularidades del objeto representado. Por esta razón, tarde o temprano, se encontrará con
un problema que no pueda resolver, ya sea una laguna en el cuerpo teórico, un fenómeno que
contradiga la teoría, o algún otro. Sin embargo estas crisis empujarán el desarrollo de nuevos
objetos modelos, o de nuevas teorías generales.
Un problema de especial interés emerge ante la luz de evidencia que no apoye una teoría en
particular: ¿qué es lo que debería modificarse cuando una teoría falla: el objeto modelo, la
teoría general o la teoría específica?
Es por esta y otras razones que los sistemas teóricos requieren de un conjunto interrelacionado
de soportes experimentales para establecerse con un determinado grado de veracidad.
Múltiples hipótesis de menor nivel deben ser derivadas de una teoría general, y contrastadas
experimentalmente con suficiente grado de certeza; la teoría en cuestión también debería,
preferentemente, ser capaz de dar luz a nuevas hipótesis plausibles capaces de ser sujetas a
contrastación, o ser capaz de explicar lagunas en el corriente cuerpo de conocimiento.
Y es por estas mismas razones que luego se vuelve tan difícil y se encuentra tanta resistencia
a abandonar una teoría general, razonablemente establecida, a la luz de datos desfavorables.
Por ello, a veces suele recurrirse tanto como a modificar los objetos modelos con los que lidia
la teoría como a restringir el ámbito de aplicación de la misma.
12
Como caso de estudio de la evolución de los modelos se considerará la evolución de los
diferentes modelos atómicos utilizados en ciencia:
La primera teoría atómica data del siglo V antes de nuestra era, apoyada por Leucipo de Mileto
(480 a. n. e.-420 a. n. e.) y Demócrito de Abdera (c. 460 a. n. e.-370 a. n. e.), quien
particularmente sostenía que
Afirmaban que la materia estaba compuesta de partículas indivisibles llamadas átomos, del
griego ατομος, es decir, sin partes. Los átomos de Demócrito eran invisibles, pero para nada
abstractos, sino completamente reales, y en ese momento no había evidencia empírica sobre
su existencia.
Por otro lado se oponía Aristóteles (380 a. n. e.-320 a. n. e.), sosteniendo que la materia podía
dividirse indefinidamente. Esto era coherente pues Aristóteles, al negar la posibilidad del vacío,
no podía aceptar que entre átomo y átomo no hubiera nada.
Ambas creencias se mantuvieron en equilibrio a lo largo de los siglos. Los alquimistas, Galileo,
Newton, los hombres de la Revolución Científica y los físicos del siglo XVIII que estudiaban los
gases se inclinaban por las interpretaciones atomistas. Mientras que Descartes y los
cartesianos sostuvieron la continuidad e infinita indivisibilidad de la materia.
Antoine Lavoisier (1743-1794), quien sentó las bases de la química moderna, decía:
“Respecto de esos simples e indivisibles átomos de los cuales toda la materia está compuesta,
es muy probable que nunca sepamos nada sobre ellos”.
El panorama era negativo respecto de obtener pruebas acerca de la existencia de los átomos.
A pesar de esto, John Dalton (1766-1844) reflexionaba sobre el hecho de que si un compuesto
contenía dos elementos en la proporción de cuatro a uno, por ejemplo, éste siempre iba a
mantener esas proporciones, sin importar cuánta cantidad de ese compuesto se tuviera.
Además involucraban números enteros, como Louis-Joseph Proust (1754-1826) pudo
demostrar pesando compuestos cuidadosamente.
Dalton llegó a la conclusión de que este fenómeno era una prueba de la existencia de los
átomos y en 1808 dio a conocer sus ideas en su Nuevo Sistema de Filosofía Química, basadas
en cuatro supuestos:
• Los átomos son indestructibles y preservan su identidad, las reacciones químicas implican un
cambio en la distribución de los átomos.
13
Aun en 1860, los químicos entendían a los átomos como entidades abstractas, convenientes
para calcular proporciones y compuestos, sin ninguna prueba concreta. Además el arraigado
sesgo por la simplicidad les impedía aceptar que a cada uno de los elementos le
correspondiera un átomo distinto.
Afortunadamente, William Prout (1785-1850) observó que los pesos atómicos de casi todos los
elementos se aproximaban a números enteros y se le ocurrió que, de alguna manera, todos los
átomos eran conglomerados de átomos de hidrógeno.
Y así fue como se empezó a percibir similitudes y regularidades entre distintos elementos. John
Dóbereiner identificó, en 1829, triadas de elementos con ciertas propiedades. Alexandre Emile
Béguyer de Chancourtois diseñó en 1862 una manera de organizar los elementos a intervalos
regulares en función de su peso atómico, según sus propiedades físicas y químicas, dispuestos
en el llamado “tornillo telúrico”. Dos años más tarde, John Newlands elaboró su propio patrón
mediante la llamada “ley de las octavas”.
Finalmente Dimitri Ivanovich Mendeleiev (1834-1907) descubrió que cuando se listaban los
elementos por orden de pesos atómicos, sus propiedades se repetían en una serie de
intervalos periódicos. Su trabajo fue publicado con el título “Una propuesta para un sistema de
los elementos”. Predijo mediante su tabla periódica la existencia de nuevos elementos y sus
propiedades; donde no había un elemento que encajara en el patrón, dejaba un espacio vacío
a la espera de que algún día se descubriera ese elemento en la naturaleza.
La empiria confirmó sus predicciones: en 1875 se descubrió el galio y cinco años después el
germanio, cuyas propiedades coincidían con las anunciadas por Mendeleiev. Mendeleiev había
mostrado cómo se ordenaban los elementos, pero ¿por qué ocurría esto?
En 1897, estudiando los rayos catódicos, John Thomson (1856-1940) descubrió lo que el físico
alemán Joseph Goldstein había llamado electrón y, cuando midió su masa, encontró que era
extraordinariamente pequeña. Postuló entonces que los electrones eran parte de los átomos:
“La suposición de que exista un estado de la materia más finamente dividido que el átomo es
en cierto modo sorprendente”.
Thomson propuso un modelo atómico de “budín con pasas”: una extensión de materia más o
menos tenue, cargada positivamente, con electrones incrustados, resultando un átomo
eléctricamente neutro
En 1908, Ernest Rutherford (1871-1937), quien trabajó un tiempo junto a Thomson, bombardeó
con partículas una delgada lámina de oro y observó su dispersión. La mayoría sufría pequeñas
14
desviaciones, pero, de tanto en tanto, algunas partículas se desviaban en ángulos grandes,
llegando incluso a volver para atrás.
Por otro lado, bombardeando nitrógeno con partículas α, Rutherford había conseguido obtener
oxígeno. Había cambiado el número de protones de un átomo.
A pesar de estos descubrimientos, este modelo era inestable, ya que según las leyes de
Maxwell, una carga eléctrica acelerada emite radiación, perdiendo energía, por lo que el átomo
de Rutherford colapsaría irremediablemente.
Por fortuna Niels Bohr (1885-1962), siguiendo los pasos de Planck y Einstein, elaboró en 1913
una nueva teoría atómica, añadiendo el postulado de que los electrones no radían cuando se
encuentran en ciertas órbitas prefijadas, constituyéndose así distintos niveles de energía
discretos a los que tiene acceso un electrón.
Más aún, utilizando el modelo de Bohr era posible explicar las series de Balmer, Lyman,
Paschen, Brackett y Pfund, interpretándolas dentro del marco de la teoría cuántica antigua. En
particular, la serie de Balmer se conocía desde 1885, y se trataba de una expresión para el
número de onda de las líneas del espectro visible del átomo de hidrógeno.
15
Consideraciones finales
¿Por qué es importante discutir la naturaleza de los modelos utilizados en las ciencias fácticas
y caracterizarlos? Pues porque podría decirse en pocas palabras que la labor de un físico, y de
los científicos en general, es modelar la realidad. Pero un físico o un científico no sólo
construyen modelos, sino que también se ocupan de lidiar con las intrincadas relaciones entre
los mismos modelos y entre los modelos y la realidad que intentan representar.
El físico intenta aprehender a la realidad en un puño, la escudriña hasta llegar a su núcleo más
básico y ejecuta las simplificaciones que sean necesarias en el proceso; aunque esto signifique
trabajar únicamente con lo que ahora es una idealización de un objeto en concreto.
En particular creo que en la medida en que mejor se aprenda mejor a manejar y aplicar estos
objetos modelos, y las teorías que los engloban, se tendrá capacidad cada vez mayor para
apresar a la realidad y describirla con un cada vez más grande e inusitado grado de detalle y
complejidad.
16
Bibliografía
Bunge Mario. (1978). La ciencia, su método y su filosofía. Buenos Aires, Argentina: Ediciones
Siglo Veinte.
Bunge Mario. (1981). Teoría y realidad. Barcelona, España: Editorial Ariel, S.A.
Ferrater Mora, José. (1981). Diccionario de filosofía. Buenos Aires, Argentina: Editorial
Sudamericana.
Papp Desiderio (1961). Historia de la Física. Madrid, España: Editorial Espasa - Calpe.
Leonardo Moledo. Historia de las ideas científicas El triunfo de los átomos en el siglo XIX.
Buenos Aires, Argentina: Página 12.
17