Sei sulla pagina 1di 19

Una monografía sobre

Modelos
En las ciencias fácticas y particularmente en la física

Álvaro Tomás Concha Álvarez Prado

19 de febrero de 2018

Prof. Mirta Jaén

Epistemología e Historia de la Física


Departamento de Física, Facultad de Ciencias Exactas y Tecnología
Universidad Nacional de Tucumán
Tucumán, Argentina
Índice Página:

Introducción ________________________________________________________________ 1

Conceptos preliminares _______________________________________________________ 2

Modelos de caja negra y de caja traslúcida ________________________________________ 5

Reseña histórica ____________________________________________________________ 7

Contrastación de modelos ____________________________________________________ 11

Consideraciones finales ______________________________________________________ 16

Bibliografía ________________________________________________________________ 17
Introducción

La presente monografía tiene como intención, por un lado, estudiar la evolución de la utilización
de algunos modelos en la física y en las ciencias fácticas en general, y para ello se recurrirá a
breves reseñas históricas. Por otro lado se buscará caracterizar los distintos tipos de modelos
de uso corriente, a saber: los modelos de caja negra y de caja traslúcida, los cuales son
esenciales para las ciencias fácticas. Y por último se intentará abordar la cuestión de la
contrastación de modelos teóricos frente a sus referentes, los sistemas reales.

Para comenzar se citará un cuento extraído de la introducción de “La investigación científica”


de Mario Bunge. Al comienzo de esa obra el autor relata, mediante una pictórica alegoría, qué
es lo que piensan acerca de la ciencia cinco sabios de un reino imaginario. Ellos dirían que la
ciencia:

“Puede registrar y comprimir todos los hechos; en realidad la Ciencia es un enorme Registro”.

“No es un registrador pasivo sino un atareado molino de información: absorbe toneladas de


datos en bruto y los elabora y presenta en orden… la Ciencia es un enorme Calculador”.

“Es un juego esotérico. Los que lo juegan establecen sus reglas y las cambian de vez en
cuando de un modo misterioso. Nadie sabe a qué juega ni con qué fin… la Ciencia, como el
lenguaje, es un Juego”.

“Es un hombre que medita y ayuna, tiene visiones, intenta probar que son erradas y no se
enorgullece cuando no lo consigue… la Ciencia es un Visionario Flagelante”.

Finalmente, un quinto sabio, supuesta encarnación del autor, diría que la ciencia “es mucho
más complicada que los modelos del Registro, el Calculador, el Juego o el Visionario
Flagelante”, aunque reconoce su deuda con todos ellos y espera salvarse de la ira de los
seguidores de credos sencillos, en blanco y negro, en los que se pueda creer con certeza.

Ahora, siguiendo el simbolismo del cuento de Bunge, se me ocurriría agregar, por qué no, otro
sabio al grupo de los anteriores, uno que opine que la ciencia:

Es un escultor perfeccionista pero minimalista, que pretende reproducir hasta las más
complicadas figuras, utilizando sólo los elementos más indispensables y la arcilla más noble;
La Ciencia es un Modelador Austero.

Y es que lo que este sabio intentaría evocar sería un aspecto crucial de la ciencia: el modelado
de sistemas reales. Sin embargo, una reproducción idéntica de un sistema concreto sería, en
muchas ocasiones, extremadamente complicado y tal vez incluso imposible: es por eso que
una tarea muy importante es la de seleccionar sólo aquellas variables que sean más relevantes
en relación al problema que se quiera abordar y que mejor lo representen a ese sistema real.

Así, para la labor de un físico resulta de vital importancia saber cómo y porqué se trabaja
diariamente con modelos representacionales y fenomenológicos. Y por supuesto, los modelos

1
no son solo vitales para el trabajo de un físico, sino que son también necesarios en el marco de
las demás ciencias fácticas, como la biología, la psicología, la sociología o la economía, puesto
que es a través del modelado teórico que las ciencias fácticas modernas construyen y
contrastan sus hipótesis y teorías frente a sistemas reales.

Conceptos preliminares

Los hechos (sucesos y procesos) de la realidad, que la ciencia pretende explicar, se dan en
sistemas en donde intervienen una enorme cantidad de variables, tanto internas como externas
al sistema. Para que la actividad científica consiga trascender los hechos se han de seleccionar
algunos elementos de esa realidad tan compleja (CUDMANI, JAÉN).

En este proceso de selección de variables relevantes es que se construye un modelo, el cual


es un concepto transversal en las ciencias fácticas, pero ¿a qué se refiere uno cuando utiliza la
palabra modelo? Vale decir que el vocablo “modelo” posee diferentes acepciones de acuerdo al
contexto en que se lo utilice, que no deben confundirse:

Metafísicamente, “modelo” puede designar al “modo de ser de las ideas o formas platónicas”.
Siendo el modelo de una realidad equivalente a esta realidad en su estado de perfección, el
modelo es aquello a lo que tiende toda realidad para ser plenamente sí misma, en vez de ser
una sombra, copia, disminución o desviación de lo que es.

Estéticamente, el vocablo “modelo” puede ser equiparado por un lado, a lo que un artista
intenta reproducir o tiene en su mente como un ideal al cual trata de acercarse lo más posible y
por otro lado, puede ser equiparado a una serie de valores que serían los modelos últimos de
toda realización estética.

Éticamente, “modelo” designa aquella persona que por su comportamiento y hasta


simplemente por su modo de ser ejerce una atracción sobre otras personas. En general se
refiere a una "personalidad moral" (FERRATER MORA).

A su vez, en el marco de las ciencias fácticas y de la epistemología se pueden distinguir dos


significados para la palabra modelo: el modelo entendido como “objeto modelo” que es un
concepto científico y el modelo entendido como “modelo teórico” que es un sistema teorético
equipado con un objeto modelo.

Primero se debe aclarar una instancia aún más fundamental: ¿qué son los conceptos
científicos? Los conceptos son “los elementos últimos de todos los pensamientos” (FERRATER
MORA, PFÄNDER) o las “unidades del pensamiento” (CUDMANI, JAÉN). Los conceptos son los
ladrillos del conocimiento científico, la mínima entidad con significado. De su claridad, precisión
y de la comprensión compartida de sus significados por parte de quienes los usan, dependerá
en gran medida el rigor y la objetividad del marco teórico general al que pertenecen y la
posibilidad del consenso intersubjetivo.

2
Vale decir que el concepto científico no tiene necesariamente un referente fáctico. Cuando
aparece en un enunciado científico es necesario hacer una “traducción” que permita establecer
una correlación entre dicho enunciado y una situación real dada, pues, aún en el caso de que
el concepto tenga un referente empírico, no es equivalente a dicho referente.

Todo concepto se refiere a un objeto, ya sea este real, ideal, metafísico o axiológico, sin
embargo, el concepto no es el objeto, ni siquiera lo reproduce, sino que es simplemente su
correlato intencional (FERRATER MORA).

Las fuentes puntuales de luz, los puntos materiales, las cargas puntuales, los frentes de onda
planos, las ondas monocromáticas, los pulsos senoidales, los pulsos escalonados, los
orbitales, el átomo de Bohr, los gases ideales, los fluidos incompresibles, la materia continua o
las corrientes continuas, no existen en el universo físico y a pesar de esto, es a ellos a quienes
se aplican los enunciados científicos, y no a los objetos o al campo factual de donde fueron
abstraídos (CUDMANI, JAÉN).

Si los conceptos pueden ser "el contenido significativo de determinadas palabras", las palabras
no son los conceptos, mas únicamente los signos y los símbolos de las significaciones. Ello
queda en evidencia por el hecho de que hay o puede haber conceptos sin que existan las
palabras correspondientes, así como palabras o frases sin sentido, sin que correspondan a
ellas significaciones. También debe tenerse en cuenta que la palabra no es la única instancia
por la cual pueda mentarse un concepto; al lado de ella existen los números, los signos, los
símbolos de toda clase.

Un enunciado cualquiera está formulado mediante términos, vale decir, por unidades
lingüísticas. Pero no cualquier término designa un concepto y no cualquier concepto se refiere
a un rasgo de la realidad. Por consiguiente pueden distinguirse tres niveles de entidades:

El nivel lingüístico: en el que intervienen términos, frases, sentencias, lenguajes, etc.

El nivel conceptual: en el que intervienen conceptos, proposiciones, teorías, etc.

El nivel concreto: en el que intervienen hechos, cosas, propiedades, conexiones, etc.

3
Figura 1. Esquema ilustrativo de los distintos niveles de entidades. Se representan los niveles conceptual y concreto.

Mientras que los objetos materiales que nos rodean pertenecen al nivel concreto, los objetos
modelos, que son sus correlatos intencionales, pertenecen al nivel conceptual. El concepto de
objeto modelo ha sido usado y desarrollado con el fin de poner de relieve ciertos modos de
explicación de la realidad. Los modelos han sido empleados en todas las ciencias fácticas: en
la física, biología, psicología, sociología, etc., así, se ha hablado de modelos mecánicos de
movimiento, pero también de modelos conductistas o del comportamiento (FERRATER MORA).

Puede darse el nombre de objeto modelo a cualquier representación esquemática de un objeto.


Si el objeto representado es concreto, entonces su modelo es una idealización del mismo. La
representación puede ser pictórica, como en el caso de un esquema de la marcha de rayos, o
conceptual, como en el caso de una fórmula matemática; puede ser figurativa, como el modelo
de bola y varilla de una molécula, semi-simbólica, como en el caso de la representación de los
orbitales de la molécula, o simbólica, como en el operador hamiltoniano para la misma
molécula (BUNGE, 1981).

Esta representación es siempre parcial y más o menos convencional. El objeto modelo pierde
ciertos rasgos de su referente, incluye elementos idealizados, sólo recupera las relaciones
entre los aspectos que incorpora de manera aproximada e ignora deliberadamente la mayor
parte de las variaciones individuales del objeto que representa.

Durante un tiempo se consideró como el "modelo de modelos" al llamado "modelo mecánico",


como los modelos usados por Galileo y Newton. Es conocida la declaración de Lord Kelvin,
según el cual solamente puede entenderse una realidad o un proceso físico cuando se puede
presentar un modelo mecánico de ellos. La dificultad de presentar modelos mecánicos para la
teoría electromagnética de Maxwell hizo pensar a algunos que la historia de la noción de
modelo en física tocaba a su fin, pero luego se vio que podían representarse modelos no
mecánicos.

4
A su vez, debe distinguirse entre un objeto modelo y una teoría específica, también llamada
“modelo teórico”, aun cuando ambos se hallan muy estrechamente relacionados, pues el
modelo para una teoría específica equivale a una interpretación de una teoría general. Un
modelo teorético es un sistema hipotético-deductivo concerniente a un objeto modelo, que es a
su vez una representación conceptual esquemática de una cosa o de una situación real o
supuesta real.

Una vez que se ha concebido un modelo de la cosa, se la describe en términos teóricos,


sirviéndose para esto de conceptos matemáticos (tales como los de conjunto y probabilidad) y
tratando de encuadrar el todo en un esquema teórico comprensivo. Así pues una teoría general
dada puede, equipada con diversos objetos modelos, tener diferentes modelos teóricos
asociados.

Por otro lado, se ha discutido en abundancia si los modelos tienen solamente un valor
heurístico para la construcción, uso o interpretación de teorías o si poseen un valor explicativo
que no se reduce a su utilidad. Es común distinguir hoy entre una explicación (teórica) en
sentido estricto y un modelo (el cual es un modo de ver una realidad o un proceso como si
tuvieran tales o cuales características). Ello supone dar al modelo un cierto valor heurístico,
pero no reducirlo al mismo, ya que ver una realidad o un proceso como si tuvieran tales o
cuales características es también explicar la realidad o el proceso en cuestión (FERRATER
MORA).

Modelos de caja negra y de caja traslúcida

Por último, existen diferentes clases de modelos teóricos. En un extremo del espectro se
encuentra el modelo de caja negra, provisto solamente de terminales de entrada y salida, como
por ejemplo la óptica de rayos, la cinemática, la teoría de los circuitos eléctricos, o la
termodinámica, mientras que en el otro extremo se encuentra una caja llena de mecanismos
más o menos ocultos que sirven para explicar el comportamiento exterior de la caja, como la
óptica ondulatoria, la dinámica, la teoría de electromagnética de campos, o la mecánica
estadística.

Figura 2. Esquema que ilustra los diferencias entre los modelos de caja negra, semitraslúcida y traslúcida.

5
Las teorías de caja negra son aquellas cuyas variables son todas externas y globales, sea
directamente observables (como la forma y color de cuerpos perceptibles por ejemplo) o
indirectamente mensurables (como la temperatura y la diferencia de potencial). Las teorías de
caja traslúcida, por otra parte, contienen además referencias a procesos internos que se
describen por medio de variables indirectamente controlables, las cuales no ocurren en la
descripción de la experiencia ordinaria; ejemplos de tales construcciones hipotéticas son la
cantidad de movimiento lineal de un fotón, la fase de una onda o la amplitud de la función de
onda en la mecánica cuántica. Ninguno de estos conceptos puede manejarse de la misma
forma que las variables externas, si bien a menudo son objetivables de cierta manera, más o
menos complicada, que, habitualmente, coimplica alguna teoría sofisticada.

En pocas palabras, las teorías de caja negra se concentran en la conducta de los sistemas y,
particularmente, en sus entradas y salidas observables. Las teorías de caja traslúcida no
consideran la conducta como un algo último e inmediato, sino que intentan explicarla en
términos de la constitución y estructura de los sistemas concretos de los que se ocupa; a tal fin
introducen construcciones hipotéticas que establecen detallados vínculos entre los inputs y los
outputs observables.

Una teoría de caja negra puede proporcionar una explicación y predicción lógicamente
satisfactorias de un conjunto de datos, en el sentido de su derivación de la teoría y de la
información específica. Pero dejará de proporcionar lo que se llamaría una interpretación de los
mismos datos. Una interpretación tal en términos descriptivos se obtiene cuando se postula un
“mecanismo” y se asignan todos los parámetros a propiedades del mecanismo. El mecanismo
en el caso de la termodinámica serán las moléculas en incesante movimiento aleatorio y
colisión, en el caso de la óptica de rayos serán las ondas electromagnéticas y en el caso de la
cinemática serán las fuerzas que actúen sobre los cuerpos.

El contraste entre teorías cinemáticas y dinámicas ilustra claramente los conceptos de


profundidad de la teoría y nivel de explicación. Cualquier conjunto determinado de cambios
puede estudiarse desde un punto de vista cinemático o dinámico, según que sea posible o que
se requiera una explicación superficial o profunda. Así por ejemplo las reacciones químicas
pueden estudiarse en lo que respecta a las velocidades de reacción (cinética química) o en los
que respecta a los mecanismos de reacción (esto es, los procesos por medio de los cuales un
determinado sistema se transforma en otro sistema).

Siempre que aparece la necesidad de una nueva teoría en algún campo de la ciencia factual,
surge el problema de elegir la clase de teoría que debería plantearse a continuación. ¿Deberá
la siguiente tentativa ir en la dirección de creciente detalle y profundidad (crecimiento de
población de entidades teóricas)? ¿O deberá evitar la especulación en torno lo que sucede en
los más íntimos recovecos de la realidad y dirigir su atención, por otra parte, hacia el ajuste de
datos, con la sola ayuda de variables observables exclusivamente de modo directo? En otras
palabras la pregunta es ¿el modelo deberá ser representacional o fenomenológico, atomista o

6
globalista, concebirse como un cuadro más fiel de la realidad o sólo como un instrumento más
efectivo de resumir y predecir observaciones?

El procedimiento lógico natural, que no es sin embargo el de curso histórico por lo general,
sería comenzar por el objeto modelo más simple, agregarle después una estructura sencilla
(por ejemplo, mediante la división de “la caja” en dos partes) y proseguir este proceso de
complicación hasta llegar a explicar todo aquello que se desee. Vale aclarar que no es cuestión
de imitar los epiciclos de Ptolomeo para el movimiento de los astros: los mecanismos
hipotéticos deberían ser contrastables, proponiendo maneras de poner en evidencia la
aplicabilidad de los mecanismos propuestos (BUNGE, 1981).

Reseña histórica

Desde sus inicios, la ciencia ha tenido como dos de sus objetivos principales a la predicción de
fenómenos y a la descripción del mundo que nos rodea. Sin embargo, en los últimos cinco
siglos la ciencia ha buscado, cada vez más, poder enunciar y organizar hipótesis en sistemas
teóricos, que además sean fértiles para la derivación de nuevas hipótesis plausibles que
puedan contrastarse, que sean también capaces de explicar fenómenos reales
preferentemente mediante procesos o mecanismos, y que interrelacionen cada vez más áreas
del conocimiento.

Desde el año 1800 antes de nuestra era los babilonios se dedicaron a observar los cielos
desde los zigurats (templos con forma de torre o pirámide escalonada) y a formular augurios
que reunían en colecciones de tablillas cuneiformes. Cada uno de estos augurios consistía en
un enunciado que establecía una supuesta relación entre la posición de los astros o ciertos
fenómenos celestes y algún evento natural, social o político que, según creían, era predicho
por dicha particular configuración del firmamento (DE ASÚA).

En manos de sacerdotes especializados, este tipo de práctica generó una sólida tradición de
observación de la bóveda celeste, la astronomía mesopotámica propiamente dicha, que abarcó
aproximadamente los últimos tres siglos anteriores a nuestra era, fue la fase culminante de
esta tradición de un milenio y medio.

Ella consistía fundamentalmente en la observación de las primeras y últimas apariciones de


estrellas y planetas en el horizonte, de eclipses, puntos estacionarios de los planetas y otros
fenómenos relacionados. La meta era poder predecirlos, algo que se lograba sometiendo las
observaciones a algoritmos aritméticos que daban cuenta de ulteriores fenómenos periódicos.
Por ejemplo, estos astrónomos podían describir la duración variable de las estaciones (la cual
era resultado de la velocidad variable del Sol en su trayecto aparente de oeste a este sobre la
eclíptica a lo largo del año) mediante la utilización de funciones aritméticas de dos tipos (en
escalón y en zigzag) (DE ASÚA).

Estos métodos no estaban asociados a representación geométrica alguna, ni tampoco a algún


tipo de modelo del universo (DE ASÚA). Las técnicas computacionales de los babilonios para

7
predecir la posición de un astro en términos de una función periódica no aspiraban a explicar ni
a dar cuenta de por qué sucedían las fenómenos celestes. Sin lugar a dudas se trataba de los
precursores de los modelos de caja negra que se reconocen actualmente.

A partir del siglo VI antes de nuestra era se desarrolló en Grecia un ideal de saber muy distinto
al de los pueblos mesopotámicos. Por un lado, los filósofos de la naturaleza de las ciudades de
Jonia comenzaron a especular acerca de las causas y el principio de todas las cosas. Por otro,
a diferencia de los matemáticos egipcios y babilonios que inventaron métodos particulares para
resolver problemas concretos, los geómetras griegos aspiraron a la demostración universal de
las propiedades de las figuras (DE ASÚA).

En el siglo IV antes de nuestra era, Aristóteles desarrolló la lógica deductiva y, además,


expuso una metodología de la ciencia centrada en la mencionada “demostración” (mediante el
uso de silogismos), según la cual es posible deducir conclusiones a partir de unas cuantas
premisas que se consideran como evidentemente verdaderos. Así se establecieron las
primeras estructuras lógicas que gobernaron las relaciones dentro de los primeros intentos por
establecer sistemas de conocimiento crítico.

Muchos siglos después, en el siglo XVII de nuestra era, Descartes reemplaza la lógica
silogística aristotélica con la demostración matemática y Galileo es el primero en contrastar
empíricamente sus leyes cinemáticas para la caída libre (las cuales se desprenden
teóricamente de su hipótesis de aceleración constante) con sus experimentos acerca de
cuerpos que caen a lo largo de rampas.

En su libro “Dos nuevas ciencias”, Galileo estudia el movimiento de los cuerpos que caen
libremente y, para ello, primero construye un modelo matemático sencillo para describir el
movimiento con aceleración constante. En segundo lugar, establece la hipótesis de que ese es
el tipo de movimiento que tiene un cuerpo pesado cuando cae libremente. Luego, en tercer
lugar, deriva de esta hipótesis otros enunciados que sean contrastables y finalmente, utilizando
rampas con diferentes ángulos de inclinación, somete sus leyes de movimiento a la
contrastación experimental y consigue así soporte experimental para su hipótesis de
constancia de la aceleración en la caída libre (HOLTON).

Este hito resulta ser una de las primeras ocasiones en las que se utiliza un modelo para
representar un sistema concreto, implicando a su vez que es de las primeras ocasiones en las
que se seleccionan las variables relevantes en relación a un problema determinado. Y además
es una de las primeras contrastaciones experimentales de hipótesis registrada en la historia de
la ciencia, marcando así el inicio de la ciencia moderna.

Esta es una proeza inusitada en la historia de la ciencia, si se tiene en cuenta además que aún
las más cuidadosas observaciones de los fenómenos naturales no son en absoluto bases
suficientes para a formulación de una hipótesis, mucho menos aún de una teoría; diferentes
cuerpos que caen libremente en el aire no llegan evidentemente a la tierra en el mismo

8
instante: pero esto, al pensarlo más detenidamente, es menos importante que el hecho de que
lleguen casi al mismo tiempo (HOLTON).

Merece la pena, por su utilidad, prestar atención a este último punto, en que se dejan a un lado
las primeras impresiones, lo evidente, porque en él se considera la discrepancia de que los
tiempos de caída sean iguales, en lugar de como una pequeña desviación, explicable por la
circunstancia experimental del rozamiento del aire. Cuando fue inventada la bomba de vacío,
en 1650 por Otto von Guericke, la hipótesis de que todos los cuerpos caen con la misma
aceleración fue confirmada por la observación de que una pluma y una moneda, dentro de un
tubo de vidrio en el que se producía un vacío, caían en el mismo tiempo.

Es pertinente recordar el viejo dicho de que la ciencia ha crecido casi más por lo que ha sabido
ignorar que por lo que ha tomado en cuenta. En este caso particular, todo depende de ser
capaces de no tomar “en consideración” el efecto del aire en la caída libre. Esto es bastante
fácil para quienes conozcan las bombas de vacío, pero en aquel tiempo era conceptualmente
casi imposible por varias razones, algunas evidentes y otras muy sutiles, por ejemplo siendo
que el mismo Aristóteles había negado la posibilidad de que exista el vacío en la región
terrestre (HOLTON).

En su última obra Galileo escribe: “El porvenir conducirá a una ciencia más amplia y mejor, de
la cual nuestra labor no es sino el comienzo; espíritus más profundis que el mío explorarán los
rincones más oscuros de la ciencia”. Esta previsión efectivamente fue cumplida por Newton,
quien completa la construcción de la teoría de la mecánica clásica (PAPP).

Una célebre declaración de Newton es: “Si pude ver más lejos, es porque gigantes me elevaron
sobre sus espaldas. El físico inglés antepone a su obra definiciones y leyes axiomáticas; su
método es esencialmente hipotético-deductivo. Sin duda, sus leyes y definiciones estaban ya
en parte comprendidas en las investigaciones de Galileo y Huygens, sin embargo, él es el
primero en formularlas rigurosamente y en forjar con ellas los cimientos de la mecánica. Pues
ni Galileo ni Huygens pudieron discernir cuáles son las leyes y conceptos primordiales que
permiten la construcción de la teoría (PAPP).

Para sintetizar este proceso de progreso histórico que se llevó a cabo en las ciencias físicas
descrito anteriormente puede utilizarse el siguiente cuadro:

9
Período Actores Área del Breve
Tipo de modelo
histórico involucrados conocimiento comentario
De los primeros
s. XVIII a. n. e. Pueblos
Astronomía Caja negra modelos de caja
- s. III a. n. e. mesopotámicos
negra
Introduce el uso
Caja traslúcida
s. IV a. n. e. Aristóteles Cinemática de la lógica en
cualitativa
la ciencia
Primera
s. XVI Galileo Cinemática Caja negra contrastación
experimental
Primer sistema
s. XVII Newton Mecánica Caja traslúcida hipotético-
deductivo
Tabla 1. Síntesis de algunos modelos físicos utilizados históricamente.

Avanzando a la época contemporánea, a raíz de la segunda guerra mundial se produce un


fenómeno de acercamiento y de colaboración profesional entre científicos y técnicos de
diversas disciplinas, como biólogos e ingenieros, psicólogos y matemáticos, sociólogos y
físicos, en algunos servicios de guerra principalmente en los Estados Unidos y, a escala más
pequeña, en el Reino Unido.

Al finalizar la guerra, hubo un aluvión de nuevos planteamientos, nuevas teorías y nuevas


disciplinas nacidas a partir de los contactos formados, como la teoría general de los sistemas,
la cibernética, la teoría de la información, la teoría de los juegos, la sociología matemática e
incluso la lingüística matemática. Al mismo tiempo, la biología matemática y la psicología
matemática se consolidaban como campos respetables (BUNGE, 1981).

Este florecimiento interdisciplinario puede situarse en torno a los años 1950. No se trató
simplemente del reemplazo de una teoría científica por otra, sino que fue más bien un esfuerzo
de teorización en campos hasta entonces incipientemente teóricos. Se trataba de una nueva
metodología, una nueva manera de trabajar, la que nació hacia 1950 en las ciencias fácticas no
físicas, como la sociología o la psicología. Se empieza por plantear problemas bien
circunscriptos y con claridad, de ser posible en lenguaje matemático; para resolverlos, se
avanza con hipótesis precisas; se producen datos empíricos a fin de contrastarlas; se examina
el peso de esos resultados, y el grado en que convalidan o refutan las hipótesis; en fin, se
discuten cuestiones metodológicas, y en ocasiones, incluso filosóficas planteadas por esos
procedimientos.

Actualmente, entre las distintas ciencias fácticas sólo hay diferencias de objeto, de técnicas
especializadas y de estadios de evolución, pues ahora son metodológicamente uniformes. No

10
es una fiscalización de la ciencia no positivista: no se trata de renunciar a estudiar procesos no
físicos o de intentar reducirlos a procesos físicos o químicos, sino de estudiarlos
científicamente y en profundidad. La importancia del proceso iniciado hacia 1950 recae en la
manera de abordar el estudio de los objetos no físicos, como los sociales y los psicológicos por
ejemplo (BUNGE, 1981).

Contrastación de modelos

El análisis de la realidad comienza por realizar idealizaciones. Para ello se identifican las
características comunes a un conjunto de individuos, agrupándolos en especies, es decir,
clases de equivalencia, eliminándose así de los rasgos individuales de los objetos.

Sin embargo, para introducir un objeto modelo en una teoría es necesario atribuirle
propiedades susceptibles de ser tratadas por la misma. El modelo conceptual ignorará muchos
de los rasgos del objeto que se estudia y lo separará de las características que lo
individualizan; pero esto es propio de la generalidad de la ciencia. La formación de cada
modelo comienza por simplificaciones y si un modelo dado carece de un detalle de interés,
será posible en principio complicarlo.

Un objeto modelo, pues, es una representación de un objeto: a veces perceptible o a veces


imperceptible (en el sentido de que el objeto en cuestión puede o no tener características
sensibles a nuestros sentidos), siempre esquemática y en parte, al menos, convencional. El
objeto representado puede ser una cosa o un hecho (BUNGE, 1981).

Por otra parte, un individuo concreto cualquiera podrá representarse de diversas maneras,
según los medios de los que se disponga y los fines de la representación.

Un objeto modelo servirá de poco a menos que se lo sumerja en un cuerpo de ideas en cuyo
seno puedan establecerse relaciones deductivas. Este cuerpo de ideas constituirá un modelo
teorético de una clase de individuos concretos. Se denominará también teoría específica a este
modelo teórico, y no es más que una teoría general enriquecida con un objeto modelo en
particular.

Como ejemplo puede mencionarse al modelo teórico de gases ideales: la teoría general en la
que está enmarcado este modelo es la mecánica estadística; el objeto modelo que se inserta
en esta teoría general es el modelo de gas ideal, el cual está construido a partir una serie de
supuestos determinados; y por último la teoría específica resultante es la teoría de los gases
ideales.

Cuando un sistema teorético de un objeto modelo se enriquece mediante el diseño de algunos


detalles del objeto concreto en cuestión, se restringe el dominio y aplicación de la teoría
general pero en compensación la misma se vuelve contrastable experimentalmente.

Son estos modelos teoréticos los que pueden someterse a contrastaciones empíricas: las
teorías generales, siendo indiferentes a las particularidades, permanecen, salvo que se

11
enriquezcan con modelos de sus referentes, incontrastables, y los objetos modelos estériles, a
menos que se introduzcan o desarrollen dentro de alguna teoría (BUNGE, 1981).

Figura 3. Ilustración que representa la relación entre una teoría específica y un sistema real, su correlato intencional.

Sin embargo, todo modelo teorético es parcial y aproximativo: no capta sino una parte de las
particularidades del objeto representado. Por esta razón, tarde o temprano, se encontrará con
un problema que no pueda resolver, ya sea una laguna en el cuerpo teórico, un fenómeno que
contradiga la teoría, o algún otro. Sin embargo estas crisis empujarán el desarrollo de nuevos
objetos modelos, o de nuevas teorías generales.

Un problema de especial interés emerge ante la luz de evidencia que no apoye una teoría en
particular: ¿qué es lo que debería modificarse cuando una teoría falla: el objeto modelo, la
teoría general o la teoría específica?

Es entonces cuando entran en consideración otros factores para ponderar la aplicabilidad y


veracidad de una teoría y para ello existen diversos criterios que pueden ser utilizados.

Es por esta y otras razones que los sistemas teóricos requieren de un conjunto interrelacionado
de soportes experimentales para establecerse con un determinado grado de veracidad.
Múltiples hipótesis de menor nivel deben ser derivadas de una teoría general, y contrastadas
experimentalmente con suficiente grado de certeza; la teoría en cuestión también debería,
preferentemente, ser capaz de dar luz a nuevas hipótesis plausibles capaces de ser sujetas a
contrastación, o ser capaz de explicar lagunas en el corriente cuerpo de conocimiento.

Y es por estas mismas razones que luego se vuelve tan difícil y se encuentra tanta resistencia
a abandonar una teoría general, razonablemente establecida, a la luz de datos desfavorables.
Por ello, a veces suele recurrirse tanto como a modificar los objetos modelos con los que lidia
la teoría como a restringir el ámbito de aplicación de la misma.

12
Como caso de estudio de la evolución de los modelos se considerará la evolución de los
diferentes modelos atómicos utilizados en ciencia:

La primera teoría atómica data del siglo V antes de nuestra era, apoyada por Leucipo de Mileto
(480 a. n. e.-420 a. n. e.) y Demócrito de Abdera (c. 460 a. n. e.-370 a. n. e.), quien
particularmente sostenía que

“Sólo existen los átomos y el espacio vacío. Todo lo demás es opinión”.

Afirmaban que la materia estaba compuesta de partículas indivisibles llamadas átomos, del
griego ατομος, es decir, sin partes. Los átomos de Demócrito eran invisibles, pero para nada
abstractos, sino completamente reales, y en ese momento no había evidencia empírica sobre
su existencia.

Por otro lado se oponía Aristóteles (380 a. n. e.-320 a. n. e.), sosteniendo que la materia podía
dividirse indefinidamente. Esto era coherente pues Aristóteles, al negar la posibilidad del vacío,
no podía aceptar que entre átomo y átomo no hubiera nada.

Ambas creencias se mantuvieron en equilibrio a lo largo de los siglos. Los alquimistas, Galileo,
Newton, los hombres de la Revolución Científica y los físicos del siglo XVIII que estudiaban los
gases se inclinaban por las interpretaciones atomistas. Mientras que Descartes y los
cartesianos sostuvieron la continuidad e infinita indivisibilidad de la materia.

Antoine Lavoisier (1743-1794), quien sentó las bases de la química moderna, decía:

“Respecto de esos simples e indivisibles átomos de los cuales toda la materia está compuesta,
es muy probable que nunca sepamos nada sobre ellos”.

El panorama era negativo respecto de obtener pruebas acerca de la existencia de los átomos.

A pesar de esto, John Dalton (1766-1844) reflexionaba sobre el hecho de que si un compuesto
contenía dos elementos en la proporción de cuatro a uno, por ejemplo, éste siempre iba a
mantener esas proporciones, sin importar cuánta cantidad de ese compuesto se tuviera.
Además involucraban números enteros, como Louis-Joseph Proust (1754-1826) pudo
demostrar pesando compuestos cuidadosamente.

Dalton llegó a la conclusión de que este fenómeno era una prueba de la existencia de los
átomos y en 1808 dio a conocer sus ideas en su Nuevo Sistema de Filosofía Química, basadas
en cuatro supuestos:

• La materia está compuesta de átomos sólidos, indivisibles y homogéneos.

• Los átomos son indestructibles y preservan su identidad, las reacciones químicas implican un
cambio en la distribución de los átomos.

• Hay tantas clases de átomos como de elementos químicos.

• Cada átomo está caracterizado por una magnitud: el peso atómico.

13
Aun en 1860, los químicos entendían a los átomos como entidades abstractas, convenientes
para calcular proporciones y compuestos, sin ninguna prueba concreta. Además el arraigado
sesgo por la simplicidad les impedía aceptar que a cada uno de los elementos le
correspondiera un átomo distinto.

Afortunadamente, William Prout (1785-1850) observó que los pesos atómicos de casi todos los
elementos se aproximaban a números enteros y se le ocurrió que, de alguna manera, todos los
átomos eran conglomerados de átomos de hidrógeno.

Con el descubrimiento de nuevos elementos y moléculas surgían los siguientes interrogantes:


¿Cuántos elementos había exactamente? ¿Había un límite o se multiplicaban ad infinitum?
¿No había algo de arbitrario a la hora de definir un átomo, puesto que siempre era esperable
que algo que se había reconocido como elemento se subdiviera aún más?

Y así fue como se empezó a percibir similitudes y regularidades entre distintos elementos. John
Dóbereiner identificó, en 1829, triadas de elementos con ciertas propiedades. Alexandre Emile
Béguyer de Chancourtois diseñó en 1862 una manera de organizar los elementos a intervalos
regulares en función de su peso atómico, según sus propiedades físicas y químicas, dispuestos
en el llamado “tornillo telúrico”. Dos años más tarde, John Newlands elaboró su propio patrón
mediante la llamada “ley de las octavas”.

Finalmente Dimitri Ivanovich Mendeleiev (1834-1907) descubrió que cuando se listaban los
elementos por orden de pesos atómicos, sus propiedades se repetían en una serie de
intervalos periódicos. Su trabajo fue publicado con el título “Una propuesta para un sistema de
los elementos”. Predijo mediante su tabla periódica la existencia de nuevos elementos y sus
propiedades; donde no había un elemento que encajara en el patrón, dejaba un espacio vacío
a la espera de que algún día se descubriera ese elemento en la naturaleza.

La empiria confirmó sus predicciones: en 1875 se descubrió el galio y cinco años después el
germanio, cuyas propiedades coincidían con las anunciadas por Mendeleiev. Mendeleiev había
mostrado cómo se ordenaban los elementos, pero ¿por qué ocurría esto?

En 1897, estudiando los rayos catódicos, John Thomson (1856-1940) descubrió lo que el físico
alemán Joseph Goldstein había llamado electrón y, cuando midió su masa, encontró que era
extraordinariamente pequeña. Postuló entonces que los electrones eran parte de los átomos:

“La suposición de que exista un estado de la materia más finamente dividido que el átomo es
en cierto modo sorprendente”.

Thomson propuso un modelo atómico de “budín con pasas”: una extensión de materia más o
menos tenue, cargada positivamente, con electrones incrustados, resultando un átomo
eléctricamente neutro

En 1908, Ernest Rutherford (1871-1937), quien trabajó un tiempo junto a Thomson, bombardeó
con partículas una delgada lámina de oro y observó su dispersión. La mayoría sufría pequeñas

14
desviaciones, pero, de tanto en tanto, algunas partículas se desviaban en ángulos grandes,
llegando incluso a volver para atrás.

Buscando explicar estos resultados, propuso el conocido como “modelo de Rutherford”: un


centro (el núcleo) compuesto de partículas que llamó protones, y muy lejos, giraban a su
alrededor los electrones, de manera que el átomo era, casi en su totalidad, espacio vacío. Este
modelo resultaba muy atractivo debido a la identidad entre micro y macrocosmos; que lo más
pequeño se pareciera a lo más grande, pues esta estructura se parecía mucho a la del sistema
solar.

Por otro lado, bombardeando nitrógeno con partículas α, Rutherford había conseguido obtener
oxígeno. Había cambiado el número de protones de un átomo.

A pesar de estos descubrimientos, este modelo era inestable, ya que según las leyes de
Maxwell, una carga eléctrica acelerada emite radiación, perdiendo energía, por lo que el átomo
de Rutherford colapsaría irremediablemente.

Por fortuna Niels Bohr (1885-1962), siguiendo los pasos de Planck y Einstein, elaboró en 1913
una nueva teoría atómica, añadiendo el postulado de que los electrones no radían cuando se
encuentran en ciertas órbitas prefijadas, constituyéndose así distintos niveles de energía
discretos a los que tiene acceso un electrón.

De esta manera interpreta la hipótesis de cuantización de Planck como consecuencia de que


un electrón sólo pudiera ocupar ciertas órbitas permitidas, estando así su momento angular
cuantizado. A partir del modelo de Bohr era posible determinar la longitud de onda de las líneas
espectrales de emisión del hidrógeno, que ya habían sido medidas experimentalmente
anteriormente.

Más aún, utilizando el modelo de Bohr era posible explicar las series de Balmer, Lyman,
Paschen, Brackett y Pfund, interpretándolas dentro del marco de la teoría cuántica antigua. En
particular, la serie de Balmer se conocía desde 1885, y se trataba de una expresión para el
número de onda de las líneas del espectro visible del átomo de hidrógeno.

Figura 4. Sucesión temporal de los diferentes modelos atómicos.

15
Consideraciones finales

¿Por qué es importante discutir la naturaleza de los modelos utilizados en las ciencias fácticas
y caracterizarlos? Pues porque podría decirse en pocas palabras que la labor de un físico, y de
los científicos en general, es modelar la realidad. Pero un físico o un científico no sólo
construyen modelos, sino que también se ocupan de lidiar con las intrincadas relaciones entre
los mismos modelos y entre los modelos y la realidad que intentan representar.

El físico intenta aprehender a la realidad en un puño, la escudriña hasta llegar a su núcleo más
básico y ejecuta las simplificaciones que sean necesarias en el proceso; aunque esto signifique
trabajar únicamente con lo que ahora es una idealización de un objeto en concreto.

Pretende reproducir el mundo que lo rodea, esquematizándolo, no siempre de manera


pictórica, pero con ayuda de abstracciones matemáticas y símbolos, conservando sólo aquellas
variables que considere relevantes. Analiza y predice el comportamiento de los sistemas reales
mediante relaciones lógicas, enunciado hipótesis que intenten ir hacia lo cada vez más
fundamental.

En particular creo que en la medida en que mejor se aprenda mejor a manejar y aplicar estos
objetos modelos, y las teorías que los engloban, se tendrá capacidad cada vez mayor para
apresar a la realidad y describirla con un cada vez más grande e inusitado grado de detalle y
complejidad.

16
Bibliografía

Bunge Mario. (1978). La ciencia, su método y su filosofía. Buenos Aires, Argentina: Ediciones
Siglo Veinte.

Bunge Mario. (1981). Teoría y realidad. Barcelona, España: Editorial Ariel, S.A.

Bunge Mario. (2004). La investigación científica su estrategia y su filosofía. Ciudad de México,


México: Siglo XXI Editores.

Cudmani, L.C. de, Salinas J. y Jaén M. (1991). Epistemología de la física Tópicos


introductorios. San Miguel de Tucumán, Argentina: Facultad de Ciencias Exactas y Tecnología
U.N.T.

De Asúa, Miguel. (2006). La investigación en ciencias experimentales: una aproximación


práctica. Buenos Aires, Argentina: Eudeba.

Ferrater Mora, José. (1981). Diccionario de filosofía. Buenos Aires, Argentina: Editorial
Sudamericana.

Holton G. y Roller. D. (1963). Fundamentos de la Física Moderna. Ciudad de México, México:


Editorial Reverté.

Papp Desiderio (1961). Historia de la Física. Madrid, España: Editorial Espasa - Calpe.

Pfänder (1921). Logik. Jahrbuch für Philosophie und phänomenologische Forschung, IV


(traducción española: Lógica, 1928, Parte II, Capítulos I-X).

Leonardo Moledo. Historia de las ideas científicas El triunfo de los átomos en el siglo XIX.
Buenos Aires, Argentina: Página 12.

17

Potrebbero piacerti anche