Sei sulla pagina 1di 62

TEMA 1.- Explicación, causalidad, reducción y realismo.

1.- La explicación científica.

Según una concepción ampliamente difundida, las ciencias empíricas tienen dos objetivos básicos: explicar
los fenómenos que despiertan la curiosidad del ser humano (comprender por qué el mundo es como es) y
predecir nuevos fenómenos para, sobre todo, propiciar su control. Es decir, las ciencias empíricas no se
conforman con descubrir y describir lo que ocurre, sino que buscan también un conocimiento sistemático que
englobe los fenómenos diversos y permita encontrar casos similares no observados con anterioridad.

Explicar significa etimológicamente extender, desenvolver, desplegar. En su acepción corriente se entiende


que explicar un hecho es aclarar por qué se produjo, lo que, por lo general, consiste en señalar la causa del
hecho; aunque también puede consistir en otras cosas, como, por ejemplo, dar más detalles sobre el mismo. El
resultado debe ser siempre una comprensión mejor del hecho. Esto se consigue mediante su incorporación al
cuerpo de conocimientos previos a través de ciertos lazos que lo muestran como algo racionalmente aceptable
dado ese mismo cuerpo de conocimientos y las circunstancias que concurrieron en el caso. La explicación
científica no es algo radicalmente distinto de la explicación ordinaria; no obstante, en virtud del mayor rigor
del discurso científico, la explicación científica es más específica y ha de cumplir condiciones más estrictas
que la ordinaria.

Hay varias teorías o modelos generales de explicación científica:

1.- Explicación nomológica → supone comprender que un determinado fenómeno, un hecho concreto de la
naturaleza se subsume en un principio o ley más general.

Según este modelo, cualquier explicación científica tiene la siguiente estructura:

a) Explanandum → es el hecho o fenómeno que deseamos explicar.

b) Explanans → aquello que proporciona la explicación del explanandum. Incluye:

i) Una serie de leyes empíricas que consisten en proposiciones supuestamente válidas, no sólo para
el fenómeno que queremos explicar, sino para todo un aspecto de la realidad.

ii) Las condiciones iniciales, que son un conjunto de otros hechos empíricos que, según las leyes,
pueden ser relevantes para el fenómeno a explicar.

c) Relación explicativa → relación entre explanans y explanandum por la que se puede considerar que
el primero explica al segundo.

Por tanto, lo que hacemos al explicar algo es demostrar que un hecho tenía que darse si ciertas leyes y ciertas
condiciones iniciales son verdaderas. A este modelo también se le llama “modelo de cobertura legal” pues se
basa en leyes que poseen supuestamente validez universal, es decir, que “cubren” todos los fenómenos de
una determinada clase.

La subsunción en la teoría nomológica puede ser deductiva o estadística, dependiendo de si las leyes son
deterministas (“siempre que ocurre A ocurre B”), que son aquellas que afirman que ciertos hechos estarán
relacionados siempre de tal o cual manera, o estadísticas (“la probabilidad de que ocurra B cuando ocurre A
es de X%”), que son aquellas que afirman que los hechos están relacionados de una forma precisa en un
porcentaje determinado de casos, y están relacionados de otra forma en otro porcentaje determinado de casos.
Es decir, las leyes estadísticas han de especificar exactamente con qué frecuencia ocurre cada posible situación.
En esta situación a partir del explanans no inferimos que se dará con certeza el hecho a explicar. Cuando las
leyes que aparecen en el explanans son de este tipo, el modelo de explicación se llama a veces “modelo
nomológico- inductivo” o “inductivo-estadístico”. Algunos ejemplos de este modelo nomológico serían: la
explicación de las glaciaciones a partir de los ciclos de mayor o menor inclinación de la rotación de la Tierra;
la explicación de la evolución de las especies mediante el principio de la selección natural y el de la variación
aleatoria. En general, es el modelo preferido en la Física.
Una consecuencia importante de esta concepción es que no habría una diferencia significativa entre dos de los
aparentemente distintos objetivos de la ciencia: “cómo es el mundo” (descripción) y “saber por qué es cómo
es” (explicación). Pues la explicación de un fenómeno (el explanandum) consiste en dar una descripción del
mundo (la recogida en el explanans), y mostrar que el fenómeno es simplemente un caso especial de esa
descripción. Entonces, una explicación sería una descripción de mayor nivel de generalidad o profundidad.

Los defensores de este modelo también mantienen la llamada “tesis de la simetría” entre la explicación y la
predicción que supone que al predecir un hecho estaríamos haciendo exactamente lo mismo que al explicarlo:
deducirlo a partir de unas leyes y unas condiciones iniciales. La diferencia entre ambas es pragmática, tiene
que ver con la relación temporal
entre la ocurrencia del hecho particular y la construcción del argumento: las explicaciones
son retrodicciones (“predicciones” de hechos conocidos) y las predicciones son explicaciones “avanzadas”.

Críticas a esta concepción:

a) Se han centrado fundamentalmente en el requisito de la relevancia explicativa que supone que la


información explicativa aducida proporcione una buena base para creer que el fenómeno ha ocurrido
u ocurrirá: Hay quien niega que dar una buena base para creer en la ocurrencia de algo signifique
siempre explicar ese algo. Esto es particularmente claro en los casos de asimetría explicativa, cuando
tenemos dos enunciados equivalentes uno de los cuales sirve para explicar el otro pero no al contrario.
Esta crítica afecta a la tesis de la identidad estructural entre explicación y predicción, pues implica
que:
i) hay ocasiones en las que podemos predecir fenómenos para los que no tenemos una explicación.
Una respuesta a esta crítica sería hacer notar que para Hempel el requisito de la relevancia
explicativa es una condición necesaria, pero no suficiente de la explicación científica.

ii) Una segunda crítica, inversa a la anterior, es que no toda explicación proporciona una buena base
para creer que algo sucederá, es decir, no toda explicación es potencialmente una predicción.

b) ¿Qué entendemos por una “ley”?; ¿Vale cualquier regularidad?; ¿Debe estar suficientemente
establecida o puede ser hipotética?

c) Caso de explicaciones espurias (Ej.: toda persona que toma la píldora sistemáticamente, no se queda
embarazada. Fernando ha tomado la píldora sistemáticamente. Por lo tanto Fernando no se queda
embarazo). Una información irrelevante puede proporcionar una buena base para creer algo y no ser
una explicación de ese algo.

2.- Explicación causal Þ supone entender las causas de un fenómeno. La explicación debe “rastrear” las
verdaderas causas del fenómeno que queremos explicar. Estas causas pueden tener naturaleza de leyes o no.
Los hechos tienen una larga historia causal y una explicación no requiere informar acerca de toda ella. En
general se exige sólo información sobre algunos factores causales. Cuáles son esos factores es algo que
depende de cada contexto explicativo, que determinará qué antecedentes causales se consideran relevantes o
destacados a efectos explicativos en esa ocasión. La relación de explicación es la relación de relevancia causal;
qué es causal lo establece el análisis, pero cuáles de los innumerables antecedentes causales son los relevantes
a efectos explicativos lo establece el contexto.

Problemas de esta concepción:

a) El principal problema es el de cómo podemos llegar a saber que cierto fenómeno (A) es la causa de
otro (B). Según David Hume, lo máximo que podemos inferir a partir de la experiencia es que, siempre
que hemos observado A, también se ha dado B, pero eso no implica que A sea la causa de B, es decir,
que exista una conexión necesaria entre ambos fenómenos de tal modo que A produzca B. En principio,
la conexión entre A y B podría ser totalmente distinta a partir de mañana. ¿Cómo podemos saber que
hoy no lo será? La respuesta de Hume era que, simplemente, no lo sabemos: lo que sucede es que
nuestro psiquismo funciona de tal modo que, cuando ciertos hechos han estado conectados en nuestra
experiencia pasada, esperamos que sigan estándolo, pero esta esperanza es una mera sensación
psicológica, no una certeza objetiva.
b) La noción de causalidad se caracteriza porque puede tener diversos sentidos. Así, Aristóteles distinguía
cuatro tipos de causas: material, formal, final y agente. Ninguno de estos conceptos tiene el mismo
significado en nuestros días. El concepto de causalidad más vigente desde la Edad Moderna es el de
“causa agente o eficiente”. Por otro lado, en la medida en que las explicaciones científicas vienen
dadas por leyes que se expresan mediante fórmulas matemáticas, esta causalidad eficiente puede
identificarse también con la propia “causa formal”. La principal diferencia de la ciencia Moderna con
el planteamiento de Aristóteles es, sin duda, el rechazo a la “causalidad final”, sobre todo en las
ciencias naturales; en cambio, las ciencias que se ocupan de los seres vivos (biología, ciencias sociales,
etc.) difícilmente han podido prescindir del concepto de función como factor explicativo.

c) Importancia de los condicionales contrafácticos (subjuntivos): una ley es causal sólo


si apoya condicionales contrafácticos (ej.: “si hubiera soltado esta bola en el aire, se habría caído”).
En cambio, una “regularidad accidental” no lo hace (“aunque sea verdad que todas las monedas que
llevo en mi bolsillo sean de un euro, eso no implica que si esta moneda de 50 céntimos la llevara en
mi bolsillo, sería de un euro”).

d) El problema del determinismo  si la ciencia se basa en el supuesto de que los fenómenos que estudia
obedecen ciertas leyes inevitables, ¿no es contradictorio asumir que los seres humanos somos “agentes
libres”, y a la vez suponer que el comportamiento humano puede ser explicado científicamente? La
idea de que las leyes sociales sólo indican “tendencias” no es una respuesta del todo satisfactoria,
porque esas leyes son “las que hemos descubierto”, más que las leyes sociales “profundas” que una
ciencia “ideal” debería descubrir. Es decir, el problema para la libertad humana no lo plantean las leyes
sociales conocidas, sino las leyes que imaginamos que deben existir. Pero, en fin, tal vez no exista
algo así como esas “leyes sociales profundas”. El problema es más grave si pensamos en términos de
las leyes físicas: si toda la materia del universo obedece tales leyes (y esto incluye a la materia de la
que estamos compuestos nosotros mismos), entonces cada una de nuestras moléculas se desplazará de
acuerdo con la influencia de las fuerzas mecánicas o electromagnéticas de las moléculas que la rodean,
y estas fuerzas harán que dicho desplazamiento sólo pueda ocurrir de una forma perfectamente
determinada por las leyes físicas y por las propiedades mecánicas y electromagnéticas de cada
molécula. Si esto es así, la creencia de que tomamos nuestras decisiones libremente sería una mera
impresión subjetiva. Por otro lado, si las leyes que gobiernan el comportamiento de la materia no son
deterministas, sino estadísticas, el problema es aún más grave para la pretensión de poseer un libre
albedrío, pues las leyes estadísticas afirman que, dadas ciertas circunstancias, se darán ciertos hechos
con una frecuencia determinada. Así, si la diferencia entre decidir ir al cine o ir al fútbol se debe en
último término a que un electrón de cierta neurona siga un camino u otro, y las leyes físicas le dan una
cierta probabilidad de ir por cada uno de los dos caminos, el camino que definitivamente tome el
electrón habrá sido determinado por “pura casualidad” (no por “nuestra elección”). Pero, cuando
afirmamos que no actuamos “determinados por las leyes físicas”, sino de forma libre, no parece que
lo que queramos decir es que tomamos nuestras decisiones por puro azar. Es importante aclarar que el
determinismo no afirma que podamos predecir las acciones de los seres humanos (o cualquier otro
acontecimiento natural). Para ello deberíamos conocer perfectamente todas las leyes físicas y las
características de todas las partículas relevantes, lo que está fuera de nuestra capacidad.

3.- Modelo de la relevancia estadística → propuesta relacionada con el cuestionamiento de que la elevada
probabilidad sea una condición necesaria de las explicaciones estadísticas.

Su autor, Salmon, es uno de los principales defensores de los análisis directamente causales. La idea básica es
que para tener una explicación estadística satisfactoria, las condiciones antecedentes, con ayuda de una ley,
deben ser un factor estadísticamente relevante para el explanandum (no deben hacerlo altamente probable).
Un factor es estadísticamente relevante cuando modifica la probabilidad del suceso, de modo que las
probabilidades del suceso tomando el cuenta el factor y sin tomarlo en cuenta son diferentes.

Años más tarde, Salmon cambió sustancialmente de opinión y renegó del modelo de relevancia estadística
como caracterización adecuada de la explicación científica y consideró que se necesitaba algo más que señalar
factores estadísticamente relevantes para tener una explicación. Propuso sustituir este modelo por uno nuevo
al que llamó “modelo mecánico/causal ”, en el que considera que las relaciones estadísticas constituyen la base
estadística para una explicación científica, pero que esa base ha de ser completada por ciertos factores causales
para constituir una explicación científica satisfactoria.
4.- Explicación funcional o teleológica → entender cuál es la función de un fenómeno.

Si bien podemos encontrar claros antecedentes en la antigüedad clásica (Aristóteles), el funcionalismo como
tal es un término que entra con fuerza en el discurso filosófico a partir del último cuarto del siglo XX y que,
desde entonces, ha tenido una presencia creciente.

Con función se hace referencia al papel que tienen los elementos de un sistema para contribuir al sostenimiento
de un estado persistente de dicho sistema. Se da sobre todo en biología y en algunas escuelas de las ciencias
sociales (sociología, antropología).

El principal problema de esta explicación es que el futuro no puede actuar sobre el presente (cómo “será” un
sistema no puede influir en cómo “es”). En biología se dispone de una fundamentación para este tipo de
explicaciones en términos de la teoría de la selección natural: nos ofrece el mecanismo subyacente a la aparente
situación en la que los efectos explican las causas. Un efecto posterior no puede explicar una causa anterior.
Las funciones parecen ser posteriores, por lo tanto no pueden explicar causas anteriores. Solución darwiniana:
Los rasgos de un ser vivo (o sistema) no existen “para” que el ser vivo funcione, sino que los antepasados de
aquel ser vivo que no tenían aquellos rasgos no lograron dejar tantos descendientes como sus parientes que sí
los tenían.

Por tanto, la explicación funcional se convierte en un caso particular de la explicación nomológica y causal.
Las “leyes” serían la selección natural (o algún mecanismo análogo) y las leyes mecánicas que rigen las
propiedades de los seres vivos, de sus componentes y de sus ecosistemas pueden ser leyes deterministas o
estadísticas. De todas formas, algunos autores (como Francisco Ayala) argumentan que las descripciones
funcionales en biología son más ricas y sintéticas que las no funcionales, y por lo tanto son ineliminables.

4.- Teoría pragmática. → frente al modelo de explicación por cobertura legal o al modelo de Salmon que se
centran en los aspectos lógicos de la explicación científica, en esta teoría la explicación depende de elementos
pragmáticos (deseos, intenciones, etc.) que varían fuertemente de contexto a contexto.

En el modelo de Van Frasen una explicación es una contestación a una pregunta-por qué (“¿Por qué ocurre
Y?”), cuya respuesta siempre presupone alguna alternativa con la que contrastarla (“¿Por qué Y, en vez de Z”).
Ej: “¿por qué los volcanes suelen estar cerca de la costa, en vez de en el interior de los continentes?”.

Las alternativas de contraste suelen depender claramente de nuestros intereses y preconcepciones (lo que nos
parece “más natural”, o “más deseable”). Así que, para que una explicación científica sea una buena
explicación, debe responder también a esos intereses y preconcepciones.

Según esta teoría, la explicación no es una finalidad de la ciencia pura, sino una aplicación de la ciencia (es
“ciencia aplicada”).

Como conclusión al debate sobre las explicaciones científicas podemos señalar que si lo que esperamos de un
modelo de explicación científica es que establezca las condiciones necesarias y suficientes para determinar
cuándo tenemos una explicación en las ciencias y cuándo no, hemos de admitir el fracaso de todos ellas en
conseguirlo. No hay nada extraño en que un proyecto semejante no haya llegado hasta ahora a buen puerto. El
concepto de explicación está estrechamente ligado al concepto de causación, y desde que Hume nos despertase
del sueño dogmático, todo intento de penetrar en este último concepto sólo ha generado perplejidades.

Los modelos deben interpretarse simplemente como ideales simplificadores con cierto poder heurístico. No
debe pensarse que la pluralidad de explicaciones concretas que encontramos en las distintas disciplinas
científicas han de encajar en ellos necesariamente. Ni tampoco debe creerse que son modelos permanentemente
válidos. Al fin y al cabo, los criterios para decidir qué cuenta como una buena explicación depende de las
teorías aceptadas en cada momento, y éstas están sujetas a cambios históricos radicales.

2.- Explicación científica y reducción.

La reducción es un tipo de explicación. Hablamos de reducción cuando una teoría puede ser explicada por otra
más general o más “profunda” (es decir, cuando el explanandum es él mismo una ley o teoría de ámbito
bastante general). Ejemplos de ello son la teoría de la gravedad de Newton a través de la cual se pudo deducir
la ley de la caída de los graves de Galileo o la ley de Kepler; también es el caso de la deducción de las leyes
de la termodinámica del siglo XIX a partir de la mecánica estadística de Maxwell y Boltzmann.

La reducción no tiene porque ser estricta. Puede ser “aproximativa” (ej.: la mecánica de Newton puede
deducirse de la teoría de la relatividad pero sólo de manera aproximada, y tanto más cuanto más lentos sean
los movimientos de los cuerpos y pequeña sea su masa). A veces, en estos casos el significado de los conceptos
que aparecen en la teoría reductora no es exactamente el mismo que en las leyes reducidas (Ej.: el concepto de
“masa” en la teoría de Newton es una constante, cualidad invariable, mientras que en la teoría de Einstein no
es constante, depende del punto de vista del observador).

La reducción puede también ser sólo “parcial”, es decir, no se deduce todo el contenido de la teoría reducida,
sino sólo algunos de sus principios (Ej.: la reducción de la genética a la biología molecular).

El hecho de que la ciencia funcione intentando encontrar explicaciones de todo, supone, en cierto sentido, que
tiene un compromiso con el reduccionismo. La ciencia intenta explicar los hechos a partir de una teoría mas
básica, pero esto no tiene que entenderse de forma negativa. Para ello es importante distinguir entre:

• Reduccionismo ontológico o constitutivo: defiende que los procesos de un cierto


nivel superior (ej.: “fenómenos biológicos”) están causado por los procesos que
ocurren en el nivel inferior (ej.: “químicos o físicos”). La forma más neutral de
explicar esta relación es la relación de superveniencia: los niveles superiores sobrevienen una vez que
se dan los inferiores. Así, dos sistemas que fuesen exactamente iguales en sus aspectos físicos, también
serían exactamente iguales en todos los demás aspectos. En definitiva, los fenómenos biológicos son
sencillamente fenómenos físicos vistos desde un nivel superior.

• Reduccionismo epistemológico o teórico: no es una tesis sobre la relación que existe entre unos niveles
y otros, sino acerca de la posibilidad de nuestro conocimiento de estos niveles. Lo que dice este
reduccionismo es que las leyes que son válidas sobre los niveles superiores pueden ser deducidas a
partir de las leyes que son válidas en los niveles inferiores. Es decir, que si conociéramos la teoría que
describe “correctamente” el nivel inferior, podríamos inferir a partir de ella las teorías que describen
“correctamente” los niveles superiores. Si conociéramos las leyes de la física podríamos deducir de
ellas las leyes de la química, biología, economía, etc.

El reduccionismo epistemológico es una tesis más fuerte que la del reduccionismo ontológico, que se limita a
señalar que los fenómenos superiores están constituidos por lo que pasa en los niveles inferiores. Si el
reduccionismo epistemológico es verdadero el ontológico necesariamente lo es, pero el epistemológico no se
sigue del ontológico. El ontológico puede ser verdadero (que dos sistemas físicos iguales sean químicamente
iguales) y el epistemológico puede ser falso (que el conocimiento de ese sistema físico no sea suficiente para
poder deducir de él las leyes que se cumplen a nivel biológico, y ello porque puede haber un incremento al
pasar al nivel biológico que sencillamente no sabemos que hacer con las ecuaciones de las leyes de la física
para deducir a partir de ellas las leyes de la biología).

Los problemas del reduccionismo epistemológico:

1.-Supone que cada nivel puede ser descrito perfectamente por una única teoría “correcta”, pero tal vez
nuestras teorías (y nuestros conceptos) sean siempre aproximados. Aunque el reduccionismo epistemológico
fuese correcto, es posible que nunca conozcamos las leyes físicas exactamente por lo que en la práctica es
como si los niveles superiores no fuesen reducibles a los niveles inferiores.

2.- No tiene en cuenta la importancia de la complejidad. Los sistemas complejos pueden ser caóticos, es decir,
dos sistemas que sean exactamente iguales, salvo un detalle, si los dejamos evolucionar, con el tiempo, puede
que no se parezcan en nada. Variaciones infinitesimales de las condiciones iniciales pueden implicar grandes
diferencias a nivel observable. Esto se relaciona con el “efecto mariposa”.

3.- El reduccionismo epistemológico requiere un conocimiento “casi” perfecto del nivel básico, lo cual no
ocurre en la práctica.

Reduccionismo y unificacionismo → el unificacionismo es otra teoría sobre la explicación que defiende


Kitcher mediante la cual una teoría explica algo cuando consigue explicar muchas cosas (no sólo un único
fenómeno). La explicación consiste en unificar muchos fenómenos. No busca explicarlo todo, sino que hay
una tendencia a unificar nuestros conocimientos, para reducirlos a un número menor de principios. La
reducción es sólo en sentido aritmético.

Una teoría unifica nuestras creencias cuando proporciona un(os) patrón(es) de argumentos que puedan ser
utilizados en la derivación de un amplio número de sentencias que aceptamos. Entender el concepto de
explicación es ver que si se acepta un argumento como explicativo, entonces uno se compromete a aceptar
como explicativo otros argumentos que son instancias del mismo patrón argumentativo. El problema es
especificar qué conjunto de argumentos tenemos que aceptar para explicar un fenómeno, dado que sostenemos
que una serie de sentencias son verdaderas.

Según Kitcher, una teoría de la explicación debe cumplir los siguientes requisitos:

i. Debe mostrarnos cómo la explicación científica incrementa nuestro conocimiento del mundo, es decir,
no nos brinda meramente un apilamiento de aspectos de conocimiento inconexos con mayor o menor
significación práctica.

ii. Debe permitirnos comprender y arbitrar en las disputas de la ciencia del pasado y del presente.

Por tanto, la intuición básica que inspira este modelo de explicación como unificación es que explicar consiste
en “reducir la cantidad de fenómenos independientes que tenemos que aceptar como últimos”. Aumentamos
nuestra comprensión del mundo reduciendo el número de supuestos básicos que dan cuenta de los fenómenos.
Las leyes de Newton explican las de Kepler porque, además de implicarlas, reducen la cantidad de
regularidades que se aceptan independientemente unas de otras.

Por tanto, se puede concluir que la ciencia no es necesariamente reduccionista, pero tal vez, sí sea
unificacionista.

3.- El realismo científico.

Pese a la imposibilidad de encontrar una caracterización que pueda satisfacer a todos, se puede señalar que el
realismo científico, en sus diferentes variantes, ha intentado responder fundamentalmente a la siguiente
pregunta: ¿Cuál es la relación que guardan nuestras teorías científicas y el mundo? A diferencia del realismo
metafísico tradicional que trata de dilucidar la naturaleza ontológica del mundo, su carácter primario o
independiente frente al espíritu o la mente, el realismo científico trata más bien de averiguar cuál es la mejor
manera de interpretar las teorías científicas a la luz de los objetivos y los resultados alcanzados por la ciencia
a lo largo de la historia.

Para afrontar esta cuestión, los defensores del realismo científico han desplegado argumentos diversos, lo que
implica que el realismo puede ser entendido de muchas maneras. El profesor Antonio Diéguez lo desglosa en
cinco tesis principales:

1. Realismo ontológico  considera que las entidades teóricas inobservables de las que hablan las teorías
científicas existen realmente (genes, electrones, etc.). A este realismo se opone tanto el
instrumentalismo sobre entidades (las entidades teóricas son meros recursos predictivos) como el
constructivismo social (las entidades teóricas son construidas socialmente).

2. Realismo epistemológico  es la forma más común de realismo. Las teorías científicas nos
proporcionan un conocimiento adecuado, aunque perfectible, de la realidad tal como ésta es con
independencia de nuestros procesos cognitivos. Es decir, no solo nos dice que las teorías son
verdaderas o falsas sino que además éstas permiten que nos vayamos aproximando a esa realidad. A
lo largo de la historia vamos teniendo una sucesión de teorías sobre el mismo tema que nos dan cada
vez una mejor descripción de esa realidad. A este realismo se oponen el fenomenismo (las teorías
científicas solo tratan de fenómenos observables) y el idealismo epistemológico (las teorías científicas
versan sobre una realidad hecha por la mente).

3. Realismo teórico  tesis más filosófica que defiende que las teorías científicas son verdaderas o falsas.
A él se opone el instrumentalismo teórico (las teorías científicas son instrumentos de cálculo, útiles o
inútiles, empíricamente adecuadas o inadecuadas, pero no verdaderas o falsas).
4. Realismo semántico  añade al realismo teórico una cierta concepción sobre la naturaleza de la verdad
ya que las teorías científicas son verdaderas o falsas en función de su correspondencia con los hechos,
no en función de otros significados de la verdad. A este realismo se oponen el pragmatismo (la verdad
o falsedad de las teorías han de entenderse en relación con las actividades cognitivas humanas), el
coherentismo (la verdad o la falsedad no significa otra cosa que su coherencia con un sistema
previamente aceptado de creencias o de teorías) y el relativismo (la verdad o la falsedad de las teorías
son relativas a los contextos en los que éstas surgen).

5. Realismo progresivo  la ciencia progresa teniendo en cuenta la verdad. Las nuevas teorías contienen
más verdad y/o menos falsedad que las anteriores. Frente a este realismo hay autores que sostienen
que el progreso de la ciencia no puede ser establecido como un acercamiento creciente a la verdad.

Entre estas tesis realistas existen relaciones de orden que obligan a aceptar algunas si es que se aceptan otras
determinadas. Así, el realismo epistemológico presupone el ontológico, ya que no tiene sentido creer que las
teorías científicas nos proporcionan un conocimiento adecuado de la realidad y al mismo tiempo negar una
referencia objetiva a todos los términos teóricos de cualquier teoría (sería incoherente sostener que la teoría de
la relatividad nos dice algo sobre el modo en que realmente está constituido el Universo mientras que se niega
la existencia real de referentes para términos como espacio-tiempo, masa, energía, etc.). Sin embargo, esta
relación no se da a la inversa: el realismo ontológico no exige la aceptación del realismo epistemológico. Del
mismo modo, el realismo semántico exige la aceptación del realismo teórico, pero no al contrario y el realismo
progresivo presupone el realismo teórico, sin que suceda a la inversa.

El realismo científico no es propiamente una teoría científica sobre la ciencia, ya que versa sobre la mejor
manera de interpretar nuestros conceptos y teorías científicos, lo cual no es una cuestión empírica, aunque no
carece de consecuencias empíricas que lo puedan presentar con un grado mayor o menor de plausibilidad. El
estudio de cuestiones empíricas (tales como el tipo de procesos mentales que conducen a la elaboración de
teorías, los procedimientos institucionalizados o relativamente improvisados por los que los científicos
consiguen el acuerdo sobre la aceptación de éstas, o la función de adaptación al medio que el conocimiento
pueda cumplir) son, sin duda, pertinentes y relevantes en la evaluación de cualquier teoría epistemológica,
aunque también es cierto que, al menos por el momento, la idea de una epistemología completamente
naturalizada, esto es, convertida ella misma en una ciencia, es sólo un proyecto incipiente.

Principales argumentos y tesis a favor del realismo:

a) Argumento del milagro de Putnam: sería extrañísimo que nuestras teorías hicieran tan buenas
predicciones si no fueran aproximadamente verdaderas (con un grado de aproximación muy alto). Con
este argumento puede relacionarse la “inferencia a la mejor explicación” (bautizado así por Gilbert
Harman) es el argumento más plausible con el que cuenta el realismo. Se trata de un tipo de inferencia
abductiva que consiste en lo siguiente: dado un hecho concreto a explicar, si hay para él varias hipótesis
explicativas posibles evidencialmente equivalentes, pero una de ellas es claramente la mejor en lo que
se refiere a su poder explicativo, es decir, proporciona la explicación más probable, o la más elegante,
o la más profunda, o la más simple, o la menos rebuscada, o la que mejor coordinación da a los detalles,
o la más comprehensiva, o la más coherente con las explicaciones anteriores, etc., entonces (en
ausencia de otras circunstancias relevantes que pudieran modificar la decisión) debe aceptarse esa
hipótesis en lugar de las otras.

b) Argumento de la manipulación de Ian Hacking (se refiere más a las entidades que a las teorías): si hay
entidades de las que hablan ciertas teorías científicas que nosotros podemos utilizar como instrumento
para manipular otras cosas, entonces esas cosas que usamos como instrumentos no podemos negar que
existen (ej. manipular las moléculas de ADN). Cuando se logra manipular una entidad hasta ese
momento hipotética, para interferir con ella en otras partes de la naturaleza, se estaría justificado en
pensar que dicha entidad es real.

c) Argumento de la imposibilidad de distinguir lo observacional de lo teórico: no podemos negar que las


entidades observacionales existen porque las vemos y las entidades teóricas pueden que no existan
porque no las observamos pero, hay entidades que no está claro si son observables o inobservables
(por ejemplo, cosas que no se ven a simple vista pero que si se ven con una lupa o un microscopio).

Realismo y aproximación a la verdad:


Si uno de los objetivos de la ciencia es permitirnos descubrir cómo es el mundo, parece que eso implica que
deseamos que nuestras teorías sean verdaderas. La tesis más habitual entre los científicos y los filósofos de la
ciencia es que la ciencia contemporánea nos ofrece un conocimiento bastante verdadero de cómo es la realidad.

La posición que se adopte sobre el problema de la verdad en la ciencia es independiente de la posición que se
asuma con respecto al realismo ontológico y epistemológico. Esto ha sido argumentado ampliamente por
Michael Devitt: “ninguna doctrina de la verdad es en modo alguno constitutivo de realismo”. En efecto,
ninguna de las tres tesis realistas que incluyen el concepto de verdad (realismo teórico, realismo semántico y
realismo progresivo) exige la previa aceptación del realismo ontológico y del epistemológico, que constituyen,
por decirlo así, la base del realismo científico. Se puede, por tanto, ser antirrealista y defender que la verdad
cumple un papel importante en la ciencia (tal es el caso de muchos pragmatistas). Mientras que, por otro lado,
se puede ser un realista ontológico y epistemológico sin que ello determine el compromiso que pueda
adquirirse con respecto a una determinada concepción de la verdad. De hecho, la independencia relativa entre
los aspectos ontológicos y epistemológicos del realismo y la creencia en que las teorías científicas pueden
aproximarse a la verdad ha sido plasmada de forma concreta en la obra de algunos autores como Ian Hacking,
Nancy Cartwright, Tom Harré y Ronald Giere. Todos ellos han defendido, con diferentes matices, un realismo
desligado del concepto de verdad.
El realismo epistemológico dice que las teorías son cada vez mejores aproximaciones a la verdad en relación
a la correspondencia con los hechos. El concepto de aproximación a la verdad, como ejemplo de explicación
de lo que significa el realismo científico, lo propuso Popper con el nombre de Verosimilitud (“truthlikly”). No
podemos demostrar que ninguna teoría científica es verdadera, aunque podemos demostrar que sean falsas. Lo
más seguro es que todas las teorías científicas interesantes sean falsas, pero algunas son “menos falsas” que
otras, están más próximas a la verdad.

Popper dio una definición estricta, lógica de este concepto: “A es más verosímil que B si todas las
consecuencias (“predicciones”) falsas de A también lo son de B, y todas las consecuencias verdaderas de B
también lo son de A”. Al cabo de unos años, algunos autores descubrieron que esta teoría era inaplicable
porque dos teorías falsas no pueden estar en esa relación que define Popper, no puede ocurrir que A sea más
verosímil que B, mientras que otros autores intentaron restringir las consecuencias relevantes para definir esta
noción de forma que se mantenga la intuición de la verosimilitud.

Otras definiciones se basan en nociones de aproximación en sentido matemático de predicciones cada vez más
exactas, probabilidad (la mayoría de predicciones son probabilísticas y la distribución de probabilidades cada
vez acierta más), semejanza (nuestras teorías cada vez son más parecidas a la realidad en algún sentido que no
se recoja en los otros sentidos), etc.

4.- ¿Puede la ciencia explicarlo todo?

En el campo de la investigación científica podemos hablar de diversas clases de preguntas:

1. Prácticas  mediante las que procuramos mejorar nuestra capacidad de adaptación al entorno, ampliar
nuestras posibilidades de acción o de elección (Ej.: ¿Cómo evitar la recesión?, ¿Qué utilidad
podríamos darle a esta propiedad que acabamos de descubrir en los superconductores?).

2. Descriptivas  cuyo propósito es averiguar cómo es el mundo que nos rodea, describirlo (Ej.: ¿Cuál
era la disposición de los continentes hace 1000 millones de años?, ¿hay algún elemento estable con un
número atómico mayor que 120?).

3. Preguntas que buscan explicar los hechos, es decir, entenderlos. Estas son principalmente el tipo de
preguntas que guían la investigación científica y se centran en un por qué (Ej.: ¿Por qué las cenizas
pesan más que la madera que hemos quemado?, ¿Por qué heredan los nietos algunos rasgos de sus
abuelos, cuando esos rasgos no estaban presentes en los padres?). Por desgracia, no parece que esté
demasiado claro en qué consiste eso de “explicar”, qué hacemos exactamente con las cosas al
entenderlas y, sobre todo, por qué son tan importantes para nosotros los porqués, qué ganamos con
ellos que no pudiéramos obtener tan solo con respuestas a las dos primeras clases de preguntas.
En la noción de explicación se mezclan de manera intrigante aspectos objetivos y subjetivos. Al
fin y al cabo, comprender algo es un suceso psicológico, algo que ocurre en la mente de alguien.
En cambio, cuando intentamos dar una explicación de un hecho, solemos acudir a diversas
propiedades del hecho en cuestión. Las principales teorías que ofrece la filosofía de la ciencia
sobre la naturaleza de las explicaciones se centran, precisamente, en los aspectos objetivos. Por
ejemplo, se considera que un hecho ha sido explicado cuando se ha deducido a partir de leyes
científicas (Hempel), cuando se ha ofrecido una descripción apropiada de su historia causal
(Salmon) o cuando se muestra como un caso particular de leyes más generales, que abarcan
muchos otros casos en apariencia diferentes (Kitcher). También se considera que algunos hechos
-sobre todo en biología- son explicados cuando se pone de manifiesto su función o cuando -en las
ciencias humanas- se ponen en conexión con las intenciones o los valores de los agentes
implicados. Hablamos en estos dos casos de “explicación funcional” y “explicación teleológica”,
respectivamente.

La cuestión es, ¿por qué pensamos que entendemos un fenómeno precisamente cuando
conocemos sus causas o su relación con otros fenómenos aparentemente distintos, más que
cuando conocemos su duración, localización, posible usos o cualquiera otra de sus propiedades?:

• Una posible respuesta, tradicionalmente asociada al pensamiento de Aristóteles, sería la


que identifica el significado de “comprender” con “conocer las causas”; sin embargo, ello
da la impresión de ser poco más que un juego de palabras.

• Otra posibilidad consistiría en concebir nuestros conocimientos no como una mera


enciclopedia o pirámide, en la que cada pieza se va acumulando a las demás, sino como
una red de inferencias, en la que el valor de cada ítem depende de lo útil que sea para
llevarnos a más conocimientos cuando se combina con otros ítems. A veces conseguimos
añadir a nuestros conocimientos una pieza que produce un resultado especialmente feliz:
gracias a ella los enlaces inferenciales se multiplican y a la vez se simplifican,
haciéndonos más fácil el manejo de la red. Es decir, entendemos algo tanto mejor cuanto
más capaces somos de razonar sobre ello de manera sencilla y fructífera.

Esto nos lleva a señalar que los conceptos de explicación y comprensión no son absolutos, pues
siempre cabe la posibilidad de que algo que ya hemos explicado lo expliquemos con mayor
profundidad o de manera más satisfactoria. Ello resulta obvio cuando nos fijamos en que, para
explicar por qué ciertas cosas son como son, tenemos que utilizar a modo de premisa en nuestro
razonamiento alguna otra descripción. Si queremos explicar por qué las órbitas de los planetas
obedecen las leyes de Kepler, emplearemos como premisa la ley newtoniana que describe cómo
se atraen los cuerpos. Esto implica que para explicar algo, necesitamos siempre alguna
descripción “explicadora”, que, a su vez, podrá ser explicada por otra. Así, la teoría general de la
relatividad explica por qué los cuerpos obedecen con gran aproximación la ley de la gravedad.
Una consecuencia inmediata de este hecho trivial es que nunca será posible explicarlo todo.

Por tanto, para explicar científicamente cualquier fenómeno o cualquier peculiaridad del universo
recurrimos a leyes, modelos, principios, que son, al fin y al cabo, afirmaciones que dicen que el
mundo es así o asá, en vez de ser de otra manera. Imaginemos que ya hubiéramos descubierto
todas las leyes, modelos o principios científicamente relevantes que haya por descubrir.
Llamemos T a la combinación de esa totalidad ideal de nuestro conocimiento sobre el mundo y
preguntémonos “¿Por qué el mundo es como dice T, en lugar de ser de cualquier otra manera
lógicamente posible?”. Obviamente, la respuesta no puede estar contenida en T, pues ninguna
descripción se explica a sí misma. Por tanto, o bien deberíamos hallar alguna nueva ley, modelo
o principio, X, que explicase por qué el mundo es como dice T, o bien hemos de reconocer que
no es posible para nosotros hallar una explicación de T. Pero lo primero contradice nuestra
hipótesis de que T contenía todas las leyes y principios relevantes para explicar el universo; así
que debemos concluir que explicar T (la totalidad de las leyes de la naturaleza) está
necesariamente fuera de nuestro alcance.

Dos reacciones frecuentes a esa situación son pensar que el universo es, en el fondo,
inexplicable, o bien que la explicación última del cosmos no puede ser científica.

A.- Lo primero resulta trivial si se entiende en el sentido de que no puede haber una teoría
científica que lo explique todo, pero también banal en cuanto que explicar no es una cuestión de
todo o nada, sino de más o menos. Lo importante es en qué medida hemos conseguido comprender
el universo o sus diversas peculiaridades, no si lo hemos comprendido en su totalidad. Es decir,
la pregunta adecuada es “en qué grado” hemos conseguido simplificar e interconectar un conjunto
cada vez más amplio y variado de conocimientos, no si los hemos reducido a la más absoluta
simplicidad.

B.- Por otro lado, la idea de una explicación extracientífica es meramente un sueño. Para que algo
constituya una explicación debe permitirnos deducir aquello que queremos explicar: las leyes de
Newton explican las de Kepler porque estas pueden ser calculadas a partir de aquellas. Como ha
aclarado Richard Dawkins, la información que queremos explicar debe hallarse contenida en la
teoría con la que la explicamos; por tanto, una teoría que explique un gran número de cosas debe
contener gran cantidad de información, debe ser en realidad una descripción muy detallada (y a
la vez muy abstracta) del funcionamiento del universo. Por ejemplo, los defensores de la teoría
del “diseño inteligente” cometen justo este tipo de error al introducir la hipótesis de un designio
divino, pues a partir de esa hipótesis resulta sencillamente imposible derivar los detalles de lo que
queremos explicar, ni siquiera sus aspectos más generales.

Dicho de otra manera, los porqués no son en realidad una categoría separada de los cómos, sino
más bien una clase de estos: corresponden a los cómos que nos ayudan a simplificar y ampliar
nuestros conocimientos. Por tanto, ninguna hipótesis merece ser llamada explicación si no permite
responder, al menos en algún aspecto relevante, a la pregunta “¿Cómo ha ocurrido esto?”. En
resumen, nadie sabe si existen realidades que la ciencia no podrá nunca conocer. Lo que sí
sabemos es que estas realidades, en caso de que existan, nunca nos permitirán explicar nada.

Preguntas para examen

1. A la vista de las lecturas efectuadas en este tema, ¿en qué consiste para usted “la explicación
científica”? ¿Qué debe hacer –o qué cosas puede hacer– una teoría científica para ser
considerada legítimamente como una “explicación” de algo?
2. ¿Qué diferencias principales encuentra usted entre las “explicaciones” que se ofrecen en
diversos campos de la ciencia, en particular, en la física, la biología y las ciencias sociales?
3. ¿Es la ciencia inevitablemente “reduccionista”? Justifique su respuesta.
4. ¿Es hallar la verdad uno de los objetivos principales de la ciencia?
5. ¿Qué significa exactamente que una teoría científica explique un determinado fenómeno?
6. ¿Qué relaciones hay entre la noción de explicación y la noción de causalidad?
7. ¿Puede la ciencia explicarlo todo?
8. Las teorías científicas, ¿explican la realidad o se limitan a describirla?
9. ¿En qué consiste que una teoría sea reducible a otra?
10. ¿Qué se quiere decir cuando se afirma que la ciencia es –o deja de ser– “reduccionista”?
11. ¿Cuáles son las alternativas al “reduccionismo”?
12. ¿Existen varias clases de “reduccionismo”?
13. Comente la frase “la objetividad científica requiere que la ciencia sea una actividad libre de
valores”.
14. Relaciones entre explicación, predicción y descripción.
TEMA 2.- El naturalismo científico y la cuestión de los valores en la ciencia.

1.- Introducción.
La filosofía de la ciencia es una de las especialidades de la filosofía más recientes. En sentido
moderno, si bien las primeras obras datan de la 1ª mitad del siglo XIX, destacando
fundamentalmente las de F. Whewell (1794-1866), como disciplina autónoma no se
constituye hasta los años 20 y 30 del siglo XX, con el Círculo de Viena, cuyo positivismo fue
dominante entre los años 20 y 70. Se trata de un enfoque muy formalista que no se preocupa
por describir cómo es la ciencia que hacen los científicos, sino de cómo tiene que ser la ciencia
que hacen los científicos. Sus principales intereses son:
• El análisis de los conceptos científicos.
• Los métodos de contrastación de teorías.
• Análisis de la naturaleza de las teorías y su relación con la experiencia.

A partir de los años 60 y por la influencia de Thomas Kuhn y su obra “La estructura de las
revoluciones científicas” hay un desplazamiento del principal interés hacia la cuestión de la
racionalidad de la ciencia, es decir, en qué sentido la ciencia progresa, avanza y si realmente
avanza (hay corrientes de esta época que niegan que exista el progreso científico). Al convertir
el cambio científico en objeto de estudio y al basarse metodológicamente en la historia para
sostener sus teorías acerca de la ciencia, Kuhn abre un debate que irá tomando cada vez más
fuerza acerca de cuál es el estatus de la filosofía y que se puede señalar como punto de partida
del naturalismo.

A partir de los años 70 y 80 surgen varios movimientos que intentan combinar algunos de los
enfoque formales del positivismo con el interés en el desarrollo histórico de la ciencia nacido
con Kuhn:

• El bayesanismo: sería una de las propuestas más formalistas. Es la teoría que intenta
reducir la racionalidad científica a la teoría de la probabilidad.

• La concepción semántica: se centra en la estructura de las teorías científicas basadas


en las teorías semánticas, más que en los aspectos sintácticos.

• Constructivismo social: supone un conjunto de enfoques sociologistas y relativistas.

Desde las últimas tres décadas del siglo XX y hasta nuestros días, la concepción que triunfa
mayoritariamente es el naturalismo y al mismo tiempo va cayendo en el olvido el intento que
había habido hasta los años 70 de crear una especie de teoría omnicomprensiva sobre el
funcionamiento de la ciencia. Ahora los filósofos se encargan de estudiar problemas muy
delimitados y de aplicarlos a casos concretos.

16
Filosofía de la Ciencia II

2.- ¿Qué es el naturalismo?


El naturalismo es el enfoque de la filosofía de la ciencia más popular hoy en día, entre cuyos
representantes más importantes podemos mencionar a autores como Dennett, Giere, Hooker,
Hull, Kitcher o Laudan, entre otros. Eso no quiere decir que todos los filósofos de la ciencia
sean naturalistas, pero no hay otra concepción que tenga tantos seguidores.

“Naturalismo” es una palabra ambigua, pues hay muchas formas de entender qué es ser
naturalista:

De un modo trivial, es la negación de todo lo sobrenatural. En este sentido casi todos


los filósofos de la ciencia son naturalistas.

Negación del contructivismo radical → consiste en la afirmación de que la naturaleza


no desempeña ninguna papel relevante en el establecimiento del conocimiento
científico y que todo lo científico está constituido únicamente por la actividad
humana.

Negación del fundacionismo y apriorismo → el razonamiento a priori no puede


proporcionarnos conocimientos filosóficos interesantes sobre la realidad, sobre el
universo físico, sobre cuestiones empíricas. Es un sentido más restringido que los
anteriores y por tanto habría menos filósofos que fuesen naturalistas.

La epistemología es una ciencia empírica, en particular, es psicología aplicada →


enfoque popularizado por Quine, que supone el intento de aplicar la psicología para
resolver ciertos problemas prácticos como el de obtener conocimientos lo mejor
posible. Es aún más restringido que los anteriores.

Una intuición más vaga y abstracta de lo que sería el naturalismo consiste en la idea
de que no existe una diferencia radical entre ciencia y filosofía, ya que la filosofía
forma parte de la ciencia y tiene que usar mecanismos e instrumentos análogos a los
que se usan en la ciencia.
Con esta última concepción del naturalismo se asocia la tesis de la superioridad epistémica
de la ciencia, es decir la consideración de la ciencia como forma más óptima de conocimiento,
la forma superior. Ahora bien, cuando se dice que la ciencia es epistémicamente superior a
otras formas de conocimiento, ¿a qué conocimiento nos referimos? Se puede hablar en
términos muy generales incluyendo el misticismo, la poesía o la hermenéutica y en este
sentido, los filósofos naturalistas consideran que el método científico es superior como
procedimiento para obtener conocimiento objetivo sobre la realidad a estas otras formas. En
un sentido más fuerte, se considera que el conocimiento que nos proporciona la ciencia es
superior a los conocimientos que obtenemos mediante la razón, entendida como instrumento
que habitualmente se asocia al pensamiento filosófico. Desde este punto de vista se
contraponen las ciencias humanas y sociales a las ciencias naturales.

17
Filosofía de la Ciencia II

Esto nos lleva a la cuestión de si debe entenderse lo mismo por naturalismo que por
reduccionismo o si el naturalismo es lo mismo que el cientificismo. Sobre esto hay acuerdo:
el cientificismo no equivale a naturalismo. Cientificismo es la concepción según la cual todos
los problemas se pueden resolver mediante la ciencia. Tampoco hay unanimidad sobre si
debemos entender la filosofía como una parte de la ciencia al modo que entendía Quine.
En definitiva, podemos definir el naturalismo en filosofía de la ciencia como la tesis según
la cual la ciencia debe ser estudiada como cualquier otro fenómeno empírico (o “natural”, si
entendemos este término muy grosso modo), es decir, utilizando los métodos de las ciencias
empíricas y echando mano de los conocimientos científicos más fiables entre los que sean
relevantes para la solución de algún problema filosófico sobre la ciencia. La aplicación de
esta tesis significa renunciar a una de las posturas más arraigadas en la epistemología: la idea
de que el conocimiento del método científico debe ser obtenido a priori, como una
propedéutica que sería necesario poseer antes de empezar a buscar conocimientos específicos
sobre la realidad. Según los naturalistas, en cambio, el conocimiento sobre la ciencia no
estaría a un nivel “superior” al de los propios conocimientos científicos, sino que debería ser
exactamente del mismo tipo que éstos. Las principales diferencias entre unos autores y otros
dentro del naturalismo se referirían a qué ciencia empírica en particular (psicología, biología,
sociología, historia, etc.) se considera más relevante a la hora de explicar la actividad y el
conocimiento científicos.

3.- Principales problemas del naturalismo.


Los principales problemas metodológicos o conceptuales del naturalismo son:

1.- Problema de la circularidad → el naturalismo, entendido como que la filosofía es una parte
de la ciencia, presupone un círculo vicioso. Una de las aspiraciones de la filosofía de la ciencia
es ofrecer una fundamentación de los métodos de la ciencia, entonces, si la filosofía es una
parte de la ciencia ella misma debe suponer la validez de los métodos cuya validez quiere
justificar. El hecho de que aquí exista un círculo es algo difícil de negar, y la respuesta de los
naturalistas viene a ser que otros enfoques alternativos no salen mejor parados al enfrentarse
a esta misma dificultad: por ejemplo, el apriorismo (que defendería la necesidad de partir de
fundamentos no empíricos, y absolutamente ciertos, en el análisis de la ciencia) no ha
conseguido ofrecer argumentos convincentes sobre cuáles pueden ser los fundamentos del
método y del conocimiento científicos, mientras que el relativismo (que asumiría con
satisfacción la carencia total de fundamentos) no ha conseguido ofrecer una explicación
mínimamente satisfactoria de los éxitos de la ciencia. El naturalismo argüiría, en cambio, que,
a falta de apoyos absolutos, no hay más remedio que basarse en los conocimientos más fiables
que tengamos a nuestra disposición, mientras sean útiles; y además, podemos añadir, si se
consigue dar una explicación científica, esto mostrará al menos la coherencia interna de la
propia actitud científica.

2.- Problema de la normatividad → papel tradicional de la filosofía de la ciencia es el de


ayudarnos a formula como debe llevarse a cabo la investigación racional de la ciencia y, por
tanto, sería una investigación eminentemente normativa. Pero si el naturalismo se limita a

18
Filosofía de la Ciencia II

describir y explicar el funcionamiento de las ciencias, sus resultados no podrán indicarnos


como deben comportarse los científicos, o si sus decisiones han sido racionales (o correctas),
o qué reglas metodológicas son válidas. Si el naturalismo intentase hacer tal cosa cometería
precisamente la “falacia naturalista”: derivar un deber a partir de un ser. Por tanto, no se puede
deducir una conclusión normativa de premisas que son afirmaciones positivas sobre la
realidad. Los naturalistas se defienden de esta crítica argumentando que sólo a través del
estudio empírico de la ciencia, de la psicología y de la naturaleza es posible descubrir cuáles
son, por un lado, los fines que de hecho persiguen los científicos, y, por otro, cuál es la
eficiencia esperable de cada método que se utiliza para conseguirlos; si las normas se
entienden, pues, como “imperativos categóricos”, esto es, como enunciados sobre la
eficiencia relativa de los diversos cursos de acción que un científico puede seguir en un
momento determinado, entonces no sólo no es problemático el buscar estas normas
empíricamente, sino que esa sería la única forma razonable de hacerlo.

Una forma de resolver estos dos problemas la formuló uno de los principales defensores de la
concepción naturalista, como es Larry Laudan (en su obra “Ciencia y Valores”). Laudan
sugiere que existen tres piezas fundamentales en la ciencia:

1. Valores → que cosas intentamos conseguir mediante la ciencia. Qué es lo que nos
hace valorar ciertos modos de hacer ciencia frente a otras.

2. Teorías → conocimientos que la ciencia nos proporciona acerca del mundo

3. Métodos → procedimientos que debemos utilizar para obtener las teorías.

Su propuesta es naturalista porque la filosofía de la ciencia sería un estudio empírico acerca


de la investigación científica. “La teoría del conocimiento está en continuidad con otros tipos
de teorías sobre la constitución del mundo y sobre la acción humana. Y la Filosofía no es
anterior a estas otras formas de investigación ni superior a ellas como un tipo de saber.”
. Por eso Laudan llama a la filosofía de la ciencia teoría de la investigación, porque a su vez,
este estudio puede someter sus teorías acerca de la investigación a los mismos fines y criterios
a los que somete el resto de la ciencia. Pero además, es una propuesta normativa porque
incluye en el estudio del cambio científico los métodos y los valores con los que interactúan
las teorías (el cambio no se restringe a teorías).

En cuanto al problema de la circularidad, Laudan se defiende afirmando que no existe tal


circularidad en el planteamiento naturalista; y lo argumenta explicando que con su modelo
reticular hay dos maneras de determinar si una teoría es correcta:
a) Una consiste en lo que llama “esperar y ver qué pasa”. Es decir, elaboramos una teoría
que está sometida a revisión ya que los fenómenos futuros puede que determinen que
en realidad, esa teoría no es correcta.
b) Además, también podemos ver que a lo largo de la historia ha habido ciertas
características comunes a las teorías que han sido más difícilmente falseadas o que no
lo han sido. A partir de estas características podemos extraer ciertas normas

19
Filosofía de la Ciencia II

metodológicas que nos permitan acortar el tiempo y la experiencia en principio


necesaria para aceptar una teoría. Es decir, al extraer la metodología de los hechos −la
historia− y de los valores a los que han respondido a lo largo de la historia los métodos
exitosos, se rompe la circularidad porque hay dos modos de determinar la metodología:
los fines y los valores. Si se presupone que los fines se mantienen invariables a lo largo
de la historia, entonces sí que tendríamos circularidad: las teorías se obtendrían a partir
de un método y el método exitoso se determinaría partiendo de las teorías exitosas.
Pero es que además, tenemos los valores: si en un análisis de la historia vemos que las
metodologías que respondían a ciertos valores se han correspondido con teorías que
han resultado más exitosas, podemos aceptar esas metodologías sin temor de caer en
la circularidad. De este modo, podemos explicar el cambio científico sin presuponer
valores absolutos ocultos en el desarrollo de la historia de la ciencia.

Por tanto, para Laudan, en ciencia no solamente cambian las teorías; también los métodos y
los valores y defiende que este cambio es racional. Es cierto que existe un círculo, pero no es
vicioso, sino virtuoso. Se trata de un círculo que establece una permanente interacción entre
estos tres conceptos y lo que ocurrirá será que el propio desarrollo histórico de la ciencia en
su marco social, económico, etc., nos hará ir descubriendo métodos, valores y teorías que sean
lo más amplias, eficaces y coherentes posibles.

Por otro lado, a Laudan no le preocupa en demasía el problema de la falacia naturalista y


argumenta que del mismo modo que esta existe, también tenemos la falacia deductivista:
nunca es posible deducir ninguna ley general acerca de los hechos. Por mucho que los
fenómenos se hayan producido de un determinado modo en la experiencia pasada, no hay
manera de deducir lógicamente de ahí que los hechos futuros también obedecerán a las
mismas leyes. Esto supone que, tal vez, la lógica deductiva no sea tan importante para la
ciencia como los filósofos analíticos habían defendido. Además, si tenemos en cuenta que
para Laudan no hay valores absolutos, la falacia naturalista se vuelva irrelevante: no hace
falta justificar en términos absolutos los fines de la ciencia. Como los fines de la ciencia no
son absolutos, no hace falta que queden justificados apriorísticamente. ¿Qué más da que
deduzcamos el ámbito normativo, a partir del ámbito descriptivo si, al fin y al cabo, la
normatividad es contingente y va cambiando a lo largo de la historia?

Junto a los problemas principales de la circularidad y la normatividad, cabe señalar dos más:

3.- Problema de la “colocación” [ placement ] → (dónde colocar ciertas cosas en una


concepción naturalista de la realidad). Las verdades lógicas y matemáticas, ¿que existencia
tienen? (números, raíces cuadradas, etc.). Se trata entidades difíciles de “naturalizar”. Se
plantea el problema de cómo puede nuestro conocimiento de la realidad material, natural,
afectar a estas cosas y como acceder a esas verdades que no tienen un lugar en la naturaleza.
También ocurre con los propios valores, los fenómenos mentales (los qualia, como los
colores), conciencia, los significados (el significado común de una determinada proposición),
libertad (como compatibilizar el libre albedrío con el hecho de que los fenómenos de la
naturaleza ocurren conforme a leyes).

20
Filosofía de la Ciencia II

4. - Problema de la consistencia → en la ciencia hay muchas teorías que se contradicen unas


a las otras. Si aceptamos que la filosofía de la ciencia se reduce a la ciencia entonces la ciencia
no es un corpus de teorías absolutamente coherente.

4.- Distintos enfoques naturalistas.


Junto a la propuesta normativista de Laudan, existen otras propuestas interesantes de cómo
entender el naturalismo científico.

4.1.- W.O. Quine.

Las raíces del naturalismo suelen verse en el artículo de Quine “Naturalización de la


Epistemología” (1973) en el que critica el ideal de la epistemología de querer deducir
lógicamente los enunciados de la ciencia a partir de enunciados de observación y de querer
definir los términos de la ciencia a partir de términos que se refieren a la experiencia sensible,
ya que las oraciones de la ciencia no se pueden probar lógicamente a partir de oraciones
observacionales y tampoco se puede reconstruir el discurso de la ciencia en términos de
observación, lógica y teoría de conjuntos.
Quine propone estudiar cómo, a partir de la estimulación sensorial, se construye la teoría, esto
es, Quine entrega “la carga epistemológica a la psicología”: abandonando la tarea de
establecer una relación de fundamentación entre experiencia sensible y teoría en favor del
estudio de la relación que hay en nuestro sistema cognitivo entre experiencia y teoría.
Sin embargo, en otra obra, “La búsqueda de la verdad” (1990), Quine concede un lugar a la
epistemología desligada de las ciencias que de ordinario llamamos “empíricas”: en esta
asombrosa mezcla de relaciones entre la estimulación sensorial y nuestra teoría científica del
mundo, hay un segmento que podemos separar y aclarar sin dedicarnos a la neurología, la
psicología, la psicolingüística, la genética o la historia. Es la parte donde la teoría se contrasta
mediante la predicción. En diversas ocasiones Quine ha caracterizado este segmento de la
epistemología como lógica aplicada.
La naturalización, tal como Quine la defiende en su primer artículo, ha sido objetada por Rorty
y Putnam, entre otros, aduciendo que no deja lugar al componente normativo que tiene la
epistemología. Ésta no puede limitarse a describir, sino que su papel legítimo es sancionar el
conocimiento. Quine ha respondido que la epistemología naturalizada sí concede un lugar a
lo normativo, ya que, como cualquier ciencia empírica, es una ciencia teórica y descriptiva,
pero también posee aplicaciones prácticas. Para que la información que ofrece la
epistemología se pueda convertir en la base de las normas hace falta especificar los fines que
sirven. Quine menciona como fines principales de la ciencia el entendimiento, el control y
modificación de la naturaleza. También es un fin la predicción, aunque ésta es importante por
otros motivos. De este modo Quine aboga por un normativismo instrumental.

21
Filosofía de la Ciencia II

El proyecto de naturalización de Quine también ha sido criticado por contener vaguedades y


oscilaciones. Así, para Haack, en Quine hay dos sentidos distintos de “teoría” y de “ciencia”,
y esto se debe a la herencia racionalista del Círculo de Viena. En el positivismo lógico, por
un lado, la ciencia es un hecho institucional, es lo que entendemos ordinariamente por
“ciencia”, las imágenes del mundo, los sistemas de creencias, y quizá sus aplicaciones
tecnológicas, que producen ciertas comunidades institucionalizadas. Por otro lado, la ciencia
es conocimiento racional, lo que incluye que esté justificado por la experiencia. En este
sentido, la ciencia no es patrimonio de ninguna institución, sino un tipo de conocimiento
accesible a todos los humanos. La ciencia es conocimiento intersubjetivo, o
intersubjetivamente compartible. De acuerdo con esto, es posible dar reglas de aplicación
universal sobre lo que es ciencia, con independencia de las prácticas de las instituciones o
comunidades científicas.

Los positivistas lógicos propusieron una epistemología normativa, y en ella incluían


numerosas reglas y un criterio de cientificidad que dictaminaba que sólo son científicos los
enunciados confirmables empíricamente. La justificación que ofrecían del criterio combina
las dos perspectivas aludidas del positivismo lógico sobre la ciencia.

Esta actitud de los positivistas lógicos, que, según parece, Quine comparte, explica algo bien
enigmático en su proyecto de naturalización de la epistemología. No es verosímil su idea de
un sujeto humano que recibe ciertas entradas sensoriales y luego produce una descripción del
mundo. No existe ningún sujeto físico humano que haya hecho semejante cosa. La ciencia no
es la creación de ningún sujeto individual. Es una actividad y un producto sociales. De modo
que la sociología de la ciencia debería tener un lugar prominente en la epistemología
naturalizada. Quine mismo ha reconocido factores sociales en la adquisición del
conocimiento: existe lo que él llama “la presión hacia la objetividad” de naturaleza social y
existe el llamado “principio de caridad”: compromiso metodológico de interpretar pro bono
las emisiones lingüísticas de los demás, esto es, atribuirles racionalidad mientras sea posible.
El principio de caridad, tal como lo presenta Quine, es democrático: no debemos atribuir
errores de lógica o de percepción a nadie mientras sea razonablemente económico no hacerlo,
pero no hay nadie privilegiado.

4.2.- Ronald Giere.

El planteamiento de Giere deja fuera el ámbito normativo. Si lo que nos proponemos es


estudiar la ciencia como un fenómeno natural no tiene sentido intentar justificar las normas
metodológicas más allá del contexto donde se dan. La filosofía de la ciencia necesita situarse
desde su propio planteamiento en el contexto de descubrimiento, y no en el de justificación.
Lo que propone Giere es que estudiemos al científico que tenemos delante y veamos cómo se
relaciona con el mundo explicando su actividad a partir de los datos que tenemos procedentes
de las diferentes ciencias cognitivas, como la psicología, la neurociencia, la lingüística, etc.
Desde este punto de vista, los dos problemas centrales en una teoría sobre la investigación
científica son reinterpretados como problemas psicológicos, más que como cuestiones
lógicas. Estos problemas son:

22
Filosofía de la Ciencia II

1. Naturaleza de las teorías científicas Þ este problema se reduce a la pregunta de qué tipo de
“mapas cognitivos” son las teorías científicas. Los “mapas cognitivos” son representaciones
del entorno que existen en los cerebros de los animales superiores y que les permiten
“solucionar” ciertos problemas. Entonces, las teorías científicas consistirían en familias de
“modelos”, siendo cada uno de estos modelos un mapa cognitivo individualizado, que
representaría un tipo de situación posible.

De esta descripción de las teorías científicas se deducen varias consecuencias:

a) Pueden existir múltiples versiones distintas de una “misma” teoría, dependiendo de


los “modelos típicos” y “criterios de semejanza” que se consideran prioritarios (eso
dependerá de la enseñanza recibida, de los intereses de los investigadores, de las
aplicaciones previstas, del estilo cognitivo de cada científico, etc. ).

b) Una teoría científica es una entidad abierta: siempre pueden modificarse sus
modelos, añadírsele otros nuevos, cambiar las hipótesis de aplicabilidad, etc.

c) Las teorías no pueden axiomatizarse, salvo de forma trivial.

d) Las teorías no se refieren a leyes naturales, es decir, a principios que se aplicarían


de forma exacta a todo un dominio de sistemas (o al “universo”).
A pesar de todo es posible defender una interpretación realista de las teorías científicas, tanto
en el sentido de que su finalidad es describir aproximadamente el verdadero funcionamiento
de los sistemas realmente existentes, en general inobservables, como en el sentido de que las
estrategias de los científicos han conseguido de hecho un notable grado de progreso en la
consecución de esa finalidad.

2.- Mecanismos de decisión que emplean los científicos en la elección de teoría Þ Giere critica
el modelo apriorista del bayesianismo según el cual la racionalidad científica consistiría en la
capacidad de evaluar el grado de probabilidad que cada hipótesis teórica posee dada la
evidencia empírica disponible en cada momento; una vez estimada dicha probabilidad por
cada científico, éstos no tendrían necesidad de “escoger” entre todas las teorías posibles, sino
que se limitarían a reconocer el grado de probabilidad de cada una. Los principales
inconvenientes del bayesianismo según Giere son:

i. Los seres humanos son bastante ineficaces al manejar probabilidades condicionadas.

ii. Cada científico puede otorgar un grado de probabilidad distinto a las mismas teorías
basándose en la misma evidencia empírica.

iii. En la práctica, los científicos seleccionan teorías, en vez de limitarse a otorgarles


grados de probabilidad.

Giere propone utilizar la teoría de la “racionalidad limitada” de Herbert Simon, según la


cual los sujetos no toman sus decisiones maximizando una función de utilidad, sino

23
Filosofía de la Ciencia II

aplicando criterios de decisión parciales e imperfectos (en el sentido de que no garantizan


obtener el resultado óptimo), si bien tienen la ventaja de no requerir una capacidad cognitiva
extraordinaria; si con estos criterios no se logra obtener ningún resultado satisfactorio, el
sujeto disminuirá su “nivel de aspiración”, y lo incrementará si se encuentran muchas
decisiones satisfactorias demasiado pronto.

Si los científicos siguen la regla de “elegir aquella teoría que haga mejores predicciones”,
entonces, si entre las teorías propuestas hay alguna correcta, ésta será la que los científicos
elijan normalmente, y, por lo tanto, la regla es razonable en el sentido de que el seguirla
garantiza que los científicos se encontrarán en una situación satisfactoria más a menudo que
en una situación insatisfactoria. De este modo, la estrategia seguida por los científicos es
racional, no en el sentido fuerte de que con ella se asegure la maximización de una cierta
función de utilidad, sino en el sentido más débil de que se trata de una estrategia que conduce
a los científicos a resultados razonablemente aceptables.

4.3.- Elliot Sober (el naturalismo metodológico).


El naturalismo metodológico propuesto por Sober define la naturaleza como la totalidad de
entidades, acontecimientos y procesos que tienen una localización espaciotemporal. Como las
entidades sobrenaturales no la tienen, las teorías científicas deberían ignorarlas, aunque no
deberían comprometerse a negar su existencia. El naturalismo metodológico no impide a los
científicos el formular teorías que inspiren pensamientos sobre Dios, ya sea a favor o en
contra. El naturalismo metodológico es una tesis lógica (tesis respecto a lo que una teoría
dice), no una tesis sobre psicología (sobre lo que la teoría podría sugerir a alguien).

Así, Sober trata de distinguir su posición tanto de la de un naturalismo metafísico que


afirmaría categóricamente la no existencia de entidades sobrenaturales como de los
naturalismos metodológicos fuertes que niegan cualquier modo de aludir a tales entidades.

El punto de partida de su teoría requiere, sin embargo, de una serie de matizaciones:

• Afirma que la ciencia de hecho no evita postular entidades sobrenaturales, como ocurre
con el caso de los números, que desde ciertas posturas de la filosofía de las matemáticas
se defiende que son entidades sobrenaturales (platonismo matemático). Las matemáticas
son un marco indispensable para la ciencia y muchas de las teorías científicas que más
apreciamos presuponen que los números existen.

• Considera que las afirmaciones acerca de lo sobrenatural no son necesariamente


incontrastables, ya que hay afirmaciones “mixtas” que sí lo son. Las afirmaciones mixtas
son aquellas que versan al mismo tiempo sobre entidades sobrenaturales y objetos que
tienen una ubicación espaciotemporal (sólo son incontrastables aquellas proposiciones
que versan únicamente acerca de lo sobrenatural).

24
Filosofía de la Ciencia II

5.- El objetivo de la filosofía de la ciencia desde el punto de vista del naturalismo.


Básicamente lo que se plantea una filosofía naturalista de la ciencia es por qué la ciencia es
como es y si podría ser de otra manera “mejor” (interpretación normativa de Quine).

Esta forma de plantear el objetivo de la filosofía naturalista de la ciencia abre un abanico de


posibilidades de como hacer la filosofía de la ciencia, ya que hay tantas como disciplinas
podamos utilizar para abordar esta pregunta:

Ciencias sociales (sociología, antropología, teoría política..)

La psicología y las ciencias cognitivas → si consideramos que la ciencia es una


actividad cognitiva.

La Biología → aplicando métodos desarrollados en la biología para explicar el


desarrollo de la ciencia. Es el caso de las teorías de la evolución, como la memética,
entendida como el estudio de los memes, es decir, las unidades mínimas replicables de
contenido mental.

La Economía, que es una ciencia social que se diferencia del resto por su nivel de
matematización. Sería el caso de la aplicación de la teoría de la decisión racional y de la
teoría de juegos.

Ciencia de las Simulaciones o construcción de modelos, que no estudia sistemas reales


sino sistemas artificiales, construidos por ordenador (mediante programas) que luego se
pueden comparar con sistemas reales para ver hasta que punto captan sus características.
Podemos simular la evolución de un universo, de un sistema, de una economía, de un
lenguaje, etc.
¿Por qué la ciencia es como es? La forma más adecuada de plantear esta pregunta es
considerar que la ciencia es una actividad humana llevada a cabo por científicos. Entonces
hay que preguntar qué hacen los científicos en cuanto científicos: Por qué escriben los
artículos científicos como los escriben; por qué se realizan los experimentos como se realizan;
por qué se aceptan estas teorías en las condiciones en las que se aceptan; la manera en cómo
lo hacen es la mejor manera de hacerlo y para quién es la mejor posible (para los propios
científicos, los ciudadanos, los políticos). Esto conlleva la imposibilidad de eliminar los
valores de la ciencia.

Ahora bien, al plantearnos esta cuestión, ¿no damos por sentado que la ciencia es el modo
correcto de plantearse estas preguntas? La respuesta puede efectuarse de un modo más
cuidadosa: no se trata, desde el punto de vista del naturalismo, de que exista una especie de
esencia platónica de en qué consiste la ciencia y de que los diversos modos de conocimiento
(religión, poesía, filosofía) son más o menos científicos en la medida en que se aproximen a
esa idea de la ciencia. Se trata más bien de que, si partimos de los valores que cada uno
tenemos, y entre esos valores está el de adquirir conocimientos, entonces habrá procesos que

25
Filosofía de la Ciencia II

nos garanticen en mayor medida obtener conocimientos que nos parezcan más correctos. No
es que primero esté definida la ciencia y luego los procesos de la ciencia, sino que vamos
usando procesos y los que al final resultan más difíciles de rebatir a esos los solemos llamar
conocimientos o métodos científicos. Pero que métodos son científicos es algo que cambia a
lo largo de la historia (se van abandonando unos y surgiendo otros, se van perfeccionando,
etc.) con el criterio de encontrar respuestas contrastables y estables cuando son sometidos a
crítica. Si un método no nos lleva a eso tendemos a eliminarlo.

6.- La cuestión de los valores en la ciencia.


León Olivé parte de la conjetura de que si bien los seres humanos tenemos en común un
sistema perceptual, sólo podemos desplegar nuestras capacidades como agentes cognitivos
formando parte de ciertas entidades colectivas que podemos llamar “prácticas”.

6.1.- Práctica científica.


Una práctica científica es un sistema dinámico que incluye, al menos, los siguientes elementos
que están íntimamente relacionados e interactuando entre sí:
1. Un conjunto de agentes con capacidades y propósitos comunes que se proponen
tareas colectivas y coordinadas.
2. Un medio del cual forma parte la práctica, y en donde los agentes interactúan con
otros objetos y otros agentes.
3. Un conjunto de objetos (incluyendo otros seres vivos) que forman también parte del
medio.
4. Un conjunto de acciones estructuradas. Estas acciones involucran:

4.1. Un conjunto de representaciones del mundo, que guían las acciones de los agentes.
Estas representaciones incluyen creencias (disposiciones a actuar de una cierta manera
en el medio) y teorías (conjuntos de modelos de aspectos del medio).
4.2. Un conjunto de supuestos básicos (principios), normas, reglas, instrucciones y
valores, que guían a los agentes al realizar sus acciones y que son necesarios para
evaluar sus propias representaciones y acciones. Esta es la estructura axiológica de una
práctica.

Por tanto, las prácticas cognitivas sólo pueden desarrollarse por grupos humanos y no por
individuos aislados. La adecuación de una práctica no es una cosa de todo o nada, sino que es
un asunto gradual, que tiene que ver con la medida en que los agentes de la práctica logran los
fines que se proponen. Podemos suponer, en una veta naturalista, que las prácticas cognitivas
humanas tienen su origen en el interés de los grupos humanos de explotar el ambiente en una
medida suficiente como para sobrevivir. Entonces, esas prácticas son

26
Filosofía de la Ciencia II

adecuadas en la medida en que permiten una explotación del medio que a la vez permite la
sobrevivencia del grupo.

Diremos que un sistema axiológico es correcto, si la práctica que constituye es adecuada.


Ambas características (adecuación y corrección), de las prácticas y de sus sistemas
axiológicos, dependen tanto de las capacidades cognitivas y de acción de los agentes, como
del medio dentro del cual deben llevar a cabo sus acciones y al cual necesariamente deben
transformar. Como los medios son muy diversos, de ahí surge la amplia variedad de prácticas
y, por tanto, de sistemas axiológicos correctos.

Por tanto, desde una perspectiva de epistemología naturalizada, los agentes cognitivos no son
sólo sujetos perceptuales pasivos, sino agentes y los objetos no están “ya hechos”, a la espera
de ser percibidos por un sujeto. Los objetos son siempre “objetos para ciertos agentes”,
quienes son capaces de tener representaciones de ellos. Agentes, objetos, representaciones y
medio, todos forman parte de un sistema.

6.2.- La percepción sensorial, la acción y la justificación de las creencias.


La percepción sola no basta para justificar una creencia acerca del mundo empírico. Dentro
de la perspectiva practicista lo importante es:
1º.- Asegurarse de la autenticidad de la percepción, es decir, que el objeto percibido está
realmente en el campo perceptual del agente (a diferencia de alucinarlo, por ejemplo) Þ hay
que distinguir entre percepción como producida por un objeto que realmente está en el campo
sensorial, y sensación como el mismo tipo de representación pero producida por estímulos
internos (la memoria, la imaginación, la ingestión de drogas, un malfuncionamiento del
organismo, etc.). En este caso, el agente tiene una representación de un objeto o situación que
no puede ser validada por otros agentes de su misma práctica.

En condiciones normales un agente aprende a distinguir las representaciones producidas por


objetos de su medio de aquellas producidas por la memoria y otras operaciones y estímulos
internos. Pero cuando surgen dudas, es necesario realizar algunas acciones, tales como oler,
lamer, tocar, sentir, degustar, escuchar, manipular, o una combinación de ellas. El imperativo
de actuar de cierta manera para asegurarse de la autenticidad de la percepción es el origen de
las normas epistémicas (incluyendo las metodológicas) en las prácticas cognitivas mediante
las cuales los agentes interactúan con su mundo empírico.

2º.- La creencia a la que da lugar esa percepción debe ser objetiva, es decir, que puede ser
compartida por otros agentes de la misma práctica → la autentificación de una percepción por
parte de un agente podemos considerarla como una justificación débil de su disposición a
actuar como si el objeto estuviera presente, pero la justificación fuerte de esa creencia requiere
que el agente tenga garantía de la objetividad de su creencia, lo que requiere de una sucesión
posterior de acciones para asegurarse que otros agentes de su práctica tendrían la disposición
análoga para actuar como si el objeto estuviera en su campo perceptual.

27
Filosofía de la Ciencia II

Percibir un objeto es más que tener irritaciones sensoriales, y significa adquirir ciertos estados
internos (cognitivos) que han requerido un proceso previo de aprendizaje para hacer
discriminaciones “correctas”, donde la corrección de una discriminación se refiere a que
coincida con la que hacen los miembros de la práctica que tienen maestría en ella, que puede
ser hecha por muchos miembros de esa práctica, y que dan lugar a creencias correctas.
Normalmente esto presupone una cultura, en el sentido defendido por Mosterín, o sea como
información socialmente transmitida por otros miembros de la misma práctica (a diferencia
de la información genéticamente transmitida), y adquirida y asimilada por los nuevos
miembros. Así, los procesos sociales de transmisión de información y de aprendizaje, son
componentes básicos de una práctica.

Cuando se cumplen las condiciones de objetividad (comunalidad de representaciones y de


creencias) la discriminación del objeto dentro del medio se hace de una forma análoga a como
lo hacen los demás miembros del grupo y por tanto hay la mejor garantía del éxito de acciones
relativas al objeto u objetos en cuestión. El conocimiento, por consiguiente, sólo es posible
dentro de las prácticas cognitivas y en ellas las normas metodológicas surgen como necesarias
para asegurarse de la autenticidad de las percepciones y de la objetividad de las creencias.

Bajo una perspectiva naturalizada, las normas epistémicas tienen su origen en los
procedimientos y acciones que los agentes miembros de una práctica deben realizar para saber
que una determinada representación lo es de un objeto o situación en el mundo que da lugar a
una creencia objetiva. Esto es lo que justifica su disposición a actuar como si ese estado de
cosas en el mundo realmente existiera. Pero las condiciones materiales y sociales en las que
se constituyen los medios varían enormemente. En consecuencia, las representaciones, las
normas y los valores que forman parte de una práctica adecuada a un medio, tanto como los
objetos relativos a esa práctica, difieren de las que constituyen otras prácticas adecuadas en
distintas situaciones. Esta sería, por tanto, la principal explicación de la diversidad axiológica
de las prácticas cognitivas humanas.

6.3.- Sobre el significado y comprensión de las normas y los valores en las


prácticas científicas.
La estructura axiológica de las prácticas no está formada por normas cuyo significado es
unívoco y transparente para todos los miembros de la práctica en cuestión ni para cualquiera
ajeno a la práctica siempre que “aprehenda correctamente” el sentido de tales normas. A
diferencia de la idea mertoniana de que las normas tienen un significado claro, susceptible de
ser comprendido correcta o incorrectamente por los miembros de la comunidad científica,
debemos establecer que ninguno de los términos que normalmente usamos para referirnos a
los valores en la ciencia tienen un significado intrínseco o absoluto. Todos ellos adquieren un
significado dentro de contextos pragmáticos de acción y evaluación, donde se llevan a cabo y
se desarrollan las prácticas humanas. El significado de cada término de evaluación se
determina cuando es aplicado por los científicos de carne y hueso, quienes tienen intereses,
emociones, pasiones, creencias y principios.

28
Filosofía de la Ciencia II

Puesto que no hay ningún significado absoluto para cada valor en la ciencia, lo que importa
es que en cada contexto pragmático los miembros de una práctica acuerden qué es lo valioso
para ellos, y acuerden si en un determinado contexto, cierto valor específico se satisface o no.
Cómo determinar eso se establece en la estructura axiológica de una práctica, y es lo que
aprenden los nuevos miembros que son entrenados para incorporarse a ella. Por eso
requerimos del entrenamiento y el aprendizaje con quienes ya han dominado hasta cierto punto
en una práctica.

Precisamente porque los valores tienen significado sólo en relación con las prácticas
específicas en donde se aplican, podemos comprender por qué los valores que guían a ciertos
grupos son diferentes de los que guían a otros, pues los valores se conforman dentro de cada
práctica específica y cada una a la vez está condicionada por el contexto de intereses donde se
desarrolla. Por ejemplo, no son lo mismo las prácticas de los biotecnólogos al servicio de
empresas transnacionales, donde la búsqueda de ganancias es un valor central y donde, por
consiguiente, el secreto científico y hasta el plagio pueden ser valiosos, a grupos de
biotecnólogos al servicio de instituciones públicas de investigación, para quienes lo valioso
puede ser la publicidad del conocimiento para ofrecer al resto de la sociedad bases confiables
sobre las cuales tomar medidas acerca de la bioseguridad (transgénicos, armas biológicas), y
donde por tanto el secreto sería un disvalor.
Como conclusión podemos señalar que el hecho de que las prácticas cognitivas sean muy
diversas, e incluyan distintos sistemas axiológicos correctos no debería sorprender. Hay
muchas maneras en las que los seres humanos actúan sobre, e interactúan con el medio, y
muchas de ellas han sido exitosas en permitir la sobrevivencia de los grupos humanos.

7.- Conclusiones.
1ª.- Algunas de nuestras capacidades cognitivas naturales son bastante eficientes en
descubrirnos “verdades” (conocimiento). En este sentido, el objeto de la filosofía de la ciencia
supondría como podemos aprovechar al máximo esta capacidad humana de obtener
conocimiento y eso es la ciencia (actividades diseñadas fundamentalmente para
proporcionarnos conocimientos).

2ª.- Debemos “diseñar” mecanismos institucionales (“sociales”) que favorezcan la aplicación


de estas capacidades (“economía del conocimiento científico”).
Preguntas examen

1. “Una filosofía naturalista es una contradicción en los términos”. Argumente a favor y


en contra de esta tesis, en relación particularmente (pero no necesariamente) a la
filosofía de la ciencia.
2. Explique la diferencia entre los sentidos del “naturalismo” defendidos por Quine,
Laudan y Sober, y argumente los aspectos aceptables o inaceptables que según usted
tienen cada uno de dichos sentidos.
3. ¿Cuáles serían, según usted, los papeles de los diversos tipos de valores en la ciencia?
4. ¿Es aplicable el método de las ciencias naturales al estudio de toda la realidad?
5. ¿Puede estudiarse el conocimiento humano, y la ciencia misma, como un “fenómeno
natural”?
6. ¿Afecta de algún modo lo que las ciencias cognitivas descubren sobre nuestras
capacidades de conocimiento a las posibles soluciones de los problemas filosóficos y
epistemológicos?
7. ¿De qué manera pueden intervenir nuestros valores en la ciencia?
8. ¿Afectan nuestros valores a la validez del conocimiento científico?
9. ¿Qué papel puede quedar para las actitudes evaluativas en una comprensión
radicalmente naturalista del universo y de la ciencia?
10. Principales problemas del naturalismo científico
11. Explique la noción de naturalismo científico y qué relaciones habría según ese enfoque
entre la ciencia y la filosofía
TEMA 3.- La Sociología del conocimiento científico y los estudios CTS.

1.- El conocimiento científico como objeto (de la ciencia) social.


La sociología es una disciplina reciente, se inicia a mediados de siglo XIX, aunque las grandes
contribuciones son de principio de siglo XX (con autores como Weber, Durkheim, Simmel,
etc...). Pero dentro de los temas que estudia esta primera generación de sociólogos no se
encuentra la ciencia; para ello habrá que esperar a la década de los 20. La sociología de la
ciencia surge cuando, tras la I Guerra Mundial, algunos intelectuales reconocen la existencia
de una situación de anomia cognitiva. La subversión cuantico-relativista en física, el éxito de
la filosofía vitalista y la emergencia del totalitarismo rompieron el marco de coherencia que
la sociedad liberal había mantenido desde la instauración de regímenes constitucionales en la
mayor parte de Europa Occidental en la década de 1870 y que, en lo epistémico, había
consistido en la difusión del positivismo -realista o convencionalista-.

El primer pensador importante que intentó hacer frente a esta situación fue Karl Mannheim,
quien inventa la sociología del conocimiento en la que si aparece como campo de estudio la
ciencia. Su tesis central es que el conocimiento lo producen activamente sujetos con intereses
particulares y ubicados en contextos concretos. Por tanto, no hay razón para que ningún
conocimiento quede exento de explicación sociológica.

Sin embargo, Mannheim afirmaba la existencia de una perspectiva verdadera. Usa para ello
la dicotomía de Reichembach, que distingue un contexto social -arracional- de
descubrimiento, de otro cognitivo -racional- de justificación para desvincular la verdad de lo
social. Así la cuestión se reduce a encontrar un nivel más elevado en el que las ideas en
conflicto puedan confrontarse desapasionadamente, si no reconciliarse. Esta dualidad de
contextos permite a Mannheim hacer del método científico el mecanismo del contexto de
justificación para la prevención y corrección de errores. Como un cierto consenso es una
condición de la vida social, queda demostrado que debe haber un sustrato común para que
ocurra. Y como la ciencia es el ámbito con mayor grado de consenso y de controversia
regulada, en ella se hallarán más fácilmente los procesos metódicos que generan dicho
consenso. En definitiva, Mannheim considera que la sociología del conocimiento abarca todo
los tipos de conocimiento que se dan en la sociedad excepto la ciencia, porque considera que
la ciencia como conocimiento objetivo y racional no depende de factores sociológicos, sino
de factores racionales, lógicos y empíricos.

Sin embargo, pese a los trabajos iniciales de Mannheim y de otros autores como Marx Scheler,
Boris Hessen, John D. Bernal, la sociología de la ciencia no adquiere carta de naturaleza hasta
la aparición de Robert K. Merton y su escuela de Columbia en la década de los años 30 y
40, asociada al funcionalismo de Talcott Parsons. Merton se centró en el estudio de la
organización institucional de la ciencia, del modo en que ésta regula sus sistema de
recompensas, del reparto de papeles y de recursos dentro de las instituciones científicas y de
cómo ello contribuye a promover u obstaculizar el conocimiento, de las disputas sobre
prioridades en los descubrimientos, y en especial, del sistema normativo que

30
Filosofía de la Ciencia II

da estructura a la ciencia como institución social. Para el funcionalismo la sociedad es una


especie de organismo cuya estructura viene definida por grupos e instituciones cada una de
ellas con su funciones que se manifiestan en cada grupo o institución a través de unas normas
que indican la forma de comportarse en cada uno de los grupos.

La hipótesis que propone para explicar este tipo normas aparece en su obra “La estructura
normativa de la ciencia” (1942) en la que recoge cuatro normas o valores (a la vez morales
y técnicos) que suelen abreviarse como CUDOS que, por un lado pretende ser un juego de
palabras a partir del término griego kudos (κῦδος) que significa gloria, fama (con lo cual viene
a significar que, desde un punto de vista social, los científicos buscan el reconocimiento de la
sociedad) y, por otro lado, es un anagrama formado por las iniciales de las siguientes palabras:

• Comunalismo o comunismo → los hallazgos de la ciencia son producto de la


colaboración social y son asignados a la comunidad; el conocimiento científico es
público, pertenece a todo el mundo; no puede ser apropiado, de ahí que el secreto sea
algo opuesto a esta norma.

• Universalismo → las normas de la ciencia y la validez del conocimiento científico son


universales, válidas para cualquier comunidad científica en cualquier época y lugar.
La aceptación o el rechazo de las pretensiones a figurar en la nómina de la ciencia no
debe depender de los atributos personales o sociales de su protagonista (raza,
nacionalidad, religión, clase y cualidades personales), sino que deben ser valoradas
impersonalmente.

• Desinterés → los motivos e intereses particulares no deben intervenir a la hora de


juzgar las investigaciones (se debe ser socialmente neutral). El principal valor que se
persigue es la verdad, el conocimiento. Aunque este principio no obliga a renunciar a
las ventajas materiales de un descubrimiento (altruismo).

• Escepticismo organizado → suspensión temporal de la valoración de una novedad


hasta que no se hayan efectuados los correspondientes exámenes independientes
empíricos y lógicos. En ciencia no hay dogmas de fe.

Con posterioridad, Merton añadió la originalidad, esto es, la exigencia de novedad en los
resultados públicos de las investigaciones.

Estas normas son importantes según Merton porque garantizan que la ciencia funciona de
manera eficaz y porque constituyen el fundamento de la objetividad lograda en el
conocimiento científico:

– Proporcionan los canales de comunicación entre los científicos y entre ellos y la


sociedad.
– Proporcionan el sistema de incentivos para los científicos. Los científicos intentan que
sus trabajos sean citados en las obras de otros investigadores.
31
Filosofía de la Ciencia II

– Determinan los controles de calidad, qué tipo de cosas deben hacer los miembros de
una disciplina científica para poner a prueba las teorías, modelos y leyes de esa
disciplina.

Para Merton, la coincidencia entre la meta de la ciencia y los imperativos morales (los
CUDOS) es casual. Que estos la favorezcan no es una razón para suscribirlos. La adhesión
moral ocurre porque se los cree como buenos en sí mismos, no porque regulen racional y
funcionalmente la distribución de oportunidades y recompensas.

Naturalmente la ciencia como institución social no se reduce a estas cuatro normas. Además
existe la influencia de otros factores sociales que tienen que ver con la estructura organizativa
de la ciencia, con la financiación, la influencia en la sociedad, etc. Pero esas cuatro normas
definen al científico como un profesional.

Una crítica que se hizo al enfoque de Merton por parte de algunos sociólogos, sobre todo a
partir de los años 60 y debido a la influencia de Kuhn, es que siempre habla de la sociología
de la ciencia como institución (porqué la institución científica tiene las características que
tiene), pero no es una sociología del conocimiento científico con pretensiones
epistemológicas (porqué los científicos aceptan las teorías que aceptan), y en este sentido,
Merton seguía los parámetros de Mannheim de que la ciencia no puede ser objeto de estudio
sociológico porque la ciencia es objetiva.
En “La estructura de las revoluciones científicas”, Thomas Kuhn dice que el
funcionamiento de la ciencia no es tan puramente racional como habían pensando los
positivistas sino que los factores sociales, culturas, históricos, religiosos influyen en las
decisiones de los científicos. Por tanto puede hacerse un estudio sociológico de porqué los
científicos aceptan las teorizas que aceptan y no otras. Esta idea se desarrolla a partir de los
años 70 a través de varias escuelas:

• “Programa fuerte” de la sociología del conocimiento científico o Escuela de


Edimburgo, en la que destacan David Bloor y Barry Barnes.
• La Teoría del Actor-Red de Bruno Latour y Michell Callon: es una especie de
antropología de la ciencia.
• El constructivismo social de Karin Knorr-Cetina.

Todas estas escuelas han tenido, en mayor o menor medida, una tendencia al relativismo y
han sometido a crítica la objetividad de la ciencia, porque si los factores sociales sirven para
explicar qué teorías aceptan los científicos, entonces evidentemente la conclusión es que si
los científicos hubieran trabajado bajo influencias sociales distintas hubieran aceptado unas
teorías científicas distintas.

32
Filosofía de la Ciencia II

2.- ¿Por qué la ciencia debe considerarse como una institución social?
La ciencia es una institución social y como tal susceptible de ser estudiada desde el punto de
vista de la ciencias sociales porque:

1ª.-Necesita de cooperación → una persona aislada no puede producir conocimiento


científico.
2º.- Requiere de lo que los sociólogos y economistas han llamado división del trabajo:

• Horizontal: la ciencia constituye una suma de temas y problemas y en ese sentido


unos científicos se ocuparán de unos y otros científicos se ocuparan otros distintos.

• Vertical: cada proceso de investigación para resolver un problema determinado, su


complejidad requiere de un equipo estructurado de modo jerárquico o incluso de varios
equipos interrelacionados.

3ª.- Necesita muchos recursos económicos para financiar la investigación. Y a su vez, las
personas que le otorgan esos recursos (ciudadanos, instituciones privadas, etc.), esperan que
se le otorgue algo valioso por lo que merezca la pena pagar.

4ª.- El conocimiento científico es un consenso entre los especialistas que se ponen de acuerdo
sobre cual es la teoría correcta sobre un determinado problema científico.

¿Que ciencias sociales podemos utilizar para explicar esta realidad de la ciencia?: En principio
todas. Por orden de popularidad dentro de los estudios sociales de la ciencia son:

• La Sociología → la realidad social como un conjunto o sistema de normas e intereses;


aspectos cuantitativos de las interacciones sociales.

• La Antropología → la ciencia como “cultura”, “visión del mundo”, “modo de vida”,


etc.

• La Politología → la ciencia como marco de luchas de poder; importancia de la gestión


del poder en la ciencia.

• La Economía → aspectos económicos del proceso científico y sus relaciones con la


sociedad (financiación, rendimientos, etc. )

• La Teoría de juegos → dentro de la economía destaca esta teoría enfocada a explicar la


interacción entre científicos (o entre científicos y otros agentes) como un juego entre
individuos racionales.

Distinción entre enfoques “Macro” y “Micro” en los estudios sociales de la ciencia:

A.- Estudio Macro → estudio de las características globales del sistema científico. Algo
parecido a lo que hacía Merton, al señalar las normas que rigen toda la ciencia.

33
Filosofía de la Ciencia II

Generalmente la sociología es macro (aunque no siempre es así, es más bien una tendencia).

B.- Estudio Micro → se enfoca hacia lo que a partir de los años 70 se han llamado estudios
de caso, es decir, estudio de las interacciones entre individuos o pequeños grupos (aunque sea
como “tipos ideales” o “agentes representativos”). Ej.: interacción entre autores, editores y
árbitros de los papers (artículo científico), entre defensores de programas de investigación
rivales, etc. Es el caso de la antropología.

3.- La sociología del conocimiento científico: el “Programa fuerte”.


La propuesta más difundida y articulada dentro de la sociología del conocimiento científico
es la del llamado Programa Fuerte, cuya caracterización programática fue obra de David
Bloor en 1976. Su punto de partida es la pregunta de si puede darse una explicación social
del contenido de la ciencia, es decir de por qué se aceptan ciertas teorías o hechos, en lugar
de aceptarse otros.

El Programa Fuerte es un programa:

A) Naturalista Þ porque pretende ser un estudio científico y empírico de la propia


ciencia. Se presenta, pues, como una ciencia de la ciencia.

B) ExternalistaÞ porque, si bien Bloor reconoce la intervención de causas no sociales en


la producción del conocimiento, éstas son “externas”, es decir, distintas de la
argumentación lógica y la relación de las teorías con la evidencia empírica.

Estas dos características (naturalismo radical y externalismo) hacen que las propuestas
realizadas desde la filosofía de la ciencia sean consideradas completamente irrelevantes (la
filosofía de la ciencia carece de sentido como disciplina).
Este programa de investigación se basa en cuatro principios:

1. Causalidad: la explicación de por qué los científicos aceptan las teorías o hechos que
aceptan tiene que ser una explicación causal. Aunque estas causas no tienen porque ser
sólo sociales, también se admiten causas psicológicas, biológicas, etc.

2. Imparcialidad: el sociólogo cuando estudia una determinada realidad social debe ser
neutral respecto a que científicos tienen razón sobre un determinado tema, es decir
debe ser neutral respecto a la verdad o falsedad, racionalidad o irracionalidad, de las
creencia que desea explicar. El sociológico no debe suponer por defecto que los
ganadores del debate tengan razón; si tienen razón o no, no es un problema del
sociólogo. Esta tesis es más polémica que la anterior.

3. Simetría: el sociólogo debe buscar los mismos tipos de causas para todos los
participante en el debate. Es decir, un científico no puede aceptar una teoría por
motivos epistémicos y otro aceptarlo por motivos ideológicos, etc. A lo que se opone
Bloor es a la idea de que cuando estudiamos un debate científico tendemos a ver que

34
Filosofía de la Ciencia II

unos científicos aciertan y otros se equivocan, y consideramos que los que aciertan es
porque siguen la lógica y los que se equivocan es porque han cometido un error ya que
han usado métodos o procedimientos incorrectos. Es decir, no se puede deducir que
todos los científicos que aciertan es porque son muy inteligentes y los que yerran es
porque tienen influencias sociales que le hacen equivocarse, sino que todos los
científicos hacen lo que hacen por las influencias sociales que tienen; no hay científicos
totalmente liberados de prejuicios que gracias a eso descubren la verdad. Como
además, por la tesis de la imparcialidad, al sociológico le da igual quién tiene razón,
eso tampoco es un problema (es un problema más bien para el filósofo que busca saber
quién tiene razón). Esta tesis es aun mas polémica que la segunda.

4. Reflexividad: es la más problemática. La teoría que el sociólogo ofrezca para explicar


por qué los científicos aceptan las teorías que aceptan debe poder explicar por qué el
sociólogo acepta esa teoría. Lo que se ha criticado es que si se cumple lo que dice la
tesis parece que va en contra de la propia teoría, no a favor.

Tesis central del “programa fuerte” → el principal factor explicativo son los intereses
sociales: cada científico preferirá aceptar aquellas teorías o hechos que son más favorables
para sus intereses de clase.

Se puede criticar esta tesis basándose en los siguientes hechos:

1. Los intereses sociales no son un factor causal lo suficientemente fino, en el sentido de


que hay muchas más teorías científicas debatiéndose en la ciencia, en todas sus
disciplinas, que grupos sociales a los que pertenecer los científicos (¿por qué un interés
X va a poder explicar la elección de teorías o hechos tan diferentes en distintas
disciplinas?).

2. Tampoco está claro porque aceptar una teoría puede ser más o menos favorable a un
grupo social (si parece estar claro por ejemplo en el caso de la economía, pero no en
el resto de la ciencia).

3. La explicación de Bloor puede ser comprensible para entender porque un científico


defiende una cierta teoría, pero deja de explicar porque otros grupos de científicos
acaban por aceptar también esa teoría.

El Programa Fuerte abrió las puertas a nuevas propuestas, cada vez más radicales,
comprometidas con el supuesto de que el contenido y la aceptación de la validez del
conocimiento científico eran analizables mediante recursos estrictamente sociológicos. Solo
que ahora, a diferencia de lo que se hacía en el Programa Fuerte, los factores sociales no
estarán influyendo desde fuera, sino que son inseparables de los cognitivos, impregnando a la
ciencia desde dentro en todas sus manifestaciones. El contexto social exterior al laboratorio
no es el que debe ser tenido principalmente en cuenta, sino el que se da dentro del propio
laboratorio durante el desarrollo cotidiano del trabajo de investigación. Será, pues, el enfoque
microsociológico el más adecuado para su estudio. Esos factores, además,

35
Filosofía de la Ciencia II

se considerarán como determinantes de la construcción de los hechos y de las teorías por parte
de los científicos, y no como meros causantes de ciertas creencias. Dicho de otro modo, no es
que los intereses sociales influyan en la ciencia, es que la ciencia misma es una construcción
social, como pueda serlo el mito o la magia. La ciencia carece de cualquier privilegio
epistémico.
De entre esas nuevas propuestas, la obra clave ha sido “Laboratory Life” (1979) de Bruno
Latour y Steve Woolgar (la otra gran obra es “The Manufacture of Knowledge” (1981) de
Karin Knorr-Cetina). El propósito de Latour y Woolgar es estudiar a los científicos que
trabajan en un laboratorio del mismo modo que un antropólogo estudiaría una tribu, es decir,
escrutando cuaderno en mano sus “rituales” y sus “mitos” Argumentan que son las
negociaciones entre los científicos las que hacen que algo sea un hecho científico. Con esto
no están diciendo que la ciencia sea un fraude, ni pretenden negar que los hechos científicos
sean hechos sólidos y fiables. Lo que sucede es que la realidad externa es la consecuencia y
no la causa del trabajo científico; los hechos son el producto y no el desencadenante de la
controversia misma.

Estas tesis dejan ver claramente por qué se denomina “constructivismo social” a las últimas
tendencias en sociología de la ciencia. En obras posteriores, Woolgar ha reforzado este
constructivismo social de carácter idealista, según el cual “la representación da lugar al
objeto”. Latour, por su parte, ha propuesto no privilegiar el polo social sobre el natural.
Ampliando el principio de simetría, cree ahora, frente al Programa Fuerte que, en lugar de
explicar lo natural por lo social, habría que explicar lo natural y lo social en los mismos
términos y a partir de los mismos procesos. No existiría separación entre el polo social y el
polo natural, ambos se presentarían siempre en redes imbricadas y con ambos habría que
contar para analizar el conocimiento científico. La reintroducción del polo natural en el
análisis no significaría, sin embargo, una vuelta a posiciones no sociologistas o no relativistas.

En una línea también constructivista, cabe mencionar los estudios sobre el cierre de
controversias científicas, realizados por Harry Collins y Trevor Pinch. En este enfoque, al
menos como planteamiento metodológico “el mundo natural no desempeña ningún papel, o
uno muy pequeño, en la construcción del conocimiento científico”. Las controversias entre
los científicos no acaban, pues, porque los hechos (o los experimentos) den la razón a unos y
se la quiten a otros. Por el contrario, los hechos son los que el cierre de la controversia
determina que son. Los datos empíricos, los resultados experimentales pueden ser
interpretados de muy diversas maneras, de modo que nadie puede apelar a los hechos
establecidos experimentalmente para dirimir la disputa. Dicho de otros modo, no se cree en
una hipótesis científica porque ésta haya sido vista por todos como verdadera, sino que es
verdadera porque todos han decidido creer en ella. Dada esta infradeterminación empírica de
las controversias científicas, éstas se cierran mediante negociaciones en las que intervienen
de forma determinante las circunstancias sociales en las que se sitúan los participantes en la
controversia y el manejo que estos hagan de las mismas. La sociología de la ciencia debe
realizar un análisis microsocial sobre los mecanismos concretos que se despliegan en las
negociaciones y permiten decidir el cierre de las controversias.

36
Filosofía de la Ciencia II

Como resumen de lo que ha pretendido la investigación de estos años en sociología de la


ciencia sirven las siguientes palabras del sociólogo de la ciencia Sal Restivo: “la fiabilidad,
la validez, la verdad y la objetividad son logradas en la ciencia (como institución social
específica) del mismo modo en que son logradas en la actividad epistémica general en
cualquier organización o cultura; y ha mostrado que el rigor no es una condición sine qua non
de la ciencia, que puede coexistir en el mismo campo de investigación con conceptos y
métodos no rigurosos. Los estándares de rigor y de validez están histórica y culturalmente
situados. Y a menudo el relajamiento en los cánones del rigor es una condición para resolver
problemas intratables, para desarrollar nuevos enfoques con los que evitar los obstáculos, y,
en general, para conseguir que se hagan las cosas”.

Sin embargo, un problema general que presentan estos enfoques sociológicos es la falta de
justificación científica del supuesto principal del que se parte: que solo los factores sociales o
externos bastan para dar cuenta del modo en que se desarrolla la investigación científica y
que la evidencia empírica y las razones empleadas en la argumentación o son prescindibles o
son reductibles en última instancia a fenómenos sociales. Cualquier evaluación o crítica de la
ciencia es una evaluación o crítica de relaciones sociales, de poder y control sociales, de las
tensiones entre fuerzas sociales conservadoras y transformadoras, y de valores.

4.- Respuestas en contra del relativismo de la Nueva Sociología de la Ciencia.


Varios filósofos de la ciencia de orientación racionalista, como Laudan o Susan Haack y
filósofos realistas como Newton-Smith, León Olivé, Mario Bunge o Ronald Giere han
presentado diversas objeciones a las tesis defendidas desde la Nueva Sociología de la Ciencia.
Un objetivo central de estas críticas es el relativismo explícito con el que están
comprometidas, que supone que al conocimiento científico ya no se le puede seguir
considerando sencillamente como algo “racional; que la aplicación de la “razón” ya no
garantiza la “verdad”, etc.

Una réplica especial que ha alcanzado una gran notoriedad es lo que se ha venido
denominando “Guerras de la Ciencia”, en cuyo centro está la discusión de si el
constructivismo social y la negación del papel de la argumentación y la evidencia empírica
que se ha realizado desde los estudios sobre Ciencia, Tecnología y Sociedad permite dar una
explicación aceptable del modo en que funciona la ciencia en realidad.

El origen de la polémica se sitúa en la publicación del libro del biólogo Paul R. Gross y del
matemático Norman Levitt titulado “La superstición superior. La izquierda académica y sus
riñas con la ciencia” (1994), que era una ácida crítica de las tesis relativistas y constructivistas
defendidas por ciertos autores norteamericanos de orientación izquierdista y postmoderna
pertenecientes al campo de los estudios CTS, considerados como hostiles a la ciencia, no sólo
por los efectos perjudiciales de la tecnología sobre el medio ambiente, sino también por la
presentación que la ciencia hace de sí misma como conocimiento objetivo y
metodológicamente justificado.

37
Filosofía de la Ciencia II

Pocos meses después, Alan Sokal, profesor de física en la Universidad de Nueva York envió
a la revista “Social Text” un artículo titulado “La transgresión de las fronteras: hacia una
hermenéutica transformativa de la gravedad cuántica” (1996), y cuyo contenido daba la
razón a los que sostenían que la ciencia era un discurso entre otros. Un artículo que afirmaba
que el conocimiento científico, lejos de ser objetivo, era un reflejo de la ideología dominante
y que carecía de cualquier privilegio epistemológico; y que defendía, entre otras cosas, la
necesidad de unas nuevas matemáticas que fueran verdaderamente emancipatorias.

El escándalo se desató cuando Sokal envió una carta a los editores de “Social Text” para
explicarles que su artículo había sido una parodia de los trabajos realizados habitualmente en
los estudios CTS por autores postmodernistas y que cualquier estudiante de física o
matemáticas habría podido darse cuenta de los absurdos que contenía. Los editores se negaron
a publicar la carta, por lo que finalmente se publicó en la revista “Lingua Franca”, alcanzado
todo el asunto una gran difusión.

El engaño de Sokal despertó las simpatías de muchos científicos y filósofos que vieron en él
una demostración de la falta de criterio y de rigor imperante en el campo de los estudios
sociales sobre la ciencia, lo cual descalificaba sus resultados. Los que se sintieron engañados
o injustamente ridiculizados, sin embargo, denunciaron la falta de honestidad de Sokal y
minimizaron las consecuencias de su engaño, que sólo habría probado que en ocasiones fallan
los sistemas que deben controlar la calidad y seriedad de los trabajos publicados en una
revista, o como mucho, que el entusiasmo político puede conducir a errores de juicio.

Ciertamente sería descabellado afirmar que el caso Sokal ha mostrado la completa vaciedad
de los estudios CTS, entre otras razones porque esos estudios no se agotan en las orientaciones
relativistas, constructivistas o postmodernas, ni tampoco son iguales todos los relativistas,
constructivistas o postmodernistas: no es lo mismo el relativismo metodológico del Programa
Fuerte, que tiene una base realista, que el relativismo ontológico o constructivismo social
extremo de algunos filósofos postmodernos, que no la tiene. No obstantes, lo que Sokal ha
conseguido mostrar es que, dentro de esas orientaciones, una cierta retórica revestida de un
lenguaje oscuro y un apoyo decidido a determinadas tesis “políticamente correctas”, son
capaces de ocultar la carencia de argumentos y el encadenamiento de pifias científicas. Y
haber hecho esto no es poco, porque precisamente estas orientaciones burladas por Sokal
comenzaban a dominar en el campo de los estudios CTS como si ya no hubiera más
alternativas. Quizás de este modo se pueda percibir mejor que los estudios CTS no tienen por
qué identificarse con ellas y lo deseable sería que, tal como reclama Philip Kitcher, estos
estudios hicieran justicia tanto a los aspectos socio-históricos de la ciencia como a los aspectos
realistas y racionalistas.

En todo caso, sea lo que sea lo que Sokal haya probado, su engaño ha tenido la virtud de
fomentar una discusión intelectual de sumo interés acerca de la objetividad del conocimiento
científico y del papel de la ciencia en el conjunto de la cultura; una discusión que ha obligado
a unos y otros a pulir los argumentos propios y a buscar mejores respuestas para los del
contrario.

38
Filosofía de la Ciencia II

5.- Los estudios sobre Ciencia, Tecnología y Sociedad.


La ciencia ha experimentado profundas transformaciones en el último siglo que la han
convertido en una fuerza social, económica y política de primera magnitud. Ya no es
concebible el investigador aislado que realiza grandes descubrimientos en un laboratorio
casero; o el científico que puede despreocuparse de los recursos para su trabajo y de los
posibles beneficios económicos producidos por el mismo; o la desaparición en algunas ramas
de la ciencia de la investigación realizada por encargo para la industria y el ejército.

Uno de los primeros autores en señalar el impacto que estos cambios han tenido en el modo
de practicar la investigación científica así como en la imagen pública de la ciencia fue el
historiador de la ciencia Derek J. de Solla Price en su obra “Little Science, Big Science”
(1963). Sus tesis han sido posteriormente desarrolladas actualizadas por el sociólogo John
Ziman. Ambos autores intentan mostrar cómo muchas de las características que se suelen
atribuir hoy a la ciencia -tales como la mercantilización de los conocimientos, la búsqueda de
rentabilidad inmediata en las aplicaciones, la inmersión en el debate público y en la cultura
de masas, la interdisciplinariedad y la interconexión, la desaparición de los límites entre la
investigación pura y la aplicada, el secretismo, o la proliferación de la ciencia patológica y la
ciencia basura- son, en buena medida, consecuencias de una reestructuración general
producida por un incremento acelerado del número de investigadores y de la producción
científico-técnica, acompañado de una limitación sustancial de los recursos necesarios para
desarrollar la investigación.

Price puso el énfasis en la aparición de un tipo de ciencia, la megaciencia o “Big Science”,


basada en una tecnología compleja, grandes equipos de investigación y fuertes inversiones
públicas o privadas. En una línea semejante, autores como Bruno Latour y Gilbert Hottois,
han señalado como rasgo más característico de la nueva situación, la desaparición de las viejas
fronteras entre ciencia y tecnología. En lugar de hablar de ciencia y tecnología por separado
prefieren hablar de “tecnociencia”.

Pero el concepto de tecnociencia ha sido empleado con demasiada profusión, lo cual ha


provocado cierta vaguedad en su contenido. Javier Echevarría la define como la investigación
que exige grandes recursos tecnológicos y económicos, que presenta una interdependencia
entre la ciencia y la tecnología, que no se limita a explicar y predecir, sino que interviene en
el mundo y que frecuentemente viene acompañada de financiación privada. Como ejemplos
cita, entre otros, el Proyecto Manhattan, la invención del ENIAC, la física de partículas, la
meteorología, la ingeniería genética y el proyecto genoma.

Keith Pavitt ha argumentado, sin embargo, que aunque buena parte de la investigación actual
es tecnocientífica, las fronteras entre ciencia y tecnología no deben ser borradas por completo
ya que se mantienen en bastantes ámbitos.

En buena medida, los estudios sociales sobre la ciencia deben su florecimiento actual en el
mundo académico a las inquietudes que ha despertado en amplios sectores de la población
este crecimiento exponencial de la investigación científica unida a un desarrollo tecnológico

39
Filosofía de la Ciencia II

que se percibe en muchas ocasiones como descontrolado y peligroso. La sociedad -y en


principio de forma especial los gobiernos de los países más desarrollados- ha comenzado a
demandar un conocimiento más profundo de esa fuerza social.
El papel decisivo que jugó la ciencia durante la II Guerra Mundial y, en particular, la
aplicación de técnicas científicas en el exterminio de los judíos, el uso de científicos como
consejeros militares y la construcción de la primera bomba atómica, fue un primer estímulo
para la reflexión sobre las consecuencias sociales de la ciencia y sobre la necesidad de un
control ético de la investigación. A partir de ese momento, la ciencia dejó de ser para los
filósofos sólo un problema epistemológico y se convirtió también en un problema axiológico
y en un asunto de interés social.

La obra de Kuhn, “La estructura de las revoluciones científicas” (1962), supuso la primera
asunción clara de que los factores sociales eran imprescindibles para entender tanto el poder
adquirido por la ciencia como el progreso en los conocimientos científicos. Kuhn desmontaba
la visión neopositivista de la ciencia como acumulación de enunciados empíricamente
verificados y asimilaba las revoluciones científicas con las revoluciones políticas. El
conocimiento científico era mostrado no como el producto de un método orientado al logro
de la verdad objetiva, sino como el producto de un grupo social especialmente entrenado para
resolver problemas concretos y, por tanto, como algo abierto a un estudio sociológico.

Los primeros programas académicos de CTS se fueron implantando desde 1969 en varias
universidades de Estados Unidos. Estos programas significaron la institucionalización
académica del cambio que se estaba operando en la imagen pública de la ciencia y de la
preocupación por las consecuencias negativas del progreso científico y técnico. Es algo más
que una casualidad que estos primeros programas coincidieran en su implantación con los
años -mediados de los 60 y principios de los 70- en que comienzan a extenderse, por los
Estados Unidos y por algunos países europeos, diversos movimientos políticos y sociales de
marcado carácter antimilitarista, medioambientalista o ecologista y multiculturalista. Estos
movimientos eran muy críticos con la función política que estaba asumiendo la ciencia y con
el modo en que se educaba a los científicos.

Desde el primer momento, los estudios CTS se configuraron como un campo multidisciplinar
con el objetivo primario de proporcionar una “alfabetización en ciencia y tecnología” a los
que carecieran de ella, así como de poner al alcance de los científicos una visión humanista
de su trabajo y de los efectos del mismo. Perseguían fundamentalmente preparar al público
para participar en las decisiones que se han de tomar en la sociedad actual y que exigen ciertos
conocimientos de lo que es la ciencia y de cómo funciona. Pero intentaban también
contrarrestar la imagen que de la ciencia y la tecnología difundieron el positivismo, el
neopositivismo y el racionalismo extremo. Una característica común repetida desde entonces
en los programas CTS es su compromiso con un enfoque alternativo y opuesto en muchos
aspectos a la visión tradicional de la ciencia que la concibe como conocimiento verdadero y
obtenido mediante un método que justifica sus pretensiones de verdad, objetividad y
racionalidad. Por el contrario, estos programas han solido poner el

40
Filosofía de la Ciencia II

énfasis en la ciencia entendida como actividad, así como en los supuestos sociales y
axiológicos de la investigación científica.

Las distintas disciplinas que han confluido en este campo multidisciplinar son:

1. Sociología de la ciencia: la Nueva Sociología de la Ciencia (Programa Fuerte,


etnometodología de la ciencia, constructivismo social).

2. Filosofía de la tecnología: Filosofía social de la tecnología, impactos del desarrollo


tecnológico, tecnología y valores, determinismo tecnológico.

3. Filosofía de la ciencia: Estudios sobre valores epistémicos y no epistémicos, filosofía


de la actividad científica, ciencia y género, ciencia y cultura, epistemología
naturalizada, realismo científico, ciencia y postmodernismo, límites de la ciencia.

4. Historia social de la ciencia y de la tecnología: Historia externa, estudios de casos


sobre la construcción social de la ciencia.

5. Bioética y ética medioambiental: Problemas éticos planteados por el desarrollo de las


biotecnologías, la responsabilidad del hombre ante la naturaleza y ante las
generaciones futuras.

6. Ciencias políticas y económicas: Política científica y tecnológica, evaluación de


tecnologías, transferencias de tecnología, control público y gestión de la ciencia y la
tecnología, desarrollo científico y desarrollo económico, tecnología y democracia,
tecnología y trabajo.

Como puede apreciarse, los intereses actuales de los estudios CTS son muy amplios y van
más allá del propósito inicial de contribuir a la alfabetización científica de ciertos sectores de
población. Por otra parte, esta confluencia de disciplinas no es siempre armoniosa. Algunas
orientaciones se manifiestan como incompatibles con otras.

A modo de síntesis, el filósofo Philip Kitcher ha centrado en cuatro los objetivos actuales de
los estudios históricos, filosóficos y sociológicos sobre la ciencia:

1) Analizar cómo ha surgido la comprensión científica contemporánea.

2) Realizar una clarificación conceptual y metodológica, especialmente en áreas donde


se producen disputas teóricas.

3) Incrementar nuestra conciencia de las presiones sociales que afectan a ciertos tipos
de investigación científica.

4) Investigar el impacto de los descubrimientos científicos sobre los individuos y la


sociedad, con el fin de proporcionar bases más racionales a la política científica.

41
Filosofía de la Ciencia II

6.- Un enfoque “positivista liberal” (Teoría del profesor Jesús Zamora Bonilla
[No es objeto de examen] sobre el tema)

La ciencia es una institución social en el pleno sentido de la palabra, es un conjunto de


relaciones sociales, normas y relaciones de poder, tipos de recursos, influencias, etc. Un
aspecto del estudio social de la ciencia que generalmente se ha pasado por alto en los estudios
sociológicos es la tarea que se conoce como epistemología social: qué procedimientos de
organización social debemos seguir para que el conocimiento que se obtenga sea el mejor
posible.

Esto lleva a preguntarnos qué entendemos por conocimiento desde un punto de vista de un
estudio social (qué es lo que los miembros de una sociedad consideran como creencia): tomar
como conocimiento aquellas creencias que dentro de una determinada sociedad se considera
que alguien tiene la obligación de tener por estar en el puesto en que está, que ideas se
presuponen obligatorias a un determinado rol social. La ciencia como búsqueda de
conocimiento es el intento de proporcionar esas ideas que una vez pasadas por el filtro de la
ciencia un grupo tendrá la obligación de aceptar como creencias obligatorias. Ej: el mecánico
tiene la obligación de tener ciertas ideas (y no otras) acerca de cómo está compuesto un motor,
qué se puede hacer en cada tipo de avería, etc; un conductor tiene la obligación de percatarse
de las señales de tráfico; un padre tiene la obligación de saber que ciertos alimentos son
perjudiciales para los bebés, etc.

Como el conocimiento es una obligación, podemos plantearnos quien es quién para plantear
obligaciones a alguien. ¿Qué tenemos la obligación de creer? Desde el punto de vista del
liberalismo tiene que haber las menos obligaciones posibles. Que la sociedad nos obligue a
creer las menos cosas posibles, a diferencia de lo que ocurre con las sociedades teocráticas.
Por tanto, la cuestión es cuál es el menor conjunto posible de creencias que tendría que ser
obligatorio tener para que la sociedad “funcionase” de manera satisfactoria. Esto está
relacionado con Merton y la tesis del escepticismo organizado, es decir, la ciencia funciona
de tal manera que intenta minimizar el conjunto de cosas que tenemos la obligación de creer;
cuando se proponen ideas, en vez de aceptarlas dogmáticamente, hay que ponerlas en duda y
sólo aquellas que sobrepasan una serie de requisitos se convierten en obligatorias creer. La
ciencia nos libera de los dogmas y a cambio nos dice que hay cosas que creer porque han sido
sometidas a un conjunto de pruebas tan estricto que sería irracional no admitir este conjunto
de pruebas para realizar algún tipo de trabajo.

Además, una creencia o conocimiento no tiene por qué ser obligatoria para todo el mundo por
igual; ej.: cada tipo de especialista debe saber un conjunto de cosas diferente.

El requisito mínimo es que el conocimiento ha de ser intersubjetivamente criticable.


Preguntas examen

1. ¿Cuáles serían, según usted, las principales diferencias entre “sociología de la ciencia”,
“sociología del conocimiento científico” y “estudios CTS”?
2. ¿Es el estudio sociológico del conocimiento científico inevitablemente relativista?
Justifique su respuesta.
3. Según Merton, la ciencia se basa en una especie de "código ético" (que resume con la
sigla "CUDO's" o "CUDEOS"). ¿Cree usted que los científicos siguen más a rajatabla
ese código ético que lo que los políticos, empresarios, deportistas, periodistas,
abogados, alto clero, etc., siguen los suyos propios? ¿Por qué? Según usted, ¿cómo
afectaría ello a la credibilidad de la ciencia?
4. ¿Cómo influye la ciencia en la sociedad?
5. ¿Cómo influye la sociedad en la ciencia?
6. ¿Depende el desarrollo de la ciencia de los intereses económicos?
7. ¿Cuál es la estructura de la ciencia entendida como una institución social?
8. ¿Fomenta la estructura social de la ciencia que los científicos encuentren teorías, leyes
o modelos de elevado valor cognitivo, o más bien tiende a impedirlo?
9. Comente las tesis epistemológicas principales del “programa fuerte” en la sociología
del conocimiento científico.
10. Sociología de la ciencia y relativismo
TEMA 4.- Aspectos de filosofía de la biología.

1.- ¿Qué es la filosofía de la biología? Diferencias de la Biología con el resto de


ciencias (en especial la Física).
La filosofía de la biología es la rama de la filosofía de la ciencia que toma a la biología como
objeto de análisis, en especial, sus procedimientos metodológicos, sus peculiaridades
explicativas y sus problemas conceptuales. Su historia como campo de estudio con cierta
autonomía y relevancia académica es relativamente reciente, ya que la filosofía de la ciencia
estuvo centrada durante casi todo el siglo XX en el estudio de la física. De esta situación se
quejaba el biólogo Ernst Mayr: “Muchos físicos y filósofos suponen ingenuamente que lo que
se aplica a la física se aplicará igualmente a cualquier rama de la ciencia.
Desafortunadamente, muchas de las generalizaciones realizadas en la filosofía de la física o
son irrelevantes o no son verdaderas aplicadas a los fenómenos biológicos”.

Sin embargo, desde finales de los años 60 y principio de los 70 del pasado siglo, la biología
ha despertado una atención creciente entre los filósofos. Las cuestiones dominantes en la
filosofía de la ciencia no son ya la de la especificidad del método científico, la de la
racionalidad del cambio de teorías, la de las características de las teorías científicas (en
especial su estructura formal). La filosofía de la biología se ha interesado por cuestiones más
concretas, como por ejemplo, cuál es el estatus científico de la teoría de la evolución; cuál es
el papel de las explicaciones funcionales; qué es la vida; qué son las especies; si puede haber
leyes en biología, etc.

El propio desarrollo de la biología ha sido muy útil para desmontar algunos de los tópicos
filosóficos prevalecientes acerca de la ciencia. En la actualidad, la biología se presenta como
una ciencia madura, sin complejos frente a la física o a la química, y, sin embargo, su
estructura teórica y sus métodos parecen muy distintos de los de esas ciencias. Sus avances
en el siglo XX se resumen en dos de la máxima importancia:

✔ El desarrollo, en torno a los años 20 y 30, de la Teoría Sintética de la evolución (que


integra la genética mendeliana y el darwinismo), obra de autores como Dobzhansky,
Huxley, Mayr, Haldane, entre otros.

✔ El descubrimiento, en 1953, por parte de James Watson y Francis Crick, de la


estructura molecular del ADN.

Entre las características que más llaman la atención en el modo en que ha venido
desarrollándose desde entonces la filosofía de la biología destacan:
• La colaboración que se ha dado entre filósofos y científicos, mucho mayor de la que
hubo en décadas pasadas en la filosofía de la ciencia centrada en la física. Hay determinados
problemas de la biología que son susceptibles de un enfoque interdisciplinar en el que las
herramientas analíticas y conceptuales del filósofo han mostrado ser de utilidad.

43
Filosofía de la Ciencia II

• La filosofía de la biología ha permitido proporcionar nuevos y enriquecedores enfoques


al estudio de viejas cuestiones filosóficas. Tal es el caso, por ejemplo, del problema del
determinismo frente al libre albedrío, del papel del azar en la naturaleza, de si cabe atribuir
a ciertos procesos naturales una dirección hacia un fin (una teleología), o de las bases
biológicas de la cognición y del comportamiento moral. En este sentido la filosofía de la
biología no se limita a ser una disciplina metacientífica, sino que usa datos y teorías de la
biología para obtener nuevas respuestas a preguntas filosóficas de larga data. Procediendo
de este modo, la filosofía de la biología se compromete con el enfoque naturalista, que
consiste, básicamente, en propiciar el acercamiento entre la ciencia y la filosofía mostrando
que los resultados y los métodos de las diversas ciencias son relevantes para el
planteamiento de problemas filosóficos, ya que, en última instancia, la ciencia y la filosofía
forman un continuo en el que no pueden trazarse fronteras precisas.

• La biología también ha sacado provecho de la filosofía de la biología:

a Se beneficia de los análisis que se han llevado a cabo en los últimos años de
conceptos como “gen”, “especie”, “fitness o eficacia biológica”, “adaptación”,
“individuo”, “función”, “mecanismo”, “complejidad”, “información”, “nicho
ecológico”, “biodiversidad”. Estos análisis han ayudado a mostrar ambigüedades y
polisemias en el uso de dichos conceptos y algunas formas de evitarlas. Asimismo
han contribuido a dilucidar cuál es el potencial explicativo de dichos conceptos y a
señalar los prejuicios históricos y filosóficos que éstos arrastran en ocasiones.
b También puede beneficiarse de la discusión de problemas empírico/conceptuales,
como el problema de las unidades de la selección, el de la posibilidad de reducción
de las explicaciones biológicas a explicaciones pertenecientes a la biología molecular
o a la genética, el de la explicación de la conducta altruista, o el de en qué medida las
ideas recientes en biología del desarrollo son integrables o no en la Teoría Sintética
de la evolución. A esto hay que añadir el interés que puede tener para el biólogo
profesional la dilucidación de las características propias de la biología y del grado de
contrastabilidad de sus teorías, particularmente la teoría de la evolución.

Una cuestión central es determinar cuál es la posición de la biología en el conjunto de las


ciencias. De hecho, el inicio de la filosofía de la biología se produce cuando los filósofos se
empiezan a cuestionar a la biología como ciencia: si es distinta de la física o si puede reducirse
a ella. El profesor Antonio Diéguez, en su obra “La vida bajo escrutinio” (2012), señala cinco
peculiaridades de la biología que la distinguen como ciencia:

1. No hay leyes en biología, es decir la evolución no se entiende en términos de leyes,


no puede aplicarse el modelo nomológico-deductivo de Hempel.

2. En muchas áreas de la biología (paleontología, sistemática, etc.) a diferencia de la


física, no es posible la experimentación y deben emplearse otros métodos, como el
comparativo, que no tiene cabida en la física.

44
Filosofía de la Ciencia II

3. Los sistemas vivos son sumamente complejos, lo cual dificulta su estudio en función
de pocos principios básicos. Los seres vivos solo pueden entenderse como un todo y
la interacción entre las partes y no es posible reducirlo a partes componentes.

4. El grado de matematización en las teorías biológicas es escaso. Lo cual choca con la


concepción mas moderna de la ciencia basada en modelos matemáticos.

5. La biología recurre a explicaciones teleológicas e históricas, mientras que en física o


química este tipo de explicaciones están desechadas.
La segunda diferencia no marca una diferencia absoluta con la física, pues tampoco es posible
la experimentación directa en amplias áreas de la geología, la astronomía o la cosmología. Y
lo mismo cabe decir de la cuarta. No es verdad, además, que no haya áreas de la biología con
un grado alto de matematización (es el caso de la genética de poblaciones o la ecología). La
tercera tampoco marca una diferencia absoluta con la física, pues hay sistemas físicos, como
la atmósfera terrestre, tan complejos como un ser vivo. Por lo tanto, excepto quizás en el caso
de las leyes, que es controvertido (ya algunos autores creen que sí hay leyes en biología), y
en el de las explicaciones teleológicas, que para muchos son irrenunciables en el discurso
biológico, las otras diferencias señaladas son más bien diferencias de grado que de cualidad.

En todo caso, las relaciones entre la biología y la física (o la química) son complejas. Son
pocos los biólogos que asumen las dos posturas extremas y simplificadoras:

• La reduccionista radical, según la cual la biología, en última instancia, es reductible a


la física y a la química, y las diferencias que puede haber entre ellas serían debidas a
una temporal inmadurez de la biología.

• La antirreducionista radical, según la cual la biología es una ciencia completamente


autónoma en sus métodos, teorías y fines con respecto a la física y a la química.

Quizás habría que distinguir entre las distintas disciplinas y no considerar como si toda la
biología fuera algo homogéneo en metodología y objetivos. La situación difiere bastante si
nos situamos en la bioquímica y la biología molecular o si, por el contrario, nos situamos en
la paleontología y la taxonomía. Desde estas ciencias puede trazarse una escala gradual que
recorra todas las demás disciplinas biológicas, estando las últimas en una situación muy
diferente a las primeras en su relación con la física y la química.

En suma, podemos decir que la biología es una ciencia peculiar que presenta diferencias con
sus hermanas, la física y la química, pero esto no empece en absoluto su rigor ni su carácter
de ciencia madura desde el punto de vista metodológico y epistemológico.

2.- Darwin y la teoría de la Evolución.


Antes de la aparición de Darwin, la explicación de la complejidad de la vida y su capacidad para
desarrollar características exquisitamente adaptadas a las necesidades del organismo, se

45
Filosofía de la Ciencia II

basaba en el argumento del diseño, que aprovechaba la existencia de esa complejidad


adaptativa para inferir la existencia de un diseñador, y de ahí, la existencia divina. William
Paley (siglo XVIII) elaboró una de sus versiones más conocidas. Según Paley, los seres vivos
y sus órganos son muy parecidos a un reloj, ya que parecen haber sido diseñados para cumplir
un cierto propósito. Un ojo, por ejemplo, se nos muestra como un mecanismo extremadamente
sutil y sofisticado, diseñado para que su poseedor sea capaz de ver. Parece inevitable hablar
de diseño cuando nos encontramos ante órganos y organismos complejos, ya que el azar no
puede generarlos.
Charles Darwin, en “El Origen de las Especies”, se enfrentó al reto de convencer a sus
contemporáneos de que las especies no habían sido creadas con sus formas actuales, sino que
habían evolucionado en el tiempo. La idea de la evolución no era nueva, enciclopedistas como
Diderot o el científico francés Maupertuis ya trabajaron con ella, pero ninguno de ellos dio
con una respuesta satisfactoria que explicase por qué las especies cambian.

La primera teoría coherente de la evolución la propuso el naturalista y filósofo francés


Lamarck. Lamarck quería explicar lo que le parecía una progresión de la naturaleza desde
los organismos más pequeños hasta los animales y plantas más complejos y “casi perfectos”.
Para ello postuló varios principios: la existencia en los organismos de un impulso interno
hacia la perfección, la capacidad de los organismos para adaptarse a su entorno, la generación
espontánea y la famosa teoría de la herencia de los caracteres adquiridos. Lamarck estaba
profundamente interesado en la dimensión “vertical” de la evolución, es decir, la evolución
en su dimensión temporal. Darwin, sin embargo, inicialmente centró su interés en el problema
de la diversidad, en el origen de las especies a través de su diversificación geográfica, la
evolución “horizontal”.

Los principios básicos de la teoría de la evolución de Darwin son:

a) Principio de variación: los organismos de una población varían en relación a cierta


característica (los hijos no suelen ser iguales a los padres, ni iguales entre sí; además
las variaciones suelen ser aleatorias).

b) Principio de herencia (muchas de las características que diferencian a los individuos


son heredables).

c) Principio de selección natural (dado que no todas las variaciones otorgan al individuo
que las posee la misma capacidad reproductiva, aquellas variaciones que otorgan una
capacidad reproductiva mayor, estarán más presentes en las siguientes generaciones).

Dado este punto de partida, el cambio evolutivo será inevitable, ya que, debido a la fuerte
competencia, las características menos beneficiosas tenderán a ser eliminadas y las más útiles
acabarán fijándose en la población, hasta que aparezcan variantes más aptas o hasta que se
produzca un cambio en el entorno.

46
Filosofía de la Ciencia II

Asimismo en la argumentación de Darwin destacan cuatro postulados fundamentales:

1. Evolucionismo: el mundo no es estático, evoluciona. Las especies cambian


continuamente, se originan unas y se extinguen otras. El registro fósil muestra que los
organismos, cuanto más antiguos son, más diferentes son a los actuales.

2. Gradualismo: el proceso evolutivo es gradual y continuo. No consiste en cambios


súbitos y saltos discontinuos.

3. Origen común: todos los organismos descienden de ancestros comunes por un


continuo proceso de ramificación.

4. Selección natural: como un proceso que consta de dos fases: producción de


variabilidad y la selección a través de la supervivencia en la lucha por la existencia.
El principio explicativo de la teoría darwinista de la evolución se basa en la idea de que
cualquier ventaja, entendida como una mayor eficacia en las relaciones entre el organismo y
su entorno, que muestre alguno de sus miembros sobre los otros le dará más probabilidades
de sobrevivir y reproducirse. Si además estas diferencias son heredables de alguna forma, es
decir, si los descendientes tienden a parecerse más a sus progenitores que a los demás
miembros de la población, estas diferencias podrán acumularse, haciendo que los miembros
de la población vayan adaptándose más y más a su entorno.

Este mecanismo de la selección natural explicaba el diseño natural sin necesidad de un artífice
divino, proporcionando una explicación materialista de la evolución y cambiando la forma de
entender a los organismos vivos, la complejidad de la vida.
Hay varías críticas a la teoría de Darwin:

1. El darwinismo es una tautología → es una teoría que no se puede refutar (sobreviven


los más aptos y los más aptos son los que sobreviven). Pero lo realmente importante de esta
tesis es el hecho de que habrá variaciones dentro de cada especie y que las distintas
variaciones se reproducirán con distinto grado de éxito. Podemos identificar factores causales,
es decir, identificar por qué unas variaciones tienen más descendencia que otras.

2. ¿Es el darwinismo una teoría refutada? Esto se ha planteado desde la teoría creacionista
o de la Teoría del “Diseño Inteligente”, en la que se argumenta que hay casos biológicos que
no se pueden haber creado mediante un proceso darwinista porque son realmente complejos,
porque no existen mecanismos históricos que puedan explicarlos; en último termino, reflejan
un diseño inteligente de un ser superior.

El creacionismo viene a ser una versión moderna de la teología natural vigente en el siglo
XVIII y XIX (es el caso del argumento del relojero de William Paley). Sin embargo, las tesis
creacionistas han sido refutadas, primeramente porque todos los ejemplos que han propuesto
de estructuras que presentan una complejidad irreductible, los biólogos siempre han
conseguido encontrar mecanismos evolutivos por los que se ha creado esta estructura; y

47
Filosofía de la Ciencia II

en segundo lugar, dentro del darwinismo hay vertientes que defienden que, aún suponiendo
que hay estructuras tan complejas que no han podido ser creadas paso a paso, hay otras
muchas formas de crear complejidad a nivel biológico: es el caso de la teoría del “equilibrio
puntuado”1, la de la “endosimbiosis”, la “morfogénesis”, etc., teorías que complementan al
darwinismo introduciendo más factores que influyen en el proceso de selección natural.
3. ¿Es el darwinismo capaz de explicar todo en biología? Lo que se critica es un cierto
“planglossianismo” (término que proviene de Panglos, personaje que aparece en la novela
“Cándido” de Voltaire), es decir, que todo se explica evolutivamente y que todo parece una
adaptación. Autores como Gould y Lewortin (en un artículo de 1979) lo critican y consideran
que existen rasgos y estructuras evolutivas biológicas que en realidad no tienen una utilidad
y que se han ido formando como efectos colaterales de otras estructuras biológicas.

Conclusión Þ el darwinismo es compatible con todo lo que sabemos sobre los seres vivos
(aunque no explique todos sus aspectos) y además es el marco teórico que mejor permite
comprenderlos (aunque es incompleto, ya que no lo explica todo), y, sobre todo, es una teoría
que es capaz de explicar en términos científicos de que manera se pueden generar y modificar
la estructuras complejas de los seres vivos.

3.- La Síntesis Moderna y el concepto de gen.


La razón por la que la teoría darwiniana no tuve más éxito en los circuitos científicos fue
porque le faltaba el mecanismo de herencia. ¿Cómo se transmiten los rasgos de los padres a
los hijos? En tiempos de Darwin el modelo estándar de mecanismo de herencia era el
denominado “herencia por mezcla”. Se pensaba que los materiales hereditarios paternos y
maternos, contenidos en los fluidos reproductivos, se mezclaban, dando lugar a un nuevo
individuo con características propias. La teoría que desarrolló Darwin, la pangénesis, esta
basada fundamentalmente en este modelo. Ocho años después de la aparición de “El Origen
de las Especies”, Fleming Jenkin señaló la seria incompatibilidad que existe entre el
mecanismo de la selección natural y la pangénesis. Jenkin, razonando desde la matemática
estadística, mostró que la herencia por mezcla de rasgos, postulada para asegurar la integridad
poblacional y de la especie es demasiado fuerte, haría que los nuevos rasgos se perdiesen
entre la distribución media de la población.

La solución al problema que planteaba la “herencia por mezcla” se encontraba en la literatura


de la época. Gregor Mendel publicó en 1866 un artículo en el que describía los resultados de
los experimentos que había realizado con guisantes de jardín durante unos 8 años, resultados
que mostraban que ciertos rasgos característicos de la especie eran transmitidos por cada
progenitor a la generación siguiente mediante unidades discretas, denominadas “factores”
(que ahora denominaríamos genes), unidades que se conservan sin cambios, es decir, no
“mezclables”, que se recombinan de nuevo en cada generación según unas proporciones
determinadas. El artículo pasó desapercibido en ese momento, hasta que,

1 No niega el carácter general de la evolución, pero no admite la uniformidad de su ritmo.

48
Filosofía de la Ciencia II

de 1900 a 1902, tres biólogos europeos (Hugo de Vries, Carl Correns y Erick von Tschermak)
afirmaron haber redescubierto las leyes de Mendel independientemente.

Estos primeros continuadores del trabajo de Mendel no aceptaban la teoría de la selección


natural. La evolución podría ser fácilmente explicada únicamente en términos de herencia
genética y mutación. Así pues, durante los primeros años del siglo XX, los científicos tenían
ideas diferentes sobre las causas del cambio evolutivo. La mayor parte de naturalistas y
paleontólogos pensaban que la evolución era el resultado de la selección natural actuando
sobre pequeñas diferencias intraespecíficas, mientras que los primeros genetistas enfatizaban
el papel de la (macro)mutación.

El debate entre la escuela de la biométrica (defensora de una visión gradualista de la


evolución) y Bateson, figura central del mutacionismo mendelista; la acuñación del término
gen por parte del botánico holandés William Johansen; el desarrollo de la “genética de
poblaciones”, que investigó con herramientas estadístico-matemáticas la dinámica de las
frecuencias genéticas en las poblaciones, tratando de solventar problemas sobre temas como
qué tipos de cambios evolutivos son posibles, sobre qué condiciones es posible este cambio
o su velocidad; todo esta serie de nuevos desarrollos en la teoría evolutiva desde Darwin
llevaría a una síntesis, que se comentó ampliamente a lo largo de los años 30 y 40
fundamentalmente a través de las obras de Dobzhansky, Huxley, Ernst Mayr, Simpson y
Ledyard Stebbins, y que serviría para llegar a un acuerdo en la comunidad biológica con
respecto a los principios fundamentales de la evolución. La Síntesis Moderna ampliaba la
teoría de Darwin a la luz de la teoría cromosómica de la herencia, la genética de poblaciones
y el concepto biológico de especie y se caracterizó por un rechazo total de la herencia de los
caracteres adquiridos, un énfasis en la condición gradual de la evolución y el reconocimiento
de la importancia decisiva de la selección natural.

Esta concepción de la Síntesis Moderna (o neodarwinismo) tendría cinco presupuestos


esenciales:

i. La selección natural es la principal fuerza directora de la evolución (restringida


fundamentalmente al nivel individual).
ii. Las mutaciones son aleatorias con respecto a las necesidades adaptativas del
organismo.

iii.Recombinación en poblaciones con reproducción sexual.

iv. Aislamiento: prevención del flujo genético debido a un aislamiento geográfico o


ecológico, y mecanismos de aislamiento genéticos.

v. Deriva: pérdida aleatoria de genes del acervo genético en poblaciones pequeñas o en


poblaciones cuyo tamaño o distribución geográfica cambia rápidamente.

49
Filosofía de la Ciencia II

En la actualidad el gran hito en biología es la estructura del ADN y lo que se conoce como
Biología Molecular2. En este sentido una de las cuestiones que se plantea desde la filosofía
de la biología es determinar si el concepto de gen de Mendel se puede reducir o traducir a la
genética molecular.
La confluencia de las recientes aportaciones de la biología molecular y la biología evolutiva
con el lenguaje informacional de la cibernética y la ciencia de sistemas ha llevado a subsumir
la organización biológica bajo la noción de programa genético, un programa cuya
decodificación mediante el proceso de desarrollo produce al organismo, y cuya codificación
o diseño depende fundamentalmente de la selección natural. La evolución, desde esta
perspectiva, se entiende como el proceso de modificación de este programa, que puede
observarse en el cambio de las frecuencias de genes en las poblaciones. Como la variabilidad
del sistema genético se considera ilimitada, la evolución puede interpretarse como una
exploración aleatoria del espacio de secuencias genéticas, en el que la selección asume el
papel de “filtro” funcional externo.

También hay que destacar que a raíz del descubrimiento de la estructura del ADN, el concepto
de gen se ha convertido en el concepto principal y único del siglo XX, dando lugar al
determinismo genético. Este determinismo ha sido respondido por otras posturas que
consideran que no estamos determinados genéticamente sino que hay otros factores que
también nos modifican biológicamente y que explican la estructura y comportamiento de los
seres vivos. Es el caso del concepto de información epigenética (estudio de las interacciones
entre genes y entorno que producen la forma orgánica), la teoría EVO-DEVO o biología de
desarrollo evolutivo (que sin dejar de reconocer el importante papel de los genes en el
desarrollo y la evolución, interpreta que la acción genética siempre va unida a una dinámica
(auto)organizativa, bien sea en las propias redes genéticas o en sus interacciones con el medio,
de modo que establece una visión sintética en la que funde la biología del desarrollo con la
teoría evolutiva), la teoría ECO-DEVO, etc.

4.- Leyes y explicaciones en biología. Las explicaciones funcionales.


Una cosa que diferencia a la biología de otras ciencias como la física y la química, es que es
una ciencia ideográfica. W. Wildelband diferencia entre ciencias nomotéticas, que son
aquellas que investigan campos descriptibles mediante leyes universales (física, astronomía,
química), y ciencias ideográficas, que son las que estudian fenómenos individuales, que son
en cierto modo irrepetibles (historia, parte de la psicología).

Algunos autores consideran que al igual que la historia se encarga de estudiar científicamente
los hechos sucedidos a lo largo de la historia, la biología evolucionista hace lo mismo:
investiga como han evolucionado los organismos vivos hasta alcanzar el estado actual.
Además, los seres vivos que hay en la tierra son en gran medida fenómenos individuales, y
aunque hay algunas regularidades en los individuos, la generalización se hace compleja y
difícil.

2 Estudio de la estructura, función y composición de las moléculas biológicamente importantes.

50
Filosofía de la Ciencia II

De todas formas, por una parte, si parecen existir algunas regularidades muy generales y
robustas, y lo realmente importante no es que esas generalidades sean “absolutamente
universales”, sino que sen válidas en un ámbito cuanto más general, mejor. Y por otra parte,
en otras ciencias también se está discutiendo la importancia que parecían tener las leyes
universales; las ciencias buscan tal vez encontrar modelos o teorías exitosas, más que
“encontrar las leyes de la naturaleza”.

Entonces, si no explicamos en biología tendiendo a leyes, ¿cómo explicamos? Una


explicación típica muy extendida es la noción de función o explicación funcional: explicamos
la estructura biológica otorgándole una función (la función del corazón es bombear sangre).
Esa noción de función tiene una dimensión teleológica (el corazón está para bombear sangre)
y una dimensión normativa (el corazón debe bombear sangre).

Esta dimensión teleológica plantea problemas que ni la ciencia ni la filosofía han resuelto aún
de manera satisfactoria: ¿existe una teleología en la naturaleza o aplicamos nuestros moldes
humanos de conducta al hablar de ella?; el uso de estas explicaciones, ¿confiere a la biología
su carácter de ciencia autónoma?; ¿existen teorías, como la de la Evolución, cuya estructura
sea teleológica? Las respuestas, variadas y a veces contradictorias, coinciden, sin embargo,
en rechazar una finalidad externa (los designios divinos) o fuerzas inmanentes (al estilo de
los vitalistas) como explicación de los procesos naturales y los organismos vivientes.

Las explicaciones teleológicas utilizan un lenguaje caracterizado principalmente por los


términos “fin”, “propósito”, “función”, etc. Un indicio seguro que nos permite reconocer
lenguaje y explicaciones teleológicas es la referencia al futuro: nos remiten siempre, cuando
se trata de comprender una cosa o un acontecimiento a un hecho futuro que los explica.

En general, es criterio común considerar lenguaje teleológico al que a) origina explicaciones


que requieren que cierto objeto o conducta de ese objeto, contribuya a la existencia de un
estado o propiedad determinada de un sistema y b) esa contribución explique causalmente la
presencia del objeto o la conducta en el sistema. Frente a ello, la explicación funcional si bien
comparte con la teleológica a) y suele presentar algún sentido finalista, no hace referencia a
fines o propósitos. Sin embargo, entre los lenguajes teleológicos y funcionales subsiste cierta
ambigüedad: así autores como Beckner, Hull o Nagel no hacen distinción entre este tipo de
explicaciones.

Hay dos enfoques principales que tratan de establecer en que se fundamenta la explicación
funcional:

Evolutivo-etiológico → identifica las funciones con las causas evolutivas de existencia


de los rasgos biológicos a los cuales atribuimos funciones. Hace alusión a la etiología,
buscar la historia del rasgo e ir hacia atrás. Se pregunta qué es lo que ha provocado que el
rasgo esté aquí.

51
Filosofía de la Ciencia II

Sistémico-disposicional → identifica las funciones como contribuciones de un rasgo


del sistema con respecto a una capacidad o meta global. Estudia la función entendiéndola
como una meta que ayuda a conseguir (el corazón bombea sangre porque contribuye a la
supervivencia del individuo).

Un debate frecuente en filosofía de la biología es si en realidad estas explicaciones funcionales


no son de algún modo traducibles a explicaciones causales en términos de causas eficientes.
Así lo defendía Hempel (se puede traducir la explicación funcional en términos de causas y
efectos, eliminando el telos , el para qué). Pero otros consideran que no es posible, ya que hay
algo más que lo que hay en física o química que apela sólo a leyes, está la dimensión de la
normatividad (que no se da en física) ya que en biología a veces las funciones biológicas no
se cumplen y se puede decir que entonces algo funciona mal.

El concepto de función está en el centro de la discusión de considerar si la Biología es una


ciencia autónoma, en el sentido de ser una ciencia distinta con sus propias normas.

5.- Reduccionismos y emergentismo.


El reduccionismo supone considerar que la biología es reducible a ciencias más básicas, como
la física. Hoy en día (ya superado el vitalismo o el mecanicismo) casi todo el mundo es
reduccionista en un sentido ontológico, lo que supone que se considera que los seres vivos
están constituidos por elementos y reacciones químicas.

La discusión está en si dos organismos que fueran exactamente iguales en sus aspectos físico-
químicos (lo que se denomina superveniencia), serían también exactamente iguales en sus
aspectos biológicos. Esto parece estar generalmente aceptado.
El debate central se encuentra en el reduccionismo epistemológico, es decir, si se pueden
deducir las propiedades de los seres vivos a partir de nuestro conocimiento de las propiedades
de los elementos químicos de los que están formados. Esto, con carácter general, en la
filosofía de la biología, parece que no es posible, al menos completamente, ya que si bien hay
aspectos concretos que se pueden explicar apelando a los elementos físico-químicos, también
hay unos elementos que parecen estar más allá, es decir, que el todo es más que la suma de
las partes (emergentismo3), y ese todo está determinado por cuestiones de organización que
no son reducibles. En consecuencia, no hay una explicación global de la biología en términos
meramente físico-químicos.

6.- Concepto(s) de especie y el Árbol de la vida.


El concepto de especie ha generado el debate más fructífero en filosofía de la biología. La
idea tradicional que había antes de Darwin y que está, por ejemplo, en Linneo es que las
especies se corresponden con algo así como una esencia, o como una “forma o idea platónica”,
a las que los individuos “corresponden” o “tienden”.

3 Propiedades o procesos de un sistema no reducibles a propiedades o procesos de sus partes


constituyentes.

52
Filosofía de la Ciencia II

El debate ahora está más bien si la especies son clases, es decir tipos abstractos
(generalizaciones abstractas que hacemos los individuos), o más bien individuos (como
defendía David Hull), es decir, no hay un tipo abstracto, sino que hay organismos concretos,
ligados por la relación física de descendencia.
Este debate se relaciona con el llamado “Árbol de la vida”. En la biología clásica pre-
darwinista existía la idea de que se podía distinguir a los distintos individuos como si fueran
ramas de un árbol: en cuyo alto estaría el ser humano. El darwinismo da una interpretación
nueva de ese Árbol, así una especie evoluciona a partir de otras; las especies cambian y las
ramas se acortan o se alargan, dependiendo de si la especies se extinguen o evolucionan. En
la última biología contemporánea se vuelve a cambiar y se propone el concepto de herencia
horizontal que supone que ciertos genes se pueden transmitirse horizontalmente, es decir de
un individuo a otro y esto hace que no se genera simplemente un árbol con ramas sino que
una rama pueda surgir de otra, describiendo la complejidad de la vida.

Esto lleva al debate sobre el concepto de Clase Natural, es decir qué es lo que distingue una
especie de otra (un gato de por ejemplo un tigre), es decir, si existe una esencia que distingue
una especie de otra, y que se fundamenta en el código genético. Esto gira en torno al debate
entre esencialismo vs antiesencialismo.

Ernest Mayr propuso una nueva definición de especie: “población de organismos que
pueden fertilizarse mutuamente”. Esta definición dio muchos problemas: qué ocurría con los
individuos que poseen reproducción asexual o que son estériles, o que ya no sabemos si se
pueden reproducir porque ya se han extinguido...).
Esta problemática es constante en biología cada vez que se intenta dar una nueva definición
de especie. Ya que la mayoría implican que no hay “cortes ontológicamente definidos” entre
especies distintas, y el que aceptemos que dos individuos forman parte de la misma especie o
no, resulta un tanto convencional. Por eso hay muchos biólogos que prefieren hablar de otros
conceptos: clado, linaje, agrupaciones (población de individuos emparentados y todos sus
descendientes), ya que la noción de especie posee una carga metafísica que parece alejar a la
biología de la realidad.

7.- Problemas de la definición de vida.


En biología no hay una definición consensuada de lo qué es la vida. Ni los biólogos ni los
filósofos parecen estar de acuerdo sobre lo que significa ser un ser vivo. La idea tradicional
es que había una oposición entre seres vivos y seres inertes que se basa en que los primeros
tienen un plus, una “fuerza vital”, “entelequia”, “impulso”, “alma”, “principio” del que
carecían los segundos. Esta idea se rechazó desde que se aceptó el reduccionismo ontológico
al comprobarse que los seres vivos están formados por la misma materia que los entes
inorgánicos (compuestos físico-químicos).
A partir de la década de los 80, las investigaciones realizadas en el campo de la llamada “Vida
Artificial”, los estudios sobre el origen de la vida y la posibilidad de encontrar vida en

53
Filosofía de la Ciencia II

Marte o en otros planetas han traído a primer plano este longevo problema. ?Qué es lo esencial
y qué es lo accidental en un ser vivo? ¿Qué nos permitiría reconocer que estamos ante un ser
vivo? o ¿Qué características de las que posee un ser vivo del planeta Tierra debe estar
presentes en cualquier otro ser extraterrestre para considerarlo como un ser vivo?
Los estudios sobre Vida Artificial servirán para perfilar ciertos aspectos del problema. La
Vida Artificial es el estudio de la vida mediante la modelización en ordenador y el uso de
conceptos informacionales. El objetivo es crear programas informáticos que manifiesten
características propias de los seres vivos que servirán para contrastar hipótesis acerca de la
vida en general. Una versión débil mantendría que los programas que simulan la vida son
útiles para poner a prueba hipótesis biológicas, mientras que la versión fuerte mantendría que
algunos de esos programas, más que simular la vida, están vivos realmente. La convicción
que está en la base de esta tesis es que las características definitorias de la vida no pueden
basarse en los aspectos materiales de los seres vivos, sino en sus aspectos formales. La vida
no es una cuestión de poseer o no determinadas moléculas complejas, sino de cómo se está
organizado y qué tipo de procesos estructurales se tienen. Además, consideran que la biología
sintética, que debe surgir a partir de este enfoque, estudiaría la vida en sus diversas alternativas
teóricas posibles, en lugar de limitarse, como hace la biología analítica, al estudio de la vida
tal como es de hecho sobre la Tierra. Sólo así podríamos dotar a la biología de un rango
científico comparable al de la física, pues dejaría de estar circunscrita al estudio de un caso
particular y se abriría la posibilidad de alcanzar teorías universales.

En la actualidad, los autores que se han interesado por la cuestión han proporcionado una gran
variedad de definiciones de vida, a veces muy distintas unas de otras:
1.- Las definiciones más escuetas han establecido dos requisitos mínimos para la vida:
a) Capacidad para autorreplicarse.
b) Capacidad para evolucionar de forma abierta.

Ahora bien, estas dos condiciones no sólo permitirían considerar a los virus como organismos
vivos, sino también a algunas macromoléculas, como el ADN y el ARN, e incluso a los
organismos virtuales de la Vida Artificial (por no mencionar a los “memes” o unidades de
herencia cultural, postulados por Richard Dawkins), lo cual choca con lo que habitualmente
se acepta entre los biólogos. Además, está el hecho de que algunos organismos que
consideramos vivos no pueden autorreplicarse ni siquiera con la colaboración de otros
organismos, como es el caso de los híbridos estériles o de algunos individuos entre los insectos
sociales.

2.- Una lista más larga y matizada de condiciones es la proporcionada por Farmer&Belin
(1992) o por Hickman, Roberts&Larson (1998). Estas dos caracterizaciones coinciden en la
atribución a la vida de los siguientes rasgos:

a) Orden estructural jerarquizado y organización compleja mantenidos durante un tiempo.

54
Filosofía de la Ciencia II

b) Capacidad autorreproductiva con producción de variaciones heredables, lo cual implica


capacidad de evolución.
c) Almacenamiento de información en un programa genético.
d) Posesión de un metabolismo.
e) Interacción con el medio ambiente.

Es muy significativo que ninguna de las dos haga referencia a la materia de la que está
compuesta la vida tal como la conocemos: las macromoléculas formadas por largas cadenas
de carbono). Aunque éste es un requisito cada vez más aceptado, no todas las definiciones de
vida disponibles omiten, sin embargo, la referencia a los componentes materiales de los que
consta la vida en la Tierra.

3.- Por influencia de Schrödinger (1944) y Prigogine (1980), también se ha caracterizado a


los seres vivos como “sistemas alejados del equilibrio termodinámico”, es decir, sistemas
capaces de mantenerse con baja entropía y, por tanto, portadores de gran cantidad de
información. Los seres vivos crean orden a partir del desorden, consumiendo para ello energía
e intercambiando materia con su entorno. El problema con ella es que -a no ser que se
introduzcan ulteriores precisiones - esta propiedad no es exclusiva de los seres vivos. Hay
sistemas puramente físicos que se mantienen alejados del equilibrio termodinámico de forma
semejante (por ejemplo, una estrella o un tornado). Estas ulteriores precisiones que suelen
añadirse van normalmente encaminadas a señalar que el modo en que los seres vivos se
mantienen alejados del equilibrio termodinámico es mediante determinados procesos
metabólicos. Con ello, sin embargo, el punto de atención se desliza precisamente a estos
procesos. Esta caracterización de la vida termina, pues, por ser una modalidad de uno de los
dos grandes enfoques: el enfoque autoorganizativo.

4.- Un intento de proporcionar una definición puramente formal de vida ha sido el de Bernard
Korzenievwski (2001). Korzenievwski cree que la cibernética puede proporcionar el
instrumental conceptual necesario para hacer tal cosa. Los seres vivos, por un lado, poseen
una gran cantidad de mecanismos regulativos en niveles muy diferentes que tienen como
finalidad mantener constante el valor de un parámetro (por ejemplo, la elevada concentración
de un aminoácido bloquea su producción, una baja concentración de ATP estimula la
producción de más ATP, etc.). Todos ellos son mecanismos de feedback negativo que están
subordinados a un “propósito” o fin superior: el mantenimiento de la identidad del individuo,
el cual a su vez está subordinado al fin de la reproducción. Ahora bien, la reproducción es un
mecanismo de feedback positivo: cuantos más individuos haya reproduciéndose, mayor será
la tasa de reproducción. De ahí que la propuesta de Korzenievwski sea la siguiente: un ser
vivo es “un sistema de feedbacks negativos inferiores subordinado a un feedback positivo
superior”.

Pese al interés de esta propuesta, hay entidades no vivas que pueden encajar en ella
(formaciones nubosas, líquidos en el punto de ebullición, el fuego, los remolinos en un

55
Filosofía de la Ciencia II

fluido, las elevaciones de las placas tectónicas e incluso un robot capaz de autorregular el
estado de sus componentes y de construir otros robots igual).

Todas las características que han ido apareciendo en estas definiciones señalan dos aspectos
fundamentales de los organismos vivos: el tratamiento de información (autorreproducción) y
la autonomía (autocontrol, autorregulación, autocatálisis, metabolismo). Incluso se podría
hablar de dos orientaciones básicas en la caracterización de la vida:

A.- El enfoque informacional → pone el énfasis en la capacidad autorreproductiva o


replicativa de los seres vivos y está influido por la teoría de la información y la informática
(además de por la tradición darwiniana). Ve como características fundamentales de los seres
vivos los mecanismos de variación y herencia, los cuales a su vez posibilitan su evolución
proporcionándoles adaptación al medio.

B. - El enfoque auto-organizativo → pone el énfasis en la autonomía de los organismos, en


su capacidad para automantenerse, para constituir su propia identidad.

Este segundo enfoque tiene como versión más conocida la teoría de la autopoiesis de
Maturana y Varela, según la cual los organismos vivos son sistemas autopoiéticos, es decir,
sistemas capaces de construirse y regenerarse a sí mismos, de producir de forma autónoma
sus propios componentes. Varela considera además que la característica en la que pone el
énfasis el enfoque alternativo, es decir, la reproducción, es en realidad una característica
secundaria de la vida.

El autor que más ha hecho por desarrollar en los últimos años el enfoque auto-organizativo
es Stuart Kauffman que considera que la característica que se destaca en los seres vivos es la
de la complejidad automantenida y, por tanto, el metabolismo.

Ahora bien, este enfoque deja fuera cualquier referencia a los mecanismos de la herencia que
posibilitan la evolución por selección natural, y ello representa su principal limitación.

Por tanto, para unos investigadores tenemos vida cuando podemos encontrar estructuras que
se autorreplican, para otros cuando encontramos estructuras que se automantienen
metabólicamente. Estas dos formas fundamentales de entender la vida se corresponden de
forma casi exacta con las dos principales corrientes acerca del origen de la vida:

1. La vida como capacidad de auto-replicación de los sistemas concretos y de evolución


de los sistemas en otros sistemas (Enfoque replication-first). Lo primero fueron los genes.

2. La vida como un sistema capaz de construirse a sí mismo, manteniéndose fuera del


equilibrio termodinámico (metabolismo) (Enfoque metabolism-first).

Ambos enfoques presentan problemas, y el uno no puede dar cuenta de la aparición de las
características de la vida sobre la que se centra el otro. Dadas esas carencias explicativas ha
habido intentos de integrarlos en uno más general que muestre alguna conexión más profunda
entre ellos. Así, Freeman Dyson ha defendido que la vida tiene un origen doble:

56
Filosofía de la Ciencia II

metabolismo y replicación, que son lógicamente separables. Esto implica que la vida, o bien
surgió de una vez con ambas cosas juntas o tuvo un doble origen: hubo una primera entidad
replicadora y una primera entidad metabolizadora y ambas se unieron para formar la vida.
En definitiva, no sólo no tenemos una definición universalmente aceptada de vida, sino que
ni siquiera los especialistas coinciden en los criterios que deberían seguirse para obtener una
definición rigurosa (si la definición debería ser puramente formal o inevitablemente debe
incluir alguna referencia a los componentes materiales). Quizás la conclusión que habría que
obtener de la situación descrita es que la vida no parece ser un género natural; es decir, no
es el tipo de cosa que pueda caracterizarse mediante un conjunto de propiedades necesarias y
suficientes.

Si no es un género o clase natural, entonces debemos elegir entre tres alternativas:

1ª.- La vida es un género convencional → decidir qué es lo que se va a considerar como vivo
y qué es lo que no dependería exclusivamente de los seres humanos, en función de sus
intereses, y no habría ninguna base objetiva en la naturaleza que sustentara tal separación.
Pero mover las fronteras de lo que está vivo y lo que no está vivo sólo por simple convención
y no en función de un mayor conocimiento del funcionamiento y de las posibilidades de la
vida no parece que sea una estrategia ni interesante ni útil para ciencia.

2ª.- La vida designa a un individuo (en sentido lógico) y no a una clase de entidades → la idea
puede parecer extraña, pero también lo pareció en un primer momento la propuesta análoga,
realizada por Michael Ghiselin (1974) y David Hull (1976), de que las especies biológicas
son realmente individuos y no clases. Aportaría, además una buena explicación de ciertas
peculiaridades de la biología como ciencia frente a la física y a la química, como, por ejemplo,
la ausencia de leyes universales biológicas.

Los individuos poseen tres características principales que les diferencian de las clases:

i. Tienen una existencia espacio-temporal; tienen un comienzo y un final. Es decir, los


individuos son entidades concretas e históricas; las clases son abstractas y atemporales.
ii. Son susceptibles de cambios. Pueden evolucionar a lo largo del tiempo.
iii. Poseen cohesividad interna. Sus elementos mantienen una estrecha red de relaciones
reales, no meramente conceptuales.
No resulta difícil de aceptar que la vida presenta las dos primeras características propias de
los individuos y que no tienen las clases. En cuanto a la tercera, la cuestión es más compleja.
La ecología y la teoría de la evolución nos enseñan que la única vida que conocemos, la vida
en la Tierra, cumple también, al menos en algún grado, esa característica; pero, ¿qué pasaría
si encontráramos alguna vez vida extraterrestre?

57
Filosofía de la Ciencia II

3ª.- La vida es un género natural pero no caracterizable mediante un conjunto de propiedades


necesarias y suficientes → ésta es una posibilidad que también ha sido ensayada en el debate
sobre las especies y que podría ser extrapolada al problema de la definición de vida. Lo que
esto significa es que las especies presentan propiedades que tienden a darse juntas porque hay
mecanismos causales subyacentes que hacen que se refuercen unas a otras, aunque son
mecanismos sujetos a excepciones. Es decir, la posesión de alguna de ellas hace más probable
la posesión del resto, si bien pueden darse casos de individuos en los que falten algunas de
tales propiedades. En tales casos, es una cuestión teórica, para a posteriori, y no meramente
conceptual, determinar si estamos ante un individuo que cae bajo este género natural o no.
Incluso podrían darse casos racionalmente indecidibles. Esta tercera forma de ver los géneros
naturales no exige que haya alguna propiedad presente en todos los miembros de una especie
y sólo en ellos (no exige, como hemos dicho, una esencia en el sentido tradicional) y, por otra
parte, permite su variación en el tiempo, ya que la agrupación homeostática de propiedades
puede preservar su identidad a través de ciertos cambios.

Esta posición se alejaría tanto del esencialismo tradicional que busca una definición universal
de vida a partir del establecimiento de sus condiciones esenciales, como del escepticismo que
no ve posible más que un conjunto más o menos vago, arbitrario, contextual y variopinto de
características habitualmente, pero no necesariamente, presentes en los seres vivos.

No obstante, persiste un problema (aunque menor) con esta caracterización, y es que también
haría de un individuo aislado un género natural, pues también éste podría considerarse como
una agrupación de propiedades mantenida homeostáticamente.

8.- Biología y Naturaleza Humana. La diferencia humano / animal, la


Sociobiología, psicología evolucionista, la ética naturalizada, el concepto de
raza, etc.
A parte de los problemas anteriores que son considerados básicos (carácter ontológico de la
selección natural, el problema de especie y esencia, el problema del concepto de vida), la
biología investiga otros múltiples problemas y aspectos controvertidos:

• La Sociobiología y la Psicología Evolucionista que, desde diferentes enfoques, tratan


de explicar aspectos sociales o cognitivos de los humanos apelando a explicaciones
evolutivas (selección natural).

• Ética naturalizada que estudia hasta que punto podemos fundamentar nuestros
principios o valores o nuestra forma de establecer juicios morales apelando al soporte
biológico (por qué nos parece que es peor matar a un niño que a un adulto, etc.).

• Otros problemas concretos:

• Hay algo que desde la biología diferencia al ser humano del resto de animales
no-humanos: algunos consideran que no hay diferencias, que todo es una cuestión

58
Filosofía de la Ciencia II

de grado; otros dicen que tenemos propiedades que nos diferencian


(capacidad para el lenguaje, la forma del raciocinio, etc.).
• Debate sobre los conceptos de raza o género.
• Problemas éticos, morales y políticos que supone la biotecnología.

Preguntas examen

1. ¿Es la vida un género natural? ¿Lo son las especies biológicas? Justifique sus
respuestas.
2. Explique el concepto de “auto-organización”, y en qué medida puede afectar a la
aceptabilidad de la teoría de la selección natural.
3. ¿Puede reducirse el concepto de “teleología” a las explicaciones causales de tipo
fisicalista? Justifique su respuesta.
4. ¿Le parece suficientemente “científico” el concepto de “gen egoísta”? Justifique su
respuesta.
5. ¿Puede la biología “reducirse” a la física o la química?
6. ¿Cuál es el estatus científico de las teorías biológicas, y en particular, de la teoría de
la evolución?
7. ¿Cuál es el papel y las limitaciones de la experimentación en la biología?
8. ¿Cuáles son las “unidades de selección” cuando hablamos de “selección natural”: los
individuos, los rasgos, los genes, las poblaciones, las especies?
9. ¿Son compatibles las explicaciones teleológicas o funcionales con el darwinismo?
10. ¿Existen las especies?
11. ¿Estamos determinados por nuestros genes?
12. ¿Cuáles son las implicaciones del darwinismo en ámbitos distintos de la biología?
13. La noción de especie
14. Explique la relación que hay entre el funcionalismo y el darwinismo.
15. El concepto de función en biología
16. El estatus científico de la teoría de la evolución
TEMA 5.- Filosofía de la Física.

1.- La Física como modelo ideal en Filosofía de la Ciencia.


¿Por qué la Física es tan importante en la Filosofía de la Ciencia?:

El primer motivo es porque cuando se intenta dar un ejemplo de cómo es la ciencia se


recurre siempre a la Física, es decir, la Física se ha configurado como un estándar que se
usa para comparar con las demás disciplinas y discernir si son más o menos científicas. En
este sentido, la Física sería el estrato más básico en el que fundamentamos la ambición
reduccionista en Filosofía de la Ciencia: la idea de que todo el universo está formado por
componentes físico-químicos.

En segundo lugar, porque la Física es el reino del modelo nomológico-deductivo y del


concepto de ley, que se considera la herramienta más básica en ciencia. Es el campo en el
que mejor manejamos el concepto de que existen leyes que nos permiten explicar y
predecir el comportamiento de fenómenos.

2.- Realismo y Física.


La relación que se da entre la concepción de realidad que maneja la ciencia y la ciencia física
se puede ilustrar con el discurso de inauguración de la Royal Society de Newton (1703): “la
física o filosofía natural es aquella disciplina que consiste en el descubrimiento del marco y
de las operaciones de la naturaleza, reduciéndolas, tanto como sea posible, a reglas o leyes
generales, estableciendo de este modo las normas por observaciones y experimentaciones
que nos permiten deducir causas y efectos de las cosas”. Es decir, la misión de la Física es
llegar a descubrir las normas y leyes que gobiernan el mundo, es decir, sus fundamentos más
básicos. Esta es la razón por la que la Filosofía y la Física han estado siempre muy ligadas.
Esta es la idea de la Concepción heredada que ha llegado hasta nosotros: la Física investiga
cómo está compuesto y cómo funciona realmente el mundo, estableciendo leyes a partir de la
experimentación y la contrastación empírica.

Esto implica, en cierto modo, varios presupuestos reduccionistas:

Reduccionismo ontológico → la Física nos permite realizar predicciones de cómo


funciona el mundo porque todo lo que compone ese mundo es físico y atiende a las
propiedades de lo físico. Esto es lo que defiende la postura conocida como
fisicalismo. Esta concepción no es muy controverttida, y se ha convertido en el lugar
común de los filósofos.

Reduccionismo epistemológico → todo lo que compone el mundo es lo que la Física


afirma y atiende a las propiedades que determina la Física, tal como es hoy en día.
Esto es lo que defiende el Fisicismo. Esta postura es más compleja y arriesgada que
la anterior. El argumento más conocido en contra de esta idea es el argumento de la
metainducción pesimista de Laudan, que dice que no es razonable que la Física sea

60
Filosofía de la Ciencia II

una ciencia última, ya que como todas las demás ciencias ha cambiado mucho a lo
largo de la historia, y por tanto, las teorías actuales podrán también ser demostradas
como falsas en el futuro.

3.- El “cierre causal del mundo físico”.


Suponer que podemos contar con un reduccionismo ontológico (fisicismo) en el cual
asumimos que todo lo que compone el mundo es físico y puede ser explicado desde la física,
no supone que la Física nos de una imagen perfecta de cómo funciona el mundo. Bajo esta
suposición nos encontramos con el principio del cierre causal: todo efecto físico ha de tener
también una causa física. En él no intervienen entidades no físicas (causas sobrenaturales,
mentales, extramateriales), ni siquiera como causas parciales. Esta postura filosófica es muy
potente ya que obliga a los fenómenos que en principio caen un poco lejos o que tienen difícil
acomodación dentro de la Física (como es el caso de los estados mentales) a que tengan que
ser explicados dentro del marco físico.
Hay ciertos argumentos que están en contra del cierre causal del mundo físico: ejemplo, aun
suponiendo el reduccionismo ontológico, se puede decir que hay ciertos fenómenos no físicos
(los estados mentales, pensamientos) que sí tienen poder causal sobre el estado material. Esto
es lo que se denomina “causación descendiente”: la idea de que hay ciertos eventos que
emergen de los estados físicos (que no surgen de la nada), pero que son esencialmente
distintos de estos eventos físicos y operan cambios en el mundo físico. Uno de los filósofos
que más empeño ha puesto en esto ha sido Quine.

También hay posturas intermedias, como la “tesis de la sobredeterminación” (Mellor, Crane),


que establece que esos estados no físicos actúan sobre los estados físicos porque de alguna
manera aquellos también están determinados físicamente. La causación en el mundo física
está sobredeterminado tanto por estados mentales como por causación material en el sentido
más puramente físico.

4.- Física clásica.


La Física clásica newtoniana es el paradigma de ciencia bien formada y establecida y que
además encaja perfectamente con la Concepción Heredada de la ciencia. Básicamente explica
todo lo que sucede en el mundo apelando a tres leyes:
1ª.- Ley de la inercia: “Todo cuerpo persevera en su estado de reposo o movimiento uniforme
y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas impresas sobre él”.
Es decir, un cuerpo se mantiene en su estado de movimiento si no actúan fuerzas sobre el
mismo.

2ª. - Ley de proporcionalidad (entre la intensidad de la fuerza y la aceleración): “El cambio


de movimiento es proporcional a la fuerza motriz impresa y corre según la línea recta a lo
largo de la cual aquella fuerza se imprime”.

61
Filosofía de la Ciencia II

3ª.- Ley de principio y reacción: “El cambio de movimiento es proporcional a la fuerza motriz
impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime”. Es
decir, la fuerza que ejerce un cuerpo sobre un segundo cuerpo es igual y de sentido contrario
al que ejerce el segundo sobre el primero.

A estas leyes, Newton añadió posteriormente la ley de la gravitación universal: “la fuerza
ejercida entre dos cuerpos separados una distancia es proporcional al producto de sus masas
e inversamente proporcional al cuadrado de las distancias”.

Todas estas leyes aunque puedan ser sencillas poseen un gran potencial, ya que cubren todos
lo fenómenos que pueden verse en el mundo físico. Sirven tanto para explicarlos como para
predecirlos.

Newton se convirtió de este modo en el paradigma de todos los filósofos de la ciencia. Su


postura expone la visión mecanicista: es decir, las fuerzas y trayectorias de los cuerpos son
medibles y predecibles. Si conocemos el estado actual de todas las partículas de materia, su
posición y su velocidad, así como el de las fuerzas que las interactúan, entonces podremos
predecir el comportamiento futuro del universo.

5.- Física relativista.


La concepción mecanicista del mundo cambia radicalmente cuando aparece Einstein en 1905
con tres artículos que revolucionan el modo de entender la ciencia física, al proponer su teoría
de la relatividad especial que complementa con su teoría de la relatividad general. Einstein
parte de la idea de que la luz se mueve a velocidad constante, independientemente de la
velocidad del observador. Si un observador viaja a partir de un punto A, en la dirección de un
rayo de luz, a una velocidad de 100,000 km/s, y mide la velocidad del rayo, esta medición
arrojará una velocidad de 298,085 km/s y no 198,085 km/s, como cabria esperar. Esto
implicaba matemáticamente que la variable tiempo no es la misma para ambos observadores.

Por tanto, el tiempo es una variable relativa (no absoluta) y la velocidad absoluta de un cuerpo
no existe, dado que no existe ningún marco de referencia para poder medirla. Sólo existe la
velocidad con respecto a otro cuerpo (E-mc2).

Por tanto, Einstein, a diferencia de Newton, considera que los observadores no están fuera del
mundo , sino que su posición es parte determinante de la Física.

6.- Mecánica cuántica.


A mediados del siglo XX surge la mecánica cuántica para la cual la acción del observador es
algo determinante de la realidad física. No es simplemente que la posición del observador
tenga que ser tenida en cuenta sino que la medición de un fenómeno determina ese fenómeno
que se observa (un fenómeno no existe hasta que no se observa). Es lo que se conoce como
función de onda (la medición de un fenómeno) que no colapsa (no se materializa) hasta que
el observador participa en la medición. Por ello se dice que si fuera

62
Filosofía de la Ciencia II

posible observar los fenómenos físicos de forma aislada (lo cual no es posible), sin
observación ni medición, entonces se vería que la función de onda no colapsaría y los
fenómenos tendrían propiedades paradójicas aparentemente contradictorias (ej. la doble
naturaleza de la luz: onda o partícula, la paradoja del gato de Schrödinger, etc.).

A pesar de que esto arroja una visión problemática y ambigua de la realidad desde el punto
de vista filosófico, la mecánica cuántica tiene un gran armamento matemático que la sustenta
y que genera un enorme éxito predictivo.

La pregunta central que se realiza un filósofo es qué es lo que investiga, de qué habla la Física
cuántica. Principalmente se centra en el problema de la medida Þ un sistema físico queda
descrito por una función de onda. Dicha función es un objeto matemático que supuestamente
describe la máxima información posible que contiene un estado puro.
Ahora bien, si nadie externo al sistema (y no dentro de él) observara o tratara de ver como está
el sistema, la mecánica cuántica nos diría que el estado del sistema evoluciona
determinísticamente. Es decir, se podría predecir perfectamente hacia dónde irá el sistema (si
no se observase). Por tanto, la función de onda nos informa de cuáles son los resultados
posibles de una medida y sus probabilidades relativas, pero no nos dice qué resultado concreto
se obtendrá cuando un observador trate efectivamente de medir el sistema o averiguar algo
sobre él. De hecho, la medida sobre un sistema es un valor aleatorio entre los posibles
resultados. Es decir, si nadie lo midiera tendríamos las probabilidades detalladas de cómo va
actuar el sistema pero no de cómo va a actuar efectivamente porque para ello tendríamos que
contar con la acción del observador.

Algunos filósofos de la ciencia han considerado que el principal problema es determinar cuál
es el “referente” de la mecánica cuántica, es decir, qué es aquello a lo que se refiere la
función de onda, cómo es posible que las cosas cambien cuando se observan. En base a este
problema, Mario Bunge (1973) considera que nos hallamos ante cuatro posturas principales:

1. Realismo → defiende que las cosas que cambian cuando se observan son entidades
físicas reales, son cosas que están en el mundo pero que no llegamos a comprender cómo
funcionan. Algunos denominan a esta postura de variables ocultas, y por ello utilizamos la
idea de que el observador cambia la realidad. Autores que defienden esta postura son
Boltzmann o Planck.

2. Subjetivismo → considera que la mecánica cuántica no habla de la realidad sino de


nuestros estados mentales. Esta teoría tiene más predicamento dentro de la filosofía que de
la ciencia. Defendida por Mach.

3. Interpretación de Copenhage → las entidades de la Física cuántica son conglomerados


de entidades físico-mentales. Es la postura más extendida y fue defendida por Bhor y sus
discípulos.

63
Filosofía de la Ciencia II

4. Dualismo → defiende que se trata de entidades físicas y entidades mentales


que interactúan (pero no son las mismas). Es una postura muy similar a la de
Copenhage. Autores que la sustentan son Pierce, Dewey, Eddington o Bohr.

En conclusión, existe una gran tensión entre el enorme éxito predictivo de la


mecánica cuántica y las dificultades para determinar de qué están hablando los que
defienden la Mecánica Cuántica (determinar su referente, qué es la función de
onda, por qué existe el problema de la medida, cómo determinar la función del
observador, etc..). Esto nos lleva al cuestionamiento del papel de la Física como
una “representación realista de la Naturaleza”, es decir, de si los físicos hablan del
mundo como un fenómeno a explicar o están hablando de constructos matemáticos
o teóricos que permiten predicciones o conocimiento del universo aun si hacer una
descripción del mismo.

7.- Multiversos.
En relación con la tensión planteada anteriormente, se encuentra la teoría de los
multiversos (desarrollada principalmente por Hugh Everett). Se trata de una
hipótesis física en la que se propone que existen diversos universos o realidades
relativamente independientes. El desarrollo de la física cuántica, la búsqueda de
una teoría unificada (teoría cuántica de la gravedad) y el desarrollo de la teoría de
cuerdas, han hecho entrever la posibilidad de la existencia de múltiples
dimensiones y universos paralelos conformando un multiverso.

Multiverso es un término usado para definir los múltiples universos posibles,


incluido nuestro propio universo. Comprende todo lo que existe físicamente: la
totalidad del espacio y del tiempo, todas las formas de materia, energía y cantidad
de movimiento, y las leyes físicas y constantes que las gobiernan.

En realidad, esto proviene de una necesidad matemática, ya que para ciertos


cálculos matemáticos la idea de concebir varios universos hacía que funcionase
muy bien y que se hicieran buenas predicciones en Mecánica cuántica. La polémica
es si es lícito proponer o no esos universos paralelos simplemente para que “te
salgan las cuentas”. Por tanto, la postulación de múltiples universos puede
entenderse de un modo realista o pragmatista. La interpretación realista genera
muchos problemas, ya que si hablamos de múltiples universos, hay que
preguntarse dónde están realmente, cómo accedemos a ellos. Por ello, muchos
consideran que esta teoría va en contra de la “navaja de Ockham” ya que hace que
todo sea mucho más complejo de lo que es.

Así, el físico Paul Davies considera que la idea de proponer nuevos universos se
parece más a una cuestión de fe religiosa que a un verdadero razonamiento
científico. Sin embargo, para otros científicos, como George Ellis, aun
considerándose escéptico y suponiendo que estas múltiples dimensiones no
existen, defiende que tienen un papel pragmático importante ya que te permiten
mejores cálculos y una estimulación filosófica muy potente que permite
reflexionar sobre por qué estamos aquí, hacia dónde va el mundo, etc.

Preguntas examen

1. “La teoría cuántica muestra que la realidad depende del observador”. Argumente a
favor y en contra de esta tesis. ¿Qué consecuencias filosóficas relevantes extraería
usted de su análisis?
2. “La teoría cuántica muestra que el universo es intrínsecamente indeterminista”.
Argumente a favor y en contra de esta tesis. ¿Qué consecuencias filosóficas relevantes
extraería usted de su análisis?
3. Explique el principio de “cierre causal” y comente sus posibles implicaciones
filosóficas.
4. Explique algunas nociones de “multiverso”. ¿Qué consecuencias filosóficas extraería
usted a partir de ellas?
5. ¿Puede la física explicarlo todo?
6. ¿Es lo mismo el fisicalismo que el materialismo?
7. ¿Implica la física que el determinismo es correcto, si todo está gobernado por sus
leyes?
8. ¿Qué diferencia hay entre el pasado y el futuro?
9. ¿Crea nuestra observación la realidad, según la física cuántica?
10. ¿Cómo afectan la teoría de la relatividad y la teoría cuántica a las nociones de
causalidad?
11. ¿Son necesarias las leyes de la física?
12. Realismo y mecánica cuántica
13. Determinismo e indeterminismo en física
14. Relaciones entre el modelo de explicación nomológico y el causal.

Potrebbero piacerti anche