Sei sulla pagina 1di 64

LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo

FILOSOFÍA DE LA CIENCIA Curso 2006-2007

FILOSOFÍA DE LA CIENCIA

Tema 1: Estructura de la Ciencia


Dentro de una perspectiva histórica, la visión clásica de la ciencia es la del empirismo lógico.
Pero a finales de los años 50 y principios de los 60 se presentan dos críticas fundamentales al
empirismo lógico, y Kuhn proporciona una alternativa en la contemplación de la ciencia con
la obra “La estructura de las revoluciones científicas” de 1962, trabajo con el que nace el
discurso sobre revoluciones y cambios abruptos. Con la muerte de Carnap, Kuhn se
derrumba y fallece. Cerezo cree que todavía hay personas que siguen sintiéndose cercanas al
empirismo lógico, pero formalmente se considera que éste está muerto. Los empiristas
lógicos habían idealizado la ciencia en el intento de tratar de explicarla mediante la lógica
matemática, es decir, los empiristas lógicos trataron de desvelar el patrón de la racionalidad
científica a través de la lógica matemática, mientras que Kuhn afirma que esto proporciona
una visión distorsionada.

Tras Khun se comienza siempre por el estudio de la historia, pues sobre la base del estudio de
la historia se nos presenta una imagen de la ciencia más rica, con más elementos de inicio,
con más variables que no son susceptibles de análisis lógico. Por ejemplo, el concepto de
comunidad científica, aplicación paradigmática, factores psicológicos (tienen que ver con la
motivación, persuasión, etc). Con esto, la imagen dinámica que aparece en la ciencia, para
Khun no tiene nada que ver con la imagen dinámica del empirismo lógico, sino que es una
imagen que no tiene nada que ver con la acumulación y el progreso, pues se produce un
cambio abrupto. Con esa historia se ve que se producen discontinuidades que impiden hablar
de un crecimiento del conocimiento científico lineal, progresivo y acumulativo. Esto parece
una forma de relativismo y muchos filósofos vieron en Khun una amenaza relativista, pero
esto es algo que él se apresura a desmentir. El problema es que Khun ataca la visión
tradicional del conocimiento científico como paradigma del conocimiento humano. Así, en la
interpretación de Khun encontramos dos posturas que forman las dos grandes escuelas:
Interpretación moderada
Interpretación radical

La interpretación moderada o conservadora está representada por nostálgicos que no pueden


ignorar a Khun a la hora de desarrollar su filosofía de la ciencia, y entre ellos tenemos
básicamente a Popper y sus seguidores.

Popper vivió y trabajó en el mismo tiempo que los empiristas lógicos, en los años 30, antes
de la diáspora,. No pertenecía al Círculo de Viena, pero mantenía un diálogo constante con
alguno de sus componentes. Las ideas de Popper no casaban bien con las del Círculo de
Viena, tenía una visión dinámica de la ciencia y no sincrónica, como es el caso del Círculo.
En el año 59 se tradujo al inglés su “Lógica de la investigación científica”, obra con la que
Popper alcanzó gran resonancia internacional, porque fue el interlocutor crítico de Khun en
los años 60. Fue visto como el flotador que permitía hacer frente al desafío kuhniano sin
perder la racionalidad científica tradicional.

La interpretación conservadora consistió en esto: una relectura de Khun a través de la


filosofía de Popper. Esto fue lo que hizo, por ejemplo, Lakatos, Feyerabend, Laudan, Holton,
Cohen, etc., y a veces a estos autores se les llama “filosofía historicista de la ciencia”.
1
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Además de todos estos, hay otros autores que también, sobre la base de una lectura
conservadora de Khun, trataron de rescatar el enfoque formalista del empirismo lógico en el
diseño de un nuevo lenguaje de filosofía de la ciencia. Se trata de los enfoques semánticos,
conectados con la visión historicista porque introducen un componente dinámico, y con el
empirismo lógico porque introducen el formalismo. En España, dentro de las visiones
semánticas, tenemos el estructuralismo.

Por otro lado, la interpretación radical es un cajón de-sastre, se trata de ir más allá. Aquí están
el filósofo D. Bloor, el sociólogo D. Barnes, el historiador Shapin, el economista C. Freman,
realizando estudios sobre ciencia y género, sobre innovación.

Tomando elementos de las dos interpretaciones, también hay un amplio espectro de


posiciones, y aquí es imposible ser más preciso, es donde está lo que se conoce como la
historia naturalizada de la ciencia, que para D. Hull es hacer un estudio de la ciencia desde la
propia ciencia.

El empirismo lógico consideraba que la ciencia era saber metódico, tienen una concepción a-
histórica, alejada de la pragmática y de lo humano. Para ellos, podemos analizar lo que se
llama ciencia en distintas disciplinas formadas por teorías científicas que están constituidas
por un conjunto de enunciados, con lo que el cuerpo teórico de esas teorías puede
establecerse axiomáticamente, es decir, hay una reconstrucción axiomática de la teoría.
Pensaban que todas las ciencias descansaban sobre los contenidos de la física matemática.
Ahora bien, ¿qué clase de críticas podrían hacer más daño a esta visión de la ciencia? Hay
que tener en cuenta que la clave está en la relación entre el suelo de la experiencia y el
cuerpo teórico. Hay que dudar del respaldo concluyente de los sentidos y de cualquier
generalización teórica que proyecte hacia el futuro. Los empiristas lógicos afirman que no
pueden tener garantías no significativas susceptibles de justificación. Así, cambiaron el
discurso matemático riguroso por otro basado en la probabilidad. Pero, si no sólo ponemos en
duda la posibilidad del respaldo lógico concluyente, sino también el respaldo metodológico
concluyente, el empirismo lógico tiene muchas dificultades, y por esta línea va la crítica de
Khun con el denominado “argumento de la infradeterminación”. También hay que tener en
cuenta el dudar de las fronteras entre lo teórico y lo observable, algo que forma parte de la
crítica de Khun mediante el “argumento de la carga teórica de la observación”. Estos dos
argumentos son ataques al modo en que el empirismo lógico entiende la relación entre los
dos mundos, el teórico y el experiencial, atacan al desarrollo de la ciencia moderna.

El argumento de la carga teórica de la observación, junto con el de la infradeterminación,


será la base de lo que vayamos viendo a partir de ahora. El autor que hace uso de este
argumento contra la vieja ciencia es N. R. Hanson, autor de “Patrones de descubrimiento” y
cuya fuente de inspiración inmediata es una serie de filósofos analíticos británicos, en
especial el segundo Wittgenstein y Ryle. Lo que Hanson afirma en su obra es que hay que
distinguir entre “ver qué” y “ver cómo”, y afirma que lo que perciben los individuos es “ver
cómo” (psicología de la percepción), no “ver qué”. Percibir es ver algo que está ocurriendo,
ver cómo ocurre; mientras que el “ver qué” o ver los átomos sensoriales no sería una
actividad primaria. En general, este argumento se aplica a percepción, y no sólo a la
observación, es el argumento de la carga teórica de la percepción.

Este es un argumento que tuvo mucha importancia a finales de los años 50, ya que amenazó a
algunos de los presupuestos más importantes de la visión de la ciencia del empirismo lógico.
Por ejemplo, la imagen acumulativa de la ciencia, imagen en la cual las teorías sucesoras
engullen a las anteriores, es decir, la ciencia se construye sobre lo construido y, así, se

2
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

muestra una historia de progreso basado en la acumulación. La imagen acumulativa de la


ciencia depende de ciertos presupuestos, siendo uno de ellos que el suelo sobre el que se
aumenta la edificación sigue siendo el mismo, que las bases no cambian. Por ejemplo,
tenemos dos teorías T1 y T2 que se suceden en el tiempo de forma que T2 explica lo que
explica T1 y algo más, y podemos decir que T2 es una mejora de T1 siempre que T1 ⊂ T2 y
que T2 explique más que T1. Para poder decir esto, hay que decir con respecto a qué, esto es,
hace falta un asidero externo, y esto es el suelo de la experiencia o base observacional. Si la
base observacional T1 es diferente de la de T2, porque los términos observacionales en T1
tienen una carga teórica característica de T1 y porque T2 tiene una carga teórica característica
de T2, entonces se habla de cosas distintas y se crean dificultades graves para la imagen
acumulativa de la ciencia.

Lo que vemos depende de lo que esperamos ver, es decir, de las expectativas en las que son
manejados los términos observacionales, y esto puede hacer que se vean cosas que no
existen. Por ejemplo, el descubrimiento de los rayos-n: estos rayos tuvieron una existencia de
unos años hasta que se descubrió que eran producto de las expectativas teóricas de los físicos
franceses que los estaban investigando, por lo que hubo que buscar a físicos de otro
continente para que probaran que no existían. El problema de los rayos-n era que se movían
en los umbrales de la percepción humana. Otro ejemplo se da en biología con las diferencias
raciales: se consideraba que los negros eran inferiores, y esto es producto de un filtro
cultural. Otro ejemplo es la teoría de la violencia como clave para la evolución humana. De
este modo, podemos decir que no hay un mundo sólido de hechos que no esté filtrado por
nuestras teorías, y esto es lo que expresa el argumento de la carga teórica, lo que tampoco
significa que valga cualquier cosa. Si no hay términos observacionales sin carga teórica, no
hay un asidero externo que sirva para valorar comparativamente dos teorías y, entonces, no
podemos decir de un modo no trivial que una teoría es mejor que otra. Esto es algo que
dificulta la defensa de la carga acumulativa de la ciencia presupuesta por el empirismo.

Una conclusión que podemos derivar de esto es el presupuesto papel causal de la


racionalidad para resolver cuestiones científicas. Se carece del más importante de los
elementos de juicio que se supone considerado en ciencia para valorar los méritos
epistémicos de una teoría, a saber, su valor empírico, es decir, su potencia explicatoria o
predictiva.

En ciencia, ser racional consiste en prestar atención en su justa medida a la evidencia


empírica y, además, respetar las leyes de la lógica. Cuando se comparan dos teorías, el
elemento más importante es saber cuál es el alcance predictivo y su precisión, y todo esto
tiene que ver con la base observacional. Si no tenemos esta base observacional común,
vamos mal. La defensa de esta tesis se asocia con una especie de relativismo o de
contextualismo en tanto que hay que tener en cuenta la diversidad de formas en que la teoría
puede canalizar la experiencia. T. Nicles mantiene que la teoría canaliza la experiencia en el
sentido en que determina lo que pueda medirse como datos, es decir, la propia teoría
determina cuáles son las características relevantes de los objetos. Lo que se defiende aquí es
que hacer ciencia no es tan sencillo como edificar una teoría sobre la base de la observación,
sino que supone establecer una especie de sistema en el que hay un movimiento de la teoría a
la observación y de la observación a la teoría. Esto es lo que defiende el argumento de la
carga teórica de la observación. Incluso a nivel corporal. Somos el resultado de apuestas
teóricas.

Sobre este argumento se suele presentar otro conocido como “argumento de la


inconmensurabilidad”, que también aparece en la obra de Khun. La definición más clásica y

3
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

difundida es la que habla de dos teorías que cubren un mismo dominio de experiencia y son
lógicamente inconexas. Por ejemplo, Feyerabend habla de incomparabilidad afirmando que,
para que esto sea el caso, no deben cumplirse las relaciones conjuntistas de inclusión,
exclusión y solapamiento. Esta definición está cercana al positivismo, aunque sea para ir
contra él, y lo hace en términos positivistas. Khun da una definición que va más allá de la
diferencia lingüística de las teorías y habla de métodos. Hanson utiliza una visión también
más fuerte, no limitándola al contenido proposicional de las teorías, sino incluyendo
percepciones diferentes además de conceptos distintos.

La inconmensurabilidad está haciendo referencia a nuestra incapacidad para comparar teorías


de acuerdo con ciertos criterios epistémicos comunes. Esto es, dadas dos teorías T1 y T2, no
podemos encontrar un criterio que nos permita compararlas y decir que una es
epistémicamente superior a la otra. Para ello, habría que echar mano de la lógica y comparar
los axiomas, o bien encontrar un terreno observacional común que nos permita decir que una
teoría es explicativamente más potente que la otra, lo cual no es posible debido a la carga
teórica de la observación. Esto no quiere decir que las teorías no sean comparables, sino que
hay muchas formas de comparar teorías. Lo que necesitamos es un patrón de comparación: se
puede decir que una teoría es más elegante que la otra, pero la elegancia no nos dice nada
acerca de la potencia o valor epistémico de una teoría. Sin podemos hablar de una
observación libre de toda teoría, no hay ningún lenguaje para describir los hechos que son
independientes de las teorías puestas a prueba y, por tanto, será inviable la valoración
comparativa.

La tesis de la inconmensurabilidad todavía hoy es intensamente discutida, pudiendo


encontrar opiniones a favor y en contra. Si esta tesis fuera cierta, la historia de la ciencias
sería caleidoscópica, no habría continuidad porque no habría un mundo de hechos que
permita comparar las teorías. La inconmensurabilidad se puede entender de dos modos:
Débil: hablaría de diferentes significados para los términos descriptivos de las teorías.
Fuerte: hablaríamos de diferentes visiones del mundo, además de los diferentes significados.
Hay una autora, Mary Hesse, que plantea el problema del siguiente modo: la carga teórica de
la observación puede dar lugar a una inconmensurabilidad débil o fuerte. En el caso débil, el
tipo de compromiso metodológico sería el de un relativismo débil; mientras que en el otro se
trataría de un relativismo fuerte. Para explicar esto, Mary Hesse propone que analicemos dos
teorías del universo; por ejemplo, la de Anaxímenes y la de Aristóteles.

En este caso, el comportamiento de los cuerpos confirma las teorías de ambos, pero son
teorías inconmensurables porque los términos descriptivos son diferentes: el término “caída”
no es el mismo. Mary Hesse se pregunta si se puede diseñar un experimento crucial que nos
permita decidir qué teoría es adecuada: según la interpretación débil, sí, aunque no sería fácil;
pero según la fuerte, no, porque hablan de mundos distintos. Mary Hesse propone un
experimento crucial: supongamos que contratamos a un tipo con una alfombra mágica,
subimos en ella a Anaxímenes y a Aristóteles y los trasladamos a las Antípodas, al otro lado
de la tierra; supongamos que los dos están de acuerdo en que se hallan en las Antípodas
debido a la posición de las estrellas fijas; supongamos que allí cada filósofo deja caer un
cuerpo. Bien, Aristóteles diría que cae, por lo que su teoría es cierta, mientas que
Anaxímenes diría que sube, por lo que su teoría es falsa; esto es, tienen diferente concepción
del movimiento. Por tanto, según Mary Hesse, a pesar de la inconmensurabilidad de las
teorías, hay modo de diseñar experimentos cruciales que nos permitan distinguir
justificadamente entre teorías.

4
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Las condiciones de posibilidad del experimento de Mary Hesse suponen que tiene que haber
puntos en común entre la teoría de Anaxímenes y la de Aristóteles para poder realizar un
experimento crucial que tenga valor en ambos casos. Se está presuponiendo que hay un
conocimiento teórico común que, por ejemplo, nos permite localizar la posición de ambos
según las estrellas fijas. Además, tienen otro punto en común, la experiencia fenomenológica,
pues ambos observan lo mismo, ambos ven cómo el cuerpo se desplaza desde el lugar en que
lo sueltan hacia sus pies, aunque después, en virtud de las distintas visiones del mundo, uno
lo llame caída y otro subida, pero su referente es el mismo. Así que el experimento de Hesse
no se puede utilizar, porque presupone un cierto conocimiento. No obstante, a favor de este
ejemplo podemos decir que muestra que los términos descriptivos, aunque sean los mismos,
con significados diferentes, es posible encontrar criterios epistemológicos para la valoración
comparativa de esas teorías.

La inconmensurabilidad no es sí o no, sino que hay una gradación que depende de la


radicalidad en la diferencia de la nueva teoría con la anterior. Esto lo deja claro Kuhn cuando
dice que ptolemaicos vivían en un mundo diferente al de los copernicanos. La versión fuerte
puede mantenerse cuando el cambio es muy radical, pero hay otros tipos de cambios que no
son tan bruscos y en los que puede haber cierta continuidad. La inconmensurabilidad admite
distintas interpretaciones y es un tema complejo en el que hay debate.

El “argumento de la infradeterminación” supone que, sobre la base de unos datos de


observación, podemos proponer en principio un conjunto abierto de hipótesis que den cuenta
igualmente bien de esos datos; esto es, dado un problema en ciencia, es posible un número
abierto, indeterminado, quizá infinito, de soluciones. El problema del ajuste de curvas es una
variación del problema de la infradeterminación. Hay que tener en cuenta que las teorías
científicas no son infalibles, y se ha demostrado que con el tiempo pueden llegar a ser falsas,
por lo que una ley o una hipótesis no tiene por qué ser definitiva o la única posibilidad.

En todas las ciencias hay controversias y disputas que marcan la vanguardia de lo que es
conocimiento. Por ejemplo, S. Cole distingue entre lo que él llama conocimiento nuclear y
conocimiento de frontera. La imagen que se nos presenta de la ciencia es que es algo exacto
sobre lo que hay consenso, y esto es así en lo que Cole denomina el conocimiento nuclear.
Hay leyes y principios que en su momento fueron disputas, pero que ahora son principios
fuertes de la ciencia a la que pertenecen, son lo que se llaman hechos. Ahora bien, hay más
cosas: hay disputas acerca de la correcta interpretación de unos datos que suelen ser finitos, y
esto último es el conocimiento fronterizo. Por ejemplo, la física que encontramos en los
libros de texto es física ya discutida, la controversia es el núcleo de la actividad científica real
y aparece, entre otros lugares, en las revistas.

Otra forma de presentar el argumento de la infradeterminación (o subdeterminación) es decir


que hay incompatibilidad teórica pese a haber equivalencia empírica. Si tenemos una teoría
T0, puede haber alternativas que cumplan:

Que sean individualmente consistentes y lógicamente incompatibles, es decir, que


no se puedan reducir ni derivar y sean incompatibles.

Esas alternativas teóricas están igualmente confirmadas por la evidencia empírica disponible.
No hay nada en T0 epistemológicamente relevante que determine qué alternativa es más
adecuada desde el punto de vista del éxito pasado de T0.

5
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Hay algo en la segunda condición que vincula este argumento con la carga teórica de la
observación. Aquí se dice que la evidencia empírica debe ser equivalente, y hay que
preguntarse qué evidencia empírica es la adecuada, pues si se tiene en cuenta la evidencia
empírica desde el punto de vista de las teorías alternativas, el argumento de la carga teórica
de la observación podría aplicarse. No sólo el problema de la infradeterminación se presenta
en episodios particulares de la historia de la ciencia, sino que puede aparecer en conjunción
con el argumento de la carga teórica de la observación: cuando los términos descriptivos de
las teorías alternativas no son compatibles, no se habla de lo mismo.

La forma tradicional de entender el conocimiento científico es verlo como la aplicación de un


método, método que tiene dos partes fundamentales: el razonamiento deductivo y la
inferencia inductiva. Si tenemos varias alternativas, ¿qué hacer para elegir una?, pues hay
que elegir una sobre la base de un cuerpo de evidencia finito. Desde la visión tradicional, si
nuestra decisión es racional, se utiliza el razonamiento deductivo o la inferencia inductiva.

Pero puede ser que necesitemos otros elementos de juicio. Si la experiencia no nos basta y
tampoco la lógica, puesto que las teorías no son contradictorias, estamos rebasando el ámbito
de los elementos de juicio de naturaleza epistémica que nos permitirían dar una explicación
racional. La lógica y la experiencia son insuficientes para determinar un curso de acción, por
eso se dice que está infradeterminado. El problema de la infradeterminación es lógico y
epistemológico; en la práctica, los científicos manejan un conjunto finito de evidencia, pero
el problema surge con las teorías. Kuhn dirá que lo que determina un curso de acción u otro
es un factor social, no epistémico. Hay muchos autores que dicen que hay que repensar el
concepto de conducta racional.

En el contexto de crítica al positivismo lógico, el autor más conocido es Kuhn


ensombreciendo la labro de otros autores como puede ser, por ejemplo, Quine, cuya labor se
desarrolla a mediados del s.20. A Quine se debe que la ciencia comience a ser estudiada en
contexto, estudiando los factores externos a la propia comunidad científica.

Quine rechaza la distinción entre verdades analíticas y verdades sintéticas. En su artículo


“Dos dogmas del empirismo”, sin abandonar el empirismo, muestra la oscuridad de la
distinción anterior, cuya raíz se remonta a Kant y su diferenciación entre proposiciones
analíticas y sintéticas. En segundo lugar, Quine se desmarca del dogma verificacionista en su
versión atomista, según el cual las proposiciones particulares y de forma aislada son las que
se confrontan con la experiencia, que se convierte en juez de las mismas.

En su obra “Palabra y objeto” expone su tesis de la indeterminación de la traducción, tesis


que guarda estrecha relación con la tesis de la infradeterminación de la teoría. Aunque Quine
aplica en principio esta tesis a un contexto lingüístico, más tarde la amplía, y su
reconocimiento supuso un duro golpe para la mentalidad racionalista de los empiristas
lógicos. Según la tesis de la infradeterminación de las teorías por la experiencia, para
cualquier teoría o hipótesis propuesta a fin de explicar un determinado fenómeno, es posible
producir un número indefinido de teorías o hipótesis alternativas que sean empíricamente
equivalentes con la primera, pero que, sin embargo, propongan explicaciones incompatibles
del fenómeno en cuestión. Además, virtudes cognitivas tradicionales (a las que los
positivistas lógicos acudían, como la simplicidad, potencial explicativo, capacidad predictiva,
etc) no son suficiente para decir qué hipótesis es adecuada. Ejemplos de la
infradeterminación son los proporcionados por las controversias científicas. Posteriormente
autores como Feyerabend o Kuhn utilizarán con una misma intención la expresión de
inconmensurabilidad en lugar de infradeterminación, aunque la idea sigue siendo la misma.

6
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

El ejemplo favorito de Kuhn lo representaría el encuentro entre un defensor de la mecánica


cuántica (relativista) y uno de la mecánica newtoniana (determinista), pues aún cuando
ambos puedan expresar sus teorías usando las mismas palabras, de ello no se sigue que tales
palabras quieran decir lo mismo. Según Kuhn, el cambio de significado ha sido tan grande
que los conceptos de una teoría no se pueden expresar en la otra, aunque los términos usados
sean los mismos, pues la referencia en uno u otro marco conceptual es diferente.

Esta tesis de la infradeterminación de las teorías, aunque se asocie a Kuhn y Feyerabend, fue
anticipada por Quine a través de la tesis de la indeterminación de la traducción, según la cual
es posible elaborar dos o más manuales de traducción de un mismo lenguaje que sean
incompatibles entre sí y que, sin embargo, cumplan satisfactoriamente las condiciones que
garanticen su eficacia. La conclusión es que no hay una base objetiva para hacer la
traducción de una manera u otra. Esto, dicho en términos científicos, viene a ser lo siguiente:
ante un mismo campo de evidencias, resulta posible elaborar teorías científicas que son
equivalentes con la experiencia pero incompatibles entre sí. Esta tesis es una de las
tendencias fundamentales en la filosofía de la ciencia actual. La idea es mostrar a Quine
como un autor revolucionario y precursor en lo que serán las tendencias fundamentales en la
filosofía de la ciencia posterior y actual.

Tomando como referencias bibliográficas “La relatividad ontológica y otros ensayos” y “Del
estímulo en la ciencia”, en las que se muestra la teoría de la naturalización de la filosofía,
vamos a centrarnos en las reflexiones de Quine sobre la comunidad científica: la crítica al
concepto tradicional de ciencia. La concepción tradicional de la ciencia tiene como objetivo
diferenciar el conocimiento legítimo del que no lo es, y esto lo hace según un criterio de
racionalidad: el principio de verificación, que supone que un enunciado o proposición es
científico si y sólo si puede ser empíricamente verificada, siendo en caso contrario una
pseudo-proposición. Del principio de verificación se deduce que, para los positivistas
lógicos, el único conocimiento legítimo es el fundamentado en la experiencia, y, más
concretamente, admiten dos tipos de proposiciones: las analíticas y las sintéticas.

Las proposiciones analíticas son puramente formales (tautologías y contradicciones), se


pueden verificar en virtud de su forma lógica y no en virtud de la experiencia.
Las proposiciones sintéticas pueden ser atómicas y moleculares. Las atómicas se pueden
verificar experiencialmente comprobando si hay hechos, o no, que le correspondan. Las
moleculares determinan su valor de verdad a partir de los valores de verdad de las
proposiciones constituyentes y la aplicación sobre éstas de las constantes lógicas.

Los empiristas lógicos, aplicando el método de la verificación, distinguen las pseudo-


proposiciones, en tanto que son meras combinaciones de signos o sonidos sin contenido
cognitivo, no se pueden verificar y no pueden ser ni verdaderas ni falsas. Con las pseudo-
proposiciones no se puede aprender porque carecen de contenido cognitivo.

Así, la ecuación lógica + experiencia nos permite distinguir el conocimiento científico del
que no lo es. El conocimiento científico se dividiría en enunciados analíticos (verdaderos por
su forma lógica) y enunciados sintéticos (verdaderos en función de su correspondencia con
los hechos empíricos o experiencia). Esta distinción entre enunciados analíticos y sintéticos
constituye el primero de los dogmas criticado por Quine y, en consecuencia, el objeto de sus
críticas.

7
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Quine es un ejemplo de crítica a la concepción tradicional de la ciencia, es un empirista pero


con matices, pues el suyo pretende ser un empirismo sin dogmas. Mantiene una vinculación
ambivalente porque, al tiempo que hereda y comparte muchas de las tesis del empirismo,
estamos ante el pionero de la crítica interna y la heterodoxia dentro de este movimiento. En
el artículo “Dos dogmas del empirismo”, Quine en ningún momento desarrolla críticas
contundentes y definitivas, sino que su estrategia consiste en mostrar que ninguna de las
propuestas que se han efectuado para justificar esas tesis es aceptable. A partir de aquí, quiere
decir que sus partidarios las creen como un acto de fe, pero no por tener buenas razones para
ello.

La distinción analítico/sintético tiene su antecedente en Hume (relaciones de ideas/cuestiones


de hecho), Leibniz (verdades de razón/verdades de hecho) y Kant (enunciados
analíticos/enunciados sintéticos). Para poder justificar que existe tal distinción entre verdades
analíticas y sintéticas, se requiere por lo menos ofrecer una caracterización precisa entre unas
y otras, y lo que Quine muestra a lo largo de su ensayo es que ninguna de las
caracterizaciones que se ofrecen de esos conceptos es adecuada. Quine ve el problema en la
definición de verdad analítica, en las verdades en virtud de su forma lógica,
independientemente de los hechos.

Quine en ningún momento desarrolla argumentos definitivos, no prueba que no pueda haber
definiciones satisfactorias de verdad analítica, sino que dice que las que hay hasta ahora no
sirven, pues “ofrecen ilusión de que explican, pero no lo hacen porque los términos que
emplean están tan requeridos de explicación como aquello que se intenta explicar”. Autores
que han intentado explicar la noción de analítico han recurrido a términos que también
requieren explicación; por ejemplo, significado, sinonimia, reglas semánticas, necesidad,
mundo posible, etc., son términos que necesitan de tanta explicación o más que aquél que
tratan de explicar. Para Quine, hay que tener en cuenta los factores que determinan la
analiticidad porque de otro modo esta distinción analítico/sintético será un dogma metafísico.
Por tanto, el principio de verificación no tiene unas consecuencias tan obvias como los
positivistas consideraron en su momento.

El segundo de los dogmas sería el del reductivismo: todos los enunciados con sentido son, en
último término, reductibles a la experiencia; esto es, todos los enunciados se refieren a la
experiencia sensible o, cuando menos, son reductibles a términos que se refieren a la
experiencia. Lo que es dogmático no es el verificacionismo, sino que esto es la afirmación de
que todo enunciado con sentido es reductible a la experiencia.

Quine estaría de acuerdo con esto, pero lo que no acepta es el reductivismo, es decir, la
afirmación de que todos los enunciados de forma aislada se llevan al tribunal de la
experiencia. Frente a este reductivismo, Quine adopta otra forma de reductivismo, aunque de
carácter holista: el holismo de Quine. Según la teoría verificacionista, todo enunciado aislado
posee un ámbito de experiencias que lo confirman o lo invalidan. Quine estaría de acuerdo
con esto, pero con un matiz: no acepta esta visión molecular del verificacionismo y apuesta
por una versión holista. Su opinión es que los enunciados no se someten al tribunal de la
experiencia individualmente, sino de forma corporativa. Frente al verificacionismo molecular
de los positivistas, tenemos el verificacionismo holista de Quine, el cual cree que son los
conjuntos de hipótesis, no las hipótesis aisladas, lo que contrastamos empíricamente. El
holismo sostiene que los objetos de contrastación empírica no son las hipótesis teóricas
aisladas, sino amplios cuerpos de teoría. Lo que Quine está haciendo es poner en duda uno de
los pilares del positivismo lógico, el conocimiento inductivo.

8
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

De acuerdo con el problema de la inducción (Hume), ningún número finito de enunciados


singulares puede justificar un enunciado universal de forma concluyente. Las leyes
científicas (enunciados universales que afirman algo acerca de todo objeto en todo tiempo y
lugar) tienen universos abiertos de aplicación. Después del problema de la inducción, se
había llegado a la conclusión de que el conocimiento científico parece estar obligado a
resignarse con la mera confianza razonable y el acuerdo intersubjetivo, es decir, todos
confiamos en que la naturaleza sigua comportándose como hasta ahora, pero no tenemos
garantías para afirmar de forma justificada que esto es así.

Versiones holistas contemporáneas que recogen esta cuestión de Hume han insistido en este
hecho destacado por Hume: un número finito de observaciones no puede servir de base
suficiente para probar una hipótesis general. La dificultad señalada por la tradición holista
radica en que las hipótesis no se llevan aisladamente al tribunal de la experiencia, sino en
relación con una regla. Esto es, un conjunto de hipótesis entre las que se encontrarían las
hipótesis auxiliares, los aparatos de medida, etc. El primer autor que habla del holismo es
Duhem, físico francés a partir del cual desarrolla Quine la tesis del holismo, la cual pretende
hacer frente a las dificultades que surgen a partir del problema de la inducción. Esto se
conoce como la tesis de Duhem-Quine: no es una hipótesis la que se lleva al tribunal de la
experiencia, sino un conjunto de hipótesis.

Según esta tesis, la conclusión o predicción no se deriva de forma aislada de P, sino de P en


conjunción con un conjunto de hipótesis: P∧ r ∧ s ∧ t ... Por tanto, para que la conjunción sea
verdadera, todos los términos de la conjunción deben serlo, y basta con la falsedad de una de
las hipótesis para que el resultado sea desfavorable. De este modo, la conclusión de Quine es
que no podemos aspirar a tener garantías concluyentes con respecto a la verdad o falsedad de
una hipótesis ante el tribunal de la experiencia. En este punto, retomando la idea de Hume,
Quine se constituye como uno de los principales críticos a la visión de la ciencia de los
positivistas lógicos afirmando que no se puede someter a verificación hipótesis aisladas, sino
grupos de hipótesis, a las que hay que añadir el funcionamiento de los propios aparatos de
medida.

El holismo fue formulado inicialmente por Duhem, aunque Quine añade ciertas
peculiaridades, de las cuales la más importante es la que hace referencia a las posibilidades
de revisión de las teorías. Lo normal es que se comience por las hipótesis menos importantes.
Para Duhem, en caso de que la revisión sea necesaria, debe comenzarse por hipótesis de
economía, psicología, historia, etc., y dejar intactas las hipótesis nucleares (matemáticas,
física, etc.). Por tanto, Duhem considera que las teorías tienen un carácter monista aunque
con matices, y en caso de revisión iríamos a las hipótesis menos importantes. Pero Quine no
estaría de acuerdo con esto, sino que revisaría todas las hipótesis sin hacer distinción.

Además, Quine no distingue entre contexto de descubrimiento y contexto de justificación,


mientras que Duhem sí lo hace. El holismo de Quine es de las pocas cosas que rectificó
acercándose, con el paso de los años, a la posición de Duhem. Con el tiempo, apela a la
máxima de la mutilación mínima: vayamos primero a las hipótesis de la historia, economía,
etc., y, si algo va mal, es cuando podemos utilizar el núcleo teórico.

La posición de Quine es vista por muchos autores como el inicio del giro naturalista. En el
tratamiento de los dogmas se ve su carácter revolucionario, y en el naturalismo se aprecia su
carácter anticipador. El naturalismo supone que todo lo que existe y sucede en el mundo es
susceptible de ser explicado por la ciencia, por los conocimientos de que disponemos aquí y
ahora sin necesidad de métodos trascendentales o a priori. La naturalización de la

9
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

epistemología propuesta por Quine es la consecuencia más importante de sus tesis, es el


punto en el que convergen sus principales líneas argumentativas. Se trata de reconocer que la
fórmula lógica+experiencia es insuficiente para responder a la pregunta por la naturaleza de
la ciencia.

El argumento de la indeterminación (infradeterminación de la traducción), la imposibilidad


de distinguir entre enunciados analíticos y sintéticos, y la afirmación de la necesidad de
comprobar de forma aislada la verdad o falsedad de las hipótesis, prepara el terreno para lo
que será la idea básica de la epistemología naturalizada de Quine: el reconocimiento de que
no existe una filosofía primera, unos principios absolutos e inmutables verdaderos en todo
tiempo y lugar o, lo que es lo mismo, que no existe un marco de referencia absoluto desde el
cual juzgar nuestro conocimiento de las cosas. Por naturalización de los estudiosos de la
ciencia se entiende el estudio empírico del conocimiento humano y sus productos, esto es, la
cientifización del estudio de la ciencia. Ronald Gilre es uno de los máximos representantes
actuales del giro naturalista. La filosofía naturalizada se opone a la epistemología tradicional
que solía defender la existencia de métodos lógicos científicos universales cuya utilización y
aplicación rigurosa permitía discernir la ciencia genuina de otras actividades humanas; sin
embargo, desde los presupuestos del naturalismo, no se ve necesario apelar a un método
trascendental y a priori, sino que se trata de asumir el carácter evolutivo del conocimiento
científico incluyendo sus métodos y sus principios epistemológicos.

La propuesta de Quine a favor de este naturalismo surge cuando la concepción heredada de la


ciencia, caracterizada por su carácter fundamentalista, entra en crisis. Se trataba de hallar un
fundamento seguro para las teorías científicas y, de esa manera, diferenciarlas de aquellas
que no lo eran. La filosofía naturalizada de Quine surge por oposición directa a este tipo de
planteamientos, en tanto que niega que haya criterios absolutos, inteporales, ahistóricos y
omniaplicables de cientificidad. Problemas como los detectados por Quine y otros autores,
como pueden ser el de la infradeterminación y el de la carga teórica de la observación, entre
otros, constituyen una prueba contundente y definitiva respecto a la necesidad de contar con
otros factores de tipo social, pragmático cultural, histórico, valorativo, etc., a la hora de
describir y estudiar la naturaleza de la ciencia, y si algo tiene este tipo de factores es su
carácter evolutivo y cambiante. A partir de este momento, es como si se iniciase un estudio
de la ciencia en contexto.

El giro naturalista es una de las corrientes fundamentales en la ciencia actual, aunque recibe
críticas como afirmar que el naturalismo llevado al extremo nos lleva al relativismo.
Relativista se consideraba a Feyerabend porque reconoce que la única verdad que se puede
admitir en ciencia es que todo vale, y no tenemos por qué esperar que la ciencia haya de
actuar con reglas fijas y generales. Ante esta acusación de relativismo, los naturalistas dirían
que ellos están en contra de criterios objetivos intemporales, es decir, que los criterios
normativos estarían sujetos a cambio y evolución.

En Quine hay un tema recurrente: cómo conocemos. La epistemología naturalizada es, en su


opinión, el modo como conocemos la realidad que nos rodea. Por tanto, el suyo es un intento
por responder al problema del conocimiento dentro de los márgenes de la propia ciencia
haciendo uso de los conocimientos que ya tenemos. Quine admite la primacía de los
problemas epistemológicos y, para él, la primera labor del epistemólogo es arbitrar criterios
de certeza o justificación. Ahora bien, estos criterios de certeza o justificación no pueden
dictarse desde fuera y al margen de nuestro conocimiento, y esto es así porque no existe un
conocimiento a priori, una filosofía primera o un marco de referencia firme y absoluto. En
consonancia con esto, Quine utiliza una metáfora: filósofos y científicos son navegantes del

10
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

mismo mar al que no pueden convertir en tierra firme y deben estudiar sobre la marcha. Al
decir esto, entre otras cosas, apuesta por una interdisciplinariedad del conocimiento. Así, se
deja de soñar con una filosofía primera más firme que la propia ciencia y en la cual la ciencia
pudiera basarse. La idea es defender la ciencia desde dentro, además de los frutos que el
conocimiento científico nos ha dado hasta el momento. Desde el año 1968, Quine usa de
forma recurrente el eslogan de que no hay lugar para una filosofía primera. Este rechazo de
Quine va asociado a su defensa de una filosofía naturalizada y a la idea de que la ciencia es
continua con la filosofía natural.

Esta continuidad entre filosofía y ciencia es opuesta a la apreciación de los positivistas


lógicos, los cuales establecen una distinción tajante entre ciencia y filosofía. Para los
positivistas, la filosofía es una actividad para reflexionar sobre la ciencia, pero en ningún
caso está a la par de la ciencia, sino que su tarea es aclarar las proposiciones que se utilizan
en ciencia. Por el contrario, para la perspectiva continuista expresada por Quine, entre ciencia
y filosofía puede haber una diferencia de grado, pero no de género. En esta apuesta por la
continuidad, en esta concepción global del conocimiento, con la ruptura de barreras entre
conocimientos, pueden verse reflejadas las tesis de Quine que hemos considerado. Esto abre
el camino a una visión contextualizada e interdisciplinar de la ciencia.
El naturalismo de Quine y su holismo contribuyen a minar la fuerza de las características
tradicionalmente aplicadas a la ciencia arrojando dudas sobre la posibilidad de explicar
lógica o racionalmente el contenido de la ciencia sobre la base única de la evidencia
empírica. De este modo, se abre la puerta a tendencias habituales, como el relativismo,
pragmatismo, etc.

Las tesis de Quine marcan un punto de inflexión respecto a la concepción racionalista


anterior: el abandono de los puntos de referencia absolutos, de filosofías primeras, de
métodos a priori, etc., para responder a la pregunta sobre qué es la ciencia o qué es lo
característico de la racionalidad científica; el mantenerse dentro de los márgenes de la propia
ciencia para tratar de resolver los problemas que se plantean y el recurso a orientaciones
pragmatistas que ven la base de la ciencia en su capacidad para resolver problemas,
constituye los pilares del panorama actual de filosofía de la ciencia, los cuales tienen en
Quine un punto de referencia central.

11
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Tema 2: Dinámica de la Ciencia


Una de las cosas que se han dicho de Kuhn es que era un relativista, ante lo cual él mismo
reacciona con mucho vigor. El lugar clásico para introducir el tema del relativismo es en el
“Protágoras” de Platón, cuando afirma que “el hombre es la medida de todas las cosas”, y
añade en el “Teeteto” “porque para mí la verdad es tal como la escribo: cada uno de nosotros
es medida tanto de lo que es como de lo que no es...”. Aquí se hace referencia al relativismo
epistémico.

Si disponemos de un método que regula el aparato cognitivo de los científicos y un método


que establezca normas que regulen la forma de actuar de los científicos, podríamos saber el
porqué de muchas cosas; es decir, cuando se decide tomar una hipótesis, y no otra, es
importante el método y las normas. Para poder llegar a una conclusión, el científico utiliza
determinadas utilidades epistémicas, que son los elementos de juicio que el científico acoge
al tener que elegir entre hipótesis. Estas utilidades científicas son:

razonamiento deductivo
inferencia inductiva
simplicidad
poder predictivo.

Ante la pregunta por el consenso, el método es el que explica los consensos que se establecen
en ciencia, y esto se da porque se dice que la naturaleza es de una determinada forma, que es
así. Este no es el sentido relativista, no tiene cabida. Pero, ¿en qué medida abre Kuhn el
relativismo? Kuhn dice que hay distintas formas de desarrollo temporal de la ciencia:
Acumulativo: a través de pequeños pasos de aumento del conocimiento.

Por revolución: el conocimiento avanza de forma abrupta.

Debemos tener en cuenta que Kuhn tiene en cuenta determinados factores psico-sociales
como son el factor político, económico, etc., que tienen una eficacia increíble a la hora de
elegir hipótesis por parte del científico. Afirma que no hay un conjunto de valores
compartidos que puedan tener los científicos, y esto puede llevar a un relativismo. Ahora
bien, hay distintos tipos de relativismo:

Relativismo débil: afirma el carácter convencional de los valores epistémicos (verdadero-


falso, correcto-incorrecto, etc.) para teorías dadas con respecto a contextos culturales
determinados.

Relativismo fuerte: añade que tales juicios convencionales son arbitrarios con respecto a
cualesquiera utilidades epistémicas o virtudes cognitivas.

En el relativismo débil podemos decir que la conducta del científico en determinado contexto
cultural propio de una tradición de investigación es racional, y se llama así porque se pone en
un contexto cultural particular en el cual se comparten unos criterios epistémicos. Pero en el
relativismo fuerte esto no se da, pues negaría incluso la posibilidad de justificación local.
Mientras que el relativismo débil afirma la necesidad de contextualizar los modelos de
justificación (disciplina histórica y/o social), el relativismo fuerte niega siquiera la
posibilidad de justificación local. El contexto cultural puede tener muchos formatos:
laboratorio, línea de investigación, conjunto de disciplinas, cultura occidental, etc., es un

12
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

concepto difuso y es necesariamente así porque, dependiendo de un autor, podemos hablar de


un contexto y no otro.
El relativismo débil es el que cubre la mayor parte del espectro de los autores
contemporáneos, como son W. Newton-Smith, Helen Longino e Ian Halkins. Los relativistas
débiles niegan ser relativistas, mientras que los relativistas fuertes no sólo lo niegan, sino que
niegan el propio relativismo. La mayoría de los autores que vamos a ver en filosofía de la
ciencia son relativistas débiles, y sólo hay unos pocos que puedan ser considerados
relativistas fuertes, como podría ser el caso de Feyerabend, aunque se trata de un caso un
poco dudoso. Otros autores que sí parecen encajar en un relativismo fuerte son, por ejemplo,
los antropólogos Bruno, Latour, Michel Collan y Karin Knorr-Cetina. Dentro del relativismo
fuerte encontramos al empirismo lógico y los enfoques semánticos.

Hechos y valores en Ciencia


Al tratar de la concepción heredada de la ciencia o positivismo lógico hay que explicar
diferentes cuestiones:

contexto de descubrimiento/justificación
método científico
el progreso acumulativo de la ciencia
valores y ciencia en la concepción heredada
ciencia y política pública

El contexto de descubrimiento cubre el proceso que lleva hasta un descubrimiento, mientras


que el contexto de justificación encubre el proceso de estudio de hipótesis y cómo éstas, una
vez comprobadas, se incorporan a la ciencia.

Otro aspecto fundamental del positivismo lógico es el método científico. La ciencia se


reducía a un proceso en el que los aspectos políticos, sociales, etc., son rechazados, y los
positivistas lógicos negarán que estén influidos por valores: la ciencia es una empresa
objetiva, y los únicos valores que admiten son la simplicidad, el poder predictivo, el poder
explicativo y la fertilidad teórica. Vannevar Bush, en un informe de 1945, considera que la
ciencia es una empresa de acercamiento progresivo a la verdad; y, cuando la ciencia pura se
lleva a cabo de forma autónoma, trae consigo las técnicas. Este modelo es conocido como
“modelo lineal de innovación”, según el cual de la investigación básica se deriva la
investigación aplicada, y de aquí se obtiene un desarrollo tecnológico del que se deriva una
tecnología aplicada, al tiempo que de la tecnología aplicada se deriva un progreso social. La
ciencia no debe ser presionada desde fuera. Sarewitz, en “Frontiers of illusion”, estudia todos
los mitos de Bush y lo denomina el mito de la investigación sin trabas. Las instituciones
públicas deben subvencionar el gasto, puesto que supondrá un progreso social: cuanto mayor
sea el gasto, mayor será el progreso social, algo que es llamado mito del beneficio infinito.
Lo único que se le puede exigir al científico es que siga el método científico.

La obra de Khun supuso un revulsivo para este modelo. Kuhn no era filósofo de formación,
sino un químico que se dedicó a la historia de la ciencia rechazando su imagen idealizada en
busca de una ciencia real. La historia científica no se ha realizado mediante un proceso
acumulativo de la ciencia, sino mediante cambios bruscos. De este modo, la historia de la
ciencia tendría el siguiente esquema:

Ciencia normal→ revolución científica→ ciencia normal

13
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

La ciencia normal debe buscar la estabilidad, y la comunidad científica admite los


paradigmas o modelos de investigación:

predicciones
aplicaciones
extensión de aplicaciones

Se desafía el paradigma dominante en la primera etapa de ciencia normal y se adopta otro,


con lo que, al final, se acaba alcanzando el nuevo paradigma. Por ejemplo, la revolución
copernicana supone el paso del paradigma geocéntrico al paradigma heliocéntrico de
Copérnico. Un cambio de paradigma no es sólo un cambio del método científico, sino
también un cambio de visión del mundo. El proceso social será fruto de una serie de factores
como la persuasión, valores que defienda cada uno, etc. Kuhn llega a afirmar que un cambio
de paradigma es un proceso de conversión, y en un artículo de 1972 se ve obligado a
establecer cinco criterios que establecen el cambio de paradigma:

precisión
coherencia
amplitud
simplicidad
fertilidad

El artículo de Ayer titulado “¿Qué es una ley de la naturaleza?” se divide en dos partes. En la
primera parte habla de lo que no es una ley de la naturaleza, y pone varios ejemplos de lo que
se consideran leyes de la naturaleza, como por ejemplo que la órbita de un planeta alrededor
del Sol es una elipse. Las leyes de la naturaleza no son:

preceptos imperativos, esto es, no pueden ser desobedecidos.


leyes lógicas: hace dos críticas, trivial y Hume.

Hume expone que no podemos conocer lo que hay entre dos elementos si no conocemos
antes estos objetos. Lo que ocurre con las leyes de la naturaleza es que no vinculan dos
objetos independientes; por ejemplo, “la magnetita (elemento) atrae al hierro y al acero”,
donde hierro y acero son propiedades a=a. Otro ejemplo es “la aceleración de un cuerpo es
igual a la fuerza que actúa sobre él por su masa”, donde si sustituimos fuerza por su
definición estaríamos ante una tautología.

Las leyes científicas se caracterizan por:

Deben tener contenido empírico.


Son generalizaciones universales, es decir, son enunciados que declaran la existencia
de constantes en la naturaleza.

∀x (Px → Qx) “Todos los planetas tienen órbitas elípticas”. Pero tendríamos que aceptar por
verdaderas oraciones del tipo “Todos los caballos alados son mansos”.

Tienen que tener esta estructura: ∀x (Px → Qx) ∧ ∃x Px. Pero Ayer afirma que debemos
tener leyes sobre cosas que no existen, por lo que no podemos aceptar esta estructura.
Toda ley científica tiene que aceptar casos posibles, generalización de hecho: “Todos los
presidentes de la tercera República francesa son varones” ∀x (Px →Vx).

14
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Hay que distinguir las generalizaciones de hecho de las generalizaciones de la ley. Ante esto,
Ayer afirma que el radio de acción de las leyes científicas es infinito, y decir esto implica los
subjuntivos condicionales, por ejemplo, en “todos los planetas tienen órbitas elípticas”, lo
que implica decir que cualquier cosa que sea un planeta tendría órbitas elípticas. Hasta aquí
llegan todas las explicaciones positivistas clásicas, pero Ayer va más allá afirmando que lo
que diferencia las generalizaciones de ley de las de hecho es la actitud de la persona que las
enuncia. Por ejemplo, “todos los planetas tienen nombres latinos”, si esto es verdadero, no
estamos dispuestos a admitir que cualquier ejemplar que x=a y Pa tuviera una propiedad.
Si admitimos que tiene una proposición característica R (x =a = Marte; Pa = ser un planeta; R
= tener un nombre que aparece en un escrito del s.7 a. de n.e. Si admitimos lo que hay entre
(), no podemos admitir la propiedad L (ser latino), con lo que sería falso. Así, el poder tener
R es lo que diferencia a las generalizaciones de hecho de las generalizaciones de ley. Por
ejemplo, una generalización de ley sería “el agua hierve a 100ºC” o ∀x (Ax → Hx).

Ayer, al final hace una conclusión muy complicada:

Para que alguien tome una proposición de la forma “si algún objeto es P también es Q” como
una ley natural es suficiente:

que, suponiéndole dispuesto a explicar satisfactoriamente las posibles excepciones, crea que,
en sentido no trivial, todo aquello que de hecho posee P posee también Q.

que su convicción de que el objeto que posea P también posee Q no esté dispuesta a ser
debilitada por el descubrimiento de que aquél posee igualmente alguna otra propiedad R, con
tal de que:

R no implique lógicamente la existencia de Q


R no sea una manifestación de “no-Q”
el descubrimiento de la presencia de R en sí misma no debilite seriamente su fe en la
presencia de Q
no considere la afirmación “ si un objeto posee P y no-R, posee Q” como una
formulación más exacta de la generalización que se proponía expresar.

Hempel viene a decir más o menos lo que Ayer, pero la definición es más clara. Para Hempel,
las leyes científicas son enunciados de forma universal ∀x (Px → Qx) que afirman la
existencia de una conexión uniforme entre hechos empíricos, y afirma que hay razones para
pensar que es verdadero. Hempel llama a las generalizaciones de hecho generalizaciones
accidentales, y una de las características que las separan de las leyes científicas es que sirven
para justificar condiciones catastróficas. Por ejemplo, “si hubiéramos puesto una vela, se
habría fundido”. Podemos también justificar condicionales subjuntivos: dejamos en supuesto
si un hecho se ha dado o no. En contrafácticos nos encontramos con hechos que no han
ocurrido.

Otra característica más de las leyes universales es que se refieren a un conjunto


potencialmente infinito de casos. Además, se pueden considerar como ley incluso si es una
expresión de hechos que no se cumplen. Por último, la característica principal de las leyes
universales es que pueden servir de base para explicaciones científicas, y aquí encontramos el
modelo nomológico-deductivo. El modelo nomológico-deductivo se explica mediante su
constitución: el explanans aúna leyes científicas y condicionales antecedentes, mientras que
el explanandum es la conclusión:

15
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

hecho que ha tenido lugar: explicación científica


hecho que no ha ocurrido aún: predicción.
El tema de la naturaleza de las leyes científicas es fundamental en el positivismo.

Presupuestos principales de la visión clásica de la ciencia del empirismo lógico


La visión clásica de la ciencia del empirismo lógico trataba de comprender la naturaleza de la
ciencia entendida como saber metódico. Es importante saber por qué entendía la ciencia de
un modo intelectualista, como una forma específica de conocimiento que tenía una cierta
estructura y un cierto patrón de relaciones con el mundo externo. A su vez, era un
conocimiento porque era resultado de un método. Lo concerniente a la estructura del método
del que resulta el conocimiento específico es lo que ya se ha visto en metodología de la
ciencia.

Un lugar común de la reflexión clásica sobre la ciencia era el método H-D para el desarrollo
del conocimiento: comprobación de hipótesis y derivación de hipótesis contrastadoras.

Nos vamos a centrar en la parte de la naturaleza de la ciencia, de acuerdo con el empirismo


lógico. Ante la pregunta por la racionalidad de la ciencia, los empiristas lógicos como
Carnap, Hahn, Neurath, Hempel, Reichenbach, etc., entendían que una respuesta a esta
pregunta debía contener información no sólo sobre el método, sino sobre la estructura o
característica específica del saber científico. Los empiristas lógicos tomaron como
instrumento la lógica simbólica, como modelo la física matemática, y como marco filosófico
el empirismo de Hume así como el “Tractatus” de Wittgenstein”.

Respecto a su visión de la estructura específica de la ciencia, entendían la ciencia como un


campo de conocimiento que tenía una particular relación con la realidad o el mundo
geométrico; para ellos, la ciencia ideal es la física matemática. Estas disciplinas, la física
matemática, la química, etc., están constituidas por teorías: la teoría newtoniana, la teoría
mecánica, la teoría de caída de los cuerpos de Galileo, la teoría de Kepler, la teoría cuántica,
etc., y cada una de estas teorías está constituida por conjuntos de enunciados: las leyes del
movimiento, la ley universal de gravitación, etc., y otras leyes derivadas de éstas.

Los enunciados poseían unas ciertas características formales: contenían constantes y términos
descriptivos. La interpretación empírica de los términos descriptivos es desempeñada por lo
que ellos llaman principios-puente o reglas de correspondencia, las cuales conectan los dos
vocabularios, el teórico y el observacional (Vo y Vt). De este modo, los enunciados
característicos de las teorías científicas podían pertenecer, en virtud de sus componentes, a
uno de estos dos niveles lingüísticos (Vo y Vt). La conexión está en los principios puente o
reglas de correspondencia.

En el empirismo lógico se da una definición de los términos teóricos, en tanto aquellos no


observacionales. Además, las teorías científicas tenían también una cierta estructura general,
la de un sistema axiomático, en el que existe una conexión deductiva desde los enunciados o
leyes más generales a los más específicos. También tenían una visión axiomática, ordenada y
jerárquica del edificio de la ciencia: el conocimiento de las disciplinas científicas podía ser
visto como un gran sistema axiomático en el que a partir de la física matemática se podría
derivar el resto. El punto de apoyo de la matemática sería la lógica simbólica.

Esta es una visión ideal. Los empiristas lógicos se dan cuenta de que es imposible derivar los
enunciados generales de la biología a partir de los de la física matemática, pero entendían que
esto se debía a limitaciones del conocimiento humano, y que con el desarrollo de las ciencias

16
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

se van acercando cada vez más a este ideal. Esta tendencia aún existe hoy día. Para los
empiristas lógicos, la matemática y las pruebas concluyentes de la matemática son el
paradigma del conocimiento. De este modo, uno de los presupuestos del empirismo lógico es
el carácter ideal de la física matemática como modelo de la ciencia madura. Hay muchos
comentarios críticos que se pueden hacer al respecto: primeramente, esto puede ser
denominado reduccionismo fisicalista, aunque para ellos supondría un logro, un paso
adelante; además, la matemática no es el instrumento base a partir del cual se desarrolla el
conocimiento físico, sino que hay una relación bidireccional, es decir, no hay una matemática
ya dada que se complementa con la física, sino que se complementan una a la otra.

Para dar una versión madura del empirismo lógico, vamos a acudir a F. Suppe, a R.
Brainthwaite y, por supuesto, a Carnap.

Suppe es uno de esos autores que han intentado establecer un carácter semántico para la
estructura de la ciencia. De acuerdo con él, lo que podemos llamar la versión inicial de la
doctrina del empirismo lógico es como sigue: las teorías científicas son entendidas como
teorías axiomáticas fundamentalmente en una lógica L que cumple las siguientes
condiciones:

La teoría se formula en una lógica de primer orden con identidad.


Los términos constantes de L se dividen en tres clases disjuntas llamadas
vocabularios, que son como siguen:

b1: vocabulario lógico que contiene constantes lógicas, incluidos términos


matemáticos.
b2: vocabulario observacional Vo que contiene términos observacionales.
b3: vocabulario teórico Vt que contiene términos teóricos.

Los términos de Vo se interpretan como referidos a objetos físicos directamente


observacionales.

Hay un conjunto de postulados teóricos T cuyos únicos términos no lógicos pertenecen al


vocabulario teórico Vt.

Se da una definición explícita de los términos de Vt en función de términos de Vo mediante


reglas de correspondencia C. Esto es, para cada término F de Vt, deberá darse la definición
de la fórmula Λx (Fx ≡ Ox)  función lógica, donde O es una expresión de L que contiene
símbolos de Vo y posiblemente de vocabulario lógico.

Esta distinción de Suppe no tiene ningún misterio, es sencilla: lo que hace es marcar el
lenguaje, cuál va a ser el lenguaje de la reconstrucción. Aquí, distingue los recursos con los
que va a trabajar este lenguaje, lo que se especifica en (c). Es importante contrastar cómo se
define Vt como algo negativo, como lo no observable. En (d) se habla de postulados que
están relacionados, además, con fenómenos observables, como se ve en (e).

Esta es la versión inicial del empirismo lógico, que está realizando la versión verificacionista
del significado. Estas reglas realizan un enlace con el mundo observacional y el de la
experiencia. Su consecuencia es que todos los términos teóricos son cognitivamente
significativos en la medida en que satisfagan el criterio verificacionista. El conjunto de
postulados teóricos, un subconjunto impropio que podría coincidir con todos los postulados
teóricos, serán los de la teoría. Las reglas de correspondencia estipulan el rango de aplicación

17
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

de la teoría, como también estipulan el significado, de modo que, a través de definiciones


explícitas, establecen condiciones necesarias y suficientes para la aplicabilidad de los
términos teóricos. Por ejemplo, una versión especial de este requisito es la versión de
Bridgman del operacionismo: conceptos son sinónimos de sus medidas correspondientes, y lo
que hade es introducir una versión particular de definición. La teoría se identifica con la
conjunción de T y C, y se expresa TC.

Dilema del teórico

Este dilema es popularizado en filosofía de la ciencia por Hempel en “La explicación


científica”, obra que recoge el dilema del teórico basándose en Skinner.
El dilema del teórico plantea lo siguiente: si tomamos en serio el requisito anterior, para qué
queremos términos teóricos. Podemos eliminar los términos teóricos. Skinner dice que, a
menos que haya un punto débil en nuestra cadena causal (E→O→R: conecta estímulos,
estados internos del organismo y respuesta, que es algo observable; es decir, quiere conectar
lo observable con lo observable prescindiendo de factores internos), de forma que el segundo
eslabón no esté nomológicamente determinado por el primero (derivado deductivamente), o
el tercero por el segundo; entonces, el primer y el tercer eslabón deben estar
nomológicamente relacionados. Skinner afirma que nos hallamos frente a un dilema, el
dilema del teórico, que está en dos alternativas:

o bien hay enlace nomológico a través de O entre eventos ambientales y conducta


observable (E y R), en cuyo caso no hay necesidad de hablar de O.
o bien no hay enlace nomológico a través de O entre E y R, en cuyo caso no
deberíamos hablar de ellos porque no añaden nada, y lo que hay que buscar son
enlaces nomológicos entre E y R (él dice que elaboremos leyes sobre cosas que sólo
podemos observar).

Esto se puede aplicar a cualquier uso de términos teóricos.

Se critica el dilema del teórico en tanto que la visión de Skinner supone una postura del
empirismo radical, hay que darse cuenta. Se critica, por ejemplo, el por qué debe darse una
relación transitiva; o por qué la relación debe darse entre E y R, y no entre E y O, etc. Esto es
porque hay presupuestos psicologistas detrás de todo ello. El dilema del teórico es
convincente sólo si mantenemos una actitud empírica muy puritana, entendiendo lo
observacional como algo ................... Si esto es así, es convincente, pero nunca concluyente.
Este dilema pone en entredicho la visión naturalista del conocimiento humano.

Una dificultad que tuvo que afrontar el empirismo lógico, señalada por Carnap en un artículo
de año 36 planteando el problema para este requisito en términos disposicionales (frágil,
soluble e inteligente son términos teóricos porque la fragilidad no se ve, sólo sus
consecuencias) es el siguiente: para definir un término como frágil debemos proceder de
forma que, por ejemplo, consideremos Fx, donde x es frágil, y consideremos también que
definimos la fragilidad Rx donde x se rompe fácilmente. Así, Λx (Fx ≡ Rx). Esta definición
explícita plantea el problema de que nunca podremos decir que algo es frágil si no se ha roto,
porque estos términos acuden a disposiciones.

Para afrontar el problema, podemos establecer una reconstrucción:


Λx Fx ≡ Λx Λt (Sxt→ Rx)

18
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Esto es, algo es frágil si y sólo si algo que recibe un golpe seco se rompe. De este modo,
parece que hemos resuelto el problema, que es que cualquier objeto que nunca haya sido
golpeado sea considerado frágil. Pero así tampoco sirve. El problema es grave porque
depende del lenguaje utilizado, que es el lenguaje de la lógica, y es un problema que afecta a
muchísimos términos utilizados en física, ciencias naturales y, sobre todo, cuando nos
referimos a términos acabados en –ble, -idad, -ente, pues la mayor parte de ellos son términos
disposicionales.

La solución que proponen los empiristas lógicos viene dada por los enunciados de reducción:
Λx Λt [Sxt → (Fx ≡ Rxt)]

Pero aparecen nuevos problemas: que el definiendum forma parte del definiens; y que ya no
definen lo que es ser frágil para un objeto, sino que lo que hacen es estipular una condición
de verificación aplicable en determinadas circunstancias.

Λx Λt [Sxt → (Fxt ≡ Rxt)] ∨ Λx Λt → (Fxt ≡ Rxt) ∨....

Si los enunciados de reducción son el instrumento que utilizamos para dar cuenta del
significado de los conceptos teóricos, entonces sólo podemos aspirar a una definición parcial
de los mismos; es decir, hay una parte del concepto “frágil” que queda sin explicar.

Este problema produjo la evolución dentro del empirismo lógico hacia lo que F. Suppe llama
la versión final de la doctrina del empirismo lógico sobre la estructura de las teorías. El
postulado (e) diría que las reglas de correspondencia C constituyen un sistema interpretativo
que satisface las siguientes condiciones:

El conjunto de reglas C debe ser finito: C< Xo.


El conjunto de reglas C debe ser lógicamente compatible con los postulados teóricos,
es decir, con los axiomas de la teoría.
C no contiene términos lógicos que no pertenezcan al vocabulario observacional o al
vocabulario teórico.

Cada regla de C debe contener esencial o no vacuamente al menos un término del


vocabulario observacional y otro término del vocabulario teórico.

Las reglas de C deben ser tales que TC (combinación de postulados y reglas de


correspondencia) sea cognitivamente significativa.

Así, (e) sí nos obliga al uso de enunciados de reducción. Las reglas C, conjuntamente con los
postulados teóricos, interpretaban las reglas del vocabulario teórico Vt especificando su
contenido observacional. Hemos de renunciar a las definiciones explícitas.

La postura de H. Feigl aporta una visión que explica la del empirismo lógico ante la pregunta
por la ciencia, lo explica por reglas de correspondencia:

T → leyes teóricas (explican el por qué)



C

O → leyes empíricas (explican el cómo)

19
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Por ejemplo, la masa molecular (T) puesta en relación o en red con otros conceptos, de modo
que estos últimos conceptos pueden estar relacionados con leyes empíricas que, a su vez,
poseen el suelo de la experiencia para establecer si se dan o no. Otro ejemplo lo pone Carnap:
si se da una oscilación electromagnética, se dará un color verdoso de un determinado matiz
(aquí se vincula observables a procesos inobservables). Otro ejemplo más: la Tº de un gas es
proporcional a la Ec media de sus moléculas (dentro de los conceptos teóricos estaría el
concepto “molecular”, “velocidad molecular”, etc., que no se pueden observar).

Una característica de estas teorías es que nos permiten justificar la derivación de leyes o
regularidades observables a través de la descripción de microprocesos inobservables. Así, por
ejemplo, al hablar de la presión y la temperatura de los gases, debemos tener en cuenta que
tanto la P como la Tº están en el nivel de las leyes empíricas. Sabemos que la P y la Tº están
en relación, pero, para hacerlo, dan un rodeo por el nivel teórico, el cual es dado por el
principio de la Ec que lo define como 1/1 mv². Así, a mayor Tº, mayor P, debido a que
aumenta la velocidad de las partículas (utilizando el principio de la Ec). En este ejemplo, las
leyes teóricas importan porque explican de una forma más clara y eficaz la relación que se
dan en el nivel de las leyes empíricas; y, si no existiera, las relaciones serían mucho más
pobres.

Esta teoría molecular de los gases fue postulada por Clausius en 1857, el cual aportó la parte
teórica, pues hasta entonces la teoría de los gases estaba restringida al nivel de las leyes
empíricas. Pero, ¿qué elemento encontró Clausius en la parte fenoménica de la teoría de los
gases? Encontró que puede aumentar la velocidad de las moléculas aumentando la P de las
moléculas en un recipiente. También encontró la ley de Boyle, que establecía que el volumen
de un gas es inversamente proporcional a la P del mismo (V x 1/P) para Tº constante.

Asimismo, encontró la ley de Charles, que especifica que el V es directamente proporcional a


la Tº (V x Tº) para P constante. Y, finalmente, encontró la ley de Avogadro, que dice que el V
es directamente proporcional al número de moles (V x n) para T y P constantes. Todas las
leyes anteriores son leyes empíricas, describen correlaciones que tienen lugar entre variables
que están empíricamente establecidas.

Reagrupando estas leyes, podemos determinar:

P•V x n•T
PV = n R T ] ecuación del gas ideal

A partir de esto, podemos derivar leyes más específicas, como la de Graham:


Va/Vb = √Mb/Ma

O también se puede derivar la de Van der Waals, una ley que es un mero ajuste de la ecuación
del gas ideal que permite predecir el comportamiento de un gas cuando las condiciones de
ese gas están muy lejos para ser un gas ideal:
(P+ n²a/V²) (V- nb) = n RT

En este ejemplo hemos partido de leyes empíricas, las de Boyle, Charles y Avogadro, y
hemos derivado la ley de la ecuación del gas ideal, que es una ley teórica a partir de la cual se
han derivado las leyes de Graham y Van der Waals. Estas leyes teóricas tienen la estructura
de un sistema deductivo, sistemático. Al introducir la ley de Graham, hemos introducido

20
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

conceptos teóricos, que es la aportación que Clausius dio para dar lugar a un sistema
coherente y ordenado de lo que se llamó teoría molecular cinética de los gases. Pero Clausius
aporto el relato teórico, está describiendo cosas que no podemos observar, esto es, que:
Los gases están formados por moléculas individuales, separadas, que ejercen poca influencia
entre sí, excepto cuando ese gas está a punto de convertirse en líquido (punto de
licuefacción).

Las moléculas gaseosas están siempre moviéndose en línea recta, al azar y con movimientos
variables.

Las colisiones entre moléculas, y de éstas con las paredes del recipiente, son elásticas, es
decir, que no hay transferencia de E.

Ec = ½ nv²

Todos los gases poseen la misma Ec total a una Tº dada.

Estos son los postulados teóricos que permiten enlazar las leyes empíricas. Conociendo la
cuarta y quinta descripción, es fácil derivar deductivamente que las moléculas de gases que
tengan peso pequeño (H, Hc) tendrán una velocidad mucho mayor que las moléculas de
gases con un peso mayor, siempre a un Tº dada, porque, si la masa desciende, la velocidad
aumenta para mantener constante la Ec molecular media. Así, lo que hace Clausius e mejorar
el poder predictivo de las teorías dadas, da coherencia y organización a lo que estaba dado en
el nivel empírico. Lo que dicen los empiristas lógicos es que la superestructura teórica nos
ayuda a entender las leyes empíricas y nos aporta conocimiento acerca de este nivel
empírico.

“La explicación científica” de R. Braithwaite es una obra que contiene la explicación de las
hipótesis en ciencia, como “todo P es Q” o “ si A, entonces B”. Esto puede ser reconstruido
mediante una fórmula de la siguiente estructura: Λx (Px → Qx) y, además, él ve las leyes
como hipótesis científicas verdaderas. Sobre esta base, Braithwaite afirma lo siguiente: un
sistema científico consiste en un conjunto de hipótesis que forman un sistema deductivo (P
→ C).

Podemos considerar que las proposiciones de todo sistema deductivo están colocadas en un
sistema de niveles de suerte que las de nivel supremo aparecerían exclusivamente como
premisas del sistema; las de nivel ínfimo sólo como conclusiones del mismo; y las de niveles
intermedios podrían proceder como conclusiones de deducciones de hipótesis de nivel más
elevado y servir como premisas para conclusiones que conduzcan a hipótesis de nivel
inferior. De acuerdo con esto, la teoría de gases, por ejemplo, sería un sistema deductivo. El
propio Braithwaite pone un ejemplo muy ilustrativo con la caída de los cuerpos de Galileo: la
hipótesis de nivel superior sería “todo cuerpo en las proximidades de la Tierra y en caída
libre hacia ésta cae con una aceleración de 9´8 m/s”; de aquí podríamos derivar toda una serie
de hipótesis, con lo que podemos derivar “todo cuerpo que, partiendo del reposo, cae
libremente hacia la Tierra, recorre 4´9 t² m en t segundos, cualquiera que sea el valor de t”.
Esta hipótesis se deriva teniendo en cuenta el cálculo integral:

d² /dt² = 9´8
t = O; s = O; ds/dt = O

21
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Así, la segunda se deriva deductivamente de la primera, a partir de cálculo integral. Así, en la


segunda ya no encontramos el carácter general de la primera; a partir de la segunda podemos
llegar a otro nivel inferior aplicando el principio lógico de la particularización, que supone
que “todo cuerpo que partiendo del reposo cae libremente hacia la Tierra durante 1s. Recorre
una distancia de 4´9 m”. Podemos derivar también de aquí que “todo cuerpo que partiendo
del reposo hacia la tierra recorre, durante 2 s., una distancia de 19´6 m., que es el resultado de
multiplicar 4´9 por 2²,...,”, y así sucesivamente.

De acuerdo con Braithwaite, son las hipótesis de menor generalidad las que nos permiten
poner a prueba la plausibilidad empírica de estos sistemas deductivos, y él afirma que las
hipótesis tienen carácter transitivo. Braithwaite afirma que una hipótesis de un sistema
deductivo que no sea de nivel supremo no sólo está apoyada por la observación de sus
ejemplos o ejemplos de hipótesis apoyadas en el sistema, sino que también por observables
de otras hipótesis del sistema. Con esto, quiere decir que el respaldo empírico se transmite a
corriente y a contracorriente de los vínculos empíricos.

Proceder a analizar (3a) en la experiencia supone un respaldo empírico no sólo para sí


mismo, sino también para (2), para (1), e incluso también para (3b) y (3c). Ese respaldo que
proporciona la experiencia se transmite a contracorriente y corriente de los vínculos
deductivos que forman las hipótesis de estos sistemas.

Un problema que considera Braithwaite es el hecho de que con esta visión de la ciencia
podemos obtener respaldo confirmatorio para una hipótesis por el mero hecho de adjuntarla a
un sistema deductivo, con un alto grado de confirmación. Por ejemplo, imaginemos que
Newton haya adjuntado las tres leyes de la mecánica con la hipótesis de que “todos los
cuerpos celestes son verdes”. Pero, ¿cómo prevenir esto? Braithwaite afirma que debemos
exigir que las hipótesis de niveles superiores sean necesarias para las hipótesis de niveles
inferiores.

Otra dificultad que Braithwaite considera en su libro es la introducida por la tesis Duhem-
Quine, esto es, “ante un resultado desfavorable, el problema es discriminar el resultado
desfavorable de las hipótesis que han tenido lugar en la derivación de la conclusión”. Ante
este problema, afirma: supongamos que nos estamos ocupando de un sistema deductivo en el
que no se tenga en cuenta una hipótesis de nivel supremo, sino que sean varias las hipótesis
de nivel superior; entonces, lo que refutarían las hipótesis de nivel ínfimo sería la conjunción
de estas varias hipótesis de nivel máximo.

¿Dónde está el fallo? ¿A qué hipótesis hay que remitirse? Braithwaite dice que la experiencia
nos puede decir que en alguna parte del sistema hay algo equivocado, y afirma que este es un
problema que no tiene solución.

Problema de los términos teóricos

Las referencias básicas de este tema las encontramos en la obra de Carnap. Este tema es un
racimo de problemas que ponen de manifiesto que los términos teóricos son problemáticos
para los empiristas. Este es un problema que está emparentado con el de la significación
cognitiva o significación empírica, que es, a su vez, una versión del problema de la
demarcación. Estas son tres formas de enmarcar la ciencia frente a todo tipo de cultura. Los
términos teóricos sólo plantean problemas si se mira desde un empirismo radical. A partir de
Kuhn, esto deja de ser el centro de atención filosófica de la ciencia.

22
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

El análisis filosófico de la ciencia depende de dos cosas:

El marco conceptual desde el que se parte.


La herramienta utilizada.

Así, si (a) es el empirismo lógico y (b) es la lógica formal, aparece el problema de los
términos teóricos, que resulta un problema central, de modo que si siguiésemos su evolución
sobre el ámbito de discusión de este punto, tendríamos la evolución del Círculo de Viena y
del empirismo lógico. En esta evolución del empirismo lógico, tenemos tres criterios:

criterios centrados en oraciones


criterios centrados en términos, en tanto que componentes de oraciones
criterios para sistemas teóricos
La evolución última de estos tres criterios daría el criterio más tardío dentro ya del
empirismo lótgico:

criterios para términos (relevancia prognóstica)

En (a) hay una serie de autores como Ayer; en (b) están los del Círculo de Viena y, sobre
todo, Carnap y Popper; en (c) destaca Hempel; y en (d) volvemos a tener a Carnap. Aquí
tenemos la identificación de distintas unidades de análisis (oraciones, términos, etc.),
tenemos una evolución en el cambio de la centralidad de las unidades de análisis (en primer
lugar están las oraciones, en segundo lugar los términos, etc.). Así, vamos a ver algunos
ejemplos de estos criterios.

En (a), en tanto criterio centrado en oraciones, tenemos como ejemplo:

(a1) o criterio de verificabilidad en principio: este criterio diría que una oración tiene
significado empírico si y sólo si no es analítica y se deduce lógicamente de alguna
clase finita y consistente de oraciones observacionales. Este criterio es una
reformulación de la tesis verificacionista del significado.

(a2) o criterio de refutabilidad en principio: es la variante popperiana que supone que


una oración tiene significado empírico si y sólo si su negación no es analítica y se
deduce lógicamente de alguna clase finita y consistente de oraciones observacionales.

Estos criterios acabaron siendo abandonados históricamente, y el abandono tuvo lugar por
refutación, mostrando que tenía consecuencias inasumibles desde la corrección formal (que
genere una contradicción o que sea inconsistente, por otros postulados asumidos) y la
adecuación matemática (que no muestre bien el método de la ciencia). (a1) se abandonó por
el problema de Hume. (a2) nos pide que derivemos la negación de una oración por modus
tollens, y este criterio se abandona porque la práctica real de la ciencia es mucho más
compleja que la que nos muestra el esqueleto lógico del modus tollens. Esto hace que los
empiristas lógicos se centren en otros criterios, de modo que en los años 30 pasan a centrarse
en los términos, en vez de en oraciones.

Se acoge (b) para ver si esos términos tienen anclaje en la experiencia; si no tienen ese
anclaje, rechazan la oración entera, porque los términos son las unidades últimas de las
oraciones:

23
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

(b1) o criterio de definición explícita: es el ejemplo más clásico de (b) en el que


podemos hablar de Suppe, el cual dice que todo término con significado empírico
debe poder ser definible explícitamente por medio de términos observacionales. El
problema de esta definición explícita es el de los términos disposicionales, problema
tras el cual se adopta la versión (b2).

(b2) o criterio de reductibilidad: versión final del empirismo lógico que supone que
todo término con significado empírico debe poder ser introducido sobre la base de
términos observacionales a través de cadenas de oraciones de reducción. El tipo de
crítica a (b2) es de carácter formal y también matemática, es decir, que las oraciones
de reducción no son definiciones genuinas porque el definiendum está contenido en el
definiens. Otra crítica es en las teorías científicas es muy raro que los términos y
oraciones aislados impliquen consecuencias observacionales, sino que normalmente
se acude a conjuntos de hipótesis o conjuntos de enunciado, esto es, que la atribución
empírica no puede atribuirse a hipótesis aisladas, sino a conjuntos de enunciados.

Así, llegamos a (c), que sería un criterio llamado sistemas teóricos para la interpretación
parcial para teorías. Este criterio supone que un sistema teórico es empíricamente
significativo si y sólo si es interpretado parcialmente en una medida tal que en ningún
sistema equivalente a él al menos una oración primitiva esté aislada, es decir, alguna oración
que contenga un término teórico. Lo que se dice aquí es que los términos teóricos que poseen
las oraciones deben estar interconectados con oraciones que contengan términos que se
refieran a la experiencia y, con esto, la significación empírica pasa a ser una cuestión
importante y a ser una cuestión de grados, no de todo o nada.

Ya en el año 52, Carnap volvió a proponer los términos como criterio en la mejor tradición
clásica del empirismo, pero este criterio será muy discutido después, y posteriormente
abandonado más por desinterés que por lo que se abandonaron los anteriores. Dice Carnap
que un término teórico t es empíricamente significativo si y sólo si el término es
prognósticamente relevante, es decir, hay al menos una oración St que involucra a t y que
produce una diferencia en la predicción de un suceso observable. Carnap lo que está diciendo
es que una teoría tiene oraciones que tienen términos, y con esto predecimos el futuro en
ciencia: podemos evaluar esta teoría por la capacidad para predecir el futuro. Este es un
criterio instrumental-pragmático que él aporta al significado.

24
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Tema 3: Kuhn. Ciencia normal y ciencia revolucionaria


Thomas Samuel Kuhn (1922-96) es de formación física, y la teoría del cambio científico que
presenta está respaldada por su historia de la ciencia, cuyo interés comienza en el año 49, a
partir de una conferencia. En el año 62 publica “La estructura de las revoluciones
científicas”, y en el 73 publica otra obra importante, un artículo que lleva por título
“Objetividad, juicios de valor y elección de teorías”. Un año más tarde, en el 74 saca al
público “Segundos pensamientos sobre paradigmas”, y en el 77 “La tesis esencial”.
En el momento en el que Kuhn publica “La estructura de las revoluciones científicas”, se dan
tres vertientes en filosofía de la ciencia: tradicional, sociológica de la ciencia e historiográfica
clásica de la ciencia. Lo que hace Kuhn es reaccionar ante estas tres:

La filosofía de la ciencia tradicional se centra en el método científico, son filósofos


que se dedican a codificar de una forma el método dentro de una filosofía que
establecía que hay una base empírica natural a partir de la cual se dan las leyes
científicas. Kuhn reacciona contra esto estableciendo lo que ocurre en los laboratorios
científicos y, así, explicaría el cambio científico.

Afirma que el estudio de la ciencia debe tener en cuenta el contexto. Respecto a la distinción
entre contexto de descubrimiento y contexto de justificación, propone un estudio de la
ciencia interdisciplinario que tenga en cuenta los resultados de otras ciencias y conocimientos
(historia, sociología, etc.)

La sociología de la ciencia estudia las instituciones científicas sin meterse en la ciencia.


Respecto a esto, Kuhn dice que la ciencia en sí es un producto social.

La historia clásica de la ciencia ve la ciencia como presentista, habla de una teoría universal
final que lo explique todo; ven la ciencia como acumulativa y lineal, es decir, las teorías
contienen las teorías anteriores y no se producen cambios. Tenían en cuenta los resultados del
presente. Kuhn, en cambio, se preocupa por la ciencia pasada pero en contexto, es decir, en el
momento en que se da esa teoría, no desde el presente. Además, habla también de las
revoluciones científicas. De este modo, Kuhn pretende estudiar la historia real de la ciencia
desarrollando una historia de la ciencia interdisciplinar.

La idea principal de “La estructura de las revoluciones científicas” es que todas las
disciplinas científicas deben ser estudiadas en su contexto, en su momento. Afirma Kuhn que
hay una etapa de ciencia normal, luego una revolución científica y, finalmente, una ciencia
normal distinta de la anterior. Además, considera una etapa paradigmática anterior a la
primera etapa de la ciencia en la que los datos se recogen de forma fortuita y se dan
experimentaciones causales, tiene una serie de reglas rudimentarias para operar con
instrumentos y obtener los datos, pero en esta etapa aún no se ha constituido la ciencia. Este
primer periodo concluye cuando se unifica el marco de investigación científica, lo que llama
“paradigma” (marco de supuestos básicos); pues, una vez que se abraza el paradigma, la
ciencia no vuelve a este estado paradigmático, que sólo se produce una vez en cada una de
las disciplinas. Kuhn elabora la concepción del paradigma porque considera que debe
establecer algo más básico y complejo que la teoría y, así, la noción de paradigma le permite
analizar la historia de esta disciplina. Pero esta es una noción problemática, y podemos decir
que hay tres grupos de sentidos de esta noción:
25
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Sentido filosófico o metafísico: la imagen del mundo y las creencias básicas que
comparten los científicos acerca de lo que es la realidad.
Sentido sociológico: estructura y conjunto de relaciones internas y externas que es
dan en las comunidades científicas.

Sentido científico: conjunto de problemas modelo que utiliza una determinada comunidad
científica para definir la disciplina en la que se encuentra.

Pero, para definirlo, podemos tomar otra agrupación:

Paradigma (a): ejemplo de solución exitosa de problemas.


Paradigma (b): conjunto de compromisos compartidos, que sería el marco de
supuestos que toda la comunidad científica adopta sin discusión, es decir, las líneas
básicas de investigación, el tipo de problemas que merecen estudio y el tipo de
soluciones que se da a esos problemas.

Lo que hace Kuhn es añadir otra nueva definición de paradigma, sustituye el término
“paradigma” por “matriz institucional” en la post-data del 69 definiéndola como la
constelación de compromisos del grupo. Es aquí donde distingue cuatro elementos:
Generalizaciones simbólicas: el conjunto de caracteres distintivos del lenguaje (por ejemplo,
ecuaciones) que funcionan como herramientas conceptuales de cada disciplina; vienen a ser
los principios fundamentales de una teoría, las leyes científicas, que son formalizables.
Modelos: pueden suponer un compromiso ontológico con la existencia de un determinado
tipo de entidades, en cuyo caso se da la estructura de la realidad; o pueden utilizarse sólo en
el sentido de orientar la investigación, en cuyo caso se dan las hipótesis o líneas de
investigación.

Ejemplares o problemas-modelo: marcan la forma en la que se resuelven los problemas en


este tipo de paradigma.

Valores metodológicos: son el conjunto normativo del paradigma y dan cohesión a la


comunidad científica; permiten los criterios de evaluación de las soluciones a los problemas.
El paradigma da las herramientas para solucionar problemas que son siempre como en el
caso (c), es decir, problemas-modelo. Esta ciencia normal es como un puzzle, porque ya se
sabe el estilo de los investigadores, el estilo de la solución, y lo único que se hace es buscar
el camino. Esta ciencia normal, para Kuhn, amplía el alcance y las aplicaciones, da lugar a
una mayor precisión, mejora el ajuste entre la teoría y la experiencia, elimina los conflictos
entre las teorías y, por último, también elimina conflictos entre las aplicaciones. Como
podemos ver, la ciencia normal es bastante conservadora, pero el cambio fundamental en
ciencia, para Kuhn, es el cambio revolucionario que intercala etapas de ciencia normal.

Ciencia normal -→ cambio revolucionario científico -→ ciencia normal

Así, no ve la ciencia como acumulativa, no ve que las leyes, teorías, se establezcan por
acumulación de otras anteriores. Pero, ¿qué pasa cuando hay cosas que no se pueden explicar
en la teoría, cosas que crean conflictos? Suele solucionarlo con hipótesis “ad hoc”, es decir,
introduce hipótesis que solucionan esos problemas. Se va intentando modificar esta teoría,
este paradigma, y esto es lo que se llama etapa extraordinaria, momento en que la crisis del
paradigma es enorme y ya no hay hipótesis que lo respalden, por lo que se abandona este
paradigma de tal forma que es en este momento cuando se produce la revolución, el cambio.

26
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

La revolución se produce en tanto que va cambiando todo a nivel institucional, como las
revistas donde aparecía, etc., hasta que la comunidad científica acoge el nuevo paradigma y
se olvida ya del otro.

Etapa paradigmática → cc. normal → cc. extraordinaria → revolución científica → cc.


Normal
(a) (b) (c) (d)

(a): no hay criterios de selección y se producen experimentaciones causales.


(b): se adopta un solo paradigma, se investiga para aumentar el alcance y la precisión, y la
investigación es conservadora.
(c): ante las anomalías se introducen hipótesis “ad hoc” y proliferan más alternativas.
(d): se adopta un nuevo paradigma.

Para Kuhn, cambian los criterios de evaluación, las formas de investigar y los datos
observacionales, porque cambia el paradigma. Esto es, no existen unos fundamentos últimos
de conocimiento que nos permitan dibujar la historia de la ciencia de forma lineal. Las cosas
que cambian cuando cambia el paradigma son de tres tipos:

Cambios metodológicos: cambian los criterios que determinan lo que es un problema


y su solución. Por ejemplo, la atracción de partículas era un problema para la física
aristotélica y dejó de serlo con Newton. Cambian también las normas de
procedimiento y la concepción de la disciplina.

Cambios conceptuales: cambia el significado de los conceptos y de los experimentos. Por


ejemplo, la teoría de la relatividad cambió el concepto de espacio con respecto a la física
tradicional. Esto supone problemas de comunicación entre los científicos, y otra
consecuencia es que no cabe hablar de cambio acumulativo en la ciencia, ya que no estamos
tratando con las mimas cosas. Asimismo, cambian los datos observados, esto debido a la
carga teórica, ya que cambia el marco teórico. Así, el lenguaje observacional no es neutral,
sino que depende del marco conceptual o teórico del momento.

Cambios ontológicos: cambian los supuestos de existencia del tipo de cosas que pueblan el
universo y el tipo de relaciones que hay entre ellas. Por ejemplo, al defender una teoría
atómica de la materia, se supone la existencia de electrones, etc.

Con la revolución científica cambia el paradigma, con lo que cambia la realidad, y esto se
debe a que lo que vemos depende de lo que miramos y lo que hemos aprendido a mirar. Kuhn
afirma que los paradigmas son formas de entender el mundo, por lo que no se pueden aceptar
varios, y quienes proponen paradigmas distintos viven en mundos diferentes. El cambio de
paradigma es una cuestión de fe, pues se cree en otra cosa distinta de la que se creía antes, y a
veces este cambio no tiene base racional. Además, Kuhn ve componentes políticos dentro de
este cambio que supone el cambio en el modo de ver la historia de la ciencia. En dos
paradigmas hay una base empírica común, con lo que un paradigma, en el momento del
cambio, puede comprender al otro, porque hay una base común. Así, nosotros podemos
entender el paradigma newtoniano.

En Kuhn, la noción de inconmensurabilidad es la más importante: no hay un criterio en


virtud del cual se pueda decidir qué paradigma es mejor; es decir, no se pueden comparar los
paradigmas. La noción de inconmensurabilidad aparece en “La estructura de las revoluciones
científicas”. Ya no vale un método científico para ver la teoría más adecuada, pues no hay

27
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

escala adecuada que nos permita decidir el mejor paradigma; la razón no está presente en los
cambios de paradigma, pero tampoco se puede negar que haya una razón adecuada en la
ciencia.

La noción de inconmensurabilidad en Kuhn recibe muchas críticas, por lo que él decide


modificarla y verla en términos de intraductibilidad: inconmensurabilidad local. La
inconmensurabilidad local supone que no hay un lenguaje común en el cual dos teorías
puedan ser expresadas por completo. De este modo, deja la noción de inconmensurabilidad
en términos del lenguaje acudiendo al relativismo lingüístico. Lo que Kuhn quiere decir es
que no hay lenguaje universal para la ciencia, sino que cada una tiene su propio lenguaje.

Entre dos paradigmas no puede haber una evaluación interna (utilizar los conceptos de uno
para evaluar el otro, porque los conceptos son diferentes en cada paradigma) y tampoco se
puede hacer una evaluación externa. Así, Kuhn viene a decir que el método científico no
puede utilizarse como evaluación.

En 1973, debido a las críticas que recibe, se ve obligado a realizar una modificación. En
“Objetividad, juicios de valor y elección de teorías” quita importancia a la noción de
inconmensurabilidad y revolución científica, y afirma que hay cinco criterios denominados
supra-paradigmáticos que son criterios objetivos y racionales. Con esto cede un poco dando
cierta razón a los científicos tradicionales aceptando que sí existe un criterio de racionalidad
en el cambio científico. Los criterios son los siguientes:

Precisión: acuerdo entre teorías y resultados.

Coherencia: interna o externa. La coherencia interna supone que el conjunto de


enunciados deducibles de una teoría debe ser lógicamente consistente, no puede haber
contradicción entre dos enunciados que se deriven de una misma teoría. La
coherencia externa supone que no puede haber contradicción entre una consecuencia
deducible de otra teoría establecida y aceptada con anterioridad.

Amplitud o alcance: exige que debe ser posible deducir consecuencias de una teoría
que se apliquen a otros sistemas empíricos fuera del alcance inicial de la teoría.

Simplicidad: capacidad de sistematizar y ordenar los conjuntos dados desordenados.

Fecundidad: capacidad que tiene una teoría para descubrir nuevos fenómenos y
soluciones al problema distintos a los que se conocían en un principio.

Estos son los cinco criterios presentes en el momento del cambio de teoría, siendo para
Kuhn, el criterio de precisión el más importante. Afirma que estos criterios no pertenecen a
ninguna teoría, por lo que podemos aplicarlos desde fuera para ver si una teoría es mejor que
otra. Sin embargo, también afirma que hay muchos problemas para poder admitir que hay un
método racional aplicable. Por ejemplo, dos científicos pueden tener opiniones distintas en
cuanto a qué teoría es mejor, y también puede suceder que cada científico ponga como
importantes unas cosas y no otras sin que ambos coincidan. Además, estos criterios no son
retrospectivos, es decir, no se pueden aplicar a paradigmas y teorías pasadas. Por lo tanto,
estos criterios no son un método infalible que nos permita establecer qué teoría es mejor.

28
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Kuhn afirma que, además de estos criterios, hay factores subjetivos que son también muy
importantes y que modulan los criterios objetivos viendo por qué se da uno y no otro, con lo
que los factores subjetivos tienen más importancia.

El debate entre Galileo y sus contemporáneos aristotélicos dura casi un siglo y medio
dándose a partir del “De revolutionibus” de Copérnico. Esto supuso un cambio en la física y
astronomía, entre otras disciplinas. Así, entre los dos paradigmas, el de Galileo y el de los
aristotélicos, hay cuatro tipos de diferencias básicas:

categorías básicas y estructuras conceptuales


principios teóricos fundamentales, pero también tienen creencias comparativas
aplicación y jerarquización de los criterios de evaluación
observación relevante

Galileo defiende la teoría copernicana, pero se encuentra que esto refuta toda la teoría
anterior, por lo que quiere desarrollar un sistema compatible con el de Copérnico
enfrentándose con todo el ámbito aristotélico. De este modo, la primera diferencia básica es
la barra de distinción de los ámbitos celeste y terrestre; además Galileo está alterando la
teoría de los “lugares naturales” defendida por los aristotélicos, ya que éste admite el
movimiento de la Tierra, al igual que Copérnico. Galileo defiende una nueva física en
“Diálogo sobre los dos grandes sistemas del mundo”, siendo el punto principal de esta nueva
física la cuestión sobre la noción de movimiento. Para Galileo, sólo hay un ámbito de
movimiento, mientras que los aristotélicos hablan del ámbito celeste (astronomía) y del
ámbito celeste (lugar natural: hacia el centro del universo). Así, Galileo considera que sólo
hay movimiento circular y, además, establece que el movimiento de rotación y el de
traslación de la Tierra comparten su movimiento con las cosas de la Tierra.

Asimismo, se producen rupturas metodológicas, en tanto que Galileo formula unas leyes
cuantitativas del movimiento y las demuestra experimentalmente. Lo que hace es dar a la
experiencia y a las matemáticas un papel central, papel que antes no tenían porque, para los
aristotélicos, las matemáticas eran algo útil, sólo una herramienta, y la experiencia era algo
que podía cambiar la cualidad de los cuerpos, por lo que tendían a observar y no actuar.
Galileo rechaza también la búsqueda de causas. Otra cosa que cambia en la metodología es la
introducción del telescopio, instrumento con el que Galileo acerca la teoría copernicana, y
que le vale la oposición de la Iglesia Católica. Los adversarios que le aportó el telescopio
eran de tres tipos: los que no miraban, los que miraban y reconocían los fenómenos aunque
decían que éstos estaban en el telescopio, y los que admitían lo que veían y afirmaba Galileo
pero no lo admitían como demostración de las palabras de Copérnico. Con el telescopio se
dan características epistémicas que llevan a admitir una observación y los problemas de las
instituciones.

Pero también hay más cuestiones que sirven de eje para los dos paradigmas: los elementos
compartidos son los ejes que permiten la transición, permiten el entendimiento entre el
primer paradigma y el nuevo, y además son la base del aprendizaje, es decir, permiten que las
nuevas razones del paradigma nuevo sean comprendidas por los científicos del viejo, con lo
que es la base del convencimiento. Entre ellos había acuerdo en determinados datos
observacionales, en observaciones básicas, y están de acuerdo en que las observaciones
básicas son relevantes para el debate, por lo que una teoría debe admitirlas y no
contradecirlas. Otro punto de reunión lo encontramos en las cuestiones lógicas, por ejemplo,
que no se pueden concluir cosas falsas de una teoría verdadera; en el sistema de conceptos;
en los criterios de evaluación de teorías, por ejemplo, en la precisión en tanto que los dos

29
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

paradigmas consideran que no es importante porque la teoría puede ser precisa y no ser
válida; y en que la teoría tiene que estar en concordancia con los pasajes de la Biblia.

Una de las consecuencias fundamentales de Kuhn es el naturalismo. El nombre


“epistemología naturalizada” se instaura con Quine, y hasta Kuhn se habían estado buscando
los principios epistemológicos que rigen la actividad científica. Estos principios debían ser
autónomos e independientes de la propia ciencia, criterios que han de servir para la
evaluación de teorías siendo éstos la base de una racionalidad científica autónoma e
incondicionada que estaría más allá de los resultados de las ciencias concretas. La filosofía
de la ciencia naturalizada busca eliminar que estos criterios sean independientes de las
propias ciencias, por lo que comienza negando que la epistemología sea independiente de la
propia ciencia, lo cual implicaría que la evaluación de la ciencia se debe contextualizar
teniendo en cuenta lo que los propios científicos dicen sobre lo que es hacer ciencia. Por
tanto, un análisis adecuado de la ciencia debe tener en cuenta lo que las teorías científicas
dicen sobre el mundo.

Kuhn utiliza la propia dinámica de la ciencia para explicar los cambios y las diferencias de
los valores y estándares epistémicos. A partir de un cambio en la teoría, pueden darse los
cambios epistémicos, y de este modo Kuhn naturaliza la epistemología, la analiza. Esta
característica es lo que sirve de detonante para que el análisis filosófico de la ciencia se
naturalizara. La epistemología naturalizada es el intento de resolver, mediante la ciencia, las
cuestiones filosóficas tradicionales sobre el descubrimiento, desarrollo y justificación de las
ideas científicas.

El análisis filosófico comienza a utilizar los resultados de otros ámbitos que también
reflexionan sobre la ciencia, y lo que va a ocurrir es que se intentará definir la relación dada
entre todas las disciplinas, aunque muchos van a intentar reducir todas estas disciplinas a una
sola ciencia. Por ejemplo, Quine la reduce a la psicología, Bloor la reduce a la sociología, y
otros a la biología. A partir de la obra de Kuhn, se han dado dos escuelas que le interpretan:
Interpretación conservadora: también se les ha denominado kuhnianos de derechas,
compuesta por filósofos; y autores racionalistas. Se centran en las revoluciones científicas,
buscan criterios metacientíficos que estén presentes en el cierre de las controversias y que
aseguren que se conserva la racionalidad de la ciencia en las revoluciones científicas. Se
niegan a aceptar que la ciencia sea un proceso en el que no esté presente la racionalidad. En
las revoluciones científicas se dan lagunas de racionalidad, y éstas son llevadas de dos
maneras con criterios metacientíficos:

rebajan la importancia de las revoluciones científicas (Cohen y Kuhn)


buscan criterios epistémicos que permanezcan en el cambio (Laudan y Shapere)

Interpretación radical: también se llaman kuhnianos de izquierdas y son, sobre todo,


sociólogos. Se centran en el estudio de la ciencia normal y en el consenso entre científicos,
siendo la principal obra de esta interpretación es “Kuhn y el cambio científico”. Buscan el
consenso en que los científicos llegan a un acuerdo, porque todos están socializados en el
mismo contexto, es decir, buscan una explicación social del consenso, no en los criterios
epistémicos, sino en la socialización del consenso científico. Así, tienen una concepción
social del conocimiento, y niegan que haya un método científico que sea preservador de la
racionalidad de la ciencia, ya que ésta llega por costumbre y aprendizaje. Personajes
importantes de esta interpretación son Collins, Latour, Barnes, Bloor, e incluso algunos
llegan a decir que la ciencia normal es ciencia extraordinaria.

30
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Tema 4: Popper. Conjeturas y refutaciones

Karl R. Popper nace en Viena (1902-94), siendo el personaje que más prestigio dio a la
London School of Economics (LSE). Popper es uno de los grandes autores, se le suele
considerar como uno de los grandes padres de la social-democracia. En el año 63 publica
“Conjeturas y refutaciones”, importante en cuanto que en él introduce la temática de la
verosimilitud, algo que más adelante inaugurará el campo de discusiones científicas en la
filosofía poskuhniana. En el 72 publica “Conocimiento objetivo”, que es la obra más
adecuada para seguir su pensamiento y en la que Popper aplica el marco de su pensamiento al
marco de la reflexión sobre la epistemología. En el 74 sale “La filosofía de K. Popper”,
importante porque en él podemos encontrar la autobiografía intelectual de este autor. En el 77
publica “El yo y su cerebro”, donde Popper se ocupa de la relación entre la actividad mental
y el cerebro. A partir de aquí se han publicado muchos libros sobre Popper, pero son como
apéndices de su obra del año 34, donde había dejado fuera determinadas cosas; no obstante,
uno de los apéndices más importantes es “Realismo y filosofía de la ciencia”.

Su obra más importante, “Lógica de la investigación científica”, se publicó en el año 1934,


fecha de mayor apogeo positivista. Popper tuvo una influencia muy grande en el propio
Círculo de Viena, pero no fue nunca miembro del mismo, ni fue invitado ni hizo lo posible
para ser invitado.

Hay diferencias contrapuestas entre el pensamiento positivista y el popperiano, que puede


venir e ilustrarse del pensamiento de Lamarck y Darwin sobre los seres vivos, pero la
diferencia más importante es el enfoque dinámico del pensamiento popperiano y la influencia
que tiene del darwinismo. Lamarck considera que la función crea el órgano, mientras que
para Darwin es justo al contrario, es decir, que el órgano crea la función. En términos
cognitivos, podemos decir que, para Lamarck, se produce una instrucción por el ambiente;
mientras que, para Darwin, se produce una selección por el ambiente. El pensamiento
positivista acerca de la ciencia ve la base en la inducción (pensamiento lamarckiano), pero no
tiene carácter genético. Popper critica la inducción y rechaza la instrucción por el ambiente,
lo que lleva a su doctrina: el falsacionismo. Este falsacionismo tiene un enfoque dinámico, y
es este enfoque el que hace de Popper un autor importante para imponerse al enfoque
kuhniano. En “La miseria del historicismo”, obra del año 34, extiende su postura
falsacionista al ámbito político desarrollando una crítica a las sociedades cerradas, como él
las denomina, como el marxismo.

Al comienzo de “Conocimiento objetivo”, Popper comienza citando unas palabras de Russell


y, a continuación, afirma que ha resuelto el problema de la inducción que se había planteado
Hume y que ha llevado de cabeza a muchos. El problema de la inducción es clave y tiene
gran importancia en el desarrollo de la filosofía de la ciencia, es el que lleva a debilitar la
tesis del verificacionismo. Popper afirma que la cuestión de la inducción tiene dos
problemas:

Problema lógico: preguntaría cómo podemos construir una inferencia deductiva


válida desde el hecho de que todos los A observados sean B hasta la necesidad de que
31
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

todo A sea B. Aquí está interpretada la exigencia de la verificación como la exigencia


de respaldo deductivo. Popper dice que no se puede, que no puede ni siquiera
producirse que A sea B.

Problema psicológico: pregunta por qué confiamos en nuestra experiencia pasada.

Para entender mejor la respuesta que Popper da a ambos problemas (lógico y psicológico),
hay que tener en cuenta la respuesta de otros anteriores a la fecha en la que escribe, es decir,
hay que tener en cuenta, por ejemplo, la respuesta de Hume. Popper se aparta de todas las
anteriores respuestas para solucionar el problema psicológico, porque la pregunta de por qué
confiamos en nuestra experiencia no tiene respuesta si no respondemos primero al problema
lógico. Así, da a entender que los autores están errando el tiro, porque se ocupan de resolver
el problema psicológico independientemente del problema lógico. Para Popper, en la mediad
en que no encuentra respuesta al problema lógico, afirma que estamos abocados a una fe
irracional, y la actividad de la ciencia se convertiría en una cuestión de fe a no ser que
encontremos solución a este problema.

Asimismo, la salida probabilística del Círculo de Viena no sirve, pues siguen descansando
sobre la posición inductiva y siguen planteando el inductivismo. La solución que ofrece
Popper es el falsacionismo, afirma que no debemos preguntar si de ciertos enunciados puede
seguirse la verdad, sino si de ciertos enunciados puede seguirse la falsedad.
p→q
¬q .
¬p

Intenta aseverar la falsedad del antecedente a partir de un cuerpo de evidencia finito y


limitado observado en la experiencia y una ley general que garantice la verdad (algo que ya
decía Hume). Así, Popper ve que no hay que buscar tanto la verdad de la ley, sino que hay
que acudir a qué leyes son falsas, y esto se puede hacer concluyentemente, algo que no
ocurre con la verdad.

Popper también introducirá una terminología nueva en filosofía de la ciencia: el antónimo de


verificación es refutación, pero Popper introduce la corroboración en vez de la verificación
(distinguiéndola de confirmación, cuyo antónimo es disconfirmación) y falsación en vez de
refutación. Estos términos hacen referencia a la relación entre enunciados singulares y
enunciados generales, y Popper afirma que la relación que media entre un enunciado y una
ley no tiene por qué tenerse en cuenta en relación con estos contrarios anteriores, es decir, un
enunciado no tiene que falsar una hipótesis, no tiene por qué.

Estos contrarios no nos indican cómo debemos comportarnos en la práctica: refutación,


falsación o disconfirmación no son igual al rechazo. El concepto de corroboración depende
del de falsación. Para Popper, el concepto central es el de falsación, y esto revierte la
tradición de la filosofía de la ciencia anterior, porque, para los anteriores, lo central era la
verificación o la confirmación, mientras que la refutación y la disconfirmación eran la
consecuencia de que los términos de verificación y confirmación no se dieran. Pero Popper
no habla de hipótesis verificadas o confirmadas, sino que habla de teorías corroboradas.

Estos conceptos describen resultados en tanto que procesos de contrastación a partir de la


observación. Las contrastaciones deben ser audaces y rigurosas atendiendo a consideraciones
de cantidad y calidad, y toda instancia corroboradora debe ser resultado de un proceso de
32
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

contrastación que tenga estas características. Popper considera que hay que poner a prueba la
hipótesis, hacer que corra un enorme riesgo de ser falsada. Por ejemplo, el mar de aire de
Torricelli explicando la presión atmosférica que Galileo no pudo explicar en su momento.
Torricelli diseñó experimentos para explicar el mar de aire, siendo el más famoso el de la
cubeta, en el que experimentó con varios líquidos.Fue el experimento de Pascal el
corroborador del de Torricelli.

Para Popper, la corroboración se expresará en grados, y esta gradación puede ser:


cuantitativa: hay una escala proporcional (son, por ejemplo, los grados centígrados o la
escala de dureza de los minerales)

comparativa: no hay la escala anterior (es, por ejemplo, la fuerza del viento)

El grado de corroboración es temporalmente dependiente; en un cierto momento, da cuenta


del estado de discusión crítica de un enunciado teórico. Popper considera que el grado de
corroboración es siempre un informe evaluativo sobre un enunciado pasado. Sobre esta base,
Popper elabora un consejo metodológico básico: elaborar contrastaciones audaces y rigurosas
tratando de falsar nuestras teorías. Esta falsación es la respuesta a la pregunta por la
racionalidad de la ciencia; la falsación es la que marca el criterio de demarcación popperiano.

Por tanto, este criterio de demarcación supone que una proposición será científica si puede
ser falsada por la experiencia, y, asimismo, supone una diferencia porque no es tanto la
falsación como la posibilidad de falsación, es decir, la falsabilidad para establecer el criterio
de la ciencia es la no-ciencia. Para Popper, la ciencia nunca llegará a la verdad, pero podemos
ir acercándonos cada vez más en virtud de que vamos falsando. Por eso, los enunciados que
han sido falsados son científicos, porque parten de la base de la ciencia. Por ejemplo, “la
Tierra está en el centro del sistema solar” es una hipótesis científica porque puede ser falsada.

Popper afirma que una teoría es falsable si la clase de sus posibles falsadores no es una clase
vacía. Otra expresión que utiliza es la del no metafísico: el empírico es el no metafísico, pero
esto no quiere decir que Popper considere la metafísica como lo que no tiene sentido, sino
que lo importante es que Popper delimita lo que es ciencia y lo que no lo es sin delimitar lo
que tiene sentido o lo que no lo tiene.

Ciencia/no ciencia
Empírico/no empírico
No metafísica/metafísica

Así, el criterio de falsación realiza un corte entre lo científico y lo que no lo es, pero no se
mete para nada en lo que tiene o no sentido; no se mete en estas cuestiones y no dice que la
no ciencia o la metafísica no sean informativas. Al contrario que sus antecesores, no se mete
en este tema. Esto no es un criterio de demarcación para el sentido, sino que la regla
prioritaria es la exigencia de falsabilidad, por lo que todos los principios que regulen la
ciencia han de someterse a la falsabilidad.

Popper nos habla de las reglas metodológicas, denominadas por él como “la discusión
crítica”: el principio metafísico de la causación universal, principio metafísico de la
uniformidad de la naturaleza, etc., son principios metodológicos que orientan el trabajo en la
ciencia, aunque incluso éstos deben estar supeditados a la regla metodológica de la
falsabilidad. A partir de este planteamiento metodológico, es obvia la crítica al Círculo de
Viena. Popper afirma que hay una proporcionalidad inversa entre la probabilidad que

33
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

podemos asignar a un enunciado y, por otro lado, su falsabilidad, porque la falsabilidad es no


inversamente proporcional al contenido informativo.

De este modo, es una locura dirigir la ciencia hacia el aumento de probabilidad, porque esto
supone dirigir la ciencia hacia la falta de información. Esta es lo que se critica al Círculo de
Viena, que ve la ciencia como algo que debe ir hacia la mayor probabilidad posible. Por
ejemplo, tenemos a tres personas con tres relojes; la primera dice que son entre las 10:00 y
las 13:00, la segunda dice que son entre las 9:00 y las 15:00, y la tercera dice que son las
11:00 en punto; la tercera tiene mayor contenido informativo, pero es más fácilmente falsable
que las dos primeras, ya que las respuestas de éstas dos es vaga, con lo que son las dos
primeras las que tienen menor contenido informativo y mayor probabilidad. De este modo,
Popper se preocupa por la información, y dirá que esto es lo que debe importarnos siendo
éstos enunciados los que más riesgo tienen de ser falsados. Por tanto, hay que orientar la
ciencia hacia la falsabilidad, hacia un mayor contenido informativo.

Otro principio por el que Popper aboga es el de la sencillez, el cual él vincula a la


falsabilidad. Esto es, una hipótesis será más sencilla cuanto más falta de parámetros y, por
tanto, cuanto más falsable. Para Popper, la universalidad y la precisión son también
importantes: cuanto mayor falsabilidad, mayor universalidad y precisión. Esto se explica en
el ejemplo siguiente:

Todo P es Q: aumentamos su universalidad aumentando la extensión de P, y


aumentamos su precisión aumentando la restricción de Q.

Todo cuervo es oscuro: aumentamos la precisión y aumentan las posibilidades de P; por


ejemplo, de que sea negro.

Todo córvido es negro: extendemos la clase del sujeto y, por tanto, aumentamos el grado de
universalidad.

También utiliza el concepto de contenido empírico de un enunciado P, que es la clave de sus


posibles falsadores, y el concepto de contenido lógico de un enunciado P, que es su clase
consecuencia o la clase de enunciados no tautológicos que pueden deducirse de P. Por
ejemplo, si P es “todo córvido es negro”, entonces “todo cuervo es negro” pertenece a las
derivaciones tautológicas, con lo que correspondería a su contenido lógico. Respecto al
contenido empírico, serían los córvidos que, siendo córvidos, no sean negros, sino de
cualquier otro color.

Otro concepto es el de ámbito de un enunciado, que es la clase de enunciados básicos que


permite. Y también define el grado de falsabilidad de un enunciado empírico a través de un
enunciado abierto: la falsabilidad de un enunciado E es el grado que se aplica entre 1
(contradicción) y 0 (tautología), de modo que este concepto depende de los tres conceptos
anteriores. De hecho, Popper relaciona estos conceptos afirmando que un mayor grado de
contrastabilidad es proporcional a un mayor grado de falsación, que es directamente
proporcional a un mayor grado de precisión, que es directamente proporcional a la
universalidad y a la sencillez, y que es inversamente proporcional al ámbito y al grado de
probabilidad.

Una idea importante es que todo el conocimiento científico es siempre provisional, es decir,
los enunciados corroborados son siempre provisionales. Popper enfatiza mucho la

34
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

provisionalidad del conocimiento científico y expresa esto a través de lo que llama su


esquema evolutivo del conocimiento científico:
P1 -----------------→ TP ------------------→ EE -----------------→ P2

El esquema evolutivo del conocimiento científico no es un esquema cíclico, ya que P1 y P2


difieren. Este es un esquema que viene reflejado en una frase de Popper: “mientras que la
verdad hace lo objetivo, la ignorancia hace el juego”. Popper mantiene la distinción entre
contexto de descubrimiento y contexto de justificación manejada en el empirismo lógico.

Todo lo visto hasta aquí puede resumirse diciendo que si bien la ciencia no puede probar, sí
que puede disprobar, es decir, hay una base de hechos que puede disprobar las teorías y las
hipótesis con conclusividad lógica. Esta es la imagen de Popper que tiene Nagel, Ayer y
Medawar, y este es el Popper no real, sino el más conocido, porque el Popper real no es tan
ingenuo, sino que es diferente al que hemos establecido hasta ahora. El Popper real es el del
falsacionismo ingenuo o, como lo llama Lakatos, el Popper1. Popper comienza a publicar en
los años 30, y sigue publicando hasta su muerte en los 90, con lo que su obra es muy amplia.
Las críticas al Popper1 son críticas que él reconoce y asume en la evolución de su tesis.
Principalmente, tenemos dos líneas de crítica: la tesis Duhem-Quine y la provisionalidad del
conocimiento base.

La crítica más importante la que se basa en la tesis de Duhem-Quine, que suponía que es
imposible falsar de un modo concluyente hipótesis aisladas porque no concurren solas al
tribunal de la experiencia. La tesis de Duhem-Quine se base en la contemplación de las
condiciones iniciales para respaldar el análisis empírico de una teoría; supone que, al
concurrir hipótesis auxiliares y condiciones iniciales, es imposible falsar la teoría, porque en
caso de fracaso de la teoría no hay forma de identificar qué es lo que falla: la hipótesis, las
hipótesis auxiliares o las condiciones iniciales. Así, las hipótesis no vienen aisladas al
tribunal de la experiencia, con lo que es imposible saber sobre qué debe recaer la
responsabilidad del fracaso de la teoría, además también podríamos dudar del científico que
realiza las experimentaciones. Esta tesis es importante en la historia de la evolución de la
filosofía de la ciencia y está presente en muchos autores. Si nos fijamos en este esquema y
ampliamos las perspectivas, podríamos pensar incluso que el propósito de la ciencia no es
tanto poner en duda las hipótesis, arrojar duda sobre ellas, falsarlas, etc., como completar
nuestras teorías a través de lo que Lakatos llamaría el desarrollo de gruesos cinturones
protectores.

La visión de Popper es una visión heroica de la ciencia en cuanto que un científico debe
poder resolver un rompecabezas. Si nosotros utilizamos este esquema para construir la
ciencia, vemos que la hipótesis debe ser abandonada si la teoría fracasa. Pero lo que se pone
a prueba en la historia de la ciencia no es tanto la credibilidad de las hipótesis, sino el
conjunto de condiciones iniciales que nos permiten ponerlas a prueba y las hipótesis
auxiliares que nos permiten extender el rango de credibilidad de las hipótesis iniciales. Así,
Popper se fija en las hipótesis, mientras que un kuhniano, por ejemplo, se fijaría en las
hipótesis auxiliares y condiciones iniciales. Para Popper, la ciencia se fija en las hipótesis,
mientras que Kuhn considera que se fija en los procedimientos.

Otra crítica es la provisionalidad del conocimiento de base. Para Popper, el conocimiento de


base se da por conceptos básicos que tienen el papel de ser enunciados de contraste. Los
conceptos básicos tienen forma de enunciados y deben ser contrastables por observación.
Popper dice que estos enunciados describen algo referido a la posición o movimiento de

35
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

algún cuerpo macroscópico, es decir, describen un acontecimiento, describen que un evento


acontece en una región individual espacio-temporal.

La crítica que se realiza al papel de estos enunciados en la metodología popperiana tiene


varias partes: la primera parte diría que la verdad o falsedad de estos enunciados se decide
por procesos experimentales, y, lo queramos o no, los procesos experimentales involucran
teorías que son conocidas como teorías interpretativas. Por ejemplo, para poner a prueba un
enunciado con la ley universal de la gravedad, tendríamos que tener enunciados básicos tales
como “en el punto espacio-temporal K hay un cuerpo”; así, la verdad o falsedad de este
enunciado presupone teorías de más bajo nivel, como el cálculo infinitesimal y la teoría
óptica, que son las teorías que nos aseguran que la observación es fiable y que el
procedimiento de cálculo de los resultados es correcto. Otro ejemplo es que, para contrastar
la teoría química que supone que los pesos atómicos son números atómicos, necesitamos
presuponer teorías de partículas. Al hablar de esto, el mapa teórico se complica mucho,
porque la teoría ya no estaría en las hipótesis, hipótesis auxiliares, condiciones iniciales y
experimentos en la experiencia, sino que también en la experiencia tenemos teorías, porque
son las que nos permiten dar significado a esos experimentos. Si necesitamos teorías
interpretativas, los enunciados básicos son provisionales, dado que se basan en teorías, y las
teorías son igualmente provisionales.

Esta crítica se enlaza con la segunda parte, concretada en el argumento de la carga teórica de
la observación. La tercera parte de la crítica es la que nos dice que la actitud crítica en ciencia
ha de afectar también al conocimiento base. Esto es, para que los enunciados básicos sean
científicos deben ser también falsables, y si son falsables deben ser provisionales.

Otra cosa importante es connotar el relativismo, ya que ¿cómo se pueden poner a prueba las
afirmaciones que se realizan en ciencia? Hay dos salidas: la posición escéptica o la regresión
ad infinitum, y también puede llegarse a un punto en el que hay que acudir a la admisión de
un cierto grado de relativismo. Popper, para escapar del escepticismo y del regreso al infinito,
afirma que en este punto hay que tomar una decisión convencional que divide a la ciencia en
dos partes:

problemática: teorías contrastadas


no problemática: teorías interpretativas

Aparentemente, esta solución que se propone parece que nos lleva al relativismo para
posibilitar la contrastación en ciencia, pues se necesita acudir a factores epistémicos. Popper
intenta argumentar que su posición no lleva al relativismo, y afirma que esta decisión
convencional debe estar basada en el veredicto mayoritario de los científicos. Pero esta
distinción popperiana también es temporalmente dependiente; por ejemplo, la tesis de la
deriva continental hoy no es problemática, pero si lo fue en los años 20, lo que no quiere
decir que haya vuelta atrás, aunque si la hay en muchos casos. Popper dice que esta
distinción debe basarse en el veredicto mayoritario de los científicos (hasta aquí es lo mismo
que en Kuhn), pero añade que no sólo hay que quedarse en ese veredicto, sino que debe
basarse en lo que él llama la discusión crítica y racional encaminada a maximizar la sencillez
y la contrastabilidad, es decir, que incremente la falsabilidad. De este modo, argumenta a
favor de una posición no relativista, aunque es discutible que esto no sea una forma de
relativismo débil.

Popper reconoce que hay teoría allá donde miremos en ciencia; pero, para resolver el
problema de una base firme, asume que cierta parte de la ciencia es verdadera, sólida, y es

36
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

aquella que respalda los experimentos y la observación, y sobre esta base se respaldan los
resultados teóricos más nuevos.

El convencionalismo de Popper afecta a los enunciados básicos, mientras que el


convencionalismo tradicional afectaba a los enunciados teóricos generales, que eran
asumidos como verdaderos en la práctica científica.

La asimilación de esta critica por parte de Popper nos lleva al Popper2, que asume que en
ciencia tampoco se puede disprobar, no se puede falsar de forma concluyente, aunque
Popper2 nos dirá que la falsación debe ser metodológicamente concluyente, esto es, la
falsación no significa el rechazo, pero sí debería considerarlo. Así, falsar no significa
rechazar, pero sí debería incluir el rechazo. Por tanto, otra característica de Popper2 es la del
falsacionismo metodológico. Popper no pretende describir cómo funciona la ciencia en su
estado óptimo, sino que pretende prescribir cómo debería funcionar la ciencia. Su teoría, el
falsacionismo metodológico, a veces coincide con la práctica científica real y adquiere
carácter descriptivo; pero a veces no coincide y se torna a norma descriptiva. Es importante
resaltar esta vertiente: la parte descriptiva y la parte normativa. Popper pretende describir la
ciencia del pasado y establecer una normatividad de la ciencia, siendo este punto uno de los
que ha sido objeto de crítica por parte de los autores que han escrito en contra del
falsacionismo metodológico.

Con esta crítica al falsacionismo metodológico pasamos al Popper3, de la misma forma que
la crítica al falsacionismo ingenuo nos hizo pasar el Popper2. Se puede interpretar a Popper
en cuanto falsacionismo sofisticado, denominado como Popper3, y cuya característica más
importante es la de resaltar la importancia de los contextos mono-teóricos de contrastación.
Esta crítica dirá que la filosofía de Popper es pura normativa descriptiva, es decir, la ciencia
se ha escrito y se está escribiendo de uno modo distinto al falsacionismo metodológico. Hay
tres observaciones que apoyan esta crítica:

No es infrecuente que se restablezcan teorías que han sido falsadas y rechazadas en el


pasado; por ejemplo, la teoría corpuscular de la luz.

No es metodológicamente concluyente rechazar una teoría que ha sido repetidamente falsada


si no se dispone de una teoría alternativa, y no bastan las buenas razones; por ejemplo, la
anomalía en el movimiento orbital de Mercurio alrededor del Sol.

Las teorías reales demuestran una notable tenacidad, es decir, se elaboran teorías sin tener
demasiado en cuenta las anomalías.

Si anomalía significa rechazo, tendríamos que abandonar toda ciencia, y esto no es una
laguna racional de la ciencia, sino que es una característica racional de la ciencia. Esto se
basa en el método de autodeterminación del campo de aplicación de una teoría: todas las
teorías tienen un campo delimitado y, a la hora de trazar las fronteras, el campo de aplicación
tiene un carácter autodeterminado.

Para trazar el ámbito fenoménico de una teoría hay que saber lo que es una teoría, para lo
cual ésta se entiende bien como una teoría matemática o bien como un conjunto de
aplicaciones empíricas que son sistemas empíricos y que no son independientes de la
estructura matemática. Por ejemplo, la mecánica clásica de partículas, que depende de lo que
entendemos por mecánica clásica; si la entendemos como estructura teórica, será el conjunto
de las tres leyes de Newton y la ley de gravitación; si la entendemos como conjunto de

37
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

aplicaciones paradigmáticas, será el cambio en las mareas, etc. Así, para determinar el campo
de la mecánica clásica de partículas, son imprescindibles estos dos requisitos: teoría
matemática (estructura teórica) y conjunto de aplicaciones paradigmáticas. Con esto, teoría y
experiencia no son independientes. Pero Popper, al mantener el falsacionismo que establece
el abandono de la teoría en el caso de que ésta fuera falsada, concibe teoría y experiencia
como dependientes. Este método de autodeterminación justifica la tenacidad de las teorías
frente a las anomalías.

Una segunda línea de crítica, mejor asumida por Popper, es que el desarrollo de la ciencia, en
contra de Popper2, no es un desarrollo lineal, sino un desarrollo pluralista; esto es, sólo puede
hablarse de falsación y eventualmente de rechazo cuando existe competencia entre teorías.
Esta línea recupera la de las críticas a Popper, y es una crítica asumida por Popper3 frente a
Popper2: en Popper3 unas teorías se enfrentan a otras, mientras que en Popper2 se enfrentan
solas e individualmente al tribunal de la experiencia.

Esta visión de Popper3 la encontramos en “Conocimiento objetivo”, obra en la que distingue


entre: referencia teórica y referencia pragmática, y afirma que desarrollar un criterio de
preferencia entre teorías o hipótesis es algo que debe tener lugar en un contexto no
monoteórico. Si esto es así, entonces el problema de igualar falsación a rechazo evoluciona
en un nuevo problema, el de la referencia en un conjunto de teorías rivales. La forma más
sencilla de interpretar este problema es la interpretación de las teorías a partir de la óptica y
la medición. Ahora hay haces de teorías y, ante la inconsistencia, hay que abandonar alguna
de ellas o reajustarlas.

En “Conocimiento objetivo”, especifica un criterio pragmático de preferencia inter-teórica.


Se trata de un criterio pluralista de acuerdo con el cual, dadas dos teorías rivales T1 y T2, que
son alternativas respecto a la explicación de los tipos de datos empíricos, Popper dice que T1
está falsada si y sólo si: T2 predice hechos no demostrables por T1, T2 explica los aciertos
previos de T1, y si parte del contenido empírico excedente de T2 respecto de T1 (que es lo
que ha sido aseverado en primer lugar) está corroborada. En resumen, para el falsacionismo
sofisticado, una teoría está falsada si y sólo si es sustituida por otra teoría de mayor contenido
empírico corroborado.

Según Lakatos, lo que sugiere Popper3 no es que propongamos una teoría a la naturaleza y
que la naturaleza nos susurre un ineludible sí probabilista o que nos grite un rotundo no a lo
Popper1, sino que lo que hacemos es proponer un grupo de teorías de forma que la naturaleza
nos diga “inconsistente”. Para Popper3, la ciencia no evoluciona por falsación de teorías
mediante hechos, sino por la solución de inconsistencias entre teorías estrechamente
relacionadas. De este modo, podemos decir que a Popper, desde su punto de vista dinámico y
pluralista, no le preocupa tanto encontrar criterios de justificación como el aumento de
conocimiento en ciencia, de ahí que en su obra se pregunte en qué sentido podemos hablar de
aumento o progreso del conocimiento.

Aquí es donde Popper desarrolla su compromiso realista: la ciencia pretende describir la


realidad, es decir, no pretender ser un instrumento útil para el conocimiento predictivo, sino
que pretende describir la realidad a través de conjeturas y refutaciones que llevan a la verdad.
Esta aseveración resume el compromiso realista de Popper, aunque él considere que el
realismo no es una postura demostrable o falsable y reconozca, al tiempo, que el realismo es
objeto de defensa a través de la refutación de su contrario, que él llama el idealismo. Para
Popper, el realismo es la única hipótesis sensata, la única a la que no se ha puesto una
alternativa sensata.

38
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Popper afirma que, como recomendación metodológica, en el campo del realismo se debería
tender a describir y realizar más la realidad, es decir, debería orientarse a la verdad. La
verdad, para Popper, es un principio regulativo inalcanzable, y entiende el concepto de
verdad en un sentido tarskiano, como correspondencia con los hechos. Añade que la verdad o
falsedad son propias de enunciados formulados sin ambigüedad en un lenguaje L sobre el que
podemos hablar en un metalenguaje Lm de dos formas:

Hablando sobre los hechos descritos por L


Hablando sobre los propios enunciados de L

La relación entre los conceptos de verdad y realidad queda clara por los comentarios que
hace Popper en su obra acerca del sentido tarskiano. Afirma: si podemos definir “verdad”
(entendida extensivamente como el conjunto de los enunciados verdaderos) como
“correspondencia con los hechos” (con la realidad), entonces podemos definir “realidad”
como “correspondencia con la verdad”. Para Popper, si bien las teorías no pueden ser
verdaderas, porque no pueden ser demostrables, sí que pueden estar más o menos cerca de la
verdad, es decir, ser más o menos verosímiles o tener un mayor o menor grado de
verosimilitud.

El concepto de verosimilitud es importante en Popper, es una noción que introduce en una


época más cercana y queda recogida en “Conjeturas y refutaciones”, es una idea que quedó
fuera del campo de discusión, aunque más tarde fue muy importante y discutida.

Crítica a Popper2

De Popper1 y su propuesta de falsacionismo ingenuo o dogmático hemos pasado a Popper2,


el cual afirma que la falsación no es lógicamente concluyente, sino metodológicamente
concluyente. De Popper2, a su vez, hemos pasado a Popper3 y la defensa de un falsacionismo
sofisticado que resalta la importancia de los contextos no monoteóricos de contrastación.

El falsacionismo metodológico de Popper2 concluye que si bien falsar no significa rechazar,


sí deberíamos hacerlo, es decir, se recomienda que la falsación sea sinónimo de rechazo. La
teoría popperiana tiene carácter normativo en tanto que Popper no pretende sólo describir
cómo funciona la ciencia, sino que también pretende describir cómo debería funcionar la
ciencia. Su teoría coincide a veces con la práctica científica real y, entonces, tiene carácter
descriptivo; pero a veces no coincide y tiene carácter prescriptivo. Es importante destacar
esta doble vertiente de la teoría popperiana, la parte descriptiva y la parte normativa. Uno de
los puntos que han sido objetos de crítica por parte de los autores que han escrito contra
Popper es el hecho de que éste pretenda que su carácter normativo se basa en la observación
de los descubrimientos relevantes de la ciencia del pasado.

La crítica a esta concepción popperiana consiste en decir que ésta supone una metodología
normativa, es decir, la ciencia real se ha desarrollado y se desarrolla de un modo distinto al
descrito por el falsacionismo metodológico. Hay tres observaciones que apoyan esto:
No es infrecuente que se restablezcan teorías que han sido falsadas y rechazadas en el
pasado. Por ejemplo, la teoría corpuscular de la luz.

39
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

No es metodológicamente concluyente rechazar una teoría que ha sido repetidamente falsada


si no se dispone de una teoría alternativa, y no bastan las buenas razones. Por ejemplo, la
anomalía de la órbita de Mercurio alrededor del Sol.

Las teorías reales demuestran una notable tenacidad, es decir, se elaboran teorías sin tener
demasiado en cuenta sus anomalías. Si anomalía significase rechazo, habría que rechazar
toda ciencia, pues no hay ninguna teoría que no tenga que hacer frente a alguna anomalía, y
esto es una característica de racionalidad de la ciencia. Está basado en lo que se llama el
método de autodeterminación del campo de aplicación de una teoría.

Todas las teorías tienen un campo determinado que se delimita porque este campo de
aplicación tiene un carácter auto-determinado.

Vamos a ver la parte menos técnica, la que no es puro formalismo, acometiendo la cuestión
de la verosimilitud, relacionada con la defensa de Popper del realismo crítico y con el
desarrollo del falsacionismo sofisticado. El concepto de verosimilitud es un concepto lógico,
no epistemológico, que combina los conceptos de contenido y verdad (originales de Tarski):
intuitivamente, una teoría será tanto más verosímil a medida en que más consecuencias
verdaderas se deduzcan de ella y, por tanto, menos consecuencias falsas. De un modo más
técnico, es la diferencia entre dos contenidos de verdad y falsedad de una teoría o clase de
consecuencias, entendiendo por teoría una conjunción finita de enunciados.

Así, es importante distinguir los conceptos de verdad y verosimilitud, dado que, para Popper,
el objetivo de la ciencia es la búsqueda de la verosimilitud, no de la verdad. Popper utiliza los
conceptos de verdad y falsedad para enunciados y para conjuntos de enunciados. Sobre esta
base, Popper reformula su criterio pragmático de preferencia afirmando que dadas dos teorías
rivales T1 y T2, T2 es más verosímil que T1 y, por tanto, preferible a T1, cuando se dan las
siguientes condiciones:
T1 y T2 deben ser comparables en cuanto a las medidas de sus contenidos de verdad y
falsedad.

Debe darse al menos una de estas dos situaciones:


o bien el contenido de verdad de T2, pero no su contenido de falsedad, es mayor que
el de T1.

o bien el contenido de falsedad de T2, pero no su contenido de verdad, es menor que


el de T1.

Este discurso popperiano acerca de teorías más o menos próximas a la verdad y alejadas de la
falsedad, más o menos verdaderas o falsas, parece que rebasa el ámbito de la lógica
bivalente, y esto no es así porque el tercero sigue estando excluido. Una teoría es literalmente
falsa cuando tiene al menos un enunciado falso, pero una teoría es más o menos falsa según
la cantidad de enunciados falsos que tenga.

A partir de aquí, la cosa se complica con ejemplos de difícil elaboración y se convierte en una
discusión muy técnica. El planteamiento de la discusión técnica es el siguiente: tenemos una
constante (a), una variable (x) y un lenguaje artificial (L). Se utiliza (A) para hacer referencia
a la clase consecuente o de consecuencia de (a), y, de este modo, la primera definición es que
el contenido de (a) es:

40
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Cn (a) = {x | a ∴ x} = A

Si tenemos un enunciado verdadero, por ejemplo, (t), su clase de consecuencia sería (T) en
(L). Así, el contenido de verdad de una clase consecuente puede definirse como la
intersección entre la clase consecuente de (a) y los enunciados verdaderos en (L):
Cn T (a) = A ∧ T

Una primera dificultad que se plantea es si se puede definir de manera análoga el contenido
de falsedad, algo que no puede ser porque a partir de un enunciado falso se puede inferir uno
no falso:
Cn F (a) = A ∧ F

La definición más aceptada para definir el contenido de falsedad sería:


Cn F (a) = Cn (a) – Cn T (a)

Esta es una introducción muy general a la definición de verosimilitud en términos lógicos. Se


introduce una medida del Cn definiendo, para ello, una función de probabilidad lógica que
disminuye a medida que aumenta el contenido. Es necesaria la medida, puesto que la
estimación de la verosimilitud es comparativa de unas teorías respecto a otras. La medida de
contenido es la siguiente:

Ct = medida del C
Ct (a) = 1 – P (a)

El contenido es un concepto contrario al de probabilidad lógica, pues el contenido de (a) y el


de (t) es menor que el de (a ∧ b). Esto es lo inverso de lo que ocurre con la probabilidad:

Ct (a) ≤ Ct (a∧b) ≥ Ct (b)


P (a) ≥ P (a∧b) ≤ P (b)

Por ejemplo, el contenido de una tautología sería:


Ct (t) : tautología
Ct (1): contradicción
Ct (t) = 1 – P(t) = 1 – 1 = 0
Ct (1) = 1 – P (1) = 1 – 0 = 1

De aquí, Popper afirma que la medida del contenido de cualquier enunciado es un valor entre
el intervalo cerrado entre 0 y 1:
0 ≤ Ct (a) ≤ 1

A partir de aquí, la verosimilitud Vs:

Vs (a) = Ct T (a) – Ct F (a)

Vs también es un intervalo cerrado cuyos valores extremos serían, por un lado, la


verosimilitud de la tautología (-1) y, por otro, la de una contradicción (0).

-1 ≤ Vs (a) ≤ 1

41
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Dados dos enunciados (a) y (b), Popper dirá que Vs (a) es menor que Vs (b) si y sólo si se da
una de las siguientes situaciones:
Ct T (a) < Ct T (b) y Ct F (a) ≥ Ct F (b)
Ct F (b) < Ct F (a) y Ct T (b) ≥ Ct T (a)

Esto es muy difícil de objetivizar. Popper no trataba de sacar adelante un marco operativo
útil, sino que trataba de rehabilitar un concepto filosófico sospechoso e importante para el
realismo científico: el concepto de verdad.

Popper3 no se ve, tampoco, libre de críticas. Por ejemplo, se le critica al falsacionismo


sofisticado que el concepto de verosimilitud no resuelve el problema de la continuidad de la
ciencia. Muchos autores consideran que Popper3 no hace frente a problemas como el de la
tenacidad de las teorías o el de la autodeterminación del campo de aplicación de las teorías.

Problema de las unidades de selección

En este tema se hace imposible no hacer referencia a Darwin, el cual no fue quien dijo por
primera vez “la supervivencia del más apto”, sino que rescató esta frase de Spencer. Popper
afirma que esta frase es tautológica, pero ¿a quién se refiere con “más apto”? Lo más obvio
es pensar en los individuos (fenotipos), pero podrían ser los caracteres de los individuos. Otra
opción sería la información genética (genotipos), y también podría pensarse que son los
cromosomas individuales o, quizá, los genes. Si atendemos a un orden más complejo,
diríamos que las familias, los grupos sociales o, a lo mejor, las especies. Así pues, ¿quién
compite? Esta es una pregunta que Darwin dejó deliberadamente abierta conformando el
problema de la unidad de la selección.

No siempre lo mejor para los genes es lo mejor para la especio o para los individuos; por
ejemplo, la maternidad ordinaria es buena para el individuo, pero quizá no para la familia; y
una adopción de un individuo sin parentesco es buena para el individuo, mientras que no lo
es para los genes en cuanto que no se transmiten los genes de la familia.

Los biólogos evolucionistas tienen un consenso metodológico: no conviene asumir la


adaptabilidad en un nivel superior, por lo que la explicación a nivel genético es mejor que a
nivel de individuo o especie. Se ha llegado a decir, desde una interpretación radical, que el
gen es la unidad básica en la lucha por la vida (una gallina es la forma que un huevo tiene
para producir otro huevo). Pero nn etología/ecología, hay un hábito muy resistente al uso de
unidades básicas para explicar ciertos caracteres según ciertas evidencias evidencias:
En condiciones naturales, las poblaciones no presentan fluctuaciones bruscas de tamaño. Una
población estable corre menos riesgo de sobreexplotar los recursos.

El tamaño de la población suele estabilizarse antes de que los alimentos se agoten. Esto
ocurre porque o bien el tamaño de la puesta o la comanda disminuye en poblaciones elevadas
o bien porque una parte no consigue reproducirse con éxito.

42
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Parecía imposible explicar este fenómeno sobre individuos o unidades más básicas. Se denomina
“selección de grupo” a la situación en la que hay un altruismo individual y un egoísmo grupal.
La competición no es entre individuos, sino entre grupos de individuos: los que luchan, los más
aptos, son los grupos, y sólo así se puede explicar el sacrificio del individuo por el grupo.

C.Lack ha puesto en entredicho esta teoría de la selección individual, afirma que no hay que
acudir al nivel del grupo y hablar de altruismo individual para explicar el control en los
tamaños de población. Las poblaciones pequeñas de algunas aves pueden maximizar mejor el
número de polluelos que llega a adultos en condiciones de escasez, y estas aves no son
altruistas, sino egoístas individuales, siendo las aves que desarrollan este comportamiento las
que más posibilidades tienen de transmitir sus genes.

Estos son los contextos monoteóricos, tenemos dos teorías con explicaciones alternativas
para unos mismos hechos: la regulación de la población en condiciones difíciles y el
mantenimiento constante en condiciones naturales (población estable). Por tanto,
necesitamos buscar un contexto de observación en el que una teoría diga A y la otra diga ¬
A, es decir, un experimento crucial.

Putnam afirma que el modelo popperiano del cambio científico es un modelo heroico, siendo
más realista debe explicar los hechos a partir de las leyes (cambiando hipótesis auxiliares,
etc.). Necesitamos idear una observación en que se contradigan ambas teorías, y para diseñar
esto se necesita un componente creativo por parte del científico. R. Alexander afirma que hay
que buscar poblaciones que se reproduzcan una vez en la vida y ver si, en condiciones
difíciles, disminuye su puesta o camada; en caso de que fuera así, la teoría correcta sería la
selección de grupo, y el caso contrario sería la de la selección individual. El salmón sólo se
reproduce una vez en la vida y, por difíciles que sean las condiciones, no reducen la puesta; y,
también, hay una mosca que es devorada por sus larvas, de modo que en lo único que piensa
es en la transmisión de génesis. Así, hemos obtenido una corroboración de la selección
individual a costa de una falsación de la selección grupal.

43
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Tema 5: Lakatos. Programas de investigación

Imre Lakatos es un autor húngaro que desarrolló su trabajo en la London School of


Economics, y, junto con Feyerabend, es uno de los popperianos más fructíferos desarrollando
las ideas de Popper acerca de la naturaleza de la ciencia. Lakatos hace frente a las amenazas
que plantea el relativismo tomando en serio a Kuhn y releyendo con lentes popperianas.
Lakatos ha sido el popperiano más influyente de cuantos hubo.

Lakatos parte del falsacionismo sofisticado llevando esta idea más allá de lo que lo hizo
Popper en “Conocimiento objtivo”, donde decía que hay que pensar en series de teorías y no
en teorías aisladas. Asimismo, Lakatos afirma que la unidad de análisis no pueden ser las
teorías aisladas, sino las series de teorías que forman los programas de investigación. Con la
evolución del positivismo al empirismo lógico, hasta las posiciones maduras de Hempel o el
falsacionismo de Popper hacen que las teorías, no las oraciones, sean tomadas como
elementos mínimos de análisis. Pero Lakatos propone un paso más: la unidad de análisis
deben ser los conjuntos de conjuntos de enunciados, es decir, conjuntos de teorías, pues sólo
de éstas puede decirse que progresan o degeneran, que son científicas o no.

Para Lakatos, el problema fundamental de la filosofía de la ciencia es el problema de la


demarcación, algo que él entiende como establecer condiciones necesarias para poder decir
que una teoría es científica (según Popper, qué poner dentro y qué fuera). Lakatos afirma que
este problema forma parte de otro más general como es la comparación de teorías. Tanto en
un caso como en otro, nos preocupa la cientificidad, por lo que en “Matemáticas, ciencia y
epistemología” aborda tres grandes tradiciones ante el problema de la demarcación:

Demarcacionismo (Popper y Lakatos): es posible evaluar las teorías científicas con


criterios objetivos y universales, criterios independientes de deseos, impresiones, etc.,
de modo que se presupone la existencia de normas explícitas de racionalidad
intersubjetiva.

Elitismo (Kuhn): coincide en gran medida con el pragmatismo y supone que las
teorías sí pueden ser evaluadas, aunque no existen criterios objetivos para tal cosa,
por lo que la ciencia sólo puede ser juzgada por los casos particulares siendo los
únicos jueces los científicos, los cuales son la elite que decide qué teoría es mejor, qué
es ciencia y qué no lo es.

Escepticismo (Feyerabend): no sólo no existe tal criterio objetivo, sino que además no
puede haber solución al problema de la demarcación, pues ningún criterio tiene
superioridad epistemológica. Por tanto, ni siquiera los científicos tendrían por qué
compartir un mismo código.

Lakatos, para dar su respuesta falsacionista, toma como apoyo el falsacionismo sofisticado de
Popper. Además, es un autor post-kuhniano y tiene muy presente la obra de éste. Acomete su
estudio de la ciencia a partir de casos históricos particulares y ve que la ciencia real no
siempre se acomoda al patrón de objetividad y racionalidad que busca en ella. Lakatos
44
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

reconoce ciertos rasgos de irracionalidad que, según él, son exagerados en Kuhn. Divide la
ciencia en interna y externa afirmando que toda concepción histórica está inevitablemente
distorsionada, es deformada por idealizadora. En la ciencia real hay patrones de conducta
racional, pero en ella también encontramos científicos movidos por aspiraciones no tan
racionales (ambición, notoriedad, convicción religiosa, etc.). Así, el papel del filósofo de la
ciencia es el de la reconstrucción racional, por eso debe maximizar la historia interna
(normas, objeto de estudio) minimizando su historia externa (sociología).

Factores epistémicos: utilidades cognitivas. Son relevantes en el contexto de la historia


interna.

inferencia inductiva (experencial)


razonamiento deductivo (lógica)

Factores no epistémicos: factores sociales que suponen un cajón-de-sastre que Lakatos


etiqueta genéricamente de socio-psicológicos (cuestiones ideológicas, políticas, económicas,
expectativas profesionales, lealtad al director de la tesis, etc.) Son relevantes en el contexto
de la historia externa.

Lakatos reconoce la existencia de estos dos tipos de factores en la historia de la ciencia, y


señala que la historia externa también está presente en el curso real de la ciencia, pero que la
tarea del filósofo es maximizar la historia interna y minimizar la externa tratando de producir
el mínimo de distorsión posible, el cual se asume como un mal necesario por parte de
Lakatos. Según éste, la herramienta que debe seguirse para conseguir esto, para sacar
adelante una reconstrucción racional de la historia de la ciencia, es la que él desarrolla en el
curso de su obra y que recibe distintos nombres: metodología de los programas de
investigación científica.

A la hora de plantear su metodología, comienza argumentando a favor de una visión no


monoteórica. Lakatos dice que si, a la hora de hablar de progreso en ciencia, es decir, de si
una teoría es más o menos científica que otra, debemos abandonar una visión monoteórica,
entonces también debemos hacerlo a la hora de hablar de la demarcación, que es el caso cero
del progreso. Por tanto, no es de teorías aisladas de las que decimos si son científicas o no,
sino de series de teorías, y el término “serie” introduce una connotación temporal en tanto
que una serie es una colección ordenada temporalmente. Estas series de teorías se sueldan
formando programas de investigación científica, y esta red será la unidad de análisis
metodológico que utilice Lakatos.

Lakatos afirma que un programa de investigación es aceptable si conduce a un cambio-de-


problemas que él denomina progresivo, es decir, que su desarrollo teórico anticipe su
desarrollo empírico. Ahora bien, para que esto sea así, deben darse dos condiciones:
Que se de un mayor contenido empírico de cada teoría respecto a su predecesora, es decir,
que se predigan nuevos hechos.

Que parte de ese contenido empírico excedente esté corroborado, lo que significa que parte
de esas predicciones tengan éxito.

Cuando se dan estas dos condiciones, podemos decir que el desarrollo teórico va por delante
del empírico y, por tanto, un programa de investigación es aceptable o progresivo. En caso
contrario, se dirá que el programa de investigación es degenerativo, caso típico cuando sólo
se producen explicaciones “post hoc” bien de descubrimientos casuales o de hechos

45
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

descubiertos por un programa rival. En resumen, se conciben los programas de investigación


como series soldadas de teorías que tienen una evolución temporal en la que las teorías
predecesoras van sustituyendo a las antecesoras, que pueden entrar en conflicto con
programas rivales en los cuales cada teoría de la serie está falsada respecto a la teoría que la
sucede. De cada teoría, la teoría sucesora es una especialización, una eliminación de errores
de la antecesora.
T1, T2, T3,..., Tn

T1´, T2´, T3´,…, Tn´

Otro concepto importante de la metodología de Lakatos es el conjunto de reglas


metodológicas, que son lo que nos permite identificar un programa de investigación. Lakatos
afirma que de estas reglas metodológicas emana la continuidad de la serie, por lo que las
reglas metodológicas son el criterio fundamental para identificar programas de investigación
y, además, nos dicen dos tipos de cosas:

Qué vías o caminos de investigación han de evitarse (heurística negativa)


Qué vías o caminos de investigación han de seguirse (heurística positiva)

La heurística negativa especifica el núcleo del programa, que es irrefutable por decisión
metodológica, normalmente implícita. Lakatos prohibe al científico dirigir el modus tollens
hacia las leyes fundamentales del programa. Estos núcleos de leyes fundamentales están
rodeados de cinturones protectores que deben ser el objeto, según la heurística negativa, del
fracaso, y contra el que dirigir el modus tollens. Las hipótesis auxiliares y las condiciones
iniciales formarían parte de ese cinturón, y serían el objeto de aplicación del modus tollens;
esto es, la heurística negativa nos dice que conservemos la ley fundamental, muy valiosa, y
comencemos sospechando de las hipótesis auxiliares o de las condiciones iniciales.

Este convencionalismo por el que aboga Lakatos está en las antípodas del convencionalismo
por el que aboga Popper, pues Lakatos está más cerca del convencionalismo tradicional de
Duhem o Poincaré. Ahora bien, a diferencia del convencionalismo clásico, Lakatos afirma
que el suyo es una cuestión lógica y empírica, pues esa decisión convencional (la de no
dirigir el modus tollens al núcleo del programa) sólo protege el núcleo en la medida en que
nos encontremos frente a un cambio-de-problemas progresivo. Es decir, la refutación no debe
dirigirse al núcleo mientras siga aumentando el contenido empírico corroborado del proceso.

La heurística positiva consiste en un conjunto parcialmente articulado de sugerencias o


indicaciones sobre cómo desarrollar variantes refutables del programa de investigación, sobre
cómo modificar y sofisticar el cinturón protector. Estas sugerencias normalmente se
concretan en aplicaciones ejemplares, analogías fructíferas, etc. Para Lakatos, es la heurística
positiva, no las anomalías, la que dicta la elección de un programa; ésta, según un plan
preconcebido, prevé las anomalías y las transformaciones en aplicaciones del núcleo. Para
explicar el modo en que funciona la heurística positiva, habla de cadenas de modelos (podría
identificarse como un programa de investigación o con uno de los componentes de un
programa de investigación).

La idea de cadena de modelos no es exclusiva de Lakatos, el cual pone un ejemplo: la


identificación mecánica de los movimientos planetarios. Él se fija en un aspecto del
programa de identificación de Newton. Primero, tendríamos un modelo planetario con un
punto fijo, el Sol, y un solo punto como planeta, y el núcleo del programa permanece
constante. Mediante este modelo, Newton fue capaz de deducir la ley del universo del

46
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

cuadrado para las órbitas elípticas de Kepler, pero este modelo constituía una excesiva
simplificación del sistema estudiado. En una posterior elaboración del programa, en un
segundo modelo, tenemos que tanto el Sol como el planeta giran en torno al centro de
gravedad del sistema formado por ambos cuerpos. Pero este modelo continúa siendo una
excesiva simplificación, por lo que habría un tercer modelo. En el tercer modelo, Newton
introduce más planetas, pero sin fuerza planetaria. Sin embargo, este modelo continúa siendo
de una excesiva simplificación. Así, nuevas elaboraciones del programa consistirían en
nuevos modelos en los que se iría introduciendo, progresivamente que: tanto el Sol como los
planetas ya no sean puntos-masa, sino esferas de masa; se introducirían esferas de rotación y
oscilaciones (aún en un nivel de idealización alto); se tendrían en cuenta fuerzas
interplanetarias y perturbaciones; se cualificaría esas esferas-masa y se introducirían planetas
irregulares, etc.

Cada uno de estos modelos está condenado a ser sustituido por otro más complejo en el
desarrollo del programa, por lo que Lakatos afirma que la refutación no es importantes,
porque las anomalías están previstas de antemano; pero, mientras continuemos sabiendo las
anomalías que vamos a tener, nuestro programa de investigación irá por buen camino. Esto
es, sólo cuando nos encontremos con hechos imprevistos presentados por un programa rival,
nuestro programa de investigación entraría en una fase degenerativa.

El desarrollo de una de estas cadenas de modelos puede ser entendido como un evento de la
sofisticación del número de supuestos y de hipótesis auxiliares. Para Lakatos, es el éxito en
desarrollar esos nuevos conjuntos de hipótesis auxiliares y condiciones iniciales para un
núcleo lo que garantiza un creciente contenido empírico corroborado y, por tanto, la
inmunidad del núcleo. Si la cadena se estanca, una vez falsado el último modelo de esa
cadena, un modelo que nace ya falsado, entonces el modus tollens debería dirigirse contra el
núcleo. Cuando la heurística positiva se estanca, comienza a prestarse más atención a las
anomalías que, al irse acumulando, comienzan a hacer imposible continuar con un programa
de investigación. Obviamente, incluso con un programa de investigación progresivo, hay
anomalías imprevistas, pero éstas se aparcan en espera de tiempos mejores teniendo en
cuenta que cuando ya no hay más sitio para aparcar se entra en la fase degenerativa. No
obstante, es lógico que se haga caso omiso de las refutaciones.

Otro tema que se aborda es el de los experimentos cruciales. Lakatos dice que un
experimento crucial sólo lo es para una teoría en el contexto de un programa de
investigación, pero esta visión contextualizada de los experimentos cruciales hace concluir
que los experimentos cruciales sólo lo son de un modo retrospectivo. Así, el experimento
crucial resulta negativo para una teoría y positivo para la contraria, lo cual no quiere decir
que por un resultado adverso a nuestra teoría, deba abandonarse esta teoría, pues el
experimento crucial no es relevante para abandonar la teoría, y sólo será relevante cuando
este experimento crucial sea perjudicial para el programa haciendo que éste degenere.

Para Lakatos, un programa de investigación estancado aún puede ser recuperado, y hay
muchas formas de seguir sacándolo adelante; es decir, hay muchas formas de seguir
sofisticando el cinturón protector que nos permite seguir hablando de una progresión teórica.

Por tanto, no es irracional hablar de incongruencias y contradicciones en un programa de


investigación. De este modo, no podemos decir que un programa de investigación no puede
ser recuperado, sino que sólo retrospectivamente y con mucho tiempo por delante podemos
decir que ese programa ya no va a salir de su estado degenerativo. Todo esto hace que
Lakatos haga una petición de tolerancia.

47
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Esta reflexión de Lakatos sobre los experimentos cruciales es muy importante porque es lo
que le lleva a abandonar lo que él denomina racionalidad instantánea. Afirma que, en ciencia,
no hay racionalidad instantánea, del mismo modo que un experimento crucial que se
considera de determinada manera produce un resultado negativo, solo en estos casos
podemos decir que un resultado adverso fue decisivo o no. Esta reflexión es la que le
conduce a su visión no monoteórica en filosofía de la ciencia.

En un sentido lakatiano, autores como Irene Szumilewicz dice lo mismo que Lakatos de los
experimentos cruciales, pero de los aportes revolucionarios, estableciendo que de un aporte
revolucionario sólo se dice que lo fue retrospectivamente. También afirma que no
disponemos en ciencia de racionalidad instantánea, es decir, que un aporte no es decisivo en
el momento en el que se da, sino que ha de pasar mucho tiempo para que se vea si un
experimento crucial o algo semejante es decisivo o no lo es. Por ejemplo, los premios Nobel
se otorga a un determinado señor décadas después debido a que sus logros son importante
mucho tiempo después de que se haya hecho efectivo su descubrimiento, no en el momento.

Otro punto importante en la filosofía de Lakatos es un intento de autojustificación. Dice que,


del mismo modo que la ciencia puede ser entendida a través de su método de programas de
investigación, lo mismo podemos hacer con la filosofía de la ciencia. Lakatos se pregunta
¿qué puede decir un método a favor de mi propuesta para la filosofía de la ciencia? y, así,
establece que tiene una visión filosófica diferente de la positivista, etc., de la ciencia, esto es,
lo que él llama la metodología de programas de investigación científica. Ve que el progreso
temporal de la ciencia es como el cambio de los problemas que se dan en la ciencia, ve un
progreso en el cambio científico, que es el desarrollo de los problemas temporalmente.

T1, T2, T3,..., Tn


t ---→
P1, P2, P3,…, Pn
t ---→

Clasifica los elementos filosóficos a través del tiempo y que su filosofía es el punto de
llegada porque conduce a un cambio de problemas mejor en la filosofía de la ciencia. Así, se
justifica. De un modo crítico, Lakatos utiliza sus propios cánones para establecer esto. Esta
propuesta de Lakatos ha sido recogida recientemente por L. Laudan. Quiere, junto con sus
colaboradores, sacar adelante una filosofía contrastable en ciencia, donde el desarrollo
teórico anticipe el desarrollo empírico, es decir, lo que Lakatos llamaría un desarrollo
progresivo en filosofía. Además, este debe ser un desarrollo capaz de hacer predicciones y
saber si éstas tienen éxito o no lo tienen.

48
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Tema 6: Feyerabend. Anarquismo epistemológico

Paul Feyerabend fue muy amigo de Lakatos, y también pluralista teórico, aunque mucho más
radical que éste último, quizás porque vivió más. Feyerabend es el autor más famoso del
anarquismo metodológico (todo vale), es bastante provocador y heterodoxo. Su obra en
español es abundante. Su pensamiento evoluciona y, hasta 1970, es sobre todo un crítico del
empirismo lógico que sigue de cerca las ideas de Popper pero introduciendo innovaciones.
Sin embargo, a partir de 1970 se aleja ya mucho de Popper y postula su propio enfoque, lo
que llamó anarquismo metodológico. Así, hay dos Feyerabend: del año 58 al 70 es
antipositivista y popperiano, y a partir del año 70 postula el anarquismo metodológico.

Nosotros trataremos sobre el primer Feyerabend, el más gris y popperiano, mientras que el
segundo es más crítico y revolucionario.

Feyerabend escribía artículos muy largos que, habitualmente, desarrolla un poco más
publicándolos en forma de libro.

El Feyerabend antipositivista y popperiano apunta la crítica sobre la visión acumulativa del


desarrollo de la ciencia, visión del empirismo lógico y también de Kuhn respecto al
desarrollo de la ciencia en el tiempo. Feyerabend afirma que esta visión se establece sobre
una tesis que es la del desarrollo por reducción, donde se reconstruyen las disciplinas en
general (las distintas partes de la ciencia) como evoluciones teóricas. En estas evoluciones
teóricas, partimos de una teoría T0 de la que, con el paso del tiempo, se van produciendo
versiones cada vez más articuladas y más comprensivas hasta llegar a la teoría actual (TA).

En esta serie, si tomamos de ella un elemento cualquiera (Ti), éste debe constituir siempre
una extensión teórica y empírica de su correspondiente elemento antecesor (Ti-1). Esto es,
esta tesis del desarrollo por reducción exige que cada una de estas evoluciones teóricas
cumplan dos requisitos:

Extensión empírica: toda aplicación propuesta por Ti-1 corresponde al menos a una
aplicación propuesta para Ti, es decir, debe producir una extensión empírica.

Extensión teórica o explicativa: todo lo que Ti-1 dice acerca de una aplicación dada puede
deducirse de lo que Ti diga acerca de cualquier aplicación correspondiente.

Por un lado, lo que nos dice esta tesis es que, si tomamos una serie de lo que sea y podemos
fijar un punto cero (teoría de la que parte una disciplina), entonces hay un arranque
convencional porque a partir de él se da la teoría. Así, lo que Feyerabend nos dice es que en
la siguiente serie:

49
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

T0, T1, T2, ..., Tn


Ti-1, Ti, Ti+1,…, Tn

Ti tiene que tener la misma extensión o mayor que T0, debe haber cada vez más extensión a
medida que va aumentando esta serie de teorías. Por otro lado, también nos dice que debe
existir una relación de reducción en la que cada uno de estos escalones se reduzca al
siguiente, es decir, se puede deducir el eslabón teórico antecesor desde el eslabón sucesor, de
modo que deducimos T0 desde T1. Por ejemplo, la evolución de la física.

Para Feyerabend, la evolución en ciencia significa extensión empírica y extensión teórica.


Una teoría no sólo debe tener más extensión que la anterior, sino que también debe dar
cuenta de determinadas cosas de las que la anterior no daba cuenta. Por ejemplo, Galileo no
podía explicar las mareas, algo que sí hace la mecánica clásica de Newton. Pero Feyerabend
también dice que el desarrollo de esta tesis depende de que se cumplan dos condiciones, las
condiciones de E. Nagel que tienen los empiristas lógicos:

Consistencia: en un dominio empírico dado, sólo son admisibles aquellas teorías que o bien
contienen a las teorías ya usadas en este dominio o bien son consistentes con ellas.

Invarianza del significado: en las teorías que se apliquen sobre un mismo dominio empírico,
los significados de los términos descriptivos han se ser invariantes.

Feyerabend dice que estas dos condiciones son necesarias para asegurar la derivabilidad que
requiere la tesis del desarrollo por reducción. Aquí termina el desarrollo que lo que se
propone criticar; y, a partir de aquí, ataca estos pilares, estas condiciones de la visión
acumulativa de la ciencia, que él dice que son las condiciones de consistencia y de invarianza
del significado. Para Feyerabend, estas condiciones no se cumplen nunca, sino que describen
una ciencia fantástica que poco tiene que ver con la ciencia real, por lo que dirige su crítica a
cómo, en la ciencia real, esas condiciones ni son el caso ni deberían serlo, porque no nos
sirven para describir la ciencia del pasado ni para re-escribir lo que debería ser la ciencia.

Feyerabend critica la condición de la consistencia afirmando que es una manifestación del


empirismo radical o positivismo, y bajo esta condición subyace una convicción: una teoría,
una vez que ha sido altamente confirmada en un dominio empírico, debe mantenerse hasta
que hechos nuevos la refuten. El problema es que esta convicción que obliga a mantener una
teoría lleva consigo la prohibición de proponer teorías alternativas nuevas en tanto se siga
manteniendo la vieja teoría, y es aquí donde funciona la consistencia, pidiéndonos que
cualquier propuesta teórica sea consistente con la vieja teoría en tanto la sigamos
manteniendo. Por lo tanto, la condición de consistencia, al prohibir el empleo simultáneo de
teorías mutuamente inconsistentes, nos fuerza a limitar la ciencia al empleo de un solo
conjunto de teorías consistentes entre sí.

Feyerabend dice que la ciencia no cumple la condición de consistencia y pone varios


ejemplos de ello. Por ejemplo, lo que media entre la mecánica de Newton y la mecánica
relativista, que son inconsistentes, y de haber sido consistentes jamás podrían haber sido
propuestas. Hay teorías nuevas que son propuestas y que son inconsistentes con las teorías
anteriores, y se va mostrando cómo las teorías antecesoras son falsas en relación con las
teorías sucesoras, por lo que las teorías sucesoras son inconsistentes con las teorías
antecesoras. Además, la noción de consistencia es imposible para recomendación
metodológica, pues lo contrario sería irracional: el pretender que las teorías nuevas

50
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

concuerden con las viejas favorece lo viejo, no lo mejor, y se estaría preservando lo antiguo y
familiar por el mero hecho de ser antiguo y familiar.

Feyerabend se pregunta qué clase de argumentación se puede mantener para postular la


recomendación metodológica de la consistencia. Cree que si se mantiene esto es porque los
científicos están convencidos de lo que él denomina el principio de los hechos, es decir,
postulan la consistencia de acuerdo con los hechos sin que vean necesidad en invertir
esfuerzos en teorías, pues ya hay teorías, y la única razón para establecer teorías es que la
teoría y los hechos no concuerden. Pero, puesto que nuestras viejas teorías no están en
desacuerdo con los hechos, entonces no hay razón para entender que una nueva teoría vaya a
suponer una mejora efectiva. Así, en la base de este razonamiento de coste-beneficio se
encuentra el presupuesto de que esa discusión sobre hechos, no sobre hipótesis o teorías
incompatibles, es lo que hace progresar a la ciencia. Es decir, en la base está lo que
Feyerabend llama el principio de autonomía de los hechos, que supone que los hechos están
ahí, a nuestra disposición, con independencia de nuestra disposición y teorías. De este modo,
los hechos serían autónomos y nos permitirían someter a prueba nuestras teorías. Pero, si este
principio no es cierto, lo que estaría en la base sería la discusión entre teorías. Para
Feyerabend, este principio no se mantiene, pues los hechos no son autónomos con respecto a
las teorías, y además (añade un paso obvio) hay muchos hechos que se presentan como
nuevos y que sólo están disponibles a través de teorías alternativas.

Feyerabend se comporta aquí como un buen popperiano afirmando que, si el progreso en


ciencia se debe a la confrontación con los hechos, en la medida en que los hechos dependen
de las teorías, ese progreso será maximizado y optimizado a través del pluralismo teórico, es
decir, favoreciendo el pluralismo teórico alrededor de la teoría que está siendo objeto de
desarrollo o contrastación. Este pluralismo teórico de Feyerabend descansa en gran parte
sobre la frase: “todo vale”, que sólo es un argumento a favor del pluralismo teórico.

Feyerabend extiende su crítica a la ciencia normal de Kuhn, duda que haya una ciencia
normal y afirma que, si la hubiera, sería indeseable, puesto que la ciencia normal asume la
consistencia.

Feyerabend también critica la condición de invarianza del significado afirmando que


tampoco se cumple en la ciencia real y, además, es indeseable como recomendación
metodológica. Según Feyerabend, esta condición depende de un fantasma que fue puesto en
circulación por el empirismo lógico y del que no se han librado muchos autores, a saber, el
fantasma de la existencia de un lenguaje de observación teóricamente neutral, un lenguaje
que puede ser una base para verificar o falsar nuestras teorías. La crítica a este lenguaje es
también la crítica que se da al argumento de la carga teórica de la observación. De este modo,
la filosofía de la ciencia del segundo Feyerabend supondrá el intento de desarrollar un
análisis popperiano de la ciencia que no presuponga este lenguaje, y la dinámica de este
intento le llevará a alejarse de Popper y a posicionarse en un lugar antagónico.

Feyerabend dedica mucho espacio a discutir el lenguaje de la física, sobre todo con el
concepto de masa: este concepto es una propiedad de los objetos en la mecánica de Newton,
mientras que en la mecánica relativista deja de ser una propiedad para convertirse en un una
relación (depende de la velocidad de un objeto respecto de un sistema de coordenadas dado).

Feyerabend dice que, aún haciendo el esfuerzo por establecerla como relación, la masa de las
dos mecánicas tampoco sería lo mismo, pues se impondrían distintas leyes de transformación
para una masa y para otra.

51
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

El principal argumento crítico es que no hay un lenguaje de observación neutral, puesto que
el significado de cada término descriptivo depende de cada contexto teórico en el que ocurre.
Por tanto, hemos de observar que la condición de invariabilidad no se cumple y, si esto es así,
la condición de consistencia tampoco, porque la condición de invariabilidad es necesaria para
la condición de consistencia, es más importante y tiene un papel más fundamental. De este
modo, postular como principio metodológico la invariabilidad de significado es propiciar el
estancamiento de las teorías científicas. Feyerabend defiende un flujo bidireccional entre
teorías y experiencia, y supone que reconocer este flujo muestra aún con más claridad la
irracionalidad de la condición de invariabilidad, porque, dado que todo cambio que se da en
una teoría modifica el significado de los términos, admitir la invariabilidad significa detener
los cambios de las teorías.
En “Problemas del empirismo” (1965), Feyerabend afirma que “todo vale” no significa que
todo deba ser aceptado. En esta obra ensaya una concepción alternativa de la ciencia que le
permite articular un criterio alternativo de evaluación de las teorías, es decir, una nueva
filosofía de la ciencia en la que las teorías resulten también aceptadas o rechazadas sobre la
base de las observaciones. Sin embargo, al final, tomará una posición escéptica.

Feyerabend aborda el problema de hallar algún tipo de demarcacionismo con el que mantener
la inexistencia de un lenguaje neutral, desarrollando la teoría pragmática de la observación.
En esta teoría acuerda un estatus especial para los enunciados de observación en la puesta a
prueba de las teorías e hipótesis, pero Feyerabend difiere en el carácter de esos enunciados de
observación, porque, si fuera así, esos enunciados deberían versar sobre impresiones
sensoriales y, sin embargo, lo que podemos utilizar para poner a prueba una teoría no son
impresiones sensoriales, sino fenómenos.

Feyerabend caracteriza a los enunciados de observación de un modo pragmático, pues no se


fija en su contenido, sino en las circunstancias de su producción. Afirma que las sensaciones
son indicadores de estados y de situaciones, con lo que, para puedan ser útiles en una
contratación, las sensaciones deben ser interpretadas. Esta interpretación es la que llevan a
cabo los enunciados de observación, que es una respuesta causal o comportamental para una
sensación dada en un contexto teórico determinado. Feyerabend explica en qué consisten
esos enunciados explicando el carácter empirista de la ciencia: los enunciados de observación
son respuestas causales o comportamentales para esas sensaciones que son la base empírica
de la ciencia, y esas sensaciones dependen de la teoría en la cual se incorporan, pues ésta
determina el significado de los términos que confluyen en ella.

Hay que tener en cuenta que en Feyerabend hay una relación entre teoría y experiencia; por
ejemplo, el enunciado “un objeto tiene masa” supone interpretar el objeto como un objeto
que se comporta de acuerdo con leyes y regularidades características de la masa en el
contexto teórico en el cual aparece, que es el de la mecánica de Newton. De este modo, los
enunciados de observación se extrapolan más allá de las observaciones, interpretando las
sensaciones y propiedades como hechos objetivos que funcionan de acuerdo con leyes
características. Por tanto, Feyerabend está caracterizando a los enunciados de observación
como enunciados teóricamente dependientes, como enunciados que dependen siempre de una
teoría.

Estos enunciados, para Feyerabend, son la base empírica, por lo que se pregunta: si
establecemos estos enunciados como base empírica, cómo podríamos desarrollar un criterio
de demarcación y comparación teórica entre teorías. Dice que la forma de ver el mundo
depende de cosmovisiones, visiones globales que, a su vez, se edifican sobre presupuestos

52
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

(Weltanschaung), por lo que, si esto es así, cuando tenemos que comparar teorías de bajo
nivel es totalmente soluble. La carga teórica de los enunciados de observación puede ser la
cosmovisión, en el seno de la cual aparecen teorías de bajo nivel que pueden ser comparadas.

El problema se plantea cuando se intenta comparar cosmovisiones, teorías de alto nivel, que
no poseen una globalidad mayor; es decir, cuando las teorías que tenemos que comparar son
muy generales. Este es el problema de la inconmensurabilidad o falta de conexión deductiva
entre las teorías.

Para definir la inconmensurabilidad, Feyerabend dice que es una inconexión deductiva o que
se produce cuando el significado de los principales términos teóricos depende de principios
mutuamente inconsistentes. Cuando se produce la inconmensurabilidad, esas teorías que se
pretende comparar no poseen ya el mismo enunciado de observación.

En “Los problemas del empirismo”, Feyerabend, en cuanto a qué hacer ante este problema,
establece tres posibilidades:

Si T1 y T2 son las teorías inconmensurables que tratan de ser comparadas, se podría hacer
una teoría más general que T1 y T2 mediante la cual podamos describir una base común, que
tendría enunciados de observación aceptables por ambas partes, y que, al hacerlo, haga
también posible la elección.

Se podría realizar un análisis interno de T1 y T2 y elegir aquella teoría que establezca una
conexión más general con la observación y una interpretación más directa de los datos
observacionales.

Se podría tomar en serio la teoría pragmática de la observación y aceptar la teoría cuyos


enunciados de observación simulen más satisfactoriamente nuestra propia conducta.
Se concluye que estas opciones son inviables por ser inconsistentes con el planteamiento
propio de Feyerabend, además implican que:

Necesita una teoría básica común que debería ser consistente con T1 y T2, lo cual es
imposible porque T1 y T2 han sido definidas como inconmensurables.

Presuponen implícitamente que T1 y T2 cuentan con informes observacionales comunes o, al


menos, compatibles, lo cual es imposible de acuerdo con la caracterización amplia que
Feyerabend hace de la inconmensurabilidad que se le presupone a la relación entre T1 y T2.
Feyerabend, a través de este diálogo crítico, va evolucionando hasta abandonar estos intentos
por acabar en el cajón demarcacionista de Lakatos. Así, Feyerabend abandona el
demarcacionismo en “Contra el método”, y asume una posición escéptica que él describe
como anarquismo epistemológico, resumido en su famoso “todo vale”.

En 1970, en “Contra el método”, reconoce que más allá de los límites de una teoría
particular, no son posibles los juicios de verosimilitud, es decir, no hay tal criterio único y
objetivo. Una teoría sólo puede contradecirse por refutaciones internas, y lo que quedan son
juicios estéticos, juicios de gusto y nuestros propios deseos subjetivos. Obviamente, para
Feyerabend, lo que queda es el relativismo.

Shapere, en 1966, abre una línea de crítica muy importante a Feyerabend, la cual ha
propiciado la apertura de un gran trabajo sobre la inconmensurabilidad. M. Scriven y D.

53
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Shapere, abren esta línea de crítica dirigida contra la tesis de la inconmensurabilidad de


Feyerabend, que luego será recogida por C. Kordis.

Shapere afirma que esta visión escéptica del significado es estrecha: si las sensaciones no
constituyen la base empírica de las teorías, sino que, como dice Feyerabend, esa base está
determinada teóricamente; y si, además, no existen informes observacionales comunes para
teorías mutuamente inconmensurables, entonces ¿cómo pueden ser inconmensurables dos
teorías que no hablan de lo mismo? Shapere afirma que un requisito para la
inconmensurabilidad es que las teorías supuestamente inconmensurables se apliquen a lo
mismo con resultados inconsistentes, es decir, que esas teorías sean efectivamente
alternativas. Pero, estas teorías supuestamente inconmensurables T1 y T2 no pueden ser
alternativas ni rivales puesto que no hablan de lo mismo, sino que tratan de mundos
diferentes en el sentido de que se asientan en clases de experiencia distintas.

Feyerabend reitera la idea de que la ciencia debe separarse del estado estableciendo la ciencia
como la nueva religión; es muy radical en la última parte de su obra y le gusta romper tabúes
y sacar las consecuencias que le interesa sacar.

54
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Tema 7: La confirmación y sus paradojas.


Lógica inductiva
Este es un campo de discusión en el que ha entrado la mayor parte de las escuelas de filosofía
desde los años 50, y en el que hay que repasar, respectivamente, la importancia de Frege,
Russell y Whitehead.

Los positivistas lógicos, en los años 20, se encuentran una lógica muy desarrollada,
deductiva, que aún no ha recibido ninguna crítica, por lo que es vista como paradigma del
conocimiento riguroso y formal siendo la herramienta para la construcción formal de la
ciencia. Admirando la física, los empiristas lógicos conciben la ciencia de un modo estático,
sin aspectos pragmáticos, con lo que la ciencia es reducida a las esferas internas del
conocimiento, es un saber metódico.

En este contexto, se busca una lógica inductiva, y lo que vamos a ver son los esfuerzos de los
empiristas lógicos para desarrollar la parte procedimental. El método científico era visto
como una combinación de la lógica y la experiencia: la parte de la lógica era clara y
transparente, no suponía ningún problema porque ya se había desarrollado la lógica
simbólica; pero no existe un equivalente a la lógica deductiva para ordenar la experiencia, no
existe ningún cuerpo de conocimiento para ordenar la inferencia inductiva. A esto se debe la
importancia del desarrollo de la lógica inductiva, unas leyes de la inferencia inductiva que
nos permitan decir si un conjunto de datos apoyan o no a una hipótesis general.

En esta cuestión, diferentes autores utilizan distinto vocabulario; hay quien habla de
confirmación, hay quien de corroboración, y hay quien de falsación. Son distintos
vocabularios para describir cómo funciona el método científico en el avance del
conocimiento, pero todos ven la necesidad de desarrollar un conjunto de reglas que regule el
paso de lo particular a lo general. Esto supone una discusión muy técnica que no afecta a la
comparación de teorías, sino al modo en que una teoría es construida por los científicos a
partir de los datos empíricos. Esta discusión inicia su desarrollo con la cuestión sobre la
teoría de la probabilidad.

La forma más clara de exponer la teoría de la probabilidad la encontramos en Hempel y su


obra “Estudios sobre la lógica de la confirmación”, publicado en el año 1954. Hempel afirma
que los científicos razonan y, en la práctica diaria, deducen, infieren, sin justificar su
conducta cognitiva por referencia a leyes de la lógica; pero esto lo pueden hacer en las
inferencias deductivas, no en las inductivas.

Hempel, haciendo referencia a la práctica científica y al modelo de lógica deductiva, afirma


que una lógica inductiva debería satisfacer dos requisitos, son los requisitos de la corrección
formal y la deducción material:

Ser formalmente correcta: no contener contradicciones y no ser inconsistente.


Ser materialmente adecuada: hacer justicia a la conducta de los científicos en la
práctica diaria.

El objetivo último del desarrollo de una lógica inductiva parece sencillo, a saber, definir
criterios para decidir cuándo algo que observamos apoya una hipótesis general. Pero no es
55
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

tan sencillo. El punto de partida para ver cómo este desafío se implementa es el criterio de J.
Nicort, el cual expone estas ideas en “Fundamentos de geometría”, obra rescatada más tarde
por Hempel. Hempel delimita este campo de discusión siguiendo el criterio de Nicort,
preguntándose cómo un enunciado que describe ese hecho afecta a la probabilidad de una ley
de la forma A→B (A implica B), y responde que afecta de dos modos:

Constatando que B es el caso dado A: afecta favorablemente


Constatando que B no es el caso dado A: afecta desfavorablemente

Esto tan sencillo es la piedra angular de la teoría de la confirmación o criterio de Nicort.


Esta observación contiene dos formas de entender la relación de confirmación entre un caso
particular y un enunciado general:

El modo en que representamos las leyes


El modo en que ordenamos la experiencia

Hempel añade dos postulados más, los de la condición de equivalencia, y estos cuatro
postulados son un desarrollo que hace Hempel a partir de Nicort, son la base para cualquier
discusión en teoría de la confirmación. Estos postulados son los siguientes:
La condición de las leyes científicas. Toda ley de la forma “P implica Q” o “todo P es Q” es
representable como un condicional material de una sola variable cuantificada universalmente:

Λx (Px→Qx)

Si tenemos un objeto “a” del universo “x”, se pueden producir cuatro combinaciones básicas
en cuanto a la experiencia posible:

Pa ∧ Qa (caso favorable): confirmación Λx (Px→Qx)


Pa ∧ ¬Qa (implicación material falsa): disconfirmación Λx (Px→Qx)
¬Pa ∧ Qa: neutral respecto de Λx (Px→Qx)
¬Pa ∧ ¬Qa: neutral respecto de Λx (Px→Qx)

La conclusión de equivalencia para enunciados de observación, para informes. Si dos


oraciones son lógicamente equivalentes, entonces confirman la misma oración. Este
postulado dice que si se produce una situación en la cual una hipótesis (h) es confirmada por
un informe de observación (e1), si (e1) es lógicamente equivalente a (e2), entonces (e2)
también debe confirmar a (h).

La condición de equivalencia para leyes o hipótesis. Si dos oraciones son lógicamente


equivalentes, entonces confirman la misma oración. Este postulado dice que si tenemos una
hipótesis (h1) que es confirmada por un informe de observación (e), si (h1) es lógicamente
equivalente a (h2), entonces (e) también debe confirmar a (h2)

Hempel considera que es necesario que el contenido de una hipótesis dependa de su forma
lógica, de la forma en que está escrita, por eso ve muy importantes estos postulados. El
problema es que estos cuatro postulados son inconsistentes, producen contradicciones, y este
problema de incorrección formal queda reflejado en la paradoja de la confirmación:

¬Qa ∧ ¬Pa : confirmación Λx (¬Qx→¬Px) : postulado 2a


Λx (¬Qx→¬Px) : equivalencia Λx (Px→Qx) : contraposición

56
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

¬Qa ∧¬Pa : confirmación Λx (Px→Qx) : postulado 4


¬Qa ∧ ¬Pa : equivalencia ¬Px ∧ ¬Qx : conmutación de la conjunción
¬Pa ∧ ¬Qa : confirmación Λx (Px→Qx) : postulado 3
¬Pa ∧ ¬Qa : neutral Λx (Px→Qx) : postulado 2d

Las dos últimas expresiones señalan una inconsistencia en el conjunto de los cuatro
postulados: los informes de tipo 2d son confirmatorios para leyes Λx (Px→Qx) y, a la vez,
neutrales. Esta paradoja señala una incorrección formal. La paradoja de la confirmación es un
problema de corrección formal que conlleva la necesidad de cambiar o abandonar algunos de
los postulados. Respecto a esta incorrección, algunos autores han intentado resolverla
cambiando el postulado 1, otros el postulado 3 y otros el 2c.

El propio Hempel, en su estudio sobre la lógica de la confirmación, modifica el postulado 1,


y ensaya dos consideraciones de modificación de las leyes científicas. Hempel destaca la
importancia de los postulados 3 y 4, así que trata de modificar el modo en que se representa
formalmente una teoría, lo hace presentando dos opciones:

Formalizar los universales afirmativos al modo aristotélico, es decir, explicitando el


contenido existencial: “todo P es Q”, Λx (Px→Qx) ∧ ∀xPx. En este caso, ¬Pa ∧ ¬Qa no
presentaría problemas porque el objeto de “a” no satisface el predicado P como se exige.
Pero el problema es que esta representación de las leyes e hipótesis invalida inferencias
lógicas habituales en ciencia.

La representación habitual de las hipótesis generales en ciencia normalmente no contienen ni


determinan ninguna cláusula existencial. Hay muchas hipótesis generales en ciencia de las
que se puede afirmar que no implican cláusula existencial alguna. Lo que nos dicen las
hipótesis científicas es lo que ocurriría en determinadas circunstancias, pero hay muchas
hipótesis en las que estas circunstancias no serán nunca el caso, porque se basan en sistemas
idealizados; por ejemplo, la ley del gas ideal.

Prescindir de la cláusula existencial, pero especificar el dominio de aplicación: {P}Λx (Px→


Qx), es decir Λx ∈ {P}: Px→Qx, siendo P un predicado tal que hay un conjunto de objetos
que lo satisfacen.

Aquí, como a no forma parte de esa clase de cosas que satisfacen P, ¬Pa∧¬Qa no plantea
problema.

La crítica a esto supone dos puntos:

Esto invalida muchas inferencias lógicas y crea problemas de sintaxis.

Las hipótesis generales en ciencia, normalmente, no presuponen un dominio específico de


acción, sino que son universales, dicen algo y esto se aplica a todo objeto en todo tiempo y
lugar. Según Hempel, una hipótesis en ciencia es estrictamente universal.

De este modo, los cuatro postulados de forma conjunta plantean el problema de la


incorrección formal, que debe ser resuelto modificando uno o varios postulados.

57
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Scheffler, en “Anatomía de la investigación”, lleva a cabo el intento de modificar el


postulado 4 (condición de equivalencia para leyes). Modificando el postulado 4, el contenido
de una hipótesis dependería de su forma lógica.

El argumento de Scheffer supone que: la confirmación, con frecuencia, es confirmación


selectiva; es decir, confirmar una hipótesis es contrastarla disconfirmando su hipótesis rival,
siendo habitualmente ésta la contraria en un sentido lógico y dependiendo, por tanto, de lo
que diga y de cómo está escrita. La contraria de “todo P es Q” es “todo P es no Q”. Por tanto,
si coincidimos con Scheffler en que la confirmación es selectiva y la hipótesis normal es la
contraria, entonces un informe del tipo Pa∧Qa confirma “todo P es Q” porque disconfirma
“todo P es no Q”. Mientras que 2c y 2d serían necesariamente neutrales, pues no confirman
ninguna de estas hipótesis en tanto que no disconfirman ninguna de ellas.

Scheffler afirma que no asumamos como equivalentes, a efectos confirmatorios, enunciados


que son equivalentes a efectos lógicos. Pero esta propuesta es inviable, porque no nos vemos
libres de paradojas. Scheffler da un pequeño rodeo e imposibilita la paradoja al no hacer
posible el tercer paso, en el cual apelamos al postulado 4, y preservar el criterio de Nicort.

Esta propuesta es criticada por Swinburne critica la respuesta de Scheffler, afirmando que la
primera premisa de este argumento es dudosa y la segunda es claramente incorrecta.
Swinburne realiza la segunda línea de crítica afirmando que la segunda hipótesis es
incorrecta, porque la rival de una hipótesis no es la contraria: la alternativa habitual a “todo P
es Q” no es “todo P es no Q”, sino “todo P, excepto x, es Q” o “algún P es no Q”.

De acuerdo con Swinburne, la primera premisa es dudosa porque postularla significa que el
problema central que Hempel plantea en “Teoría de la confirmación” ya no es el problema
tratado, sino que sería el problema de qué confirma una hipótesis en el sentido de volverla
más probable de lo que lo era en términos de un conocimiento base; es decir, qué clase de
información o informe puede hacer más probable una hipótesis en términos de conocimiento
base (K).

En “Teoría de confirmación” de Hempel, está el teorema del Bayés, el cual presenta el


problema central diciéndonos a qué equivale la probabilidad de una hipótesis incrementada
por un informe (e).
P (h/e∧k) = [P(h/k) ⋅ P(e/h∧k)] / P(e/k)

Aquí, (k) se suprime porque siempre se supone que hay un conocimiento base. Pero, ¿qué
clase de (e) puede hacer que e∧k, la P(h) sea mayor de lo que era únicamente en términos del
conocimiento de base (k)? ¿qué clase de (e) la puede hacer menor, igual o neutral? Este es el
problema que recoge Hempel.

Imaginemos el típico problema estadístico: una urna con dos bolas que pueden ser blancas o
rojas. Esto sería el conocimiento de base (k), la hipótesis (h) sería “las dos bolas son
blancas”, y el informe de observación (e) sería “acabo de sacar una bola blanca”. Así, ¿tiene
(e) un efecto confirmatorio sobre (h)? ¿qué clase de efecto observacional tendría un efecto
disconfirmatorio de (h)? La aplicación del teorema es la siguiente: P = 1/2²

P(h) = ½ ⋅ ½ = ¼
P(h/e) = ¼ ⋅ [(1/1)/(1/2)] = 2/4 = ½ ; P(h) < P(h/e)

58
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

A través del teorema del Bayés podemos expresar el problema de la inducción. Si


incrementamos el universo en progresión aritmética, hay un decremento geométrico de la
probabilidad de la hipótesis.

Goddard es un autor que propone que, aún cuando rechacemos con Scheffler el postulado 4,
no nos veríamos libres de problemas. Supongamos una instancia positiva bastante
confirmatoria Pa ∧ Qa que confirma la ley Λx (Px→Qx):

Pa ∧ Qa equivale Qa ∧ Pa :conmutación del conjuntor


Qa ∧ Pa confirma Λx (Qx→Px) :2a
Qa ∧ Pa confirma Λx (Px→Qx) : 3

En los dos últimos puntos tenemos que una misma evidencia respalda dos leyes diferentes; es
decir, respaldaría “todo cuervo es negro” y “toda cosa negra es un cuervo”, y aquí se dicen
cosas diferentes. Si la única evidencia de que disponemos está expresada de forma
conjuntiva, ninguna evidencia puede discriminar, a efectos confirmatorios, entre “todo P es
Q” y “todo Q es P”, aunque digan cosas diferentes. Por tanto, la respuesta de Scheffler
conduce a paradojas.

En “Estudios de la lógica de la confirmación”, Hempel ensaya, propone y defiende una


propuesta: abandonar el postulado 2d. Rechaza ¬Pa ∧¬Qa : neutro: Λx (Px→Qx), porque
dice que el tipo de informes ¬Pa ∧¬Qa no son cofirmatorios.

Esta propuesta de Hempel contiene la paradoja de los cuervos, que es una paradoja de
adecuación material, es relativa a una propuesta que se considera no plausible desde el punto
de vista de la realidad del mundo de la ciencia. Para confirmar “todo cuervo es negro”,
bastaría con ir al armario de casa y buscar objetos que no sean negros, y no sean cuervos, con
lo que obtendríamos evidencia confirmatoria de esa ley general. Aún así, Hempel defiende
esta propuesta diciendo que este es el modo en que proceden los científicos. Para explicar
esto, Hempel utiliza el argumento de la ilusión psicológica, el cual viene a decir que estamos
engañados: hay una tendencia errónea a creer que una hipótesis como “todo P es Q” sólo dice
algo acerca de la clase de cosas que son P, que sólo nos informa de {P}; y esa creencia
errónea es la que está detrás de nuestra creencia de que el informe anterior ha de ser neutral.
Pero, para Hempel, esto es una ilusión psicológica basada en esa creencia errónea, es
confundir consideraciones lógicas con consideraciones prácticas.

Desde el punto de vista del aporte lógico, Hempel afirma que la aplicabilidad de “todo P es
Q”, en la práctica, puede restringirse a {P} o conjunto de todas las cosas que satisfacen a P;
pero, desde el punto de vista de la lógica, esa hipótesis alude a todos los objetos, cumplan o
no el predicado P, dividiendo el universo de una cierta forma: divide los objetos de modo que
o bien no cumplen P o bien cumplen Q, es decir, Q: ¬P∨Q. Este es un enunciado con las
mismas condiciones de verdad que P→Q, que es lo que dice “todo P es Q”.

Sin hablar de Hempel, hay otros autores que apoyan este argumento:

Veamos Q. Imaginamos que examinamos un objeto que cumple el predicado Q:Qa, entonces
¿qué enunciado general es confirmado por esa observación? Q es el predicado “ser negro” y
confirma la hipótesis general “todo es negro”, y de aquí se puede seguir “todo cuervo es
negro” (h1→h2). Es decir, “todo es negro” es condición suficiente para confirmar “todo

59
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

cuervo es negro”, e, inversamente, la condición de verdad de “todo cuervo es negro” es


necesaria para la verdad de “todo es negro”.

Veamos ¬P. se trataría de observar algo que no sea cuervo, ¬Pa, lo que expresaría “no hay
cuervos” o “nada es un cuervo”. Ahora bien, si no hay cuervos, entonces Px es falso y,
entonces Λx (Px→Qx) es verdadero, es decir, el condicional es verdadero. Así, la
observación de ¬Pa, por sus condiciones de verdad también da apoyo confirmatorio a “todo
cuervo es negro”.

Desde el punto de vista del aporte psicológico, Hempel se pregunta por qué tendemos a ser
escépticos respecto a esto. Aquí Hempel dice que nuestra tendencia a creer que ¬Pa ∧ Qa
jamás puede confirmar Λx (Px→Qx) se debe a la información adicional, que viene dada de
forma implícita y es la responsable de que tendamos a creer que este tipo de observaciones
jamás pueden confirmar Λx (Px→Qx). La generalización no se refiere sólo a las cosas que
son P, sino también a las que no son P.

Hempel dice que confundimos las consideraciones lógicas con las psicológicas y, por ello,
hay que abandonar 2d.

Hay una serie de autores que trataron de desarrollar este argumento de la ilusión psicológica
a fin de frivolizarlo, se trata de autores en los encontramos influencia popperiana y, de los
cuales, el más importante es J. Mackie, aunque también está H.G. Alexander. Estos autores
combinan el argumento de Hempel con algunas intuiciones popperianas: son los enfoques
cuantitativos, aunque más bien son enfoques formales. Reconocen que la información
adicional es siempre necesaria en un grado u otro, y necesitamos siempre una información
mínima incluso para entender las hipótesis, siendo esa información adicional mínima la que
nos dijera cuál es la proporción de las cosas conectadas por la hipótesis. Sobre esta base,
estos autores defienden que, efectivamente, Pa∧Qa confirma Λx (Px→Qx), y que ¬Pa∧¬Qa
confirma Λx (Px→Qx), pero o hacen en medidas distintas que dependen de la proporción de
cosas que sean P y la proporción de cosas que sean Q. Llamando a la información adicional
(K), podemos representar esto así:
P ¬P x: 1-x
Q¬ y: 1-y

En la medida en que haya muchas más cosas que son ¬Q, y menos que son P, en esa misma
medida que es en la que aumenta la diferencia de x a 1-y, Pa∧Qa confirmará mejor “todo P es
Q”, que no ¬Pa∧¬Qa. Estos autores suelen argumentar que esa medida es muy fuerte, muy
alta; por ejemplo, en relación a “todo cuervo es negro”, hay muchas más cosas que son no
negras que cosas que son cuervos. Aquí dice que 1-y debe ser alto, y x debe ser limitada,
restringida. En la medida en que x sea menor, nuestra probabilidad de encontrar un cuervo es
menor, y es menor la de encontrar un cuervo negro. Complementariamente, a medida en que
1-y sea mayor, nuestra probabilidad de encontrar algo negro será menor y, por tanto, nuestra
probabilidad de encontrar un cuervo negro. Este es un argumento popperiano.

El principio de la diferencia o criterio de Mackie se utiliza para probar hipótesis y se basa en


lo siguiente: tenemos una observación (b) y una hipótesis (h), así ¿de qué modo la
observación de (b) incrementa el grado de confirmación de (h)?

Es el mismo aporte de probabilidad que la presuposición de (h) concede a (b):

60
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

P (h/b) = P(h) · [P(b/n) / P(b)]

Lo que dice el teorema de Bayés es la base intuitiva del criterio de Mackie. El principio de
relevancia de Mackie o criterio inverso es:

C: (b) confirma (h) en relación a K si y sólo si:

C1: dados (b1) y (b2) que confirman (h) en relación a K, (b1) confirma mejor (h) en relación
a K de lo que lo hace (b2) si y sólo si:

C2: dadas (h1) y (h2), que son confirmación por (b) en relación a K, (h1) es mejor
confirmada por (b) en relación a K de lo que lo es (h2) si y sólo si:

Se pueden comparar sólo los numeradores, obviando el denominador, puesto que ambos son
iguales: P (b/K)

Ejercicio de probabilidad: es un retículo dado que es un conjunto parcial:


Con esto se modifica el postulado 2 de Hempel. El resto de los informes, los de tipo b3 ¬Pa
∧Qa serían neutrales, y los de b2 Pa∧¬Qa serían disconfirmatorios, con respecto a leyes o
hipótesis de esa forma.

Pero las paradojas no terminan aquí, sino que éste es un campo de discusión aún abierto. Una
paradoja que se plantea es generada por estas propuestas de modificación, afecta a los
informes de tipo b3 y fue señalada por Hooker y Stove. Se trata de la paradoja de los zapatos
negros. Un zapato negro es un ¬Pa∧Qa. Esta paradoja dice lo siguiente: aceptamos que un
zapato blanco confirma, a efectos lógicos, una ley de tipo “todo P es Q”; pero con el hallazgo
de un b3 disminuiría el grado de confirmación de “todo P es Q”. Si aplicamos el principio
inverso, además de esa disminución, tendríamos el siguiente valor:

Al ser menor de 0, ese informe disminuye el grado de confirmación de esa hipótesis,


disminuye su credibilidad. La medida en la cual disminuiría el grado de confirmación de esa
hipótesis sería:

Esto sería perfecto si x=y o si y=1. Si se produjera este tipo de informes, sería neutral; si no,
b3 disconfirma “todo P es Q”.

Así, la extensión del denominador es mayor o igual a la del numerador. Si es mayor, tenemos
el problema de que el cociente da un resultado menor que 0, y el efecto será disconfirmatorio.

Hay autores que han tratado de bajar a la tierra la discusión sobre teoría de la confirmación,
introduciendo cuestiones pragmáticas. Estos autores son, por ejemplo, Watkins, Stov y
Agassi, los cuales afirman que hay que tener en cuenta el marco de la política de
investigación que se sigue. Watkins propone que (b1) y (b4) confirman hipótesis como “todo
P es Q” si son hallados en un intento de falsación de la hipótesis, siendo neutrales si se
descubren casualmente. Con esto, se llega a excluir el efecto confirmatorio de b1 en caso de
que se descubra casualmente, y hace referencia de modo implícito a una política de
investigación. Agassi dice que encontrar un zapato blanco puede confirmar que “todo cuervo
es negro” cuando lo hemos encontrado en un intento activo de refutar “todo cuervo es
negro”.

61
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

Estos autores afirman que asumir una política de investigación u otra hace que incluso los
informes de tipo b1 tengan un valor confirmatorio u otro. Vamos a ver el modelo en que la
introducción de una política de investigación afecta al efecto confirmatorio o
disconfirmatorio de una hipótesis de investigación sobre una ley. Para mostrar esto, estos
autores aplican el principio inverso. Supongamos tres situaciones:

Hallamos b1 sin seguir una política de investigación

Política conservadora: hallamos b1 buscando instancias positivas

Política arriesgada, falsacionista: hallamos b1 buscando contra-instancias, pero hallamos una


instancia favorable.

P(b1/K) : la desconocemos
P(b1/K∧q) : es mayor
P(b1/ K) < P(b1/K∧q)
P(b1/K∧h) = P(b1/K∧h∧q)

Según el tercer punto, es más probable encontrar cuervos negros si los estamos buscando a
que si no lo estamos. Según el cuarto punto, si todos los cuervos son negros, la probabilidad
de encontrarlos es la misma los busquemos o no. Así, aplicando el principio inverso:

El punto central de estos autores es introducir cuestiones pragmáticas que rebasan el ámbito
de la lógica. El uso del concepto “política de investigación” les permite decir que un informe
de tipo b1 tendrá un importe confirmatorio u otro para una generalización dependiendo de la
política de investigación seguida al recoger ese informe. Hay dos opciones: buscar instancias
favorables y buscar contra-instancias, y las dos no pueden tener el mismo importe
confirmatorio.

Según Hempel, todo depende de la información adicional, y esa información queda


expresada en el orden. Supongamos q1 y q2:
Con el criterio de relevancia de Mackie:

De aquí, se sigue que las instancias favorables no respaldan la hipótesis de la misma manera
cuando han sido obtenidas casualmente que cuando son resultado de una política de
investigación conservadora. La confirmación es mayor cuando se obtiene casualmente.

Pero, para una política de investigación falsacionista, concluimos que el valor confirmatorio
de un informe favorable b1 (Pa∧Qa) para una hipótesis será mayor si ha sido obtenido
siguiendo una política de investigación arriesgada a que haya sido obtenido casualmente.
Esto es, el valor confirmatorio de un informe favorable que haya sido obtenido siguiendo una
política de investigación arriesgada será mucho mayor que en el caso de haber sido obtenido
mediante una política de investigación conservadora, por lo que el valor confirmatorio de un
informe depende de la política de investigación seguida.

Siguiendo a Hempel, parece que hay que contar siempre con la información adicional a la
hora de desarrollar una teoría de la confirmación.

problemas de corrección formal: inconsistencias


problemas de adecuación material: falta de ajuste entre las conclusiones obtenidas y lo que
consideramos la realidad de la ciencia.
62
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

La información adicional es necesaria respecto al tamaño de las clases P∧Q, y también es


necesaria acerca de las similitudes de los P a los ¬P y de los Q a los ¬Q para evitar nuevas
paradojas al intentar resolver los problemas anteriores ajustando el nivel confirmatorio de b4.
Para Hempel, tras el argumento de la ilusión psicológica, b4 también confirma, y esto nos lo
cuenta en la aproximación cuantitativa. Por tanto, parece que mantenemos los cuatro
postulados mediante el cambio en b4 y teniendo en cuenta la relevancia de la información
adicional haciendo referencia a una política de investigación específica; seguimos
manteniendo la llamada condición de las leyes científicas o primer postulado y las
condiciones de equivalencia para hipótesis e informes observacionales o postulados 3 y 4.

Lo que nos permite establecer la equivalencia entre confirmación y probabilidad es el criterio


de relevancia de Mackie. Sin embargo, este principio es atacado desde las críticas actuales a
esta concepción. Schlesinger critica tanto el principio inverso como sus dos extensiones:

Schlesinger dice que cualquier conjunto finito de observaciones implica un número infinito
de hipótesis. Si aceptamos C2, no podríamos mantener una hipótesis particular dada, pues
cualquier hipótesis tiene innumerables hipótesis alternativas que, con base en C2, han de
considerarse igualmente confirmadas por la evidencia. Por ejemplo, sea (h1) una hipótesis en
la que se postula una ley que expresa la co-variación de dos parámetros físicos (p) y (q), la
ley dice: q=f(p), siendo q una función de P; por ejemplo, la presión es función de la
temperatura. El problema de C2 no permite distinguir entre la credibilidad sobre la base del
cuerpo finito que merece la hipótesis determinada y cuya suposición hace igualmente
probable el informe b. Así, volvemos al ejemplo:

Pero tanto (h1) como (h2) implican b. C2 no permite discriminar en cuanto a la credibilidad
de una hipótesis o de otra; es decir, no resuelve el problema de la infradeterminación.
Otro ejemplo: tenemos cinco cartas numeradas del uno al cinco y sacamos tres (información
adicional K):

hc (compleja): las cartas extraídas tienen los números 1, 2 y 3


hs (simple): las cartas extraídas tienen los números 1 y 2
b: 1 y 2 están entre las cartas sacadas.

P(b/K∧hs) = P(b/K∧hc)
b→hs
b→hc (solo incrementa la probabilidad de hc)

Por tanto, b no puede confirmar por igual, a pesar de lo que nos diga la equivalencia (1), con
lo que hay algo que no va bien en el principio inverso, el cual comparaba confirmación con
probabilidad. Este ejemplo se podría extender al infinito a través de hipótesis cada vez más
complejas.

Schlesinger también critica C1:

Aquí, Schlesinger aplica el mismo razonamiento: cualquier conjunto finito de datos


observacionales es implicado por infinitas hipótesis, sin que ninguna relación de probabilidad
permita la decisión. Esta crítica es llevada al propio principio inverso, a C:

Para la crítica, aduce que no es un criterio adecuado, pues otorga confirmación a cualquier
hipótesis sobre la base de evidencia arbitraria. Por ejemplo:
63
LICENCIATURA DE FILOSOFÍA José Antonio López Cerezo
FILOSOFÍA DE LA CIENCIA Curso 2006-2007

h
h1 = h∧r
P (b/K∧h) > P(b/K)
P(b/K∧h1) = P(b/K∧h) > P(b/K)

Así, este criterio no permite discriminar, y podría ser utilizado para otorgar confirmación a
cualquier hipótesis arbitraria a la que nosotros podamos acudir. El único requisito es que (h)
y (h1) sean consistentes, por lo demás tendrían el mismo grado de credibilidad, y esto es así
por lo que Hempel llama consecuencia inversa: si (b) confirma (h), y (h1) se deriva de (h) [h1
∴h], entonces (b) confirma (h1).

Las teorías son sistemas deductivos que pueden organizarse jerárquicamente: el respaldo de
las leyes empíricas más generales es un apoyo indirecto a las leyes más particulares.

En el caso de la consecuencia especial, ocurre de abajo arriba: si (b) confirma a (h) y de (h)
se deduce (h1) [h∴h1], entonces (b) confirma (h1). Nadie pone a prueba las leyes generales
de la naturaleza para probar leyes específicas. Si hay fundamentos racionales, basados en la
experiencia, para mantener las leyes generales, entonces el apoyo empírico que recibe una
ley particular da un apoyo indirecto a las leyes generales, pero también a las leyes que se
deriven de los axiomas de esa ley.

En la práctica científica real es muy difícil prescindir de las hipótesis auxiliares. No sabemos,
sin embargo, qué hipótesis son necesarias y cuáles innecesarias.

Algunos autores dicen que estos problemas surgen debido al enfoque sintáctico de la ciencia,
que hace uso de la lógica matemática que, al no atender al significado, no es válida para
explicar el problema de la confirmación. Goodmant es un autor que pertenece a esta línea
tratando de dar una respuesta más filosófica en “Fact, fiction and forecast”. Se pregunta qué
clase de evidencias cabe hacer para el futuro. Para ello, debemos ir más allá de lo sintáctico y
el marco de la lógica. Aquí se protesta contra el abuso de la lógica (paradigma deductivo), ya
que el problema de la confirmación surge por la arrogancia del paradigma matemático y
deductivo. El problema de Hume era el de cuadrar matemáticamente la inducción, pero hay
más conocimientos que el inductivo. Hay que fijarse en la proyectabilidad y en la
información adicional que dé cuenta de las predicciones pasadas con éxito o sin él.

64

Potrebbero piacerti anche