Sei sulla pagina 1di 98

Prácticos

Neurath, O. – Caminos de la concepción científica del mundo

Los representantes de la concepción científica del mundo, que abarca todo lo experienciable
son activos y cercanos al presente, aunque se mueven en esferas abstractas; se ocupan menos
de la historia de sus ideas y más de los nuevos resultados adquiridos que tratan de formular con
enunciados claros. No se detienen en los resultados adquiridos, las formulaciones se siguen, son
revisadas y mejoradas año con año. Pero, ocasionalmente, es mejor preguntar por las
condiciones históricas de una concepción y buscar su ubicación sociológica, en sus enlaces con
otros campos de la vida y de las ciencias, en el interés de la ciencia unificada a la cual se aspira.
La concepción científica general parte siempre de la observación de lo simple, lo combina con
otros hechos semejantes para formar complejos más grandes y claros. No conoce un mundo
como un todo, no aspira a captar una imagen del mundo en su totalidad, no aspira a una forma
de ver el mundo. Cuando se habla de una concepción científica del mundo en contraste con la
concepción filosófica del mundo, no se refiere a mundo como un sistema concluido, sino al
campo de la ciencia que diario crece. Aquella concepción se infiere de investigaciones singulares
que se van integrando a una ciencia unificada. La filosofía convencional lo hace de otra forma:
llega a sus conclusiones acerca del mundo inferidas desde pensamientos fundamentales. De sus
juicios sobre el mundo busca frecuentemente inferir juicios de hechos singulares. La filosofía de
Hegel sólo permitía siete planetas en un tiempo en que ya había sido descubierto el octavo
planeta por los científicos. Algunas personas ven en la concepción científica general un
movimiento joven que pretende sustituir una tradición de miles de años. Refiriéndose a Augusto
Comte, muchos se imaginan la transformación del pensamiento humano de la siguiente forma:
que un periodo religioso y teológico forma el principio, seguido por un periodo metafísico y
filosófico, hasta que se sustituye por un periodo científico y positivista. Pero hay razones para
una imagen diferente del cambio histórico. Si desde la época prehistórica ya han existido
elementos de la concepción científica general, entonces tenemos mayor optimismo para
revivirlos. Las transformaciones del pensamiento, estrechamente conectadas con los cambios
tecnológicos y sociales de la humanidad, no se dirigen de forma única. Ciertas partes de la
concepción científica general siguen pensamientos de la forma teológica de ver el mundo, en
parte se le da una nueva vida a actividades humanas que en un tiempo prehistórico habían sido
conocidas, pero que en el tiempo teológico habían sido reprimidas. Por extraño que parezca la
magia, a primera vista, de muchas formas tiene más relación con la física moderna o con la
biología que el pensamiento teológico. El mago causa en general cambios finitos, fijados por
alguna tradición, que son perceptibles y, por ende, públicamente controlables. El mago no se
ocupa del mundo como un todo, como lo hace el teólogo, no trata con una deidad omnipotente
que está en todo y que hace todo. En este sentido, el físico moderno está más cerca del mago.
En la física contemporánea, el espacio considerado como absoluto e infinito, que ha sido, en un
cierto sentido, un sobreviviente del pensamiento teológico, desaparece. La física tampoco habla
ya de condiciones iniciales del mundo. Para la concepción moderna es característico que desde
la investigación de hechos aislados puedan concluirse resultados para otros hechos aislados y
en muchos casos así se puede determinar cada suceso dentro de un espacio temporal y local.
Existe una estrecha relación de parentesco entre el pensamiento de la magia y la concepción
científica del mundo. Si formulamos los enunciados de la magia descubrimos relaciones
conocidas: un suceso determinado y observable es condición de otro suceso. El comportamiento
de indígenas en el baile por los búfalos se puede comparar con el comportamiento de físicos
modernos. Si vienen los búfalos, la acción técnica del baile encuentra justificación; si no vienen
los búfalos, se construyen hipótesis auxiliares. De una forma parecida, en la física moderna se
construyen hipótesis auxiliares para sostener ciertas hipótesis. Si no preguntamos por la verdad
de las hipótesis, sino por su objeto de estudio, entonces vemos que en ambos casos las hipótesis
tratan de hechos sensorialmente perceptibles, son revisables porque no apelan a totalidades
infinitas, a cosas del más allá ininvestigables. La magia se ocupa de lo finito y de lo empírico,
asimismo el técnico moderno o el médico. El mago es evaluado según el efecto que causan sus
prácticas. Pero, por lo general, la gente del periodo mágico no se inclina a la argumentación; por
lo mismo, la magia es tan conservadora y hostil hacia nuevos descubrimientos. Mientras tanto,
la teología, ocupada más en la reflexión sobre un dios y sobre la vida social, deja espacio libre a
acciones técnicas. Las formas de pensamiento, con un aparato lógico deductivo para realizar
pruebas, parecen ser muy rara vez afines a la magia. Frecuentemente son teológicas, idealistas-
metafísicas o materialistas-positivistas. De que hipótesis de la forma mágica del pensamiento,
cuando uno las piensa de una forma clara, sean rechazadas por nosotros, no se sigue que las
conclusiones inferidas de ellas tengan que ser falsas. Pueden ser revisadas siempre, como
empiría1 gruesa. Si, usando formas de inferencia correctas, no se pudieran inferir cosas
verdaderas de condiciones falsas, la humanidad ya se hubiera acabado desde el momento en
que decidió construir sistemas de predicción de eventos. Frecuentemente se da el caso que un
enunciado unitario de la magia es aceptable por la ciencia moderna y, sin embargo, debe ser
rechazada la enseñanza general que lo formuló y de la que fue parte. De esto no se sigue que
un enunciado tal se construyó con base en la experiencia. Más bien, puede haber sido un
proceso de selección entre varias manipulaciones mágicas. La psicología moderna ha traído
cosas que no han sido tan ajenas a la magia. Queda como una cuestión abierta si el pensamiento
mágico ha sido relatado siempre de forma correcta. Una cosa queda clara, su forma de pensar
se dirige al vinculamiento de elementos empíricos aislados. El reporte de un misionero sobre los
iroqueses es relatador: “Hay que suponer que los iroqueses son incapaces de pensamiento
racional, en contraste con los chinos y otros pueblos cultos a los que se les puede probar la
existencia de Dios. La comunicación con los iroqueses es imposible mediante métodos
racionales. Se cree en lo general sólo lo que se ve”. En el transcurso de la evolución, la magia se
llena más y más de pensamientos religiosos que suponen, pasando límites de vinculamiento de
algunos elementos empíricos aislados, también alguna deidad supernatural o un todo absoluto,
o bien, es traspasada la barrera empírica de otra forma (las enseñanzas no son revisables). En
religiones completamente desarrolladas con un aparato argumentativo teológico, la posibilidad
de control de ceremonias y de sacerdotes se acaba. El sacerdote se convierte en mediador entre
Dios y hombre; pero ya no tiene la capacidad de actuar de una forma determinante y decidir
sobre sus profecías. Sólo queda un gran mago, y éste es Dios. teólogos cristianos se retiran del
campo de la revisión empírica. Su imaginación de un dios no es inferible de experiencias
unitarias. El hábito de los enunciados cristianos-teológicos es siempre: al final todo depende de
Dios. Por esta hipótesis, todo lo que sucede en la vida de los hombres es combinable con la
concepción teológica del mundo. Esta hipótesis está fuera de cualquier criterio de revisión
empírica y por ello es vacía y sin sentido para el hombre de ánimo activista, el que encuentra el
sentido de un enunciado mediante su corroboración por la experiencia, en cambio al
pragmatista, a quien le basta que un enunciado ayude a que sus sentimientos positivos
aumenten. El pragmatista puede, en algunos casos admitir también enunciados teológicos,
mientras que para el activista, esto no es posible. Podemos ver cómo la práctica de la
comprobación de la teología cristiana destruyó la forma empírica de pensar, también disminuyó
el poder de los sacerdotes y conectó al sujeto más con Dios.
En la época moderna, cuando la disminución del poder eclesiástico empieza junto con el auge
del empirismo científico, la brujería ocupa un espacio mayor que antes: la causalidad terrestre
de la magia antigua viene de nuevo. El nuevo sentido para lo terrestre se muestra en la ciencia,
relacionada con la técnica y la acción racionalizada, como también en la magia.
Los teólogos cristianos parecen haberle ganado espacio al sentido dirigido hacia lo terrestre de
la ciencia antigua y de la magia primitiva, parecen haber fomentado la construcción de imágenes
espiritualistas y metafísicas. Pero por otro lado, la escolástica ha acumulado deducción tras
deducción para inferir de los textos adaptados enunciados y exigencias; pruebas de todo tipo
fueron producidas de forma incansable. El lado lógico del pensamiento científico fue fomentado
fuertemente, el sentido para la fertilidad empírica fue trabado.
Los científicos modernos se definen por lo siguiente: sentido terrestre, la exigencia de control
empírico y el uso sistemático de la lógica y de la matemática. No es así que de los antecesores
antiteológicos se ha desarrollado la investigación científica más intensa. En la antigüedad, la
matemática ha sido fomentada sobre todo por pitagóricos y platónicos teológicos, Dios se
concibió como un ente matemático. La imagen de Dios incluye ambas cosas: arbitrariedad
absoluta, libertad y, por otro lado, un orden extremo, por esto matematicidad. El carácter
matemático de la deidad fomentaba la ocupación de la matemática, así como también la
astrología fue útil para el desarrollo de la matemática. Por necesidades cotidianas únicamente
hubiera sido difícil que surgieran las grandes teorías astronómicas y matemáticas tan pronto.
Mientras la teología construye la lógica como su herramienta, se crea su propio enemigo. No los
antiteólogos, sino los teólogos mismos han preparado las armas más filosas de la ciencia
moderna: la lógica y la matemática. Tales contradicciones se adecuan a la astucia de la idea de
Hegel y a su dialéctica. Volteados de lo idealista a lo empirista, se observan tales sucesos desde
el punto de vista del marxismo, que viene, por cierto, desde Ludwig Feuerbach hasta Hegel. El
panteísmo hegeliano se muestra claramente como punto fronterizo entre teísmo y ciencia atea:
Dios se muestra en el proceso total del mundo, y por lo mismo, no especialmente mediante
milagros concretos. La lógica y la matemática crecieron en el país de la metafísica idealista y de
la religión, para luego combinarse con el empirismo materialista. Cuando la matemática llegó a
ser exitosa, pudo desarrollarse rápidamente, en especial, en combinación con la astronomía.
Pero también alejada de las aplicaciones prácticas, la matemática recibe con un mínimo de
empiría ya un gran estimulo, pues es un área de puras formulaciones tautológicas. Es
psicológicamente comprensible que las ciencias reales comiencen a existir en el siguiente orden:
astronomía, física, química, biología y sociología.
Las ciencias que aplican métodos matemáticos muestran los éxitos más grandes y más rápidos.
En un principio, los teólogos trataron de aceptar el nuevo orden. Ellos construyeron la enseñanza
de la doble verdad. Lo que en la ciencia era verdad, podría ser falso en la teología. Esto ha sido
en vano, la concepción científica general no perdona. Todo dualismo es destruido. La vieja
división aristotélica en tierra y cielo dentro del área terrestre se abandona. Galileo Galilei, el
contemporáneo de Kepler, fusiona el mundo terrestre y el mundo celestial para tener un mundo
de movimiento y de colisiones de cuerpos. Es entendible que en el principio de la época
moderna, los campos modernos de la vida se llevaron a cabo de una forma casi únicamente
materialista-empírica y no filosófica: la técnica, el comercio, la contabilidad y la actividad bélica.
En el desarrollo posterior, las ciencias exactas le quitan cada vez más importancia a la teología.
Lo que identifica especialmente a la concepción científica del mundo es, como ya se dijo, la
conexión de hechos empíricos aislados, la revisión sistemática y experimental, la incorporación
de lo aislado al tejido de todos los procesos y la logificación de todos los procesos del
pensamiento para crear una ciencia unificada que pueda servir a toda acción modificadora. Pero
el sendero hacia esta forma de pensar no ha sido lineal, tampoco dentro del cambio científico,
el proceso de separación de la teología y de la filosofía idealista usó los caminos más extraños.
En las aplicaciones estadísticas de la física moderna aprendemos a dejar la idea de la causalidad
abarcante de todo, que es frecuentemente de un toque metafísico muy fuerte. Uno comienza a
contentarse con enunciados probabilísticos, con enunciados acerca de grupos de procesos que
ocupan el lugar de enunciados en procesos unitarios. La ambigüedad de concepciones, sea que
exista por ignorancia o por la naturaleza misma de la cosa, es a fin de cuentas solamente
superable mediante la claridad de la acción, esto quiere decir también de la decisión (por
ejemplo una determinada ley estadística es usada como fundamento sólo a modo de prueba).
Esta claridad de la decisión está fuera de la argumentación científica. Que uno se decida por una
concepción determinada o que prefiera a un determinado conjunto de posibilidades no se
puede explicar lógicamente. Entender de esta forma la limitación del conocimiento es de
importancia decisiva para la concepción científica del mundo porque de otro modo existe el
peligro de crear un nuevo ídolo mediante el postulado de la determinación completa, que sólo
ocuparía el lugar del ídolo anterior, un viejo a priori, el infinito o alguna deidad. Lo que decimos
sobre las cosas debe ser dicho con precaución: encontramos caos y orden y debemos determinar
empíricamente en qué medida nuestra construcción de conceptos nos satisface para realizar
nuestra investigación. Nuestro pensamiento es una herramienta, depende de condiciones
sociales e históricas. Nuestro pensamiento de hoy lo contraponemos a nuestro pensamiento de
antes, pero no tenemos la posibilidad de juzgar desde un punto externo. La prueba de los
enunciados aplicándolos a los procesos es una parte del mismo método.
El camino, comenzando con la magia, pasó por la religión, la filosofía y llega al empirismo
materialista. ¿Y entonces? ¿Qué se puede esperar del desarrollo de la concepción científica del
mundo con base materialista? Sólo podemos prever trayectos cortos. Dependiendo de la
contribución de otros pensadores, de las condiciones de vida de la época, al sujeto aislado le es
impuesto un límite. El trabajo intelectual en un grupo de mayor planificación es sólo posible
como apariencia común en una sociedad organizada y planificada que, ayudándose de medios
terrestres justificados, construye de forma estricta y consciente el orden de la vida en cuanto a
la felicidad terrestre. Los cambios sociales son moldeadores de cambios intelectuales.
La concepción científica del mundo traspasa el campo de las ciencias particulares, pero no
creando algo superior. En la filosofía escolar tradicional lo general está en el principio, en la
concepción científica del mundo, lo general viene después de lo particular, según la forma de
pensar que parte de la experiencia concreta. Así está de un lado la concepción científica del
mundo con su muestra de limitación y conexión del pensamiento humano, pero de otro lado
transmite la autoestima orgullosa pero a la vez humilde que encontramos en el enunciado de
Protágoras, que “el hombre es la medida de todas las cosas”.
Kuhn, T. – Lógica del descubrimiento o psicología de la investigación – La crítica y el desarrollo
del conocimiento

Me propongo oponer el punto de vista del desarrollo científico a los puntos de vista de Karl
Popper. Ambos estamos ocupados más con la dinámica del proceso mediante el cual se adquiere
el conocimiento científico que con la estructura lógica de los productos de la investigación
científica. Ambos ponemos énfasis, como datos legítimos, en los hechos y también en el espíritu
de la vida científica real, y ambos a menudo nos volvemos a la historia en busca de ellos. A partir
de este fondo de datos comunes, extraemos muchas conclusiones idénticas. Ambos rechazamos
el punto de vista de que la ciencia progresa por acumulación; en lugar de ello ambos ponemos
el énfasis en el proceso revolucionario mediante el que una vieja teoría es rechazada y sustituida
por una nueva incompatible con ella, y ambos subrayamos con fuerza el papel que en este
proceso juega el eventual fracaso de la vieja teoría en hacer frente a los desafíos que le dirigen
la lógica, la experimentación o la observación. Popper y yo estamos unidos en oposición a
algunas de las tesis más características del positivismo clásico. Ambos subrayamos, por ejemplo,
la trabazón íntima e inevitable de la observación científica con la teoría científica; por
consiguiente, somos escépticos ante los esfuerzos para producir un lenguaje observacional
neutro; y los dos insistimos en que los científicos pueden con toda propiedad tratar de inventar
teorías que expliquen los fenómenos observados y lo hagan en términos de objetos reales. Dos
puntos de importancia secundaria en los que mi desacuerdo con Popper es más explícito son: el
énfasis que pongo en la importancia del compromiso profundo con la tradición y mi descontento
con las implicaciones que conlleva el término “falsación”. (Ambos insistimos en que adherirse a
una tradición tiene un papel esencial en la evolución del conocimiento. Popper ha escrito, por
ejemplo: <<Tanto cualitativa como cuantitativamente la fuente más importante de nuestro
conocimiento -aparte del conocimiento innato- es con mucho la tradición>> <<Yo no creo que
podamos liberarnos por completo de los lazos de la tradición. La llamada liberación no es en
realidad más que un cambio de una tradición a otra>>).
Más que un desacuerdo, yo llamo a lo que nos separa un cambio de gestalt (percepción).

Uno de los puntos más importantes de coincidencia es el de que en el análisis del desarrollo del
conocimiento científico debe tener en cuenta el modo como la ciencia trabaja en realidad.
Siendo esto así, me sorprenden algunas de sus repetidas generalizaciones. <<El científico -
escribe Popper-, sea teórico o experimental, propone enunciados, y los contrasta paso a paso.
En particular, en el campo de las ciencias empíricas, construye hipótesis, o sistemas de teorías,
y las contrasta con la experiencia mediante observaciones y experimentos>>. Esta afirmación es
ambigua porque no acierta a especificar si son los “enunciados” o las “teorías” quienes son
contrastados.
Hay un tipo de “enunciado” o “hipótesis” que los científicos repetidamente someten a
contrastación sistemática. Me refiero a los enunciados que expresan las conjeturas de un
individuo acerca del modo más apropiado de relacionar el propio problema de investigación con
el corpus del conocimiento científico que se considera válido. Si la conjetura o hipótesis logra
pasar suficientes contrastaciones o contrastaciones suficientemente severas, el científico habrá
hecho un descubrimiento o al menos habrá resuelto el rompecabezas con el que se enfrentaba.
Si no, o tiene que abandonar el rompecabezas por completo o tiene que intentar resolverlo con
la ayuda de alguna otra hipótesis. Las contrastaciones de esta especie son un componente típico
de lo que en otra arte he llamado “ciencia normal” o “investigación normal”. Sin embargo, tales
contrastaciones no tienen por objeto la teoría establecida. Por el contrario, en un problema de
investigación normal, el científico debe contar con una teoría establecida que tiene como misión
sentar las reglas del juego. El objeto del científico es resolver un rompecabezas, y para poder
definir ese rompecabezas y garantizar que pueda resolverse, se requiere una teoría establecida.
(Es importante advertir que cuando describo al científico como alguien que resuelve
rompecabezas y Popper lo describe como alguien que resuelve problemas, la semejanza de
nuestros términos oculta una divergencia fundamental. Popper escribe: <<Sin duda, nuestras
expectativas, y por ello nuestras teorías, pueden incluso preceder, históricamente, a nuestros
problemas. Pero la ciencia sólo comienza con problemas. Los problemas surgen especialmente
cuando nuestras expectativas se ven defraudadas, o cuando nuestras teorías nos rodean de
dificultades, de contradicciones>>. Empleo el término “rompecabezas” para dar énfasis al hecho
de que las dificultades que de ordinario afrontan incluso los mejores científicos son, como los
crucigramas o las partidas de ajedrez, desafíos a su ingenio únicamente. Él es quien está en
dificultades, no la teoría vigente. Mi punto de vista es casi inverso al de Popper). Aunque las
contrastaciones son frecuentes en la ciencia normal, estas contrastaciones son de una especie
particular, puesto que en el análisis final, más que la teoría vigente, quien es sometido a
contrastación es el científico considerado individualmente. No es ésta, sin embargo, la clase de
contrastación en la que Popper piensa. Él está interesado en los procedimientos mediante los
cuales la ciencia crece, y está convencido de que ese “crecimiento” no tiene lugar
fundamentalmente por acumulación sino por el “derrocamiento revolucionario” de una teoría
aceptada y su reemplazamiento por otra mejor. Desde este punto de vista, las contraposiciones
a las que Popper da énfasis son aquellas que se realizaron para explorar las limitaciones de la
teoría aceptada o para amenazar lo más posible a una teoría vigente. Episodios como éstos son
muy raros en el desarrollo de la ciencia. Cuando ocurren, son generalmente causados o bien por
una crisis previa en el campo correspondiente o bien por la existencia de una teoría que está en
conflicto con los cánones de investigación existentes. Son, sin embargo, aspectos de, u ocasiones
para la “investigación extraordinaria”.
Popper ha caracterizado toda la actividad científica en términos que sólo se aplican a sus partes
revolucionarias que se presentan de cuando en cuando. Por ejemplo, aunque la contrastación
de los presupuestos básicos sólo tiene lugar en la ciencia extraordinaria, es la ciencia normal
quien pone al descubierto tanto los puntos específicos que hay que contrastar como el modo de
realizar la contrastación. Es para la práctica normal y no para la práctica extraordinaria de la
ciencia para lo que los científicos están entrenados; si, no obstante, consiguen desplazar y
reemplazar las teorías de las que depende la práctica normal, esto es algo raro que es preciso
explicar. Por último, una atenta mirada a la empresa científica sugiere que, mejor que la ciencia
extraordinaria, es la ciencia normal, en la que no se presenta el tipo de contrastación de Popper,
la que con más justeza distingue la ciencia de las otras actividades. Si existe un criterio de
demarcación, puede que esté en esa parte de la ciencia que Popper ignora.
En uno de sus ensayos más sugerentes, Popper remonta el origen de <<la tradición de la
discusión crítica, la cual representa el único modo practicable de ampliar nuestro
conocimiento>>. Pero, es precisamente el abandono del discurso crítico lo que marca la
transición a la ciencia. Una vez que determinado campo ha hecho esa transición, sólo se vuelve
al discurso crítico en los momentos de crisis en los que las bases de ese campo están de nuevo
en peligro. Los científicos solamente se comportan como filósofos cuando deben decidir entre
teorías en conflicto. La contrastación no puede jugar un papel muy decisivo en ninguna elección.
Hay, sin embargo, una buena razón que explica por qué la contrastación ha parecido jugar ese
papel. No puede existir ninguna actividad de resolución de rompecabezas salvo que quienes la
practiquen compartan criterios que, para ese grupo y ese momento, determinen cuándo puede
darse por resuelto un determinado rompecabezas. Los mismos criterios determinan
necesariamente cuándo se ha fracasado en hallar una solución, y todo aquel que haga una
elección puede considerar ese fracaso como el fracaso de una teoría en pasar una contrastación.
Pero, por lo general no se considera de este modo. Se echa la culpa a quien ha trabajado, y no a
sus herramientas. Ahora bien, en circunstancias especiales que induzcan a una crisis en la
profesión (por ejemplo, un fracaso de mucho bulto, o el repetido fracaso de profesionales
brillantes), lo que previamente había sido un fracaso personal, puede llegar a ser considerado
como el fracaso de la teoría que está bajo contrastación.
El rigor de los criterios de contrastación no es más que una cara de la moneda de la que la otra
cara es la tradición de resolución de rompecabezas. Es por esto por lo que la línea de
demarcación de Popper y la mía coinciden. Esta coincidencia, sin embargo, no lo es más que en
su resultado; el proceso por el que se aplican ambas líneas de demarcación es muy diferente, y
este proceso delimita los distintos aspectos de la actividad acerca de la cual debe decidirse si es
o no es ciencia. De los dos criterios, contrastación y resolución de rompecabezas, el último es el
menos equívoco y el más fundamental. La astrología es el ejemplo que más frecuentemente cita
Popper como “pseudociencia”. Dice: <<Al hacer suficientemente vagas sus interpretaciones y
profecías, los astrólogos eran capaces de explicar todo aquello que, si la teoría y las profecías
hubiesen sido más precisas, pudiera haber constituido una refutación de la teoría. Tratando de
escapar a la falsación destruían la contrastabilidad de la teoría>>. Ahora bien, la historia de la
astrología contiene muchas predicciones que fracasaron categóricamente. Ni siquiera los
exponentes más vehementes y convencidos de la astrología ponían en duda que esos fracasos
se repetirían. La astrología no puede dejarse fuera de las ciencias por la forma en que hacía sus
predicciones. Ni tampoco se la puede dejar fuera por el modo que tenía de explicar el fracaso
quienes la practicaban. Sólo cuando la astrología misma llegó a carecer de plausibilidad,
empezaron estos argumentos a dar la impresión de que daban por cierto precisamente lo que
estaba en cuestión. No había nada de anticientífico en las explicaciones que los astrólogos daban
de sus fracasos. Compárese las situaciones del astrónomo y el astrólogo. Si la predicción de un
astrónomo fallaba y sus cálculos se revisaban, podía esperar corregir los errores. Quizá los datos
fuesen erróneos: podían volverse a examinar las antiguas observaciones y podían hacerse
nuevas medidas, tareas ambas que presentaban una gran cantidad de rompecabezas
instrumentales y de cálculo. O quizá la teoría necesite ajustes. Durante más de un milenio hubo
rompecabezas teóricos y matemáticos en torno a los cuales, y a sus contrapartidas
instrumentales, se constituyó la tradición investigadora de la astronomía. El astrólogo, por el
contrario, no tuvo tales rompecabezas. Podía explicarse el hecho de que hubiera fracasos, pero
los fracasos específicos no daban lugar a la investigación de enigmas, porque ningún hombre,
por hábil que fuera, podía hacer uso de esos fracasos en un intento constructivo de reconsiderar
la tradición astrológica. Había demasiadas fuentes posibles de dificultades, muchas de las cuales
estaban más allá del conocimiento, del control o de la responsabilidad del astrólogo. Del mismo
modo, los fracasos individuales no eran informativos, y no reflejaban la competencia del
pronosticador a los ojos de sus colegas. Nunca hubo un equivalente astrológico de la tradición
astronómica de resolución de rompecabezas. Y sin rompecabezas, que primeramente desafíen
y luego den prueba del ingenio del trabajador individual, la astrología no podía convertirse en
ciencia, incluso aunque las estrellas hubiesen, en efecto, controlado el destino humano.
Resumiendo, aunque los astrólogos hicieron predicciones contrastables y reconocieron que
estas predicciones fallaban algunas veces, ni se comprometieron ni podían hacerlo en el tipo de
actividades que normalmente caracterizan a todas las ciencias reconocidas. Popper está en lo
cierto al excluir la astrología de las ciencias, pero, cuál es la razón más poderosa para hacerlo.
En algunas ocasiones las contrastaciones no son un requisito para las revoluciones a través de
las cuales avanza la ciencia. Pero esto no es cierto de los rompecabezas. Aunque las teorías que
cita Popper no hubieran sido sometidas a contrastación antes de su eliminación, ninguna de
ellas fue reemplazada antes de que hubiese cesado de sostener adecuadamente una tradición
de resolución de rompecabezas. Con o sin contrastaciones, una tradición de resolución de
rompecabezas es capaz de preparar el camino para su propia eliminación. Confiar en la
contrastación como si se tratase del sello que distingue a la ciencia es omitir lo que los científicos
hacen generalmente y, con ello, omitir el rasgo más característico de su actividad.

Con la base que nos dan las consideraciones precedentes podemos descubrir rápidamente la
razón y las consecuencias de otra de las expresiones favoritas de Popper: <<podemos aprender
de nuestros errores>>. Un error es algo que se hace o se comete, en un tiempo y un lugar
determinados por un individuo particular. Ese individuo ha dejado de obedecer alguna regla
establecida de la lógica, o del lenguaje, o de las relaciones entre uno de éstos y la experiencia.
O en lugar de ello puede que no haya reparado en las consecuencias de una determinada
elección entre las alternativas que le permiten las reglas. El individuo puede aprender de su error
solo porque el grupo cuya práctica incluye estas reglas puede aislar el fallo del individuo al
aplicarlas. En pocas palabras, los tipos de errores a los que se aplica más obviamente el
imperativo de Popper son los fallos de comprensión o de reconocimiento que tiene un individuo
en el interior de una actividad gobernada por reglas preestablecidas. En las ciencias, tales
errores ocurren con mayor frecuencia, y quizás exclusivamente, en el interior de la práctica de
la investigación normal de resolución de rompecabezas.
No es ahí, sin embargo, donde Popper los busca, porque su concepto de ciencia oscurece incluso
la existencia de investigación normal. En lugar de ello, se preocupa de los episodios
extraordinarios o revolucionarios de la evolución científica. Los errores que él señala no son por
lo común acciones sino más bien teorías científicas del pasado. Por tanto, «el aprendizaje a partir
de nuestros errores» es lo que ocurre cuando una comunidad científica rechaza una de estas
teorías y la sustituye por otra. Si esta utilización no nos parece inmediatamente extraña ello se
debe principalmente a que apela al residuo inductivista que hay en todos nosotros. Al creer que
las teorías válidas son el producto de inducciones correctas a partir de los hechos, el inductivista
está obligado a sostener también que una teoría falsa es el resultado de un error en la inducción.
Pero ni Popper ni yo somos inductivistas. Ninguno de los dos creemos que haya reglas para
inducir teorías correctas a partir de los hechos, ni siquiera que las teorías, correctas o
incorrectas, se induzcan en absoluto. En lugar de ello las consideramos como creaciones
imaginativas, inventadas de una sola pieza para aplicarlas a la naturaleza. Y si bien señalamos
que tales creaciones puede que encuentren y por lo común en efecto encuentran rompecabezas
que no pueden resolver, también reconocemos que esas perturbadoras confrontaciones
raramente ocurren durante algún tiempo después de que una teoría haya sido inventada y
aceptada. A nuestro juicio, entonces, no se cometió ningún error para llegar al sistema de
Ptolomeo, por ejemplo, y por esa razón me resulta difícil entender lo que Popper tiene en la
mente cuando dice que ese sistema, o cualquier otra teoría antigua, es un error. Por otra parte,
en el sentido en que lo emplea Popper, un error contamina por completo a un sistema y sólo
puede corregirse reemplazando todo el sistema.
Al igual que el término “contrastación”, el término “error” se ha tomado de la ciencia normal,
donde su uso es razonablemente claro, y se ha aplicado a los episodios revolucionarios, donde
sus aplicaciones son, en el mejor de los casos, problemáticas. Esa transferencia crea, o al menos
refuerza, la extendida impresión de que una teoría puede juzgarse globalmente mediante el
mismo tipo de criterios que se emplea para juzgar las aplicaciones de una investigación
individual dentro de una teoría. Popper ha buscado regularmente procedimientos de evaluación
de teorías que puedan ser aplicados con la apodíctica certeza que es característica de las
técnicas mediante las que se identifican los errores en la aritmética, en la lógica, o en la medida.
Me temo que está persiguiendo algo inalcanzable nacido de la misma combinación de ciencia
normal y ciencia extraordinaria que hizo que las contrastaciones pareciesen un rasgo tan
fundamental de las ciencias.
Popper destacó la asimetría existente entre una generalización y su negación en cuanto se
refiere a la evidencia empírica. No puede demostrarse que una teoría científica se aplique con
éxito a todos sus ejemplos posibles, pero puede demostrarse su fracaso en aplicaciones
particulares. La misma asimetría juega un papel fundamental en mi Estructura de las
Revoluciones Científicas, donde el fracaso de una teoría en proveer de reglas que identifiquen
los rompecabezas que pueden resolverse se considera como la fuente de crisis profesionales
que a menudo tienen como consecuencia el reemplazamiento de una teoría.
Pero Popper describe como "falsación" o “refutación” lo que ocurre cuando una teoría fracasa
en un intento de ser aplicada, y éstas son las primeras de una serie de expresiones que otra vez
me chocan como extremadamente raras. Tanto "falsación" como "refutación" son antónimos
de "demostración". A todo experimento se le pueden poner pegas o en cuanto a su importancia
o en cuanto a su exactitud. Todas las teorías pueden modificarse mediante varios reajustes ad
hoc sin que dejen de ser, en sus líneas principales, las mismas teorías. Además, es importante
que esto sea así, porque con frecuencia es desafiando a las observaciones y reajustando las
teorías como se desarrolla el conocimiento científico.
Popper no es, desde luego, un falsacionista ingenuo. En su The Logic of Scientific Discovery, por
ejemplo, escribe: «En realidad, nunca puede ser producida una contrademostración
concluyente de una teoría, una demostración concluyente de la falsedad de una teoría; porque
siempre es posible decir que los resultados experimentales no son fiables o que las discrepancias
que se dice que existen entre los resultados experimentales y la teoría son sólo aparentes y
desaparecerán con el avance de nuestro conocimiento>>. Desechada la contrademostración
concluyente, Popper no ha proporcionado nada que la sustituya, y la relación que él utiliza sigue
siendo la falsación lógica. Si bien Popper no es un falsacionista ingenuo, puede considerárselo
legítimamente como tal.
Si su único interés fuese la demarcación, los problemas que presentaría el no disponer de
contrademostraciones concluyentes serían menos graves y quizás eliminables. Esto es, podría
conseguirse la demarcación mediante un criterio exclusivamente sintáctico. La opinión de
Popper sería entonces, y quizá lo es, que una teoría es científica si y sólo si pueden deducirse
lógicamente de ella enunciados de observación, en particular las negaciones de enunciados
existenciales singulares. Para que una teoría sea científica sólo necesita ser falsable por un
enunciado de observación, no por una observación real. La relación entre enunciados, al
contrario de la relación entre un enunciado y una observación, podría constituir la
contrademostración concluyente con la que estamos familiarizados en lógica y en matemáticas.
Dudo que las teorías científicas puedan, sin cambios decisivos, expresarse en una forma que
permita los juicios puramente sintácticos que requiere esta versión del criterio de Popper. Pero
incluso si pudiesen, estas teorías reconstruidas proporcionarían una base para su criterio de
demarcación solamente, no para la lógica del conocimiento tan estrechamente asociada con él.
La lógica del conocimiento ha sido, sin embargo, la ocupación más persistente de Popper. «La
lógica del conocimiento -escribe-, consiste únicamente en la investigación de los métodos
empleados en aquellas contrastaciones sistemáticas a las que debe someterse cada nueva idea
si ha de ser sostenida seriamente.» De esta investigación, continúa diciendo, resultan reglas
metodológicas o convenciones como ésta: «Una vez propuesta y contrastada una hipótesis, y
una vez demostrado su temple, no se la abandonará sin que haya una "buena razón" para ello.
Una buena razón puede ser, por ejemplo... la falsación de una de las consecuencias de la
hipótesis». Estas reglas, y con ellas toda la actividad lógica descrita anteriormente, tienen ya una
importancia que no es simplemente sintáctica. Exigen que tanto el epistemólogo como el
científico que están investigando sean capaces de relacionar los enunciados derivados de una
teoría no con otros enunciados, sino con observaciones y experimentos efectivamente
realizados. Éste es el contexto en el que el término "falsación" de Popper tendría que funcionar,
pero Sir Karl guarda completo silencio sobre cómo puede hacerlo. ¿Qué es la falsación si no es
una contrademostración concluyente? ¿Bajo qué circunstancias la lógica del conocimiento exige
que un científico abandone una teoría aceptada cuando se enfrenta no con enunciados acerca
de experimentos, sino con los propios experimentos? Al dejar sin aclarar estas cuestiones, no
estoy seguro de que lo que Popper nos ha dado sea en absoluto una lógica del conocimiento.
Más que una lógica, Popper ha dado una ideología; más que reglas metodológicas, ha dado
máximas para el empleo de procedimientos.
La noción de falsación de Popper presupone que una teoría se exprese, o pueda volverse a
expresar sin tergiversaciones, de forma que permita al científico clasificar cada suceso
concebible o como ejemplo que confirme la teoría, o como ejemplo que la falsee, o como
irrelevante para la teoría. En la medida de verosimilitud, elaborada por Popper, se requiere que
produzcamos primeramente la clase de todas las consecuencias lógicas de la teoría y que
elijamos luego de entre ellas, con la ayuda de conocimientos básicos, la clase de las
consecuencias verdaderas y la clase de las consecuencias falsas. Hay que hacerlo así si es que el
criterio de verosimilitud va a dar como resultado un método para elegir entre teorías. Sin
embargo, ninguna de estas tareas puede cumplirse salvo que la teoría esté completamente
articulada lógicamente y salvo que los términos mediante los cuales se ponga en contacto con
la naturaleza estén suficientemente definidos como para determinar su aplicabilidad en cada
uno de los casos posibles. Pero en la práctica ninguna teoría científica satisface estas rigurosas
exigencias, y mucha gente ha objetado que una teoría dejaría de ser útil en la investigación si lo
hiciese. Yo mismo he introducido el término “paradigma” para subrayar que la investigación
científica depende de los ejemplos concretos que tiendan puentes sobre la especificación del
contenido y de la aplicación de las teorías científicas.
Aunque la lógica es una herramienta poderosa y esencial de la investigación científica, podemos
obtener conocimiento válido en formas a las que escasamente puede aplicarse la lógica. La
articulación lógica no es un valor por sí misma, sino que debe emprenderse sólo cuando y en la
medida en que las circunstancias lo requieran.
El alcance y contenido de los paradigmas son imposibles de especificar con precisión, pero no
por ello dejan de constituir un conocimiento válido. Por haberse derivado de la observación,
observaciones posteriores pueden mostrar su debilidad, pero mientras tanto proporcionan una
base para la acción racional. Al ver un pájaro muy parecido a como ustedes saben que son los
cisnes, pueden ustedes racionalmente suponer que necesitará la misma alimentación que los
otros y que se reproducirá con ellos. Dado que los cisnes constituyen una familia natural, ningún
pájaro que tenga un gran parecido con ellos nada más verlo debería exhibir características
radicalmente distintas cuando se lo examina con más atención.
Los libros y los profesores de los cuales se adquiere el conocimiento científico, presentan
ejemplos concretos junto con una multitud de generalizaciones teóricas. Ambos son vehículos
esenciales del conocimiento, y por tanto sería pickwickiano buscar un criterio metodológico que
suponga que el científico puede especificar de antemano si cada ejemplo imaginable se ajustará
a su teoría o la falsará. Los criterios, explícitos o implícitos, que tiene a su disposición sólo son
suficientes para responder a esa pregunta en los casos que se ajusten claramente o que sean
claramente irrelevantes. Al enfrentarse con lo inesperado, siempre debe hacer más
investigación con objeto de articular posteriormente su teoría en la zona que se ha hecho
problemática. Entonces puede rechazarla en favor de otra y por una buena razón. Pero ningún
criterio exclusivamente lógico puede dictar completamente la conclusión que debe extraerse.
Los criterios con los cuales los científicos determinan la validez de una articulación o una
aplicación de la teoría existente no bastan por sí mismo para determinar la elección entre teorías
en competencia. Popper se ha equivocado al transferir características elegidas de la
investigación cotidiana a los ocasionales episodios revolucionarios en los que el avance científico
es más obvio, ignorando a continuación por completo la actividad cotidiana. En particular, ha
tratado de resolver el problema de la elección de teorías durante las revoluciones por criterios
lógicos que sólo son completamente aplicables cuando ya puede presuponerse una teoría.
Entonces, ¿cómo eligen los científicos entre teorías en competencia? ¿cómo hemos de entender
de qué modo progresa la ciencia? Con el paso del tiempo, las teorías científicas tomadas en su
conjunto, es obvio que se hacen más y más articuladas. El número de materias a las que puede
aplicarse el tratamiento de resolución de rompecabezas crece claramente con el tiempo. Hay
una continua proliferación de especialidades científicas, debida en parte a una extensión de las
fronteras de la ciencia y en parte a la subdivisión de los dominios existentes. Una comunidad
científica raramente o nunca adoptará una teoría nueva salvo que resuelva todos o casi todos
los enigmas cuantitativos, numéricos, que han sido tratados por su predecesora. Por otra parte,
sacrificarán en ocasiones, por poco inclinados que estén a hacerlo, el poder explicativo, dejando
abiertas algunas veces cuestiones que previamente estaban resueltas y declarándolas otras
veces no científicas. Aunque el volumen de conocimiento científico aumenta claramente con el
tiempo, ¿qué diremos acerca de la ignorancia? Los problemas resueltos durante los últimos
treinta años no existían como cuestiones abiertas hace un siglo. En cualquier época el
conocimiento científico disponible agota virtualmente lo que hay que saber, dejando enigmas
que sólo son visibles en el horizonte del conocimiento existente. ¿No es posible, o quizás incluso
probable, que los científicos contemporáneos sepan menos de lo que hay que saber acerca de
su mundo que los científicos del siglo XVIII sabían acerca del suyo? Hasta no responderá a esta
pregunta y otras como ésta, no sabremos por completo lo que es el progreso científico. Y, en
último análisis, la explicación debe ser psicológica o sociológica. Esto es, debe ser una
descripción de un sistema de valores, una ideología, junto con un análisis de las instituciones a
través de las cuales es transmitido y fortalecido. Si sabemos qué es lo que los científicos valoran,
podemos esperar comprender qué problemas emprenderán y qué elecciones harán en
circunstancias específicas de conflicto.
Simplicidad, precisión, y congruencia con las teorías empleadas en otras especialidades,
constituyen valores significativos para los científicos, pero no determinan en absoluto la misma
elección ni se aplican todos del mismo modo. Siendo esto así, también es importante que la
unanimidad del grupo sea un valor muy a tener en cuenta que hace que el grupo haga mínimas
las ocasiones de conflicto y se una rápidamente en torno a un conjunto único de reglas para
resolver enigmas incluso al precio de subdividir la especialidad o excluir de ella a un miembro
que en otros tiempos fue productivo.
Hay un largo trecho desde el rechazo de las idiosincrasias psicológicas de un individuo hasta el
rechazo de los elementos comunes inducidos por la educación y el entrenamiento en la
estructura psicológica que es propia de los miembros de un grupo científico. No
comprenderemos el éxito de la ciencia sin comprender toda la fuerza de los imperativos
causados retóricamente y compartidos profesionalmente. Tales máximas y valores,
institucionalizados y posteriormente articulados, pueden explicar el resultado de elecciones que
no podrían haber sido dictadas únicamente por la lógica y el experimento. El que Popper no
reconozca que los imperativos son imperativos socio-psicológicos, contribuye a patentizar el
cambio de Gestalt que nos separa.
Popper, K. R. – La Ciencia Normal y sus peligros – La crítica y el desarrollo del conocimiento

«Un científico comprometido en una investigación, pongamos por caso en física, puede atacar
su problema de manera directa. Puede ir inmediatamente al corazón del asunto, es decir, al
corazón de una estructura organizada. Porque ya existe una estructura de las doctrinas
científicas; y con ella, una situación de los problemas generalmente aceptada. Por esta razón
puede dejar que otros sitúen su contribución en el lugar adecuado dentro del marco general del
conocimiento científico». El pasaje citado describe la situación "normal" de un científico de
manera muy similar a la de Kuhn: hay un edificio, una estructura organizada de la ciencia que
provee al científico de una exposición de problemas generalmente aceptada en la que su propia
obra pueda encajar bien. Esto se asemeja mucho a uno de los puntos principales de Kuhn: que
la "ciencia normal" como él la llama o el trabajo "normal" de un científico, presupone una
estructura de supuestos ya organizada: o una teoría, o un programa de investigación, que la
comunidad de científicos necesita para poder discutir racionalmente su trabajo. El hecho de que
Kuhn pasase por alto este punto en el que estamos de acuerdo y que se aferrase a lo que venía
inmediatamente después, demuestra que uno nunca lee o entiende un libro salvo con la ayuda
de expectativas definidas que se encuentran en la propia mente. Esto puede considerarse como
una de las consecuencias de mi tesis de que todo lo tratamos a la luz de una teoría preconcebida.
Dos críticas principales de Kuhn: la primera es, brevemente, que yo he pasado por alto
completamente lo que Kuhn llama “ciencia normal” y que he estado ocupado exclusivamente
en describir lo que Kuhn llama “investigación extraordinaria” o “ciencia extraordinaria”. La
“ciencia normal”, en el sentido de Kuhn, existe. Es la actividad de los profesionales no
revolucionarios, o, dicho con más precisión, no-demasiado-críticos; del estudioso de la ciencia
que acepta el dogma dominante del momento; que no desea desafiarlo; y que acepta una teoría
revolucionaria nueva sólo si casi todos los demás están dispuestos a aceptarla, si se pone de
moda. Resistir una nueva moda quizá requiere tanto coraje como se necesitó para imponerla.
En mi opinión, al “científico normal” se le ha enseñado mal. Creo, al igual que otros muchos, que
toda la enseñanza a nivel universitario (y si es posible antes) debería ser entrenamiento y
estímulo al pensamiento crítico. Al “científico normal” se le ha enseñado dentro de un espíritu
dogmático: ha sido víctima de indoctrinación. Ha aprendido una técnica que puede aplicarse sin
preguntar por qué puede aplicarse. Como consecuencia ha llegado a ser lo que puede llamarse
un científico aplicado, en contraposición con lo que yo llamaría un científico puro. Como señala
Kuhn, se contenta con resolver “rompecabezas”. Un problema en el que se aplica una teoría
dominante (“paradigma”). El éxito del “científico normal” consiste, por entero, en mostrar que
la teoría dominante puede ser adecuada y satisfactoriamente aplicada para alcanzar la solución
del rompecabeza en cuestión. Esta actitud existe, y sólo puedo decir que veo un peligro muy
grande en ella y en la posibilidad de que llegue a ser normal (del mismo modo que veo un gran
peligro en el aumento de especialización, el cual es también un hecho histórico innegable): un
peligro para la ciencia y aun para nuestra civilización.
Entre “científico normal” y el “científico extraordinario” de Kuhn, yo creo que hay muchas
gradaciones; y debe haberlas. Creo que la idea que tiene Kuhn de una tipología de los hombres
de ciencia y de los períodos científicos es importante; pero que necesita una puntualización. Si
bien considero que el descubrimiento de Kuhn de lo que él llama “ciencia normal” es de la mayor
importancia, no estoy de acuerdo en que la historia de la ciencia dé apoyo a su doctrina de que
“normalmente” tenemos una teoría dominante -un “paradigma”- en cada dominio científico, y
que la historia de la ciencia consiste en una sucesión de teorías dominantes, en la que hay
intercalados períodos revolucionarios de “ciencia extraordinaria”; períodos que él describe
como si la comunicación entre los científicos se hubiese venido abajo, debido a la ausencia de
una teoría dominante.
Kuhn parece proponer la tesis de que la lógica de la ciencia tiene poco interés y ningún poder
explicativo para el historiador de la ciencia. Pero, Kuhn emplea la lógica, y no meramente para
argumentar, sino precisamente en el mismo sentido en el que yo hablo de la lógica del
descubrimiento. Él emplea, sin embargo, una lógica del descubrimiento que en algunos puntos
difiere radicalmente de la mía; la lógica de Kuhn es la lógica del relativismo histórico.
Yo creo que la ciencia es especialmente crítica; que consiste en arriesgadas conjeturas,
controladas por la crítica, y que, por esa razón, puede ser descrita como revolucionaria. Pero
siempre he subrayado la necesidad de cierto dogmatismo. Si nos rendimos con demasiada
facilidad a la crítica, nunca averiguaremos dónde se encuentra la verdadera fuerza de nuestras
teorías. Kuhn, sin embargo, cree en el control de un dogma dominante durante períodos de
tiempo considerables; y no cree que el método de la ciencia sea, normalmente, el de la crítica y
las conjeturas arriesgadas. ¿Cuáles son sus principales argumentos? No son psicológicos o
históricos. Son lógicos: Kuhn considera que la racionalidad de la ciencia presupone la aceptación
de un marco general común. Considera que la racionalidad depende de algo así como un
lenguaje común y un conjunto común de presuposiciones. Considera que la discusión racional,
y la crítica racional, sólo son posibles si estamos de acuerdo sobre los puntos fundamentales.
Ésta es una tesis ampliamente aceptada y que está de moda: la tesis del relativismo. Y es una
tesis lógica. A mi juicio la tesis es errónea. Es más fácil discutir rompecabezas dentro de un marco
general común aceptado y ser arrastrado a un nuevo marco general por la marea de una nueva
moda dominante, que discutir los puntos fundamentales, esto es, el propio marco general de
nuestras presuposiciones. Pero la tesis relativista de que el marco general no puede ser discutido
críticamente es una tesis que sí puede ser discutida críticamente y que no resiste la crítica. He
puesto a esta tesis el nombre de El Mito del Marco General. La considero un error lógico y
filosófico. Por qué no soy relativista: yo creo en la verdad “absoluta” u “objetiva”, en el sentido
de Tarski. Éste es uno de los puntos en el que estamos más profundamente divididos; y es un
punto lógico. Siempre es posible una discusión crítica y una comparación de los varios marcos
generales. No es sino un dogma -un peligroso dogma- el que los distintos marcos generales sean
como lenguajes mutuamente intraducibles. El Mito del Marco General es el baluarte central del
irracionalismo. Hay que admitir lo difícil que es una discusión entre personas educadas en
marcos generales distintos. Pero nada es más fructífero que tal discusión; que el choque cultural
que ha servido de estímulo a algunas de las más grandes revoluciones intelectuales. Admito que
una revolución intelectual parece a menudo una conversión religiosa. Pero eso no significa que
no podamos evaluar, crítica y racionalmente, nuestros puntos de vista anteriores a la luz de los
nuevos. Sería simplemente falso decir que el paso de la teoría de la gravedad de Newton a la
teoría de Einstein es un salto irracional, y que ambas no son racionalmente comparables. Por el
contrario, hay muchos puntos de contacto. En la ciencia, y no así en la teología, siempre es
posible una comparación crítica de las teorías que están en competencia, de los marcos
generales que están en competencia. Y la negación de esta posibilidad es un error. En la ciencia
(y sólo en la ciencia) podemos decir que hemos hecho genuino progreso: que sabemos más de
lo que sabíamos antes.
Así, la diferencia entre Kuhn y yo se remonta, fundamentalmente, a la lógica. A su propuesta
<<Psicología más que Lógica del Descubrimiento>> podemos responder: todos sus propios
argumentos se remontan a la tesis de que el científico se ve obligado lógicamente a aceptar un
marco general, puesto que, no es posible ninguna discusión racional entre marcos generales.
Ésta es una tesis lógica -incluso aunque sea errónea. Verdaderamente, el “conocimiento
científico” puede ser considerado como carente de sujeto. El objetico es encontrar teorías que,
a la luz de la discusión crítica, se acerquen más a la verdad. De modo que el objetivo es aumentar
el contenido de verdad de nuestras teorías. La idea de volverse hacia la sociología y la psicología,
o a la historia de la ciencia, con objeto de aclarar los objetivos de la ciencia y su posible progreso,
es sorprendente y decepcionante. La indicación de que en ellas podemos encontrar algo que sea
“descripción pura y objetiva” es claramente errónea. Además, ¿cómo es posible que retroceder
hasta estas ciencias pueda ayudarnos en esta dificultad particular? ¿No es a la ciencia sociológica
(o psicológica o histórica) a la que se quiere recurrir para decidir cuál es la respuesta a la
pregunta “Qué es la ciencia” o “Qué es, de hecho, normal en la ciencia? ¿Y a quién se ha de
consultar: al sociólogo (o psicólogo o historiador) “normal” o al “extraordinario”? No, no es éste
el camino, como la mera lógica puede mostrar; así que a la pregunta “¿Lógica del
Descubrimiento o Psicología de la Investigación?” que hace Kuhn, la respuesta es que mientras
que la Lógica del Descubrimiento tiene poco que aprender de la Psicología de la Investigación,
ésta tiene mucho que aprender de aquélla.
Lakatos, I. – La falsación y la metodología de los programas de investigación científica
La crítica y el desarrollo del conocimiento

La ciencia: ¿razón o religión?

Durante siglos conocimiento significó conocimiento probado; probado bien por el poder del
intelecto o por la evidencia de los sentidos. La sabiduría y la integridad intelectual exigían que
desistiéramos de realizar manifestaciones no probadas y que minimizáramos (incluso en
nuestros pensamientos) el bache entre la especulación y el conocimiento establecido. El poder
probatorio del intelecto o de los sentidos fue puesto en duda por los escépticos hace más de
dos mil años, pero la gloría de la física newtoniana los sumió en la confusión. Los hallazgos de
Einstein de nuevo invirtieron la situación y en la actualidad muy pocos filósofos o científicos
consideran aún que el conocimiento científico es, o puede ser, conocimiento probado. Pero
pocos entienden que con esto se derrumba la estructura clásica de valores intelectuales y que
ha de ser reemplazada; no es posible atenuar simplemente el ideal de verdad probada llegando
al ideal de «verdad probable» (como hacen algunos empiristas lógicos) o al de «verdad por
consenso (cambiante)» (como hacen algunos sociólogos del conocimiento).
La importancia de Popper radica fundamentalmente en haber comprendido todas las
implicaciones del colapso de la teoría científica mejor corroborada de todos los tiempos, la
mecánica newtoniana y la teoría newtoniana de la gravitación. Desde su punto de vista, la virtud
no estriba en ser cauto para evitar errores, sino en ser implacable al eliminarlos. Audacia en las
conjeturas, por una parte, y austeridad en las refutaciones, por otra: esa es la receta de Popper.
La honestidad intelectual no consiste en intentar atrincherar o establecer la posición propia
probándola (o «haciéndola probable»); más bien la honestidad intelectual consiste en
especificar con precisión las condiciones en que estaríamos dispuestos a abandonar nuestra
posición. Creer puede ser una lamentable debilidad biológica que debe ser controlada por la
crítica, pero el compromiso es para Popper un auténtico crimen.
Kuhn piensa de otro modo. También él rechaza la idea de que la ciencia crezca mediante
acumulación de verdades eternas. También él se inspira fundamentalmente en la destrucción
de la física newtoniana realizada por Einstein. También su principal problema son las
revoluciones científicas. Pero mientras que para Popper la ciencia es «revolución permanente»,
y la crítica, la médula de la empresa científica, para Kuhn las revoluciones son excepcionales y,
en realidad, extracientíficas; en tiempos «normales» la crítica es anatema. En realidad para Kuhn
la transición de la crítica al compromiso señala el punto en que comienza el «progreso» y la
ciencia normal. Para él la idea de que tras la «refutación» se puede pedir el rechazo y la
eliminación de una teoría constituye falsacionismo ingenuo. Sólo en los escasos momentos de
«crisis» se permite la crítica de la teoría dominante y las propuestas de nuevas teorías. Kuhn,
tras reconocer el fracaso tanto del justificacionismo como del falsacionismo para suministrar
explicaciones del progreso científico, parece ahora retroceder al irracionalismo.
Para Popper, el cambio científico es racional o al menos reconstruible racionalmente y
pertenece al dominio de la lógica de la investigación. Para Kuhn, el cambio científico de un
paradigma a otro es una conversión mística que no está ni puede estar gobernada por reglas
racionales y que cae enteramente en el terreno de la psicología (social) de la investigación. El
cambio científico es una clase de cambio religioso.
El conflicto entre Popper y Kuhn no se refiere a un tema epistemológico de orden técnico. Afecta
a nuestros valores intelectuales fundamentales y tiene implicaciones no sólo para la física
teórica, sino también para las ciencias sociales subdesarrolladas e incluso para la filosofía moral
y política. Si ni siquiera en una ciencia existe forma alguna de juzgar a una teoría como no sea
mediante el número, fe y energía vocal de sus adeptos, entonces ello será aún más cierto de las
ciencias sociales; la verdad está en el poder.
En la lógica de la investigación científica de Popper confluyen dos puntos de vista distintos. Kuhn
sólo percibe uno de ellos, el «falsacionismo ingenuo» (prefiero el término «falsacionismo
metodológico ingenuo»); entiendo que su crítica del mismo es correcta y yo la reforzaré incluso.
Pero Kuhn no comprende una posición más sofisticada cuya racionalidad no se fundamenta en
el falsacionismo «ingenuo». Este enfoque popperiano puede ser inmune a las críticas de Kuhn y
presentar las revoluciones científicas como casos de progreso racional y no de conversiones
religiosas.

Falibilismo versus falsacionismo

Situación de la filosofía de la ciencia tras el hundimiento del «justificacionismo». Según los


justificacionistas, el conocimiento científico consiste en proposiciones probadas. Habiendo
reconocido que las deducciones estrictamente lógicas sólo nos capacitan para inferir (transmitir
la verdad) pero no para probar (establecer la verdad), no se pusieron de acuerdo acerca de la
naturaleza de aquellas proposiciones (axiomas) cuya verdad puede ser probada por medios
extralógicos. Los intelectualistas clásicos (o racionalistas) admitieron clases muy variadas y
poderosas de «pruebas» extralógicas: la revelación, la intuición intelectual, la experiencia. Estas,
con ayuda de la lógica, les permitirían probar cualquier clase de proposición científica. Los
empiristas clásicos sólo aceptaron como axiomas un conjunto relativamente pequeño de
«proposiciones fácticas» que expresaban los «hechos sólidos». Su valor de verdad quedaba
establecido por la experiencia y constituían la base empírica de la ciencia. Para probar las teorías
científicas mediante la restringida base empírica exclusivamente, necesitaban una lógica mucho
más poderosa que la lógica deductiva de los intelectualistas clásicos: la «lógica inductiva». Todos
los justificacionistas, fueran intelectualistas o empiristas, estaban de acuerdo en que un
enunciado singular que exprese un «hecho sólido» puede refutar a una teoría universal, pero
pocos de entre ellos entendían que una conjunción finita de proposiciones fácticas puede ser
suficiente para probar «inductivamente» una teoría universal.
El justificacionismo, esto es, la identificación del conocimiento con el conocimiento probado, fue
la tradición dominante durante siglos en el pensamiento racional. El escepticismo no negó el
justificacionismo: sólo afirmó que no había ni podía haber conocimiento probado ni, por ello,
conocimiento de clase alguna. Para los escépticos el conocimiento no era sino creencias
animales. De este modo el escepticismo justificacionista ridiculizó el pensamiento objetivo y
abrió la puerta al irracionalismo, al misticismo y a la superstición.
Esta situación explica los enormes esfuerzos realizados por los racionalistas clásicos para
intentar salvar los principios sintéticos a priori del intelectualismo, y por los empiristas clásicos,
para intentar salvar la certeza de la base empírica y la validez de la inferencia inductiva. Para
todos ellos la honestidad científica exigía que no se afirmara nada carente de prueba. Sin
embargo, ambos fueron derrotados. Resultó que ninguna teoría es susceptible de ser probada.
Los filósofos tardaron en reconocer esto por razones obvias. Los justificacionistas clásicos
temían que una vez aceptado que la ciencia teórica no puede ser probada, también tendrían
que concluir que no es otra cosa que sofismas e ilusiones, un fraude deshonesto. La importancia
filosófica del probabilismo (o neojustificacionismo) radica en haber negado la necesidad de tal
conclusión. Aunque todas las teorías carecen igualmente de la posibilidad de ser probadas,
tienen, sin embargo, grados de probabilidad diferentes (en el sentido del cálculo de
probabilidad) con relación a la evidencia empírica disponible. Por tanto, la honestidad científica
requiere menos de lo que se pensaba: consiste en expresar solamente teorías muy probables, o
incluso, en especificar para cada teoría científica, los hechos que la confirman, y la probabilidad
de la teoría a la luz de estos hechos.
Por supuesto, la sustitución de la prueba por la probabilidad constituyó un retroceso
fundamental para el pensamiento justificacionista. Pero, pronto se mostró, sobre todo merced
a los esfuerzos persistentes de Popper, que en condiciones muy generales todas las teorías
tienen probabilidad cero, sea cual sea la evidencia: no sólo todas las teorías son igualmente
imposibles de probar sino que también son igualmente improbables. Muchos filósofos
argumentan aún que el fracaso en la obtención de, al menos, una solución probabilística para el
problema de la inducción, significa que «arrojamos por la borda casi todo lo que es considerado
como conocimiento por la ciencia y por el sentido común». Este es el contexto en el que
debemos apreciar el cambio dramático aportado por el falsacionismo en la evaluación de teorías
y, en general, en los criterios de honestidad intelectual.

Falsacionismo dogmático (o naturalista). La base empírica

En primer lugar analizaré una variante muy importante del falsacionismo: el falsacionismo
dogmático (o «naturalista»). El falsacionismo dogmático admite la falibilidad de todas las teorías
científicas sin limitación, pero conserva una clase de base empírica infalible. Es estrictamente
empirista sin ser inductivista; niega que la certeza de la base empírica pueda ser transmitida a
las teorías. Por tanto, el falsacionismo dogmático es la variedad más débil del falsacionismo.
Para el falsacionista dogmático la contraevidencia empírica es el único arbitro posible de una
teoría. Por tanto, el distintivo del falsacionista dogmático es el reconocimiento de que todas las
teorías son igualmente conjeturales. La ciencia no puede probar ninguna teoría. Pero, aunque
la ciencia no puede probar, sí que puede refutar; «puede realizar con certeza lógica completa
(el acto de) repudiar lo que es falso»; esto es, existe una base empírica de hechos,
absolutamente sólida, que puede utilizarse para refutar las teorías. Los falsacionistas
suministran nuevos y muy modestos criterios de honestidad intelectual: están dispuestos a
considerar una proposición como «científica» no sólo si es una proposición probada, sino incluso
si no es más que falsable; esto es, si existen técnicas experimentales y matemáticas disponibles
en el momento, que designan a ciertos enunciados como falsadores potenciales. Por tanto, la
honestidad científica consiste en especificar por adelantado un experimento tal, que si el
resultado contradice la teoría, ésta debe ser abandonada. El falsacionista pide que cuando una
proposición sea refutada, no hay que tratar de evadir la verdad: la proposición debe ser
rechazada sin condiciones.
Los falsacionistas dogmáticos trazaron una drástica demarcación entre el teórico y el
experimentador; el teórico propone, el experimentador dispone (en nombre de la naturaleza).
Según la lógica del falsacionismo dogmático, la ciencia crece mediante reiteradas eliminaciones
de teorías con la ayuda de hechos sólidos. Por ejemplo, según este punto de vista la teoría de la
gravedad mediante vórtices de Descartes fue refutada (y eliminada) por el hecho de que los
planetas se movían en elipses y no en círculos cartesianos; la teoría de Newton, sin embargo,
explicaba con éxito los hechos entonces disponibles: tanto los que habían sido explicados por la
teoría de Descartes como aquellos que la refutaron. Por ello la teoría de Newton sustituyó a la
de Descartes. Análogamente, y según los falsacionistas, la teoría de Newton fue, a su vez,
refutada por el perihelio anómalo de Mercurio, mientras que la de Einstein explicó también este
hecho. Por tanto, la ciencia progresa mediante especulaciones audaces que nunca son probadas
ni resultan probables; algunas de las cuales son posteriormente eliminadas por refutaciones
sólidas, concluyentes y sustituidas por nuevas especulaciones aún más audaces y no refutadas
al menos por el momento.
Sin embargo, el falsacionismo dogmático es insostenible. Descansa sobre dos supuestos falsos y
un criterio de demarcación entre ciencia y no-ciencia demasiado restringido. El primer supuesto
es que existe una frontera natural, psicológica, entre las proposiciones teóricas y especulativas,
por una parte, y las proposiciones fácticas u observacionales (o básicas) por la otra. (Por
supuesto, esto es parte del enfoque naturalista del método científico). El segundo supuesto es
que si una proposición satisface el criterio psicológico de ser fáctica u observacional (o básica),
entonces es cierta; se puede decir que ha sido probada por los hechos. (Doctrina de la prueba
observacional [o experimental]). Ambos supuestos otorgan a las refutaciones mortales del
falsacionismo dogmático una base empírica a partir de la cual la falsedad probada puede
transmitirse, por medio de la lógica deductiva, a la teoría objeto de contrastación. Estos
supuestos son complementados por un criterio de demarcación: sólo son «científicas» las teorías
que excluyen ciertos acontecimientos observables y que, por ello, pueden ser refutadas por los
hechos. Dicho de otro modo: una teoría es «científica» si tiene una base empírica. Pero ambos
supuestos son falsos. La psicología testimonia contra el primero, la lógica contra el segundo y,
finalmente, la opinión metodológica testifica contra el criterio de demarcación.
1) Una somera consideración de algunos ejemplos característicos es bastante para debilitar el
primer supuesto. Galileo pretendió que podía «observar» montañas en la luna y manchas en el
sol y que tales observaciones refutaban la venerable teoría de que los cuerpos celestiales eran
inmaculadas esferas de cristal. Pero sus «observaciones» no eran «observacionales», esto es,
realizadas mediante los sentidos y sin ayuda alguna: su fiabilidad dependía de la de su telescopio
y también de la teoría óptica del telescopio que tan violentamente fue puesta en duda por sus
contemporáneos. No fueron las observaciones puras y ateóricas de Galileo las que se
enfrentaban con la teoría de Aristóteles, sino que las «observaciones» de Galileo, interpretadas
mediante su teoría óptica, se enfrentaban con las «observaciones» de los aristotélicos
interpretadas según su teoría de los cielos. Nos quedamos con dos teorías inconsistentes
situadas a la par, prima facie. Algunos empiristas pueden aceptar este punto de vista
reconociendo que las «observaciones» de Galileo no eran observaciones genuinas. Sin embargo,
defenderán que existe una «demarcación natural» entre aquellos enunciados que los sentidos
imprimen en una mente vacía y pasiva (y sólo éstos constituyen «conocimiento inmediato»
genuino) y aquellos sugeridos por sensaciones impuras, impregnadas de teorías. En realidad
todas las variedades de las teorías del conocimiento justificacionista que reconocen a los
sentidos como fuente (bien como una fuente o como la fuente) del conocimiento se ven
obligadas a incorporar una psicología de la observación. Tales psicologías especifican el estado
de los sentidos (o mejor, el estado de la mente como conjunto) «correcto», «normal», «sano»,
«sin prejuicios», «meticuloso» o «científico» en que se observa la verdad tal cual es. Para los
empiristas clásicos la mente correcta es una tabula rasa vaciada de todo contenido inicial,
liberada de todo prejuicio o teoría. Pero del trabajo de Kant y de Popper (y del de los psicólogos
influidos por ellos) se desprende que tal psicoterapia empirista nunca puede tener éxito. Porque
no hay ni puede haber sensaciones no impregnadas de expectativas y por ello no hay
demarcación natural (psicológica) entre las proposiciones observacionales y teóricas. 2) Pero
incluso si existiera tal demarcación natural la lógica destruiría el segundo supuesto del
falsacionismo dogmático, porque el valor de verdad de las proposiciones «observacionales» no
puede ser decidido de forma indubitable: ninguna proposición fáctica puede nunca ser probada
mediante un experimento. Las proposiciones sólo pueden ser derivadas a partir de otras
proposiciones; no a partir de los hechos: no se pueden probar enunciados mediante
experiencias. Si las proposiciones fácticas no pueden ser probadas, entonces son falibles. Si son
falibles, entonces los conflictos entre las teorías y las proposiciones fácticas no son «falsaciones»
sino simples inconsistencias. Nuestra imaginación puede desempeñar un papel más importante
en la formulación de «teorías» que en la formulación de «proposiciones fácticas», pero ambas
son falibles. Por tanto, no podemos probar las teorías y tampoco podemos refutarlas. La
demarcación entre unas teorías débiles, carentes de prueba y una «base empírica» sólida y
probada, es inexistente: todas las proposiciones de la ciencia son teóricas e inevitablemente
falibles. 3) Por último, incluso si existiera una demarcación natural entre enunciados
observacionales y teorías, e incluso si el valor de verdad de los enunciados observacionales
pudiera ser establecido de modo indudable, aún así el falsacionismo dogmático sería incapaz de
eliminar la clase más importante de las que suelen considerarse como teorías científicas. Porque
incluso si los experimentos pudieran probar los informes experimentales, su poder de refutación
seguiría siendo muy restringido: precisamente las teorías más admiradas no prohíben ningún
acontecimiento observable. Cuando un científico propone una hipótesis y esta es contrastada,
no es, sin embargo, refutada la teoría general que la sostiene. O bien se propone otra ingeniosa
hipótesis auxiliar o bien se olvida del asunto. Esto sugiere que incluso las teorías científicas más
respetadas, como la dinámica de Newton y la teoría de la gravitación, pueden no prohibir ningún
fenómeno observable. En verdad algunas teorías científicas prohíben la aparición de un
acontecimiento en alguna región espacio-temporal especifica (esto es, un «acontecimiento
singular») sólo con la condición de que ningún otro factor (posiblemente oculto en algún rincón
distante y no especificado del universo) tenga influencia sobre él. Pero entonces tales teorías
nunca, por sí solas, contradicen un enunciado básico: como máximo contradicen una conjunción
de un enunciado básico que describe un acontecimiento espacio-temporal singular y un
enunciado universal de no-existencia según el cual no hay otras causas relevantes actuando en
ningún lugar del universo. Y el falsacionista dogmático no puede pretender que tales enunciados
universales de no-existencia formen parte de la base empírica o que puedan ser observados y
probados mediante la experiencia. Otro modo de expresar la misma idea es decir que algunas
teorías científicas se interpretan normalmente como si incorporaran una cláusula ceteris-
paribus (permaneciendo el resto constante): en tales casos lo que puede ser refutado es una
teoría científica con esta cláusula. Pero tal refutación no tiene consecuencias para la teoría que
se contrasta porque sustituyendo la cláusula ceteris-paribus por otra distinta siempre es posible
retener la teoría específica, cualquiera que sea el resultado de la contrastación. Si esto es así, el
«inexorable» procedimiento de refutación del falsacionismo dogmático se viene abajo en tales
casos incluso si existiera una base empírica sólidamente establecida que sirviera como ballesta
para lanzar la flecha del modus tollens: el blanco fundamental seguiría siendo
irremediablemente evasivo. Y sucede que son precisamente las teorías «maduras», más
importantes, de la historia de la ciencia las que prima facie son irrefutables por este
procedimiento. Por otra parte, de acuerdo con los criterios del falsacionismo dogmático todas
las teorías probabilísticas están incluidas en este mismo apartado, porque ninguna muestra
finita puede nunca refutar una teoría probabilística universal; las teorías probabilísticas, como
las que tienen una cláusula ceteris-paribus, carecen de base empírica. Pero entonces, y según
sus propias palabras, el falsacionismo dogmático relega las teorías científicas más importantes
al ámbito de la metafísica donde la discusión racional (que según sus criterios consiste de
pruebas y refutaciones) no se plantea, puesto que una teoría metafísica donde la discusión
racional (que según sus criterios consiste en marcación del falsacionista dogmático es
profundamente antiteórico. Por otra parte, es fácil argumentar que las cláusulas ceteris-paribus
no constituyen excepciones en la ciencia, sino más bien la regla. La afirmación «todos los cisnes
son blancos» (de ser cierta), constituiría una mera curiosidad, a menos que se afirmara que la
condición de ser cisne causa la blancura. Pero en tal caso un cisne negro no refutaría esta
proposición, puesto que puede indicar solamente que hay otras causas que operan de forma
simultánea. Por tanto, o bien «todos los cisnes son blancos» es una curiosidad fácilmente
refutable, o bien es una proposición científica con una cláusula ceteris-paribus e irrefutable por
ello. Entonces, la tenacidad de una teoría frente a la evidencia empírica sería un argumento a
favor más que en contra de su consideración como teoría «científica». La «irrefutabilidad» se
convertiría en un distintivo de la ciencia.
Para resumir: los justificacionistas clásicos sólo admitían teorías probadas; los justificacionistas
neoclásicos, teorías probables; los falsacionistas dogmáticos comprendieron que en ambos
casos ninguna teoría resultaba admisible. Decidieron aceptar teorías si éstas son refutables; esto
es, refutables mediante un número finito de observaciones. Pero incluso si existieran tales
teorías refutables (aquellas que pueden ser contradichas por un número finito de hechos
observables) aún permanecerían, desde un punto de vista lógico, demasiado cerca de la base
empírica. Por ejemplo, en los términos del falsacionista dogmático, una teoría como «todos los
planetas se mueven en elipses» puede ser refutada por cinco observaciones y por ello el
falsacionista dogmático la consideraría científica. Una teoría como «todos los planetas se
mueven en círculos» puede ser refutada por cuatro observaciones y por ello el falsacionista la
consideraría como aún más científica. La quintaesencia de la cientificidad sería una teoría como
«todos los cisnes son blancos» que puede refutarse mediante una sola observación. Por otra
parte, rechazará todas las teorías probabilísticas junto con las de Einstein, Maxwell y Newton
por acientíficas, dado que ningún número finito de observaciones puede refutarlas nunca.
Si aceptamos el criterio de demarcación del falsacionista dogmático y también la idea de que los
hechos pueden probar las proposiciones fácticas, hemos de declarar que las teorías más
importantes (si no todas las teorías) propuestas en la historia de la física son metafísicas; que la
mayor parte del progreso aceptado (si no todo el progreso) es pseudoprogreso; que la mayoría
del trabajo realizado es irracional. Sin embargo, si aún aceptamos el criterio de demarcación del
falsacionista dogmático y negamos que los hechos puedan probar las proposiciones, entonces
ciertamente concluimos en el escepticismo completo: toda la ciencia es, sin duda, metafísica
irracional y debe ser rechazada, no sólo son las teorías científicas igualmente incapaces de ser
probadas e igualmente improbables, sino que también son igualmente irrefutables. Pero el
reconocimiento de que no sólo las proposiciones teóricas sino todas las proposiciones de la
ciencia son falibles, implica el colapso total de todas las formas del justificacionismo dogmático
como teorías de la racionalidad científica.

Falsacionismo metodológico. La “base empírica”

El colapso del falsacionismo dogmático ante la potencia de los argumentos falibilistas nos
devuelve al punto de partida. Si todos los enunciados científicos son teorías falibles sólo
podemos criticarlos en razón de su inconsistencia. Pero entonces, ¿en qué sentido es empírica
la ciencia, si es que lo es en algún sentido? Si las teorías científicas no pueden ser probadas ni se
les puede atribuir una probabilidad, ni pueden ser refutadas, entonces parece que en último
término los escépticos tienen razón: la ciencia no es sino especulación ociosa y no existe
progreso en el conocimiento científico. ¿Es posible aún oponerse al escepticismo? ¿Podemos
salvar a la crítica científica del falibilismo? ¿Es posible contar con una teoría falibilista del
progreso científico? En particular, si la crítica científica es falible, ¿sobre qué bases podemos
eliminar una teoría?
Una respuesta sorprendente la suministra el falsacionismo metodológico. El falsacionismo
metodológico es una clase de convencionalismo. Existe una demarcación importante entre
teorías del conocimiento «pasivas» y «activas». Las «pasivas» mantienen que el conocimiento
auténtico es la impresión de la naturaleza en una mente completamente inerte; la actividad
mental sólo puede conducir a prejuicios y distorsiones. La tradición pasiva más influyente es el
empirismo clásico. Las «activas» defienden que no podemos leer el libro de la naturaleza sin
actividad mental, sin interpretarlo según nuestras teorías y expectativas. Pues bien, los
«activistas» conservadores sostienen que nacemos con nuestras expectativas básicas; mediante
ellas convertimos el mundo en «nuestro mundo» y debemos después vivir para siempre en la
prisión de nuestro mundo. La idea de que vivimos y morimos en la prisión de nuestros «marcos
conceptuales» fue desarrollada en primer lugar por Kant. Pero los activistas revolucionarios
entienden que los marcos conceptuales pueden ser desarrollados y sustituidos por otros nuevos
y mejores; somos nosotros quienes creamos nuestras «prisiones» y quienes también, mediante
la crítica, las destruimos.
Whewell, y después Poincaré, Milhoud y Le Roy dieron nuevos pasos desde el activismo
conservador hacia el revolucionario. Whewell defendió que las teorías se desarrollan mediante
ensayo y error en los «preludios de las épocas inductivas». Las mejores de ellas son «probadas»
después, en las «épocas inductivas», mediante una larga consideración de carácter
fundamentalmente a priori que él llamó «intuición progresiva». Las «épocas inductivas» son
seguidas de las «secuelas de las épocas inductivas»: desarrollos acumulativos de teorías
auxiliares. Poincaré, Milhoud y Le Roy rechazaban la idea de prueba mediante intuición
progresiva y preferían explicar el continuo éxito histórico de la mecánica newtoniana mediante
una decisión metodológica adoptada por los científicos: tras un período considerable de éxito
empírico inicial, los científicos pueden decidir no permitir que la teoría sea refutada. Una vez
adoptada esta decisión, solucionan (o disuelven) las anomalías aparentes mediante hipótesis
auxiliares u otras «estratagemas convencionalistas». Este convencionalismo conservador tiene,
sin embargo, el inconveniente de que no nos permite salir de nuestras prisiones autoimpuestas
una vez que el período inicial de ensayo y error ha concluido y se ha adoptado la gran decisión.
No puede solucionar el problema de la eliminación de aquellas teorías que fueron triunfantes
durante un largo período. Según el convencionalismo conservador los experimentos pueden
tener poder suficiente como para refutar a las teorías jóvenes, pero no para refutar a las teorías
antiguas y asentadas: conforme crece la ciencia, disminuye el poder de la evidencia empírica. Los
críticos de Poincaré se negaron a aceptar la idea de que aunque los científicos construyen sus
marcos conceptuales, llega un momento en que los mismos se convierten en prisiones que no
pueden ser demolidas. Esta crítica originó dos escuelas de convencionalismo revolucionario: el
simplicismo de Duhem y el falsacionismo metodológico de Popper. Duhem acepta la posición
convencionalista de que ninguna teoría física se derrumba nunca por el peso de las
«refutaciones», pero pretende que, sin embargo, puede hundirse por el peso de las
«reparaciones constantes y complejos refuerzos», entonces la teoría pierde su sencillez original
y debe ser reemplazada. Pero entonces la falsación depende de los gustos subjetivos o, como
máximo, de la moda científica y se deja demasiado espacio para la adhesión dogmática a una
teoría favorita. Popper trató de encontrar un criterio que fuera más objetivo y más demoledor.
Propuso una metodología que acepta la fortaleza de los experimentos incluso en la ciencia
«madura». El falsacionismo metodológico de Popper es a la vez convencionalista y falsacionista,
pero «difiere de los convencionalistas (conservadores) al defender que los enunciados
aceptados por acuerdo no son espaciotemporalmente universales, sino espaciotemporalmente
singulares», y difiere del falsacionista dogmático al mantener que el valor de verdad de tales
enunciados no puede ser probado por los hechos, sino que, en algunos casos, puede decidirse
por acuerdo.
El convencionalista conservador (o si se prefiere, el «justificacionista metodológico») duhemiano
hace irrefutables por decreto algunas teorías (espaciotemporalmente) universales, que se
distinguen por su poder explicativo, su simplicidad o su belleza. Nuestro convencionalista
revolucionario popperiano (o «falsacionista metodológico») hace irrefutables por decreto
algunos enunciados (espaciotemporalmente) singulares que se distinguen por el hecho de que
existe en la época una «técnica relevante» tal que «cualquiera que la aprenda» será capaz de
decidir que el enunciado es «aceptable». Tal enunciado puede llamarse «básico» u
«observacional», pero sólo entre comillas. En realidad la selección misma de tales enunciados
es un tema de decisión no basado exclusivamente en consideraciones psicológicas. Esta decisión
es seguida después por una segunda clase de decisión relativa a la separación del conjunto de
enunciados básicos aceptados del resto. Estas dos decisiones corresponden a los dos supuestos
del falsacionismo dogmático. Pero existen diferencias importantes. Por encima de todo, el
falsacionista metodológico no es un justificacionista; carece de ilusiones sobre las «pruebas
experimentales» y conoce perfectamente la falibilidad de sus decisiones y los riesgos que corre.
El falsacionista metodológico comprende que en las «técnicas experimentales» del científico hay
implicadas teorías falibles con las que interpreta los hechos. A pesar de ello, «aplica» tales
teorías; en el contexto dado, las considera no como teorías bajo contrastación, sino como
conocimiento fundamental carente de problemas «que aceptamos (tentativamente) como no
problemático mientras estamos contrastando la teoría». Puede denominar a tales teorías (y a
los enunciados cuyo valor de verdad decide con ayuda de aquellas) «observacionales», pero esto
sólo es un hábito lingüístico heredado del falsacionismo naturalista. El falsacionista
metodológico utiliza nuestras mejores teorías como extensiones de nuestros sentidos y amplía
el ámbito de las teorías que pueden ser aplicadas en la contrastación más allá del ámbito de
teorías estrictamente observacionales propio del falsacionista dogmático. La necesidad de
adoptar decisiones para separar la teoría que se contrasta del conocimiento fundamental no
problemático es un rasgo característico de esta clase de falsacionismo metodológico.
Esta consideración muestra el elemento convencional que existe en la concesión, para un
contexto dado, de rango (metodológicamente) «observacional» a una teoría. De forma análoga
existe un elemento convencional importante en la decisión relativa al auténtico valor de verdad
de un enunciado básico que adoptamos tras haber decidido qué «teoría observacional» se
aplica. Una observación única puede ser una extraña consecuencia de algún error trivial; para
reducir tales riesgos, los falsacionistas metodológicos prescriben algunos controles de
seguridad. El más sencillo de tales controles es repetir el experimento (cuántas veces es un
asunto convencional), de modo que se fortifica al falsador potencial mediante una «hipótesis
falsadora muy corroborada». Los falsacionistas metodológicos también señalan que, de hecho,
estas convenciones son institucionalizadas y aceptadas por la comunidad científica: el veredicto
de los científicos experimentales suministra la lista de falsadores «aceptados». De este modo
establece su «base empírica» el falsacionista metodológico (utiliza las comillas «para dar un
énfasis irónico» a la expresión). Esta «base» difícilmente puede ser llamada «base» de acuerdo
con criterios justificacionistas; en ella no hay nada probado: se trata de unos «cimientos de
arena». Ciertamente si esta «base empírica» entra en conflicto con una teoría, puede decirse
que la teoría está «falsada», pero no en el sentido de haberse probado su falsedad. La
«falsación» metodológica es muy diferente de la falsación dogmática. Si una teoría está falsada,
se ha probado que es falsa; si está «falsada», aún puede ser cierta. Si mediante esta clase de
«falsación» procedemos a la «eliminación» real de una teoría, podemos concluir eliminando una
teoría verdadera y aceptando una falsa. Sin embargo, el falsacionista metodológico recomienda
que se haga precisamente eso. El falsacionista metodológico comprende que si deseamos
reconciliar el falibilismo con la racionalidad (no justificacionista) debemos hallar un
procedimiento para eliminar algunas teorías. Si no lo conseguimos, el crecimiento de la ciencia
no será sino el crecimiento del caos. Cuando una teoría ha sido falsada, debe ser eliminada a
pesar de los riesgos implicados: «(trabajamos con las teorías sólo) mientras resistan las
contrastaciones». Esta es la explicación del falsacionista metodológico acerca de cómo salir de
una vía muerta: «Siempre es la experimentación la que nos salva de seguir un camino que no
conduce a ninguna parte».
El falsacionista metodológico separa el rechazo y la refutación que habían sido unidos por el
falsacionista dogmático. Desde esta perspectiva propone un nuevo criterio de demarcación: sólo
son científicas aquellas teorías (esto es, aquellas proposiciones no «observacionales») que
prohíben ciertos acontecimientos observables y que por ello pueden ser «falsadas» y
rechazadas; o dicho de forma más breve, una teoría es «científica» (o «aceptable») si tiene una
«base empírica». Este criterio pone de relieve la diferencia entre el falsacionismo dogmático y el
metodológico. Este criterio de demarcación metodológico es mucho más liberal que el
dogmático. El falsacionismo metodológico abre nuevos caminos para la crítica; muchas más
teorías pueden ser calificadas como «científicas». Ya hemos visto que hay más teorías
«observacionales» que teorías observacionales y por eso hay más enunciados «básicos» que
enunciados básicos. Por otra parte, las teorías probabilísticas ahora se convierten en científicas;
aunque no son falsables, fácilmente pueden convertirse en «falsables» mediante una decisión
adicional (de tercera clase) que pueden adoptar los científicos al especificar ciertas reglas para
el rechazo que convierten a la evidencia, estadísticamente interpretada, en «inconsistente» con
la teoría probabilística. Pero ni siquiera estas tres decisiones son suficientes para que podamos
«falsar» una teoría incapaz de explicar nada «observable» sin la ayuda de una cláusula ceteris-
paribus. Ningún número finito de «observaciones» es suficiente para «falsar» una teoría tal. El
falsacionista metodológico soluciona el problema adoptando una decisión ulterior (cuarta
clase); cuando contrasta una teoría junto con una cláusula ceteris-paribus y descubre que esta
conjunción ha sido refutada, debe decidir si interpreta la refutación como una refutación de la
teoría específica. Podemos llamar a un acontecimiento descrito por un enunciado A, una
«anomalía con relación a una teoría T’» si A es un falsador potencial de la conjunción de T y una
cláusula ceteris-paribus, pero se convierte en un falsador potencial de T tras haber decidido
relegar la cláusula ceteris-paribus al «conocimiento fundamental no problemático». Si el
científico se retrae de adoptar tales decisiones audaces, «nunca se beneficiará de la
experiencia», «creyendo, tal vez, que su función es defender contra la crítica un sistema que ha
tenido éxito, mientras no sea concluyentemente refutado». Degenerará hasta convertirse en un
apologista siempre dispuesto a afirmar que «las discrepancias que parecen existir entre los
resultados experimentales y la teoría sólo son aparentes y desaparecerán con el avance de
nuestro conocimiento». Pero para el falsacionista esto es «todo lo contrario de la actitud crítica
que es la adecuada para el científico» y resulta intolerable.
El falsacionista metodológico está en un apuro serio cuando tiene que decidir dónde trazar la
demarcación, aunque sólo sea en un contexto bien definido, entre lo que es problemático y lo
que no lo es. El apuro se hace dramático cuando tiene que adoptar una decisión sobre las
cláusulas ceteris-paribus, cuando tiene que promocionar a la categoría de «experimento crucial»
uno entre cientos de «fenómenos anómalos» y decidir que, en tal caso, el experimento fue
«controlado». De este modo, con la ayuda de esta cuarta clase de decisión nuestro falsacionista
metodológico ha conseguido, al fin, interpretar como «científicas» incluso teorías como la de
Newton. Realmente no hay razón para que no dé un paso ulterior. ¿Por qué no decidir que una
teoría a la que ni siquiera estas cuatro decisiones convierten en empíricamente refutable, queda
refutada si entra en conflicto con otra teoría que es científica de acuerdo con algunos de los
criterios previamente especificados, y que también ha sido bien corroborada? Después de todo,
si rechazamos una teoría porque se considera cierto uno de sus falsadores potenciales, a la luz
de una teoría observacional, ¿por qué no rechazar otra teoría por entrar en conflicto directo con
una que puede ser relegada al conocimiento fundamental no problemático? Ello nos permitiría,
mediante una quinta clase de decisión, eliminar teorías «sintácticamente metafísicas», esto es,
teorías que, como los enunciados «todos-algunos» o los puramente existenciales no pueden
tener falsadores potenciales espaciotempotaltnente singulares, debido a su forma lógica.
Resumiendo: el falsacionista metodológico ofrece una interesante solución al problema de
combinar la crítica incisiva con el falibilismo. Al situar la falsación en un nuevo marco, salva el
atractivo código de honor del falsacionista dogmático, la idea de que la honestidad científica
consiste en especificar, por adelantado, un experimento tal que, si el resultado contradice a la
teoría, ésta ha de ser abandonada.
Las decisiones desempeñan un papel crucial en esta metodología, como en cualquier variedad
del convencionalismo. Sin embargo, las decisiones pueden extraviarnos de forma catastrófica.
El falsacionista metodológico es el primero en admitir esto. Pero, según él, tal es el precio que
debemos pagar por la posibilidad de progresar.
Durante dos mil años los científicos y los filosóficos de orientación científica aceptaron ilusiones
justificacionistas de alguna clase. Algunos argumentaron que hay que optar entre el
justificacionismo inductivista y el irracionalismo: «No veo otra salida que la afirmación
dogmática de que conocemos el principio inductivo u otro equivalente; la otra alternativa es
tirar todo lo que la ciencia y el sentido común consideran como conocimiento». Nuestro
falsacionista metodológico rechaza con orgullo tal escapismo; se atreve a afrontar todo el
impacto del falibilismo escapando, sin embargo, del escepticismo mediante una política
convencionalista atrevida, arriesgada y carente de dogmas. Conoce perfectamente los riesgos,
pero insiste en que hay que optar entre alguna clase de falsacionismo metodológico y el
irracionalismo. Ofrece un juego en el que tenemos pocas esperanzas de ganar, pero afirma que
aún así es mejor participar en él que abandonarlo. Realmente los críticos del falsacionismo
ingenuo que no ofrecen un método de crítica alternativo son inevitablemente arrastrados hacia
el irracionalismo. Por ejemplo, el confuso argumento de Neurath según el cual la falsación y la
subsiguiente eliminación de una hipótesis puede haber sido «un obstáculo para el progreso de
la ciencia» carece de fuerza mientras la única alternativa ofrecida sea el caos. Sin duda Hempel
tiene razón al insistir en que «la ciencia ofrece varios ejemplos en los que un conflicto entre una
teoría muy confirmada y un resultado experimental recalcitrante ocasional puede ser resuelto
rechazando el segundo en lugar de sacrificar a la primera»; sin embargo, admite que no puede
ofrecer otro «criterio fundamental» que no sea el del falsacionismo ingenuo. Neurath y
aparentemente Hempel, rechazan el falsacionismo como un pseudo-racionalismo, pero, ¿dónde
está el «racionalismo auténtico»? Popper ya advirtió en 1934 que la metodología permisiva de
Neurath (o más bien, su falta de metodología) convertiría a la ciencia en a-empírica y, por tanto,
en irracional: «Necesitamos un conjunto de reglas que limiten la arbitrariedad al "tachar" (o
bien, al "aceptar") una sentencia protocolaria. Neurath no suministra tales reglas y por ello, sin
pretenderlo, se deshace del empirismo. Todo sistema resulta ser defendible si cualquier persona
tiene derecho (y según Neurath todos lo tienen) a "tachar" simplemente una sentencia
protocolaria cuando ésta resulta inconveniente». Popper está de acuerdo con Neurath en que
todas las proposiciones son falibles, pero señala que no podemos progresar a menos que
dispongamos de una estrategia o método racional que nos guíe cuando entran en conflicto.
Normalmente es muy difícil criticar una teoría acerca de la crítica. El falsacionismo naturalista
era relativamente fácil de refutar puesto que se apoyaba en una psicología empírica de la
percepción de la que se podía mostrar que, simplemente, era falsa. Pero ¿cómo puede refutarse
a falsación metodológica? Ningún desastre puede refutar nunca una teoría de la racionalidad
no-justificacionista. Además, ¿cómo reconocer los desastres epistemológicos? No tenemos
medios para juzgar si aumenta o disminuye la verosimilitud de nuestras teorías sucesivas. Por
ahora no hemos desarrollado una teoría general de la crítica ni siquiera para las teorías
científicas; mucho menos para las teorías de la racionalidad; por ello, si queremos refutar al
falsacionismo metodológico debemos hacerlo sin contar con una teoría sobre cómo hacerlo. Si
examinamos los detalles históricos de los experimentos cruciales más famosos, nos vemos
obligados a concluir que o bien fueron aceptados como cruciales por motivos no racionales, o
que su aceptación se fundamentó en principios de racionalidad radicalmente distintos de los
que hemos examinado. En primer lugar nuestro falsacionista debe deplorar el hecho de que
algunos teóricos obstinados a menudo se oponen a los veredictos experimentales y consiguen
cambiarlos. Hay dificultades adicionales que se originan en la falsación de teorías que incorporan
una cláusula ceteris-paribus. Su falsación, como se produce en la historia real, es prima facie
irracional de acuerdo con los criterios de nuestro falsacionista. Según estos criterios los
científicos a menudo parecen actuar con una lentitud irracional; por ejemplo, transcurrieron
ochenta y cinco años desde la aceptación del perihelio de Mercurio como anomalía y su
aceptación como falsación de la teoría de Newton a pesar de que la cláusula ceteris-parihus
estaba razonablemente bien corroborada. Por otra parte, en ciertas ocasiones los científicos
parecen actuar con un apresuramiento irracional; por ejemplo, Galileo y sus discípulos
aceptaron la mecánica celeste heliocéntrica de Copérnico a pesar de la abundante evidencia en
contra de la rotación de la tierra; Bohr y sus discípulos aceptaron una teoría sobre la emisión de
la luz a pesar de que contradecía a la teoría, bien corroborada, de Maxwell.
Realmente no es difícil apreciar al menos dos características cruciales que son comunes al
falsacionista dogmático y al falsacionista metodológico y que claramente están en contradicción
con la historia real de la ciencia: 1) una contrastación es, o se debe hacer que sea, una
confrontación bilateral entre teoría y experimento, de modo que en el enfrentamiento final ellos
son los únicos actores, y 2) que el único resultado interesante de tal confrontación es la falsación
(concluyente): los únicos descubrimientos auténticos son refutaciones de hipótesis científicas».
Sin embargo, la historia de la ciencia sugiere que 1') las contrastaciones son, como mínimo,
enfrentamientos trilaterales entre teorías rivales y experimentos, y 2') algunos de los
experimentos más interesantes originan, a primera vista, una confirmación en lugar de una
falsación.
Pero si, como parece ser el caso, la historia de la ciencia no confirma nuestra teoría de la
racionalidad científica, entonces tenemos dos alternativas. Una de ellas es abandonar los
intentos de suministrar una explicación racional del éxito de la ciencia. El método científico (o
«lógica de la investigación») concebido como la disciplina que trata de la evaluación racional de
las teorías científicas (y de los criterios de progreso) se desvanece. Naturalmente es posible
tratar de explicar los cambios de «paradigmas» en términos de la psicología social. Eso es lo que
hacen Polanyi y Kuhn. La otra alternativa es tratar de reducir, como mínimo, el elemento
convencional del falsacionismo (posiblemente no es posible eliminarlo) y sustituir las versiones
ingenuas del falsacionismo metodológico [caracterizadas por las tesis 1) y 2) descritas más
arriba] por una versión sofisticada que ofrezca un nuevo fundamento racional a la falsación y
recupere así la metodología y la idea del progreso científico. Tal es el camino adoptado por
Popper y el que yo intento seguir.

Falsacionismo sofisticado versus falsacionismo ingenuo. Cambios progresivos y


cambios degenerativos de problemas

El falsacionismo sofisticado difiere del ingenuo tanto en sus reglas de aceptación (o «criterio de
demarcación») como en sus reglas de falsación o eliminación. Para el falsacionista ingenuo
cualquier teoría que pueda interpretarse como experimentalmente falsable es «aceptable» o
«científica». Para el falsacionista sofisticado una teoría es «aceptable» o «científica» sólo si tiene
un exceso de contenido empírico corroborado con relación a su predecesora (o rival); esto es,
sólo si conduce al descubrimiento de hechos nuevos. Esta condición puede descomponerse en
dos apartados: que la nueva teoría tenga exceso de contenido empírico («aceptabilidad1») y que
una parte de ese exceso de contenido resulte verificado («aceptabilidad2»). El primer requisito
puede confirmarse inmediatamente mediante un análisis lógico a priori; el segundo sólo puede
contrastarse empíricamente y ello puede requerir un tiempo indefinido.
Para el falsacionista ingenuo una teoría es falsada por un enunciado observacional
(«reforzado») que entra en conflicto con ella (o que decide interpretar como si entrara en
conflicto con ella). Para el falsacionista sofisticado una teoría científica T queda falsada si y sólo
si otra teoría T' ha sido propuesta y tiene las siguientes características: 1) T' tiene un exceso de
contenido empírico con relación a T; esto es, predice hechos nuevos, improbables o incluso
excluidos por T; 2) T' explica el éxito previo de T; esto es, todo el contenido no refutado de T
está incluido (dentro de los límites del error observacional) en el contenido de T', y 3) una parte
del exceso de contenido de T' resulta corroborado.
Para evaluar estas definiciones debemos comprender nuestro problema original y sus
consecuencias. En primer lugar debemos recordar el descubrimiento metodológico de los
convencionalistas según el cual ningún resultado experimental es capaz de matar a una teoría;
cualquier teoría puede ser salvada de los contraejemplos bien mediante algunas hipótesis
auxiliares o mediante las adecuadas reinterpretaciones de sus términos. Los falsacionistas
ingenuos solucionaron este problema relegando (en los contextos cruciales) las hipótesis
auxiliares al terreno del conocimiento fundamental no problemático, eliminándolas del modelo
deductivo correspondiente a la contrastación, y condenando, por tanto, a la teoría elegida al
aislamiento lógico, una posición en la que tal teoría se convierte en el blanco pasivo de los
ataques de los experimentos contrastadores. Pero puesto que este procedimiento no suministra
una guía adecuada para realizar una reconstrucción racional de la historia de la ciencia, parece
conveniente que reflexionemos sobre nuestras nociones. ¿Por qué buscar la falsación a
cualquier precio? Por otra parte, ¿por qué no imponer ciertas reglas sobre los ajustes teóricos
mediante los que se permite salvar a una teoría? Realmente algunas reglas de ese tipo han sido
conocidas desde hace siglos y las podemos encontrar expresadas en los antiguos epigramas
contra las explicaciones ad hoc, las tergiversaciones vacías o los trucos lingüísticos
autodefensivos. Ya hemos visto que Duhem bosquejó tales reglas en términos de «simplicidad»
y «buen sentido». Pero ¿cuándo sucede que la falta de simplicidad del cinturón protector de
ajustes teóricos alcanza el punto en que la teoría debe ser abandonada? La confusa noción de
«simplicidad» de Duhem hace que la decisión dependa de los gustos y las modas, como el
falsacionista ingenuo argumentó correctamente.
¿Es posible mejorar las nociones de Duhem? Popper lo hizo. Su solución (una versión sofisticada
del falsacionismo metodológico) es más objetiva y más rigurosa. Popper conviene con los
convencionalistas en que las teorías y las proposiciones fácticas siempre pueden ser
reconciliadas con la ayuda de hipótesis auxiliares; conviene que el problema es cómo diferenciar
los ajustes científicos de los pseudocientíficos, los cambios de teoría racionales de los
irracionales. Según Popper el salvar a una teoría con ayuda de hipótesis auxiliares que satisfacen
ciertas condiciones bien definidas, representa un progreso científico; pero el salvar a una teoría
con ayuda de hipótesis auxiliares que no las satisfacen, representa una degeneración. Popper
denomina a tales hipótesis auxiliares, inadmisibles «hipótesis ad hoc», simples cambios
lingüísticos, «estratagemas convencionalistas». Pero entonces cualquier teoría científica debe
ser evaluada en conjunción con sus hipótesis auxiliares, condiciones iniciales, etc., y,
especialmente, en unión de sus predecesoras, de forma que se pueda apreciar la clase de cambio
que la originó. Por lo tanto, lo que evaluamos es una serie de teorías y no las teorías aisladas.
Tomemos una serie de teorías T1, T2, T3... en la que cada teoría se obtiene añadiendo cláusulas
auxiliares, o mediante reinterpretaciones semánticas de la teoría previa con objeto de acomodar
alguna anomalía, y de forma que cada teoría tenga, al menos, tanto contenido como el
contenido no refutado de sus predecesoras. Digamos que una serie tal de teorías es
teóricamente progresiva (o que «constituye un cambio de problemática teóricamente
progresivo») si cada nueva teoría tiene algún exceso de contenido empírico con respecto a su
predecesora; esto es, si predice algún hecho nuevo e inesperado hasta entonces. Digamos que
una serie de teorías teóricamente progresiva es también empíricamente progresiva (o que
«constituye un cambio de problemática empíricamente progresivo») si una parte de este exceso
de contenido empírico resulta, además, corroborado; esto es, si cada nueva teoría nos conduce
al descubrimiento real de algún hecho nuevo. Por fin, llamaremos progresivo a un cambio de
problemática si es progresivo teórica y empíricamente, y regresivo si no lo es. «Aceptamos» los
cambios de problemáticas como científicos, sólo si, por lo menos, son teóricamente progresivos;
si no lo son, los rechazamos como pseudocientíficos. El progreso se mide por el grado en que un
cambio de problemática es progresivo, por la medida en que la serie de teorías origina
descubrimientos de hechos nuevos. Consideramos «falsada» a una teoría de la serie cuando ha
sido superada por una teoría con mayor contenido corroborado.
Esta diferenciación entre cambios de problemática progresivos y regresivos arroja nuevas luces
sobre la evaluación de las explicaciones científicas, o más bien, progresivas. Si desarrollamos una
teoría para resolver una contradicción entre una teoría previa y un contraejemplo, de forma tal
que la nueva teoría en lugar de ofrecer una explicación incrementadora de contenido
(científica), sólo ofrece una reinterpretación (lingüística) que disminuye tal contenido, la
contradicción queda resuelta sólo de una forma semántica y acientífica. Un hecho dado se
explica científicamente sólo cuando otro hecho nuevo queda explicado además del primero. El
falsacionismo sofisticado transforma así el problema de cómo evaluar las teorías en el problema
de cómo evaluar las series de teorías. Se puede decir que es científica o no científica una serie
de teorías, y no una teoría aislada: aplicar el término «científica» a una teoría única es un error
de concepto. Durante mucho tiempo el requisito empírico de una teoría satisfactoria era la
correspondencia con los hechos observados. Nuestro requisito empírico, para una serie de
teorías, es que produzca nuevos hechos. La idea de crecimiento y la noción de carácter empírico
quedan soldadas en una.
Esta versión revisada del falsacionismo metodológico tiene muchos rasgos nuevos. En primer
lugar, niega que «en el caso de una teoría científica nuestra decisión dependa de los resultados
de los experimentos. Si éstos confirman la teoría podemos aceptarla hasta que encontremos
una mejor. Si la contradicen, la rechazamos». Niega que «lo que en último término decide el
destino de una teoría es el resultado de una contrastación; esto es, un acuerdo sobre enunciados
básicos». En contra del falsacionismo ingenuo, ningún experimento, informe experimental,
enunciado observacional o hipótesis falsadora de bajo nivel bien corroborada puede originar por
sí mismo la falsación. No hay falsación sin la emergencia de una teoría mejor. Pero entonces se
desvanece el carácter claramente negativo del falsacionismo ingenuo; la crítica se hace más
difícil pero también positiva, constructiva. Naturalmente, si la falsación depende de la aparición
de teorías mejores, de la invención de teorías que anticipen hechos nuevos, entonces la falsación
no es simplemente una relación entre una teoría y la base empírica, sino una relación múltiple
entre teorías rivales, la «base empírica» original y el crecimiento empírico que tiene su origen
en la confrontación. Puede decirse, por tanto, que la falsación tiene un «carácter histórico». Más
aún, algunas de las teorías que originan falsaciones, a menudo son propuestas después de la
«contraevidencia». Esto puede sonar paradójico a aquellos adoctrinados en el falsacionismo
ingenuo. Realmente esta teoría epistemológica de la relación entre teoría y experimento difiere
rotundamente de la teoría epistemológica del falsacionismo ingenuo. El mismo término
«contraevidencia» debe ser abandonado en el sentido de que ningún resultado experimental
debe ser interpretado directamente como «contraevidencia». Si, con todo, deseamos retener
este venerable término tenemos que redefinirlo del siguiente modo: «contraevidencia de T1» es
un caso de corroboración de T2 que o bien es inconsistente con o independiente de T1 (a
condición de que T2 sea una teoría que explique satisfactoriamente el éxito empírico de T1). Esto
muestra que la «contraevidencia crucial» o los «experimentos cruciales» sólo pueden
reconocerse como tales entre las docenas de anomalías, retrospectivamente, a la luz de alguna
teoría superadora.
Por tanto, el elemento crucial en la falsación es si la nueva teoría ofrece alguna información
nueva comparada con su predecesora y si una parte de este exceso de información está
corroborado. Los justificacionistas valoraban las instancias «confirmadoras» de una teoría; los
falsacionistas ingenuos insistían en las instancias «refutadoras»; para los falsacionistas
metodológicos son los casos corroboradores (bastantes escasos) del exceso de información los
que resultan cruciales y reciben toda la atención. Ya no estamos interesados en los miles de
casos triviales de verificación ni en los cientos de anomalías claramente disponibles: lo decisivo
son los pocos y cruciales casos de verificación del exceso.
La «falsación» en el sentido del falsacionismo ingenuo (contraevidencia corroborada) no es una
condición suficiente para eliminar una teoría específica; a pesar de los cientos de anomalías
conocidas no la consideramos como falsada (esto es, eliminada) hasta que no tengamos otra
mejor. Tampoco es la «falsación» en el sentido ingenuo, necesaria para la falsación en el sentido
sofisticado; un cambio de problemática progresivo no tiene por qué estar sembrado de
refutaciones. La ciencia puede crecer sin que ninguna refutación indique el camino. Los
falsacionistas ingenuos sugieren un crecimiento lineal de la ciencia, en el sentido de que las
teorías son seguidas de refutaciones poderosas que las eliminan, y tales refutaciones, a su vez,
son seguidas por nuevas teorías. Lo que suscita la actividad científica febril es la proliferación de
teorías en lugar de los contraejemplos o anomalías.
Esto prueba que la consigna «proliferación de teorías» es mucho más importante para el
falsacionista sofisticado que para el ingenuo. Para el falsacionista ingenuo la ciencia crece
mediante repetidas eliminaciones experimentales de las teorías; las nuevas teorías rivales
propuestas antes de tales eliminaciones pueden acelerar el crecimiento pero no son
absolutamente necesarias; la proliferación constante de teorías es opcional y no obligatoria.
Para el falsacionista sofisticado la proliferación de teorías no puede esperar a que las teorías
aceptadas sean «refutadas» (o hasta que sus defensores entren en una crisis de confianza
kuhniana). Mientras que el falsacionista ingenuo insiste en «la urgencia de sustituir una hipótesis
falsada por otra mejor», el falsacionista sofisticado reitera la urgencia de sustituir cualquier
hipótesis por otra mejor. La falsación no puede «forzar al teórico a buscar una teoría mejor»
simplemente porque la falsación no puede preceder a la teoría mejor.
El cambio de problemática desde falsacionismo ingenuo al sofisticado involucra una dificultad
semántica. Para el falsacionista ingenuo una «refutación» es un resultado experimental que, en
virtud de sus decisiones, se hace que entre en conflicto con la teoría objeto de contrastación.
Pero, según el falsacionismo sofisticado, no se deben adoptar tales decisiones antes de que el
supuesto «caso refutador» no se haya convertido en el ejemplo confirmador de otra teoría
mejor. Por ello, siempre que vemos términos como «refutación», «falsación», «contraejemplo»
debemos confirmar en cada caso si tales términos se aplican mediante decisiones adoptadas por
el falsacionista ingenuo o sofisticado.
El falsacionismo metodológico sofisticado ofrece nuevos criterios de honestidad intelectual. La
honestidad justificacionista exigía la aceptación exclusiva de lo que había sido probado y el
rechazo de todo aquello carente de prueba. La honestidad neojustificacionista pedía que se
especificara la probabilidad de cualquier hipótesis teniendo en cuenta la evidencia empírica
disponible. La honestidad del falsacionismo ingenuo requería la contrastación de lo falsable y el
rechazo de lo no falsable y de lo falsado. Por fin, la honestidad del falsacionismo sofisticado pide
que se intenten ver las cosas desde diferentes puntos de vista, que se propongan otras teorías
que anticipen hechos nuevos y que se rechacen las teorías que han sido superadas por otras
más poderosas. El falsacionismo metodológico sofisticado combina varias tradiciones diferentes.
Hereda de los empiristas la determinación de aprender, fundamentalmente, de la experiencia.
De los kantianos adopta el enfoque activista de la teoría del conocimiento. De los
convencionalistas han aprendido la importancia de las decisiones en metodología.
Me gustaría insistir aquí en un rasgo distintivo adicional del empirismo metodológico sofisticado:
la función crucial del exceso de corroboración. Para el inductivista aprender acerca de una nueva
teoría es aprender cuánta evidencia confirmadora la apoya; nada se aprende de las teorías
refutadas (después de todo, aprender es acumular conocimiento probado o probable). Para el
falsacionista dogmático aprender acerca de una teoría es aprender si está refutada o no; nada
se aprende de las teorías confirmadas (nada puede ser probado ni convertido en probable);
acerca de las teorías refutadas se aprende que han sido probadas falsas. Para el falsacionista
sofisticado aprender acerca de una teoría es fundamentalmente aprender qué nuevos hechos
anticipó; realmente para la clase de empirismo popperiano que defiendo, la única evidencia
relevante es la evidencia anticipada por una teoría, y el carácter empírico (o carácter científico)
y el progreso teórico están inseparablemente relacionados.
Consideremos, finalmente, cuánto convencionalismo sobrevive en el falsacionismo sofisticado.
Ciertamente, menos que en el falsacionismo ingenuo. Necesitamos un número menor de
decisiones metodológicas. La «cuarta clase de decisión», que era esencial para la versión
ingenua, ahora resulta completamente redundante. Para apreciar esto nos basta con entender
que si una teoría científica consistente en algunas «leyes de la naturaleza», ciertas condiciones
iniciales, y teorías auxiliares (pero sin una cláusula ceteris paribus) entra en conflicto con algunas
proposiciones fácticas, no es necesario decidir qué parte (explícita u «oculta») debemos
sustituir. Podemos ensayar la sustitución de cualquier parte y sólo cuando hayamos logrado una
explicación de la anomalía con la ayuda de algún cambio acrecentador del contenido (o hipótesis
auxiliar) y la naturaleza lo corrobore, procederemos a eliminar el conjunto «refutado». Por
tanto, la falsación sofisticada es un procedimiento más lento pero posiblemente más seguro que
la falsación ingenua.
Si nos enfrentamos con una inconsistencia, no es necesario decidir qué ingredientes de la teoría
consideraremos cómo problemáticos y cuales como no problemáticos; estimamos que todos los
ingredientes son problemáticos a la luz del conflictivo y aceptado enunciado básico e intentamos
sustituir todos ellos. Si tenemos éxito y sustituimos algún ingrediente de modo «progresivo»
(esto es, de modo que el sustituto tenga más contenido empírico corroborado que el original)
decimos que ha sido «falsado». Tampoco necesitamos la quinta clase de decisión del
falsacionista ingenuo. Para apreciar esta cuestión examinemos de nuevo el problema de la
evaluación de las teorías (sintácticamente) metafísicas, y el de su retención y eliminación. La
solución «sofisticada» es obvia. Retenemos una teoría sintácticamente metafísica mientras los
casos problemáticos puedan explicarse mediante cambios acrecentadores de contenido en las
hipótesis auxiliares anejas a la misma.
Por tanto, no eliminamos una teoría (sintácticamente) metafísica porque entre en conflicto con
una teoría científica bien corroborada, como sugiere el falsacionismo ingenuo. La eliminamos si,
a largo plazo, produce un cambio regresivo y si hay una metafísica rival y superior para
sustituirla.
Las decisiones de primera, segunda y tercera clase del falsacionismo ingenuo no pueden ser
evitadas, pero se puede reducir ligeramente el elemento convencional en las decisiones de
segunda y tercera clase. No podemos evitar las decisiones sobre qué clase de proposiciones son
las «observacionales» y cuáles son las «teóricas». Tampoco podemos evitar las decisiones sobre
el valor de verdad de algunas «proposiciones observacionales». Estas decisiones son vitales para
decidir si un cambio de problemática es empíricamente progresivo o regresivo. Pero el
falsacionista sofisticado puede, al menos, mitigar la arbitrariedad de esta segunda clase de
decisión, aceptando un procedimiento de apelación. Los falsacionistas ingenuos no establecen
ningún procedimiento de apelación análogo. Aceptan un enunciado básico si está respaldado
por una hipótesis falsadora bien corroborada y permiten que destruya a la teoría que se
contrasta aun cuando conocen perfectamente los riesgos involucrados. Pero no hay razón para
que no consideremos a una hipótesis falsadora, y al enunciado básico que apoya, como
igualmente problemáticos que la hipótesis falsada. Ahora bien, ¿con qué precisión podemos
manifestar el carácter problemático de un enunciado básico? ¿Sobre qué fundamentos pueden
apelar y ganar los defensores de una teoría «falsada»? Algunos dirán que podemos continuar
contrastando el enunciado básico (o la hipótesis falsadora) «por sus consecuencias deductivas»
hasta que por fin se alcance un acuerdo. Para esta contrastación deducimos, con el mismo
modelo deductivo, consecuencias adicionales a partir del enunciado básico y con la ayuda de la
teoría que se contrasta o bien de alguna otra teoría que consideramos carente de problemas.
Aunque este procedimiento «no tiene un fin natural» siempre llegaremos a un punto en que
desaparezcan los desacuerdos. Pero cuando el teórico apela contra el veredicto del
experimentador, el tribunal de apelación normalmente no investiga el enunciado básico, sino
que más bien se interesa por la teoría interpretativa a cuya luz se ha establecido el valor de
verdad de aquél.
La primera etapa de cualquier crítica seria de una teoría científica es reconstruir y mejorar su
articulación lógico-deductiva.
El problema no radica en decidir cuándo debemos retener una «teoría» a la vista de ciertos
«hechos conocidos» y cuándo debemos actuar al revés. El problema no radica en decidir qué
debemos hacer cuando las «teorías» entran en conflicto con los «hechos». Tal conflicto sólo lo
sugiere el modelo deductivo monoteórico. Depende de nuestra decisión metodológica el que
una proposición constituya un hecho o una «teoría» en el contexto de una contrastación. La
«base empírica» de una teoría es una noción monoteórica; está relacionada con una estructura
deductiva monoteórica. Podemos utilizarla como una primera aproximación, pero en caso de
«apelación» del teórico, deberemos utilizar un modelo pluralista. En este modelo pluralista el
conflicto no sucede «entre teorías y hechos», sino entre dos teorías de nivel elevado; entre una
teoría interpretativa que suministra los hechos, y una teoría explicativa que los explica; y puede
suceder que la teoría interpretativa sea de un nivel tan elevado como la explicativa. El conflicto,
por tanto, tampoco se produce entre una teoría de nivel lógico muy elevado y una hipótesis
falsadora de bajo nivel. El problema no debe plantearse en términos de decidir si una
«refutación» es real o no. El problema consiste en cómo reparar una inconsistencia entre la
«teoría explicativa» que se contrasta y las teorías «interpretativas» explícitas u ocultas; o si se
prefiere, el problema es decidir qué teoría vamos a considerar como teoría interpretativa
suministradora de los hechos sólidos, y cuál como teoría explicativa que los explica
tentativamente. En un modelo monoteórico consideramos la teoría de mayor nivel como una
teoría explicativa que ha de ser juzgada por los hechos suministrados desde el exterior (por la
autoridad del experimentador); en caso de conflicto, rechazamos la explicación.
Alternativamente, en un modelo pluralista podemos considerar a la teoría de mayor nivel como
una teoría interpretativa encargada de juzgar los hechos suministrados desde el exterior; en
caso de conflicto podemos rechazar los «hechos» como si fueran «anormalidades». En un
modelo pluralista de contrastación quedan unidas varias teorías más o menos organizadas
deductivamente.
No es que nosotros propongamos una teoría y la naturaleza pueda gritar NO; se trata, más bien,
de que proponemos un conjunto de teorías y la naturaleza puede gritar INCONSISTENTE. El
problema, por tanto, se desplaza desde el viejo problema de la sustitución de una teoría
refutada por los «hechos» al nuevo problema de cómo resolver las inconsistencias entre teorías
estrechamente relacionadas. ¿Cuál de las teorías mutuamente inconsistentes debe ser
eliminada? El falsacionista sofisticado puede responder fácilmente a esta pregunta; se debe
intentar sustituir primero una, después la otra, después posiblemente ambas, y optar por
aquella nueva estructura que suministre el mayor incremento de contenido corroborado, que
suministre el cambio más progresivo de problemática. Por ello hemos establecido un
procedimiento de apelación para el caso de que el teórico desee poner en duda el veredicto
negativo del experimentador. El teórico puede pedir que el experimentador especifique su
«teoría interpretativa» y puede sustituirla (ante la desesperación del experimentador) por otra
mejor, bajo cuya luz su teoría originalmente refutada puede obtener una valoración positiva.
Pero ni siquiera este procedimiento de apelación puede hacer otra cosa que no sea posponer la
decisión convencional. Porque el veredicto del tribunal de apelación tampoco es infalible.
Cuando decidimos si es la sustitución de la teoría «interpretativa» o de la «explicativa» lo que
origina nuevos hechos, de nuevo tenemos que tomar una decisión acerca de la aceptación o
rechazo de enunciados básicos. Por tanto, hemos pospuesto (y posiblemente mejorado) la
decisión, pero no la hemos evitado. Las dificultades relativas a la base empírica que
confrontaban al falsacionismo «ingenuo» tampoco pueden ser evitadas por el falsacionismo
«sofisticado». Incluso si consideramos a una teoría como «fáctica»; esto es, si nuestra lenta y
limitada imaginación no puede ofrecer una alternativa para la misma (como solía decir
Feyerabend), debemos adoptar decisiones, aunque sólo sean temporales y ocasionales, sobre
su valor de verdad. Incluso entonces la experiencia sigue siendo, en un sentido importante, el
árbitro imparcial de la controversia científica. No podemos desembarazarnos del problema de
la «base empírica» si queremos aprender de la experiencia, pero podemos conseguir que
nuestro aprendizaje sea menos dogmático.
Uno de los aspectos cruciales del falsacionismo sofisticado es que sustituye el concepto de
teoría, como concepto básico de la lógica de la investigación, por el concepto de serie de teorías,
lo que ha de ser evaluado como científico o pseudocientífico es una sucesión de teorías y no una
teoría dada. Pero los miembros de tales series de teorías normalmente están relacionados por
una notable continuidad que las agrupa en programas de investigación. Esta continuidad
(reminiscente de la «ciencia normal» de Kuhn) juega un papel vital en la historia de la ciencia;
los principales problemas de la lógica de la investigación sólo pueden analizarse de forma
satisfactoria en el marco suministrado por una metodología de los programas de investigación.
Una metodología de los programas de investigación

He analizado el problema de la evaluación objetiva del crecimiento científico en términos de


cambios progresivos y regresivos de problemáticas para series de teorías científicas. Las más
importantes de tales series en el crecimiento de la ciencia se caracterizan por cierta continuidad
que relaciona a sus miembros. Esta continuidad se origina en un programa de investigación
genuino concebido en el comienzo. El programa consiste en reglas metodológicas: algunas nos
dicen las rutas de investigación que deben ser evitadas (heurística negativa), y otras, los caminos
que deben seguirse (heurística positiva). Incluso la ciencia en su conjunto puede ser considerada
como un enorme programa de investigación dotado de la suprema regla heurística de Popper:
«diseña conjeturas que tengan más contenido empírico que sus predecesoras». Como señaló
Popper, tales reglas metodológicas pueden ser formuladas como principios metafísicos.

Heurística negativa: el “núcleo del programa”

Todos los programas de investigación científica pueden ser caracterizados por su «núcleo
firme». La heurística negativa del programa impide que apliquemos el modus tollens a este
«núcleo firme». Por el contrario, debemos utilizar nuestra inteligencia para incorporar e incluso
inventar hipótesis auxiliares que formen un cinturón protector en torno a ese centro, y contra
ellas debemos dirigir el modus tollens. El cinturón protector de hipótesis auxiliares debe recibir
los impactos de las contrastaciones y para defender al núcleo firme, será ajustado y reajustado
e incluso completamente sustituido. Un programa de investigación tiene éxito si ello conduce a
un cambio progresivo de problemática; fracasa, si conduce a un cambio regresivo.
El ejemplo clásico de programa de investigación victorioso es la teoría gravitacional de Newton:
posiblemente el programa de investigación con más éxito que ha existido nunca. Cuando
apareció se encontraba inmerso en un océano de anomalías (o si se prefiere, «contraejemplos»)
y en contradicción con las teorías observacionales que apoyaban a tales anomalías. Pero con
gran inteligencia y tenacidad, los newtonianos convirtieron un contraejemplo tras otro en
ejemplos corroboradores, fundamentalmente al destruir las teorías observacionales originales
con las que se había establecido la «evidencia contraria». En este proceso ellos mismos
produjeron nuevos contraejemplos que también resolvieron posteriormente. «Hicieron de cada
nueva dificultad una nueva victoria de su programa».
En el programa de Newton la heurística negativa impide dirigir el modus tollens contra las tres
leyes de la dinámica de Newton y contra su ley de gravitación. Este «núcleo» es «irrefutable»
por decisión metodológica de sus defensores; las anomalías sólo deben originar cambios en el
cinturón «protector» de hipótesis auxiliares «observacionales» y en las condiciones iniciales.
Cada eslabón sucesivo de este ejercicio predice algún hecho nuevo; cada paso representa un
aumento de contenido empírico; el ejemplo constituye un cambio teórico consistentemente
progresivo. Además, cada predicción queda finalmente verificada, aunque en tres ocasiones
seguidas pareció que habían sido «refutadas». Mientras que el «progreso teórico» (en el sentido
que aquí utilizamos) puede ser verificado inmediatamente, ello no sucede así con el «progreso
empírico» y en un programa de investigación podemos vernos frustrados por una larga serie de
«refutaciones» antes de que alguna hipótesis auxiliar ingeniosa, afortunada y de superior
contenido empírico, convierta a una cadena de derrotas en lo que luego se considerará como
una resonante historia de éxitos, bien mediante la revisión de algunos «hechos» falsos o
mediante la adición de nuevas hipótesis auxiliares. Por tanto, podemos decir que hay que exigir
que cada etapa de un programa de investigación incremente el contenido de forma consistente;
que cada etapa constituya un cambio de problemática teórica consistentemente progresivo.
Además de esto, lo único que necesitamos es que ocasionalmente se aprecie
retrospectivamente que el incremento de contenido ha sido corroborado; también el programa
en su conjunto debe exhibir un cambio empírico intermitentemente progresivo. No exigimos que
cada nuevo paso produzca inmediatamente un nuevo hecho observado. Nuestro término
«intermitentemente» suministra suficiente espacio racional para que sea posible la adhesión
dogmática a un programa a pesar de las refutaciones aparentes.
La idea de una «heurística negativa» de un programa de investigación científica racionaliza en
gran medida el convencionalismo clásico. Racionalmente es posible decidir que no se permitirá
que las «refutaciones» transmitan la falsedad al núcleo firme mientras aumente el contenido
empírico corroborado del cinturón protector de hipótesis auxiliares. Mantenemos que el núcleo
firme de un programa puede tener que ser abandonado cuando tal programa deja de anticipar
hechos nuevos; esto es, nuestro núcleo firme puede derrumbarse en ciertas condiciones. En este
sentido estamos de acuerdo con Duhem, quien pensaba que hay que aceptar tal posibilidad,
aunque para Duhem la razón de tal derrumbamiento es puramente estética, mientras que para
nosotros es fundamentalmente lógica y empírica.

Heurística positiva: la construcción de un “cinturón de protección” y la autonomía


relativa de la ciencia teórica

Los programas de investigación también se caracterizan por su heurística positiva además de


caracterizarse por la heurística negativa. Incluso los programas de investigación que progresan
de la forma más rápida y consistente sólo pueden digerir la evidencia contraria de modo
fragmentario: nunca desaparecen completamente las anomalías. Pero no hay que pensar que
las anomalías aún no explicadas (los «rompecabezas», como los llama Kuhn) son abordadas en
cualquier orden o que el cinturón protector es construido de forma ecléctica, sin un plan
preconcebido. El orden suele decidirse en el gabinete del teórico con independencia de las
anomalías conocidas. Pocos científicos teóricos implicados en un programa de investigación se
ocupan excesivamente de las «refutaciones». Mantienen una política de investigación a largo
plazo que anticipa esas refutaciones. Esta política de investigación, u orden de investigación,
queda establecida, con mayor o menor detalle, en la heurística positiva del programa de
investigación. La heurística negativa especifica el núcleo firme del programa que es «irrefutable»
por decisión metodológica de sus defensores; la heurística positiva consiste de un conjunto,
parcialmente estructurado, de sugerencias o pistas sobre cómo cambiar y desarrollar las
«versiones refutables» del programa de investigación, sobre cómo modificar y complicar el
cinturón protector «refutable».
La heurística positiva del programa impide que el científico se pierda en el océano de anomalías.
La heurística positiva establece un programa que enumera una secuencia de modelos
crecientemente complicados simuladores de la realidad: la atención del científico se concentra
en la construcción de sus modelos según las instrucciones establecidas en la parte positiva de
su programa. Ignora los contraejemplos reales, los «datos» disponibles.
Un «modelo» es un conjunto de condiciones iniciales (posiblemente en conjunción con algunas
teorías observacionales) del que se sabe que debe ser sustituido en el desarrollo ulterior del
programa, e incluso cómo debe ser sustituido (en mayor o menor medida). Esto muestra una
vez más hasta qué punto son irrelevantes las refutaciones de cualquier versión específica para
un programa de investigación: su existencia es esperada y la heurística positiva está allí tanto
para predecirlas (producirlas) como para digerirlas. Realmente, si la heurística positiva se
especifica con claridad, las dificultades del programa son matemáticas y no empíricas.
Podría formularse la “heurística positiva” de un programa de investigación como un principio
“metafísico”. La heurística positiva es más flexible que la heurística negativa. Más aún, sucede
en ocasiones que cuando un programa de investigación entra en una fase regresiva, una
pequeña revolución o un cambio creativo de su heurística positiva puede impulsarlo de nuevo
hacia adelante. Por ello es mejor separar el «centro firme» de los principios metafísicos, más
flexibles, que expresan la heurística positiva. Nuestras consideraciones muestran que la
heurística positiva avanza casi sin tener en cuenta las refutaciones; puede parecer que son las
«verificaciones» y no las refutaciones las que suministran los puntos de contacto con la realidad.
La metodología de los programas de investigación científica explica la autonomía relativa de la
ciencia teórica: un hecho histórico cuya racionalidad no puede ser explicado por los primeros
falsacionistas. La selección racional de problemas que realizan los científicos que trabajan en
programas de investigación importantes está determinada por la heurística positiva del
programa y no por las anomalías psicológicamente embarazosas (o tecnológicamente urgentes).
Las anomalías se enumeran pero se archivan después en la esperanza de que, llegado el
momento, se convertirán en corroboraciones del programa. Sólo aquellos científicos que
trabajan en ejercicios de prueba y error o en una fase degenerada de un programa de
investigación cuya heurística positiva se quedó sin contenido, se ven obligados a redoblar su
atención a las anomalías. (Por supuesto, todo esto puede parecer inaceptable a los falsacionistas
ingenuos que mantienen que tan pronto como una teoría queda «refutada» por un experimento
[según su libro de reglas] es irracional [y deshonesto] continuar desarrollándola: la vieja teoría
«refutada» debe ser sustituida por una nueva, no refutada).

Una mirada nueva a los experimentos cruciales: el final de la racionalidad instantánea

Sería equivocado suponer que se debe ser fiel a un programa de investigación hasta que éste ha
agotado todo su poder heurístico, que no se debe introducir un programa rival antes de que
todos acepten que probablemente ya se ha alcanzado el nivel de regresión. (Aunque
comprendemos la irritación del físico que, en medio de la fase progresiva del programa de
investigación, se ve enfrentado por una proliferación de vagas teorías metafísicas que no
estimulan progreso empírico alguno). Nunca se debe permitir que un programa de investigación
se convierta en un canon del rigor científico, que se erige en arbitro entre la demostración y la
no-demostración. Desgraciadamente esta es la postura que defiende Kuhn: realmente lo que él
llama «ciencia normal» no es sino un programa de investigación que ha obtenido el monopolio.
Pero de hecho los programas de investigación pocas veces han conseguido un monopolio
completo y ello sólo durante períodos de tiempo relativamente cortos. La historia de la ciencia
ha sido y debe ser una historia de programas de investigación que compiten (o si se prefiere, de
«paradigmas»), pero no ha sido ni debe convertirse en una sucesión de períodos de ciencia
normal; cuanto antes comience la competencia tanto mejor para el progreso. El «pluralismo
teórico» es mejor que el «monismo teórico»; sobre este tema Popper y Feyerabend tienen razón
y Kuhn está equivocado. La idea de programas de investigación científica en competencia nos
conduce a este problema: ¿cómo son eliminados los programas de investigación? De nuestras
consideraciones previas se desprende que un desplazamiento regresivo de problemática es una
razón tan insuficiente para eliminar un programa de investigación como las anticuadas
«refutaciones» o las «crisis» kuhnianas. ¿Puede existir alguna razón objetiva (en contraposición
a socio-psicológica) para rechazar un programa, esto es, para eliminar su núcleo firme y su
programa para la construcción de cinturones protectores? En resumen, nuestra respuesta es que
tal razón objetiva la suministra un programa de investigación rival que explica el éxito previo de
su rival y le supera mediante un despliegue adicional de poder heurístico.
Sin embargo, el criterio de «poder heurístico» depende fundamentalmente del significado que
atribuyamos a la expresión «novedad fáctica». Hasta ahora hemos supuesto que resulta muy
fácil discernir si una nueva teoría predice un hecho nuevo o no. Pero frecuentemente la novedad
de una proposición fáctica sólo puede apreciarse cuando ha transcurrido un largo espacio de
tiempo.
No podemos eliminar un programa de investigación en crecimiento simplemente porque, por el
momento, no haya conseguido superar a un poderoso rival. No deberíamos abandonarlo si
constituyera (en el supuesto de que su rival no estuviera presente) un cambio progresivo de
problemática. Y ciertamente debemos considerar a un hecho que acaba de ser reinterpretado
como un hecho nuevo, ignorando las insolentes pretensiones de prioridad de los coleccionistas
de hechos no procesionales. Mientras un joven programa de investigación pueda ser
reconstituido racionalmente como un cambio progresivo de problemática, debe ser protegido
durante un tiempo de su poderoso rival establecido.
En conjunto estas consideraciones acentúan la importancia de la tolerancia metodológica, pero
dejan sin responder la pregunta sobre cómo son eliminados los programas de investigación.
Dentro de un programa de investigación los «experimentos cruciales menores» entre versiones
subsiguientes son muy corrientes. Los experimentos «deciden» fácilmente entre la versión
científica n y la n + 1, puesto que la n + 1 no sólo es inconsistente con la n sino que también la
supera. Si la versión n + 1 tiene más contenido corroborado a la luz del mismo programa y a la
luz de las mismas teorías observacionales muy corroboradas, la eliminación es relativamente un
asunto rutinario (sólo relativamente, puesto que incluso en este caso la decisión puede ser
apelada). También los procedimientos de apelación son fáciles en algunas ocasiones: en muchos
casos la teoría observacional que se discute, lejos de estar muy corroborada, constituye de
hecho un supuesto ingenuo, inarticulado y oculto; sólo la confrontación descubre la existencia
de este supuesto oculto, y origina su articulación, contrastación y destrucción. Sin embargo,
muchas veces las teorías observacionales forman parte de algún programa de investigación y en
tales casos el procedimiento de apelación origina un conflicto entre dos programas de
investigación; en tales casos un experimento crucial fundamental puede ser necesario.
Cuando compiten dos programas de investigación, sus primeros modelos «ideales»
normalmente se ocupan de diferentes aspectos del dominio. Conforme se expanden los
programas de investigación rivales, gradualmente penetran en el territorio del otro hasta
suceder que la versión n del primero es inconsistente de forma flagrante y dramática con la
versión n del segundo. Se realiza repetidamente un experimento y como resultado, el primero
es derrotado en esta batalla mientras que gana el segundo. Pero la guerra no ha terminado: a
cualquier programa se le permiten unas cuantas derrotas como ésta. Todo lo que necesita para
un contraataque es producir una versión acrecentadora de contenido n + 1 y una verificación de
una parte de su contenido nuevo.
Si tras continuados esfuerzos tal contraataque no se produce, la guerra se ha perdido y el
experimento original se considera retrospectivamente como crucial.
Nuestras consideraciones explican el por qué los experimentos cruciales sólo han sido
considerados como cruciales décadas más tarde. La conducta anómala del perihelio de Mercurio
era conocida desde hacía décadas como una de las muchas dificultades no resueltas del
programa de Newton, pero fue el hecho de que la teoría de Einstein la explicó mejor, lo que
transformó a una anomalía vulgar en una «refutación» brillante del programa de investigación
de Newton.

Sólo un proceso extremadamente difícil e -indefinidamente- largo puede establecer que un


programa de investigación es superior a su rival; y no es prudente emplear el término
“experimento crucial” demasiado apresuradamente. Incluso cuando un programa de
investigación es barrido por su predecesor, no es barrido por un experimento “crucial”; y aun si
tal experimento crucial se pone en duda más tarde, el nuevo programa de investigación no
puede ser detenido sin un potente embate progresivo del viejo programa.

Conclusión: El requisito de desarrollo continuo

Los experimentos cruciales no existen, al menos si nos referimos a experimentos que puedan
destruir instantáneamente a un programa de investigación. De hecho, cuando un programa de
investigación es vencido y superado por otro, podemos, retrospectivamente, llamar crucial a un
experimento si resulta que ha suministrado un ejemplo corroborador espectacular en favor del
programa victorioso y una derrota para el programa vencido (en el sentido de que nunca fue
«explicado progresivamente», o simplemente, «explicado», en el seno del programa vencido).
Pero por supuesto, los científicos no siempre juzgan las situaciones heurísticas correctamente.
Un científico apresurado puede pretender que su experimento derrotó a un programa y puede
suceder que algunas secciones de la comunidad científica acepten (también de forma
apresurada) esta pretensión. Pero si un científico del campo derrotado propone unos años más
tarde una explicación científica del experimento supuestamente crucial, acorde (o consistente)
con el programa supuestamente derrotado, el título honorífico puede ser retirado y el
«experimento crucial» puede convertirse en una nueva victoria del programa.
Todas estas teorías de la racionalidad instantánea (y del aprendizaje instantáneo) constituyen
un fracaso. La racionalidad funciona con mayor lentitud de lo que tendemos a pensar, y además
de forma falible. También confío haber probado que la continuidad de la ciencia, la tenacidad
de algunas teorías, la racionalidad de cierta magnitud de dogmatismo, sólo pueden explicarse si
interpretamos la ciencia como un campo de batalla de los programas de investigación y no de
las teorías aisladas. Podemos comprender muy poco del crecimiento de la ciencia si nuestro
paradigma de la unidad del conocimiento científico es una teoría aislada como «Todos los cisnes
son blancos», una teoría independiente, no incorporada a un programa de investigación
importante. Mi exposición implica un nuevo criterio de demarcación entre ciencia madura, que
consiste en programas de investigación, y ciencia inmadura, que consiste en una remendada
secuencia de ensayos y errores.
La ciencia madura consiste en programas de investigación que anticipan no sólo hechos nuevos
sino también, y en un sentido importante, teorías auxiliares nuevas: la ciencia madura, al
contrario del pedestre ensayo y error, tiene «poder heurístico». Recordemos que en la heurística
positiva de un programa de investigación poderoso existe desde el comienzo un esquema
general sobre cómo construir los cinturones protectores: este poder heurístico genera la
autonomía de la ciencia teórica.
Este requisito de crecimiento continuo es mi reconstrucción racional del requisito, extensamente
aceptado, de «unidad» o «belleza» de la ciencia. Revela las debilidades de dos tipos de
teorización aparentemente muy distintos. En primer lugar, muestra la debilidad de los
programas que, como el marxismo o el freudianismo, están, sin duda, «integrados», lo que les
suministra un resumen fundamental de la clase de teorías auxiliares que van a utilizar para
absorber anomalías, pero que infaliblemente diseñan sus teorías auxiliares reales cuando se
enfrentan con ciertos hechos sin que, al mismo tiempo, anticipen otros nuevos. (¿Qué hecho
nuevo ha predicho el marxismo desde 1917, por ejemplo?) En segundo lugar, ataca a las series,
carentes de imaginación, de ajustes empíricos pedestres que tan frecuentes son, por ejemplo,
en la moderna psicología social. Puede que tales ajustes consigan realizar algunas predicciones
«nuevas» con ayuda de algunas técnicas estadísticas, y puede incluso que contengan algunos
granos irrelevantes de verdad. Pero tal teorización carece de una idea unificadora, de poder
heurístico y de continuidad. No equivale a un auténtico programa de investigación, y en
conjunto, carece de valor.
Mi exposición de la racionalidad científica, aunque basada en la de Popper, me aparta de algunas
de sus ideas generales. En alguna medida defiendo tanto el convencionalismo de Le Roy con
relación a las teorías, como el de Popper con relación a las proposiciones básicas. Desde mi
punto de vista los científicos no son irracionales cuando tienden a ignorar los contraejemplos o,
como ellos prefieren llamarlos, los casos «recalcitrantes» o «residuales» y siguen la secuencia
de problemas prescrita por la heurística positiva de su programa, elaborando (y aplicando) sus
teorías sin tenerlos en cuenta. En contra de la moralidad falsacionista de Popper, los científicos
con frecuencia y racionalmente pretenden «que los resultados experimentales no son fiables o
que las discrepancias que se afirma que existen entre los resultados experimentales y la teoría
sólo son aparentes y que desaparecerán con el avance de nuestro conocimiento». Cuando
actúan así puede que no estén «adoptando la actitud contraria de aquella actitud crítica que...
es la adecuada para un científico». Realmente Popper tiene razón al insistir en que «la actitud
dogmática de aferrarse a una teoría durante tanto tiempo como sea posible tiene una
importancia considerable. Sin ella nunca podríamos descubrir qué hay en una teoría;
abandonaríamos la teoría antes de haber tenido una oportunidad real de descubrir su poder y
consiguientemente ninguna teoría sería nunca capaz de desempeñar su función de poner orden
en el mundo, de prepararnos para acontecimientos futuros, de llamar nuestra atención hacia
acontecimientos que de otro modo nunca observaríamos». De este modo el dogmatismo de la
«ciencia normal» no impide el crecimiento mientras lo combinemos con el reconocimiento
popperiano de que existe una ciencia normal buena y progresiva y otra que es mala y regresiva,
y mientras mantengamos nuestra decisión de eliminar, en ciertas condiciones objetivamente
definidas, algunos programas de investigación. La actitud dogmática en la ciencia (que explicaría
sus períodos de estabilidad) fue descrita por Kuhn como un rasgo fundamental de la «ciencia
normal». Pero el marco conceptual en el que Kuhn trata de la continuidad de la ciencia es socio-
psicológico, mientras que el mío es normativo. Yo miro la continuidad de la ciencia a través de
unas gafas poperianas. Donde Kuhn ve «paradigmas» yo veo también «programas de
investigación» racionales.
El programa de investigación de Popper versus el programa de investigación de Kuhn

Hemos mostrado que Kuhn está en lo cierto en sus objeciones al falsacionismo ingenuo, y
también al subrayar la continuidad del desarrollo científico, la tenacidad de algunas teorías
científicas. Pero Kuhn se equivoca al pensar que rechazando el falsacionismo ingenuo se
rechazan también todas las variedades del falsacionismo. Kuhn objeta a todo el programa de
investigación popperiano y excluye cualquier posibilidad de reconstruir racionalmente el
crecimiento de la ciencia. En una sucinta comparación de Hume, Carnap y Popper, Watkins
señala que el crecimiento de la ciencia es inductivo e irracional según Hume, inductivo y racional
según Carnap y no inductivo y racional según Popper. Pero la comparación de Watkins puede
extenderse añadiendo que ese crecimiento es no-inductivo e irracional según Kuhn. Desde el
punto de vista de Kuhn no puede haber una lógica sino sólo una psicología del descubrimiento.
Por ejemplo, según la concepción de Kuhn las anomalías y las inconsistencias siempre abundan
en la ciencia, pero en los períodos «normales» el paradigma dominante asegura una pauta de
crecimiento que acaba por ser destruida por una «crisis». No existe una causa racional particular
para la aparición de una «crisis» kuhniana. «Crisis» es un concepto psicológico; se trata de un
pánico contagioso. Después aparece un nuevo paradigma que es inconmensurable con relación
a su predecesor. No existen criterios racionales para compararlos. Cada paradigma contiene sus
propios criterios. La crisis arrastra tras de sí no sólo las viejas teorías sino también los criterios
que hacían que las respetáramos. El nuevo paradigma trae consigo una racionalidad
completamente nueva. No hay criterios superparadigmáticos. El cambio tiene efectos
acumulativos. Por tanto, y según Kuhn, las revoluciones científicas son irracionales, objeto de
estudio de la psicología de masas.
La reducción de la filosofía de la ciencia a la psicología de la ciencia no comenzó con Kuhn. Hubo
una ola previa de psicologismo tras la derrota del justificacionismo. Para muchos el
justificacionismo representaba la única forma posible de racionalidad: el fin del justificacionismo
significaba el fin de la racionalidad. La destrucción de la tesis según la cual las teorías científicas
pueden ser probadas, y el progreso de la ciencia es acumulativo, aterrorizó a los
justificacionistas. Si «descubrir es probar», pero nada puede ser probado, no puede haber
descubrimientos genuinos sino sólo pretensiones en este sentido. Por tanto, los frustrados
justificacionistas (ex-justificacionistas) entendieron que el intento de elaborar criterios
racionales era una empresa sin esperanza y que todo lo que se puede hacer es estudiar (e imitar)
la Mente Científica tal como ha sido ejemplificada por los científicos famosos. Tras el
hundimiento de la física newtoniana Popper elaboró unas reglas críticas nuevas y no
justificacionistas. Ahora bien, algunos de quienes conocían el hundimiento de la racionalidad
justificacionista conocieron ahora las consignas de Popper que sugerían el falsacionismo
ingenuo. Como las encontraron inaceptables, identificaron la destrucción del falsacionismo
ingenuo con el fin de la racionalidad misma. De nuevo la elaboración de criterios racionales fue
considerada como una empresa sin esperanzas; de nuevo pensaron que lo mejor que se puede
hacer es estudiar la Mente Científica. La filosofía crítica tenía que ser sustituida por lo que
Polanyi llamó una filosofía «post-crítica». Pero el programa de investigación kuhniano contiene
un rasgo nuevo; lo que debemos estudiar no es la mente del científico individual sino la mente
de la Comunidad Científica. Ahora se sustituye la psicología individual por la psicología social: la
imitación de los grandes científicos por la sumisión a la sabiduría colectiva de la comunidad.
Pero Kuhn pasó por alto el falsacionismo sofisticado de Popper y el programa de investigación
que inició. Popper sustituyó el problema central de la racionalidad clásica, el antiguo problema
de los fundamentos, por el problema nuevo del crecimiento crítico y falible, y comenzó a elaborar
criterios objetivos de este crecimiento. En este artículo yo he tratado de desarrollar una etapa
adicional de este programa. Creo que este pequeño desarrollo es suficiente como para escapar
a las críticas de Kuhn.
La reconstrucción del progreso científico como una proliferación de programas de investigación
rivales, y de cambios progresivos y regresivos de problemática, suministrará una descripción de
la empresa científica que en muchos sentidos es diferente de la suministrada por la
reconstrucción consistente en una sucesión de teorías audaces y fracasos dramáticos. Sus
aspectos principales fueron desarrollados a partir de las ideas de Popper y en particular a partir
de su condena de las estratagemas «convencionalistas», esto es, reductoras de contenido. La
principal diferencia con respecto a la versión original de Popper creo que es que, según mi punto
de vista, la crítica no destruye (ni debe destruir) con la rapidez que imaginaba Popper. La crítica
destructiva, puramente negativa, como la «refutación» o la demostración de una inconsistencia
no elimina un programa de investigación. La crítica de un programa es un proceso largo y a
menudo frustrante; hay que tratar a los programas en crecimiento sin severidad. Por supuesto,
se puede mostrar la degeneración de un programa de investigación, pero sólo la crítica
constructiva, con la ayuda de programas de investigación rivales, puede conseguir un éxito real,
y los resultados dramáticamente espectaculares se hacen visibles sólo retrospectivamente y
mediante la reconstrucción racional.
Kuhn ciertamente probó que la psicología de la ciencia puede revelar verdades importantes y,
en realidad, tristes. Pero la psicología de la ciencia no es autónoma; el crecimiento (reconstruido
racionalmente) de la ciencia esencialmente tiene lugar en el mundo de las ideas, en el «tercer
mundo» de Platón y de Popper, en el mundo del conocimiento articulado que es independiente
de los sujetos que conocen. El programa de investigación de Popper trata de conseguir una
descripción de este crecimiento científico objetivo. El programa de investigación de Kuhn parece
buscar una descripción del cambio en la mente científica «normal» (sea individual o
comunitaria). Pero el reflejo del tercer mundo en la mente del científico individual (incluso si
éste es «normal») habitualmente es una caricatura del original: y describir esta caricatura sin
relacionarla con el original del tercer mundo bien puede conducir a una caricatura de la
caricatura. No es posible comprender la historia de la ciencia sin tener en cuenta la interacción
de los tres mundos.

Popper, el falsacionismo

Popper empezó siendo un falsacionista dogmático en la década de 1920, pero pronto


comprendió que esta posición era indefendible y no publicó nada hasta que inventó el
falsacionismo metodológico. Esta era una idea completamente nueva en la filosofía de la ciencia
que claramente tiene su origen en Popper, quien la propuso como una solución para las
dificultades del falsacionismo dogmático. En realidad el conflicto entre la tesis de que la ciencia
es crítica y la de que es falible, constituye uno de los problemas básicos de la filosofía
popperiana. Mientras que Popper ofreció una formulación coherente y una crítica del
falsacionismo dogmático, nunca trazó una distinción nítida entre el falsacionismo ingenuo y el
sofisticado. En un artículo previo yo distinguí entre tres Poppers: Popper1, Popper2 y Popper3.
Popper1 es el falsacionista dogmático que nunca publicó una sola palabra; fue inventado (y
criticado) primero por Ayer y después por muchos otros. Popper2 es el falsacionista ingenuo,
Popper3 el falsacionista sofisticado. El Popper auténtico evolucionó desde el falsacionismo
dogmático hasta una versión ingenua del falsacionismo metodológico en la década de 1920;
llegó a las «reglas de aceptación» del falsacionismo sofisticado en la década de 1950. La
transición se caracterizó porque añadió al requisito original de contrastabilidad el «segundo»
requisito de «contrastabilidad independiente» y después el tercer requisito de que algunas de
estas contrastaciones independientes debían convertirse en corroboraciones. Pero el Popper
auténtico nunca abandonó sus primeras reglas falsacionistas (ingenuas). Hasta el momento
actual ha pedido que «los criterios de refutación se establezcan previamente; se debe llegar a
un acuerdo sobre qué situaciones observables, de ser observadas de hecho, implicarían que la
teoría queda refutada». Aún interpreta la falsación como el resultado de un duelo entre teoría
y observación sin que otra teoría mejor se encuentre necesariamente involucrada. El Popper
auténtico nunca ha explicado con detalle el procedimiento de apelación mediante el que se
pueden eliminar algunos «enunciados básicos aceptados». De modo que el Popper real se
compone de Popper2 con algunos elementos de Popper3.
La idea de una demarcación entre cambios de problemática progresivos y regresivos que ha sido
analizada en este artículo, se fundamenta en el trabajo de Popper; en realidad esta demarcación
es casi idéntica a su célebre criterio de demarcación entre ciencia y metafísica. Originalmente
Popper sólo pensaba en los aspectos teóricos de los cambios de problemáticas. Sólo más tarde,
añadió una discusión del aspecto empírico de los cambios de problemática. Sin embargo, la
prohibición de Popper de las estratagemas convencionalistas en algunos sentidos es demasiado
severa y en otros demasiado débil. Es demasiado severa porque, según Popper, una nueva
versión de un programa progresivo nunca adopta una estrategia reductora de contenido para
asimilar una anomalía; nunca dice cosas como «todos los cuerpos son newtonianos excepto los
17 cuerpos anómalos». Pero como siempre abundan las anomalías no explicadas, yo acepto
tales formulaciones; una explicación es un paso adelante (o sea, es «científica») si por lo menos
explica algunas anomalías previas que no habían sido explicadas «científicamente» por su
predecesora. Mientras que las anomalías se consideren problemas genuinos (aunque no
necesariamente urgentes) no importa demasiado el que las dramaticemos llamándolas
«refutaciones» o las desdramaticemos calificándolas como «excepciones»; la diferencia en ese
caso es sólo lingüística. (Este grado de tolerancia con relación a las estratagemas ad hoc nos
permite progresar incluso sobre fundamentos inconsistentes. En tales casos los cambios de
problemática pueden ser progresivos a pesar de las inconsistencias). Sin embargo, la prohibición
de Popper de las estratagemas reductoras de contenido también es demasiado débil. Estas sólo
pueden ser eliminadas mediante el requisito de que las hipótesis auxiliares deben formarse de
acuerdo con la heurística positiva del programa de investigación original. Este nuevo requisito
nos introduce en el problema de la continuidad de la ciencia.
El problema de la continuidad de la ciencia fue suscitado por Popper y sus seguidores hace
mucho tiempo. Cuando yo propuse mi teoría del crecimiento basada en la noción de programas
de investigación competitivos, estaba siguiendo una vez más y tratando de mejorar la tradición
popperiana. El mismo Popper ya había insistido en la importancia heurística de la «metafísica
influyente» y fue considerado por algunos miembros del Círculo de Viena como el campeón de
la peligrosa metafísica. Cuando su interés en las funciones de la metafísica se reavivó en la
década de 1950, escribió un «Epílogo metafísico» extraordinariamente interesante sobre los
«programas de investigación metafísicos». Pero Popper asoció la tenacidad no con la
irrefutabilidad metodológica sino más bien con la irrefutabilidad sintáctica. Por «metafísica»
entendió enunciados sintácticamente especificables como los enunciados «todos-algunos» y los
enunciados puramente existenciales. Ningún enunciado básico puede entrar en conflicto con
ellos debido a su forma lógica. Por ejemplo, «para todos los metales existe un disolvente» sería,
en este sentido, metafísico, mientras que la teoría de la gravitación de Newton aisladamente
considerada no lo sería. En la década de 1950 Popper también suscitó el problema de cómo
criticar las teorías metafísicas y sugirió algunas soluciones. Agassi y Watkins publicaron algunos
interesantes artículos sobre las funciones de esta clase de metafísica en la ciencia, en los que se
conectaba la «metafísica» con la continuidad del progreso científico. Mi análisis difiere del suyo
en primer lugar porque yo voy mucho más lejos que ellos en la difuminación de la demarcación
entre la ciencia (de Popper) y la metafísica (de Popper); ni siquiera utilizo ya el término
«metafísico». Sólo hablo acerca de programas de investigación científica cuyo núcleo firme es
irrefutable y no necesariamente debido a razones sintácticas sino posiblemente a razones
metodológicas que nada tienen que ver con la forma lógica. En segundo lugar, al separar
radicalmente el problema descriptivo de la función psicológico-histórica de la metafísica y el
problema normativo de cómo distinguir los programas de investigación progresivos de los
regresivos, yo elaboro este último problema mucho más de lo que ellos habían hecho.
Kuhn, T. – Conmensurabilidad, comparabilidad y comunicabilidad - ¿Qué son las revoluciones
científicas? Y otros ensayos

Paul Feyerabend y yo empleamos por primera vez un término que habíamos tomado de las
matemáticas para describir la relación entre teorías científicas sucesivas. El término era
«inconmensurabilidad», y cada uno de nosotros fue inducido a utilizarlo por problemas que
habíamos encontrado al interpretar textos científicos. Mi uso del término era más amplio que
el suyo; sus posiciones respecto al fenómeno eran más radicales que las mías; pero nuestra
coincidencia en aquel tiempo era sustancial. (Feyerabend y yo escribíamos sobre la
imposibilidad de añadir los términos de una teoría sobre la base de los términos de otra. Pero
mientras él restringía la inconmensurabilidad al lenguaje, yo hablaba también de diferencias en
<<métodos, campo de problemas y normas de resolución>>). Cada uno de nosotros estaba
fundamentalmente preocupado por mostrar que los significados de los términos y conceptos
científicos -por ejemplo «fuerza» y «masa», o «elemento» y «compuesto»- cambiaban
frecuentemente según la teoría en que aparecían; y ambos afirmábamos que cuando ocurría
este tipo de cambio era imposible definir todos los términos de una teoría en el vocabulario de
la otra. La mayoría o todas las discusiones sobre inconmensurabilidad dependen de un supuesto
literalmente correcto: si dos teorías son inconmensurables deben ser formuladas en lenguajes
mutuamente intraducibles. Si esto es así, señala una primera línea de crítica, si no hay ningún
modo en que las dos puedan formularse en un único lenguaje, entonces no pueden compararse,
y ningún argumento basado en la evidencia puede ser relevante para la elección entre ellas.
Hablar de diferencias y comparaciones presupone que se comparten algunos puntos, y esto es
lo que los defensores de la inconmensurabilidad, los cuales hablan a menudo de comparaciones,
parecen negar. Una segunda línea de crítica es como mínimo igualmente profunda. Gente como
Kuhn, se señala, nos dicen que es imposible traducir teorías antiguas a un lenguaje moderno.
Pero luego ellos hacen precisamente eso, reconstruir las teorías de Aristóteles, o de Newton, o
de Lavoisier, o de Maxwell, sin separarse del lenguaje que ellos y nosotros hablamos todos los
días. En estas circunstancias, ¿qué pueden querer decir cuando hablan de inconmensurabilidad?

Inconmensurabilidad local

Recordemos brevemente de dónde proviene el término «inconmensurabilidad». La hipotenusa


de un triángulo rectángulo isósceles es inconmensurable con su lado, o la circunferencia de un
círculo con su radio, en el sentido de que no hay una unidad de longitud contenida un número
entero de veces sin resto en cada miembro del par. Así pues, no hay medida común. Pero la falta
de una medida común no significa que la comparación sea imposible. Por el contrario,
magnitudes inconmensurables pueden compararse con cualquier grado de aproximación
requerido. Demostrar que esto podía hacerse y cómo hacerlo se cuenta entre los logros más
espléndidos de las matemáticas griegas. Pero este logro fue posible sólo porque, desde el
comienzo, la mayoría de las técnicas geométricas se aplicaban sin cambio a los dos elementos
entre los que se estaba buscando una comparación. Cuando se aplica al vocabulario conceptual
que se da en una teoría científica y en su entorno, el término «inconmensurabilidad» funciona
metafóricamente. La frase «sin medida común» se convierte en «sin lenguaje común». Afirmar
que dos teorías son inconmensurables significa afirmar que no hay ningún lenguaje, neutral o
de cualquier otro tipo al que ambas teorías, concebidas como conjuntos de enunciados, puedan
traducirse sin resto o pérdida. Ni en su forma metafórica ni en su forma literal
inconmensurabilidad implica incomparabilidad, y precisamente por la misma razón. La mayoría
de los términos comunes a las dos teorías funcionan de la misma forma en ambas; sus
significados, cualesquiera que puedan ser, se preservan; su traducción es simplemente
homófona. Surgen problemas de traducción únicamente con un pequeño subgrupo de términos
(que usualmente se interdefinen) y con los enunciados que los contienen. La afirmación de que
dos teorías son inconmensurables es más modesta de lo que la mayor parte de sus críticos y
críticas ha supuesto.
Llamaré «inconmensurabilidad local» a esta versión modesta de la inconmensurabilidad. En la
medida en que la inconmensurabilidad era una afirmación acerca del lenguaje, o sea, acerca del
cambio de significado, su forma local es mi versión original. Si puede sostenerse
consistentemente, entonces la primera línea de crítica dirigida a la inconmensurabilidad debe
fracasar. Los términos que preservan sus significados a través de un cabio de teoría
proporcionan una base suficiente para la discusión de las diferencias, y para las comparaciones
que son relevantes en la elección de teorías. (Estos términos no son independientes de la teoría,
sino que sencillamente se usan de la misma manera en las dos teorías en cuestión. Se sigue que
la contrastación es un proceso que compara dos teorías, no un proceso que pueda evaluar
teorías por separado). Proporcionan incluso, como veremos, una base para explorar los
significados de los términos inconmensurables. Sin embargo, no es claro que la
inconmensurabilidad pueda restringirse a una región local. En el estado actual de la teoría del
significado, la distinción entre términos que cambian de significado y aquellos que lo preservan
es, en el mejor de los casos, difícil de explicar o aplicar. Los significados son productos históricos,
y cambian inevitablemente en el transcurso del tiempo cuando cambian las demandas sobre los
términos que los poseen. Es sencillamente poco plausible que algunos términos cambien sus
significados cuando se transfieren a una nueva teoría sin infectar los términos transferidos con
ellos. Lejos de suministrar una solución, la frase «invariancia del significado» sólo puede
proporcionar un nuevo ámbito para el problema planteado por el concepto de
inconmensurabilidad.

Traducción frente a interpretación

Si algunos términos no vacuos de una teoría más antigua eluden la traducción al lenguaje de su
sucesora, ¿cómo pueden los historiadores y demás analistas tener tanto éxito al reconstruir o
interpretar esa teoría más antigua, incluyendo el uso y función de aquellos mismos términos?
Los historiadores afirman que es posible producir interpretaciones que tengan éxito, y los
antropólogos, en una empresa estrechamente relacionada, afirman lo mismo. Adoptaré como
premisa que sus afirmaciones están justificadas.
Mantengo que la interpretación es distinta de la traducción, al menos tal como la traducción se
entiende en la mayor parte de la filosofía reciente. La confusión es fácil porque la traducción
real contiene a menudo, o quizá siempre, al menos un pequeño componente interpretativo.
Pero en este caso es necesario considerar que la traducción real encierra dos procesos
distinguibles. La filosofía analítica actual se ha concentrado exclusivamente en uno de ellos y lo
ha confundido con el otro. Para evitar confusiones seguiré la costumbre reciente, empleando
«traducción» para designar el primero de estos procesos e «interpretación» para designar el
segundo. Así pues, para nuestros propósitos, la traducción es algo efectuado por una persona
que sabe dos idiomas. Al enfrentarse con un texto, oral o escrito, en uno de estos idiomas, el
traductor sustituye sistemáticamente palabras o secuencias de palabras en el texto por palabras
o secuencias de palabras en el otro idioma, a fin de producir un texto equivalente. El texto
traducido cuenta más o menos la misma historia, presenta más o menos las mismas ideas, o
describe más o menos la misma situación que el texto del cual es una traducción. En primer
lugar, la lengua en la que se expresa la traducción existía antes de que la traducción comenzara.
Esto es, el hecho de la traducción no ha cambiado los significados de palabras o frases.
Naturalmente, puede haber aumentado el número de referentes conocidos de un término dado,
pero no ha alterado el modo en que esos referentes, antiguos y nuevos, se determinan. Una
segunda característica está estrechamente relacionada con ésta. La traducción consiste sólo en
palabras y frases que reemplazan (no necesariamente una a una) palabras y frases del original.
Volvamos ahora a la interpretación. Es una empresa exigida por la historia y la antropología,
entre otras disciplinas. A diferencia de la persona que traduce, puede que la que efectúa la
interpretación domine inicialmente sólo una lengua. Al principio, el texto sobre el que trabaja
consiste, total o parcialmente, en ruidos o inscripciones ininteligibles. El «traductor radical» de
Quine es, de hecho, alguien que efectúa una interpretación, y «gavagai» ejemplifica el material
ininteligible con el que comienza. Observando la conducta y las circunstancias que rodean la
producción del texto, y suponiendo durante todo el proceso que se puede extraer un sentido de
la conducta aparentemente lingüística, la persona que interpreta busca ese sentido, se esfuerza
por inventar hipótesis que hagan inteligible la proferencia o inscripción, como por ejemplo que
«gavagai» significa: «Mirad, un conejo». Si tiene éxito, lo que él ha hecho en primera instancia
es aprender una lengua nueva, quizá la lengua en la que «gavagai» es un término, o quizás una
versión más antigua de su propia lengua, una en la que términos aún usuales, como «fuerza» y
«masa» o «elemento» y «compuesto» funcionaban de forma diferente. Aprender una nueva
lengua no es lo mismo que traducir de ella a la propia. Tener éxito en lo primero no implica
necesariamente que también se vaya a obtener éxito en lo segundo.
En lugar de descubrir un término que corresponda a «gavagaí», el antropólogo o intérprete
podría aprender el término indígena de una forma muy parecida a como aprendió algunos
términos de su propia lengua, en una etapa anterior. Esto es, él puede aprender a reconocer las
criaturas que evocan «gavagai» a los indígenas, y frecuentemente así lo hace. En lugar de
traducir, él puede simplemente aprender a reconocer el animal y emplear el término que
emplean los indígenas. Por supuesto, la disponibilidad de esa alternativa no excluye la
traducción. La persona que lleva a cabo la interpretación no puede limitarse a introducir el
término «gavagai» en su propia lengua, por ejemplo, el castellano. Esto supondría alterar el
castellano y el resultado no sería una traducción. Pero puede intentar describir en castellano los
referentes del término «gavagai»: son peludos, tienen orejas largas, su cola se parece a un
arbusto, etc. Si la descripción es afortunada, es decir, si se adecua a todas las criaturas que
provocan preferencias que contienen «gavagai», y sólo a ellas, entonces «criatura peluda, con
orejas largas, con una cola que se parece a un arbusto...» es la traducción buscada y, en lo
sucesivo, «gavagai» puede introducirse en castellano como una abreviatura de ella. En estas
circunstancias, no surge ningún problema de inconmensurabilidad. Sin embargo, las
circunstancias podrían ser diferentes- Podría no existir una descripción en castellano que tenga
el mismo referente que el término indígena, «gavagaí». Al aprender a reconocer gavagais, la
persona que efectúa la interpretación puede haber aprendido a reconocer características
distinguibles que son desconocidas para las personas que hablan el castellano, y para las que el
castellano no proporciona ninguna terminología descriptiva. Esto es, quizá los indígenas
estructuran el mundo animal de forma diferente a como lo hacen las personas que hablan el
castellano, utilizando discriminaciones diferentes para hacerlo. En estas circunstancias,
«gavagai» permanece como un término indígena irreductible que no puede ser traducido al
castellano. Aunque las personas que hablan el castellano pueden aprender a utilizar el término,
cuando lo hacen están hablando la lengua indígena. Estas son las circunstancias para las que yo
reservaría el término «inconmensurabilidad».

Determinación de la referencia frente a traducción

Los historiadores que tratan con textos científicos antiguos pueden usar, y deben hacerlo, el
lenguaje moderno para identificar los referentes de los términos anticuados. Igual que cuando
el indígena señala con su dedo gavagais, esas determinaciones de la referencia proporcionan
con frecuencia los ejemplos concretos que pueden permitir al historiador aprender qué
significan las expresiones problemáticas en su texto. Además, la introducción de terminología
moderna permite explicar en qué áreas las teorías antiguas tuvieron éxito y por qué lo tuvieron.
Ahora bien, si sólo pueden traducirse las expresiones que tienen referente, entonces ninguna
obra de ficción podría traducirse y, en cuanto a la cuestión que nos ocupa, los textos científicos
antiguos deberían tratarse, como mínimo, con la misma cortesía que se emplea al tratar con
obras de ficción. Dichos textos nos informan de lo que creían los científicos del pasado
independientemente de su valor de verdad, y esto es lo que una traducción debe comunicar.

El historiador como intérprete y maestro del lenguaje

Un ejemplo: al aprender mecánica newtoniana, los términos «masa» y «fuerza» deben


aprenderse a la vez, y la segunda ley de Newton debe desempeñar un papel en dicho
aprendizaje. Esto es, no se puede aprender «masa» y «fuerza» independientemente y luego
descubrir empíricamente que la fuerza es igual a la masa por la aceleración. Tampoco con la
ayuda de la segunda ley. En realidad, los tres deben aprenderse a la vez, como partes de un
modo globalmente nuevo (pero no enteramente nuevo) de hacer mecánica. Desgraciadamente
las formalizaciones habituales oscurecen este punto. Al formalizar la mecánica se puede
seleccionar «masa» o «fuerza» como término primitivo y luego introducir el otro como término
definido. Pero esta formalización no proporciona ninguna información acerca de cómo los
términos primitivos o definidos se relacionan con la naturaleza o cómo se identifican fuerzas y
masas en situaciones físicas reales. Por ejemplo, si bien «fuerza» puede ser primitivo en alguna
formalización particular de la mecánica, no se puede aprender a reconocer fuerzas sin aprender
simultáneamente a identificar masas y sin recurrir a la segunda ley. Esta es la razón de que la
«fuerza» y «masa» newtonianas no sean traducibles al lenguaje de una teoría física (aristotélica
o einsteniana, por ejemplo) que no utiliza la versión de Newton de la segunda ley. Para aprender
cualquiera de estos tres modos de hacer mecánica, los términos interrelacionados en alguna
parte local de la red del lenguaje deben aprenderse o reaprenderse simultáneamente, y
aplicarse luego a la naturaleza como un todo. No es posible simplemente transmitirlos
individualmente mediante una traducción. Entonces, ¿cómo puede comunicar sus resultados
un historiador que enseña la teoría de Newton o escribe sobre ella? La respuesta a esta pregunta
depende del tipo de audiencia, por ejemplo, personas que no saben nada de la teoría de
Newton. El historiador les describe el mundo en que creía el físico que aceptaba la teoría.
Simultáneamente, les está enseñando el lenguaje que los físicos usaban para describir, explicar
y explorar ese mundo. La mayoría de las palabras de ese antiguo lenguaje son idénticas en forma
y función a las palabras del lenguaje del historiador y su audiencia. Pero otras son nuevas, y
deben ser aprendidas o reaprendidas. Estos son los términos intraducibles para los que el
historiador o alguno de sus predecesores ha tenido que descubrir o inventar significados que
hagan inteligibles los textos en que trabaja. La interpretación es el proceso mediante el que se
descubre el uso de esos términos, y ha sido muy discutido recientemente bajo el título de
hermenéutica.

El manual de traducción quineano

La mayoría de las dificultades que he considerado derivan más o menos directamente de una
tradición que sostiene que la traducción puede interpretarse en términos puramente
referenciales. Yo he insistido en que éste no es el caso, y mis argumentos implican por lo menos
que es necesario recurrir además a algo procedente del reino de los significados, las intensiones
y los conceptos. Para exponer mis opiniones he considerado un ejemplo extraído de la historia
de la ciencia, el tipo de ejemplo que me condujo al problema de la inconmensurabilidad y de allí
a la traducción en primer lugar. Sin embargo, discusiones recientes sobre semántica referencial
y discusiones relacionadas sobre la traducción sugieren directamente el mismo tipo de
observaciones. Aquí consideraré el único ejemplo al que aludí al comienzo: la concepción de
Quine de un manual de traducción. Este manual -el producto final de los esfuerzos de un
traductor radical- consta de dos listas de palabras y frases, una en la lengua del traductor, la otra
en la lengua de la tribu que está investigando. Cada elemento de cada lista está conectado con
un elemento de la otra, o frecuentemente con varios, y cada conexión especifica una palabra o
frase en una lengua que, según supone el traductor, puede ser sustituida en contextos
apropiados por la palabra o frase conectada con ella en la otra lista. Donde las conexiones son
de uno a muchos el manual incluye especificaciones de los contextos en que debe preferirse
cada una de las conexiones.
La red de dificultades que quiero aislar tiene que ver con el último componente del manual, las
especificaciones del contexto. Consideremos la palabra francesa pompe. En algunos contextos
(generalmente relacionados con ceremonias) su equivalente castellana es «pompa»; en otros
(generalmente hidráulicos) su equivalente es «bomba». Ambos equivalentes son precisos. De
este modo, pompe proporciona un ejemplo típico de ambigüedad, como el ejemplo habitual del
castellano «banco»: a veces un asiento, otras una institución financiera. Contrastemos ahora el
caso de pompe con el de palabras francesas como esprit o doux/douce. Dependiendo del
contexto, esprit puede ser reemplazado por términos del castellano como «espíritu», «aptitud»,
«mente», «inteligencia», «juicio», «ingenio» o «actitud». La segunda, que es un adjetivo, puede
aplicarse, entre otros, a la miel («dulce»), a la lana («suave»), a una sopa poco sazonada
(«sosa»), a un recuerdo (tierno»), o a una pendiente («poco pronunciada») o a un viento
(«flojo»). Estos no son casos de ambigüedad, sino de disparidad conceptual entre francés y
castellano. Esprit y doux/ douce son conceptos unitarios para las personas que hablan francés,
pero las que hablan castellano, como grupo, no tienen equivalentes. Por consiguiente, aunque
las diversas traducciones que he ofrecido preservan el valor veritativo en contextos apropiados,
ninguna de ellas es intensionalmente precisa en ningún contexto. Esprit y doux/ douce son, pues,
ejemplos de términos que pueden ser traducidos sólo parcialmente y mediante un compromiso.
La elección del traductor de una palabra o frase del castellano para uno de ellos es, en el acto,
la elección de algunos aspectos de la intensión del término francés a expensas de otros.
Simultáneamente, esa elección introduce asociaciones intensionales que son características del
castellano pero ajenas a la obra que se está traduciendo. Creo que el análisis de la traducción
que ofrece Ouine se resiente gravemente de su falta de habilidad para distinguir casos de este
tipo de los casos de simple ambigüedad ilustrada por términos como pompe. La fuente de la
dificultad en la traducción es una teoría de la traducción basada en una semántica extensional
y, por tanto, restringida a la preservación del valor veritativo o la equivalencia como criterio de
adecuación. Tanto doux/ douce como esprit pertenecen a grupos de términos interrelacionados,
de los cuales algunos deben aprenderse a la vez, y una vez aprendidos estructuran una porción
del mundo de la experiencia de forma diferente a la que es familiar a los hablantes de castellano
contemporáneos. Tales palabras ilustran la inconmensurabilidad entre lenguajes naturales. Una
traducción perfecta preservaría estas intensionalidades, y ésta es la razón de que no pueda
haber traducciones perfectas. Sin embargo, aproximarse al ideal inalcanzable sigue siendo un
requisito de las traducciones reales, y si este requisito se tomara en cuenta, los argumentos en
favor de la indeterminación de la traducción requerirían una forma muy diferente de la que
ahora es habitual. Tratando las conexiones de uno a muchos en sus manuales de traducción
como casos de ambigüedad, Quine rechaza los requisitos intensionales que debe cumplir una
traducción adecuada. Simultáneamente, rechaza la clave principal para el descubrimiento de los
referentes de las palabras y frases de otras lenguas. Si bien las conexiones de uno a muchos
están causadas a veces por la ambigüedad, es mucho más frecuente, que proporcionen a las
personas que hablan la otra lengua evidencia para decidir qué objetos y situaciones son
semejantes y cuáles son diferentes; esto es, muestran cómo estructura el mundo la otra lengua.
Su función es, pues, muy parecida a la que cumplen las observaciones múltiples en el aprendizaje
de una primera lengua. Para aprender doux/douce, la persona que habla castellano debe
observarlo en muchos contextos. Estas son las formas, o bien algunas de ellas, mediante las que
una persona aprende las técnicas para conectar palabras y frases con la naturaleza; primero las
de su propia lengua y luego, quizá aquellas diferentes que están contenidas en otras lenguas. Al
abandonarlas, Quine elimina la posibilidad misma de la interpretación y, como argumenté al
comienzo, una interpretación es lo que su traductor radical debe hacer antes de que la
traducción pueda empezar.

Los invariantes de la traducción

¿Qué debe preservar la traducción? No simplemente la referencia, pues las traducciones que
preservan la referencia pueden ser incoherentes e imposibles de atender cuando los términos
que emplean se toman en su sentido habitual. Las traducciones deben preservar no sólo la
referencia sino también el sentido o intensión. Ahora bien, cómo identifican los miembros de
una comunidad lingüística los referentes de los términos que emplean. Dos características
obvias del lenguaje. Para emparejar los términos con sus referentes puede usarse legítimamente
todo lo que se sepa o crea de estos referentes. Además, dos personas pueden hablar la misma
lengua y sin embargo utilizar criterios diferentes para identificar los referentes de sus términos.
Un observador enterado de sus diferencias concluiría simplemente que las dos diferían en lo
que sabían de los objetos en cuestión. Personas diferentes utilizan criterios diferentes para
identificar los referentes de términos compartidos. Ninguno de los criterios utilizados para
determinar la referencia es meramente convencional, es decir, asociado simplemente por
definición con los términos que ayuda a caracterizar. (Primero, no considero que el significado
sea equivalente a un conjunto de criterios. Segundo, <<criterios>> debe entenderse en un
sentido muy amplio: abarca cualesquiera técnicas, no todas necesariamente consistentes, que
las personas usan para conectar palabras con el mundo. En particular, tal y como se usa aquí,
<<criterios>> puede incluir ciertamente semejanza con ejemplos paradigmáticos [pero entonces
la relación de semejanza relevante debe ser conocida] o recurso a expertos [pero entonces los
hablantes deben saber cómo encontrar los expertos relevantes]). ¿Cómo puede ser, pues, que
personas cuyos criterios son diferentes identifiquen los mismos referentes para sus términos
tan regularmente? Su lenguaje está adaptado al mundo natural y social en el que viven, y ese
mundo no presenta las clases de objetos y situaciones que, explotando sus diferencias de
criterios, les conducirían a hacer identificaciones diferentes. Esta respuesta plantea, a su vez,
una cuestión adicional más difícil: ¿qué determina que los conjuntos de criterios que un hablante
emplea cuando aplica el lenguaje al mundo sean adecuados al mundo que ese lenguaje
describe? ¿Qué deben compartir hablantes que determinan la referencia utilizando criterios
distintos para ser hablantes del mismo lenguaje, miembros de la misma comunidad lingüística?
Los miembros de la misma comunidad lingüística son miembros de una cultura común y, por
consiguiente, cada uno de ellos puede esperar enfrentarse con un mismo rango de objetos y
situaciones. Para que identifiquen los mismos referentes, cada uno debe asociar cada término
individual con un conjunto suficiente de criterios como para distinguir sus referentes de otros
tipos de objetos o situaciones que el mundo de la comunidad realmente presenta. Por tanto, la
habilidad para identificar correctamente los elementos de un conjunto requiere a menudo que
se conozcan además conjuntos de contraste. Por ejemplo, aprender a identificar gansos puede
requerir también que se conozcan criaturas tales como patos y cisnes. Yo indicaba que el grupo
de criterios adecuado para identificar gansos dependía no sólo de las características compartidas
por los gansos reales, sino además de las características de algunas otras criaturas del mundo
habitado por los gansos y las personas que hablan de ellos. Son pocos los términos o expresiones
con referente que se aprenden separadamente, o del mundo o uno de otro.
Este modelo muy parcial del modo en que los hablantes emparejan el lenguaje con el mundo
pretende reintroducir dos temas estrechamente relacionados. Sin duda, el primero es el papel
esencial de los conjuntos de términos que las personas educadas en una cultura, sea ésta
científica o no, deben aprender a la vez, y que las que son ajenas a esa cultura deben considerar
a la vez durante la interpretación. Este es el elemento holista que intervino en este artículo al
comienzo con la inconmensurabilidad local. Si hablantes diferentes que utilizan criterios
diferentes consiguen identificar los mismos referentes para los términos, los conjuntos de
contraste deben haber jugado un papel en la determinación de los criterios que cada hablante
asocia con términos individuales. Esto debe ser así al menos cuando, como es habitual, estos
criterios no constituyen por sí mismos condiciones necesarias y suficientes para que un término
tenga referente. En estas circunstancias, una especie de holismo local debe ser una
característica esencial del lenguaje. Estas observaciones pueden proporcionar también una base
para mi segundo tema recurrente, la reiterada aserción de que lenguajes diferentes imponen al
mundo estructuras diferentes. Imaginemos por un momento que para cada individuo un
término que tiene referente es un nudo en una red léxica del cual irradian rótulos con los
criterios que él o ella utiliza en la identificación de los referentes del término nodal. Esos criterios
conectarán algunos términos y los distanciarán de otros, construyendo así una estructura
multidimensional dentro del léxico. Esta estructura refleja los aspectos de la estructura del
mundo que pueden ser descritos utilizando el léxico y, simultáneamente, limita los fenómenos
que pueden describirse con ayuda del léxico. Si a pesar de todo surgen fenómenos anómalos, su
descripción (quizás incluso su reconocimiento) requerirá la alteración de alguna parte del
lenguaje, cambiando las conexiones entre términos previamente constitutivas. Utilizando
conjuntos distintos de las conexiones que constituye criterios pueden formarse estructuras
homólogas, es decir, estructuras que reflejan el mismo mundo. Lo que tales estructuras
homólogas preservan, desprovistos de los rótulos que designan los criterios, son las categorías
taxonómicas del mundo y las relaciones de semejanza/diferencia entre ellas. Lo que los
miembros de una comunidad lingüística comparten es la homología de la estructura léxica. No
es necesario que sus criterios sean los mismos, puesto que pueden aprenderlos los unos de los
otros a medida que lo necesiten. Pero sus estructuras taxonómicas deben coincidir, pues,
cuando la estructura es diferente el mundo es diferente, el lenguaje es privado y cesa la
comunicación hasta que un grupo aprende el lenguaje del otro.
A diferencia de lo que ocurre con dos miembros de la misma comunidad lingüística, no es
necesario que las personas que hablan dos lenguas mutuamente traducibles compartan
términos. Pero las expresiones de una lengua que tienen referente deben ser emparejables con
las expresiones de la otra que tienen el mismo referente, y las estructuras léxicas empleadas por
los hablantes de las lenguas deben ser las mismas, no sólo dentro de cada lengua sino también
de una lengua a la otra. Dicho en pocas palabras, la taxonomía debe preservarse para
proporcionar categorías compartidas y relaciones compartidas entre dichas categorías. Si no se
preserva, la traducción es imposible. Por supuesto, la traducción es sólo el primer recurso de las
personas que intentan comprenderse. La comunicación es posible en su ausencia. Pero cuando
la traducción no es factible, se requieren dos procesos que son muy diferentes: interpretación y
aprendizaje del lenguaje.

[Análisis sincrónico de Quine en Palabra y objeto – Análisis diacrónico del barco de Neurath]
Echeverría, J. – Introducción a la metodología de la ciencia: filosofía de la ciencia en el siglo XX

El falsacionismo popperiano

Karl Popper: su crítica del inductivismo, su afirmación de que la observación siempre está
impregnada de teoría y el establecimiento de un nuevo criterio de demarcación científica (la
falsabilidad), le han llevado a ser uno de los primero críticos influyentes del positivismo lógico
en su primera versión, si bien compartió puntos básicos de la concepción heredada. Popper
siempre ha mantenido esencialmente sus posturas iniciales, en las que consideraba que el punto
de partida para la reflexión filosófica sobre la ciencia eran las teorías científicas, así como su
contrastación negativa con la experiencia, por la vía de la falsación. Dichas teorías siempre son
conjeturas sobre el mundo, y no instrumentos de análisis del mismo ni generalizaciones en base
a datos empíricos. La actividad del científico debe ser critica, tratando de refutar las teorías
vigentes en cada momento y contribuyendo de esta manera al progreso científico, que tiene
lugar por integración y mejora del conocimiento anterior. El propio Popper ha dado el
nombre de realismo critico al conjunto de sus tesis básicas.

Las teorías científicas

La principal novedad que introdujo Popper en la metodología científica estriba en la


importancia atribuida a las teorías. Para Aristóteles la reflexión sobre la ciencia debía
empezar por la búsqueda de los principios propios a cada ciencia, es decir, de los términos
máximamente universales que eran objeto de dicha disciplina. Para el empirismo lógico el
fundamento del saber científico eran las proposiciones protocolares, en la medida en que
expresan hechos elementales. Popper se centrará en un tipo diferente de construcción,
cuya estructura no es simple ni inmediata: las teorías científicas. «Las ciencias empíricas
-afirma Popper- son sistemas de teorías; y la lógica del conocimiento científico, por tanto,
puede describirse como una teoría de teorías». La filosofía de la ciencia, por tanto, queda
planteada como una disciplina metateórica, o metacientífica, cuyos objetos principales de
reflexión son las teorías científicas, y no las ideas, ni los universales, ni los hechos más
simples y elementales. Popper utiliza una metáfora: Las teorías son redes que lanzamos para
apresar aquello que llamamos <<el mundo>>: para racionalizarlo, explicarlo y dominarlo. Y
tratamos de que la malla sea cada vez más fina.
La razón científica funciona pues a base de construir sistemas peculiares de conocimiento del
mundo, al objeto de poder explicar los fenómenos (y no sólo describirlos), y lo que es más,
con la meta final de dominar la naturaleza, lo cual equivale en muchos casos a transformarla.
La ciencia no es un saber inerte o pasivo con respecto a su objeto. En la tarea del científico
cabe rastrear una voluntad de dominar la naturaleza, particularmente clara en el caso
de la tecnología que de la ciencia se deriva. Y el instrumento principal para llevar a cabo esa
labor son las teorías, que por lo mismo han de ser el punto de partida de la reflexión
metodológica sobre la ciencia. Popper, sin embargo, no es un instrumentalista.
Hay cuatro modos de contrastar una teoría. Cabe, en primer lugar, estudiar la coherencia interna
de la misma, investigando las diversas consecuencias que pueden derivarse de ella y viendo si
son contradictorias o no. Asimismo puede estudiarse si una teoría es empírica o no, en virtud
de su forma lógica: Popper, en la estela del Círculo de Viena en este punto, admite en
Lógica de la investigación científica que puede haber teorías puramente tautológicas, que
corresponderían a las ciencias no empíricas, como la lógica y las matemáticas. En tercer
lugar, unas teorías pueden ser comparadas con otras, al objeto de averiguar si la nueva
teoría comporta algún adelanto científico respecto de la anterior. Por último, una teoría se
contrasta al aplicar empíricamente las consecuencias que se derivan de ella. La contrastación
teoría/experiencia no es, por tanto, sino uno de los procedimientos metodológicos destinados
a evaluar el interés de una teoría científica, Con Popper aparece ya uno de los temas que
será más estudiado posteriormente: la evaluación de una teoría relativamente a otra. Sin
embargo, él se centrara fundamentalmente en el cuarto tipo de contrastación, introduciendo
el criterio de falsación de una teoría por medio de la experiencia.
Otra aportación popperiana, estriba en la crítica a la que somete al concepto de experiencia
directa e inmediata, que sin duda era una de las nociones básicas del atomismo lógico. Ya
en 1935, Popper critica las teorías de la ciencia que suponen que ésta se construye a partir
de experiencias que van siendo ordenadas y recopiladas. En 1972, al publicar su Objective
Knowledge, su pensamiento al respecto resulta mucho más claro y tajante. Todo un parágrafo
está consagrado a desarrollar la tesis de que «todo conocimiento -incluso las observaciones-
está impregnado de teoría». No hay tabula rasa alguna en el ser humano. Siempre se parte
de algún conocimiento previo; en último término, Popper admite la existencia de disposiciones
innatas en el conocimiento humano. Resulta interesante mencionar el aspecto genético que
en Popper adquiere esta tesis clásica: Si no fuese absurdo hacer este tipo de estimaciones, diría
que el 99,9 por 100 del conocimiento de un organismo es heredado o innato y sólo una décima
parte consiste en modificaciones de dicho conocimiento innato.
Estas disposiciones innatas, por consiguiente, están impregnadas de teoría, entendiendo
el término «teoría» en un sentido amplio. Los órganos sensoriales, en particular, incorporan
genéticamente teorías anticipatorias. No hay ningún tipo de percepción que sea inmediata
o simple; todas están previamente influidas por esas «teorías» subyacentes.
En realidad, este tipo de tesis ya habían sido defendidas por Hanson en su obra Patrones
de descubrimiento de 1958, al afirmar que «la visión está cargada de teoría- y remitir dicha
tesis a Pierre Duhem como precedente, así como a la psicología de la Gestalt y al
Wittgenstein de las Investigaciones filosóficas. La tesis de la inconmensurabilidad entre
teorías, defendida por Kuhn y por Feyerabend ha acabado de centrar el debate filosófico en
torno a esta cuestión. La relevancia otorgada por Popper a las teorías, frente a la concepción
inicial del Círculo de Viena, que centraba su análisis en las proposiciones y en los términos,
ha contribuido en gran medida a provocar este giro radical en la epistemología científica del
siglo XX. Popper se mostró de acuerdo con la concepción heredada en que, de ser posible,
las teorías deberían de estar axiomatizadas. Pero, a diferencia de los neopositivistas, siempre
insistió en la universalidad de las leyes científicas, así como de muchos de sus enunciados
y conceptos. Ello es una condición necesaria para que se puedan hacer predicciones, y
asimismo para que la ciencia cumpla su función explicativa que, si ya no ha de serlo en
base al principio esencialista de causalidad, sí lo puede ser por medio del principio
metodológico de causalidad, que Popper propugnó contra el neopositivismo y el
instrumentalismo. Sin embargo, las teorías son conjeturas, hipótesis generales que permiten
explicar los fenómenos. Nunca son verdaderas, pero sí pueden ser falsadas, lo cual debe
llevar al científico a rechazarlas.
El problema de la inducción

La segunda gran divergencia entre Popper y el Círculo de Viena, y en concreto con Rudolf
Carnap, con el que polemizó al respecto, así como con Reichenbach, se refiere al papel
de la inducción dentro de la metodología científica. Ya en Lógica de la investigación científica
alude a, ello, pero posteriormente ha vuelto varias veces sobre el tema.
Popper considera que una inferencia es inductiva cuando pasa de enunciados singulares (o
particulares) a enunciados universales, tales como hipótesis, leyes o teorías. El problema de la
inducción consiste en indagar si las inferencias inductivas están lógicamente justificadas, y bajo
que condiciones lo están. Para ello, afirma Popper, habría que formular alguna ley
lógica que fundamentase dichas inferencias: el principio de inducción. Pero, a diferencia
de otras leyes lógicas, Popper afirma que dicho principio de inducción no puede ser una ley
lógica, en el sentido de la lógica formal del siglo XX, es decir, una tautología o un enunciado
analítico. Habría de ser un enunciado sintético y, desde luego, un enunciado universal. Y
aquí surge el problema: ¿cómo sabemos que dicho enunciado universal, fuese el que fuese,
sería verdadero? Si intentamos afirmar que sabemos por experiencia que es verdadero,
reaparecen de nuevo justamente los mismos problemas que motivaron su introducción:
para justificarlo tenemos que utilizar inferencias inductivas; para justificar éstas hemos de
suponer un principio de inducción de orden superior, y así sucesivamente. Por tanto, cae
por su base el intento de fundamentar el principio de inducción, en la experiencia, ya
que lleva inevitablemente a una regresión infinita.
Este círculo vicioso, que constituye la médula del problema de la inducción, ya había sido
advertido por Hume. Numerosos autores se han ocupado de la cuestión tanto para aclararlo
como para profundizar en él o tratar de solucionarlo. Muy resumidamente, y simplificando,
podría ser expuesto así: Supongamos que queremos inferir, a partir de n observaciones según
las cuales «el agua hierve a 100 grados centígrados» un enunciado universal al respecto,
mediante el cual se asevera que también en el experimento n + 1 el agua hervirá a los 100
grados. Esa diferencia sólo es válida en el caso concreto del agua si admitimos un principio
de inducción más general, que por ejemplo podría aseverar: efectuadas n observaciones
de un fenómeno X, y habiendo advertido en todas ellas (para un n suficientemente grande)
que se produce el acontecimiento Y, podemos concluir que X  Y. Ahora bien: ¿cómo
podemos estar seguros de que este principio más general es válido? Lo más que puede
ocurrir es que hayamos observado que en cierto número finito de ocasiones, N, ha
resultado válido en todo tipo de acontecimientos empíricos. Mas de ello no podemos concluir
que es universalmente válido, pues de hacerlo estaríamos presuponiendo ya la inferencia
inductiva para fundamentar el propio principio de inducción, siendo así que dicho principio
había sido formulado al objeto de justificar las inferencias inductivas.
Kant trató de resolver el problema afirmando que el principio de inducción era válido a
priori. Dicha solución no resulta satisfactoria para Popper, quien optará por una solución
muy diferente: Yo seguiría afirmando que es superfluo todo principio de inducción, y que
lleva forzosamente a incoherencias lógicas.
Para Popper, la metodología científica es esencialmente deductiva, y no inductiva: Dada
una teoría T, deducimos consecuencias de la misma, c1, c2, …, cn. Dichas consecuencias
han de ser contrastables empíricamente, pero entendiendo dicha contrastación como
posibilidad de refutación de la teoría T si los datos empíricos no coinciden con las
predicciones c, emanadas de T: nunca como verificación de la teoría T. Vemos así que la
afirmación popperiana de las teorías científicas como las auténticas unidades de partida de
la metodología científica es coherente con su crítica del inductivismo, en la medida en
que esta concepción metodológica haría depender a las teorías de los hechos observados,
y no al revés.

La falsabilidad como criterio de demarcación

El problema de la demarcación entre ciencia y metafísica es considerado por Popper, como


por el Circulo de Viena, como una cuestión capital para la filosofía de la ciencia. Pese a
esta común perspectiva, en la que se muestra la incidencia que sobre su pensamiento
tuvieron los debates de los atomistas lógicos, la solución propuesta por Popper será muy
diferente. Popper rechaza la inducción como criterio de demarcación precisamente porque
no considera que sea un criterio satisfactorio. Y se remite a Kant como al autor en el que
el problema de la demarcación adquirió una importancia prioritaria. La solución de los
positivistas le parece naturalista, mientras que para Popper dicho problema no es exclusivo
de las ciencias naturales. Si aceptásemos las propuestas de Wittgenstein o de los vieneses,
afirma Popper, partes muy importantes de la ciencia (como las leyes científicas) habrían de
ser consideradas como extracientíficas, al no proceder de observaciones repetidas que
inductivamente han dado lugar a enunciados universales. De ahí que el criterio neopositivista
de demarcación, basado en la verificación o en la confirmación, pero de hecho sustentado
en el método inductivo como marca de la cientificidad, ha de ser radicalmente modificado.
Para Popper la ciencia no es nunca un sistema de enunciados ciertos e irrevocablemente
verdaderos, sino todo lo contrario. La ciencia nunca alcanza la verdad, sino que se
aproxima a ella proponiendo sistemas hipotéticos complejos (las teorías científicas) que
permiten explicar más o menos fenómenos empíricos, pero nunca todos los hechos que
se pueden presentar en una disciplina determinada y en un momento histórico dado como
base empírica de dicha ciencia. Los científicos deducen a partir de dichos sistemas
hipotéticos consecuencias que coinciden en mayor o menor grado con la experiencia. Pero
las teorías científicas nunca son categóricas, sino conjeturales. La función de la empiria
consiste en refutarlas, o en el mejor de los casos en corroborarlas en un cierto grado, pero
no en ratificar ni en confirmar las teorías.
Surge así el nuevo criterio de demarcación entre ciencia y no ciencia: una teoría es científica
si puede ser falsada por medio de la experiencia (en el caso de las teorías empíricas) o por
medio de su contradictoriedad interna (en el caso de las teorías lógicas y matemáticas). Para
Popper, <<las teorías no son nunca verificables empíricamente>>, pero si han de ser
contrastables con ella. En lugar de elegir un criterio positivo de contrastación, hay que tomar
uno negativo: No exigiré que un sistema científico pueda ser seleccionado, de una vez para
siempre, en un sentido positivo; pero si que sea susceptible de selección en un sentido negativo
por medio de contrastes o pruebas empíricas: ha de ser posible refutar por la experiencia un
sistema científico empírico.
La posibilidad de mostrar la falsedad de una teoría científica mediante la experiencia, por
ejemplo a través de las predicciones que deductivamente se derivan de ella, es el signo distintivo
del saber científico frente a otro tipo de saberes. Esta falsabilidad es un criterio de demarcación,
pero no de sentido. Aquello que no versa sobre la experiencia ni es falsable por ella puede
perfectamente tener sentido, pero sin ser científico. Popper no reprocha a la metafísica clásica,
ni en general a la religión, o a la poesía, o al arte, su ausencia de sentido, como sí hicieran Carnap
y el Círculo de Viena. Él afirma incluso que la metafísica puede tener valor para la ciencia
empírica. Lo que ocurre es que, entre aquello enunciados empíricos que tienen sentido (por
ejemplo, <<surgirá una bola de fuego del cielo>> y <<aparecerá el cometa Halley el año 1986>>)
el primero no es falsable y el segundo sí; en esa medida, sólo el segundo es un enunciado
científico. Popper propone la falsabilidad como criterio de demarcación basado en una asimetría
lógica entre la verificabilidad y la falsabilidad. Un enunciado universal nunca es deductible a
partir de los enunciados singulares, por muchos que éstos sean; pero, en cambio, un enunciado
singular sí puede contradecir un enunciado universal, y por lo tanto refutarlo.
La relación metodológica adecuada entre teoría y experiencia es pues la tentativa de falsación.
Un enunciado universal del tipo <<todos los hombres son mortales>> no puede nunca ser
comprobado experimentalmente, por muchos que fuesen los casos singulares en los que, en
efecto, se certificase que también este individuo singular había muerto. En cambio, es muy fácil
refutar dicho enunciado por la vía de la experiencia. Bastaría mostrar (incluso
observacionalmente) que un determinado hombre no ha muerto -por ejemplo, tras varios siglos
de existencia- para que el enunciado universal quedase, si no plenamente refutado, sí puesto
seriamente en cuestión. Proposiciones universales que se refieren a la experiencia pueden ser
falsados con sólo un contraejemplo fáctico que se encuentre. La facilidad para la falsación
empírica caracteriza el saber científico, y por lo mismo cabe distinguir grados de contrastabilidad
en unas u otras teorías. La regla lógica fundamental en las ciencias empíricas pasa a ser el modus
tollens, cuya forma de expresión es la siguiente:

[(p  q) ¬ q]  ¬ p

Para demostrar que una proposición p es falsa, basta demostrar deductivamente su


contradictoria, ¬p. y, a su vez, para ello puede seguirse la vía indirecta (paralela desde el punto
de vista deductivo a la clásica reductio ad absurdum) de examinar alguna de las consecuencias,
q, que se derivan de la proposición p. Si conseguimos demostrar:

por un lado p  q
y por otro ¬q
podemos concluir ¬p

con lo cual hemos logrado nuestro objetivo de refutar p: la hipótesis p ha de ser eliminada
porque si la admitimos, dado que de ella se deduce q y q es falsa (por ejemplo, porque
comprobamos empíricamente que no ocurre q) llegamos a un absurdo; luego hemos de aceptar
la falsedad de p, en virtud de que de lo verdadero nunca se deduce lo falso.
Vemos pues que Popper conjuga su tesis de la estructura deductiva de las ciencias empíricas con
la contrastación teoría/empiria en base a esta regla deductiva que es el modus tollendo tollens,
y que sería de continua aplicación en el razonamiento experimental. Por el contrario, la
verificación y el modus ponens no tienen aplicación en las ciencias experimentales en el caso de
los enunciados universales. La asimetría entre enunciados universales y singulares, desde el
punto de vista de las propiedades lógicas del condicional, es la tesis que sustenta el criterio
popperiano de falsabilidad.
Popper no exige una falsación ya efectuada para atribuir carácter científico a una proposición,
sino la falsabilidad en principio. Una teoría auténticamente científica es la que no sólo se limita
a presentar sus hipótesis y sus consecuencias, sino que además delimita los distintos modos en
los que dichas consecuencias podrían ser refutadas experimentalmente. La metafísica clásica no
se ha preocupado nunca de este aspecto, limitándose a enunciar y a argumentar sus tesis, pero
sin sugerir los medios concretos mediante los cuales dichas teorías podrían ser contrastadas con
la experiencia. En cambio, la ciencia sí lo ha hecho, en mayor o menor medida, y por eso la
falsabilidad es un criterio adecuado de demarcación.

Grados de corroboración de una teoría

El talante del científico ha de ser crítico: su actitud epistémica debe ser la tentativa de refutar
las conjeturas que van siendo presentadas para explicar los fenómenos empíricos. Si de una
teoría se deriva un conjunto de consecuencias y, a su vez, somos capaces de formular una serie
de enunciados contradictorios con dichas consecuencias, poseemos una serie de falsadores
potenciales de dicha teoría. Para que dicha teoría sea falsable ha de prohibir, como mínimo, un
acontecimiento empírico. Dicho acontecimiento puede ser descrito por medio de términos
mediante diversos enunciados básicos singulares, que Popper llama homotípicos para subrayar
que se refieren a un mismo evento empírico. Dichos enunciados son posibles falsadores de la
teoría y el científico experimental ha de ingeniarse para elaborar experimentos que permitan
dilucidar la verdad o la falsedad de dichos falsadores. Podríamos decir que si la clase de los
posibles falsadores de una teoría es <<mayor>> que la correspondiente de otra, la primera teoría
tendrá más ocasiones de ser refutada por la experiencia; por tanto, comparada con la segunda
teoría podrá decirse que aquélla es <<falsable en mayor grado>>. Lo cual significa asimismo que
la primera teoría dice más acerca del mundo de la experiencia que la segunda, ya que excluye
una clase mayor de enunciados básicos.
Este pasaje de Lógica de la investigación científica muestra la idea que subyace al
tratamiento que Popper propone de la noción positivista de contenido empírico de una
teoría. Es posible establecer gradaciones en el contenido empírico de las diversas teorías, y
por tanto introducir cierto «índice de cientificidad», pero por vía negativa en base a los
falsadores de cada teoría. Si, dada una teoría T, los enunciados básicos prohibidos por ella
van aumentando, en la medida en que cada vez hace más predicciones y sobre ámbitos de
fenómenos más amplios, dicha teoría será progresivamente más fácil de falsar. Para Popper,
el objetivo principal de la ciencia estriba en construir teorías de este tipo: fácilmente
falsables, y por consiguiente con mayor contenido empírico. Las mallas de las teorías
científicas, retomando la metáfora antes mencionada, han de ser cada vez más finas,
en el sentido de que su grado de falsabilidad es cada vez mayor. Formalizar la noción de
grado de falsabilidad de una teoría, sin embargo, presenta dificultades. En efecto, las clases
de los posibles falsadores son infinitas, y por tanto ese «aumento» de los enunciados básicos
incompatibles con una teoría ha de ser tratado cuidadosamente. En la Lógica de la
investigación científica, Popper propone hasta tres soluciones a esta dificultad; el número
cardinal de una clase, el concepto de dimensión y la relación de subclasificación. Finalmente
opta por esta última posibilidad, formulándola de la manera siguiente, para el caso más sencillo,
que es el de los enunciados científicos: se dice que un enunciado x es <<falsable en mayor
grado>> o <<más contrastable>> que el enunciado y cuando y solamente cuando la clase de los
posibles falsadores de x incluye a la clase de los posibles falsadores de y como una subclase
propia suya.
Así pues, la teoría de conjuntos, y en concreto la relación de inclusión, viene a ser el recurso
utilizado para definir la noción de grado de contrastación. A partir de ello, Popper introduce la
noción de probabilidad lógica, que es diferente de la probabilidad numérica. La probabilidad
lógica de un enunciado es complementaria con su grado de falsabilidad. Puesto que, basándonos
en la relación de subclasificación, podemos comparar el grado de falsabilidad de dos enunciados,
también podemos afirmar que uno es más probable lógicamente que el otro, cuando tiene un
menor grado de falsabilidad. Una teoría que no es falsable de ninguna manera, porque no
prohíbe ningún acontecimiento empírico, tiene un grado de falsabilidad igual a 0 y, por tanto,
su probabilidad lógica es 1; y viceversa, las teorías o los enunciados científicos más falsables son
los menos probables lógicamente. Lo cual no quiere decir que este último tipo de enunciados o
de teorías no sean científicos, sino todo lo contrario. Las teorías que tienen probabilidad lógica
1 no dan ninguna información sobre la empiria: las teorías empíricamente preferibles, en el
sentido de que son plenamente científicas, son aquellas cuyo contenido empírico es muy alto, y
por consiguiente su probabilidad lógica muy baja. El contenido empírico de una teoría equivale
a su grado de falsabilidad, al menos desde el punto de vista de la comparación relativa de unas
teorías con otras.
El grado en que una teoría ha resistido a las contrastaciones no tiene por qué satisfacer las reglas
del cálculo de probabilidades. Por eso Popper introdujo en Conjeturas y refutaciones la nueva
denominación de grado de corroboración, que tiene la ventaja de no poseer connotaciones
verificacionistas. Intuitivamente, una teoría posee mayor grado de corroboración cuando ha
resistido más críticas y contrastaciones más severas, y no cuando ha sido <<más verificada>>.
Para medir dicho grado hay que recurrir al contenido de la misma, y para ello a su improbabilidad
lógica: así, la teoría de Einstein implica más contrastaciones posibles que la de Newton, y por
tanto, posee mayor contenido y mayor poder explicativo. Al contrastar una teoría T, siempre
poseemos una información básica previa e, con respecto a la cual se produce la contrastación.
La actitud crítica o falsacionista tiende a maximizar dicha información, a diferencia de la actitud
verificacionista. Cuanto mayor sea la improbabilidad del falsador potencial, tanto mayor será el
apoyo que la teoría reciba, caso de que la teoría T resista dicha falsación, ya que su contenido
empírico habrá aumentado considerablemente. Por el contrario, si se produce una constatación
de algo plausible y probable el contenido empírico de la teoría no aumenta. Para Popper sólo
han de contar las contrastaciones severas, es decir las más improbables con respecto a la
información que poseemos. La predicción de Adams y de Leverrier, que llevó al descubrimiento
del planeta Neptuno, era sumamente improbable; precisamente por ello supuso un fuerte
apoyo a la teoría de Newton, que era la única que permitía la predicción de un hecho tan
improbable estadísticamente.
Mediante esas contrastaciones severas, los científicos llevan a cabo un proceso racional de
aproximación a la verdad, aumentando de forma progresiva el contenido empírico de las teorías.
Para ello seleccionan una serie de problemas, proponen conjeturas para solucionarlos, someten
dichas conjeturas a contrastaciones severas y aumentan así el grado de corroboración de las
teorías. Lo cual no obsta para que cualquier teoría, por alto que sea su grado de contrastación y
de corroboración, siempre pueda ser refutada: el modus tollens pasa a ser un órgano de la crítica
racional, y no del razonamiento categórico.
Con respecto al progreso científico, Popper mantiene tesis evolucionistas, llegando a defender
incluso un cierto esquema neodarwinista, según el cual son las mejores teorías las que van
siendo seleccionadas a lo largo de la historia de la ciencia por medio de esta metodología
falsacionista. Los experimentos cruciales desempeñan un papel fundamental al respecto.

La tesis del tercer mundo

En su obra Conocimiento objetivo, Popper propone la siguiente distinción: Sin tomar las
palabras “mundo” o “universo” muy en serio, podemos distinguir los siguientes tres mundos
o universos: primero, el mundo de los objetos físicos o de los estados físicos; segundo el
mundo de los estados de conciencia o de los estados mentales, o quizá de las disposiciones
conductuales para actuar; y tercero, el mundo de los contenidos objetivos del
pensamiento, especialmente del pensamiento científico y poético y de las obras de arte.
Las leyes y teorías científicas, en particular, pertenecerían a este tercer mundo, que el
propio Popper pone en relación con la teoría platónica de las ideas y con la teoría hegeliana
del espíritu objetivo, si bien para diferenciarse netamente de ambos filósofos. Al afirmar la
existencia objetiva de este tercer mundo, Popper se va a manifestar contrario a toda forma
de convencionalismo, así como a las concepciones que consideran los conceptos, las leyes
y las teorías científicas como entidades lingüísticas, como estados mentales subjetivos o
como disposiciones para la acción.
La metodología de la ciencia adquiere con ello una vertiente ontológica: ¿qué tipo de
entidad poseen las construcciones creadas por los científicos a lo largo de la historia, y
sobre las cuales reflexionan en este siglo los metodólogos y los filósofos de la ciencia?
La tesis popperiana del tercer mundo tiene al menos el mérito de haber abierto esta
discusión, devolviendo a la teoría de la ciencia toda su envergadura conceptual, que había
salido bastante mal parada tras las simplificaciones neopositivistas.
El punto de partida de la tesis popperiana es la distinción entre teoría del conocimiento y
epistemología. Para Popper, la teoría del conocimiento tradicional, y concretamente la
tradición empirista de Locke, Berkeley, Hume y Russell, ha centrado su análisis en el
conocimiento subjetivo, ligado al individuo. La epistemología, por el contrario, debe
ocuparse del conocimiento científico, que él concibe sin sujeto. La tesis del tercer mundo,
y por consiguiente de la existencia objetiva de las teorías científicas, va ligada a su propuesta
de una epistemología sin sujeto. En lugar de centrarse en las creencias del científico o
en la singularidad de sus invenciones, el epistemólogo debe investigar los problemas, las
conjeturas, los libros, las revistas científicas, etc. La ilustración popperiana de dicho
tercer mundo son las librerías y las bibliotecas, así como los laboratorios y los experimentos
científicos que tienen lugar en ellos. La epistemología subjetivista es irrelevante, y
además, así como una epistemología objetivista que estudie e investigue ese tercer mundo
puede aportar muchísima luz al estudio del segundo, el de los estados mentales o de
conciencia, la influencia recíproca no es cierta. Aunque nosotros actuemos continuamente
sobre ese tercer mundo, modificándolo y corrigiéndolo, es sin embargo considerablemente
autónomo.
En apoyo de sus tesis Popper ofrece una argumentación biológica. No sólo hay que estudiar
las conductas o los actos de producción de los seres animales, incluidos los hombres, sino
que debemos investigar también las estructuras conforme a las cuales dichas acciones tienen
lugar, incluidas las estructuras materiales del cuerpo animal. Y, lo que es más, debemos
estudiar el efecto de retroacción que las propiedades de las estructuras producen sobre la
conducta de los animales. Lo que está en cuestión, por consiguiente, es la existencia
independiente y objetiva de las estructuras mismas, por ejemplo neuronales o genéticas,
que serían los objetos por excelencia de ese tercer mundo. Por supuesto, también en
las acciones humanas, incluidas las obras de arte, cabe discernir ese tipo de entidades. Pero
el tercer mundo no sólo surge de las acciones humanas. Un libro de logaritmos, dice Popper,
puede haber sido escrito por un ordenador, y sin embargo expresa determinadas estructuras
pertinentes en ese tercer mundo. En el caso de las matemáticas, es claro que Popper se
aproxima a lo que tradicionalmente se ha llamado platonismo, por lo que se refiere a
la existencia de los objetos matemáticos.
Miguel Ángel Quintanilla comentando estos pasajes de la obra de Popper, afirma: La teoría
del tercer mundo no sólo supone una concepción formalista cuyo complemento habría de
ser una ideología individualista, sino que el formalismo se presenta aquí como una
auténtica metafísica idealista de estilo platónico.
Pero las teorías popperianas sobre la ciencia también han sido adscritas, siguiendo en esto
las afirmaciones del propio Popper, a una concepción realista.

El realismo crítico

Popper siempre se ha manifestado en contra de la teoría subjetivista del conocimiento, cuya


versión más radical era la solipsista de Carnap. Mas la objetividad de la ciencia no ha de estar
fundamentada en un lenguaje fisicalista, o en una base empírica observacional. La ciencia
es producto de acciones humanas, y como tal un objeto social: Podemos considerar el
conocimiento objetivo -la ciencia- como una institución social, o un conjunto o estructura
de instituciones sociales.
Aunque el conocimiento y la investigación propia de los individuos tenga sin duda su
importancia, lo cierto es que la ciencia surge a partir de la cooperación y de la competición
institucionalizada de los científicos. El tercer mundo sería el ámbito ontológico en donde
se depositan las objetivaciones de la investigación científica, y muy en particular aquellas
que han tenido una repercusión efectiva sobre la sociedad de la que surgieron. El mismo
aprendizaje del conocimiento científico ha de ser visto desde esta perspectiva: no como una
repetición de experiencias, que inductivamente proporcionarían a cada sujeto individual los
enunciados y las leyes científicas generales, sino como un proceso de prueba y error que
cada científico asimila en algunos ejemplos característicos, a partir de los cuales asume o no
las teorías vigentes socialmente en su tiempo. Popper es, pues, un realista, pero sin que
ello conlleve una reducción fisicalista de toda objetividad científica. Su oposición al empirismo
de Bacon, Hume, Mill y Russell no radica en la confrontación de éstos con el idealismo, punto
en el que Popper también coincide, sino en la epistemología subjetivista que, unida al
empirismo, les llevaba a afirmar que «todo conocimiento se deriva de la experiencia de los
sentidos». Por el contrario, para Popper el problema epistemológico básico no es el del
origen de las ideas, sino el de la verdad de las teorías. Y para estudiarlo hay que partir de
teorías ya constituidas, producidas por momentos anteriores en el desarrollo social, que a
continuación son contrastadas con la experiencia. Ésta desempeña una función negativa y
crítica; nunca engendra las teorías. Las observaciones siempre presuponen un conocimiento
disposicional previo, que no sólo proviene de la estructura de nuestros órganos sensoriales,
sino también del contexto teórico y de las informaciones básicas a partir de las cuales se
despliega la investigación científica. La ciencia es sistemática porque siempre procede
conforme a conjeturas y a problemas previamente enunciados, que para el sujeto individual
son innatos y objetivos, porque como tales le vienen dados en su proceso de aprendizaje.
Se aprende también de la experiencia, pero sobre todo cuando ésta es usada críticamente,
como contrastación de las hipótesis y de las teorías vigentes.
Surge así, lo que Popper llama el realismo crítico. Frente al racionalismo clásico, desde
Platón hasta Leibniz, pasando por Descartes, que caracterizaba a la ciencia por la posesión
de un método que podía conducirnos al descubrimiento de la verdad, Popper afirma
tajantemente:

1) No existe método para descubrir una teoría científica.

2) No existe método para cerciorarse de la verdad de una hipótesis científica, es decir, no


existe método de verificación.

3) No existe método para averiguar si una hipótesis es «probable» o probablemente


verdadera.

Sin embargo, ello no le impide definirse como un racionalista. Lo que ocurre es que, para él,
la función de la razón es crítica y negativa. Las teorías científicas se distinguen de los
mitos únicamente porque pueden criticarse, e incluso porque buena parte de los
científicos se dedican a esa labor crítica recurriendo para ello a la experiencia, pero
también a los esquemas lógicos de pensamiento que, como el modus tollens, posibilitan el
ejercicio de ese tipo de razón. La epistemología no ha de ser justificacionista en el sentido
tradicional del término. Nuestras creencias y nuestras teorías sobre la realidad no se pueden
justificar positivamente, porque de una u otra forma sean verdaderas. Pero sí cabe dar
razones de por qué preferimos una teoría a otras: porque constituye una aproximación
más cercana a la verdad; e incluso porque podemos tener razones para conjeturar que
sea verdadera, aunque sólo sea para poder investigarla más a fondo, procediendo a su
falsación eventual. Nuestras preferencias científicas sólo se justifican críticamente, y en
relación al estado actual de la cuestión. En el fondo, no se trata ni siquiera de justificar las
teorías racionalmente, sino de elaborar una epistemología que permita definir el concepto
de preferencia racional entre teorías y entre hipótesis: El problema epistemológico de Hume
-el problema de dar razones positivas, o el problema de la justificación- puede ser
reemplazado por el problema totalmente distinto de explicar -dar razones críticas- por
qué preferimos una teoría a otra (o a todas las demás que conocemos) y finalmente
por el problema de la discusión critica de las hipótesis para descubrir cuál de ellas es,
comparativamente, la que hay que preferir.
La verdad continúa siendo el objetivo de la ciencia, pero por la vía negativa: buscamos
razones para rechazar lo que hasta ahora había sido considerado verdadero y sólo
aceptamos las teorías que, pese a las más severas contrastaciones, todavía no han sido
falsadas. Sólo se aprende y se incrementa el conocimiento por medio de la crítica racional.
Esta metodología o epistemología popperiana se completa con una posición ontológica
realista: pero su afirmación del realismo metafísico resulta mucho más prudente y
matizada que sus tesis epistemológicas. Para Popper, hay razones a favor del realismo
metafísico, pero también razones en contra. A su juicio priman las primeras, y por eso
se ha considerado durante toda su vida un realista; pero ello no equivale a decir que
sus tesis ontológicas sean afirmadas con la misma radicalidad y claridad que sus tesis
epistemológicas.
Para Popper, la teoría de que todo el mundo es un sueño mío (solipsismo extremo) o
la teoría hegeliana de que todo el mundo es un despliegue de la idea son irrefutables; y
por eso mismo han de ser rechazadas. «La irrefutabilidad no es una virtud, sino un vicio»,
afirma explícitamente. El realismo popperiano parte en cambio del hecho de que, desde
un principio, nos movemos en el terreno de la intersubjetividad, lo cual es totalmente
contrario al solipsismo y al subjetivismo científicos. Podría entonces pensarse que las teorías
científicas, al ser productos sociales, son simples convenciones o instrumentos útiles.
Pero Popper también va a someter al instrumentalismo a una aguda critica. Él acepta,
desde luego, que las teorías científicas son instrumentos útiles, pero no sólo eso:
además son conjeturas sobre la realidad. La ciencia tiene un objetivo, que es la explicación.
Se trata de buscar explicaciones satisfactorias de los explicanda, y para ello el explanans
debe de cumplir una serie de condiciones: En primer lugar, debe entrañar lógicamente
al explicandum. En segundo lugar, el explicans tiene que ser verdadero, aunque, en
general, no se sabrá que es verdadero; en cualquier caso no debe saberse que es falso,
ni siquiera después del examen más crítico. Para que el explicans no sea ad hoc tiene que
ser más rico en contenido: debe de tener una variedad de consecuencias contrastables
que sean diferentes del explicandum.
La concepción popperiana de la explicación científica se inscribe en la tradición de la
concepción heredada: una explicación es satisfactoria cuando se formula en términos de
leyes universales y condiciones iniciales contrastables y falsables. Cuanto mayor sea el
grado de corroboración de las leyes y de las hipótesis, tanto más satisfactoria resulta la
explicación. Ello nos lleva a buscar teorías cuyo contenido sea cada vez más rico. Y
aunque no existan, según Popper, explicaciones últimas, que son propias de concepciones
esencialistas contra las cuales también está Popper, si cabe defender un esencialismo
modificado, basado en afirmar que toda explicación tendrá tarde o temprano una
explicación mejor y más universal, en rechazar las preguntas del tipo «¿qué es?», y en
dejar de caracterizar a cada individuo por el conjunto de sus notas o propiedades
esenciales. La postura de Popper es más próxima en esto a la de Platón: las leyes de la
naturaleza serían descripciones conjeturales de las propiedades estructurales ocultas en la
naturaleza, y que se trata de descubrir. Las leyes o teorías deben ser, por lo mismo,
universales; deben formular aserciones sobre todas las regiones espaciotemporales del
mundo; y deben versar sobre propiedades estructurales relacionales del mundo.
Popper es consciente de que esta postura realista también está sujeta a crítica, y él mismo
proporciona argumentos en contra de la misma. Pero cabría decir que es la preferible entre
las diversas metateorías existentes en torno al conocimiento científico (subjetivismo,
empirismo, positivismo, idealismo, esencialismo, instrumentalismo, etc.).
La verosimilitud

Preferimos una teoría a otra, en última instancia, porque es más verosímil: porque se
aproxima más a la verdad, aunque nunca vayamos a poder demostrar de ninguna teoría que
es verdadera. El aumento del contenido empírico de las teorías, y el hecho de que las nuevas
teorías hayan de poder explicar también lo que las precedentes explicaban, llevan a Popper a
concebir el progreso científico como una paulatina aproximación a la verdad: Podemos
explicar el método científico y buena parte de la historia de la ciencia como el proceso racional
de aproximación a la verdad.
Según Popper, la verosimilitud de una proposición depende de la cantidad de verdades y de
falsedades que dicha proposición implica. Y otro tanto cabe decir respecto de las teorías. De
ahí que tanto en Conjeturas y refutaciones como en Conocimiento objetivo proponga la
siguiente caracterización de la mayor o menor verosimilitud entre dos teorías: Intuitivamente
hablando, una teoría T1 tiene mayor verosimilitud que otra teoría T2 si y sólo si:

1) Sus contenidos de verdad o falsedad (o sus medidas) son comparables; y además


2) O bien el contenido de verdad, pero no el de falsedad, de T1 es mayor que el de T2;
o bien
3) El contenido de verdad de T1 no es mayor que el de T2, pero sí su contenido de
falsedad.

Las propuestas popperianas han dado origen a lo que se llama el problema lógico de la
verosimilitud, que ha pasado a ser uno de los más importantes en la filosofía de la ciencia de
los últimos años. Ello implica ya un cambio considerable con respecto al verificacionismo del
Círculo de Viena y de la concepción heredada. Laudan, defensor del concepto de programa de
investigación, que centra el progreso científico en la resolución de problemas, y no en la
paulatina aproximación a la verdad, había indicado en 1979 que <<nadie ha sido capaz de decir
ni siquiera qué debe entenderse por “más cerca de la verdad”, por no hablar de ofrecer criterios
para determinar cómo se podría medir esa proximidad>>. Las concepciones realistas de Popper,
así como su interés por la noción de verosimilitud en tanto que característica epistemológica
de las teorías científicas, y del progreso como búsqueda de la verdad, han seguido suscitando
investigaciones y estudios. El problema de la verosimilitud, está concebido y ha sido tratado en
términos de la previa reducción de las teorías a sistemas formales; y, toma como términos de
comparación a teorías conmensurables entre sí.

Paradigmas y revoluciones científicas

Kuhn ha introducido en la teoría de la ciencia diversos conceptos que son de común aplicación
hoy en día: paradigmas, ciencia normal, anomalías, crisis, revoluciones científicas, comunidades
científicas, etc., y sobre todo ha subrayado la enorme importancia de los estudios minuciosos
sobre historia de la ciencia como algo previo y necesario para la elaboración de una concepción
filosófica de la ciencia. Su reproche fundamental a Popper estribará en la visión continuista y
acumulativa del progreso científico que éste defendió; por el contrario, para Kuhn la ciencia
avanza a base de crisis y rupturas, que implican cambios radicales en la concepción del mundo,
y a las cuales llamará revoluciones científicas. La tesis de la inconmensurabilidad de los
paradigmas, posteriormente radicalizada por su discípulo Feyerabend, ha dado lugar a una
importante discusión.

Los paradigmas científicos

El término “paradigma” ha sido utilizado por los gramáticos para designar los diversos
tipos de declinación de una palabra o de conjugación de un verbo: dentro de un núcleo
común, que es la raíz existen en las lenguas diversas variantes que caracterizan un
paradigma (por ejemplo, la primera declinación o conjugación del latín), y que se distinguen
entre sí por los respectivos sufijos o flexiones.
Dicho concepto fue utilizado en teoría de la ciencia por primera vez por Ch. Lichtenberg
(1742-1799) y en nuestro siglo por Wittgenstein. Kuhn lo presenta en La estructura de las
revoluciones científicas como «un modelo o patrón aceptado» por los científicos de una
determinada época, que normalmente ha llegado a ser vigente tras imponerse a otros
paradigmas rivales. Una determinada rama del saber pasa a ser una disciplina científica
precisamente cuando surge y triunfa un paradigma. Ejemplos de paradigmas científicos serian
el análisis aristotélico del movimiento de los cuerpos, el cálculo ptolemaico de las
posiciones planetarias, la revolución copernicana, la mecánica de Newton, la teoría química
de Lavoisier, la matematización maxwelliana del electromagnetismo, la teoría einsteiniana
de la relatividad, y muchos otros, acaso menos famosos, pero cuya delimitación en la historia
de la ciencia sería el objetivo principal, a fin de evitar estudios históricos basados
exclusivamente en la acumulación de datos, hechos y descubrimientos. Los libros de texto
utilizados para la formación de los nuevos científicos suelen constituir expresiones más
o menos adecuadas de dichos paradigmas, sobre todo en los dos últimos siglos. En la
etapa de sus estudios los científicos se han familiarizado con determinados lenguajes y
técnicas cuya eficacia para resolver determinados problemas ha marcado profundamente
su modo de considerar los fenómenos, adscribiéndoles al paradigma vigente en la
comunidad científica de su época. Las tesis doctorales, con la profunda impronta que
dejan en la formación de los investigadores, así como los primeros trabajos de
experimentación, han tenido lugar en ese mismo ámbito teórico. Todo ello origina una
serie de creencias y hábitos intelectuales comunes a numerosos científicos, que por ello
mismo forman una comunidad. Puede haber, por supuesto, paradigmas y comunidades
rivales, con las correspondientes pugnas por el poder académico y científico. La
ciencia vigente en un momento dado implica la constitución y el afianzamiento de uno de
esos paradigmas.
La noción kuhniana de paradigma, tal y como es formulada en 1962, fue considerada como
sugerente, pero también criticada por su vaguedad. Se han llegado a distinguir hasta 21
sentidos diferentes en la utilización kuhniana del término, agrupables en tres grandes
grupos:

1) Aspecto filosófico (o metafísico) del paradigma, que daría la imagen del mundo y
los elementos básicos de creencia de los científicos sobre lo que sea la realidad:
sería el caso del atomismo, del mecanicismo, de la matematización de la realidad, del
fenomenalismo, etc.
2) Aspecto sociológico del paradigma, ligado a la estructura y a las relaciones internas
y externas de la comunidad de científicos que detentan un mismo paradigma:
un paradigma conlleva un aspecto institucional, tanto nacional como
internacionalmente (sociedades científicas, apoyo a determinadas líneas de
investigación, publicaciones periódicas, manuales utilizados en la docencia
universitaria, congresos, academias, etc.) que permite discernirlo con respecto a
otros paradigmas rivales.
3) Aspecto propiamente científico del paradigma, ligado a los problemas ya resueltos
y a los principales ejemplos que son explicadas gracias a la utilización del
paradigma. Se califica este tercer aspecto como paradigmas construidos.

La noción kuhniana de paradigma fue criticada también por su sociologismo, implícito en 1962
y claramente afirmado a partir de los Segundos pensamientos de 1969-1970, cuando Kuhn
responde a sus opositores precisando dicha noción: Un paradigma es aquello que los
miembros de una comunidad científica, y sólo ellos, comparten; y a la inversa, es la posesión
de un paradigma común lo que constituye a un grupo de personas en una comunidad
científica, grupo que de otro modo estaría formado por miembros inconexos.
Según Kuhn, la sociología de la ciencia habría desarrollado métodos empíricos para
identificar estas comunidades, y consiguientemente los paradigmas existentes en un
momento histórico dado: los científicos adscritos a un mismo paradigma están ligados por
elementos comunes durante su período de aprendizaje, se sienten responsables del logro
de determinados objetivos en la investigación, colaboran en equipos, se comunican entre
sí, han leído básicamente la misma literatura, reciben y escriben en las mismas revistas,
asisten a determinados congresos, pertenecen a las mismas sociedades, se envían para
consulta mutua previamente sus prepublicaciones, se citan los unos a los otros, etc. La
polivocidad de la noción de paradigma puede ser corregida mediante esta delimitación precisa
de las comunidades científicas a partir del momento en que paradigma y comunidad
científica vienen a ser nociones que se definen mutuamente. Muchos filósofos de la
ciencia, sin embargo, no están de acuerdo con esta reducción sociológica de un concepto
que, en la filosofía kuhniana de la ciencia, seguiría siendo fundamental.

Ciencia normal y revoluciones científicas

En la etapa precientífica, los hechos son recopilados de manera bastante fortuita, precisamente
por carecer de un criterio que permita seleccionarlos. La observación y la experimentación
casual, así como los datos provenientes de la artesanía, constituyen esa primera amalgama a la
que todavía no se le puede llamar ciencia. En ellas se yuxtaponen hechos que luego serán
relevantes junto con algunos sin importancia, así como otros demasiado complejos para
poder integrarlos en una teoría en esa etapa histórica. En esas recopilaciones se omiten,
por supuesto, numerosos datos que posteriormente serán considerados como importantes.
Con respecto a esos hechos van surgiendo interpretaciones diferentes, provenientes sea
de la metafísica, de la religión o de otras ciencias. Lo sorprendente será la desaparición
de todo ese cúmulo de creencias dispersas, precisamente en el momento de la constitución
de un paradigma. Éste surge normalmente por el triunfo de una de las escuelas
anteriores, la cual se centra en el estudio de una parte pequeña de los datos recopilados:
Kuhn pone como ejemplo a los creadores de la teoría de la electricidad. Pero lo importante es
que, tras la constitución de un paradigma, la investigación cambia radicalmente: sólo algunos
experimentos y fenómenos son interesantes, pero éstos han de ser investigados
sistemáticamente, y no al azar. La investigación comienza a ser dirigida, y paralelamente a
ello los demás investigadores comienzan a interesarse progresivamente por dicha escuela,
hasta el punto de que las demás decaen, «El nuevo paradigma -dice Kuhn- supone una
definición nueva y más rígida del campo». Éste se desglosa de otros ámbitos de conocimiento,
con los que pudo estar antes en contacto directo, y tiende a constituirse como disciplina
especial y diferenciada. Surgen revistas, sociedades, cátedras y departamentos universitarios
que cultivan esa nueva área de especialización. El paradigma se asienta progresivamente,
comienza a obtener resultados que retroalimentan la investigación y acaba convirtiéndose en
ciencia vigente.
La etapa precientífica y la constitución de un paradigma dan origen a lo que Kuhn llama una
etapa de ciencia normal. Al distinguir esta fase histórica Kuhn encontrará argumentos poderosos
contra la metodología falsacionista de Popper, que incluso han sido aceptados parcialmente por
éste. En efecto, durante la etapa de ciencia normal el científico no es crítico ni intenta refutar
las teorías científicas vigentes. Kuhn define la etapa de ciencia normal de la manera siguiente:
Ciencia normal significa investigación basada firmemente en una o más realizaciones científicas
pasadas, realizaciones que alguna comunidad científica particular reconoce, durante cierto
tiempo, como fundamento para su práctica posterior.
Dichas realizaciones son relatadas en los libros de texto ad usum, o si no en obras
clásicas como la Física de Aristóteles, los Elementos de Euclides, el Almagesto de Ptolomeo,
los Principia y la Óptica de Newton, la Electricidad de Franklin, el Tratado de química de
Lavoisier o la Geología de Lyell, cada una de las cuales dio origen a una auténtica disciplina
científica, normalmente por desglose respecto de un saber previo. Así explicitado el
paradigma, la investigación tomará esas obras o manuales como base para las indagaciones
ulteriores: se tratarán de resolver los problemas no solucionados todavía en esas obras
clásicas, se generalizarán dichos problemas, se trasladarán a nuevos campos no previstos
por los creadores del paradigma, etc. Las teorías contrapuestas al paradigma vigente quedarán
arrumbadas como simples curiosidades históricas, o bien como errores a evitar. Hay muchos
fenómenos y datos recopilados en la etapa precientífica que ni siquiera deben ser
investigados: Las operaciones de limpieza son las que ocupan a la mayoría de los científicos
durante todas sus carreras. Constituyen lo que aquí llamo ciencia normal. Examinada de cerca,
tanto históricamente como en el laboratorio contemporáneo, esa empresa parece ser un
intento de obligar a la naturaleza a que encaje dentro de los límites preestablecidos y
relativamente inflexibles que proporciona el paradigma.
Durante esta fase los científicos no buscan nuevas teorías, y ni siquiera nuevos fenómenos. La
ciencia normal investiga zonas muy pequeñas, pero con gran minuciosidad. La tarea principal
estriba en articular y organizar cada vez mejor, en forma de teoría, los resultados que se
han ido obteniendo. La comunidad científica correspondiente selecciona los hechos que le
interesan, que Kuhn clasifica en tres grupos: los que el paradigma ya ha mostrado que son
particularmente reveladores, las predicciones derivadas del paradigma que todavía no han
sido ratificadas empíricamente y, por último, los experimentos que permiten articular mejor
el paradigma e ir resolviendo sus dificultades residuales. La determinación precisa de
constantes físicas (como la de la gravitación universal) es uno de los ejemplos más
característicos de este tercer tipo de investigaciones empíricas en la fase de ciencia normal,
que para Kuhn es el más importante de los tres y el que permite justificar la idea de progreso
científico ligado al paradigma: enunciar leyes cuantitativas que precisen matemáticamente
las leyes básicas puede ser otro ejemplo.
Asimismo la ciencia normal consagra una buena parte de sus esfuerzos a la resolución de
puzzles, es decir, problemas que podrían tener solución en principio, conforme a los
criterios de cuestiones plausibles que siempre establece un paradigma. Estos enigmas o
puzzles pueden no ser importantes. Las etapas de ciencia normal se caracterizan precisamente
porque en ellas se puede dedicar muchísimo tiempo y esfuerzo a la tentativa de solucionar
problemas de escasa relevancia, pero con mucho sentido dentro del paradigma.
En cualquier caso, en toda etapa de ciencia normal existen numerosas anomalías, es decir
hechos que de ninguna manera son explicables en el marco conceptual del paradigma y que
incluso lo contradicen. Los ejemplos históricos que proporciona Kuhn al respecto son
muchos: El estado de la astronomía de Ptolomeo era un escándalo, antes de la propuesta de
Copérnico. La nueva teoría de Newton sobre la luz y el color tuvo su origen en el descubrimiento
de que ninguna de las teorías existentes antes del paradigma explicaban la longitud del espectro,
y la teoría de las ondas, que reemplazó a la de Newton, surgió del interés cada vez mayor por
las anomalías en la relación de los efectos de difracción y polarización con la teoría de Newton.
La existencia de anomalías puede ser conocida durante mucho tiempo sin que por ello el
paradigma vigente se venga abajo. En ese sentido, Kuhn no puede estar de acuerdo con
el falsacionismo popperiano, a la vista de los múltiples ejemplos en los que se muestra
que hechos contradictorios con una determinada teoría no conllevan su refutación ni su
falsación efectiva. Pero conforme dichas anomalías se van revelando cada vez más
insalvables, y conforme se multiplican en número y en diversidad de ámbitos donde se
producen, el paradigma va entrando en crisis. Se inaugura con ello una nueva etapa en el
desarrollo histórico de un paradigma, que acabará dando lugar a una revolución científica
que hará triunfar un nuevo paradigma. ¿Cómo se producen estos procesos de cambio
científico, según Kuhn? Nunca es una simple anomalía la que derriba un paradigma vigente.
Confrontados a una dificultad irreductible, los científicos «inventarán numerosas
articulaciones y modificaciones ad hoc de su teoría para eliminar cualquier conflicto
aparente». Las leyes básicas de la teoría que caracteriza a un paradigma suelen convertirse,
para sus defensores, en una especie de tautologías, no refutables por muchas observaciones
que se hagan. El paradigma no podrá ser rechazado -afirma Kuhn- mientras no surja otro
rival de él. Una vez que un ámbito de saber ha comenzado a funcionar científicamente,
mediante paradigmas, ya no puede dejar de hacerlo. De ahí que los científicos en las épocas
de crisis de un paradigma comiencen a hacer surgir nuevas hipótesis y nuevas teorías,
entrándose con ello en la etapa llamada de proliferación de teorías. El paradigma en crisis
engendra en su decadencia una multiplicidad de salidas posibles contrarias a algunos de sus
postulados fundamentales: La transición de un paradigma en crisis a otro nuevo del que
pueda surgir una nueva tradición de ciencia normal está lejos de ser un procedimiento de
acumulación, al que se llegue por medio de una articulación o una ampliación del antiguo
paradigma. Es más bien una reconstrucción del campo a partir de nuevos fundamentos,
reconstrucción que cambia algunas de las generalizaciones teóricas más elementales del
campo, así como también muchos de los métodos y aplicaciones del paradigma.
La sustitución de un paradigma implica una revolución científica. Y lo que es clave en relación
a la polémica Kuhn/Popper, el nuevo paradigma será incompatible en algunos aspectos
fundamentales con el anterior. Las revoluciones científicas se inician con un sentimiento
creciente, a menudo restringido a una estrecha subdivisión de la comunidad científica, de
que un paradigma existente ha dejado de funcionar adecuadamente en la exploración de
un aspecto de la naturaleza.
Esto da lugar a la aparición de nuevas sociedades y publicaciones científicas, que entran en
pugna institucional con los defensores del paradigma tradicional. El paralelismo con las
revoluciones políticas es explícito en Kuhn, y por eso concibe los procesos de cambio
científico como auténticas revoluciones en la disciplina correspondiente. Conforme, de entre
las muchas teorías opositoras al paradigma anterior, se va decantando una que aglutina
esa oposición y logra mejores resultados experimentales o institucionales en la lucha contra
la ciencia vigente, el nuevo paradigma se va implantando progresivamente: los libros de texto
anteriores son reemplazados por otros nuevos, los viejos instrumentos de laboratorio caen
en desuso. La historia de la ciencia va recogiendo todos esos documentos resultantes de la
pugna entre comunidades científicas por imponer un nuevo paradigma o derribar el
anterior.
Esta concepción kuhniana de la historia de la ciencia resulta ser cíclica. En efecto, el
paradigma emergente reproduce en forma diferente el ciclo del anterior, entrándose al
poco tiempo de la revolución científica en una nueva etapa de ciencia normal, con las
mismas características generales antes vistas, si bien esta vez nucleada en torno a un
nuevo paradigma.

Inconmensurabilidad entre paradigmas

Hemos visto que Kuhn criticaba no sólo la concepción acumulativa del progreso científico,
proponiendo una nueva visión discontinuista de la historia de la ciencia, sino también el
falsacionismo popperiano. Una teoría científica nunca es refutada ni dejada de lado
exclusivamente por haber sido falsada empíricamente: Una teoría científica se declara
inválida sólo cuando se dispone de un candidato alternativo para que ocupe su lugar. La
decisión de rechazar un paradigma es siempre, simultáneamente, la decisión de aceptar
otro, y el juicio que conduce a esta decisión involucra la comparación de ambos paradigmas
con la naturaleza y la comparación entre ellos.
El estudio de las revoluciones científicas implica, por consiguiente, no sólo centrarse en
las anomalías que van surgiendo respecto del paradigma anterior, sino también en la
emergencia del nuevo paradigma, en su relación con los datos empíricos, y sobre todo en
su relación con el otro paradigma. En este punto Kuhn va a introducir una de las tesis que
mayor debate ha suscitado de entre todas las propuestas por él en La estructura de las
revoluciones científicas: la inconmensurabilidad entre los paradigmas rivales. Kuhn va a
analizar el proceso de revolución científica por analogía con los cambios de visión. Según
señala K. Bayertz, en Kuhn cabe distinguir tres tipos de diferencias entre un paradigma y su
rival:

1) Diferentes problemas por resolver e, incluso, diferentes concepciones y definiciones


de la ciencia de la que se ocupan.
2) Diferencias conceptuales entre ambos paradigmas, ligadas al diferente lenguaje
teórico y a la distinta interpretación ontológica de los datos analizados.

3) Diferente visión del mundo, en el sentido de que dos defensores de distintos


paradigmas no perciben lo mismo.

La importancia de estas tesis para la metodología científica es indudable, pues atacan el


principal dogma del positivismo: la existencia de una base empírica (observacional,
sensorial) común a todos los científicos. Kuhn, por el contrario, compara una revolución
científica con un cambio en la visión del mundo. Los científicos que defienden el viejo y el
nuevo paradigma poseen concepciones diferentes de lo que es la disciplina científica de
la que se ocupan (o cuando menos de los problemas que debe afrontar), utilizan
conceptos teóricos distintos, hasta el punto de que aunque los términos usados fuesen los
mismos (por ejemplo, el término «masa» para un newtoniano y para un einsteiniano), ha
habido un cambio de significado al insertarse dicho término en uno u otro paradigma;
y, por último, y lo que es más importante, las propias percepciones que se tienen del mundo son
distintas.
En apoyo de estas tesis Kuhn proporciona numerosos ejemplos extraídos de la historia de la
ciencia. El descubrimiento científico, por ejemplo en el caso del oxígeno por parte de
Lavoisier, no tiene lugar en el momento en que (con Priestley) dicho gas es liberado en
forma pura: Priestley aún percibía dicho gas como desflogistizado, y por tanto estaba
inmerso en el paradigma del flogisto. El propio Lavoisier tardó en poseer una percepción
de dicho gas conforme al nuevo paradigma. Kuhn concluye que un descubrimiento
científico no es acontecimiento de un día, sino que, al menos en los casos de revoluciones
científicas, puede ser muy bien reinterpretado como descubrimiento fundamental a
posteriori, en el momento en que el nuevo paradigma permite reinterpretar qué hechos son
importantes y significativos y cuáles no. Las diferencias entre paradigmas sucesivos son
necesarias e irreconciliables, afirma Kuhn, y pueden ser tanto sustanciales (u ontológicas: la
luz como corpúsculos o como ondas), como epistemológicas (concepciones respectivas de
la ciencia, heurística, metodología), como perceptuales. La aceptación de un nuevo
paradigma por parte de la comunidad científica frecuentemente modifica el concepto mismo
de la ciencia correspondiente, y lo que es más, cuando cambian los paradigmas, el mundo
mismo cambia con ellos, lo cual implica un cambio incluso en la percepción de los fenómenos:
durante las revoluciones, los científicos ven cosas nuevas y diferentes al mirar con instrumentos
conocidos y en lugares en los que ya habían buscado antes, por lo cual, en tiempos de revolución,
cuando la tradición científica normal cambia, la percepción que el científico tiene de su medio
ambiente debe ser reeducada; en algunas situaciones en las que se ha familiarizado debe
aprender a ver una forma (Gestalt) nueva.
Las teorías de Hanson sobre la percepción de los científicos, así como las investigaciones de
la psicología de la Gestalt, son repetidamente invocadas por Kuhn en apoyo de sus tesis
sobre las revoluciones científicas y la inconmensurabilidad de los paradigmas sucesivos.
Kuhn no cree en los datos sensoriales por su inmediatez para el conocimiento científico,
ni mucho menos en su capacidad para dilucidar, en tanto que base empírica estable, entre
dos paradigmas rivales. El problema principal de los procesos de cambio científico es el de la
incompatibilidad entre las respectivas concepciones, así como la inexistencia de una
experiencia neutra y objetiva que actuaría como juez de paz entre las teorías rivales, dando
la razón a quien más la tuviese. Todo ello ha dado lugar a que sobre Kuhn hayan caído
acusaciones de irracionalismo a la hora de explicar los procesos de cambio científico,
abriéndose con ello un amplio debate entre los filósofos de la ciencia poskuhnianos.
Dentro de dicha polémica Feyerabend, inicialmente discípulo de Kuhn, ha mantenido tesis
muy radicales. Aportando en apoyo de las misma un amplio material procedente de sus
estudios históricos, Feyerabend ha mantenido las tesis siguientes:

1) Existen sistemas de pensamiento (acción, percepción) que son inconmensurables.

2) El desarrollo de la percepción y del pensamiento en el individuo pasa por


etapas que son inconmensurables entre sí.

3) Existen teorías científicas que son mutuamente inconmensurables aunque en


apariencia se ocupen del «mismo objeto». No todas las teorías rivales tienen
esa propiedad y aquellas que tienen la propiedad sólo la tienen mientras sean
interpretadas de una forma especial, por ejemplo, sin hacer referencia a un
«lenguaje de observación independiente».

Entre dos teorías hay cambios ontológicos, cambios conceptuales y cambios perceptivos.
En particular, uno de los casos más sutiles es el del cambio de significado de un mismo
término teórico, cuestión ésta que ha dado lugar a amplios debates sobre la paradoja
del cambio de significado. No existe un lenguaje observacional estable y previamente
existente; cada paradigma, o cada teoría, selecciona qué hechos son relevantes y cuáles
ni siquiera son científicamente pertinentes. Puesto que las respectivas selecciones son
heterogéneas en el caso de paradigmas opuestos, la experiencia no puede servir para
resolver la contraposición entre teorías rivales. Con ello, Kuhn y sus discípulos asestaron
un duro golpe al empirismo lógico.

Filosofía de la ciencia e historia de la ciencia

La función metodológica de la historia de la ciencia queda perfectamente ilustrada en las


críticas que el propio Kuhn hace a Popper. Frente a concepciones sistemáticas o puramente
normativas de la ciencia, como por ejemplo el criterio de demarcación basado en la
falsabilidad, Kuhn propone que se hagan estudios empíricos previos para ver cómo se
ha producido el cambio científico a lo largo de la historia: basándose en ello afirmará que
el progreso científico no es acumulativo, así como que una teoría no es dejada de lado por
refutación empírica o por algún experimento crucial, sino únicamente cuando ha surgido
frente a ella un nuevo paradigma que está en condiciones de sustituirla como nueva
ciencia normal. En su polémica con Popper de 1965, Kuhn da por aceptadas por parte de
Popper varias de sus tesis en La estructura de las revoluciones científicas: hay revoluciones
científicas y la ciencia no progresa por acumulación, no hay observación científica sin teoría
que la impregne, las teorías científicas son explicativas y versan sobre objetos reales, etc.
La obra de Popper Conjeturas y refutaciones, matizaba en efecto algunas de las posiciones
demasiado rígidas de su obra de juventud, la Lógica de la investigación científica. Sin embargo,
para Kuhn seguía privilegiando excesivamente los momentos de cambio y de revolución
científica a la hora de insistir en el talante falsador o refutador propio de los científicos. La
historia de la ciencia, en cambio, muestra que numerosísimos científicos en las más
diversas disciplinas jamás han considerado sus teorías como conjeturas y mucho menos han
intentado falsarlas experimentalmente. Las etapas de ciencia normal nos muestran a un tipo
de científico muy diferente al científico critico concebido por Popper; sin embargo, también
esas etapas han de ser estudiadas por los historiadores, e incluidas en la reflexión de los
metodólogos. Hacer una historia o una metodología de la ciencia basada sólo en los momentos
estelares de la misma (las grandes revoluciones, las grandes teorías) supone perder de
vista aspectos que sólo pueden ser claros para quienes investigan minuciosamente las
diversas épocas históricas, desprovistos de perjuicios metodológicos previos. La historia de
la ciencia se convierte así en un complemento imprescindible para la reflexión metodológica;
y no cabe duda de que, al menos en este punto, las tesis de Kuhn han triunfado plenamente
desde los años setenta. Surge, sin embargo, un nuevo problema: ¿qué es la observación
de los datos históricos? ¿Acaso cabe recaer en la ingenuidad del empirismo lógico de Viena,
pensando que los estudios de historia empírica pueden engendrar teorías explicativas, y
no ya sólo descriptivas, de cada etapa histórica? Kuhn, ciertamente, no piensa así, pero sus
tesis han dado a su vez pábulo a un cierto tipo de estudios históricos que acumulan una
gran cantidad de datos, pero sin que en muchos casos lleguen a ser pertinentes para las
fases ulteriores de la investigación histórica.
Una última variable del problema, estriba en la distinción entre historia interna y externa.
La historia externa trataría de las actividades de los científicos en tanto grupo social dentro
de una cultura determinada. En cambio, la historia interna se centraría exclusivamente en
el desarrollo de las ideas, experimentos e investigaciones de los científicos prescindiendo de
esas mediaciones exteriores, sobre la base de que lo importante en filosofía de la ciencia
consiste en analizar el cambio científico, entendiendo por tal los cambios conceptuales,
heurísticos, metodológicos y ontológicos. Para Kuhn, aun aceptando el interés de la historia
externa, puede hacerse perfectamente una historia de la ciencia exclusivamente interna:
Comparados con otros profesionales y con otras empresas creativas, los practicantes de
una ciencia madura están aislados en realidad del medio cultural en el cual viven sus
vidas profesionales. En cualquier caso, y pese a precisiones adicionales que podrían hacerse, la
obra de Kuhn señala un viraje importante de la metodología de la ciencia: a partir de ella el papel
de los estudios históricos adquiere gran relevancia.

Los programas de investigación científica

Lakatos, a diferencia de otros autores que suponen a Popper como un falsacionista dogmático,
sostiene que el falsacionismo de Popper es, por el contrario, metodológico, y Lakatos cree que
todavía es mejorable por el falsacionismo metodológico refinado. Una teoría nunca es refutada
por la observación ni por un experimento crucial sino, como bien había señalado Kuhn, por otra
teoría rival. Los científicos abandonan una teoría por otra en función del mayor contenido
empírico de la segunda, caracterizado por el descubrimiento y la corroboración de algunos
hechos nuevos y sorprendentes, pero asimismo en función de su mayor potencial heurístico. Ello
da lugar a que las teorías hayan de ser evaluadas en la historia en función del programa de
investigación en el que se insertan, y no aisladamente en confrontación con la experiencia.

El falsacionismo metodológico refinado

Ya en su artículo de 1968, Lakatos tomaba como punto de partida las críticas de Kuhn a
Popper, señalando que el autor de La estructura de las revoluciones científicas había atacado
sobre todo a un Popper que en realidad nunca existió en las obras de Popper, aunque sí
en las de algunos de sus divulgadores e intérpretes. Como ejemplo prototípico de dicho
falsacionismo dogmático, cuya tesis básica estriba en que la ciencia no puede probar, pero sí
refutar empíricamente una teoría, Lakatos cita la afirmación de Medawar: «La ciencia
puede realizar con certeza lógica completa la recusación de lo que es falso».
Por el contrario, Lakatos distingue el falsacionismo metodológico, en dos versiones distintas,
a las que denomina Popper1 y Popper2. Aunque en sus propios escritos Lakatos ha oscilado
un tanto sobre la atribución de una postura u otra a su maestro, cabe resumir sus tesis
diciendo que el falsacionismo metodológico ingenuo (Popper1) sería la posición más
característica de sir Karl, sobre todo en La miseria del historicismo y en la Sociedad abierta.
En otros escritos de Popper se encuentran ideas claves para el falsacionismo refinado, pero
en realidad ésta es una propuesta que corresponde al propio Lakatos, siendo su aportación
más propia al debate sobre metodología iniciado a partir de la obra de Kuhn.
La versión estándar del popperianismo establecía que la ciencia avanza por medio de
«conjeturas audaces depuradas por duras refutaciones». Dichas falsaciones se llevan a cabo
por medio de enunciados observacionales, o proposiciones básicas, a las cuales Popper
denominó falsadores potenciales de una teoría. Éstos vienen caracterizados sintácticamente,
por su forma lógica, como enunciados existenciales espacio-temporalmente singulares, del
tipo «hay un planeta en la región espacio-temporal k». Pero también son discernibles
pragmáticamente: el valor de verdad de los falsadores potenciales ha de ser decidible
por medio de algún procedimiento experimental posible y aceptado en el momento histórico
en que tenga lugar la falsación. Si hay conflicto entre una teoría y una falsación empírica
de este tipo, la teoría debe ser abandonada.
Lakatos, en cambio, afirma que «no podemos probar las teorías y tampoco podemos refutarlas»
por procedimientos exclusivamente empíricos, y ello basándose en dos motivos. Primero,
porque como ya afirmara Hanson, «no hay demarcación natural (psicológica) entre las
proposiciones observacionales y las proposiciones teóricas». Segundo, porque «ninguna
proposición fáctica puede nunca ser probada mediante un experimento» debido a su vez
a que toda prueba conlleva una deducción lógica, y las proposiciones sólo pueden derivarse
a partir de otras proposiciones, y no de hechos. Ambos argumentos, el lógico y el
psicológico, permiten a Lakatos desterrar definitivamente las tesis empiristas de la
comprobación o de la refutación de teorías por medio de la experiencia.
Consecuentemente con ello, Lakatos y sus discípulos también atacaron el concepto
popperiano de refutación de una teoría por medio de un experimentum crucis. Lakatos
concluye que «los experimentos cruciales no existen, al menos si nos referimos a
experimentos que pueden destruir instantáneamente a un programa de investigación». Sí
cabe, en cambio, que cuando una teoría ya ha sido sustituida por otra, retrospectivamente
se le atribuya a algún experimento el haber refutado a la primera y corroborado a la
segunda. Pero el abandono de la teoría «refutada» nunca depende exclusivamente de un
solo experimento.
Al objeto de introducir su falsacionismo refinado, Lakatos va a mantener una tesis
aparentemente sorprendente para la tradición empirista: «Las teorías más admiradas no
prohíben ningún acontecimiento observable». Parecería que estamos en las antípodas de
los falsadores potenciales de Popper, pero lo que en realidad pretende Lakatos es proponer
una distinción fundamental en sus tesis metodológicas: la de centro firme y cinturón protector
de una teoría. Para ello expone un ejemplo imaginario de investigación científica, que
merece la pena reproducir en su totalidad:

La historia se refiere a un caso imaginario de conducta anómala de un planeta. Un físico de


la era preeinsteiniana combina la mecánica de Newton y su ley de gravitación (N) con las
condiciones iniciales aceptadas (I) y calcula mediante ellas la ruta de un pequeño planeta que
acaba de descubrirse, p. Pero el planeta se desvía de la ruta prevista. ¿Considera nuestro
físico que la desviación estaba prohibida por la teoría de Newton y que, por ello, una vez
confirmada tal ruta, queda refutada la teoría N? No. Sugiere que debe existir un planeta
hasta ahora desconocido, p', que perturba la ruta de p. Calcula la masa, órbita, etc., de ese
planeta hipotético y pide a un astrónomo experimental que contraste su hipótesis. El planeta
p' es tan pequeño que ni los mayores telescopios existentes podrían observarlo: el astrónomo
experimental solicita una ayuda a la investigación para construir uno aún mayor. Tres
años después el nuevo telescopio ya está disponible. Si se descubriera el planeta desconocido
p', ello sería proclamado como una nueva victoria de la ciencia newtoniana. Pero no
sucede así. ¿Abandona nuestro científico la teoría de Newton y sus ideas sobre el
planeta perturbador? No. Sugiere que una nube de polvo cósmico nos oculta el planeta.
Calcula la situación y propiedades de la nube y solicita una ayuda a la investigación para
enviar un satélite con objeto de contrastar sus cálculos. Si los instrumentos del satélite
(probablemente nuevos, fundamentados en una teoría poco contrastada) registraran la
existencia de la nube conjeturada, el resultado seria pregonado como una gran victoria
de la ciencia newtoniana. Pero no se descubre la nube. ¿Abandona nuestro científico la
teoría de Newton junto con la idea del planeta perturbador y la de la nube que lo oculta?
No. Sugiere que existe un campo magnético en esa región del universo que inutilizó los
instrumentos del satélite. Se envía un nuevo satélite. Si se encontrara el campo magnético,
los newtonianos celebrarían una victoria sensacional. Pero ello no sucede. ¿Se considera
este hecho una refutación de la ciencia newtoniana? No. O bien se propone otra ingeniosa
hipótesis auxiliar o bien… toda la historia queda enterrada en los polvorientos volúmenes
de las revistas y nunca vuelve a ser mencionada.

Una teoría, por sí misma, jamás prohíbe ningún acontecimiento empírico, porque siempre
hay otros factores que pueden tener influencia sobre él: basta proponer la correspondiente
hipótesis ad hoc, según la cual ese tercer factor hace fallar a la teoría, para que ésta quede
preservada de la refutación por medio de datos observacionales. Las estratagemas
convencionalistas, como las llamó Popper, salvan a la teoría de la falsación por vía
experimental.
Esto conecta con el debate en torno a lo que se ha llamado tesis Duhem-Quine, la cual es
enunciada por Quine en los términos siguientes: «Se puede mantener la verdad de cualquier
enunciado, suceda lo que suceda, si realizamos ajustes lo bastante drásticos en otras partes
del sistema... Y al contrario, por las mismas razones ningún enunciado es inmune a la
revisión». Los medios para ello son múltiples: se puede introducir un nuevo concepto, o
una sutil distinción; se pueden modificar las definiciones de los términos involucrados en
la proposición a salvar; se pueden proponer hipótesis auxiliares; se pueden cambiar las
condiciones iniciales del problema .... Lakatos analiza en varias de sus obras esta amplia
variedad de recursos, que finalmente confluirán en la noción de cinturón protector de una
teoría, y precisamente por ello defiende el criterio ligado al falsacionismo refinado:
cualquier parte del conjunto de la ciencia puede, efectivamente, ser modificada y
reemplazada, pero con la condición de que dicho cambio suponga un progreso científico, es
decir que conduzca al descubrimiento de hechos nuevos. Las estratagemas que sólo sirven
para salvar las teorías aceptadas, sin que el usarlas dé lugar a nuevos conocimientos
factuales, no son aceptables para el falsacionismo de Lakatos.
La tesis central de dicho falsacionismo estriba en que una teoría nunca puede ser
falsada por la observación ni por experimento alguno, pero sí por otra teoría: «ningún
experimento, informe experimental, enunciado observacional o hipótesis falsadora de bajo
nivel bien corroborada puede originar por sí mismo la falsación. No hay falsación sin la
emergencia de una teoría mejor». Conforme había señalado Kuhn al hablar de dos
paradigmas rivales como paso previo a toda revolución científica, Lakatos va a intentar
sintetizar el falsacionismo popperiano con dicha aportación kuhniana al afirmar que sí
puede haber falsación de una teoría, pero sólo por medio de una estructura teórica
compleja interesante, que previamente ha de estar constituida en sus partes principales. Para
explicar los procesos de cambio científico, el problema metodológico que hay que resolver
no es la contraposición teoría/experiencia, sino los criterios de evaluación entre teorías
rivales, huyendo del psicologismo, del sociologismo o del irracionalismo que apuntaban en
Kuhn, para proponer un criterio racional de elección por parte de los científicos, y
general para todas las ciencias y comunidades científicas.
Y al respecto Lakatos tiene una propuesta· clara, mediante la cual va a precisar
definitivamente la diferencia entre los dos tipos de falsacionismo: el de Popper y el que el
propio Lakatos, inspirándose en Popper y mejorándolo, va a defender en el resto de sus
obras:

El falsacionismo refinado difiere del ingenuo tanto en sus reglas de aceptación (o criterio
de demarcación) como en sus reglas de falsación o eliminación. Para el falsacionista ingenuo
cualquier teoría que pueda interpretarse como experimentalmente falsable es «aceptable»
o «científica». Para el falsacionismo refinado una teoría es «aceptable» o «científica» solo
si tiene un exceso de contenido empírico corroborado con relación a su predecesora (o rival).
Esta condición puede descomponerse en dos apartados: que la nueva teoría tenga exceso
de contenido empírico (aceptabilidad1) y que una parte de ese exceso de contenido
resulte verificado (aceptabilidad2). El primer requisito puede confirmarse inmediatamente
mediante un análisis lógico a priori; el segundo sólo puede contrastarse empíricamente y ello
puede requerir un tiempo indefinido.
Para el falsacionista ingenuo una teoría es falsada por un enunciado observacional
(«reforzado») que entra en conflicto con ella (o que decide interpretar como si entrara
en conflicto con ella). Para el falsacionismo refinado, una teoría científica T queda falsada
si y sólo si otra teoría T’ ha sido propuesta y tiene las siguientes características:

1) T' tiene un exceso de contenido empírico con relación a T; esto es, predice hechos
nuevos, improbables o incluso excluidos por T.

2) T' explica el éxito previo de T; esto es, todo el contenido no refutado de T está
incluido (dentro de los límites del error observacional) en el contenido de T'.

3) Una parte del exceso de contenido de T' resulta corroborado.

Lakatos, por consiguiente, se mantiene dentro ,de la tradición del empirismo, si bien en su
criterio de demarcación, que supone una postura radicalmente nueva en la filosofía de la
ciencia del siglo XX, apunta una posibilidad para comparar entre si teorías rivales no
empíricas: por ejemplo lógicas, o matemáticas. Pero la experiencia ni prueba ni refuta las
teorías. Una teoría, en tanto conjetura que es, siempre acabará siendo sustituida por otra;
pero no por cualquiera de entre todas las que proliferaron en la fase de crisis del paradigma,
por decirlo en términos de Kuhn; sino por aquella que, en primer lugar, incluya lo
fundamental de la anterior, pero que además la supere, entendiendo por tal el
establecimiento de nuevas predicciones empíricas que puedan resultar incluso
sorprendentes para los defensores de la teoría anterior, pero que luego se ven confirmadas
experimentalmente. Lo factual sigue desempeñando una función primordial como criterio
de demarcación: sólo es científico aquello que predice hechos nuevos, hasta entonces
desconocidos. Pero por sí mismo no refuta a una teoría: simplemente orienta la elección de
los científicos en favor de una u otra teoría, siempre bajo el supuesto de que ya había dos,
como mínimo, en contraposición.
Con lo cual Lakatos se pronuncia, con cierta impronta hegeliana, sobre dos temas esenciales
en la filosofía de la ciencia en el siglo XX: la demarcación entre ciencia y no ciencia y
el cambio científico, manteniendo la componente pragmática (elección racional de una
teoría u otra), pero a la vez un criterio puramente epistemológico de cientificidad: la
predicción de hechos nuevos.

Los programas de investigación científica

La utilización de las hipótesis ad hoc, con las cuales los científicos conseguían salvar sus teorías
de las refutaciones mediante la experiencia, ha sido conocida y criticada desde hace siglos.
Se trata, tanto para el convencionalista Duhem como para el falsacionista Popper, de
proporcionar reglas metodológicas generales para impedir ese tipo de ardides antifalsacionistas.
Pero no todo este tipo de ajustes de las teorías para que no sean contradichas por la empiria
son ilegítimos. Hay algunos que producen nuevos descubrimientos, y que, por consiguiente, han
de ser considerados como admisibles. Los científicos que defienden una teoría siempre tratan
de preservar al centro firme de la misma de la refutación, construyendo en torno al mismo un
cinturón protector de hipótesis auxiliares, cambios de significado de los términos, etc. Esta
actitud, que en algunos casos puede ser perfectamente racional, permite explicar asimismo la
existencia de anomalías, subrayada por Kuhn, que pese a contradecir la teoría no dan lugar a
que sus preconizadores la abandonen.
Pero entonces, concluye Lakatos, una teoría no puede ser evaluada independientemente de los
resultados que este tipo de recursos contra la falsación ocasionen: Cualquier teoría científica
debe ser evaluada en conjunción con sus hipótesis auxiliares, condiciones iniciales, etc., y
especialmente en unión de sus predecesoras, de forma que se pueda apreciar la clase de cambio
que la originó. Por tanto, lo que evaluamos es una serie de teorías, y no las teorías aisladas.
Esto trae consigo una consecuencia fundamental para la teoría de la ciencia. Las unidades
básicas para el análisis epistemológico ya no son las teorías, ni mucho menos su confrontación
con la experiencia, sino las sucesiones de teorías, es decir los programas de investigación
científica. Cada teoría conlleva un desarrollo, un despliegue, suscitado como mínimo por las
tentativas de salvarla de la refutación; con lo cual lo que debe ser valorado es toda esa evolución,
que a veces puede llevar consigo profundos cambios en la propia teoría o, si se prefiere, la
aparición de teorías nuevas que, procediendo genéticamente de las anteriores, las mejoran o
las modifican, de manera sustancial, por lo que llegan a diferenciarse netamente de sus
predecesoras. El falsacionismo metodológico refinado, precisamente por afirmar que la
contraposición tiene lugar entre dos teorías, entre las cuales los científicos adoptan la que posee
un mayor contenido empírico, lleva forzosamente a la noción de programa de investigación, que
es definida por Lakatos en los términos siguientes:

Tenemos una serie de teorías, T1, T2, T3... en la que cada teoría se obtiene añadiendo cláusulas
auxiliares, o mediante representaciones semánticas de la teoría previa con objeto de acomodar
alguna anomalía, y de forma que cada teoría tenga, al menos, tanto contenido como el
contenido no refutado de sus predecesoras. Digamos que una serie tal de teorías es
teóricamente progresiva (o que constituye un cambio de la problemática teóricamente
progresivo) si cada nueva teoría tiene algún exceso de contenido empírico con respecto a su
predecesora; esto es, si predice algún hecho nuevo e inesperado hasta entonces. Digamos que
una serie de teoría teóricamente progresiva es también empíricamente progresiva (o que
constituye un cambio de problemática empíricamente progresivo) si una parte de ese exceso de
contenido empírico resulta, además, corroborado; esto es, si cada nueva teoría induce el
descubrimiento real de algún hecho nuevo. Por fin, llamaremos progresivo a un cambio de la
problemática si es progresivo teórica y empíricamente, y regresivo si no lo es. <<Aceptamos>>
los cambios de problemáticas como científicos sólo si, por lo menos, son teóricamente
progresivos; si no lo son, los rechazamos como pseudocientíficos.
Hay que estudiar la historia de la ciencia en función de estos nuevos criterios, localizando
en cada momento los programas de investigación progresivos, que engendran nuevos
conocimientos, y distinguiéndolos de los regresivos. Por supuesto que un mismo programa
puede ser progresivo durante una primera etapa histórica y luego estancarse: incluso es
lo que tarde o temprano les sucede a todos ellos. Conforme afirmara Popper en este
sentido, pero también Kuhn, para Lakatos toda teoría científica y todo programa de
investigación están destinados a ser abandonados y sustituidos por concepciones opuestas a
ellos, que predicen hechos insospechables para el programa antiguo. Los conceptos de
ciencia normal (pero nunca como algo estático, sino en continuo progreso), de crisis del
paradigma (cuando las hipótesis auxiliares o las propuestas semánticas dejan de producir
nuevos descubrimientos) y de revolución científica quedan englobados en el marco
epistemológico del falsaciomsmo refinado. Y en este sentido, Lakatos puede pretender
haber intentado una síntesis entre Kuhn y Popper, con cierto ribete hegeliano.
Pero la nueva noción de programa de investigación engendra a su vez dos importantes
consecuencias para la filosofía de la ciencia. La primera consiste en la íntima relación que
se establece entre las nociones de ciencia y progreso. Si la preferencia racional los
científicos por una teoría u otra, o por un programa y otro rival, depende del mayor
contenido empírico, entonces la elección entre dos teorías rivales siempre debe orientarse
en favor de aquella que suponga un mayor progreso para la ciencia: «El carácter empírico
(o científico) y el progreso teórico están inseparablemente relacionados». Lakatos menciona
explícitamente a Leibniz como el predecesor de esta tesis que, según él, fue aceptada por la
generalidad de los científicos. La demarcación entre ciencia y no ciencia no depende tanto
de la falsación, experimental de las hipótesis, ni por supuesto de su confirmación, cuanto,
exclusivamente, de lo que engendran desde el punto de vista de las novedades empíricas.
Mientras un programa de investigación vaya dando lugar a nuevos descubrimientos, por
muchas anomalías que le afecten, siempre será aceptado por los científicos. Únicamente
cuando se anquilosa y se estanca comenzarán los investigadores a fijarse con mayor insistencia
en dichas anomalías.
En segundo lugar, la predicción y ulterior corroboración de algunos hechos nuevos pasa a
ser el objetivo principal de las ciencias empíricas. Las teorías y los programas de
investigación deben ser evaluadas en función de su contenido fáctico, pero entendiendo
éste como producción de novedades, y en particular de predicciones que sean prácticamente
imposibles de hacer desde el programa de investigación rival. La inconmensurabilidad
kuhniana adquiere aquí una nueva versión. El descubrimiento y la predicción de hechos
nuevos y sorprendentes para los científicos anteriores es la marca principal de una revolución
científica, de la sustitución de un programa de investigación por otro rival.

Heurística positiva y negativa

Un programa de investigación científica no sólo va a estar caracterizado por el contenido


empírico que posea en un momento dado, sino también por su potencial heurístico. La
heurística de un programa de investigación, en principio, consiste en un conjunto de técnicas
para la solución de problemas científicos. Si mencionamos el ejemplo de la mecánica de
Newton, que Lakatos ha escogido para explicar muchas veces su metodología, resulta que
el centro firme del programa newtoniano estaría formado por las tres leyes del
movimiento, y como tal no puede ser falsado, porqué los newtonianos habían elaborado un
gran cinturón de hipótesis auxiliares para protegerlo: la óptica geométrica, la teoría de
la refracción atmosférica, etc., que en cualquier caso permitían descartar las anomalías
que se hubiesen obtenido por observación. La heurística del programa, en cambio, está
caracterizada básicamente -según Lakatos- por el cálculo diferencial, la teoría de la
convergencia y las ecuaciones diferenciales e integrales. El programa newtoniano no sólo
está definido por la mecánica o por la óptica, sino también por el utillaje matemático
utilizado, el cual por sí mismo proporciona una serie de cuestiones para resolver dentro
del propio programa de investigación, y como rasgo distintivo del mismo, que no se
encuentra en los programas rivales.
Pero desde un punto de vista más general, la heurística sé constituye por medio de
una serie de reglas metodológicas, algunas de las cuales pueden ser muy generales, e incluso
estrictamente filosóficas, como en el caso del mecanicismo cartesiano, Lakatos distingue
dos tipos de reglas: unas positivas y otras negativas. La heurística negativa nos dice qué
tipo de rutas de investigación deben evitarse. La heurística positiva, en cambio, cuáles
deben seguirse. La primera impide que se le aplique el modus tollens al centro firme del
programa, aconsejando prescindir de las anomalías las investigaciones. La heurística positiva
impide que el científico se pierda en el océano de anomalías dándole una serie de tareas a
resolver que suponen -o pueden suponer, si la investigación tiene éxito- otras tantas
ampliaciones y desarrollos del programa.
Veamos ambos tipos de heurística en el ejemplo del programa newtoniano. Cuando emergió
«se encontraba inmerso en un océano de anomalías y en contradicción con las teorías
observacionales que apoyaban a tales anomalías»; pero ello no afectó para nada al centro
irrefutable del programa, por decisión metodológica de sus defensores. Bastaba con trabajar
en el cinturón protector, modificando las hipótesis auxiliares que subyacían a las
observaciones o contraejemplos, o cambiando las condiciones iniciales, para que el programa
siguiese adelante sin preocuparse por la «prueba empírica» que sus adversarios argüían en
su contra. La historia imaginaria del comportamiento de un científico newtoniano, muestra
bien de qué manera se pueden construir ingeniosas hipótesis al objeto de que el núcleo del
programa no sea afectado. Los newtonianos, incluso, tuvieron la habilidad de ir
destruyendo las propias teorías observacionales que subyacían a los «contraejemplos»,
transformando cada dificultad en una nueva victoria de su programa, como señaló el
mismo Laplace. Pero en general ello no es necesario. La heurística negativa de un programa
de investigación no sólo puede estar caracterizada por la construcción de ese cinturón
protector o escudo contra las anomalías, sino incluso por prescindir pura y simplemente de
ellas. Son fenómenos que no merece la pena estudiar, o al menos que todavía no se está
en condiciones de investigar: pero por muy corroborados que estén observacionalmente, las
teorías no se ven afectadas en lo esencial por ellos.
Esto está relacionado con la existencia de una heurística positiva en el programa de
investigación, como subraya Lakatos: Pocos científicos teóricos implicados en un programa de
investigación se ocupan excesivamente de las «refutaciones». Mantienen una política de
investigación a largo plazo que anticipa esas refutaciones. Esta política de investigación,
u orden de investigación, queda establecida, con mayor o menor detalle, en la heurística
positiva del programa de investigación.
Esto puede hacerse, por ejemplo, enumerando una secuencia de modelos crecientemente
complicados y que simulan la realidad, los cuales han de ser investigados uno por uno en
orden creciente, pero sin pasar al siguiente, ni mucho menos a la contrastación empírica,
antes de que los problemas teóricos no hayan quedado básicamente resueltos en los
modelos más simplificados. La heurística positiva hace concentrarse al científico en dichos
ámbitos de investigación, ignorando los contraejemplos «reales» o los «datos» disponibles.
Veámoslo de nuevo en el caso de Newton: En principio, Newton elaboró su programa para
un sistema planetario con un punto fijo que representaba el Sol y, un único punto que
representaba a un planeta. A partir de este modelo derivó su ley del inverso del cuadrado
para la elipse de Kepler. Pero este modelo contradecía la tercera ley de la dinámica de Newton
y por ello tuvo que ser sustituido por otro en que tanto el Sol como el planeta giraban
alrededor de su centro de gravedad común. Este cambio no fue motivado por ninguna
observación (en este caso los datos no sugerían «anomalía») sino por una dificultad
teórica para desarrollar el programa. Posteriormente elaboró el programa para un número
mayor de planetas y como si sólo existiesen fuerzas heliocéntricas y no interplanetarias.
Después, trabajó en el supuesto de que los planetas y el Sol eran bolas de masa y no
puntos. De nuevo, este cambio no se debió a la observación de una anomalía. La densidad
infinita quedaba excluida por una teoría venerable (no sistematizada). Por esta razón los
planetas tenían que ser expandidos. Este cambio implicó dificultades matemáticas
importantes, absorbió el trabajo de Newton y retrasó la publicación de los Principia durante
más de una década. Tras haber solucionado este rompecabezas, comenzó a trabajar en las
«bolas giratorias y sus oscilaciones». Después admitió las fuerzas interplanetarias y comenzó,
a trabajar sobre las perturbaciones. Llegado a este punto empezó a interesarse con más
intensidad por los hechos. Muchos de ellos quedaban perfectamente explicados
(cualitativamente) por el modelo, pero sucedía lo contrario con muchos otros. Fue entonces
cuando comenzó a trabajar sobre planetas combados y no redondos, etc.
Como puede observarse, la heurística positiva posee una fuerte componente teórica, y puede
prescindir ampliamente de la contrastación cori la experiencia en tanto el programa de
resolución de cuestiones teóricas no haya sido ejecutado, o al menos mientras no haya
producido progresos teóricos claros. Lejos de procederse mediante el esquema simple de
hipótesis y comprobación (o refutación empírica), un programa de investigación posee su
propia dinámica, como dirán los estructuralistas, y ello independientemente de cuestiones
subjetivas o colectivas ligadas a los creadores y defensores de dicho programa o a sus
adversarios. Cabe incluso cierto grado de programación previa de los pasos que caracterizan
a dicha heurística positiva, según Lakatos. La heurística va a desempeñar un papel muy
importante para le evaluación entre dos teorías rivales, en particular cuando éstas son
observacionalmente equivalentes, es decir, que una y otra pueden explicar los mismos
fenómenos empíricos, aunque fuesen contradictorias entre sí. ¿Por qué existen preferencias por
uno u otra, siendo que son observacionalmente equivalentes, y por tanto ninguna excedía a la
otra por el contenido empírico? En función de sus heurísticas respectivas y en concreto por las
distintas concepciones ontológicas de ambos (teóricos) respecto a la física.
Por ejemplo, los científicos de la época prefirieron el programa de Einstein al de Lorentz porque,
pese a ser observacionalmente equivalente, era heurísticamente superior, en el sentido de que
la aplicación de las reglas básicas de su heurística positiva conseguía formular problemas nuevos,
que en el marco de las teorías de Lorentz no tenían sentido. Y aunque dichas conjeturas (muchas
de ellas sorprendentes e inesperadas) sólo encontraron alguna corroboración experimental
varios años después, el mayor potencial heurístico de las teorías de Einstein inclinó la balanza a
favor de su programa de investigación. Así, se prefirió, por motivos heurísticos, un programa a
otro, pese a que no poseyera un mayor contenido empírico. Esta elección fue perfectamente
racional, no tanto por los resultados ulteriores, cuanto porque la heurística es una componente
esencial de todo programa de investigación, junto con su contenido empírico. La noción de
potencial heurístico de un programa de investigación, en muchos casos ha resultado decisiva en
la historia para que los científicos optaran por una u otra teoría, entre dos contrapuestas.
Historia interna e historia externa

Desde el punto de vista de las relaciones entre la filosofía de la ciencia y la historia de la


ciencia, Lakatos continúa la obra de Kuhn, destacando la importancia de los estudios
históricos minuciosos. Parafraseando a Kant, Lakatos afirma que «la filosofía de la ciencia
sin la historia de la ciencia es vacía; la historia de la ciencia sin la filosofía de la ciencia es
ciega». La metodología científica puede proporcionar a los historiadores criterios normativos
y definitorios sobre lo que es una teoría, sobre su estructuración interna y acerca de las reglas
para la evaluación de las teorías, de tal manera que la investigación en los archivos y
documentos esté orientada teóricamente y no sea puramente empírica y descriptiva; pero a su
vez el normativismo y los criterios epistemológicos propuestos por los filósofos de la ciencia
deben de ser confrontados con los datos históricos ofrecidos por los historiadores. De
alguna manera, la historia de la ciencia es la base o el contenido empírico de la filosofía de
la ciencia.
Pata Lakatos la historia de la ciencia, al objeto de hacerla inteligible y no simplemente
descriptiva, ha de ser reconstruida racionalmente. Aparte de los factores sociales,
psicológicos, etc., que ciertamente influyen en la ciencia (a lo cual Lakatos da el nombre
de historia externa), el epistemólogo ha de preocuparse también de la reconstrucción
racional de la historia de la ciencia, estudiando las teorías en su evolución y en sus
modificaciones y contraposiciones en función de factores internos a las propias teorías.
Surge así la historia interna de la ciencia, sobre la cual puede haber, a su vez,
concepciones contrapuestas. La interrelación entre historia y filosofía de la ciencia culmina con
la elaboración de dicha historia interna, que debe ser complementada con la historia
externa, en la que se puede insistir más en los factores ajenos a la propia comunidad
científica: condiciones económicas y sociales, situación política, características individuales de
los científicos etc. Pero incluso en relación a la historia interna las posiciones pueden ser
muy distintas. Lakatos las sintetiza en cuatro: inductivistas, convencionalistas, falsacionistas
y, por último, su propia metodología de los programas de investigación. Estas cuatro
concepciones son normativas, y permiten reconstruir la historia interna conforme a criterios
diversos. Todas ellas han de ser, en cualquier caso, complementadas con teorías externas
empíricas para explicar los factores residuales no racionales. Ninguna de las cuatro agota,
por consiguiente, el trabajo de la historia de la ciencia: La historia de la ciencia es siempre
más rica que su reconstrucción racional. Pero la reconstrucción racional o historia interna
es primaria, la historia externa sólo secundaria, ya que los problemas más importantes de
la historia externa son definidos por la historia interna.
Según los inductivistas, la historia interna se basaría en una serie de descubrimientos de hechos
firmes, así como en las posteriores generalizaciones inductivas. Para los convencionalistas
habría también descubrimientos factuales, completados luego por sistemas de organización de
los mismos en torno a unas u otras nociones, definiciones y axiomas (sistemas de casillas,
dice Lakatos), cuyas modificaciones también han de ser estudiadas en dicha historia interna.
La historia interna de los falsacionistas está articulada, en cambio, en tomo a una serie de
conjeturas audaces, que van aumentando en contenido empírico las unas sobre las otras, y
sobre todo en torno a los sucesivos experimentos cruciales que han ido refutando una tras
otra a dichas conjeturas generales, o teorías. «La metodología de programas de investigación,
por último, enfatiza la rivalidad prolongada, teórica y empírica, de programas mayores de
investigación, problemáticas estancadas y progresivas, y la victoria, lentamente conseguida,
de un programa sobre otro».
La historia interna, se quiera o no, depende por lo tanto de las diferentes filosofías, que
siempre subyacen al trabajo del historiador. No es lo mismo buscar en los documentos y
archivos una serie de experimentos cruciales, los cambios de las axiomatizaciones y
presentaciones de las teorías al objeto de lograr mayor simplicidad en su presentación, o los
programas de investigación rivales, con sus correspondientes heurísticas. El historiador siempre
es selectivo. Para que, además, logre una reconstrucción racional de los hechos históricos,
ha de llegar a proponer una versión radicalmente modificada de los mismos. Eso sí, con el
apoyo documental oportuno, que Lakatos acostumbra poner en notas a pie de página,
mientras la historia de la ciencia propiamente dicha sería la versión reconstruida de dichos
documentos. El inductivismo es utópico y el convencionalismo y el falsacionismo simple son
insuficientes. En cualquier caso, «una historia sin ningún “sesgo” teórico es imposible». De
ahí que una historiografía de la ciencia que haga abstracción de los debates teóricos
habidos en la filosofía de la ciencia en el siglo XX sea, a juicio de Lakatos, inadecuada.
Historiadores y filósofos de la ciencia han de trabajar conjuntamente, aunque sus
cometidos sean diversos.
Feyerabend, P. – Consuelos para el especialista – La crítica y el desarrollo del conocimiento

Introducción

Si bien estaba dispuesto a admitir los problemas de Kuhn y si bien trataba yo de explicar
determinados aspectos de la ciencia sobre los que él había llamado la atención (la omnipresencia
de anomalías, por ejemplo), era completamente incapaz de estar de acuerdo con la teoría de la
ciencia que él proponía; y estaba todavía menos dispuesto a aceptar la ideología general que a
mi juicio constituía el telón de fondo de su pensamiento. Esta ideología, así me lo parecía, sólo
podía albergar la más afectada y obtusa clase de especialismo, que tendería a detener el avance
del conocimiento y a incrementar las tendencias antihumanitarias que constituyen una
característica tan inquietante de buena parte de la ciencia posnewtoniana.

Abigüedad en la presentación

Siempre que leo a Kuhn me veo turbado por la siguiente pregunta: ¿se nos presentan aquí unas
prescripciones metodológicas que dicen al científico cómo debe proceder, o se nos da una
descripción, vacía de todo elemento valorativo, de aquellas actividades que generalmente se
llaman "científicas"? Los escritos de Kuhn, me parece a mí, son ambiguos en el sentido de que
son compatibles con (y prestan apoyo a) ambas interpretaciones. Esta ambigüedad ha tenido un
claro efecto en los lectores de Kuhn. Más de un científico social me ha señalado que ahora por
fin ha aprendido cómo hacer de su campo una "ciencia", con lo cual quiere decir desde luego
que ha aprendido a mejorarlo. Según estas personas la receta consiste en restringir la crítica,
reducir a una el número de teorías generales y crear una ciencia normal que tenga esta sola
teoría como paradigma. A los estudiantes se les debe impedir que especulen sobre diferentes
líneas y hay que hacer que los colegas más inquietos se adapten y «hagan un trabajo serio». Me
aventuro a insinuar que la ambigüedad es intencionada. Kuhn quiere por una parte dar un apoyo
sólido, objetivo e histórico a los juicios de valor que, al igual que mucha otra gente, él parece
considerar arbitrarios y subjetivos. Por otra parte, a aquellos a quienes no guste la derivación de
valores a partir de hechos que ahí viene implicada siempre se les puede decir que no se hace tal
derivación y que la presentación es puramente descriptiva.

La resolución de rompecabezas como criterio de la ciencia

Supongamos que el propósito de Kuhn es verdaderamente el no dar sino una descripción de


determinados acontecimientos e instituciones históricas que ejercen influencia. Según esta
interpretación, lo que de facto sitúa a las ciencias aparte de otras actividades es la existencia de
una tradición de resolución de rompecabezas. Pero si tan esencial es la existencia de una
tradición de resolución de rompecabezas, si es la presencia de esta propiedad lo que unifica y
caracteriza una disciplina específica y claramente identificable, entonces no veo cómo podremos
excluir de nuestras consideraciones, por ejemplo, el crimen organizado. Porque el crimen
organizado es ciertamente resolución de rompecabezas par excellence. Cada afirmación que
hace Kuhn acerca de la ciencia normal sigue siendo cierta si sustituimos "ciencia normal" por
"crimen organizado"; y cada afirmación que ha escrito acerca del "científico considerado
individualmente" se aplica con la misma fuerza al descerrajador de cajas fuertes considerado
individualmente. Sabiendo cuáles son las líneas generales de los fenómenos que pueden
preverse, el descerrajador profesional de cajas fuertes «deja en gran medida de explorar, o al
menos de explorar lo desconocido (después de todo, se supone que conoce todos los tipos de
cajas fuertes existentes). En lugar de ello, se esfuerza por adentrarse en lo conocido (es decir,
en descubrir las idiosincrasias de la caja fuerte particular con la que está tratando) diseñando
aparatos especiales y haciendo adaptaciones especiales de la teoría para llevar a cabo esa
tarea». Según Kuhn el fracaso de la realización lo más probable es que se refleje «en la
competencia del (descerrajador de cajas fuertes) a los ojos de sus compañeros de profesión» de
modo que «es el (descerrajador de cajas fuertes) individual y no la teoría vigente (del
electromagnético, por ejemplo) que está siendo contrastado»: «solo se culpa al trabajador, no
a sus herramientas». La situación no se mejora señalando la existencia de revoluciones. En
primer lugar, porque estamos tratando de la tesis de que es la ciencia normal la que se
caracteriza por la actividad de resolución de rompecabezas. Y en segundo lugar porque no hay
ninguna razón para creer que el crimen organizado va a quedarse atrás en su maestría para
tratar las grandes dificultades. Además, si es la presión derivada del siempre creciente número
de anomalías lo que conduce primero a una crisis y luego a una revolución, entonces cuanto
mayor sea la presión antes ocurrirá la crisis. Ahora bien, Kuhn no ha tratado sobre qué es lo que
pretende la ciencia. Todo delincuente sabe que aparte de hacer bien las cosas y de ser popular
entre sus compañeros quiere una cosa: dinero. Sabe también que su actividad delictiva normal
le va a dar justamente eso. Sabe que cuanto mejor sepa resolver rompecabezas y cuanto
mejores sean sus relaciones con la comunidad delictiva, más dinero recibirá y más rápidamente
ascenderá en la escala profesional. Lo que pretende es dinero. ¿Qué es lo que pretende el
científico? Y supuesta una pretensión, ¿va la ciencia normal a encaminarlo a ella? ¿O es quizá
que los científicos son menos racionales que los delincuentes en el sentido de que "están
haciendo lo que hacen" sin que tengan ningún propósito? Éstas son las preguntas que surgen si
uno quiere limitarse al aspecto puramente descriptivo de la narración de Kuhn.

La función de la ciencia normal

Con objeto de responder a estas preguntas debemos pasar a considerar no sólo la estructura
real de la ciencia normal de Kuhn, sino también su función. La ciencia normal, dice, es una
condición previa necesaria para las revoluciones.
Esta actividad, este ocuparse de "pequeños enigmas" lleva a un cerrado acoplamiento entre
teoría y realidad, y precipita también el progreso. Y lo hace así por varias razones. En primer
lugar, el paradigma aceptado sirve de guía al científico: «La naturaleza es demasiado vasta y
compleja para que pueda explorarse aun de manera aproximada al azar». El intento de crear
conocimiento necesita una guía, no puede empezar a partir de la nada. Más específicamente,
necesita una teoría, un punto de vista que permita al investigador separar lo relevante de lo
irrelevante, y que le diga en qué áreas será más provechosa la investigación. A esta idea común
añade Kuhn un toque específico propio. Kuhn defiende no sólo el uso de supuestos teóricos,
sino la elección exclusiva de un conjunto determinado de ideas, la monomaníaca relación con
un solo punto de vista. Defiende tal modo de proceder en primer lugar porque desempeña un
papel en la ciencia real tal como él la ve. Ésta es la ambigüedad descripción-recomendación a la
que ya nos hemos referido. Pero también lo defiende porque cree que su adopción conducirá a
la postre al derrocamiento del mismísimo paradigma al que los científicos se habían restringido
voluntariamente en primer lugar. Si aun los mayores esfuerzos hechos tratando de que la
naturaleza se ajuste a sus categorías fallan; si las espectativas creadas por estas categorías se
ven decepcionadas una y otra vez; entonces nos vemos forzados a buscar algo nuevo. Y nos
vemos forzados a ello no debido a una discusión abstracta de posibilidades que no toca la
realidad, sino guiados por nuestros propios gustos y nuestros rechazos; nos vemos forzados a
ello por modos de proceder que han establecido un estrecho contacto con la naturaleza, y, por
lo tanto, en última instancia, por la naturaleza misma. La ciencia madura parece dirigirse sólo a
la naturaleza y puede esperarse por ello una respuesta clara y objetiva. Para obtener esa
respuesta necesitamos algo más que una colección de datos reunidos al azar. Pero también
necesitamos algo más que una perenne discusión de las distintas ideologías. Lo que se necesita
es la aceptación de una teoría y el implacable propósito de hacer que la naturaleza se amolde a
ella. Ésta es, a mi juicio, la principal razón que tendría Kuhn para defender no sólo como hecho
histórico, sino también como acción razonable el que una ciencia madura rechace la libre batalla
entre las distintas alternativas.

Tres dificultades del argumento funcional

La defensa de Kuhn es aceptable siempre que las revoluciones sean deseables y siempre que la
manera particular que la ciencia normal tenga de desembocar en revoluciones sea también
deseable. Ahora bien, yo no veo cómo puede Kuhn establecer que las revoluciones son
deseables. Las revoluciones llevan a cabo un cambio de paradigma. Pero si seguimos la
descripción que hace Kuhn de este cambio, o "cambio de gestalt" como él lo llama, es imposible
decir eso porque los paradigmas pre y posrevolucionarios son frecuentemente
inconmensurables. Yo diría que ésta es la primera dificultad del argumento funcional si se
emplease en conexión con el resto de la filosofía de Kuhn. En segundo lugar hemos de examinar
lo que Kuhn ha llamado la "estructura fina" de la transición: ciencia normal/revolución. Esta
estructura fina puede revelar elementos que elementos nos obligarían a considerar diferentes
maneras de llevarse a cabo una revolución. Así, es perfectamente imaginable que los científicos
abandonen un paradigma por frustración y no porque tengan argumentos contra él. (Otro modo
de echar abajo un paradigma sería matar a los representantes del status quo) ¿Cómo proceden
realmente los científicos? ¿Y cómo desearíamos que procediesen? El examen de estas
cuestiones lleva al argumento funcional a una segunda dificultad. Consideremos primeramente
los siguientes problemas metodológicos: ¿Pueden darse razones para proceder como Kuhn dice
que la ciencia normal procede, esto es, para tratar de aferrarse a una teoría a pesar de la
existencia de hechos que a primera vista constituyen una refutación de esa teoría, a pesar de la
existencia de contraargumentos lógicos y matemáticos? Y en el supuesto de que puedan darse
tales razones, ¿es posible entonces abandonar la teoría sin violar esas razones? En lo que sigue,
llamaré principio de tenacidad al principio que -consiste en seleccionar de entre varias teorías
aquella que prometa conducir a los resultados más fructíferos, y de aferrarse a esta teoría aun
si las dificultades reales con las que tropieza son considerables. El problema que se presenta es
el de cómo puede defenderse este principio y cómo podemos cambiar nuestra lealtad a los
paradigmas de una manera que sea consistente con ese principio, o que incluso venga dictada
por él. El principio de tenacidad es razonable porque las teorías son susceptibles de desarrollo,
porque pueden ser mejoradas, y porque a la postre son capaces de dar cabida a los mismos
problemas que en su forma primitiva fueron incapaces de explicar. Experimentadores distintos
están sujetos a cometer errores diferentes y se necesita bastante tiempo antes de que todos los
experimentos se reduzcan a un común denominador. A estos argumentos en favor de la
tenacidad el profesor Kuhn añadiría que una teoría proporciona también criterios de perfección,
de fracaso, de racionalidad, y que hay que mantenerla todo el tiempo que sea posible con objeto
de hacer que el discurso se mantenga racional todo el tiempo que se pueda. Sin embargo, muy
raramente ocurre que las teorías se comparen directamente con "los hechos" o con "la
evidencia". Lo que cuenta y lo que no cuenta como evidencia relevante generalmente depende
no sólo de la teoría sino también de otros dominios a los que se puede llamar "ciencias
auxiliares". Tales ciencias auxiliares pueden funcionar como premisas adicionales en la
derivación de afirmaciones contrastables. Pero pueden también infestar el lenguaje de
observación, proporcionando ellas los conceptos en términos de los cuales se expresan los
resultados experimentales. De modo que una contrastación del punto de vista de Copérnico
lleva consigo por una parte supuestos concernientes a la atmósfera terrestre, al efecto que tiene
el movimiento sobre el objeto movido (dinámica); y por otra parte lleva también consigo
supuestos que se refieren a la relación entre la experiencia sensorial y "el mundo" (incluidas
teorías de la percepción y teorías de la visión telescópica). Los supuestos del primer tipo
funcionan como premisas, mientras que los del segundo tipo determinan qué impresiones son
verídicas haciendo posible de este modo el que no sólo evaluemos sino incluso que
constituyamos nuestras observaciones. Ahora bien, no hay ninguna garantía de que un cambio
fundamental en nuestra cosmología, como lo es el cambio de un punto de vista geostático a un
punto de vista heliostático, irá de la mano con una mejora de todos los dominios auxiliares
pertinentes. Muy al contrario: tal desarrollo es extremadamente improbable. ¿Quién esperaría,
por ejemplo, que a la invención del copernicanismo y del telescopio siguiese inmediatamente la
óptica fisiológica apropiada? Las teorías básicas y los dominios auxiliares están frecuentemente
"desfasados". Como resultado de ello obtenemos ejemplos refutadores, los cuales no indican
que la nueva teoría esté condenada al fracaso, sino solamente que en el momento presente no
armoniza con el resto de la ciencia. Siendo esto así los científicos tienen que desarrollar métodos
que les permitan seguir manteniendo su teoría frente a hechos ordinarios e inambiguamente
refutadores, aun si no hay a la vista una explicación contrastable de ese conflicto. El principio de
tenacidad es un primer paso en la construcción de tales métodos.
Una vez adoptada la tenacidad ya no podemos seguir empleando hechos recalcitrantes para
eliminar una teoría. Lo que si podemos hacer es utilizar otras teorías, T', T", T"', etc., que
acentúen las dificultades de T mientras que al mismo tiempo pueda confiarse en que aporten
los medios para solucionarlas. En este caso es el propio principio de tenacidad el que exige la
eliminación de T. Por esta razón, si nuestro objetivo es el cambio de paradigmas, entonces
debemos estar dispuestos a introducir y articular alternativas a T; debemos estar dispuestos a
aceptar un principio de proliferación. Proceder de acuerdo con este principio es un método para
acelerar el proceso que lleva a las revoluciones. Es un método racional. ¿Es el método que la
ciencia emplea realmente? ¿O los científicos se aferran a sus paradigmas hasta el final, hasta
que los sinsabores, la frustración y el aburrimiento hagan que les sea imposible seguir adelante?
¿Qué pasa al final de un período normal? Sobre este punto, Kuhn, por una parte subraya
firmemente las características dogmáticas, autoritarias y estrechas de miras de la ciencia
normal, el hecho de que ésta conduce a una "cerrazón mental" temporal, y de que el científico
que toma parte en ella «deja en gran medida de explorar... o al menos de explorar lo
desconocido. En lugar de ello se esfuerza por articular lo conocido y adentrarse en ello», de
modo que «es [casi siempre] el científico individual y no la [tradición de resolución de enigmas,
o alguna específica] teoría vigente quien es sometido a contrastación». «Sólo se culpa al
trabajador, no a sus herramientas». Kuhn se da cuenta desde luego que una ciencia específica
tal como la física puede contener más de una tradición de enigmas, pero subraya su "cuasi-
independencia", afirmando que cada una de ellas «está guiada por sus propios paradigmas y
persigue sus propios problemas». Por tanto, una tradición única está guiada por un paradigma
único. Éste es un lado de la historia. Por otro lado, Kuhn señala que tan pronto como existe una
elección «entre teorías en competencia» la resolución de enigmas se ve sustituida por
argumentos más "filosóficos". Ahora bien, si la ciencia normal es de facto tan monolítica como
Kuhn dice que es, entonces ¿de dónde proceden las teorías en competencia? Y si éstas en efecto
surgen, entonces ¿por qué Kuhn había de tomarlas en serio y consentir que realicen un cambio
de estilo argumentativo, un cambio de "científico" (resolución de enigmas) a "filosófico"?
Sobre la "cuasi-independencia" de los paradigmas simultáneos; si la existencia de teorías en
competencia implica un cambio de estilo argumentativo, ¿no debemos dudar entonces de esta
presunta cuasi-independencia? Kuhn no sólo ha admitido que la multiplicidad de teorías cambia
el estilo de la argumentación, sino que ha adscrito una función específica a tal multiplicidad. Más
de una vez ha señalado que las refutaciones son imposibles sin la ayuda de alternativas. Además,
ha descrito con cierto detalle el efecto amplificador que las alternativas tienen sobre las
anomalías y ha explicado cómo se realizan las revoluciones mediante tal amplificación. Por tanto
los científicos crean las revoluciones no mediante la implacable búsqueda de un paradigma y su
repentino abandono cuando los problemas se hacen demasiado grandes. Todo lo cual nos lleva
inmediatamente a la dificultad número tres, esto es, a la sospecha de que la ciencia normal o
"madura", tal como Kuhn la ha descrito, no es ni siquiera un hecho histórico.

¿Existe la ciencia normal?

Kuhn afirma, en primer lugar, que las teorías no pueden refutarse excepto con la ayuda de
alternativas. En segundo lugar, que la proliferación también desempeña un papel histórico en el
derrocamiento de paradigmas. Es un hecho que los paradigmas han sido derrocados debido al
modo en que las alternativas han extendido las anomalías existentes. Por último, Kuhn ha
indicado que existen anomalías en cualquier momento de la historia de un paradigma. La idea
de que las teorías carecen de fallos durante décadas o aun siglos hasta que se presenta una gran
refutación y las pone fuera de combate, esta idea, dice Kuhn, no es más que un mito. Ahora
bien, si esto es cierto, entonces ¿por qué no empezar inmediatamente con la proliferación sin
permitir jamás que nazca una ciencia puramente normal? ¿Sería demasiado esperar que los
científicos pensaran del mismo modo, y que los períodos normales, si es que alguna vez
existieron, no puedan haber durado mucho tiempo y no puedan tampoco haberse extendido
sobre amplios campos? Un ejemplo: en el segundo tercio del siglo existían al menos tres
paradigmas diferentes y mutuamente incompatibles. Eran éstos: (1) el punto de vista de la
mecánica que encontraba su expresión en la astronomía, en la teoría cinética, en los varios
modelos mecánicos de la electrodinámica y también en las ciencias biológicas, especialmente
en la medicina (donde la influencia de Helmholtz fue un factor decisivo); (2) el punto de vista
relacionado con la invención de una teoría del calor independiente y fenomenológica que
finalmente resultó ser inconsistente con la mecánica; (3) el punto de vista implícito en la
electrodinámica de Faraday y Maxwell, que fue desarrollado, y liberado de sus concomitancias
mecánicas, por Hertz. Pero estos diferentes paradigmas estaban lejos de ser "cuasi-
independientes". Muy al contrario, fue su interacción activa lo que causó la ruina de la física
clásica. Se habrían venido abajo si todos los científicos hubiesen respetado la "cuasi-
independencia" de esas disciplinas. Éstos no habrían, pues, participado en el debate y la gran
mayoría podrían haber seguido prestando atención a sus "pequeños rompecabezas". Sin
embargo, si tomamos en serio las enseñanzas del propio Kuhn, entonces no era esta actividad
la causante del progreso, sino la actividad de la minoría proliferante (y de aquellos
experimentadores que atendían a los problemas de esta minoría, y a sus extrañas predicciones).
Y podemos preguntar si es que la mayoría no continúa resolviendo los viejos rompecabezas
mientras tienen lugar las revoluciones. Pero si esto es cierto entonces la descripción de Kuhn
que separa temporalmente los períodos de revolución y los períodos de monismo se derrumba
completamente.

En defensa del hedonismo

Parece, pues, que la interconexión entre tenacidad y proliferación que hemos descrito es
también una característica esencial del desarrollo real de la ciencia. Parece que no es la actividad
de resolución de rompecabezas la responsable del crecimiento de nuestro conocimiento sino la
interconexión activa de varios puntos de vista defendidos tenazmente. Además, lo que lleva el
derrocamiento de los viejos paradigmas familiares es la invención de nuevas ideas y el tratar de
asegurarles un lugar digno en la competición. El proceso de invención continúa todo el tiempo.
Sin embargo, la atención sólo se vuelve hacia él durante las revoluciones. Este cambio de
atención no refleja ningún cambio estructural profundo (tal como, por ejemplo, la transición de
la resolución de rompecabezas a la especulación filosófica y la contrastación de los
fundamentos). No es sino un cambio de interés y de publicidad. Ésta es la imagen de la ciencia
que emerge de nuestro breve análisis. ¿Es una imagen atractiva? ¿Hace que la ocupación
científica merezca la pena? ¿Es un beneficio para nosotros la presencia de tal disciplina? Lo que
merece la pena y lo que no la merece es algo que está determinado hasta tal punto por las
instituciones y formas de vida existentes que difícilmente conseguimos llegar nunca a una
correcta evaluación de las instituciones mismas. Las ciencias especialmente están rodeadas de
un aura de perfección que transforma cualquier dificultad en beneficio propio. Frases como
"búsqueda de la verdad”, o "el más alto objetivo de la humanidad" se emplean con profusión.
Indudablemente ennoblecen su objeto, pero también lo alejan del dominio de la discusión crítica
(Kuhn ha dado un paso hacia delante en esta dirección, confiriendo alguna dignidad incluso a la
parte más aburrida y más pedestre de la empresa científica: la ciencia normal). Pero, ¿en qué
medida se ha visto aumentada la felicidad de los seres humanos individuales, y en qué medida
se ha visto aumentada su libertad? El progreso siempre se ha llevado a cabo mediante un
enfrentamiento entre formas de vida sólidamente asentadas y fundamentadas y valores
impopulares y poco fundamentados. Así es como el hombre ha ido gradualmente liberándola
del miedo y de la tiranía de los sistemas no analizados. Nuestra pregunta por lo tanto es ésta:
¿Qué valores elegiremos para poner a prueba las ciencias de hoy? A mí me parece que la
felicidad y el completo desarrollo del ser humano individual sigue siendo el valor más alto
posible. Este valor no excluye los valores que surgen de las formas de vida institucionalizadas
(verdad, valentía, altruismo, etc.), antes bien los alienta. Lo que se excluye es el intento de
"educar" a los niños de modo tal que les haga perder sus múltiples talentos y les haga estar
limitados a un estrecho campo de pensamiento, de acción y de emoción. Al adoptar este valor
básico lo que queremos es una metodología y un conjunto de instituciones que hagan posible
que nuestras capacidades se vean lo menos mermadas que sea posible y que nos obliguen a
desviarnos de nuestras inclinaciones naturales lo menos posible también. Ahora bien, el breve
cuento de hadas metodológico que hemos expuesto dice que una ciencia que trate de
desarrollar nuestras ideas y que utilice medios racionales para la eliminación incluso de las más
fundamentales conjeturas debe emplear junto con un principio de proliferación un principio de
tenacidad. Se le debe permitir mantener las ideas haciendo frente a las dificultades; y se le debe
permitir introducir nuevas ideas aun si los puntos de vista comúnmente aceptados parecen estar
justificados y carecer de defectos. La proliferación significa que no hay necesidad de suprimir ni
siquiera los productos más extravagantes del cerebro humano. Todo el mundo puede seguir sus
propias inclinaciones y la ciencia, concebida como una empresa crítica, sacará provecho de tal
actividad. La tenacidad significa que nos vemos animados no sólo a seguir nuestras propias
inclinaciones, sino a desarrollarlas, a llevarlas, con ayuda de la crítica (lo cual implica la
comparación con las alternativas existentes), a un nivel más alto de articulación y a defenderlas
por tanto con un nivel de conciencia más alto. La interconexión de proliferación y tenacidad lleva
también a la prosecución, a un nuevo nivel, de la evolución biológica de las especies y puede
incluso aumentar la tendencia a mutaciones biológicas útiles. Puede que sea el único medio
posible para impedir el estancamiento de nuestra especie. Creo que éste es el último y más
importante argumento contra la ciencia "madura" tal como la describe Kuhn. Tal empresa no
sólo está mal concebida y es inexistente, sino que su defensa es incompatible con una
perspectiva humanitaria.

Una alternativa: el modelo de Lakatos de cambio científico

Voy ahora a presentar en su totalidad la imagen de la ciencia que creo que debe sustituir a la
que expone Kuhn. Esta imagen es la síntesis de los dos descubrimientos siguientes:
primeramente contiene el descubrimiento de Popper de que la ciencia avanza mediante la
discusión crítica de puntos de vista dispares; en segundo lugar contiene el descubrimiento que
ha hecho Kuhn de la función que desempeña la tenacidad, cosa que él ha expresado, a mi juicio
equivocadamente, mediante el postulado de la existencia de períodos de tenacidad. La síntesis
consiste en la afirmación de Lakatos de que proliferación y tenacidad no pertenecen a períodos
sucesivos de la historia de la ciencia, sino que están siempre copresentes. Cuando hablo de
"descubrimientos" no quiero decir que las ideas mencionadas sean completamente nuevas, o
que aparecen ahora en una forma nueva. Muy al contrario. La idea de que puede hacerse
avanzar el conocimiento mediante una lucha de puntos de vista dispares y de que el
conocimiento depende de la proliferación fueron los presocráticos quienes la expusieron por
primera vez. La necesidad de la tenacidad fue subrayada por aquellos materialistas dialécticos
que pusieron objeciones a los vuelos extremadamente "idealistas" de la fantasía. Y la síntesis,
por último, es la propia esencia del materialismo dialéctico tal como aparece en los escritos de
Engels, Lenin y Trotsky. Poco de esto les es conocido a los filósofos "analíticos" o "empiristas"
de hoy, quienes todavía están muy influidos por el Círculo de Viena. Al considerar este estrecho,
aunque moderno, contexto podemos por tanto hablar de genuinos, si bien bastante tardíos,
"descubrimientos". Según Kuhn la ciencia madura es una sucesión de períodos normales y de
revoluciones. Los períodos normales son monistas; los científicos tratan de resolver los enigmas
que resultan del intento de ver el mundo a través de un solo paradigma. Las revoluciones son
pluralistas hasta que emerge un nuevo paradigma que gana la adhesión suficiente como para
servir de base a un nuevo período normal. Esta descripción deja sin dar respuesta al problema
de cómo se lleva a cabo la transición de un período normal a una revolución. Cómo podía
hacerse la transición de una manera razonable: comparando el paradigma central con teorías
dispares. El profesor Kuhn parece ser de la misma opinión e indica, además, que eso es lo que
realmente ocurre. La proliferación da comienzo antes ya de la revolución y es un instrumento
para llevarla a cabo. Pero esto significa que la primitiva descripción está equivocada. La
proliferación no empieza con la revolución; la precede. La proliferación no sólo precede
inmediatamente a las revoluciones, sino que está presente todo el tiempo. Tal como la
conocemos, la ciencia no es una sucesión temporal de períodos normales y períodos de
proliferación; es su yuxtaposición. Vista así la transición de pre-ciencia a ciencia no consiste en
sustituir la libre proliferación y la crítica universal de la primera por la tradición de resolución de
enigmas de la ciencia normal. Consiste en complementarla con esta actividad; o, expresándolo
mejor, la ciencia madura une dos tradiciones muy distintas que con frecuencia están separadas,
la tradición de la crítica filosófica pluralista y la tradición más práctica (y menos humanitaria),
que explota las potencialidades de un material dado (una teoría; un trozo de materia) sin
desanimarse por las dificultades que pueden presentarse y sin tener en cuenta otras maneras
de pensar (y de actuar). Kuhn ha pensado que la ciencia madura consiste en la sucesión de estos
dos distintos esquemas de pensamiento y acción. Acierta en señalar el elemento normal, o
conservador, o antihumanitario. Éste es un verdadero descubrimiento. Pero se equivoca al
considerar la relación existente entre este elemento y los procedimientos más filosóficos (es
decir, críticos). Sugiero, de acuerdo con el modelo de Lakatos, que la relación correcta es la de
simultaneidad e interacción. Hablaré por lo tanto de la componente normal y la componente
filosófica de la ciencia y no de período normal y período de revolución. Quienes realizan los
avances fundamentales son aquellos que promueven la interacción efectiva de las componentes
normal y filosófica (esta interacción consiste casi siempre en la crítica que lo periférico y lo
filosófico hacen de lo sólidamente amurallado y lo no-filosófico). Ahora bien, si la ciencia
consiste en la constante interacción de una parte normal y una filosófica, si es esta interacción
la que produce el avance de la ciencia, entonces, ¿por qué los elementos revolucionarios se
hacen visibles sólo en tan raras ocasiones? ¿No basta este hecho histórico simple para hacer que
la descripción de Kuhn prevalezca sobre la mía? ¿No es un típico sofisma filosófico negar un
hecho histórico tan obvio? Creo que la respuesta a esta pregunta es obvia. La componente
normal es amplia y sólidamente amurallada. De ahí que un cambio en la componente normal se
advierta tan fácilmente. Así ocurre con la resistencia que la componente normal opone a
cambiar. Esta resistencia se hace especialmente fuerte y observable en los períodos en que
parece inminente el cambio; se dirige contra la componente filosófica y hace que sea del
dominio público. La generación más joven, siempre con ansía de cosas nuevas, se apodera del
nuevo material y lo estudia con avidez.
En lo que se refiere al cambio de la componente normal misma; al igual que otros filósofos
anteriores a él (estoy pensando principalmente en Hegel) Kuhn supone que un gran cambio
histórico debe mostrar una lógica propia y que el cambio de una idea debe ser razonable en el
sentido de que exista una ligadura entre el hecho del cambio y el contenido de la idea que
cambia. Esta es una suposición plausible siempre que tratemos con personas razonables: es muy
probable que los cambios en la componente filosófica puedan explicarse como resultado de
argumentos claros e inambiguos. Pero suponer que las personas que habitualmente se resisten
al cambio; aquellos que ponen mala cara a toda crítica que se dirija a las cosas que ellos estiman;
y cuyo objetivo más alto es resolver enigmas sobre una base que ni se conoce ni se comprende;
suponer que esas personas cambiarán su lealtad de un modo razonable es llevar demasiado
lejos el optimismo y el afán de racionalidad. Los elementos normales, esto es, aquellos
elementos que cuentan con el apoyo de la mayoría, pueden cambiar porque a la generación más
joven no le preocupe seguir a sus mayores; o porque alguna figura pública ha cambiado de
opinión; o porque algún miembro influyente del sistema haya muerto y no haya logrado dejar
tras él una escuela fuerte e influyente, o porque una institución poderosa y no-científica empuja
al pensamiento en una dirección determinada. Las revoluciones son pues, la manifestación
externa de un cambio de la componente normal del que no se puede dar cuenta de ninguna
manera razonable. Son tema de anécdotas, si bien pueden amplificar y hacer visibles los
elementos más racionales de la ciencia, enseñándonos de este modo lo que podría ser la ciencia
si abundasen más las personas razonables.

El papel de la razón en la ciencia

Hasta aquí he criticado a Kuhn desde un punto de vista que es casi idéntico al de Lakatos. Ahora
quiero defender a Kuhn contra Lakatos. Más específicamente, quiero probar que la ciencia es, y
debería ser, más irracional de lo que Lakatos y Feyerabend, [el popperiano] están dispuestos a
admitir. Esta transición de la crítica a la defensa está en conexión con la naturaleza de la ciencia,
con su complejidad, con el hecho de que tiene aspectos diferentes, de que no puede separarse
fácilmente del resto de la historia, de que siempre ha utilizado y continúa haciéndolo cada
talento y cada extravagancia del hombre. Los argumentos contrapuestos sirven para mostrar los
distintos rasgos que contiene, nos desafían a tomar una decisión, nos desafían o bien a aceptar
este monstruo de mil caras y ser devorados por él, o cambiarlo de acuerdo con nuestros deseos.
Veamos ahora lo que se puede decir contra el modelo de desarrollo científico de Lakatos. El
falsacionismo ingenuo juzga (esto es, acepta, o condena) una teoría tan pronto como ésta se
pone a discusión. Lakatos da tiempo a la teoría, deja que se desarrolle, deja que muestre su
fuerza oculta, y la juzga sólo "a largo plazo". Los "standards críticos" que emplea estipulan un
intervalo de vacilación. Se aplican "retrospectivamente". Se aplican después de que se presentan
problemáticas o bien "progresivas" o bien "degenerativas". Ahora bien, es fácil ver que los
standards de este tipo sólo tienen una fuerza práctica si se les completa con un tiempo límite (lo
que parece una problemática degenerativa puede ser el comienzo de un período de progreso
mucho más largo). Pero, si está permitido esperar, ¿por qué no esperar un poco más? De modo
que los standards que Lakatos quiere defender o son vanos -no se sabe cuándo aplicarlos- o son
criticables sobre bases muy similares a las que antes condujeron a ellos. En estas circunstancias
puede optarse por una de las dos cosas siguientes. Se puede dejar de apelar a standards
permanentes que conserven su fuerza a través de la historia y gobiernen cada período específico
del desarrollo científico y cada transición de un período a otro. O se pueden conservar tales
standards como ornamento verbal, en memoria de tiempos más felices en los que todavía se
pensaba que era posible llevar una empresa tan compleja y a menudo catastrófica como la
ciencia siguiendo unas cuantas reglas simples y "racionales". Parece que Lakatos quiere elegir la
segunda alternativa. Elegir la segunda alternativa significa abandonar de hecho los standards
permanentes, si bien conservándolos de palabra. De hecho, la postura de Lakatos parece ser
idéntica a la postura de Popper. Según Popper «no necesitamos ningún sistema de referencia
específico para nuestra crítica», podemos revisar incluso las reglas más fundamentales y
abandonar las más fundamentales exigencias si surge la necesidad de una medida distinta de
estimación. ¿Es irracional esta postura? ¿Implica que la ciencia es irracional? Sí y no. Sí, porque
deja de haber ya un único conjunto de reglas que nos guíe a través de todos los giros y vueltas
de la historia del pensamiento (ciencia). No, porque cada episodio particular es racional en el
sentido de que algunas de sus características pueden explicarse empleando razones que o
fueron aceptadas al mismo tiempo que el episodio ocurría, o inventadas en el curso de su
desarrollo. Sí, porque ni siquiera estas razones lógicas que cambian de una época a otra bastan
nunca para explicar todas las características importantes de un episodio particular. Hay que
añadir accidentes, prejuicios, condiciones materiales (tales como la existencia de una
determinada clase de cristal en un país y no en otro), las vicisitudes de la vida matrimonial,
descuidos, superficialidad, orgullo y muchas otras cosas para dar una imagen completa. No,
porque transportados al ambiente del período que se esté considerando y dotados de una
inteligencia vivaz y curiosa podíamos haber tenido todavía más que decir, podríamos haber
tratado de vencer a los accidentes, y "racionalizar" incluso la más caprichosa secuencia de
acontecimientos. Pero -y llegamos ahora al punto decisivo-, ¿cómo puede hacerse la transición
de determinados standards a otros standards? Más específicamente, ¿qué les ocurre a nuestros
standards (nos referimos a standards ahora, y no a teorías) durante un período de revolución?
¿Se les cambia de un modo popperiano mediante una discusión crítica de alternativas, o hay
procesos que desafían a un análisis racional?
El mismo Popper ha señalado que los standards no siempre se adoptan basándose en
argumentos. Cabe pensar que la única función del discurso racional consista en aumentar la
tensión mental que preceda y cause la explosión en la conducta. Pero ¿no es exactamente ésta
la clase de cambio que podemos esperar en los períodos de revolución científica? ¿No restringe
la efectividad de los argumentos (excepto como agente causante de desarrollos muy distintos
de lo que el contenido de éstos exige)? ¿Que ocurra un cambio así no muestra que la ciencia
que, después de todo, es parte integrante de la evolución del hombre no es y no puede ser
completamente racional? Ya que si hay acontecimientos, no necesariamente argumentos, que
son causantes de que adoptemos nuevos standards, ¿es que los defensores del statu quo no van
a proporcionar, además de argumentos, también causas contrarias? Y si las viejas formas de
argumentación resultan ser una causa contraria demasiado débil, ¿no deben o abandonar o
recurrir a medios más fuertes y más "irracionales"? Incluso el racionalista más puritano se verá
obligado entonces a dejar de argumentar y a emplear, por ejemplo, la propaganda no porque
alguno de sus argumentos haya dejado de ser válido, sino porque han desaparecido las
condiciones psicológicas que le permitían argumentar efectivamente y, por tanto, influir sobre
los demás.
Un popperiano dirá que, verdaderamente, se pueden descubrir, inventar, aceptar y comunicar
a los demás nuevos standards de una manera muy irracional, pero que siempre queda la
posibilidad de criticarlos después de que hayan sido adoptados y que es esta posibilidad la que
hace que nuestro conocimiento siga siendo racional. «¿En cuáles, pues, vamos a confiar?»,
pregunta Popper después de considerar las posibles fuentes de standards. «¿Cuáles vamos a
aceptar? La respuesta es: cualesquiera que sean los que aceptemos sólo debemos confiar en
ellos provisionalmente, recordando siempre que, en el mejor de los casos, sólo estamos en
posesión de una verdad (o un acierto) parciales, y que estamos sujetos a cometer al menos algún
error o a formar algún juicio equivocado en algún sitio, no sólo con respecto a los hechos, sino
también con respecto a los standards que se hayan adoptado; en segundo lugar, sólo debemos
confiar (aun dentro de esta provisionalidad) en nuestra intuición si se ha llegado a ella como
resultado de repetidos intentos de usar nuestra imaginación; de muchos errores, de muchas
contrastaciones, de muchas dudas y de una crítica minuciosa.» Ahora bien, esta referencia a las
contrastaciones y a la crítica que se supone que garantizan la racionalidad de la ciencia y, quizá,
de toda nuestra vida, o bien es relativa a los procedimientos claramente definidos sin los cuales
no puede decirse que haya tenido lugar una crítica o una contrastación, o bien es puramente
abstracta de modo que se nos deja la tarea de llenarla ahora con éste y luego con aquel
contenido concreto. El primer caso acabamos justamente de discutirlo. En el segundo caso no
tenemos más que un ornamento verbal, al igual que resultó ser un ornamento verbal la defensa
que hizo Lakatos de sus propios "standards objetivos".
En cierta manera también Popper ha descrito esta situación cuando dice: «el racionalismo está
necesariamente lejos de ser global o completo en sí mismo». Pero la pregunta planteada por
Kuhn no es si hay límites para nuestra razón; la pregunta es dónde están situados esos límites.
¿Están fuera de las ciencias de tal modo que la ciencia misma se mantiene completamente
racional o son los cambios irracionales una parte esencial incluso de la empresa más racional
que ha inventado el hombre? ¿El fenómeno histórico llamado "ciencia" contiene ingredientes
que desafían al análisis racional? El objetivo abstracto de aproximarse cada vez más a la verdad,
¿puede alcanzarse de una manera totalmente racional, o es quizás inaccesible para aquellos que
deciden no confiar más que en la argumentación? Al considerar estos problemas Popper y
Lakatos rechazaron la "psicología de masas" 52 y afirman al carácter racional de toda la ciencia.
Según Popper, dadas dos teorías se puede llegar a emitir un juicio sobre cuál de ellas está más
cerca de la verdad, aun en el caso de que entre ambas medie un cataclismo tal como una
revolución científica. (Una teoría T' está más cerca de la verdad que otra teoría, T, si la clase de
las consecuencias verdaderas de T', el llamado contenido de verdad de T', excede a la clase de
las consecuencias verdaderas de T sin que haya un aumento en el contenido de falsedad.) Según
Lakatos los rasgos aparentemente irrazonables de la ciencia sólo se presentan en el mundo
material y en el mundo del pensamiento (psicológico), pero están ausentes del «mundo de las
ideas, del "tercer mundo" de Platón y Popper». Es en este tercer mundo en el que tiene lugar el
desarrollo del conocimiento y en el que es posible hacer un juicio racional de todos los aspectos
de la ciencia. Hay que señalar, sin embargo, que desgraciadamente el científico también trata
del mundo de la materia y del pensamiento (psicológico) y que las reglas que ponen orden en el
tercer mundo pueden resultar completamente inapropiadas para poner orden en los cerebros
de los seres humanos vivos. Las numerosas desviaciones de la recta senda de la racionalidad que
observamos en la ciencia real pueden muy bien resultar necesarias si queremos hacer progresos
con el frágil y poco fiable material (instrumentos, cerebros, etc.), del que disponemos. Sin
embargo, no hay necesidad de probar que la ciencia real puede diferir de su imagen en el tercer
mundo precisamente en aquellos aspectos que hacen posible el progreso. Porque el modelo
popperiano de acercamiento a la verdad se viene abajo aun si nos limitamos completamente a
las ideas. Y se viene abajo porque hay teorías que son inconmensurables.
Con la discusión de la inconmensurabilidad llego a un punto de la filosofía de Kuhn que acepto
por completo. Me refiero a su afirmación de que los paradigmas consecutivos sólo pueden
evaluarse con dificultad y que pueden incluso ser por completo incomparables. Ambos
estábamos de acuerdo en que las nuevas teorías, si bien eran frecuentemente mejores y más
detalladas que sus predecesoras, no siempre eran lo bastante ricas como para tratar todos los
problemas a los que su predecesora había dado una respuesta clara y precisa. El desarrollo del
conocimiento o, más específicamente, la sustitución de una teoría global por otra implica tanto
pérdidas como ganancias. El esquema aceptado es éste: (Fig. 1) T es superada por T'. T' explica
por qué T falla donde falla (en F); también explica por qué T ha tenido éxito al menos
parcialmente (en S); y hace predicciones adicionales, (A). Ahora bien, si este esquema ha de
funcionar, entonces tienen que existir enunciados que se sigan (con o sin ayuda de definiciones
y/o hipótesis de correlación) a la vez de T y de T'. Pero hay casos que invitan a un juicio
comparativo sin que satisfagan las condiciones que acaban de indicarse. La relación entre tales
teorías es la que se muestra en la Fig. 2. Es ahora claramente imposible emitir un juicio que
implique la comparación de las clases de contenido. Por ejemplo, no puede decirse que T' esté
más cerca de la verdad, o más lejos, que T.

Como ejemplo de teorías inconmensurables vamos a referirnos brevemente a la mecánica


celeste (MC) clásica y a la teoría especial de la relatividad (RE). Para empezar, deberíamos
subrayar que la pregunta «¿Son MC y RE inconmensurables?» no es una pregunta completa. Las
teorías pueden interpretarse de diferentes modos. Serán conmensurables según algunas
interpretaciones, incomparables según otras. El instrumentalismo, por ejemplo, hace
conmensurables todas aquellas teorías que están referidas al mismo lenguaje de observación y
se interpretan utilizando ese lenguaje como base. Un realista, por otra parte, trata de dar una
descripción unificada de lo observable y de lo inobservable, y para ello empleará los términos
más abstractos de cualquiera que sea la teoría que esté considerando. Ahora bien, al extender
los conceptos de una teoría nueva T a todas sus consecuencias, incluidos los informes
observacionales, puede ocurrir que la interpretación de estas consecuencias cambie en tan gran
medida que desaparezca de las clases de consecuencias de las teorías anteriores. Estas teorías
anteriores se harán entonces inconmensurables con T. La relación entre RE y MC es uno de estos
casos. El concepto de longitud que se utiliza en RE y el concepto de longitud que se presupone
en MC son conceptos diferentes. Ambos son conceptos relacionales, y conceptos relacionales
muy complejos. Pero la longitud relativista (o la forma relativista) implica un elemento que está
ausente del concepto clásico y que en principio está excluido de él. Implica la velocidad relativa
del objeto en un sistema de referencia. Es cierto, desde luego, que el esquema relativista nos da
muy a menudo números que son prácticamente idénticos a los números que se obtienen en MC,
pero no por ello los conceptos son más similares. Magnitudes diferentes basadas en conceptos
diferentes pueden dar valores idénticos en sus respectivas escalas sin dejar de ser magnitudes
diferentes. Las clases de consecuencias de RE y MC están relacionadas como en la Fig. 2. Ni se
puede hacer una comparación de contenido ni se puede emitir un juicio sobre la verosimilitud.
En lo que sigue discutiré unas cuantas objeciones que se han expuesto, no contra este análisis
particular de la relación entre RE y MC, sino contra la posibilidad, o deseabilidad, de teorías
inconmensurables. Estas objeciones expresan ideas metodológicas que debemos criticar si
queremos aumentar nuestra libertad con relación a las ciencias. Una de las objeciones más
conocidas procede de la versión del realismo. «Un realista -decíamos- trata de dar una
descripción unificada de lo observable y de lo inobservable, y para ello empleará los términos
más abstractos de cualquiera que sea la teoría que esté considerando.» Empleará tales términos
o con objeto de dar significado a los enunciados de observación, o si no con objeto de sustituir
la interpretación habitual que se hace de ellos (por ejemplo, empleará las ideas de RE con objeto
de sustituir la interpretación habitual que hace MC de los enunciados cotidianos acerca de
formas, secuencias temporales, etc.). Contra esto se señala que los términos teóricos reciben su
interpretación al ponerse en conexión o bien con un lenguaje de observación preexistente, o
bien con otra teoría que ya ha sido puesta en conexión con un lenguaje de observación, y que
esos términos están vacíos de contenido sin esa conexión. Así, Carnap afirma que «no hay
ninguna interpretación independiente de L1 [el lenguaje en términos del cual se formula una
determinada teoría o una determinada visión del mundo]. El sistema T [que consta de los
axiomas de la teoría y de las reglas de derivación] es un sistema no interpretado de postulados.
Sus términos sólo obtienen una interpretación indirecta e incompleta debido al hecho de que
algunos de ellos están ligados a los términos observacionales mediante las reglas de
correspondencia C». Ahora bien, si los términos teóricos no tienen ninguna "interpretación
independiente" entonces no pueden utilizarse para corregir la interpretación de los enunciados
de observación, interpretación que es la única fuente de su significado. De lo que se sigue que,
tal como lo hemos descrito, el realismo es una doctrina imposible.
La idea conductora que hay detrás de esta objeción es que no pueden introducirse lenguajes
nuevos y abstractos de una manera directa, sino que primero deben estar conectados con un
idioma observacional ya existente, y presumiblemente estable.
Esta idea conductora queda refutada inmediatamente sin más que indicar el modo que tienen
los niños de aprender a hablar y el modo que los antropólogos y lingüistas tienen de aprender
el lenguaje desconocido de una tribu recién descubierta. El primer ejemplo es instructivo
también por otras razones, por que la inconmensurabilidad desempeña un papel Importante en
los primeros meses del desarrollo humano. Como Piaget y su escuela han indicado, la percepción
del niño se desarrolla a través de varias etapas antes de que alcance su forma adulta
relativamente estable. En una etapa los objetos parecen comportarse como imágenes
retrospectivas, y como tal son tratadas: el niño sigue al objeto con sus ojos hasta que desaparece
y no hace el más ligero intento por recobrarlo aun si ello no requiere más que un esfuerzo físico
(o intelectual) mínimo, esfuerzo que, por lo demás, ya está dentro de las posibilidades del niño.
Ni siquiera hay una tendencia a la búsqueda, lo cual es algo muy normal "conceptualmente"
hablando, porque verdaderamente no tendría sentido "buscar" una imagen retrospectiva: su
"concepto" no provee de lo necesario para tal operación. La llegada del concepto, y de la imagen
perceptiva, de los objetos materiales cambia mucho la situación. Hay una drástica reorientación
de los modelos de conducta y, según puede conjeturarse, de pensamiento. Las imágenes
retrospectivas o las cosas que de algún modo se les parecen siguen existiendo, pero ahora son
difíciles de encontrar y hay que descubrirlas mediante métodos especiales (el mundo visual
anterior literalmente desaparece por lo tanto). Tales métodos proceden de un esquema
conceptual nuevo (las imágenes retrospectivas se presentan en los seres humanos, y no en el
mundo físico exterior, y están vinculadas a ellos) y no pueden volver hacia atrás, hacia
exactamente los mismos fenómenos de la etapa previa (a estos fenómenos habría pues que
llamarlos con un nombre diferente, como "pseudoimágenes retrospectivas"). Ni a las imágenes
retrospectivas ni a las pseudoimágenes retrospectivas se les concede una posición especial en
el nuevo mundo. Por ejemplo, no son tratadas como evidencia sobre la que se supone que
descansa la nueva noción de objeto material. Ni tampoco pueden emplearse para explicar esta
noción, ya que las imágenes retrospectivas surgen junto con ella y están ausentes de la mente
de aquellos que todavía no reconocen los objetos materiales; y las pseudoimágenes
retrospectivas desaparecen tan pronto como tal reconocimiento tiene lugar. Hay que admitir
que cada etapa posee un tipo de "base" observacional a la que se dedica especial atención y de
la que se recibe una multitud de sugerencias. Sin embargo, esta base (1) cambia de etapa a
etapa, y (2) es una parte del aparato conceptual de una etapa dada, y no su sola y única fuente
de interpretación. Cuando consideramos desarrollos como éstos, podemos sospechar que la
familia de conceptos centrada sobre "objeto material" y la familia de conceptos centrada sobre
"pseudoimágenes retrospectivas" son inconmensurables precisamente en el sentido que aquí
se trata. ¿Es razonable esperar que cambios conceptuales de esta clase ocurran sólo en la
infancia? ¿Aceptaríamos el hecho - si es que es un hecho- de que un adulto se mantenga
aferrado a un mundo perceptivo estable y al sistema conceptual estable que le acompaña, a los
cuales puede modificar de muchas formas, pero cuyas líneas generales se han quedado
inmovilizadas para siempre? ¿O no es más realista suponer que todavía son posibles cambios
fundamentales, que impliquen inconmensurabilidad, y que debería estimularse a hacer esos
cambios, con objeto de no quedar excluidos para siempre de lo que pudiera constituir una etapa
superior de conocimiento y de conciencia? Además, la cuestión de la movilidad de la etapa
adulta es en cualquier caso una cuestión empírica que debe atacarse mediante investigación y
que no puede resolverse por decreto metodológico. El tratar de atravesar las fronteras de un
sistema conceptual dado y estar fuera del alcance de las "gafas popperianas" constituye una
parte esencial de tal investigación.
Considerando ahora el segundo elemento de la refutación -el trabajo antropológico de campo-
vemos que lo que aquí es un anatema (y por muy buenas razones) sigue siendo un principio
fundamental para los representantes contemporáneos de la filosofía del Círculo de Viena. Según
Carnap, Nagel y otros, los términos de una teoría reciben su interpretación, de una manera
indirecta, refiriéndolos a un sistema conceptual diferente, que es o una teoría más antigua o un
lenguaje de observación. Esas teorías anteriores o esos lenguajes no se adoptan por su
perfección teórica (no pueden serlo: las teorías antiguas por lo común están refutadas). Se
adoptan porque son «utilizados por una determinada comunidad lingüística como medio de
comunicación». Según este método, la frase "tiene mucha más masa relativista que" se
interpreta parcialmente relacionándola primeramente con algunos términos prerrelativistas
(términos clásicos; términos del sentido común) que son "comúnmente entendidos"
(presumiblemente como resultado de una enseñanza previa relacionada con métodos de pesar
poco refinados), lo cual es aún peor que aquella exigencia que en tiempos fue común de clarificar
los puntos dudosos traduciéndolos al latín. Porque mientras que el latín se eligió debido a su
precisión y claridad y debido también a que era conceptualmente más rico que las lenguas
vulgares en lento proceso de evolución, la elección de un lenguaje de observación o de una
teoría más antigua como base para la interpretación se debe al hecho de que son "entendidas
con anterioridad", se debe a su popularidad. Además, si los términos prerrelativistas que están
considerablemente lejos de la realidad -especialmente en vista de que provienen de una teoría
incorrecta- pueden enseñarse ostensivamente, por ejemplo, con ayuda de métodos de pesar
poco refinados (y debemos suponer que pueden enseñarse así, porque si no todo el esquema
se viene abajo), entonces ¿por qué no introducir los términos relativistas directamente y sin
ayuda de los términos de algún otro idioma? Por último, es de sentido común que la enseñanza,
o el aprendizaje, de lenguajes nuevos y desconocidos no deben ser contaminados por materiales
externos. Los lingüistas nos recuerdan que nunca es posible una traducción perfecta, aunque
utilicemos complejas definiciones contextuales. Ésta es una de las razones de la importancia del
trabajo de campo en que los nuevos lenguajes se aprenden captándolos a trozos, y del rechazo,
por inadecuada, de toda exposición que confíe en la traducción (completa o parcial). Sin
embargo, justamente lo que en lingüística es un anatema los empiristas lógicos lo dan por
supuesto: un mítico "lenguaje de observación" que ocupa el lugar de la lengua materna de los
traductores. Comencemos el trabajo de campo también en este dominio y estudiemos el
lenguaje de las nuevas teorías no en las fábricas donde se elabora el modelo del doble lenguaje,
sino en compañía de aquellos metafísicos, experimentadores, teóricos, dramaturgos y
cortesanas que han construido nuevas concepciones del mundo. Termina así nuestra discusión
del principio rector de la primera objeción contra el realismo y la posibilidad de teorías
inconmensurables.
Trataré ahora de unas cuantas consideraciones que nunca han sido presentadas de una manera
sistemática y con las que se puede terminar en unas pocas palabras. Para empezar, existe la
sospecha de que las observaciones que se interpretan en términos de una nueva teoría ya no
pueden ser utilizadas para refutar esa teoría. La sospecha se mitiga indicando que las
predicciones de una teoría dependen de sus postulados y de las reglas gramaticales asociadas
así como de las condiciones iniciales, mientras que el significado de las nociones primitivas sólo
depende de los postulados (y de las reglas gramaticales asociadas), así que se puede refutar una
teoría mediante una experiencia que sea interpretada por completo en términos de esa misma
teoría. Otra observación que se hace con frecuencia es que existen experimentos cruciales que
refutan una de dos teorías presuntamente inconmensurables y confirman la otra; por ejemplo:
el experimento de Míchelson-Morley, la variación de la masa de las partículas elementales y el
efecto Dopper transversal refutan MC y confirman RE. La respuesta a este problema tampoco
es difícil: adoptando el punto de vista de la relatividad encontramos que los experimentos que
por supuesto se describirán ahora en términos relativistas, al emplear las nociones relativistas
de longitud, duración, velocidad, etc., son relevantes para la teoría y encontraremos también
que apoyan a la teoría. Adoptando MC (con o sin éter) volvemos a encontrar que los
experimentos (descritos ahora en los muy diferentes términos de la física clásica) son relevantes,
pero también encontramos que socavan MC. ¿Por qué ha de ser necesario poseer una
terminología que nos permita decir que es el mismo experimento el que confirma una teoría y
refuta la otra? Pero ¿no empleábamos nosotros esa terminología? Bien, en primer lugar, sería
fácil, si bien algo laborioso, expresar lo que acaba de decirse sin afirmar la identidad. En segundo
lugar, la identificación no es, desde luego, contraria a nuestra tesis, porque ahora no estamos
utilizando ni los términos de la relatividad ni los de la física clásica, como se hace en una
contrastación, sino que nos estamos refiriendo a ellos y a su relación con el mundo físico. El
lenguaje en el que se lleva a cabo este discurso puede ser el lenguaje clásico, el relativista o el
ordinario. No es bueno insistir en que los científicos actúan como si la situación fuese mucho
menos complicada. Si actúan de ese modo, entonces o son instrumentalistas o están
equivocados: muchos científicos están hoy día interesados por fórmulas mientras que nosotros
estamos discutiendo interpretaciones. También es posible que estando familiarizados tanto con
MC como con RE vayan y vengan de una a otra de estas dos teorías con tal rapidez que parezca
que permanecen en el interior de un único universo del discurso. También se dice que al admitir
la inconmensurabilidad en la ciencia ya no podremos decidir si un nuevo punto de vista explica
lo que se supone que explica o si no estará deambulando por campos diferentes. Por ejemplo,
no sabríamos si una teoría física recientemente inventada todavía trata con problemas de
espacio y tiempo o si su autor no habrá hecho, por error, un aserto biológico. Pero no hay
necesidad de poseer tal conocimiento. Porque una vez admitido el hecho de la
inconmensurabilidad no surge la pregunta que subyace a la objeción (el progreso conceptual, a
menudo, hace que sea imposible plantear determinadas preguntas; así ya no podremos
preguntar por la velocidad absoluta de un objeto, al menos en tanto que tomemos en serio la
relatividad). Sin embargo, ¿no constituye esto una seria pérdida para la ciencia? ¡En absoluto!
El progreso se efectuó mediante ese mismo "deambular por campos diferentes" cuya
indecidibilidad tanto perturba ahora al crítico: Aristóteles vio el mundo como un
superorganismo, esto es, como un ente biológico, mientras que un elemento esencial de la
nueva ciencia de Descartes, de Galileo y de sus seguidores en medicina y biología fue su
perspectiva exclusivamente mecanicista. ¿Van a prohibirse tales desarrollos? Y si no van a
prohibirse, ¿entonces de qué quejarse? Una objeción estrechamente ligada a ésta, parte de la
noción de explicación, o reducción, y hace hincapié en que esta noción presupone la continuidad
de conceptos (se podrían emplear otras nociones para comenzar exactamente la misma clase
de argumento). Ahora bien, tomando nuestro ejemplo de antes, se supone que la relatividad
explica las partes válidas de la física clásica, ¡de aquí que no pueda ser inconmensurable con
ella! La respuesta vuelve a ser obvia. ¿Por qué habría de concernirle al relativista el destino de
la mecánica clásica salvo como parte de un ejercicio histórico? Sólo hay una cosa que podamos
legítimamente pedir a una teoría y es que nos dé una correcta descripción del mundo. ¿Qué
tienen que ver los principios de explicación con esta exigencia? ¿No es razonable suponer que
un punto de vista como el de la mecánica clásica que se ha visto que es deficiente en varios
aspectos no puede tener conceptos completamente adecuados, y no es igualmente razonable
tratar de sustituir sus conceptos por otros de una cosmología más acertada? Además, ¿por qué
la noción de explicación habrá de llevar la carga de la exigencia de continuidad conceptual? Se
ha visto antes (exigencia de derivabilidad) que esta noción era demasiado estrecha y que tenía
que ser ampliada para incluir conexiones parciales y conexiones estadísticas. Nada nos impide
ampliarla aún más para admitir, digamos, la "explicación por equivocación". Las teorías
inconmensurables pueden, pues, ser refutadas haciendo referencia a sus propios respectivos
tipos de experiencia (hay que notar, sin embargo, que en ausencia de alternativas
conmensurables estas refutaciones son bastante débiles). Su contenido no puede ser
comparado. Ni es posible hacer un juicio de verosimilitud excepto dentro de los confines de una
teoría particular. Ninguno de los métodos que Popper quiere utilizar para racionalizar la ciencia
puede aplicarse y el único que se puede aplicar, la refutación, ve grandemente reducida su
fuerza. Lo que queda son juicios estéticos, juicios de gusto, y nuestros propios deseos subjetivos.
¿Significa esto que vamos a acabar en el subjetivismo? ¿Significa esto que la ciencia se ha hecho
arbitraria, que se ha convertido en un elemento del relativismo general que Popper desea
atacar? Para empezar, me parece que una empresa cuyo carácter humano esté a la vista de
todos es preferible a una que se muestre "objetiva" e impermeable a las acciones y los deseos
humanos. Después de todo, las ciencias, incluidos todos los severos standards que parecen
imponernos, son creación nuestra. Es bueno tener siempre presente este hecho. Es bueno tener
siempre presente el hecho de que tal como la conocemos hoy la ciencia no es ineludible y que
podemos construir un mundo en el que no desempeñe ningún papel (me atrevo a sugerir que
ese mundo sería más agradable que el mundo en el que hoy vivimos). ¿Qué mejor para tenerlo
presente que darse cuenta de que la elección entre teorías que son suficientemente generales
para darnos una visión global del mundo y que están desconectadas empíricamente puede llegar
a ser una cuestión de gusto? ¿Que la elección de nuestra cosmología básica puede llegar a ser
una cuestión de gusto? En segundo lugar, las cuestiones de gusto no quedan completamente
fuera del alcance de la argumentación. Los poemas, por ejemplo, pueden compararse por su
gramática, su estructura sonora, sus imágenes, su ritmo; y se les puede evaluar con arreglo a
esas bases. Incluso los caprichos más artificiosos pueden ser analizados, y deben ser analizados
si se tiene el propósito de exponerlos de manera que o bien se pueda gozar de ellos o bien
aumentar el inventario emocional (cognoscitivo, perceptivo) del lector. Todo poeta que no sea
completamente irracional compara, mejora, arguye hasta que encuentra la formulación correcta
de lo que quiere decir. ¿No sería maravilloso que este proceso desempeñase también un papel
en las ciencias? Por último, hay modos más pedestres de explicar las mismas cosas que puede
que resulten algo menos molestos a los oídos del filósofo de la ciencia profesional. Podemos
considerar la longitud de las derivaciones que llevan desde los principios de una teoría a su
lenguaje de observación, y podemos también llamar la atención sobre el número de
aproximaciones realizadas en el curso de la derivación (todas las derivaciones deben ser puestas
en forma standard para este propósito de modo que pueda juzgarse la longitud de manera
ambigua; esta standardización concierne a la forma de la derivación, no concierne al contenido
de los conceptos empleados). Parece que cuanto menor sea la longitud y cuanto menor sea el
número de aproximaciones, mejor. No es fácil ver como este requisito puede hacerse
compatible con la exigencia de simplicidad y de generalidad, las cuales parece que tienden a
aumentar ambos parámetros. Sea como fuere, se nos abren muchos caminos una vez entendido
y tomado en serio el hecho de la inconmensurabilidad. Comencé indicando que el método
científico, en la forma débil expuesta por Lakatos, no es más que un adorno que nos hace olvidar
que lo que de hecho se ha adoptado es la postura de "todo vale". Consideré después el
argumento de que el método de los cambios de problemas, que quizá sea inútil en el primer
mundo, podía dar una correcta descripción de lo que pasa en el tercer mundo y podía
permitirnos ver la totalidad del "tercer mundo" a través de "gafas popperianas ". La respuesta
fue que también hay dificultades en el tercer mundo y que el intento de juzgar las cosmologías
por su contenido puede que haya de ser abandonado. Tal desarrollo, lejos de ser indeseable,
hace que la ciencia pase de ser una severa y exigente matrona a ser una atractiva y
condescendiente cortesana que trata de anticiparse a cada deseo de su amante. Es cosa nuestra,
desde luego, elegir un dragón o una gatita como compañía. Creo que no necesito explicar mis
propias preferencias.