Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
El modelo hamiltoniano, a través de una generalización bastante directa (aunque al principio bastante
insospechada) del modelo newtoniano, demostró posteriormente ser capaz de generar mecánica
cuántica, algo que el modelo newtoniano nunca podría haber hecho.
Por lo tanto, los modelos tienen vida propia, una dinámica autónoma independiente de la realidad
fenoménica.
Al construir modelos, los científicos proyectan su mente en el mundo de las cosas.
Los enormes éxitos de la modelización científica parecen mostrar que la mente es a la vez distinta de la
materia y de una pieza con ella.
Pero hay un cierto peligro en tal conclusión. Debido a que un modelo es mucho más puro, mucho más
fácil de dominar que el mundo de los fenómenos, existe el riesgo de que se convierta en el objeto
exclusivo de la atención del científico.
Las teorías, de hecho, las disciplinas completas se pueden organizar en torno al estudio de las
propiedades de un modelo:
testigo de la economía, que continúa explorando interminablemente los recursos (admirablemente
impresionantes) del modelo de equilibrio general que Walras le legó.
No está claro que la recién nacida "ciencia de la mente" haya evitado cometer el mismo error.
Manipulando representaciones
La doctrina de verum factum, que influyó en el desarrollo de las matemáticas, las ciencias morales y
políticas (incluida la historia) y las ciencias naturales y de la vida, no pudo evitar afectar nuestro
conocimiento de la mente una vez que la ciencia se encontró en posición de reclamar. a este último
bastión de la Creación.
Ese momento llegó cuando la ciencia se sintió segura al fin de poder dar una respuesta adecuada al
antiguo problema que había abandonado hace mucho tiempo a la filosofía, relacionado con la relación
entre el alma y el cuerpo o, para usar el vocabulario de hoy, entre mente y materia
La mente no es un producto de la mente: la conciencia no está hecha por sí misma. Fue por esta razón
que Vico reconoció una dimensión de opacidad irreductible en el cogito e incluso, como consecuencia,
en el dominio sociohistórico.
Hasta la publicación de ciertos resultados obtenidos por lógicos matemáticos en la década de 1930, era
posible repetir lo que Hobbes había escrito casi trescientos años antes en De homine (1658):
Conocer las cantidades, entonces, para manipular las representaciones de acuerdo con
reglas bien definidas. Aunque esta proposición es fiel al espíritu del paradigma dominante
de la ciencia cognitiva, sin embargo, carece de algo esencial. Lo esencial que falta tiene
que ver con la naturaleza lógica de las reglas y manipulaciones en cuestión. Los modelos
científicos se expresan típicamente en forma matemática, como hemos observado; más
precisamente, como un sistema de ecuaciones diferenciales que expresa una relación
entre magnitudes. Los años inmediatamente anteriores a la década que presenció el
nacimiento de la ciencia cognitiva, la historia que estamos a punto de recordar, muestran
la creación de modelos matemáticos tanto del sistema nervioso como de los circuitos
eléctricos. Sin embargo, tomó el genio de McCulloch y Pitts, por un lado, y de Shannon
por el otro, para ver que se necesitaba otro tipo más pertinente de modelo, un modelo
lógico. No solo se podría describir el funcionamiento de ciertos sistemas físicos en
términos lógicos; estos sistemas físicos podrían representarse como la encarnación de la
lógica, la forma más elevada de pensamiento.
La máquina de Turing
Para estar seguro, al principio era el logos de la palabra; pero la palabra (logos) resultó ser una
máquina.
Cuando, en 1936-1937, Alan Turing publicó su famoso artículo "Sobre números computables, con una
aplicación al Entscheidungsproblem",
difícilmente podría haber sabido que estaba anunciando el nacimiento de una nueva ciencia de la
mente.
Su interés estaba en resolver un problema
de la lógica planteada por Hilbert que tenía que ver con la decisión (Entscheidung): dada cualquier
fórmula del cálculo de predicados, ¿existe un procedimiento efectivo, general y sistemático para decidir
si la fórmula es o no demostrable?
Desde 1931, cuando Kurt Godel publicó su artículo, apenas menos famoso, "Sobre proposiciones
formalmente indecidibles de Principia Mathematica y sistemas relacionados", la pregunta había
adquirido una nueva actualidad.
Lo que Godel hizo fue establecer un teorema de "incompletitud": cualquier sistema formal en el sentido
lógico (es decir, uno que proporciona un lenguaje formal -un conjunto de fórmulas que deben tomarse
como axiomas- y reglas de inferencia). que es suficientemente rico para acomodar la aritmética tiene la
siguiente propiedad:
o bien el sistema es inconsistente (es decir, genera teoremas contradictorios) o existe al menos una
proposición verdadera que no es comprobable dentro del sistema.
En el último caso, por lo tanto, la fórmula correspondiente a esta proposición no es un teorema, ni,
obviamente, es su negación, ya que esto corresponde a una proposición falsa.
Incluso si el conjunto completo de los teoremas del sistema fueran completamente desempaquetados,
ni la fórmula ni su negación encontrarán jamás.
Mientras uno permanezca "dentro" del sistema, uno nunca llegará al valor de verdad de la fórmula, que
por lo tanto se llama "indecidible".
"Para establecer este resultado, Godel hizo una jugada clave. Mostró que era posible usar números
enteros para codificar no solo fórmulas sino también secuencias de fórmulas, particularmente aquellas
secuencias que constituyen pruebas.
Una proposición que afirma que una fórmula dada es demostrable puede así expresarse en la forma de
una proposición aritmética.
Esta aritmetizacion de la lógica dio una base rigurosa(fundamento a la máxima de que el
razonamiento consiste en computar (con números enteros).
Sin embargo, el teorema de incompletitud no proporcionó una solución al problema planteado por
Hilbert.
Para que la importancia del teorema sea plenamente apreciada, era necesario aclarar lo que
implicaban nociones tales como "cálculo efectivo" y "procedimiento finito", en vista del hecho de que lo
que el teorema afirma es la no existencia de algo decidible, constructible, procedimientos operacionales
adecuados para responder ciertas preguntas sobre los sistemas formales que se plantean dentro de
estos sistemas.
En otras palabras, lo que aún faltaba era una definición rigurosa y matemática del algoritmo.
Sin esa definición, no podría haber una respuesta definitiva al problema de Hilbert.
Ya en 1936 hubo varios intentos de especificar la noción de computabilidad efectiva, incluida una
sugerencia del propio GOdel.
("recursividad general", "definición de lamhda", etc.).
Sorprendentemente, estas diversas caracterizaciones, a pesar de ser tan diferentes en espíritu, definen
la misma clase de funciones.
Son equivalentes, en el sentido de ser coextensivos. Por lo tanto, era tentador suponer que esta clase
única correspondía a la noción intuitiva de computabilidad efectiva.
Ese mismo año, independientemente de Turing, Alonso Church dio el salto decisivo.
Evidentemente, la equivalencia no fue nada en sí misma. Podría ser perfecto
Bien ha sido el caso que, casualmente, cada caracterización de este tipo pasó por alto la marca, en este
caso, la formalización de la noción intuitiva de un procedimiento automático, gobernado por reglas fijas
desprovistas de cualquier significado, interpretación o creatividad.
La verdad del asunto es que no había nada que probar: el problema de cuadrar las definiciones
matemáticas con un sentido preteórico de un procedimiento tan automático no es algo susceptible de
demostración formal.
Esta es la razón por la cual Church lanza su sugerencia de que cada función computable (en el sentido
intuitivo) es una función recursiva (en el sentido matemático) en la forma de una tesis más que de una
afirmación comprobada.
No podría ser probado, de la misma manera que la definición matemática de una esfera podría ser
idéntica a nuestro concepto intuitivo de un objeto redondo.
Esta combinación de ideas aún carecía de un ingrediente decisivo, decisivo, en particular, para la
historia de la ciencia cognitiva. En retrospectiva, parece sorprendente que este ingrediente no
pareciera obvio en ese momento.
Ahora nos parece claro que la noción de computabilidad efectiva que se buscaba, que implica solo
procedimientos de ejecución "automáticos" a ciegas, se ilustraba más claramente por el funcionamiento
de una máquina.
Es debido a Turing que esta metáfora mecánica fue tomada en serio. En su notable estudio sobre el
desarrollo de la teoría de los autómatas, Jean Mosconi hace una interesante conjetura sobre la
naturaleza de la resistencia con la que se encontró esta idea.
en la década de 1930:
Teniendo en cuenta que las máquinas calculadoras que existían en ese momento -las perspectivas
abiertas por Babbage habían sido olvidadas mientras tanto-, cualquier referencia a las posibilidades
computacionales de una máquina podía considerarse
como estrechando arbitrariamente la idea de computabilidad. . . . Si para nosotros el significado natural
de "computabilidad mecánica" es "computabilidad por una máquina", parece probable que hasta que
Turing apareciera, "mecánico" se usaba en un sentido bastante metafórico y no significaba nada más
que "servil" (de hecho
el término "mecánico" todavía se usa en este sentido hoy para describir el
ejecución de un algoritmo).
En el momento de las Conferencias Macy, diez años más tarde, estos frenos antimechanistic estaban
totalmente desgastados.
En su artículo de 1936-1937, Turing propuso una formulación matemática
de la noción abstracta de una máquina.
El propio Turing creía que por medio de este concepto había logrado penetrar en la esencia del
procedimiento mecánico.
La afirmación hecha en su documento es que Mevery procedimiento mecánico puede ser modelado por
una máquina de Turing. Dado que tales procedimientos son "funcionales" (en ambos sentidos de la
palabra, el que tiene que ver con el funcionalismo en el sentido descrito anteriormente, el otro en el
sentido de una función matemática) y que, en última instancia, lo que está en cuestión es
computación, la afirmación equivale a afirmar que cada función mecánicamente computable es
computable por una máquina de Turing
. Pero esta afirmación, conocida como la "tesis de Turing", obviamente no es más comprobable que la de
Church. Mientras que "computación de Turing" tiene una definición formal, la computabilidad mecánica
sigue siendo una noción vaga e intuitiva.