Sei sulla pagina 1di 185

Alberto Valenti

Mauro Murzi

IL FILOSOFO E
I MODELLI

LA FILOSOFIA CIRCOSCRIZIONISTA DELLA


SCIENZA
Riconoscimenti e URL delle immagini al 29 aprile 2019
La foto di Giovanni Vattimo ha licenza Creative Commons Attribution-
ShareAlike 2.0 Generic. È stata pubblicata da Secretaría de Cultura de la
Nación. Rielaborata in bianco e nero dall’originale a colori.
https://flickr.com/photos/52498302@N08/16106465993
La foto di Richard Rorty ha licenza Creative Commons Attribution-
ShareAlike 4.0 International. Rielaborata per migliorare la risoluzione.
https://pt.wikipedia.org/wiki/Ficheiro:Una_foto_en_la_ventana_de_Rorty_e
n_Barcelona.jpg
La foto di Martin Heidegger ha licenza Creative Commons Attribution-
ShareAlike 3.0 Unported. Dettaglio di una foto di Willy Pragher pubblicata
sul sito del Landesarchiv Baden-Württemberg.
https://commons.wikimedia.org/wiki/File:Heidegger_4_(1960)_cropped.jpg
La foto di Otto Neurath è di pubblico dominio. È parte di una foto di
Heinrich Hoffman conservata presso Schwadron Collection of the National
Library of Israel. Rielaborata per eliminare alcune imperfezioni.
http://beta.nli.org.il/he/archives/NNL_ARCHIVE_AL002782209/NLI
La foto di Karl Raimund Popper non ha copyright.
https://commons.wikimedia.org/wiki/File:Karl_Popper.jpg
La foto di Kurt Gödel non ha copyright.
https://en.wikipedia.org/wiki/File:Kurt_gödel.jpg
La foto di David Hilbert è di pubblico dominio.
https://commons.wikimedia.org/wiki/File:Hilbert.jpg
La foto di Arend Heyting ha licenza Creative Commons Attribution-
ShareAlike 3.0 Unported. La foto fu scattata al Congresso Internazionale di
Logica, Metodologia e Filosofia della Scienza il 25 agosto 1976 dal
fotografo Jac. de Nijs.
https://www.nationaalarchief.nl/onderzoeken/fotocollectie/detail/ab24b838-
d0b4-102d-bcf8-003048976d84
Introduzione: modello sintattico e semantico

Il modello sintattico è uno strumento per rappresentare le teorie


scientifiche, in modo utile ma incompleto. Esso identifica una teoria
scientifica con l’insieme degli enunciati derivabili dagli assiomi. Ha
alcuni limiti, la cui individuazione è anche uno degli obiettivi della
filosofia della scienza. Prima di farlo, però, è utile ricordarne i meriti.
Un pregio del modello sintattico è che rappresenta le teorie
scientifiche in modo semplice. Il modello sintattico descrive una
teoria scientifica seguendo lo schema degli Elementi di Euclide. Dà
quindi un’immagine della scienza come di una disciplina more
geometrico demonstrata. Si appoggia a una lunga e nobile tradizione,
che risale alla matematica greca. Come Tarski ha definito in termini
matematici esatti la nozione intuitiva di verità, così il modello
sintattico ha definito in termini logici esatti la nozione intuitiva di
teoria scientifica.
Un’altra dote del modello sintattico è che in esso è facile
formalizzare nozioni apparentemente difficili, come quelle di
“contenuto osservativo di una teoria”, “corrispondenza tra termini
teorici e osservativi” e “struttura di una teoria”. La formulazione
dell’enunciato di Ramsey, agevole nel modello sintattico, permette di
dare un senso preciso e determinato alla tesi dello strutturalismo,
ossia che la scienza fornisce la conoscenza della struttura logico-
matematica degli oggetti studiati e non la conoscenza delle loro
proprietà.
Altra virtù del modello sintattico è la facilità con cui si può
formulare e discutere l’ipotesi del realismo scientifico. Alla base del
realismo scientifico c’è l’intuizione che le teorie scientifiche sono
descrizioni vere, o almeno verosimili, della realtà. Sappiamo che la
verità può essere affermata, riconoscendola come una proprietà, di
uno o più enunciati. Il realismo scientifico, dunque, può essere
agevolmente esposto nel modello sintattico, perché il modello
sintattico identifica la teoria con un insieme di enunciati che possono
essere veri o falsi.
Il modello sintattico si presta quindi ad analisi logico-matematiche
che ne identificano esattamente i limiti. Parliamo di questi limiti. In
primo luogo, il modello sintattico offre una descrizione adeguata di
una teoria scientifica solo quando tale teoria è coerente. Ad esempio,
le leggi di Keplero possono essere rappresentate bene nel modello
sintattico perché la loro formalizzazione è coerente. Tuttavia, quando
si cerca di analizzare una teoria complessa come la meccanica
classica, il modello sintattico mostra i propri limiti. Le ipotesi fisiche
usate per spiegare il moto dei corpi celesti sono tra loro incoerenti.
Dunque, il tentativo di assiomatizzare la meccanica classica
nell’ambito del modello sintattico causerà contraddizioni. Il modello
sintattico non è quindi adatto per rappresentare la meccanica classica.
In tal caso, è preferibile il modello semantico, che identifica una
teoria con l’insieme dei modelli logico-matematici utilizzati.
Il modello semantico che noi proponiamo è comunque diverso da
quello comunemente adottato. I sostenitori del modello semantico
assumono che i modelli che formano una teoria scientifica siano tra
loro coerenti. Il modello semantico è un duplicato di quello
sintattico: i modelli di una teoria scientifica sono le interpretazioni
che rendono veri, nel modello sintattico, gli assiomi della teoria. Il
modello sintattico, da parte sua, definisce quali sono i modelli
semantici accettabili. Noi invece sottolineiamo che i modelli che
compongono una teoria scientifica, di solito, non sono tra loro
compatibili, ma sono tra loro contraddittori. Nonostante la loro
contraddittorietà, i modelli di una teoria scientifica sono spesso usati
insieme, senza essere chiaramente distinti e senza avvertire il lettore
del cambio da un modello all’altro.
Secondo noi, il modello sintattico è valido per ciascuno dei modelli
utilizzati in una teoria scientifica, a condizione che tali modelli siano
internamente coerenti. Ossia, ogni modello coerente usato nella
teoria scientifica è definito mediante un insieme di assiomi, espressi
in forma linguistica. Tralasciamo consapevolmente qualsiasi
osservazione sull’incompletezza dell’approccio sintattico, poiché
siamo ben lontani da quel livello di conoscenza della struttura delle
teorie scientifiche in cui l’incompletezza può assumere un ruolo
rilevante.
È a questo punto necessario osservare che la parola “modello” ha
diversi significati, alcuni dei quali si sovrappongono, rendendo
possibili fastidiosi fraintendimenti. Nel solo campo della logica e
della filosofia della scienza, che qui ci interessa, “modello” può
significare:
1) un modo per rappresentare, in filosofia della scienza, le teorie
scientifiche (es.: modello sintattico e modello semantico);
1) una struttura astratta, di natura logico-matematica, in cui gli
assiomi della teoria sono veri (come quando si dice che i numeri
naturali sono un modello dell’aritmetica di Peano);
2) un’interpretazione di un linguaggio formale, in cui gli assiomi
della teoria hanno un determinato valore di verità, che può anche
essere il Falso;
3) una rappresentazione incompleta di una porzione della realtà,
usata per applicare una teoria scientifica a un particolare sistema
fisico (come quando si parla del modello atomico dei gas);
4) una struttura fisica concreta che rappresenta un sistema fisico
(come nel caso del modello a “biglie e bastoncini” delle
molecole);
5) una struttura astratta, che può anche essere generata da un
computer tramite software (come quando si usa una simulazione
per studiare l’impatto tra due galassie).
Un limite del modello sintattico, ma anche di quello semantico
tradizionale, è che talvolta la teoria che si vorrebbe descrivere usa un
modello internamente contraddittorio. Gli scienziati evitano di
derivare contraddizioni non asserendo tutte le conseguenze logiche
delle premesse. In tal caso, la teoria non è chiusa rispetto alla
nozione di conseguenza logica, che è invece essenziale sia per il
modello sintattico sia per quello semantico. La teoria in questo caso
si identifica con l’insieme degli enunciati (o delle strutture
semantiche) che lo scienziato effettivamente deduce e utilizza, non
con l’insieme delle conseguenze logiche delle premesse.
In questo libro, cerchiamo di illustrare la struttura logica delle
teorie scientifiche ricorrendo sia al modello sintattico sia a quello
semantico. Entrambi hanno vantaggi e svantaggi. Li useremo in
maniera proficua là dove essi sono applicabili.
Capitolo 1. Come la filosofia
circoscrizionista si inserisce nella filosofia
continentale

1.1 Le nuove frontiere dell’ermeneutica


Gianni Vattimo, in Oltre l’interpretazione1, si sofferma in
particolare sulle conseguenze degli sviluppi recenti della filosofia
ermeneutica che provengono dal mondo delle scienze 2. Egli spazia su
vari momenti della filosofia ermeneutica (o “continentale”) e si
confronta con molte scuole, tendenze e pensatori, andando
dall’Husserl della Krisis3 all’Habermas di Teoria dell’agire
comunicativo4, da Kuhn a Marquard.
La tesi di fondo di Vattimo è che tali sviluppi mostrano come
l’esito maturo e consapevole dell’ermeneutica sia il nichilismo. Le
basi di questa posizione nichilistica sarebbero secondo Vattimo da
rintracciare negli sviluppi della scienza. “Nichilismo” significa
soprattutto, qui, negazione della metafisica, negazione dei punti di
avvio della riflessione metafisica.
Questo esito nichilistico dell’ermeneutica risulta chiaramente, si
mostra in tutta la sua forza se si esamina l’ambito, solitamente
trascurato dai filosofi continentali, delle scienze naturali. Allora, la
tesi di Vattimo è meglio precisabile come segue: la scienza
1
Vattimo 2002. Questi temi erano già stati affrontati in Vattimo 1985
all’ultimo capitolo (Cap. X – Nichilismo e postmoderno in filosofia, pp.
172-189). Il saggio era già uscito in aut aut n. 202 (1984), con il titolo La
filosofia del mattino.
2
Questo capitolo è ricavato, con modifiche sostanziali, da Valenti 1994.
3
Husserl 1936.
4
Habermas 1981.
occidentale è il luogo in cui si mostra l’irreparabile naufragio del
pensiero metafisico.

Gianni Vattimo
La scienza è sì (heideggerianamente) figlia della metafisica, ma si
rivela essere figlia matricida. È dalla scienza e grazie alla scienza,
allora, che giunge la notizia della fine della metafisica. Sta alla
filosofia, in particolare a quella “voce comune” della coscienza
europea che è la filosofia ermeneutica, interpretare l’annuncio
proveniente dal mondo della scienza/tecnica, articolare
argomentativamente quello che la scienza ha inesorabilmente
sancito. Nietzsche aveva proclamato la “morte di Dio”.
Quell’annuncio andava inteso come la dichiarazione
dell’impossibilità di pensare ancora il Dio della metafisica, ossia
legato al rinvenimento del fondamento e delle certezze
incontrovertibili della metafisica. Se quella nietzschiana era una
profezia, è ora dalla scienza, sostiene Vattimo, che giunge la notizia
preannunciata da Nietzsche.
Con questa notizia dobbiamo fare filosoficamente i conti. Quanto
asserito dal filosofo torinese costituisce certamente una novità nel
campo del pensiero ermeneutico (o continentale). La sua definizione
del ruolo della scienza nella dissoluzione della metafisica costituisce
un rovesciamento rispetto alle idee di quei pensatori (pensiamo a
Heidegger e a Gadamer, innanzitutto) che hanno relegato le scienze
ad un ruolo tecnico, estraneo ai temi filosofici della verità e della
conoscenza veritiera.
Questa posizione di Vattimo, inoltre, è in rilevante contrasto con
quella di altri debolisti, quali Odo Marquard5, secondo il quale la
cultura umanistico-filosofica espressa dal pensiero post-moderno ha
soprattutto una funzione difensiva, di riparo, per lo husserliano
“mondo della vita” (lebenswelt). Riparo e protezione nei confronti
della aggressiva crescita della scienza/tecnica nel nostro mondo. Il
“moderno” è caratterizzato soprattutto dal pensiero tecnico e
scientifico: dunque il post-moderno è una risposta al pensiero
moderno, alla situazione impressa all’umanità a partire dall’epoca
moderna. Poiché costituisce un tentativo di correzione o di
indebolimento del “mondo delle macchine”, il post-moderno è, in tal
senso, ben inserito nel moderno. Il post-moderno è infatti una specie
di panacea, di dolcificante o, potremmo dire, l’oppio di chi è travolto
dal mondo e pensiero moderni, di chi è stordito dalla accelerazione
impressa al mondo dal moderno.
Se il post-moderno ha, nel pensiero di Marquard, questa funzione
vicaria, necessaria per alleviare le asprezze della vita nel mondo
della scienza/tecnica, della produzione, della massificazione, allora è
evidente che tra moderno e post-moderno non c’è opposizione o
contrapposizione; essi rappresenterebbero due categorie
complementari e due realtà compatibili, sia pure dialetticamente
compatibili. Questa interpretazione di Marquard del post-moderno,
se inserita nella concezione heideggeriana della scienza come
prodotto del pensiero metafisico, significherebbe che anche il post-
moderno, in quanto parte (nel senso detto) del moderno, rientra nel
sistema di pensiero e nel mondo creati dal pensiero metafisico greco.
Un esito, questo, di segno opposto a quello della riflessione di
Vattimo.

5
Marquard 1986, Marquard 1989.
Vedremo nel seguito quale forza e quale coerenza manifesti la
posizione vattimiana, se paragonata alla posizione di Marquard, così
consolatoria, accomodante e, insieme, così “umanistica”. L’impianto
concettuale di Vattimo appare ben più motivato, articolato e
rigoroso.

1.2 Ermeneutica e mondo della scienza


Vattimo parte dalla contrapposizione, presente nella tradizione dei
pensatori ermeneutici, tra scienze dello spirito e scienze della natura.
Questa contrapposizione ha un esempio rilevante in Verità e metodo6
di Hans-George Gadamer. Il titolo di quest’opera sembra suggerire
una disgiunzione tra verità e metodo nelle scienze. Alla scienza
matematico-sperimentale spetterebbe cioè il primato del metodo, non
quello della verità.
È a tutti nota la sentenza di Martin Heidegger che “la scienza non
pensa”7. In qualche circostanza il pensatore friburghese ha più volte
ripetuto che “la scienza è roba da tecnici”. Altrettanto nota è la
valutazione complessiva che Heidegger dà del mondo della
scienza/tecnica e del modello di razionalità proposto dalle scienze.
Secondo Heidegger, la scienza appronta, attraverso il suo metodo, un
insieme di apparati concettuali e pratici che altro non sono che
strumenti di dominio (tecnico oppure simbolico) del mondo. Questa
ragione strumentale, calcolatrice, assetata di dominio, ha smarrito il
senso dell’essere.
La radice di questo smarrimento, di questa smemoratezza del senso
dell’essere è però, secondo il pensatore tedesco, da ricercare nella
metafisica greca. È la metafisica greca ad aver oscurato il vero senso
dell’essere e ad aver preparato una concezione del mondo in cui la
scienza/tecnica ha potuto successivamente affermarsi. Qual è questo
senso vero, originario dell’essere? Heidegger parla a questo
proposito di essere come evento, come accadere della verità.

6
Gadamer 1960.
7
“Die Wissenschaft denkt nicht” in Heidegger 1954 p. 4.
Tra i modi in cui questo accadere si fa presente all’uomo, tra gli
eventi inaugurali dell’essere, egli annovera l’opera d’arte, l’evento
politico, le grandi esperienze religiose e le interrogazioni filosofiche.
Mancano, in questo elenco, le scoperte scientifiche. Infatti
Heidegger considera la scoperta scientifica come in qualche modo
preannunciata nel sistema logico-deduttivo nel cui ambito viene
rinvenuta, prodotta, enunciata. Nella scienza secondo Heidegger non
ci sono novità vere e proprie, ma solamente deduzioni di risultati già
implicitamente contenuti nelle premesse della teoria. Ciò è
particolarmente evidente nei sistemi assiomatici, in cui gli assiomi
iniziali della teoria contengono in nuce tutto quanto verrà man mano
dedotto nei teoremi.
Per questo si può affermare che la scienza calcola, non pensa. Se la
raffigurazione heideggeriana della scienza suona rassicurante per i
sistemi deduttivi, non va dimenticato che la scienza non è costituita
da un unico sistema deduttivo, ma la storia della scienza ha visto un
succedersi di tali sistemi (deduttivi e non-deduttivi). Karl Popper ha
descritto l’affermarsi di una teoria su un’altra attraverso il processo
di falsificazione: a seguito di un disaccordo tra teoria ed esperienza
occorre introdurre un’altra teoria al posto di quella “vecchia”.
Resterebbe il problema, nella concezione ispirata ad Heidegger, di
come considerare questo subentrare di una teoria ad un’altra. È anche
questo un “evento inaugurale dell’essere”?
Tale problema si manifesta anche se si adotta la descrizione di
Thomas Kuhn del progresso scientifico attraverso sostituzioni
rivoluzionarie di teorie con altre. Qui “rivoluzionario” significa: con
ripercussioni su tutto il quadro teorico della scienza e su quello
globale di percezione della realtà. A quest’ultima teoria
epistemologica fa riferimento il filosofo americano Richard Rorty.
Rorty8 suggerisce che le categorie interpretative della filosofia
ermeneutica possano utilmente affiancare gli strumenti concettuali
elaborati dagli epistemologi, al fine di pervenire ad una migliore
comprensione della scienza. Rorty fa questo proprio utilizzando la
filosofia della scienza di Kuhn. Egli suggerisce che la descrizione di
Kuhn possa essere utilmente arricchita ricorrendo all’ermeneutica.
8
Rorty 1979.
Da un lato, l’epistemologia ci offre gli strumenti per descrivere e
capire la ricerca “normale” e gli scienziati “normali”, abili risolutori
di rompicapo e fedeli esecutori di un lavoro di routine, che non esce
dall’alveo stabilito dal paradigma in auge in quel momento;
dall’altro, l’ermeneutica è in grado di descrivere i cambiamenti di
paradigma, ossia le rivoluzioni scientifiche, mostrandocene la natura
di accadimenti (in senso heideggeriano).

Richard Rorty
È da notare che per Kuhn i cambiamenti rivoluzionari non
avvengono per motivi interni alla razionalità scientifica, non sono
cioè spiegabili a partire da strumenti interni alla razionalità
scientifica. Infatti essi rappresentano piuttosto il passaggio ad un tipo
di razionalità diverso dal precedente, poiché tutta la comprensione e
percezione della realtà viene interessata dal cambiamento e ne risulta
trasformata in modo imprevedibile.
Ecco quindi che, secondo Rorty, le rivoluzioni scientifiche di Kuhn
sono eventi inaugurali dell’essere, accadimenti originari della verità.
Dopo ogni rivoluzione scientifica, i ricercatori tornano al loro lavoro
“normale”, che consiste nel risolvere problemi definiti a partire da un
quadro comune accettato (ossia un nuovo paradigma). Questo
comprende un nuovo impianto assiomatico, regole di calcolo, un
insieme collaudato di tecniche di misura, il riferimento a certi
esperimenti considerati basilari. Non è detto che tutti questi elementi
costitutivi del paradigma siano stati rivoluzionati, ma il loro insieme
ha un aspetto nuovo e caratteristico del nuovo paradigma scientifico.
È questo, ora, a guidare il lavoro di ricerca.
Secondo Rorty, c’è una perfetta corrispondenza tra Kuhn e
Heidegger.
I periodi “normali” di ricerca, quelli cioè più frequenti e duraturi,
sono quelli in cui il lavoro di ricerca è in qualche modo di routine. In
questi periodi si vedono gli scienziati immersi nei loro calcoli del
tutto interni al sistema assiomatico accettato; i loro risultati, quindi,
sono in un certo senso prestabiliti e coerenti col quadro generale. Lo
scienziato normale di Kuhn è insomma facilmente interpretabile
come un tecnico immerso nei suoi calcoli, di cui ci parla Heidegger.
Non ci vuole molto, se si guarda a questo specialista, curvo sul suo
lavoro avaro di sorprese, a veder in esso niente altro che uno
specialista, un tecnico, una persona oltremodo specializzata ma
immemore del senso dell’essere.
Però la storia della scienza, sembra suggerirci Rorty, non è tanto
costituita dal paziente lavoro di questi oscuri operai specializzati, ma
è soprattutto e principalmente la storia delle sue rivoluzioni, dei
cambiamenti di teorie e quadri concettuali operati da pochi, geniali
individui. Nella storia della scienza, quindi, quello che veramente
conta sono le creazioni geniali, imprevedibili, che al pari delle opere
d’arte vanno considerate autentici eventi inaugurali dell’essere.
Vattimo accetta quanto sostenuto da Rorty, ma
contemporaneamente ne prende le distanze. La discussione condotta
dal filosofo americano gli sembra in larga misura estetizzante e un
poco “romantica”. È su un punto di essa che in particolare si
concentrano le critiche di Vattimo. Rorty assume che la scienza sia
una tra le tante voci della nostra società, della nostra cultura, senza
particolari titoli di rilevanza. Preoccupazione di Rorty è insomma
quella di garantire un terreno di discussione tra teorie e metodi
diversi.
Vattimo ricorda un ritornello costante di Rorty: “l’importante è che
la discussione continui”. Vattimo, invece, vuole sottolineare la
centralità della scienza per la riflessione filosofica che vuole
comprendere l’attualità storica ed i suoi motivi di fondo. Motivi
analoghi di insoddisfazione si possono secondo Vattimo palesare
riguardo alla impostazione di questi problemi di Habermas.
Questo pensatore ha cercato di ricomporre un quadro di razionalità
diverso da quello della sola razionalità scientifica. Per fare questo,
anch’egli ricorre al concetto, utilizzato anche da Marquard, di
lebenswelt (mondo vitale, mondo della vita). Habermas propone di
intendere per razionalità, in generale, l’argomentatività
intersoggettiva. È questa razionalità discorsiva che permette la
comunicazione tra individui e gruppi umani. Su di essa si basa
l’edificazione della democrazia e dell’agire politico nel mondo della
vita.
All’interno di essa, secondo Habermas, vanno assunti problemi e
linguaggi della razionalità tecnologica, ossia del mondo della
strumentalità e del dominio tecnologico. In effetti la razionalità
scientifico-tecnica necessita dell’assunzione entro un quadro di
significati e di valori più vasto. Se quest’ultimo ruolo viene svolto
dalla razionalità discorsiva (quella che permette l’agire
comunicativo), ciò dovrebbe garantire la possibilità di accordi
intersoggettivi ed il controllo della democrazia sulla scienza/tecnica.
Come si vede, ci troviamo in prossimità delle idee di Marquard
(resistenza umanistica alle istanze della tecnica) e di Rorty (necessità
di garantire le condizioni per la discussione intersoggettiva). Anche
Habermas, quindi, accoglie come valida l’istanza umanistica secondo
cui agli automatismi dell’organizzazione tecnica va affiancata e in
qualche modo contrapposta una razionalità politico/discorsiva. Il
fatto che nel discorso di Habermas sia implicita la convinzione che
bisogna resistere al mondo dell’organizzazione totale significa però
che si ha una opposizione tra istanze umanistiche e criteri tecnici, tra
scienze dello spirito e Naturwissenschaften.
Questo breve riassunto delle posizioni dei principali pensatori
dell’ermeneutica nei confronti del problema della scienza pone in
evidenza un atteggiamento generale di carattere negativo verso la
scienza. La critica del pensiero scientifico è anche teoreticamente
abbastanza radicale, per via della denuncia degli aspetti per cui la
razionalità scientifica non è sufficiente all’uomo in quanto inserito
nel mondo della vita. È rilevante, d’altra parte, anche la critica sul
piano pratico/etico (ovvero politico), in quanto si dichiara la
necessità di opporre resistenza alla colonizzazione del mondo
dell’uomo da parte della scienza/tecnica.
L’impostazione di Vattimo è, come dicevamo, radicalmente
diversa, di segno opposto. Essa asserisce infatti che nei confronti del
mondo della tecnica occorre non resistere, ma farsi carico della realtà
della scienza e delle implicazioni culturali che ne derivano. Come si
può vedere, rispetto a tutti gli altri pensatori post-moderni con cui si
confronta, Vattimo non pretende di avere compreso esaurientemente
la logica della scienza, ovvero la razionalità della scienza/tecnica; né
accetta di stabilire preventivamente quali atteggiamenti vadano
adottati nei confronti del mondo della organizzazione totale.
Secondo Vattimo è centrale il chiarimento delle implicazioni
filosofiche portate in essere dalla costituzione della scienza moderna
e dall’affermarsi del suo metodo. La posizione di Vattimo appare
perciò più animata da una preoccupazione di sobrio rigore che
tralascia, almeno per il momento, ogni preoccupazione pratica.
Non si può pertanto dare torto a Vattimo, quando dice che gran
parte della filosofia continentale rischia di essere invischiata nella
“incapacità di cogliere il significato nichilistico della filosofia
dell’interpretazione”9, né quando afferma che in tal modo
l’esperienza filosofica del postmoderno sembra faticare “a distaccarsi
da una generica, e spesso relativistica, filosofia della cultura” 10.
Lungi dall’adagiarsi in comode e consolanti narrazioni di quanto
accade nella nostra epoca, il pensiero deve accettare le sfide e
raccogliere le sollecitazioni che vengono dal nostro tempo, dalla
scienza, dall’organizzazione tecnica. Cercare di capire tali
sollecitazioni significa cercare di capirne fino in fondo le
implicazioni filosofiche. Questo diverso atteggiamento è secondo
Vattimo l’unico coerente con una impostazione di pensiero che si
vuole e si autopercepisce come postmetafisica.
Il superamento della metafisica significherà infatti per la filosofia
confrontarsi non più con strutture immutabili, pensate come il
fondamento del pensiero stesso, ma confrontarsi con gli accadimenti
9
Vattimo 2002 p. 25.
10
Vattimo 2002 p. 27.
nuovi ed originali dell’essere. Ma il modo nuovo ed originario con
cui l’essere ci si fa incontro nell’epoca contemporanea è
l’organizzazione della scienza/tecnica.
Questo è anche il pensiero di Heidegger, che in Identità e
differenza11 dichiara che nel mondo della organizzazione scientifica
si accende, si segnala la possibilità di un oltrepassamento della
metafisica.

Martin Heidegger

1.3 Babele delle immagini e tramonto della metafisica


Heidegger non ha proseguito sulla strada indicata in Identità e
differenza, saggio poco conosciuto e non in linea con le sue
valutazioni più abituali e note della scienza. È Vattimo a proseguire
coerentemente e originalmente il cammino indicato dal maestro
tedesco.
Qual è questo “lampeggiare” dell’accadimento dell’essere, questa
segnalazione di un essere come evento, di un essere non-metafisico
quindi, che ci si fa incontro nel mondo dell’organizzazione totale,
cioè nel mondo della scienza/tecnica? È a questo quesito che
11
Heidegger 1957.
Heidegger non ha dato risposta. Vattimo allora prende la parola e
prova ad aggiungere qualcosa a quanto detto/non detto da Heidegger.
Del suggerimento del filosofo di Messkirch egli propone una lettura
possibile (proponendo nello stesso tempo l’interpretazione del
carattere nichilista della scienza).
La metafisica pensa l’essere come presenza e oggettivazione, nel
duplice senso che pensa la verità come una e stabile, estranea al
fluire del tempo, quindi sempre presente (ancorché nascosta e
misteriosa) all’uomo. La metafisica concepisce l’essere come
oggettivato negli enti. Questo pensiero metafisico si pretende
universalmente valido. Pensa cioè di poter descrivere la totalità degli
enti, ossia tutto il mondo, tutta la realtà, e di avere un carattere di
necessità e di incontrovertibilità.
È, come noto, il tema del fondamento. La rivendicazione, operata
dalla metafisica, del carattere di necessità, ma anche il suo potere di
sintesi, di generalizzazione, mostra secondo Vattimo il carattere di
“violenza” del pensiero metafisico. Infatti la fondatezza dei discorsi
operati dalla metafisica, insieme alla loro generalità, riuscirebbero
nella loro sinergia a garantire il pensiero metafisico da ogni smentita.
Se da nessuna regione dell’essere può giungere una smentita al
discorso metafisico, significa che questo ha ottenuto, su tutte le
regioni dell’essere, una presa salda e invincibile.
Ciò mostra, secondo Vattimo, come dietro la pretesa di raggiungere
un sapere generalissimo, fondato ed incontrovertibile, non stia uno
sguardo “contemplativo” (o teoretico), distaccato, disinteressato, ma
un carattere di dominio. Questa idea, del resto, è già rintracciabile in
Friedrich Nietzsche, Karl Marx, Gilles Deleuze: le esigenze di
chiarezza, demarcazione e univocità di significati della metafisica
hanno il senso e la funzione di strutture di dominio.
La metafisica pensa allora l’ente in quanto l’ente consente una
rappresentazione, anzi diviene, in qualche modo, la sua
rappresentazione. Questo carattere di pensabilità dell’essere
attraverso l’ente che ne permette la dominabilità, non viene
abbandonato, ma anzi accresciuto ed enfatizzato nella pratica
scientifica.
Il metodo scientifico, la specializzazione della ricerca, la
settorializzazione del lavoro permettono di accrescere l’efficienza
nella produzione. Quest’ultima contiene al suo interno anche il
perfezionamento di immagini della realtà o di suoi settori. La scienza
non tradisce l’impianto fondamentale della metafisica. Ne è, invece,
il prodotto più compiuto ed efficiente.
La metafisica è riconducibile ad un principio unitario: che il mondo
sia rappresentabile come un sistema coerente di cause ed effetti. Ciò
implica che esista un’immagine del mondo: la scienza ha preso sul
serio questa idea del pensiero metafisico e l’ha incarnata
nell’organizzazione scientifica della ricerca. Se il pensiero antico e
medievale non pretendeva di avere accesso a questa “immagine del
mondo” (che pensava come una idea nella mente di Dio), il
passaggio all’età moderna è segnato proprio dal trasferimento
all’umanità della possibilità, anzi del compito di produrre tale
raffigurazione del mondo.
Nell’età moderna è alla scienza, nata o meglio rinata da poco 12, che
viene attribuito l’incarico di produrre questa “mappa” dell’universo.
Per questo si può dire, con Heidegger, che la modernità è il mondo
della scienza/tecnica.
In che senso si può sostenere, con Heidegger, che l’età della
scienza è anche l’età del compimento, della conclusione della
metafisica? Senza dubbio ciò va pensato in connessione alla
sottrazione di questa imago mundi all’ambito divino; l’immagine del
mondo viene tolta ad un soggetto divino per affidarla all’attività della
ragione umana, all’umano ragionare e calcolare. Però non può
trattarsi solamente di questo. Infatti in questo caso avremmo
solamente la sostituzione di una conoscibilità totale ad un’altra, del
passaggio da una metafisica teologicamente articolata ad una
metafisica antropologica. Cambierebbe il soggetto (Dio, l’uomo) del
conoscere, non l’articolazione della conoscenza, la sua portata, il suo
valore.
Perché allora si può dire che si ha un primo lampeggiare
dell’Ereignis nel mondo del Ge-Stell ? Vattimo suggerisce che ci sia
12
Ricordiamo infatti che la scienza, proprio la scienza che conosciamo, era
già stata creata dai Greci. Si vedano Schrödinger 1948 e Russo L. 1996.
un senso preciso in cui si può e si deve intendere questa
identificazione di età della scienza e momento dell’affossamento
della metafisica. Questo senso è l’effetto distruttivo del metodo
scientifico, dell’organizzazione specialistica della ricerca, sulle
categorie della metafisica.
La scienza nasce proprio dall’esigenza di disporre di un’immagine
del mondo, intendendo questa come un insieme di nessi causali
disponibili all’indagine e all’utilizzo operato nella pianificazione
pratica.
Il suo atto di nascita è quindi pienamente inscritto nel disegno
metafisico, nella concezione del mondo elaborata dalla metafisica.
Ma questa stessa esigenza, questo stesso progetto hanno accolto e
favorito la settorializzazione specialistica della ricerca, all’interno
della quale ha avuto luogo una crescente moltiplicazione delle
immagini del mondo.
Questa babele di immagini del mondo è legata alla messa in atto di
procedure scientifiche che esplicitano e concretizzano il carattere di
dominio della conoscenza attraverso rappresentazioni.
Quindi, riassumendo: la metafisica produce l’idea della
rappresentabilità del mondo; entro questa idea, nasce e si sviluppa la
scienza; la specializzazione della scienza produce miriadi di
immagini del mondo che frantumano il senso unitario della
metafisica. Come può essere accaduto ciò? È accaduto in quanto la
ricerca scientifica vive di ragioni organizzative, di regole
metodologiche sue proprie, che agiscono in un quadro caratterizzato
da una totale immanenza. È il carattere pratico (qui, la parola non
significa assolutamente riferito alla vita concreta, all’industria, alla
tecnica) e autoreferenziale della scienza.
Accade così che l’efficienza, la capacità di produrre risultati di una
rappresentazione, di un modello, di un’ipotesi, diventino fattori
primari per la sua accettazione. Passa decisamente in secondo piano
l’esigenza di collegare quel particolare modello, o ipotesi, ad un
quadro più vasto. Conta l’efficienza delle singole rappresentazioni,
non la coerenza del quadro complessivo.
Questa “filosofia” pragmatica, efficientista, che la scienza fa sua,
comporta una crisi dell’immagine unitaria del mondo. Infatti, ogni
specialista svolge il suo lavoro in contatto esclusivo con i suoi
colleghi di settore. È con la comunità di specialisti cui appartiene che
egli si confronta, discute ai congressi, condivide la letteratura
specialistica di riferimento. Questa comunità specialistica si
disinteressa o quasi, di quanto accade nelle altre comunità, negli altri
settori di ricerca.
È, sembra suggerirci Vattimo, da un punto di vista strettamente
sociologico (alla Kuhn) che si può capire e vedere come avviene la
dissoluzione dell’immagine unitaria del mondo.
La metafisica ha raffigurato il mondo come una rete coerente di
cause/effetti. Questa raffigurazione è lo spazio in cui si sviluppa la
scienza. Ma la specializzazione scientifica produce a sua volta una
miriade di rami autonomi di ricerca, una moltiplicazione di
comunità, metodi, pratiche di attività scientifiche autonome. Di qui
sgorgano rivoli sempre più numerosi e divergenti di immagini del
mondo.
L’epoca della immagine scientifica del mondo, cioè l’epoca
moderna, è caratterizzata in ciò che la differenzia concretamente
dalle età antica e medievale. L’epoca dell’immagine scientifica del
mondo dà luogo alla dissoluzione di questa immagine in una babele
di immagini contrastanti. Vattimo conclude: “è la scienza moderna,
erede e compimento della metafisica, che trasforma il mondo nel
luogo dove non ci sono (più) fatti, solo interpretazioni” 13. E con
questa lotta tra le visioni del mondo, l’epoca moderna entra (per
usare le parole di Heidegger) nel momento decisivo e probabilmente
più durevole della sua storia.
È la scienza, secondo Vattimo, ad operare questa frammentazione
dei racconti dell’essere, a congedarci da una storia (nel senso di
historische, Historia rerum gestarum) unitaria. È la scienza, in
definitiva, a sancire l’inesorabile emergere della frantumazione
interpretativa, l’evento epocale ed inaugurale della molteplicità delle
narrazioni possibili.
La scienza moderna ha, secondo Vattimo, come suo esito coerente
il pensiero debole. La scienza moderna, la modernità portano,
necessariamente ed inesorabilmente, alla post-modernità.
13
Vattimo 2002 p. 34.
1.4 Nuova epistemologia scientifica e obiezioni al pensiero debole
Fin qui, abbiamo seguito il discorso di Vattimo. Che ci racconta,
come si vede, la bella favoletta. In effetti, una obiezione sale subito
alle labbra, dopo aver sentito questa “narrazione” vattimiana. Non è
forse questo modo di presentare la storia delle idee degli ultimi due
secoli, in Europa, una “grande narrazione”, di quelle che il “pensiero
debole” riteneva andassero cancellate in toto dai libri dell’Occidente?
Però, al di là di tutte le critiche, occorre riconoscere una cosa buona
del suo racconto: l’aver individuato esattamente come e perché la
scienza non ha, oggi, un modello unitario (un’unica “immagine” del
mondo, direbbe Vattimo) da proporre. Vi sono effettivamente in
circolazione molte teorie, molti modelli. Filosoficamente, dal punto
di vista epistemologico, non è sempre chiaro quale sia la relazione tra
essi. Quel che è certo è che questa proliferazione di teorie e di
modelli ha distrutto, se c’era, l’immagine unitaria del mondo, della
realtà, che veniva dalla scienza. È qui che vorremmo inserirci nel
discorso di Vattimo.
Il progetto filosofico di Vattimo merita – lo ripetiamo – tutto il
nostro rispetto. Esso riesce a sistemare le contraddizioni e le
incertezze della tradizione ermeneutica europea. Il discorso che
Vattimo svolge è coerente e complesso, ricco e articolato. Va però
detto che vi è un aspetto importante per cui il discorso del filosofo
torinese si presta ad una obiezione fondamentale.
Tale aspetto è la mancanza di riferimenti a quanto la scienza e
l’epistemologia scientifica hanno prodotto in questi ultimi anni. In
particolare, Vattimo sembra fare riferimento, in modo cruciale, alle
considerazioni svolte da Heidegger nei saggi Identità e differenza
(1957) e Sentieri interrotti (1950). Vattimo ha buon gioco a
interpretare Heidegger sulla scia di Nietzsche, e Nietzsche sulla
scorta di quanto ne dice Heidegger. È un fatto che Heidegger aveva
una certa tendenza all’eschaton, tendenza cui non è estraneo lo stesso
Vattimo. Quest’ultimo ci fa, a volte, l’effetto di un dandy che si
diverta a camminare sull’orlo dell’abisso. Ma torniamo ad
Heidegger.
Non sappiamo quanto Heidegger fosse informato sulla scienza di
quegli anni. Alla sistemazione teorica della fisica quantistica (circa
1927-1930) era seguito un breve ma fecondissimo periodo segnato
dalla moltiplicazione di scoperte, applicazioni, nuovi percorsi teorici.
È in questo periodo che si assiste alla nascita di tantissime nuove
specializzazioni. Vattimo fa anche riferimento a Rorty, soprattutto in
quanto quest’ultimo rimanda al libro di Kuhn, La struttura delle
rivoluzioni scientifiche, che risale all’oramai lontano 1962.
Dobbiamo riconoscere che tali riferimenti (di Vattimo, Rorty e altri
autori) agli sviluppi della scienza e alle riflessioni filosofiche o
epistemologiche sono oggi superati per più aspetti. Il loro valore
storico è indubbio; ma riferirsi a tali sviluppi per capire ciò che
accade oggi, sotto i nostri occhi, ci pare francamente una operazione
indebita, oltre che rischiosa. Oggi, possiamo affermare che:
1) alla philosophy of science non si riconosce più la capacità di
descrivere il lavoro degli scienziati (tantomeno viene
riconosciuto il “diritto” di avanzare proposte normative nei
confronti della scienza);
2) il mondo della scienza produce esso stesso una epistemologia 14,
senza più ascoltare cosa la filosofia e la filosofia della scienza
hanno da dire al riguardo;
3) mentre la filosofia della scienza tradizionale ha posto l’accento
sulla tendenza alla specializzazione della ricerca (è una tendenza
cui Heidegger e Vattimo fanno riferimento – come abbiamo visto
– in modo cruciale), la scienza e l’epistemologia scientifica
richiamano la nostra attenzione sul problema dei rendimenti
decrescenti; la settorializzazione o specializzazione delle
ricerche ha prodotto, da un certo punto in poi, una crescente
penuria di risultati; si è allora ricorsi, per esigenze della ricerca
stessa, alla logica dei trasporti 15; da allora la ricerca

14
Citiamo almeno qualche nome, tra i più conosciuti, fra gli scienziati
(matematici, fisici, biologi, ecc.) che si sono dilettati di epistemologia:
Ageno 1992a, Amaldi 2004, Dirac 1939-83, Eddington 1938, Einstein 1950,
Feynman 1967, Heisenberg 1958, Jordan 1957, Kemeny 1959, Planck
1923-36, Schrödinger 1929-58, Wigner 1959.
15
Che cosa è la logica dei trasporti? Un risultato, un metodo risultato
valido in una disciplina o in un campo particolare di ricerca viene
trasportato in un altro ambito, un’altra materia di indagine, magari un’altra
interdisciplinare, i contatti tra specialità diverse sono andati
crescendo; ciò è ritenuto necessario ai fini della stessa
produttività scientifica;
4) è vero che, nel medioevo cristiano, vi era una immagine
prevalente del mondo; non è vero invece che essa venisse presa
molto sul serio da tutti i pensatori medioevali; ad esempio, S.
Tommaso dice16 che il mondo in cui viviamo lo vediamo in un
certo modo: ma potrebbe anche non essere così (e di questo non
gli importa poi molto); altra difficoltà, per Vattimo, viene dalla
tendenza della scienza all’unificazione (legata anche alla logica
dei trasporti, ma non solo); tale tendenza è proprio lo sforzo di
ottenere un’unica “teoria della realtà”, di ricondurre entro l’alveo
di un unico “grande modello” i rivoli delle indagini
specialistiche; i tentativi di grande unificazione, anche se hanno
conosciuto, e conoscono attualmente, momenti di grande crisi,
sono più che mai vivi nella scienza17.
Si badi: non stiamo semplicemente dicendo che Vattimo non sia
informato di quel che oggi accade nella scienza. Ciò non sarebbe poi
tanto grave. Stiamo dicendo che queste carenze di informazione si
ripercuotono sull’immagine complessiva che egli ha e dà della
scienza.
Ad esempio: la stessa possibilità di comunicazione tra ricercatori di
specialità diverse (come esplicitamente riconosciuta quando si parla
di logica dei trasporti) sottintende e mostra che i paradigmi (o
modelli) locali non sono chiusi in sé stessi, intraducibili gli uni negli
altri. Essi non sono cioè, per usare il linguaggio di Kuhn,
incommensurabili18.

scienza.
16
Tommaso d’Aquino, De Caelo et Mundo, II, lectio 17.
17
Horgan 1994. Questo è solo un esempio di un vasto numero di tali
tentativi, che non deve essere fonte di imbarazzo, dato che testimonia, se
non altro, la perenne attualità del relativo programma di ricerca. La proposta
di un quadro interpretativo unitario, coerente e sintetico, è evidentemente
nello spirito della scienza.
18
Kuhn 1962. Si veda anche Masterman 1970.
Questo significa che i modelli, le teorie dei vari specialisti non sono
entità monadiche, destinate all’isolamento, ma anche se restano
individuali, con una loro identità distinta, non sono oggetti senza
porte né finestre. Le immagini del mondo prodotte dai vari specialisti
non sono destinate ad una lotta gigantesca, piuttosto alla
collaborazione ed alla mutua integrazione. Heidegger parlava, in
Sentieri interrotti, della lotta tra le visioni del mondo, con cui l’epoca
moderna entra nel momento più decisivo e durevole (probabilmente)
della sua storia. A questa affermazione opponiamo che le immagini
del mondo (i modelli) prodotte dai diversi ricercatori sono contributi
differenti, integrabili, che possono arricchirsi a vicenda. Non sono
modelli (ovvero immagini del mondo) mutuamente escludentisi in
una logica aut-aut.
Vorremmo esaminare il ruolo, la struttura interna dei modelli, i
rapporti tra essi, il che significa rispondere alle domande che sorgono
spontanee dalla lettura di Oltre l’interpretazione di Vattimo. Si tratta
di dare insomma uno spessore filosofico alla sua “narrazione”. Una
narrazione, quella vattimiana, che contiene indubbiamente tante
verità accanto a qualche significativa menzogna 19. Al di là di questo,
si può prendere per buono quello che Vattimo dice sulla
frammentazione della visione del mondo prodotta dalla scienza e
chiedersi: che ruolo hanno avuto i modelli in questa
frammentazione? Ci sono poi tante domande che sorgono spontanee
a proposito di tale frammentazione: è legittima, dal punto di vista
epistemologico, tale frammentazione? Che riflessi ha questo sulla
nostra visione del mondo, sulla nostra cultura, sulla società nel suo
complesso? Perché, a volte, due o più rivoli divengono, da
19
Qualche esempio di menzogna può bastare. Vattimo citava, sulla scorta
di Heidegger, i sistemi logico-deduttivi, come esempio di sistemi in cui tutte
le verità sono già contenute nelle premesse. Ci basta pensare al teorema di
incompletezza di Gödel per negare che sia così. Precisamente, il teorema di
incompletezza di Gödel nega che si possa pensare l’attività dei matematici
come rimpiazzabile da un computer o un qualunque altro strumento
meccanico. Secondo quest’ultima visione, la matematica sarebbe un’attività
meccanica, già stabilita una volta che si siano introdotti gli assiomi della
teoria. Al matematico non resterebbe altro da fare che ricavare via via,
meccanicamente, le conseguenze degli assiomi, in forma di teoremi.
divergenti, convergenti? Ci sono solamente ragioni “interne” per
questa moltiplicazione dei rivoli, o anche “esterne”? La
frammentazione è per caso già inscritta nella scienza all’atto della
sua nascita, con Galileo?
Occorre allora, innanzitutto, andare a vedere come si sviluppa una
tale frammentazione di immagini nella scienza. Perché, scopriremo,
è all’interno della scienza che si produce una tale moltiplicazione di
immagini. Ciò vuole dire: ci sono ragioni che soltanto
l’epistemologia può e deve scoprire, per chiarire come la scienza
avanza.
Poiché Vattimo parla di immagini del mondo, noi dobbiamo parlare
di modelli. Questo è un libro di filosofia, ma di filosofia della
scienza. C’è più di un perché, nell’utilizzo, da parte di Vattimo, di
quella locuzione, “immagini del mondo”. Come già detto in altra
occasione, da un modello qualunque è facile, immediato, trarne una
immagine del mondo. Il filosofo salta qui alle conclusioni, quindi.
Eppure, se uno stesso modello viene trattato in diversi modi (con
diversi modelli) ne nascono altrettante visioni del mondo. Pertanto, è
più prudente parlare di modelli, oltre che più aderente alla ricerca
scientifica.
Che bisogno c’è di un libro sui modelli usati nella scienza? Non c’è
già abbastanza letteratura sui modelli scientifici? A questa domanda
bisogna rispondere con un deciso sì. Però è letteratura specialistica,
molto specialistica. Nell’ambito della filosofia della scienza, ed
ancor più nella filosofia della scienza italiana, manca un libro sui
modelli scientifici, che sia abbastanza semplice: insomma un libro
che appartenga alla filosofia della scienza divulgativa, anziché a
quella specialistica. Non vogliamo scrivere per un pubblico di soli
specialisti in filosofia della scienza, ma per un più vasto pubblico di
persone istruite ed interessate a questi problemi. Se noi ci siamo
decisi a scrivere questo libro, è perché ci offre molte occasioni per
rafforzare la nostra teoria circoscrizionista della scienza 20.
Ricordiamo cosa dice questa teoria:
1) Ogni teoria scientifica non viene falsificata, ma piuttosto
circoscritta.
20
Valenti 2012, Valenti 2014, Murzi e Valenti 2014.
2) Quindi essa ha a disposizione un campo di validità che riesce a
gestire. Nel proprio campo di validità, ogni teoria è praticamente
certa; ossia, è al riparo dalle falsificazioni.
3) Le procedure con cui uno scienziato cerca di stabilire qual è il
dominio della propria teoria non sono diverse da quelle di uno
che stia cercando (o meglio: credendo di cercare) di falsificarla.
4) Ogni teoria scientifica ha controesempi.
5) I controesempi non dimostrano che la teoria è falsificata e deve
essere sostituita con una migliore, ma segnalano che il limite del
campo di validità della teoria è stato oltrepassato.
6) Gli scienziati hanno fiducia in una teoria solo quando il suo
campo di validità è stato delimitato (ossia, solo quando la teoria
è stata apparentemente falsificata).
7) La storia della scienza non è un cimitero di teorie falsificate, ma
il campo vivo di teorie che hanno trovato il loro proprio campo
di applicazione.
8) Chi accetta il falsificazionismo giudica il comportamento degli
scienziati irrazionale, perché gli scienziati si ostinano a usare,
sviluppare e insegnare teorie falsificate. Il distacco tra la teoria
del falsificazionismo e la pratica dell’attività scientifica ha
favorito lo sviluppo dell’irrazionalismo e della tesi “anything
goes” (qualsiasi cosa può andar bene).
9) La sorte di una teoria non dipende dal suo essere vera o falsa. È
quindi fuorviante parlare della verità o della falsità delle teorie
scientifiche. La nozione di “verità” deve essere sostituita con
quella di “campo di validità”.
10) Gli scienziati usano modelli di una medesima teoria che sono
contraddittori tra di loro e con i principi della teoria stessa. La
teoria sembra non contenere contraddizioni esplicite perché gli
scienziati non enunciano tutte le conseguenze che derivano dai
modelli usati. Le teorie scientifiche non sono chiuse rispetto alla
nozione di conseguenza logica.
11) Le teorie scientifiche possono essere descritte come un insieme
di modelli (preferenza per la rappresentazione semantica rispetto
a quella sintattica).
12) La scienza è il miglior modo per acquisire conoscenza e per
scoprire spiegazioni.
Il nostro obiettivo è vedere se il modo in cui i modelli entrano nella
scienza può aiutarci a dare forza a questa teoria.
La scienza vive oggi una strana contraddizione. Infatti, come
abbiamo più volte chiarito, la scienza è, da un lato, limitata in ogni
sua teoria a certi domini21. Però, dall’altro lato, la scienza è abitata da
una incontenibile tendenza a colonizzare ogni aspetto del mondo
conosciuto. A questo fenomeno, in particolare per la scienza fisica,
Roberto Fieschi ha dedicato un libro22. Già nei primi anni Ottanta del
Novecento, Fieschi scriveva23 che la scienza non può considerare
nessun problema, nessuna questione al di fuori del proprio campo
d’azione, al di fuori dei propri interessi; chi voglia divenire
scienziato deve considerare ogni cosa come possibile oggetto
d’indagine. Diciamo allora che la scienza manifesta una tendenza
potenziale all’infinito. Essa cerca di studiare tutto il nostro mondo,
tutto il nostro universo; ma se si scoprissero altri universi, essa
cercherebbe di capire anche quelli.
Vale la pena di spendere qualche parola su questa contraddizione.
Innanzitutto: quando diciamo che la scienza è (tendenzialmente)
infinita, non pensiamo alla ricerca attiva, praticata dagli scienziati.
Sappiamo infatti che tutta la ricerca (intendiamo proprio tutta, come
è praticata in tutto il mondo) è concentrata su un ristretto numero di
temi e problemi. In ogni momento, tutta la ricerca in tutti i continenti
è concentrata su un pugno di temi. Basta consultare un qualunque
numero di una rivista scientifica o anche di più riviste scientifiche.
Ciò va contro il senso comune che, quando riflette su questi temi,
spesso argomenta così: che senso ha che tutti quanti, nel mondo, si
occupino di una stessa cosa? Ognuno deve ricercare su argomenti
diversi. Seguendo il senso comune, andrebbe così perduta la
possibilità, vitale per la scienza, di controllare in laboratorio i

21
Valenti 2012, Murzi e Valenti 2014.
22
Fieschi 2013.
23
Fieschi, Corso di Struttura della materia per universitari, dispense,
nelle pagine introduttive.
risultati ottenuti da un altro. Diciamo che verrebbe a mancare la
possibilità del controllo intersoggettivo.
Ci riferiamo invece allo spirito che informa lo scienziato, il singolo
ricercatore, al suo “cuore” di scienziato. Se immaginiamo per un
attimo che qualcuno si rivolga allo scienziato e gli dica: “Tu non
puoi partecipare a questo progetto scientifico (a questa ricerca, non
puoi collaborare con queste persone, …), per motivi religiosi
(sociali, politici, …)”. Ebbene, se lo scienziato rispondesse che è
d’accordo con il suo interlocutore, non potremmo più considerarlo
uno scienziato. Lo scienziato, il vero scienziato, deve essere pronto,
in linea di principio, a ricercare in qualunque direzione. Deve essere,
per usare una parola del greco antico, polytropos: cioè deve sapersi
volgere in tante (ovvero: in tutte le) direzioni.
Questo è un libro di epistemologia, che desidera entrare nella
operatività degli scienziati. Gli autori desiderano entrare nel vivo
della pratica scientifica. Essi ritengono che occorra, per usare uno
slogan sfruttato, sporcarsi le mani. Riteniamo infatti che soltanto
calandosi nella pratica scientifica sia possibile individuare gli snodi
attraverso cui si dipana il lavoro scientifico, con le sue scelte, i suoi
incroci, le traiettorie adottate. A parer nostro, infatti, ci sono in giro
molte convinzioni tenaci sulla scienza, convinzioni pertinaci ma
sbagliate. Ci sono alcuni pregiudizi sui modelli che sono adottati da
tutti. Tali pregiudizi fanno parte del buon senso comune. Essi sono:
1) Ogni modello scientifico si propone in quanto è in
corrispondenza biunivoca (isomorfismo) con una parte della
realtà.
2) All’atto di introdurre un modello, lo scienziato lo dichiara
(sempre).
3) Quando uno scienziato usa più modelli, essi sono tutti tra loro
coerenti.
4) Ogni cambio di modello verrà segnalato.
5) In caso (eccezionale) di incoerenza, lo scienziato avviserà
(sempre) dell’avvenuto cambiamento di situazione.
Vorremmo argomentare contro tutti questi pregiudizi, mostrandone
la radicale falsità. A dispetto della loro apparente ovvietà, essi sono,
dal primo all’ultimo, delle autentiche falsità, vere e proprie patacche
che, appiccicate all’inizio del nostro pensare, ne distorcono fin da
subito le conclusioni.
1) Cominciamo dal primo: ogni modello scientifico si propone in
quanto è in corrispondenza biunivoca (isomorfismo) con una
parte della realtà. Sappiamo già che cosa vuole dire “una parte
della realtà”. Supponiamo di voler costruire un modello di una
parte della realtà. Occorre innanzitutto scartare i particolari
contingenti e che non c’entrano niente, gli accidenti. Insomma, si
vuole ridurre il modello all’essenziale. Quindi: quando un
ricercatore ci dice che tutti gli oggetti cadono, vicino alla
superficie della Terra, con la stessa accelerazione, esclude di
volersi occupare del colore, del sapore, della forma fisica degli
oggetti. Se fa cadere una palla, o un cubetto, o un altro oggetto,
che differenza fa? A questo si riferiva Galileo quando parlava di
“impedimenti da diffalcare”. Accade però abbastanza spesso che
gli scienziati usano modelli che non corrispondono ad alcuna
parte della realtà. Ciò accade non per caso, come se il modello
potesse, in linea di principio, corrispondere a una parte della
realtà ma, per un errore o un eccesso di semplificazione, in realtà
non corrisponde. Accade invece necessariamente, perché il
modello non può corrispondere ad alcuna porzione della realtà,
in quanto ciò è vietato da leggi fisiche note. Offriamo un
esempio. In molti testi di meccanica classica, dopo aver
enunciato le tre leggi del moto, si introduce un modello (quello
della gravità come di una forza centrale diretta verso il Sole) che
permette di derivare le leggi di Keplero. Questo modello
contraddice la terza legge del moto, il principio di azione e
reazione. Quindi, necessariamente non può corrispondere ad
alcuna parte della realtà (perlomeno nella fisica classico-
newtoniana).
2) Il secondo pregiudizio afferma che ogni introduzione di un
modello è sempre esplicitamente dichiarata. Questo non
corrisponde al vero. Gli scienziati si comportano a questo
riguardo nel modo più disparato immaginabile. Il lettore è in
grado di individuare un testo universitario di (diciamo)
meccanica classica in cui siano esplicitamente indicati i cambi di
modello? Nella pubblicazione dei risultati delle ricerche, dove lo
spazio è limitato e conteso, non si ha la possibilità di sprecare
qualche riga per avvertire il lettore del cambio di modello.
3) Il terzo pregiudizio è, se possibile, ancora più falso dei primi
due. Vedremo alcuni esempi, qualcuno anche tratto da libri di
testo scolastici, di modelli contraddittori usati simultaneamente.
Il caso della teoria di Bohr dell’atomo di idrogeno è noto a tutti,
ma non è l’unico. Vedremo in questo libro quanti modelli
contradditori sono impiegati nella meccanica celeste.
4) È quantomeno dubbio che si possa asserire che ogni
cambiamento di modello sia segnalato. Spesso l’introduzione in
un modello di una variante (di modo che il modello stesso è, di
fatto, cambiato) è effettuata in maniera subdola e, anche se
apparentemente esplicita, è – in realtà – nascosta, surrettizia. Fu
proprio in questo modo che Ludwig Boltzmann riuscì a
dimostrare l’irreversibilità dell’aumento dell’entropia. Egli partì
dalle premesse della meccanica statistica classica. Tale teoria
ammette solo leggi reversibili rispetto al tempo e, dunque, non
può essere sufficiente per dimostrare una legge irreversibile. In
qualche punto della dimostrazione, Boltzmann ha introdotto
surrettiziamente qualche premessa addizionale. Lo ha fatto in
maniera così nascosta, che ancor oggi i fisici non sono d’accordo
nell’indicare i principi addizionali da lui usati. Il padre della
biofisica italiana, Mario Ageno, ha scritto un libro sulla
dimostrazione di Boltzmann24, in cui espone alcune idee
filosofiche che anticipano i principi del circoscrizionismo. Ad
Ageno si deve sia la distinzione tra “sistema reale”, “sistema
ideale” e “sistema schematizzato”, che costituisce la base della
teoria dei modelli scientifici proposta dal circoscrizionismo, sia
l’osservazione che i modelli delle teorie sono spesso
contradditori tra di loro e verso i principi della teoria stessa. Ci
pare a questo punto opportuna una precisazione. Gli autori di
questo libro hanno il massimo rispetto per la scienza e gli
scienziati, e ritengono la ricerca scientifica un’altissima
espressione del sapere umano. Non abbiamo alcuna volontà di
24
Ageno 1992b.
sminuire il valore della scienza. Quando osserviamo che le teorie
scientifiche e i loro modelli sono contraddittori, non muoviamo
un’accusa alla scienza, come se potesse esistere una qualche
forma migliore di conoscenza. Ci limitiamo a constatare un fatto.
La critica è rivolta (con grandissimo rispetto) a quei filosofi che
non si sono accorti di questo fatto e che, quindi, hanno elevato il
falsificazionismo e il verificazionismo a schemi privilegiati per
la comprensione dell’attività scientifica. L’attività scientifica è
più complessa di quello che i filosofi hanno immaginato. Lo
scienziato corre sempre il rischio di incappare in contraddizioni,
usando modelli tra loro non compatibili. È questa l’origine della
“scarsa rispondenza tra la concreta realtà dei fatti empirici e le
rappresentazioni matematiche, faticosamente e un po’
goffamente schematizzate, che riusciamo a darne” 25
Osserviamo che ci sono (almeno) tre sensi distinti in cui parliamo
di modello:
2) Visione personale.
3) Teoria matematica/insieme matematico assunto come modello.
4) Distribuzione di probabilità (nelle scienze sociali e statistiche).
Faremo riferimento, nel corso di questo libro, soprattutto ai primi
due sensi. Per il terzo, rimandiamo alla bibliografia in nota 26.

25
Ageno 1987 p. 66.
26
Russo F. 2015 e la ricca bibliografia ivi citata.
Capitolo 2. Cos’è una teoria scientifica?

2.1 Il circoscrizionismo
Il circoscrizionismo è una teoria filosofica sulle teorie scientifiche.
I suoi principi base sono:
1) le teorie scientifiche hanno un campo di validità limitato;
5) l’obiettivo della verifica delle teorie scientifiche è di individuare
i limiti del campo di validità.
Questi due principi sono necessari per studiare temi quali:
1) la natura delle teorie scientifiche;
2) la questione della loro verità o falsità;
3) il ruolo della verifica delle teorie scientifiche;
4) la portata ontologica delle teorie scientifiche;
5) il dibattito tra realismo, strumentalismo ed empirismo;
6) la spiegazione scientifica.
In questo libro, sviluppando i principi del circoscrizionismo,
arriveremo alle seguenti conclusioni.
1) Si può descrivere una qualsiasi teoria scientifica come un
insieme di interpretazioni che sono contraddittorie tra di loro e
rispetto ai principi fondamentali della teoria stessa. A causa di
tale contraddittorietà, una teoria scientifica non può essere
rappresentata mediante un insieme di enunciati chiuso rispetto
alle regole di deduzione.
2) A rigore, tutte le teorie scientifiche sono false, perché ogni teoria
scientifica ha qualche controesempio. Per questo, la bontà di una
teoria scientifica (ossia, il suo successo o insuccesso in ambito
scientifico) non dipende dall’essere vera o falsa. Dunque, è
preferibile abbandonare i discorsi sulla verità o falsità delle
teorie scientifiche, per cercare un diverso criterio con cui
valutarle. Poiché la verità o falsità di una teoria scientifica è
irrilevante, il verificazionismo e il falsificazionismo sono
destinati a fallire.
3) L’obiettivo della verifica di una teoria scientifica non è di
controllarne la verità, di stimarne la probabilità o di falsificarla
per poi sostituirla con una teoria migliore. L’obiettivo è di
determinare, nella maniera più precisa possibile, l’effettiva
estensione del campo di validità.
4) Accettiamo la distinzione tra l’ontologia primitiva (ciò di cui la
teoria vorrebbe parlare) e la struttura nomologica (le
idealizzazioni introdotte per semplificare lo sviluppo della
teoria). Ad esempio, la meccanica celeste si occupa del moto dei
pianeti e dei satelliti, che fanno parte della sua ontologia
primitiva. Il campo gravitazionale, invece, è un’idealizzazione
introdotta per sviluppare la parte matematica della teoria in modo
più semplice. La meccanica celeste presuppone che i pianeti e i
satelliti esistano realmente, ma non assume alcun impegno
ontologico sulla reale esistenza del campo gravitazionale. In una
prima, grossolana approssimazione, possiamo dire che una teoria
scientifica asserisce l’esistenza degli oggetti della propria
ontologia primitiva, ma è agnostica sull’esistenza degli oggetti
della struttura nomologica.
5) Il circoscrizionismo sostiene una forma di realismo scientifico
che abbiamo chiamato realismo plurale. Siamo convinti che la
ricerca scientifica sia il migliore strumento che l’umanità abbia
per capire cosa esiste nel mondo. Tuttavia, crediamo anche che
gli oggetti della ricerca scientifica non siano indipendenti dalla
mente umana, nel senso che essi (e le loro proprietà) dipendono
anche (ma non esclusivamente) dall’obiettivo della ricerca e
dagli strumenti usati per studiarli (per strumenti intendiamo sia
gli oggetti materiali utilizzati per l’osservazione, come telescopi
e microscopi, sia i modelli ideati per descriverli). A proposito
della necessaria dipendenza delle proprietà degli oggetti studiati
dagli strumenti di osservazione, ci sia permesso di citare un
ampio passo di un nostro lavoro. “La classificazione delle
galassie dipende dagli strumenti usati per osservarle. La
spiegazione di questo fatto è relativamente semplice. La
radiazione elettromagnetica emessa da una stella è assimilabile,
in prima approssimazione, alla radiazione emessa da un corpo
nero. L’intensità della radiazione emessa da un corpo nero varia
in funzione della lunghezza d’onda. Quindi, anche l’intensità
della radiazione elettromagnetica emessa dalla stella varia in
funzione della lunghezza d’onda. La luce proveniente da una
galassia è la sovrapposizione della luce emessa dalle stelle.
Quindi, l’aspetto della galassia varia in funzione della lunghezza
d’onda della luce osservata. Ne consegue che la classificazione
di una galassia dipende dalla lunghezza d’onda della luce alla
quale è sensibile lo strumento di osservazione. Non c’è alcuna
ragione fisica per scegliere una determinata lunghezza d’onda
come quella privilegiata, alla quale riferire la classificazione. Al
contrario, la fisica dimostra che non esiste alcuna lunghezza
d’onda privilegiata. Per la fisica teorica, ogni lunghezza d’onda è
buona come ogni altra. Le uniche limitazioni sono di tipo
pratico. L’atmosfera terrestre è trasparente a poche lunghezze
d’onda, quali la luce visibile, l’infrarosso, l’ultravioletto vicino e
alcune onde radio. Per osservare le galassie ad altre lunghezze
d’onda si devono usare rilevatori su satelliti artificiali. Di
conseguenza, la maggiore parte delle osservazioni si riferisce a
quelle lunghezze d’onda che attraversano l’atmosfera. Non esiste
dunque alcuna classificazione delle galassie che sia oggettiva
(ossia, indipendente dagli strumenti di osservazione). Desidero
evidenziare che la dipendenza della classificazione dagli
strumenti di osservazione è causata da ragioni fisiche
fondamentali, insite nei meccanismi stessi dell’emissione della
luce.”27
6) Quanto detto al punto precedente assume un’importanza
fondamentale sul dibattito tra realismo, strumentalismo ed
empirismo. Tendenzialmente siamo più vicini alla prima di
queste tre posizioni, nel senso che crediamo che le teorie
scientifiche forniscano una conoscenza sul mondo. Le teorie
scientifiche, secondo noi, non sono soltanto strumenti per
risolvere determinati problemi teorici o pratici. Le teorie
27
Murzi 2011b p. 17.
scientifiche ci danno una comprensione del mondo che va oltre
la semplice concordanza con le osservazioni empiriche. I termini
teorici di una teoria scientifica possono aspirare a una portata
ontologica: secondo noi, gli elettroni (per fare un esempio)
esistono realmente e non sono mere creazioni della mente
umana. Tuttavia, le proprietà che possiamo ascrivere agli
elettroni non sono del tutto indipendenti dalle domande che ci
poniamo e dagli strumenti (teorici o materiali) che possiamo
utilizzare per descriverli. Vorremmo abbracciare tutte le tre
posizioni del realismo, dello strumentalismo e dell’empirismo.
Le teorie scientifiche ci fanno conoscere il mondo intorno a noi;
contengono elementi ideali, ai quali lo scienziato non attribuisce
una realtà indipendente, che servono a semplificare i calcoli o a
costruire modelli più idonei a descrivere il sistema oggetto di
studio; entro certi limiti, che preciseremo in seguito, devono
essere in accordo (in modo talvolta molto labile) con
l’esperienza.
7) Il circoscrizionismo pone un nuovo problema a ogni tentativo di
interpretazione della spiegazione scientifica: una teoria
scientifica, che è falsa e che è costituita da interpretazioni che
non solo sono tra loro contraddittorie ma che contraddicono
persino i principi della teoria stessa, come può spiegare
qualcosa? La spiegazione scientifica è un processo nel quale
alcuni fatti, che sono ritenuti reali, sono spiegati mediante una
teoria contraddittoria, limitata e della quale sovente già si sa che
è falsa. Com’è possibile? Tenteremo di dare una risposta a questa
domanda in un futuro lavoro. Si osservi, tuttavia, che il problema
assume un aspetto particolare se si tiene conto che i fatti da
spiegare non sono poi così reali come si tende a credere. Spesso
si spiegano fatti falsi mediante teorie false. Questa osservazione
non è una critica alla spiegazione scientifica ma è la
constatazione che il processo di spiegazione scientifica è più
complesso di quello che si ritiene solitamente. Soprattutto,
questo fatto conferma che la bontà di una teoria e delle
spiegazioni che può offrire non è dipendente dalla propria verità
o falsità.
Il circoscrizionismo è una teoria filosofica sulle teorie scientifiche.
Sorge dunque, in modo spontaneo, la domanda “Cos’è una teoria
scientifica?” Per rispondere a questa domanda, ci avvaliamo di alcuni
esempi tratti dalla fisica.

2.2 Meccanica celeste


La meccanica celeste è quella parte della meccanica classica che
studia il moto dei corpi celesti. Consideriamo in particolare i pianeti
del Sistema solare. Il loro moto è determinato da un ristretto gruppo
di leggi fisiche, che sostanzialmente si riducono alle tre leggi di
Newton e alla legge di gravitazione, qui riportate in estrema sintesi.
Principio d’inerzia. Ogni corpo permane in quiete o in moto
rettilineo uniforme, a meno che non sia soggetto a forze esterne.
F=ma. L’accelerazione di un corpo è proporzionale alla forza
esterna applicata.
Azione e reazione. Ad ogni azione causata da una forza esterna
corrisponde una reazione di uguale modulo ma di verso opposto.
Gravità. Due corpi qualsiasi esercitano tra loro una forza di
attrazione inversamente proporzionale al quadrato della loro
distanza.
La meccanica celeste descrive il moto dei pianeti del Sistema solare
tramite alcuni assiomi enunciati in una particolare lingua, ossia il
latino nell’edizione originale dei Principia28, l’inglese o l’italiano
nelle traduzioni. Tali enunciati usano non solo le risorse di una
determinata lingua naturale, della quale rispettano le regole
sintattiche e semantiche, ma utilizzano anche la lingua della
matematica o, più in generale, una lingua che possiamo chiamare “la
lingua della scienza”. Di questa lingua fanno parte espressioni come
“quiete”, “moto rettilineo uniforme”, “accelerazione”,
“proporzionale”, “modulo”, “verso” e “quadrato della distanza”. La
meccanica celeste si presenta quindi come un insieme di assiomi
formulati usando sia le risorse di una lingua naturale sia le risorse di
un’ipotetica lingua della scienza, che comprende espressioni della
matematica, della geometria e della fisica.
28
Newton 1713.
Dagli assiomi, mediante un insieme non ben definito di regole di
deduzione, si derivano teoremi che descrivono il moto dei pianeti.
Ad esempio, si può dimostrare che il centro di massa del Sistema
solare è in quiete o in moto rettilineo uniforme.
Abbiamo detto che le regole di deduzione non sono ben definite.
Sicuramente le regole di deduzione includono quelle della logica
classica, ossia le regole del tipo “se A implica B e A è vero, allora B
è vero” e “se A implica una contraddizione, allora A è falso”, ove A
e B sono enunciati qualsiasi. Le sole regole della logica, tuttavia, non
consentono di dimostrare nulla di interessante. Per dedurre teoremi
che descrivono il moto dei pianeti è necessario ricorre alla
matematica. La studiosa di meccanica celeste utilizza, come regole di
deduzione, qualsiasi teorema matematico che le possa tornare utile.
Ad esempio, impiega i teoremi dell’algebra dei vettori per calcolare
la risultante di più forze che agiscono su un corpo; usa l’analisi
matematica per calcolare le derivate o gli integrali di funzioni che si
suppone descrivano grandezze fisiche come la forza, l’accelerazione
o la velocità; utilizza qualsiasi teorema di geometria che sia
applicabile al caso in esame. Tuttavia, la studiosa di meccanica
celeste non specifica l’elenco delle regole di deduzione che intende
utilizzare, neanche in modo approssimativo. Di fatto, usa nel corso
delle dimostrazioni qualunque teorema di qualunque branca della
matematica: algebra, geometria, analisi, calcolo vettoriale, teoria
degli errori o calcolo numerico.
Proviamo a fornire una prima descrizione di cosa sia la teoria della
meccanica celeste. È un insieme di enunciati, espressi nella lingua
naturale e nella lingua della scienza, che contiene alcuni assiomi e
tutti gli enunciati derivabili dagli assiomi mediante un insieme, non
ben definito, di regole logiche e matematiche. Ciò suggerisce una
prima risposta alla domanda “Cos’è una teoria scientifica?”

Cos’è una teoria scientifica? Risposta n. 1

Una teoria scientifica è un insieme di enunciati, espressi


nella lingua naturale e nella lingua della scienza, che
contiene gli assiomi e gli enunciati derivabili dagli assiomi
Cerchiamo di migliorare la descrizione della meccanica celeste.
Consideriamo una versione del Sistema solare, che chiameremo
“Sistema solare ristretto”, nella quale gli unici corpi celesti sono il
Sole, la Terra e Giove. La risposta n. 1 suggerisce che lo studioso del
Sistema solare ristretto dovrebbe derivare dagli assiomi della
meccanica celeste, tramite qualsivoglia teorema matematico, la
descrizione del moto del Sole, della Terra e di Giove. È questo un
caso particolare di un problema noto come “Il problema dei 3 corpi”:
dati tre corpi celesti che si muovono sotto l’influenza della sola
gravità e note le condizioni iniziali, quali la velocità, la massa e la
posizione, trovare le equazioni che descrivono il moto. Questo
problema, tranne casi particolari, non è risolubile: nel caso generale
non è possibile trovare le equazioni che descrivono il moto dei tre
corpi. In maniera molto sintetica, questo fatto è una conseguenza di
una proprietà delle funzioni elementari. Ricordiamo che una
funzione elementare è una funzione ottenuta combinando tra loro,
tramite le usuali quattro operazioni, le funzioni algebriche,
esponenziali, logaritmiche e trigonometriche. La proprietà di cui
parlavamo è la seguente: la derivata di una funzione elementare è
una funzione elementare, ma l’integrale di una funzione elementare
non sempre è una funzione elementare. La meccanica celeste,
dunque, anche usando tutte le risorse della matematica, non è in
grado di risolvere il problema dei tre corpi. Persino un Sistema solare
composto soltanto del Sole, Terra e Giove supera le capacità
deduttive della meccanica celeste. Se le teorie scientifiche
corrispondessero alla definizione abbozzata nella risposta n. 1, la
meccanica celeste non sarebbe una teoria scientifica. Dunque, la
definizione suggerita è sbagliata.
Come possiamo migliorare la descrizione delle teorie scientifiche?
Proviamo a vedere come, dal punto di vista storico, è stato affrontato
il problema dei tre corpi. Newton ha cercato di descrivere il moto
planetario adottando un’estrema semplificazione. Ha trascurato gli
effetti gravitazionali che i pianeti esercitano tra di loro e ha descritto
il Sistema solare come se ogni pianeta fosse soggetto soltanto
all’attrazione gravitazionale del Sole. In pratica, ha sostituito il
problema dei tre corpi con due problemi indipendenti dei due corpi.
Nel Sistema solare ristretto, consideriamo separatamente il
sottosistema Sole-Terra e il sottosistema Sole-Giove. Otteniamo un
sistema di equazioni che è risolubile. Possiamo quindi scrivere le
equazioni che descrivono il moto del Sole, della Terra e di Giove.
La figura 1 illustra la versione originale del problema del moto nel
Sistema solare ristretto, in cui il Sole, la Terra e Giove si muovono
sotto l’effetto delle reciproche interazioni gravitazionali. La figura 1
è la fedele rappresentazione di come la meccanica classica vorrebbe
descrivere il moto planetario. Seguendo il suggerimento di Mario
Ageno, usiamo l’espressione “sistema idealizzato” per indicare il
modello fisico-matematico che descrive un “sistema concreto reale”
tramite la rigorosa applicazione degli assiomi di una determinata
teoria29.

Figura 1
Il problema originario: Sole, Terra e Giove si muovono sotto l’effetto delle
reciproche influenze gravitazionali (disegno non in scala).

Nel caso del Sistema solare ristretto, il sistema idealizzato non è


trattabile con i metodi matematici noti: il sistema di equazioni non
ammette soluzioni calcolabili. Lo scienziato è dunque indotto a
sostituire il sistema idealizzato con un altro modello fisico-
matematico più semplice. Seguendo Ageno, usiamo il termine
“sistema schematizzato” per indicare il sistema rappresentato nella
figura 2. Il sistema schematizzato introduce una nuova ipotesi, ossia
29
Ageno 1992b.
quella che il moto dei tre corpi possa essere rappresentato, almeno in
prima approssimazione, come due sistemi composti ciascuno di due
corpi, trascurando quindi l’influenza reciproca tra la Terra e Giove.
Si è così ridotta la complessità matematica, giungendo a un sistema
di equazioni risolubile.
Tra il sistema idealizzato, che rappresenta la corretta applicazione
degli assiomi della meccanica celeste, e il sistema schematizzato, che
rende possibile la soluzione matematica del problema del moto
planetario, esistono differenze essenziali. Da un punto di vista fisico-
matematico, il sistema idealizzato e quello schematizzato
corrispondono a teorie diverse. Tuttavia, spesso gli scienziati
omettono di evidenziare la sostanziale differenza tra il sistema
idealizzato e quello schematizzato. Entrambi sono presentati come
applicazioni della meccanica celeste, con l’avvertenza che il sistema
schematizzato è una semplificazione del sistema idealizzato,
necessaria per raggiungere la soluzione matematica del problema.

Figura 2
Il problema semplificato: Sole, Terra e Giove si muovono sotto l’effetto della
sola influenza gravitazionale del Sole (disegno non in scala).

Alla luce di quanto detto, suggeriamo una nuova descrizione della


meccanica celeste. La meccanica celeste è un insieme di modelli
fisico-matematici, ciascuno dei quali è definito da un insieme di
assiomi espressi nella lingua naturale e nella lingua della scienza, dai
quali sono derivabili teoremi tramite un insieme, non ben definito, di
regole logiche e matematiche, non necessariamente le medesime per
i diversi modelli. Gli insiemi di assiomi che definiscono i diversi
modelli sono tra loro incompatibili, ossia formalmente contraddittori.
Per evitare che la meccanica celeste sia formalmente contraddittoria,
non tutti i teoremi derivabili dai diversi insiemi di assiomi sono
accettati come facenti parte della meccanica celeste. Questa
descrizione della meccanica celeste suggerisce una seconda risposta
alla domanda “Cos’è una teoria scientifica?”

Cos’è una teoria scientifica? Risposta n. 2

Una teoria scientifica è un insieme di modelli. Ciascun


modello è definito mediante un insieme di assiomi espressi
nella lingua naturale e nella lingua della scienza. Tali
insiemi di assiomi possono essere tra loro contraddittori. Si
usano, come regole di deduzione, un insieme non ben
definito di regole logiche e matematiche, non
necessariamente le medesime in tutti i modelli. Per evitare
che la teoria scientifica sia contraddittoria, non tutti i
teoremi derivabili dagli assiomi sono accettati come facenti
parte della teoria, ma alcuni teoremi sono esclusi dalla
teoria. Non esiste un criterio esplicito per escludere alcuni
teoremi e accettarne altri. Sta alla sensibilità della studiosa
accettare o scartare alcuni teoremi, con l’obiettivo di
preservare la non contraddittorietà della teoria.

Possiamo mettere alla prova la risposta n. 2 osservando come viene


effettivamente trattato, da un punto di vista fisico-matematico, il
sistema illustrato nella figura 2. Il Sole, la Terra e Giove sono corpi
estesi, grosso modo di forma sferica. Ciascun punto delle tre sfere
esercita un’attrazione gravitazionale su ogni punto di tutte le sfere.
Calcolare la risultante di queste forze gravitazionali è un problema di
un’enorme complessità matematica. Fortunatamente, viene in
soccorso un noto teorema della meccanica classica: la forza
gravitazionale esercitata da un corpo nel quale la massa è distribuita
con simmetria sferica è la medesima che si avrebbe se tutta la massa
fosse situata nel centro geometrico della sfera. Ciò significa che il
Sole e i pianeti, se la loro massa avesse una distribuzione con
simmetria sferica, potrebbero essere rappresentati come oggetti
puntiformi, chiamati “punti materiali”. Un punto materiale è
l’astrazione matematica che consente di descrivere un corpo le cui
dimensioni sono trascurabili rispetto agli altri parametri presi in
considerazione. Nel Sistema solare, le dimensioni del Sole e dei
pianeti sono molto piccole rispetto alle loro distanze reciproche, per
cui è possibile trascurare le loro reali dimensioni. Il Sole e i pianeti
sono approssimativamente sferici e omogenei. Dunque, in prima
approssimazione, è possibile rappresentare il Sole e i pianeti
mediante i punti materiali. Il sistema corrispondente alla figura 2 può
essere dunque sostituito dal sistema schematizzato della figura 3.

Figura 3
Una nuova semplificazione del problema già semplificato: Sole, Terra e Giove
si muovono sotto l’effetto della sola influenza gravitazionale del Sole e sono
rappresentati da “punti materiali” (disegno non in scala; i punti materiali sono
graficamente rappresentati come piccoli cerchi per renderli visibili).

La definizione abbozzata nella risposta n. 2 è ancora sostenibile? Il


modello nel quale il Sole, la Terra e Giove sono rappresentati
mediante punti materiali è un nuovo modello impiegato per
descrivere il sistema concreto tramite un sistema schematizzato. Il
nuovo modello si aggiunge ai precedenti due modelli rappresentati
nelle figure 1 e 2. Apparentemente non sembra esserci alcuna
contraddizione tra i modelli corrispondenti alle figure 2 e 3. L’uso
del modello della figura 3 è giustificato da un teorema di meccanica
classica. Quindi, apparentemente, il modello della figura 3 discende
dai medesimi principi soddisfatti dal modello della figura 2.
Osservando la situazione con più attenzione, si incontra un problema:
il teorema che permette di rappresentare i corpi celesti come punti
materiali è vero se la massa è distribuita con simmetria sferica. Ma è
noto, dal punto di vista empirico, che i corpi celesti non hanno una
distribuzione sferica della massa. Che la massa della Terra, per
esempio, non abbia una distribuzione sferica è evidente dal fatto che
la determinazione dell’esatta orbita percorsa dai satelliti artificiali
aiuta a determinare come in realtà si distribuisce la massa nella
Terra. Dunque, il passaggio dal modello di figura 2 al modello di
figura 3 è giustificabile sulla base di una condizione iniziale, la
distribuzione sferica della massa, che è noto essere empiricamente
falsa30. Questo fatto ci induce a osservare che non solo esistono
contraddizioni tra gli assiomi dei diversi modelli della teoria, ma
anche che alcuni modelli poggiano su ipotesi di cui è nota la falsità.
Quindi, dobbiamo modificare la risposta alla domanda “Cos’è una
teoria scientifica?” Ecco la nuova proposta.

Cos’è una teoria scientifica? Risposta n. 3

Una teoria scientifica è un insieme di modelli. Ciascun


modello è definito mediante un insieme di assiomi espressi
nella lingua naturale e nella lingua della scienza. Tali
insiemi di assiomi possono essere tra loro contraddittori.

30
È possibile superare questa difficoltà calcolando il centro di massa di
ciascun corpo celeste interessato e utilizzando questo punto, in luogo del
centro geometrico, per rappresentare il corpo celeste come un punto
materiale. Nel sistema solare, il baricentro dei pianeti quasi coincide con il
centro geometrico; quindi, il modello della figura 3 è ragionevolmente
corretto. Il punto che desideriamo sottolineare è che questo modello è
ragionevole entro certi limiti; trovare questi limiti è uno degli obiettivi della
ricerca scientifica.
Cos’è una teoria scientifica? Risposta n. 3

Alcuni modelli si possono basare su assiomi che esprimono


ipotetiche condizioni iniziali o al contorno la cui falsità
empirica è nota. I modelli usano, come regole di
deduzione, un insieme non ben definito di regole logiche e
matematiche, non necessariamente le medesime in tutti i
modelli. Per evitare che la teoria scientifica sia palesemente
contraddittoria, non tutti i teoremi derivabili dagli assiomi
sono accettati come facenti parte della teoria, ma alcuni
teoremi sono esclusi dalla teoria. Non esiste un criterio
esplicito per escludere alcuni teoremi e accettarne altri. Sta
alla sensibilità della studiosa accettare o scartare alcuni
teoremi, con l’obiettivo di preservare la non
contraddittorietà della teoria. I modelli basati su assiomi di
cui è nota la falsità sono accettati come componenti della
teoria, anche se i loro teoremi possono essere falsi. È
compito dello studioso impiegare in modo oculato questi
teoremi falsi, scartando quelli che sono “troppo falsi” e
accettando quelli “non troppo falsi”. Al momento, non è
possibile fornire criteri né spiegazioni ragionevoli sui
termini “troppo falsi” e “non troppo falsi”, salvo osservare
che, in pratica, chi si occupa di ricerca scientifica sembra in
grado di individuare quali teoremi accettare e quali scartare
in maniera ragionevolmente accurata e condivisa.

La definizione proposta nella risposta n. 3 suggerisce quanto segue:


1) una teoria è un insieme di modelli;
2) i modelli possono essere tra loro contraddittori;
3) i modelli possono essere basati su ipotesi che si sanno essere
false;
4) non è possibile identificare una teoria con l’insieme dei suoi
teoremi perché questo insieme è contraddittorio;
5) non è chiaro come gli studiosi accettano o scartano i teoremi;
6) le regole di deduzione non sono le medesime in tutti i modelli;
7) le regole di deduzione comprendono le regole della logica 31 e un
insieme, non definito in maniera formale, di teoremi della
matematica.

2.3 Le leggi di Keplero


Gli enunciati delle prime due leggi di Keplero sono i seguenti.
Prima legge di Keplero. L’orbita di un qualsiasi pianeta del
Sistema solare è un’ellisse in cui il Sole occupa uno dei due fuochi.
Seconda legge di Keplero. Il segmento che unisce il Sole con il
pianeta, chiamato “raggio vettore”, descrive aree uguali in tempi
uguali.
Newton dimostra che un corpo si muove in accordo alle prime due
leggi di Keplero se e solo se quel corpo è soggetto a una forza
centripeta diretta verso un punto fermo o in moto rettilineo uniforme.
La dimostrazione è divisa in due parti, che costituiscono i teoremi I e
II della sezione seconda dei Principia. Gli enunciati dei due teoremi
sono i seguenti.
Teorema I
Le aree che descrivono i corpi che si muovono lungo una
circonferenza, condotti i raggi verso il centro immobile delle forze,
giacciono su piani immobili, e sono proporzionali ai tempi32.
Teorema II
Ogni corpo che si muove lungo una qualsiasi linea curva, il cui
raggio condotto verso un punto immobile, o avanzante in moto

31
Quale logica? Classica, intuizionista, quantistica, polivalente, modale (e,
in questo caso, quale sistema modale?) o fuzzy? O forse parliamo di logica
induttiva? O paraconsistente? Quest’ultima potrebbe essere utile, visto che
le teorie scientifiche includono modelli contraddittori. Per il momento,
accontentiamoci di rispondere che ci riferiamo alle regole della logica
classica (per semplificare, la logica che riconosce due soli valori di verità,
Vero e Falso, e accetta sia il principio del terzo escluso sia le dimostrazioni
di esistenza non costruttive).
32
Newton 1713 p. 34.
rettilineo uniforme, descrive intorno a quel punto aree proporzionali
ai tempi, è spinto da una forza centripeta tendente al medesimo
punto33.
Newton enuncia un corollario, il sesto, secondo il quale il teorema I
è vero anche “qualora i piani sui quali i corpi sono mossi, insieme ai
centri delle forze che sono siti sugli stessi [piani], non sono in quiete,
ma si muovono uniformemente in linea retta” 34. Con questa
generalizzazione, il primo teorema afferma che se un corpo si muove
per l’effetto di una forza centripeta diretta verso un punto immobile o
in moto rettilineo, allora percorre un’orbita che soddisfa le prime due
leggi di Keplero. Il secondo teorema afferma che se un corpo si
muove intorno a un punto immobile o in moto rettilineo uniforme
percorrendo un’orbita che soddisfa le prime due leggi di Keplero,
allora è mosso da una forza centripeta diretta al medesimo punto.
Unendo i due teoremi, si ottiene che un corpo percorre un’orbita in
accordo alle prime due leggi di Keplero se e solo se si muove sotto
l’influsso di una forza centripeta diretta verso un punto immobile o
in moto rettilineo uniforme.
Newton ha pertanto individuato la condizione necessaria e
sufficiente per la validità delle prime due leggi di Keplero. Per
ottenere questo risultato, Newton ha utilizzato l’ipotesi che la forza
agente sui pianeti è di tipo centripeto, diretta verso il Sole. Non è
stato necessario supporre alcuna legge circa la variazione della forza
rispetto alla distanza. In particolare, Newton non ha dovuto supporre
che la forza sia inversamente proporzionale al quadrato della
distanza. Ha invece dovuto supporre che i pianeti non solo non
esercitano alcuna forza tra di loro, ma anche che non influenzano il
moto del Sole. Il Sole è supposto immobile o in moto rettilineo
uniforme, quindi non soggetto ad alcuna forza esterna. Questa nuova
ipotesi conduce al sistema schematizzato rappresentato nella figura
4.

33
Newton 1713 p. 36.
34
Newton 1713 p. 36.
Figura 4
Ancora una semplificazione: la forza gravitazionale esercitata dal Sole è
rappresentata tramite una forza diretta verso il centro del Sole, senza che il
Sole subisca alcuna reazione da parte dei pianeti (disegno non in scala; i punti
materiali sono graficamente rappresentati come piccoli cerchi per renderli
visibili).

Il sistema schematizzato corrispondente alla figura 4 contraddice


quello della figura 3. La contraddizione è ancora più evidente, se si
osserva che il sistema della figura 4 contraddice apertamente il
principio di azione e reazione. La meccanica classica è infatti in
grado di dimostrare che le leggi di Keplero sono errate, perché il
Sole subisce l’attrazione gravitazionale dei pianeti, anche nel caso
ideale di un solo pianeta che ruota intorno al Sole. Quindi, la
meccanica classica non può dimostrare le leggi di Keplero. In effetti,
Newton non dimostra le leggi di Keplero partendo dai principi della
meccanica classica. Quello che Newton dimostra è qualcosa di
diverso: dimostra che le leggi di Keplero sono soddisfatte se e solo
se la forza gravitazionale è una forza centripeta diretta verso il Sole.
Questo fatto mostra che alcuni modelli fisico-matematici impiegati
nella meccanica celeste sono in contrasto con i principi fondamentali
della teoria stessa. L’uso di questi modelli serve per individuare le
condizioni, contrarie ai principi della teoria, in cui una certa ipotesi,
che sappiamo falsa, sarebbe invece vera. Detto in altri termini: pur
sapendo che le leggi di Keplero sono false e contraddicono un
principio fondamentale della meccanica classica, la teoria è in grado
di indicare in quale condizione (false!) le leggi di Keplero sarebbero
vere. Ciò conduce a una nuova risposta alla domanda “Cos’è una
teoria scientifica?”

Cos’è una teoria scientifica? Risposta n. 4

Una teoria scientifica è un insieme di modelli. Ciascun


modello è definito mediante un insieme di assiomi espressi
nella lingua naturale e nella lingua della scienza. Tali
insiemi di assiomi possono essere tra loro contraddittori.
Alcuni modelli possono contraddire i principi fondamentali
della teoria stessa. Alcuni modelli si possono basare su
assiomi che esprimono ipotetiche condizioni iniziali o al
contorno la cui falsità empirica è nota. I modelli usano,
come regole di deduzione, un insieme non ben definito di
regole logiche e matematiche, non necessariamente le
medesime in tutti i modelli. Per evitare che la teoria
scientifica sia palesemente contraddittoria, non tutti i
teoremi derivabili dagli assiomi sono accettati come facenti
parte della teoria, ma alcuni teoremi sono esclusi dalla
teoria. Non esiste un criterio esplicito per escludere alcuni
teoremi e accettarne altri. Sta alla sensibilità dello studioso
accettare o scartare alcuni teoremi, con l’obiettivo di
preservare la non contraddittorietà della teoria. Alcuni
modelli non sono impiegati per derivare teoremi, ma per
individuare le condizioni necessarie e sufficienti nelle quali
una qualche ipotesi, che sappiamo falsa, sarebbe vera. Gli
assiomi di questi modelli contraddicono direttamente uno o
più principi fondamentali della teoria. I modelli basati su
assiomi di cui è nota la falsità sono accettati come
componenti della teoria. Tuttavia, i teoremi derivabili in
tali modelli possono essere falsi. È compito dello studioso
impiegare in modo oculato questi teoremi falsi, scartando
quelli che sono “troppo falsi” e accettando quelli “non
Cos’è una teoria scientifica? Risposta n. 4

troppo falsi”. Al momento, non è possibile fornire criteri né


spiegazioni ragionevoli sui termini “troppo falsi” e “non
troppo falsi”, salvo osservare che, in pratica, chi si occupa
di ricerca scientifica sembra in grado di individuare quali
teoremi accettare e quali scartare in maniera
ragionevolmente accurata e condivisa.

Avendo terminato la nostra analisi della meccanica classica,


possiamo passare alla teoria dell’atomo di Bohr. Il fisico danese
Niels Bohr propose nel 1913 una teoria sulla costituzione degli atomi
e delle molecole per la quale ricevette il premio Nobel per la fisica
nel 1922. La teoria conseguì buoni risultati nello studio dell’atomo
d’idrogeno. Prima di analizzarla, è necessario descrivere alcuni
aspetti della spettroscopia all’inizio del XX secolo.

2.4 Spettroscopia
La spettroscopia di emissione è un metodo per determinare la
composizione chimica di un composto. Si riscalda il composto, allo
stato di gas o vapore, mediante una fiamma o una corrente elettrica,
provocando l’emissione di luce. Si scompone quindi la luce
facendola passare attraverso un reticolo o un prisma. Si ottiene così
un’immagine composta di righe luminose su fondo scuro.
L’osservazione può essere estesa oltre la luce visibile, usando
rilevatori per l’ultravioletto o l’infrarosso. La posizione delle righe,
dette “righe spettrali”, è tipica di ciascun elemento. Ciò consente di
determinare la composizione chimica di gas e vapori. La figura 5
illustra lo spettro di tre elementi.
Figura 5
Lo spettro di tre elementi chimici: carbonio (in alto), elio (al centro) e
idrogeno (in basso). L’immagine dello spettro è semplificata e mostra solo
alcune linee osservabili. Il fondo scuro è stato eliminato per rendere
l’immagine chiaramente visibile. Nella scala di riferimento, sotto lo spettro
dell’idrogeno, è riportata la lunghezza d’onda della luce in nanometri.

Nel 1885 il matematico svizzero Johann Jakob Balmer propose una


formula per calcolare la lunghezza d’onda delle linee spettrali
dell’idrogeno35. Balmer utilizzò le misurazioni di vari studiosi. Il
fisico svedese Anders Jonas Ångström aveva determinato la
lunghezza d’onda di quattro linee spettrali dell’idrogeno, ottenendo,
in nanometri, i seguenti valori: 656,210; 486,074; 434,010; 410,12.
Balmer si accorse che poteva calcolare questi valori moltiplicando la
costante 364,56 nanometri per le frazioni 9/5, 16/12, 25/21 e 36/32,
che mostrano un’ovvia regolarità nella serie dei numeratori. Ipotizzò

35
Balmer 1885.
che le quattro frazioni appartenessero a due serie distinte,
m2
proponendo la seguente formula: ove m e n sono numeri
m 2−n2
interi. Posto n=2 e variando m>2 ottenne la serie i cui termini iniziali
sono 9/5, 16/12, 25/21, 36/32, 49/45, 64/60, 81/77, 100/96. I primi
quattro termini sono i coefficienti già determinati dallo stesso
Balmer. Tramite il fisico svizzero Eduard Hagenbach-Bischoff,
Balmer seppe che in alcune stelle erano state osservate le linee
spettrali dell’idrogeno nel vicino ultravioletto. Le corrispondenti
lunghezze d’onda erano uguali a quelle previste dalla sua formula.
Era dunque possibile calcolare la lunghezza d’onda λ delle linee
spettrali dell’idrogeno mediante la formula:
m2
λ=h , h=364,56 nm (2.1)
m2 −n2
Il fisico svedese Johannes Rydberg modificò la formula di
1 1 1
Balmer36, proponendo la relazione =R( 2 − 2 ), ove λ è la
λ n m
lunghezza d’onda, R è la costante 1,097 ∙ 107 m-1, n e m sono numeri
interi.
Le formule di Balmer e di Rydberg prevedevano la lunghezza
d’onda delle righe spettrali dell’idrogeno e, tramite opportune
modifiche, anche di altri elementi. Tuttavia, nessuno era in grado di
fornire una spiegazione teorica del loro successo.

2.5 La teoria di Bohr


La teoria dell’atomo di Bohr o, più brevemente, la teoria di Bohr, è
la teoria che Bohr propose nella parte prima dell’articolo On the
constitution of atoms and molecules 37. Come ogni teoria scientifica,
la teoria di Bohr ha conosciuto varie modifiche. In brevissima
sintesi, mentre la teoria iniziale usava un solo numero quantico per
determinare l’orbita dell’elettrone, le sue successive versioni
36
Rydberg 1890.
37
Bohr 1913.
impiegavano tre numeri quantici, per l’energia, l’eccentricità e
l’orientamento dell’orbita. Pur tenendo presenti questi sviluppi, ci
occuperemo principalmente della teoria originale del 1913. Le
conclusioni filosofiche possono essere infatti applicate anche alle
versioni successive.
Il punto di partenza della teoria è il modello atomico di Ernest
Rutherford, il fisico britannico di origine neozelandese. Premio
Nobel per la chimica nel 1908 per lo studio delle sostanze
radioattive, Rutherford è oggi noto soprattutto per un celebre
esperimento del 190938. L’esperimento consisteva nell’osservare il
moto delle particelle alfa, ossia nuclei di elio con carica positiva, che
attraversavano una sottile lamina d’oro. Avendo constatato che
alcune particelle alfa rimbalzavano, Rutherford suppose gli atomi
consistessero di un nucleo centrale con carica positiva circondato da
elettroni, con carica negativa e massa molto più piccola del nucleo. Il
nucleo doveva avere dimensioni trascurabili rispetto all’atomo.
Il modello di Rutherford incontrò due gravi difficoltà. La prima è
che esso prevede l’instabilità dell’atomo. In accordo alle leggi
dell’elettrodinamica classica, gli elettroni che orbitano intorno al
nucleo dovrebbero emettere energia, a causa dell’accelerazione cui
sono soggetti. “Un semplice calcolo mostra che l’energia emessa
durante il processo considerato sarà enormemente grande rispetto a
quella irradiata dai processi molecolari ordinari” 39. La seconda
difficoltà è che le quantità fisiche che compaiono nel modello di
Rutherford, ossia la carica e la massa dell’elettrone e del nucleo, non
permettono di determinare una grandezza con la dimensione di una
lunghezza40. Questa difficoltà nasce da un ragionamento di natura
dimensionale: non è possibile ottenere una lunghezza combinando tra
loro le grandezze fisiche che fanno parte del modello atomico di
Rutherford. Quindi, se si desidera costruire un modello atomico che
permetta di determinare il raggio dell’atomo, è necessario aggiungere
al modello un’altra grandezza fisica. Bohr identificò questa
grandezza nella costante di Planck h. “Questa costante è di
38
Rutherford 1911.
39
Bohr 1913 p. 4.
40
Bohr 1913 p. 2.
dimensioni e grandezza tali che essa, insieme con la massa e la carica
delle particelle, può determinare una lunghezza dell’ordine di
grandezza richiesto”41.
Bohr esamina dapprima la situazione più semplice, ossia l’atomo di
idrogeno, costituito di un nucleo carico positivamente, molto piccolo,
intorno al quale orbita un elettrone, con la medesima carica elettrica
del nucleo ma di segno opposto. L’elettrone ha massa trascurabile
rispetto a quella del nucleo e si muove con una velocità piccola
rispetto alla velocità della luce. Il modello è quindi composto di un
elettrone soggetto a una forza centrale diretta verso il nucleo e
inversamente proporzionale al quadrato della distanza. È questo un
modello ben noto, studiato da Newton nelle prime pagine dei
Principia. L’elettrone si muove su un’orbita ellittica; il nucleo
occupa uno dei fuochi dell’ellisse; il moto avviene in accordo alle
leggi di Keplero. Detto r il semiasse maggiore dell’orbita
dell’elettrone, risulta
−1 e2
2 r= (2.2)
4 π ε0 E
Nella (2.2) e è la carica elettrica dell’elettrone, E è l’energia
meccanica dell’elettrone e 4πε0 è una costante il cui valore dipende
dal sistema di unità di misura. Bohr utilizzò il sistema di unità di
misura CGS (centimetro, grammo, secondo) di Gauss, nel quale
4πε0 = 1. La formula (2.2) assumeva dunque la forma 2 r=−e2 / E .
Noi usiamo il sistema internazionale MKSA (metro, chilogrammo,
secondo, ampere), nel quale 4πε0 ≠ 1.
Bohr introduce nella propria teoria la costante h di Planck
supponendo che “la quantità di energia irradiata da un oscillatore
atomico di frequenza ν in un’emissione singola sia eguale a τhν ,
dove τ è un numero intero e h è una costante universale”42. Dunque:
E=τhν (2.3)

41
Bohr 1913 p. 2.
42
Bohr 1913 p. 4.
Nella formula (2.3) compare una frequenza cui non siamo in grado,
per il momento, di attribuire alcun significato fisico. Per risolvere
questo problema, Bohr propone due ipotesi. La prima, è che il moto
dell’elettrone sia circolare; la seconda, è una particolare relazione tra
la frequenza ν che compare nella (2.3) e la frequenza ω con la quale
l’elettrone orbita intorno al nucleo.
Si consideri un elettrone posto a distanza infinita dal nucleo.
Possiamo asserire che la frequenza ω è pari a 0, poiché l’elettrone
non ruota intorno al nucleo. Immaginiamo che l’elettrone si avvicini
al nucleo a causa della reciproca attrazione. Secondo
l’elettrodinamica classica, l’elettrone emetterà una radiazione
elettromagnetica di frequenza variabile. A un certo punto, l’elettrone
inizierà a ruotare intorno al nucleo su un’orbita circolare stabile, il
cui centro coincide con il nucleo stesso, caratterizzata da una
frequenza di rivoluzione ω. Bohr ipotizza, contro l’elettrodinamica
classica, che la radiazione emessa dall’elettrone nell’avvicinarsi al
nucleo abbia una frequenza fissa ν (è dunque monocromatica) e che
il legame tra ν e ω sia estremamente semplice: la frequenza ν della
radiazione emessa è uguale alla metà della frequenza ω di
1
rivoluzione. Ossia: ν= ω. Sostituendo questa espressione nella
2
(2.3) si ricava:
1
E= τhω (2.4)
2
Sostituendo la (2.4) nella (2.2), si ottiene la seguente equazione,
risolubile con i metodi della meccanica classica:
ℏ2 2
r τ =4 π ε 0 τ (2.5)
m e2
h
Nella (2.5) si è posto, secondo l’uso contemporaneo, ℏ= ;mè

la massa dell’elettrone; r τ è il raggio dell’orbita dell’elettrone, che
dipende dal numero intero τ. Per controllare se queste ipotesi abbiano
una qualche possibilità di essere veritiere, Bohr sostituisce nella (2.5)
i valori numerici della costante di Planck, della massa e della carica
dell’elettrone; pone inoltre τ =1. Ottiene quindi una stima del raggio
dell’atomo il cui ordine di grandezza (10 -10 m) è compatibile con i
dati osservativi disponibili. Calcola inoltre il potenziale di
ionizzazione dell’idrogeno, uguale al rapporto tra l’energia e la
carica dell’elettrone, ottenendo il valore di 13 volt, compatibile con il
dato osservativo di 13,6 volt. Il modello, quindi, fornisce i corretti
ordini di grandezza del raggio atomico e del potenziale di
ionizzazione dell’idrogeno.
Bohr cerca poi di formalizzare il proprio modello dell’atomo.
Secondo Bohr, il modello atomico da lui proposto richiede due
ipotesi principali43.
1) L’equilibrio dinamico dei sistemi negli stati stazionari può essere
trattato con l’ausilio della meccanica ordinaria, mentre il
passaggio dei sistemi tra stati stazionari diversi non può essere
trattato su questa base.
2) Il passaggio dei sistemi tra stati stazionari diversi è
accompagnato dall’emissione di una radiazione omogenea, per la
quale la relazione tra la frequenza e la quantità di energia è
quella data dalla teoria di Planck.
In sintesi, il moto circolare dell’elettrone intorno al nucleo può
essere descritto dalle leggi della meccanica e dell’elettrodinamica,
salvo aggiungere l’ipotesi (inspiegabile, e per questo motivo assunta
come un postulato) che l’elettrone non emette radiazione
elettromagnetica. Quando l’elettrone cambia orbita, avvicinandosi al
nucleo, emette una radiazione elettromagnetica monocromatica ν
(dovrebbe essere variabile, secondo l’elettrodinamica classica) legata
all’energia E emessa tramite la relazione (2.3) di Planck. Bohr si
riserva di mostrare come rimuovere l’ipotesi che la frequenza ν della
radiazione emessa sia uguale alla metà della frequenza ω di
rivoluzione.
Posta la teoria in questa forma, Bohr tenta di spiegare teoricamente
le leggi empiriche note relative allo spettro dell’atomo di idrogeno.
La meccanica e l’elettrodinamica classiche forniscono

43
Bohr 1913 p. 7.
un’espressione molto semplice per l’energia E dell’elettrone su
un’orbita di raggio r.
−1 e 2 1
E= (2.6)
2 4 π ϵ0 r
Si consideri la transizione di un elettrone da un’orbita di raggio r1 a
una di raggio r2, con r1 > r2. Sia E21 la differenza di energia
dell’elettrone. Risulta
1 e2 1 1
E21= ( −
2 4 π ϵ0 r1 r 2 ) (2.7)

Dalla (2.3) si ottiene:


1 e2 1 1
h ν21= (−
2 4 π ϵ 0 r1 r2 ) (2.8)

La (2.8) fornisce la frequenza della radiazione elettromagnetica


emessa da un elettrone che passa da un’orbita esterna a una interna.
Sostituendo la (2.5) nella (2.8) si ricava:
2
1 m e2 1 1
ν 21= ( )(
4 π ℏ3 4 π ϵ 0

τ 21 τ 22 ) (2.9)

Inserendo nella (2.9) i valori allora conosciuti delle costanti fisiche,


2
1 m e2
Bohr calcola 3 ( )
4 π ℏ 4 π ϵ0
15
=3.1∙ 10 hertz , da confrontare con

il valore osservato di 3.3 ∙10 15 hertz. La differenza ricade


all’interno del margine di errore sperimentale. Bohr ha dunque
spiegato teoricamente la legge di Rydberg, ha fornito una stima
teorica del potenziale di ionizzazione dell’idrogeno, ha determinato
teoricamente il raggio dell’atomo e i livelli di energia corrispondenti
alle orbite percorse dall’elettrone. Una serie di fatti sperimentali noti
ma inspiegabili ha trovato una sistemazione teorica.
Bohr deve ancora mostrare come fare a meno dell’ipotesi che la
frequenza ν della radiazione emessa sia uguale alla metà della
frequenza ω di rivoluzione. Lo fa sostituendo questa ipotesi con
un’altra, che costituisce di fatto la terza assunzione necessaria per
formalizzare il modello dell’atomo. L’ipotesi è che nella “regione
delle lente vibrazioni”44 i calcoli basati sulle ipotesi di Bohr diano
valori in accordo con quelli basati sulla meccanica e
sull’elettrodinamica classiche. Cos’è la “regione delle lente
vibrazioni”? È la regione esterna dell’atomo, nella quale l’elettrone si
muove su un’orbita così ampia che la frequenza di rivoluzione è
piccola rispetto alla frequenza nelle orbite interne. Questa regione è
individuata da valori grandi del parametro τ. Quindi, per τ grande, i
valori calcolati mediante la teoria di Bohr e quelli calcolati usando la
teoria classica convergono a un medesimo risultato. Questo principio
prenderà in seguito il nome di “principio di corrispondenza”.
Vediamo com’è impiegato da Bohr. Si supponga che l’energia E
dell’elettrone possa essere espressa dalla formula
E=f ( τ ) hν (2.10)
La (2.10) è una generalizzazione dell’espressione (2.4), ove f è una
funzione da determinare. In luogo dell’espressione (2.9) si ottiene:
2
1 m e2 1 1
ν 21= ( )(
4 π ℏ3 4 π ϵ 0 2
− 2
f (τ 1) f (τ 2) ) (2.11)

Il confronto tra la (2.11) e la (2.1), che esprime la serie di Balmer,


permette di stabilire che la funzione incognita f deve avere la forma
f =cτ ove c è una costante da determinare. La fisica classica afferma
che la frequenza ν della radiazione emessa dall’elettrone dovrebbe
essere uguale alla frequenza ω della rivoluzione dell’elettrone.
Sappiamo che ciò non è vero. Tuttavia, per valori grandi del raggio
dell’orbita, la teoria atomica deve accordarsi con la teoria classica. Il
raggio, lo si è visto, dipende da τ. Quindi, per valori grandi di τ, il
rapporto tra le due frequenze ν e ω deve tendere a 1. Bohr mostra che
1
ciò è possibile solo se c= . Quindi, per orbite grandi, deve valere la
2
relazione
44
Bohr 1913 p. 12.
1
E= τhν (2.12)
2
Ma, per orbite grandi, ν = ω. Dunque
1
E= τhω (2.13)
2
La (2.13) è identica alla (2.4). Quindi, l’ipotesi che la frequenza ν
della radiazione emessa sia uguale alla metà della frequenza ω di
rivoluzione è eliminabile, potendo essere dedotta come conseguenza
del principio di corrispondenza.
Bohr tenta di dare “una semplicissima interpretazione del
risultato”45 cui è giunto. Questa interpretazione, basata sul concetto
di momento angolare, non vuole essere altro che un’illustrazione, in
termini meccanici, di alcuni aspetti della teoria atomica. Non ha la
pretesa di fornire una base per i risultati. Il momento angolare M
dell’elettrone – osserva Bohr – segue la legge
τh
M= (2.14)

Il momento angolare, dunque, è un multiplo intero della costante
h
universale (costante che oggi è indicata con il simbolo ℏ). Anche

se Bohr ha introdotto questo risultato come una semplice
illustrazione, di fatto lo utilizza, nel seguito dei suoi lavori, come un
postulato, usandolo frequentemente in luogo del principio di
corrispondenza. Dunque, i postulati usati realmente da Bohr sono i
due principi sopra enunciati e il principio della quantizzazione del
momento angolare espresso dalla (2.14). È interessante osservare che
la (2.14), che Bohr deriva dalla propria teoria, è in realtà errata.
Tuttavia, nei casi in cui Bohr ne fa uso, porta comunque a risultati
corretti. Si tratta, dunque, di uno di quei casi nei quali si ottengono
risultati sostanzialmente corretti da una teoria parzialmente errata.

45
Bohr 1913 p. 15.
La sostituzione del principio di corrispondenza con il principio
della quantizzazione del momento angolare è evidente nel seguito
dell’articolo.
Per un sistema consistente di un nucleo e di un elettrone che gli ruota
intorno [l’atomo di idrogeno], lo stato [fondamentale] … è
determinato dalla condizione che il momento angolare dell’elettrone
h 46
intorno al nucleo sia eguale a .

La condizioni di quantizzazione del momento angolare, introdotta
poche pagine prima come “una semplicissima interpretazione del
risultato”, è divenuta una condizione dalla quale derivare lo stato
stabile dell’atomo di idrogeno.
Trattando di atomi con più elettroni, Bohr asserisce che
la stabilità di un anello di elettroni che ruotano intorno al nucleo è
assicurata dalla sopra citata condizione della costanza universale del
momento angolare.47
La prima parte dell’articolo del 1913 termina enunciando la
seguente condizione.
In ogni sistema molecolare consistente di nuclei positivi e di
elettroni in cui i nuclei sono fermi gli uni relativamente agli altri e
gli elettroni si muovono in orbite circolari, il momento angolare di
ogni elettrone rispetto al centro della propria orbita sarà, nello
h 48
stato fondamentale del sistema, uguale a .

Ancora più esplicito è l’inizio della seconda parte:
Al fine di determinare la frequenza e le dimensioni degli anelli [di
elettroni] … faremo uso della principale ipotesi della prima parte
[dell’articolo], ossia che nello stato fondamentale di un atomo il

46
Bohr 1913 p. 20.
47
Bohr 1913 p. 23.
48
Bohr 1913 p. 25 enfasi nell’originale.
momento angolare di ogni elettrone … è uguale al valore universale
h 49
.

Quella regola che era stata presentata come “una semplicissima
interpretazione del risultato” è adesso trasformata nella “principale
ipotesi”.
In conclusione della terza e ultima parte del proprio lavoro, Bohr
riepiloga le cinque assunzioni fondamentali che ha usato. I primi tre
principi sono sostanzialmente equivalenti ai due principi enunciati in
apertura della prima parte. Sono diventati tre perché Bohr enuncia il
principio di Planck (E=hν) come un principio a sé stante. I due nuovi
principi riguardano il momento angolare: gli stati stazionari sono
determinati dalla condizione che il momento angolare dell’elettrone
h
sia un multiplo intero di ; lo stato fondamentale è determinato

dalla condizione che il momento angolare degli elettroni sia uguale a
h
. In definitiva, Bohr assume che gli elettroni abbiano momento

angolare nℏ, ove n è un numero intero maggiore di 0, che prende il
nome di numero quantico. Il valore n=1 individua lo stato
fondamentale. Nel riepilogo finale della teoria, il principio di
corrispondenza scompare. I cinque principi enunciati da Bohr sono i
seguenti.
(P1) L’orbita dell’elettrone è caratterizzata da alcuni stati stazionari,
descrivibili mediante la meccanica e l’elettrodinamica classica. Il
passaggio da uno stato stazionario all’altro non è descrivibile dalle
teorie ordinarie, ma richiede alcuni nuovi principi.
(P2) Il passaggio dell’elettrone da uno stato stazionario all’altro è
accompagnato dall’emissione di radiazione elettromagnetica
monocromatica.

49
Bohr 1913 p. 477.
(P3) La relazione tra la frequenza ν della radiazione emessa nel
passaggio da uno stato stazionario all’altro e la quantità di energia
E persa dall’elettrone è data dalla legge di Planck E=hν.
(P4) Gli stati stazionari sono determinati dalla condizione che il
h
momento angolare dell’elettrone sia uguale a n ove n è un

numero intero.
(P5) Lo stato fondamentale è determinato dalla condizione che il
h
momento angolare dell’elettrone sia uguale a , ossia è

determinato da (P4) con n=1.

2.6 Validità della teoria di Bohr


Cerchiamo di individuare in quali circostanze la teoria di Bohr
fornisce previsioni ragionevolmente corrette. Questa condizioni,
fortunatamente, sono enunciate dallo stesso Bohr nei suoi articoli.
Assumiamo, come fa Bohr, che la massa dell’elettrone sia molto
piccola rispetto a quella del nucleo e che la velocità dell’elettrone sia
piccola rispetto a quella della luce.
La prima condizione, che la massa dell’elettrone sia trascurabile
rispetto a quella del nucleo, consente di considerare l’elettrone come
soggetto a una forza centrale. È in realtà quest’ultima restrizione
quella importante. La teoria di Bohr, infatti, si basa sull’assunzione
che l’unico elettrone dell’idrogeno sia soggetto a una forza centrale
diretta verso il nucleo. Dunque, la prima condizione che deve essere
soddisfatta affinché la teoria di Bohr possa sperare di essere valida è
la seguente:
(C1) L’elettrone si muove intorno al nucleo sotto l’influsso di una
forza centrale.
La seconda condizione imposta da Bohr, che la velocità
dell’elettrone sia trascurabile rispetto alla velocità della luce, serve a
evitare le correzioni richieste dalla relatività speciale. Quanto piccola
deve essere la velocità dell’elettrone? Bohr non definisce alcuna
soglia della velocità, sopra la quale le correzioni relativistiche sono
indispensabili. Di fatto, la velocità dell’elettrone è piccola (quindi la
teoria di Bohr è in prima approssimazione corretta) ma non è tanto
piccola da essere trascurabile (infatti, nel corso del suo lavoro, Bohr
stesso introdurrà alcune correzioni richieste dalla teoria delle
relatività). La condizione imposta è in realtà una condizione limite:
la teoria è corretta quando il limite del rapporto tra velocità
dell’elettrone e velocità della luce tende a 0. Si può dunque
formulare la seconda condizione nel modo seguente.
(C2) Il rapporto v/c tra la velocità v dell’elettrone e la velocità c
della luce tende a 0.
Un’altra condizione imposta da Bohr è: “Possiamo … assumere
che l’orbita [dell’elettrone] è circolare” 50. Questa condizione è
confermata nell’enunciato di un teorema impiegato nello studio di
sistemi più complessi dell’atomo d’idrogeno.
In ogni sistema composto di elettroni e di nuclei positivi, nel quale i
nuclei sono a riposo e gli elettroni si muovono su orbite circolari con
una velocità piccola comparata con la velocità della luce, l’energia
cinetica sarà uguale in valore assoluto a metà dell’energia
potenziale.51
La teoria di Bohr, dunque, richiede che gli elettroni percorrano
orbite circolari. Possiamo formulare quindi la seguente terza
condizione:
(C3) L’orbita degli elettroni è circolare.
Lo stesso Bohr riflette sulla bontà di queste condizioni:
abbiamo supposto che gli elettroni si muovano sotto l’influenza di
una forza radiale stazionaria e che le loro orbite sia esattamente
circolari. La prima condizione non sarà soddisfatta se consideriamo
un sistema contenente diversi anelli di elettroni che ruotano con
frequenze diverse.52

50
Bohr 1913 p. 4.
51
Bohr 1913 p. 24 enfasi aggiunta.
52
Bohr 1913 p. 482.
La condizione relativa alla natura circolare dell’orbita degli
elettroni va dunque considerata come una condizione limite. Quanto
più l’orbita degli elettroni si avvicina all’orbita circolare, tanto più la
teoria è applicabile. Dunque, possiamo riformulare la (C 3) nel modo
seguente:
(C4) Gli elettroni tendono a percorrere un’orbita circolare.
Questa condizione si declina in modo diverso a seconda della
particolare situazione fisica studiata. Per esempio, nel caso di un
sistema contenente diversi anelli di elettroni che ruotano con
frequenze diverse, Bohr richiede che “la distanza tra gli anelli non sia
piccola in confronto al loro raggio e […] il rapporto tra le loro
frequenze non sia prossimo all’unità”53.
Le condizioni (C1), (C2) e (C4) sono dunque le condizioni
necessarie affinché la teoria di Bohr possa fornire previsioni
ragionevoli. Qualunque sistema nel quale si desideri applicare la
teoria di Bohr deve soddisfare (C1), (C2) e (C4).
Il lettore potrebbe porre la seguente questione: Perché considerare
(C1), (C2) e (C4) come le condizioni necessarie per la validità della
teoria di Bohr e non considerarle, invece, come facenti parte della
teoria stessa? Cosa distingue (C1), (C2) e (C4) dai principi
fondamentali (P1)-(P5)? La risposta è che (C 1), (C2) e (C4) sono
condizioni esterne alla teoria, mentre (P1)-(P5) sono interne. Cosa
vogliamo dire? Consideriamo dapprima (C 4) o, per semplicità, (C3).
Che l’orbita degli elettroni sia circolare non è una proposizione della
teoria di Bohr. L’orbita dell’elettrone, secondo la teoria di Bohr, può
essere ellittica. Di fatto, questa possibilità è contemplata da Bohr.
All’inizio della presentazione della propria teoria, Bohr asserisce che
“gli elettroni descriveranno orbite ellittiche stazionarie” 54. Tuttavia,
le orbite ellittiche scompaiono nella seconda e terza parte
dell’articolo. Ciò avviene non perché Bohr sia convinto che l’orbita
degli elettroni è circolare, ma per esigenze di semplificazione del
calcolo. La teoria di Bohr prevede che le orbite degli elettroni sono
ellittiche. Tuttavia, al fine di applicare la teoria ai sistemi fisici
53
Bohr 1913 p. 482.
54
Bohr 1913 p. 3.
studiati, Bohr assume che le orbite sono circolari. I risultati ottenuti
saranno validi quanto più l’orbita reale approssima un’orbita
circolare. Dobbiamo distinguere tra la teoria idealizzata di Bohr,
secondo la quale l’orbita degli elettroni è ellittica, e la teoria
schematizzata di Bohr, che consente la semplificazione dei calcoli
matematici tramite l’ipotesi aggiuntiva che l’orbita degli elettroni è
circolare. L’asserzione della circolarità dell’orbita degli elettroni,
dunque, non appartiene alla teoria di Bohr. Essa è una condizione
addizionale che serve a semplificare i problemi matematici. Tuttavia,
i risultati dedotti dalla teoria di Bohr sono validi soltanto se la
semplificazione operata è rispettata (salvo casi, sempre possibili, di
straordinaria fortuna, nei quali il risultato ottenuto in determinate
condizioni ristrette vale anche per condizioni più generali). I risultati
conseguiti dalla teoria di Bohr valgono soltanto nei sistemi fisici (è
meglio dire, nei modelli) nei quali l’orbita degli elettroni tende ad
essere circolare. Nei casi in cui l’orbita è fortemente ellittica, la
teoria non può valere. Fu proprio il superamento della
semplificazione concernente la natura circolare dell’orbita degli
elettroni che permise di dar conto di alcune particolarità dello spettro
dell’atomo di idrogeno inspiegabili dalla teoria di Bohr nella sua
versione del 1913. Dunque, la condizione (C3) non fa parte della
teoria di Bohr, ma delle restrizioni applicate alla teoria per esigenze
di semplificazione. La condizione (C3) è una condizione necessaria
per la validità della teoria di Bohr applicata allo studio di sistemi
fisici reali. Per questo diciamo che (C 3) ha una natura diversa dai
principi (P1)-(P5). Questi ultimi definiscono la teoria di Bohr, mentre
(C3) definisce le condizioni necessarie affinché le previsioni della
teoria siano vere.
Analoghe considerazioni valgono per (C 1) e (C2). Iniziamo con
(C1), che afferma che l’elettrone si muove sotto l’influsso di un
campo di forza centrale. Che la teoria, nella sua versione iniziale, sia
valida soltanto nel caso in cui l’elettrone si muova in un campo di
forze centrale, diretto verso il nucleo, è dimostrato sia dall’ipotesi
che “la massa dell’elettrone è piccola, in modo trascurabile, in
confronto con quella del nucleo”, sia dalle formule usate da Bohr per
descrivere la frequenza e l’energia dell’elettrone, che sono valide nel
caso di una forza centrale 55. Inoltre, il moto dell’elettrone in
un’orbita circolare intorno al nucleo con velocità costante in valore
assoluto è possibile solo se l’elettrone è soggetto a una forza centrale.
Questa limitazione della teoria di Bohr è esplicitamente ammessa nel
calcolo di una tabella che fornisce, approssimativamente, il numero
massimo di elettroni che possono risiedere in un determinato anello,
in funzione del numero di protoni contenuti nel nucleo.
Sopra [nel calcolo della tabella] noi abbiamo supposto che gli
elettroni si muovano sotto l’influenza di una forza radiale stazionaria
e che le loro orbite siano circolari.56
Tenuto conto di queste asserzioni di Bohr, in che senso possiamo
dire che la condizione (C1) è una condizione esterna alla teoria? Per
quale motivo (C1) non è un assioma della teoria di Bohr, ma è una
delle condizioni che qualsiasi modello deve soddisfare affinché la
teoria di Bohr sia applicabile? La risposta è semplice: la teoria di
Bohr, pur essendo valida soltanto nel caso che la condizione (C 1) sia
soddisfatta, non postula la validità di (C 1). La teoria di Bohr non
suppone che l’elettrone sia sotto l’influsso di una forza centrale.
Questa assunzione è aggiunta al fine di semplificare alcuni problemi
di calcolo. La teoria di Bohr è pronta a rinunciare alla validità di (C 1)
per migliorare la corrispondenza con i dati osservativi. L’abbandono
della condizione (C1) avverrà in seguito, consentendo alla teoria di
spiegare alcune particolarità dello spettro dell’idrogeno.
Possiamo esprime questo concetto in un altro modo. Mentre
l’affermazione che l’emissione di radiazione elettromagnetica
avviene solo nel passaggio tra due stati stazionari è un assioma
fondamentale della teoria di Bohr, l’affermazione che l’elettrone è
soggetto a una forza centrale è un mezzo per semplificare i calcoli.
Quindi, (C1) rappresenta una condizione di applicabilità della teoria,
ma non è un assioma della teoria stessa.
È possibile esprimere questo fatto ancora in un modo diverso. Ogni
modello della teoria di Bohr deve soddisfare la condizione che
l’emissione di radiazione elettromagnetica avviene solo nel

55
Bohr 1913 p. 3.
56
Bohr 1913 p. 482.
passaggio tra due stati stazionari secondo la legge hν=Em-En. Un
sistema che non soddisfa tali condizioni non può essere,
necessariamente, un modello della teoria di Bohr. Al contrario, un
sistema nel quale l’elettrone non è soggetto a una forza centrale
potrebbe essere un modello della teoria, anche se non lo è
contingentemente.
Per essere più chiari, consideriamo l’esempio seguente. Siano I1 e I2
due interpretazioni della teoria di Bohr. Supponiamo che le
previsioni della teoria di Bohr siano, magari per semplice fortuna,
corrette sia in I1 sia in I2. Supponiamo che nel sistema fisico descritto
dall’interpretazione I1 non valga la legge hν=Em-En mentre in I2 vale
la legge hν=Em-En, ma non valga (C1). Noi affermiamo che I1 non
può essere un modello della teoria di Bohr, mentre I2 può esserlo. Gli
assiomi della teoria non possono essere cambiati (o, meglio, se sono
cambiati si formula una teoria diversa), ma le condizioni restrittive
per la validità della teoria, che spesso derivano da tentativi di
semplificare i calcoli, possono essere modificate restando nella
medesima teoria. Per questo motivo (C 1) non è un assioma della
teoria, ma è una condizione che impone alcuni limiti all’applicabilità
della teoria.
Ci sia consentito di evitare un’analisi dettagliata di (C2). In estrema
sintesi, l’ipotesi che la velocità dell’elettrone sia piccola rispetto alla
velocità della luce non fa parte della teoria di Bohr, ma serve
anch’essa a semplificare i calcoli, trascurando le correzioni
relativistiche. Poiché il rapporto tra velocità dell’elettrone dell’atomo
di idrogeno e velocità della luce è di circa 1 a 137, in prima
approssimazione (C2) è soddisfatta. (C2) non è un assioma della
teoria, ma una restrizione circa la sua applicabilità. Tale restrizione
sarà in seguito rimossa, permettendo l’applicazione delle correzioni
relativistiche ai calcoli di Bohr. L’esito sarà quello di consentire di
spiegare la struttura fine delle righe dello spettro dell’idrogeno, ossia
il loro dividersi in più righe tra loro vicinissime.
Riepilogando, la teoria di Bohr contiene le proposizioni (P1)-(P5)
come assiomi fondamentali. Le proposizioni (C1), (C2) e (C4),
invece, sono le condizioni che devono essere soddisfatte per
l’applicabilità della teoria di Bohr.
Si osservi, infine, che la teoria di Bohr nasce già con precise
limitazioni di validità. Questi limiti erano noti al suo stesso ideatore
che, con grande precisione, li evidenzia tutti. La teoria, dunque,
nasce già circoscritta e non può aspirare a una validità generale.

2.7 Il principio di corrispondenza


L’analisi del modo in cui è usato il principio di corrispondenza
nella teoria di Bohr, e in particolare nella sua evoluzione successiva
al 1913, ci permetterà di riflettere ancora sulla natura della teoria di
Bohr. Il risultato che otterremo, che ci sentiamo qui di anticipare, è
questo: la teoria di Bohr richiede che la meccanica e
l’elettrodinamica classica siano valide quando il numero quantico n
tende a infinito. Ossia, ogni interpretazione della teoria di Bohr può
essere un modello della teoria soltanto se, per valori grandi del
numero quantico n, quell’interpretazione soddisfa la meccanica e
l’elettrodinamica classica. Quindi, in un senso ben preciso, la teoria
di Bohr non contraddice la meccanica e l’elettrodinamica classica. Al
contrario, la validità della meccanica e dell’elettrodinamica classica è
una condizione necessaria per la validità della teoria di Bohr. Questo
fatto ci induce a dire che la teoria di Bohr non è una falsificazione
della meccanica e dell’elettrodinamica classica. La teoria di Bohr
individua meglio le condizioni in cui la meccanica e
l’elettrodinamica classica possono valere.
La teoria di Bohr contiene l’ipotesi che “la quantità di energia
irradiata da un oscillatore atomico di frequenza ν in un’emissione
singola sia eguale a τh ν , dove τ è un numero intero e h è una
costante universale [la costante di Planck]” 57.
E=τh ν (2.15)
La formula (2.15) esprime l’energia irradiata in funzione di una
frequenza ν che non può essere calcolata usando i principi della
teoria di Bohr. Per uscire dallo stallo, Bohr ipotizzò che la frequenza
irradiata fosse uguale alla metà della frequenza di rivoluzione ω
dell’elettrone intorno al nucleo. Con tale ipotesi, la (2.15) diviene
57
Bohr 1913 p. 4.
1
E= τhω (2.16)
2
La frequenza ω di rivoluzione è determinata, nell’ipotesi di Bohr,
dalle ordinarie leggi della meccanica classica, supponendo che il
moto dell’elettrone avvenga in accordo alle leggi di Keplero. In
questo modo, ricorrendo alla descrizione della meccanica classica,
Bohr è effettivamente in grado di calcolare un valore determinato per
le grandezze fisiche che occorrono nelle formule da lui proposte per
descrivere l’atomo d’idrogeno.
La situazione può essere descritta in questi termini. Nelle equazioni
della teoria di Bohr compare un termine che non può essere calcolato
usando la teoria stessa. Bohr ipotizza una relazione numerica tra tale
termine e un altro termine determinabile mediante la meccanica
classica. Tramite quest’ultima relazione egli è in grado di assegnare
un valore al termine che occorre nelle equazioni che ha proposto, che
possono così essere controllate. In definitiva, Bohr ha bisogno di un
legame tra le equazioni della nuova teoria e quelle della meccanica
classica, per assegnare un significato determinato alla propria teoria.
In assenza di questo legame, le equazioni della nuova teoria non
hanno un’interpretazione fisica definita. Bohr è consapevole che
l’ipotesi che la frequenza irradiata sia la metà della frequenza di
rivoluzione dell’elettrone intorno al nucleo è artificiosa. Tenta quindi
di eliminarla, sostituendola con un’ipotesi più realistica. Questa
ipotesi è che nella “regione delle lente vibrazioni”, ossia nella
regione esterna dell’atomo, la meccanica e l’elettrodinamica
classiche forniscano una descrizione valida dell’atomo. Quando
l’orbita dell’elettrone è molto ampia, la frequenza irradiata può
essere calcolata usando l’elettrodinamica classica, stabilendo tra ν e
1
ω proprio la relazione attesa ν= ω. Per orbite piccole, nelle quali
2
la descrizione classica è inadeguata, Bohr assume che la relazione
1
ν= ω calcolata per orbite grandi, conservi il proprio valore. In
2
questo modo Bohr assegna un’interpretazione fisica determinata alle
proprie equazioni. Nel caso di orbite grandi, l’interpretazione fisica è
fissata dal confronto con l’elettrodinamica classica, supposta valida
in quelle circostanze. Per orbite piccole, l’interpretazione fisica è
definita supponendo che la relazione stabilita per orbite grandi sia
ancora valida, anche se l’elettrodinamica classica conduce a risultati
errati. Osserviamo, incidentalmente, che Bohr ha determinato le
condizioni nelle quali l’elettrodinamica classica è valida nel campo
microscopico: essa è valida per le lente vibrazioni, ossia per orbite
ampie. Osserviamo anche che la teoria di Bohr richiede che la fisica
classica sia valida in determinate circostanze. Senza l’ipotesi che la
fisica classica descriva correttamente l’atomo per le lente vibrazioni,
la teoria di Bohr non avrebbe significato fisico. La teoria di Bohr
richiede, lo ripetiamo, la validità della fisica classica in circostanze
determinate. Quest’osservazione mostra alcuni fatti importanti. Il
primo, che la teoria di Bohr non contraddice semplicemente la fisica
classica, né può essere considerate come una sua falsificazione. Il
secondo, che la teoria di Bohr descrive alcune condizioni che devono
essere soddisfatte affinché la fisica classica sia applicabile. Il terzo,
che la teoria di Bohr nasce come una teoria limitata, in quanto è noto
che in determinati casi non può essere valida: la teoria di Bohr è
falsificata nel momento stesso in cui è proposta.
La connessione tra la teoria di Bohr e la fisica classica è necessaria
per fornire un’interpretazione fisica alla prima. Questa connessione
prenderà il nome di “principio di corrispondenza”. Questa
espressione compare per la prima volta in una conferenza che Bohr
tenne a Berlino presso la Società di Fisica il 27 aprile 1920. Il testo
della conferenza, in tedesco, fu pubblicato lo stesso anno nella rivista
Zeitschrift für Physik58. La traduzione inglese è stata pubblicata nel
192259. È impossibile determinare la radiazione emessa da un atomo
– osserva Bohr – ricorrendo alla meccanica e all’elettrodinamica
classiche perché queste teorie affermano che “la natura della
radiazione emessa da un atomo è direttamente determinata dal moto
del sistema e dalla sua risoluzione nelle componenti armoniche” 60.
Tuttavia – continua Bohr – si è trovato che “tra i diversi tipi di
58
Bohr 1920.
59
Bohr 1922.
60
Bohr 1920 p. 427.
possibili transizioni tra questi stati [stazionari] da un lato e le diverse
componenti armoniche in cui si scompone il moto del sistema
dall’altro lato esiste una corrispondenza di vasta portata”61. È questa
la prima volta che Bohr usa il termine corrispondenza
[Korrespondenz] per parlare della relazione sussistente tra la
meccanica quantistica e la fisica classica. È importante osservare che
lo fa in modo sostanzialmente diverso da quello usato nel 1913,
quando affermava l’esistenza di una convergenza tra i risultati della
fisica classica e della teoria quantistica nella regione delle “lente
vibrazioni”. Nella conferenza del 1920 Bohr afferma l’esistenza di
una correlazione tra le frequenze emesse dall’atomo nel decadere da
uno stato stazionario all’altro e le componenti armoniche del moto di
rivoluzione dell’elettrone, come descritto dalla fisica classica. Le
frequenze calcolate dalla fisica quantistica e quelle calcolate dalla
fisica classica – osserva Bohr – coincidono “nel caso in cui gli stati
stazionari differiscono di poco l’uno dall’altro” 62. La condizione di
validità della fisica classica è più o meno la medesima negli articoli
del 1913 e del 1920. La fisica classica fornisce una descrizione
adeguata quando l’orbita dell’elettrone è ampia. In questo caso,
infatti, siamo sia nella regione delle lente vibrazioni sia nel caso in
cui le orbite elettroniche si differenziano di poco. In definitiva, la
fisica classica è applicabile a condizione che l’orbita dell’elettrone
sia molto ampia.
È comunque importante osservare che la formulazione del principio
di corrispondenza presentata nella conferenza del 1920 è assai
diversa dalla condizione che l’orbita dell’elettrone è classicamente
descrivibile quando è ampia. La formulazione del 1920 collega le
frequenze emesse e le loro intensità, che dipendono dalla probabilità
di transizione, con le armoniche in cui classicamente si scompone il
moto dell’elettrone. In particolare, “la probabilità relativa di una
determinata transizione tra due stati stazionari è collegata in maniera
semplice con l’ampiezza delle corrispondenti componenti armoniche
del moto”63.
61
Bohr 1920 p. 427 enfasi nell’originale.
62
Bohr 1920 p. 430.
63
Bohr 1920 p. 431.
La situazione, di grande interesse filosofico, può essere riassunta
nei termini seguenti. La teoria di Bohr dell’atomo dell’idrogeno
permette di dedurre alcune relazioni che collegano le differenze di
energia tra gli stati stazionari con le frequenze emesse dall’atomo
quando l’elettrone decade da uno stato di maggiore energia a uno di
minore energia. L’ampiezza delle righe spettrali è collegata con la
probabilità delle transizioni tra gli stati stazionari. Non è tuttavia
possibile, rimanendo nell’ambito della teoria di Bohr, determinare le
frequenze emesse dall’atomo. Sappiamo che le frequenze emesse
dipendono dalla differenza tra l’energia degli stati stazionari;
sappiamo che le frequenze emesse dipendono dalla frequenza di
rivoluzione dell’elettrone; tuttavia, non siamo in grado di
determinare direttamente l’energia degli stati stazionari né l’esatta
forma della dipendenza della frequenza spettrale dalla frequenza di
rivoluzione. Questo problema può essere risolto ricorrendo alla fisica
classica. Nel proprio campo di validità, che possiamo identificare
con quello delle “lente vibrazioni” (nell’articolo del 1913) o delle
orbite che differiscono di poco tra loro (nella conferenza del 1920),
la fisica classica determina una relazione tra la frequenza di
rivoluzione dell’elettrone e le sue componenti armoniche ottenute
tramite l’analisi di Fourier, da un lato, e le frequenze emesse
dall’atomo, dall’altro lato. Bohr ipotizza che questa relazione, valida
per orbite sufficientemente grandi, sia valida e rimanga la medesima
anche per orbite piccole, dove la fisica classica perde di validità. Con
questa estrapolazione Bohr consente alla propria teoria di avere un
punto di contatto con i dati sperimentali. La teoria è in grado di
calcolare effettivamente le energie delle orbite elettroniche e la
probabilità delle transizioni, potendo dunque prevedere le frequenze
emesse e le rispettive intensità.
Dal punto di vista filosofico, si deve osservare che la teoria di
Bohr, per avere un significato fisico determinato, richiede che la
fisica classica sia valida in alcuni contesti. La teoria di Bohr, quindi,
non falsifica la fisica classica, ma al contrario richiede la validità
della fisica classica in un campo preciso. La teoria di Bohr, dunque,
più che falsificare la fisica classica, contribuisce a determinare in
quali condizioni sia valida. Se la fisica classica fosse semplicemente
falsa, la teoria di Bohr non potrebbe avere alcun contatto con la
realtà dei fatti sperimentali. Riteniamo che questa situazione,
caratterizzata dal fatto che la nuova teoria non falsifica la vecchia e
non ne impone l’abbandono, ma anzi richiede la validità, entro un
determinato campo, della vecchia teoria, sia una situazione ricorrente
nella storia della scienza.

2.8 Contraddizioni nella teoria di Bohr


A differenza della meccanica celeste, che usa diversi modelli tra
loro contraddittori, ma all’interno dei quali è conservata la
consistenza, la teoria di Bohr usa modelli descritti da assiomi
contraddittori. Questo è dovuto al fatto che la teoria di Bohr assume
che il moto dell’elettrone in un’orbita stazionaria sia descritto tramite
le equazioni della meccanica e dell’elettrodinamica classica. Queste
teorie, tuttavia, prevedono che l’elettrone emetta continuamente
energia, poiché il suo moto è accelerato. Bohr introduce un assioma
che nega esplicitamente tale fatto: l’elettrone non emette energia
quando percorre un’orbita stazionaria. Quindi, uno degli assiomi
della teoria di Bohr contraddice esplicitamente una delle
conseguenze delle teorie che lo stesso Bohr usa per determinare
l’orbita dell’elettrone. Gli assiomi, dunque, sono tra loro
contraddittori. Tale considerazione ci porta a una nuova risposta alla
domanda “Cos’è una teoria scientifica?”

Cos’è una teoria scientifica? Risposta n. 5

Una teoria scientifica è un insieme di modelli. Ciascun


modello è definito mediante un insieme di assiomi espressi
nella lingua naturale e nella lingua della scienza. Tali
insiemi di assiomi possono essere tra loro contraddittori.
Alcuni modelli possono contraddire i principi fondamentali
della teoria stessa (osserviamo che ammettiamo
implicitamente una distinzione tra i principi fondamentali e
Cos’è una teoria scientifica? Risposta n. 5

gli assiomi che definiscono i modelli). Alcuni modelli si


possono basare su un insieme contraddittorio di assiomi.
Alcuni modelli si possono basare su assiomi che esprimono
ipotetiche condizioni iniziali o al contorno la cui falsità
empirica è nota. I modelli usano, come regole di
deduzione, un insieme non ben definito di regole logiche e
matematiche, non necessariamente le medesime in tutti i
modelli. Per evitare che la teoria scientifica sia palesemente
contraddittoria, non tutti i teoremi derivabili dagli assiomi
sono accettati come facenti parte della teoria, ma alcuni
teoremi sono esclusi dalla teoria. Non esiste un criterio
esplicito per escludere alcuni teoremi e accettarne altri. Sta
alla sensibilità dello studioso accettare o scartare alcuni
teoremi, con l’obiettivo di preservare la non
contraddittorietà della teoria. Alcuni modelli non sono
impiegati per derivare teoremi, ma per individuare le
condizioni necessarie e sufficienti nelle quali una qualche
ipotesi, che sappiamo falsa, sarebbe vera. Gli assiomi di
questi modelli contraddicono direttamente uno o più
principi fondamentali della teoria. I modelli basati su
assiomi di cui è nota la contraddittorietà o la falsità sono
accettati come componenti della teoria. Tuttavia, i teoremi
derivabili in tali modelli possono essere contraddittori o
falsi. È compito dello studioso impiegare in modo oculato
questi teoremi, scartando quelli “assurdi” o “troppo falsi” e
accettando quelli “non assurdi e non troppo falsi”. Al
momento, non è possibile fornire criteri né spiegazioni
ragionevoli di questi termini, salvo osservare che, in
pratica, chi si occupa di ricerca scientifica sembra in grado
di individuare quali teoremi accettare e quali scartare in
maniera ragionevolmente accurata e condivisa.
Nei prossimi capitoli continueremo a rispondere alla domanda
“Cos’è una teoria scientifica?” e inizieremo a rispondere anche alla
domanda “Cos’è il campo di validità di una teoria scientifica?”
Capitolo 3. La meccanica

3.1 Meccanica classica e leggi di Keplero


Rivolgiamo nuovamente la nostra attenzione alla meccanica
celeste. Abbiamo visto che Newton ha individuato la condizione
necessaria e sufficiente per la validità delle prime due leggi di
Keplero. L’orbita di un pianeta soddisfa le prime due leggi di
Keplero se e solo se quel pianeta è soggetto esclusivamente a una
forza centripeta diretta verso il Sole, che a sua volta è immobile o in
moto rettilineo uniforme. Sappiamo anche che la meccanica classica,
in virtù del principio di azione e reazione, implica la falsità delle
leggi di Keplero. Queste sarebbero valide soltanto se il Sole non
subisse alcun effetto a causa della gravità dei pianeti. Ovviamente,
questa ipotesi è falsa, perché all’azione gravitazionale del Sole sui
pianeti corrisponde una reazione dei pianeti sul Sole.
Descriviamo la situazione in modo un poco più formale. Siano N1,
N2, N3, K1, K2 e C, rispettivamente, la prima legge di Newton, la
seconda legge di Newton, la terza legge di Newton, la prima legge di
Keplero, la seconda legge di Keplero e l’asserzione che la forza
centripeta è diretta verso un punto immobile o in moto rettilineo
uniforme. Indichiamo rispettivamente la negazione dell’enunciato F,
la congiunzione di due enunciati F e G e l’equivalenza logica tra
l’enunciato F e l’enunciato G con i simboli ¬ F , ( F ⋀ G ) ,(F ↔ G) .
Usiamo la scrittura A ⊧ F per indicare che l’enunciato F è una
conseguenza logica dell’insieme di enunciati A . Valgono le seguenti
relazioni.
{ N 1 , N 2 , N 3 } ⊧¬ K 1 (3.1)

{ N 1 , N 2 , N 3 } ⊧¬ K 2 (3.2)

{ N 1 , N 2 }⊧ C ↔ ( K 1 ⋀ K 2 ) (3.3)
Le relazioni (3.1) e (3.2) esprimono il fatto che la meccanica
celeste implica la falsità delle leggi di Keplero, mentre la (3.3)
mostra che la meccanica celeste è in grado di dimostrare che le leggi
di Keplero sono vere se e solo la forza è centripeta ed è diretta verso
un punto immobile o in moto rettilineo uniforme.
Consideriamo la teoria costituita dalle prime due leggi di Keplero.
La (3.3) rappresenta il fatto che la meccanica celeste è in grado di
individuare la condizione necessaria e sufficiente affinché le leggi di
Keplero siano vere. Esprimiamo ciò dicendo che la meccanica
celeste determina il campo di validità delle due leggi di Keplero.
Tale campo di validità è l’enunciato C, ossia la condizione che la
forza è centripeta ed è diretta verso un punto immobile o in moto
rettilineo uniforme. La (3.3) stabilisce una relazione tra tre termini:
1° termine: l’insieme di enunciati { N 1 , N 2 }
2° termine: l’enunciato ( K 1 ⋀ K 2 )
3° termine: l’enunciato C
Tale relazione può essere così espressa: il campo di validità
dell’enunciato ( K 1 ⋀ K 2 ) rispetto all’insieme di enunciati { N 1 , N 2 } è
l’enunciato C.
Assumiamo, per rendere più semplice l’esposizione, che la risposta
n. 1 al quesito “Cos’è una teoria scientifica?” sia corretta
(naturalmente, sappiamo che tale risposta è errata). Aggiungiamo
un’ipotesi che semplifica ancor di più la descrizione delle teorie
scientifiche, ossia supponiamo che gli assiomi di una teoria
scientifica siano in numero finito, in modo tale che la loro
congiunzione sia un enunciato sintatticamente corretto. Una teoria
scientifica potrà dunque essere rappresentata mediante un unico
enunciato T, costituito della congiunzione di tutti gli assiomi della
teoria stessa. L’enunciato T può essere considerato come l’unico
assioma della teoria. Questo modo di descrivere le teorie scientifiche
è quello introdotto dal neopositivismo logico e va sotto il nome di
modello sintattico delle teorie scientifiche.
Siano date due teorie, identificabili con gli enunciati T1 e T2
corrispondenti alla congiunzione dei loro assiomi. Sia C un
enunciato. Supponiamo che valga la relazione seguente.
{ T 1 } ⊧ ( C ↔ T 2) (3.4)
La (3.4) afferma che il campo di validità della teoria T2, rispetto
alla teoria T1, è l’enunciato C. Quindi, in prima grossolana
approssimazione, il campo di validità di una teoria T2, rispetto a
un’altra teoria T1, è quell’enunciato che rappresenta la condizione
necessaria e sufficiente, rispetto a T1, affinché T2 sia vera.
Naturalmente, questa definizione è errata, perché una teoria non è
identificabile con un insieme di enunciati, ma è rappresenta da un
insieme di modelli, talvolta tra loro contraddittori, talvolta basati su
assiomi contraddittori e talvolta basati su ipotesi notoriamente false.
Quindi, dobbiamo cercare di individuare una definizione del campo
di validità di una teoria che tenga conto di tali fatti.

3.2 Il campo di validità


Miglioriamo la risposta alla domanda “Cos’è una teoria
scientifica?” indicando chiaramente i vari elementi che compongono
una teoria scientifica.

Cos’è una teoria scientifica? Risposta n. 6

1) Una teoria scientifica è una famiglia di modelli Mi (i è


un numero naturale).
2) Ciascun modello Mi è basato su un insieme di assiomi
Ai.
3) Le regole deduttive non sono necessariamente le
medesime per tutti i modelli Mi e comprendono le regole
della logica e i teoremi della matematica.
4) M0 è il modello idealizzato della teoria; il
corrispondente insieme di assiomi A0 è l’insieme dei
principi della teoria.
5) Ogni modello Mi (i > 0) è un modello schematizzato
della teoria; l’insieme Ai ∪ A 0 è contraddittorio (ossia, i
Cos’è una teoria scientifica? Risposta n. 6

modelli schematizzati contraddicono il modello


idealizzato).
6) Possono esistere modelli Mi e Mj, i≠j, i > 0 e j > 0, tali
che l’insieme Ai ∪ A j è contraddittorio (ossia, possono
esistere modelli schematizzati della teoria tra loro
contraddittori).
7) Possono esistere modelli Mi tali che l’insieme Ai è
contraddittorio (ossia, può esistere qualche modello –
idealizzato o schematizzato – basato su assiomi
contraddittori).
8) Esistono modelli Mi tali che l’insieme Ai è noto
contenere asserzioni false (ossia, può esistere qualche
modello – idealizzato o schematizzato – basato su assiomi
noti come falsi).
9) Non tutti i teoremi derivabili dagli assiomi Ai sono
accettati come parte della teoria, per evitare che la teoria
sia contraddittoria (ossia, la teoria non è chiusa rispetto alle
regole di deduzione).
10) Qualche modello Mi, i > 0, può essere usato per
determinare le condizioni necessarie e sufficienti (o un loro
sottoinsieme) in cui qualche teoria T, che di solito si sa
essere falsa, sarebbe vera.

Illustriamo la risposta n. 6 con riferimento alla meccanica celeste.


1) La teoria della meccanica celeste è composta di vari modelli, tra
i quali possiamo citare:
a) il modello illustrato nella figura 1, nel quale ogni pianeta
subisce l’influsso gravitazionale del Sole e degli altri pianeti,
influenzando a sua volta sia il Sole sia gli altri pianeti;
b) il modello illustrato nella figura 2, nel quale ogni pianeta
subisce l’influsso gravitazionale del Sole, influenzandolo a
sua volta, ma si trascurano i reciproci influssi gravitazionali
tra i pianeti;
c) il modello illustrato nella figura 3, nel quale il Sole e i
pianeti sono rappresentati da punti materiali;
d) il modello illustrato nella figura 4, nel quale si trascura
l’effetto gravitazionale dei pianeti sul Sole;
e) il modello nel quale si suppone che la forza di attrazione
gravitazionale sia una forza centripeta diretta verso il Sole
(in questo modello si può dimostrare la validità delle prime
due leggi di Keplero);
f) il modello nel quale si suppone che valgano le prime due
leggi di Keplero (in questo modello si può dimostrare che i
pianeti si muovono sotto l’influsso di una forza di attrazione
centripeta diretta verso il Sole).
2) Ciascuno dei sei modelli precedenti può essere definito mediante
un determinato insieme di assiomi.
3) Le regole di deduzione usate nei sei modelli sono le medesime e
si basano sulla logica e sulla matematica.
4) Il modello della figura 1 è il modello idealizzato, che possiamo
indicare con la sigla M0, nel quale valgono i principi della
meccanica classica, identificabili sostanzialmente nelle tre leggi
di Newton e nella legge di gravità.
5) I modelli diversi da M0 sono modelli schematizzati, che
contraddicono qualche assioma del modello M0. Ad esempio, nel
modello della lettera b) si ipotizza che non vi siano interazioni
gravitazionali tra i pianeti, contraddicendo la legge di gravità; nel
modello della lettera e) si ipotizza che la forza gravitazionale sia
centripeta e diretta verso il Sole, contraddicendo la legge di
azione e reazione e la legge di gravità.
6) Alcuni modelli schematizzati sono tra loro contraddittori. Ad
esempio, il modello della lettera b) ipotizza che i pianeti
influenzino il Sole mentre il modello della lettera d) ipotizza che
i pianeti non influenzino il Sole.
7) Nella meccanica celeste non sembra che ci siano modelli basati
su insiemi di assiomi contraddittori; tuttavia, questo è il caso
nella teoria dell’atomo di Bohr.
8) Alcuni modelli della meccanica celeste sono basati su ipotesi che
sono note come false. In particolare, ciò avviene nel modello che
ipotizza la validità delle prime due leggi di Keplero, la cui falsità
era già nota allo stesso Newton.
9) Se la meccanica celeste fosse chiusa rispetto alle regole di
deduzione, allora conterrebbe teoremi tra loro contraddittori,
poiché:
a) i modelli schematizzati contraddicono il modello ideale;
b) alcuni modelli schematizzati sono reciprocamente
contraddittori.
10) I due modelli indicati nelle lettere e) ed f) sono usati per
determinare le condizioni necessarie e sufficienti in cui le leggi
di Keplero, che si sa essere false, sarebbero vere.
La risposta n. 6 ha superato l’esame della meccanica celeste.
Supererà anche i prossimi? Per il momento, analizziamo il modo con
il quale la meccanica celeste individua le condizioni di validità delle
prime due leggi di Keplero. Tratteremo le prime due leggi di Keplero
come una teoria scientifica, diciamo T1. Si tratta di una teoria
abbastanza semplice, che potrebbe essere descritta anche con il solo
modello sintattico. Descriviamo tuttavia T1 usando il modello di
teoria scientifica proposto nella risposta n. 6.
La teoria T1 è composta di un solo modello, che chiameremo M 10,
ove lo zero al pedice indica che si tratta del modello idealizzato e
l’uno all’apice fa riferimento alla teoria T1. L’insieme degli assiomi
corrispondenti al modello M 10 è l’insieme che comprende gli
enunciati delle prime due leggi di Keplero. Chiamiamo tale insieme
di assiomi A10 e osserviamo che esso è un insieme coerente. La teoria
T1 non comprende modelli schematizzati. Quindi, la teoria T1 è
chiusa rispetto alle regole di deduzione. Per questi motivi, la teoria T1
è descrivibile in modo ragionevolmente corretto anche usando il
modello sintattico.
La meccanica celeste è la teoria T2. È costituita di una famiglia di
modelli M 2i . Il modello idealizzato, che chiamiamo M 20, è quello nel
quale ogni pianeta subisce l’influsso gravitazionale del Sole e degli
altri pianeti, influenzando a sua volta sia il Sole sia gli altri pianeti.
Esistono diversi modelli schematizzati, come quelli indicati alle
lettere b) - f). Ci interessa in particolare il modello, che chiamiamo
M 21, nel quale si suppone che valgano le prime due leggi di Newton
(ma non la terza) e in cui si ipotizza che i pianeti siano descrivibili
come punti materiali. Consideriamo i seguenti due enunciati:
(E1) La forza con cui il Sole attrae i pianeti è una forza centripeta
diretta verso il Sole.
(E2) Il Sole è immobile o in moto rettilineo uniforme.
Sia A l’insieme composto di E1 ed E2: A={ E1 , E 2 }. Tra il modello
M 21 della meccanica celeste e il modello M 10 delle prime due leggi di
Keplero sussistono le seguenti relazioni logiche.
M 21 , A ⊧ M 10 (3.5)

M 21 , M 10 ⊧ A (3.6)
Possiamo dire che la meccanica celeste, ossia la teoria T2, individua
il campo di validità delle prime due leggi di Keplero, ossia la teoria
T1, poiché esiste un modello di T2, ossia M 21 e un modello di T1, ossia
M 10, tra i quali sussistono le relazioni (3.5) e (3.6). L’insieme 𝓐 è il
campo di validità delle leggi di Keplero (teoria T1) rispetto alla
meccanica celeste (teoria T2). Tentiamo di generalizzare questo
esempio.

Cos’è il campo di validità di una teoria scientifica?

Consideriamo due teorie scientifiche T1 e T2. Le loro


famiglie di modelli siano M 1i e M 2i rispettivamente.
Supponiamo che esista un modello M 2k di T2 e un modello
M 1k di T1 e che esista un insieme 𝓐 di enunciati esprimibili
nel linguaggio di T2 per i quali valgono le relazioni
seguenti.
1) M 2k , A ⊧ M 1k
2) M 2k , M 1k ⊧ A
Allora diciamo che:
a) 𝓐 è il campo di validità di T1 rispetto a T2
b) T2 individua il campo di validità di T1 mediante 𝓐.

3.3 L’anomalo perielio di Mercurio


Ogni pianeta percorre intorno al Sole un’orbita ellittica che ruota
lentamente. La rotazione dell’orbita causa la “precessione del
perielio”, ossia lo spostamento del punto in cui il pianeta è più vicino
al Sole. La precessione del perielio di Mercurio, il pianeta per cui
questo fenomeno è più evidente, è di 5600”/secolo 64. La maggior
parte è dovuta al movimento delle coordinate celesti, la cosiddetta
“precessione degli equinozi”, che è responsabile dello spostamento
apparente di 5026”/secolo. I restanti 574”/secolo hanno invece una
causa fisica. La meccanica celeste prevede che l’influenza
gravitazionale dei pianeti provochi una precessione del perielio di
Mercurio di 531”/secolo. In particolare, Venere contribuisce per
277”/secolo, Giove per 154”/secolo, il sistema Terra-Luna per
91”/secolo. Inferiore, ma comunque significativo, è il contributo dei
restanti pianeti. La meccanica celeste non è in grado di spiegare la
differenza, di 43”/secolo, tra il valore previsto e quello osservato.
La teoria della relatività generale prevede che in un sistema in
interazione gravitazionale composto di due soli corpi, come il Sole e
Mercurio, l’orbita ruoti. Questo effetto non è previsto dalla
meccanica classica, secondo cui l’orbita, in un sistema di due corpi,
sarebbe fissa. La relatività generale prevede dunque un effetto di
precessione del perielio addizionale che, nel caso di Mercurio,
sarebbe proprio di 43”/secolo, ossia uguale alla differenza tra il
valore previsto dalla meccanica classica e il valore osservato. In tal
64
Bootello 2012, Rydin 2011.
modo, la relatività generale sarebbe in grado di spiegare
correttamente la precessione del perielio di Mercurio.

3.4 Il calcolo di Einstein


Per il calcolo della precessione del perielio di Mercurio esponiamo
il metodo usato da Einstein 65, nonostante tale metodo sia errato. È
infatti interessante rendersi conto che gli scienziati sono talvolta
riusciti a dimostrare proposizioni corrette usando metodi errati. Tra i
più celebri esempi di dimostrazione errata di una proposizione vera,
si può citare il caso di Galileo, che dedusse la legge (esatta) della
caduta dei gravi dal principio (errato) secondo cui la velocità è
proporzionale allo spazio percorso. L’errore fu successivamente
riconosciuto dallo stesso Galileo.

Figura 6
Precessione del perielio di Mercurio, uguale all’angolo α (l’effetto è
esagerato per una migliore visualizzazione).

Per il calcolo della precessione del perielio di Mercurio, Einstein


utilizza i seguenti principi.
65
Einstein 1915.
1) L’espressione dell’intervallo s in funzione delle coordinate:
d s 2=∑ g αβ x α x β (3.7)
2) La legge relativistica del campo gravitazionale nel vuoto:
∂ Γ αμν
∑ ∂ x + ∑ Γ αμβ Γ βνα =0 (3.8)
α α αβ

I simboli Γ αμν identificano le 64 componenti del campo


gravitazionale, espresse in funzione delle derivate di gαβ . Per una
spiegazione intuitiva, si osservi che la forza è la derivata dell’energia
potenziale; quindi, i simboli gαβ esprimono l’energia potenziale della
gravità e i simboli Γ αμν esprimono la forza di gravità.
3) Le condizioni sulla matrice 4×4 composta dei simboli gαβ :
a) il determinante deve essere uguale a -1;
b) in assenza di campo gravitazionale, la matrice deve ridursi
alla forma richiesta per la validità della relatività speciale,
ossia alla matrice
−1 0 0 0

[ 0 −1 0 0
0
0
0 −1 0
0 0 1
] (3.9)

4) Le seguenti quattro condizioni che restringono il campo delle


soluzioni accettabili.
a) Le componenti del campo gravitazionale devono essere
indipendenti da x4. Poiché x4 esprime il tempo, questa
condizione equivale a chiedere che il campo gravitazionale
del Sole sia costante nel tempo.
b) Il campo gravitazionale ha simmetria spaziale sferica intorno
al Sole; ossia, non esiste alcuna direzione privilegiata, ma il
campo dipende soltanto dalla distanza dal Sole.
c) Per α =1 , 2, 3 : gα 4 =g 4 α =0 .
d) A distanza infinita dal Sole, la matrice gαβ assume i valori
della matrice (3.9).
5) L’unicità della soluzione: soluzioni formalmente diverse
rappresentano il medesimo stato fisico. Questa condizione
permette di ricercare una soluzione qualsiasi, senza chiedersi se
essa sia la sola possibile. Neanche un mese dopo la
pubblicazione dell’articolo di Einstein, il fisico tedesco
Schwarzschild gli comunicò di avere scoperto un’altra soluzione
fisicamente diversa, confutando così il principio di unicità. La
soluzione di Schwarzschild è quella oggi utilizzata per spiegare
la precessione del perielio.
Per calcolare la precessione del perielio, Einstein utilizzò un
metodo di approssimazioni successive, iniziando da quello che
chiamò la “approssimazione zeresima”, nella quale vale la relatività
ristretta. La matrice gαβ assume i valori indicati in (3.9). La
successiva approssimazione, detta la “prima approssimazione”,
equivale alla meccanica classica. Nella prima approssimazione
valgono le seguenti equazioni.
xα xβ
gαβ =−δ αβ −k ; α , β=1 ,2 , 3 (3.10.1)
r3
gα 4 =g 4 α =0; α=1 , 2 ,3 (3.10.2)
k
g44 =1− ; r =distanza dal Sole (3.10.3)
r
La costante k dipende dalla massa del Sole. Il simbolo δαβ (detto
“delta di Kronecker”) è uguale a 1 se α=β, altrimenti è uguale a 0.
Einstein calcola le 64 componenti del campo gravitazionale Γ αμν. In
questa sede non interessa né il metodo né il risultato di tale calcolo. È
sufficiente osservare che Einstein considera rilevanti soltanto le tre
componenti Γ α44 del campo gravitazionale (α = 1, 2, 3), per le quali
valgono le seguenti equazioni:
2
d xα α −k x 4
2
=Γ 44 = (3.11)
ds 2r 3
Ponendo s=t, ove t è il tempo, si ottengono le usuali formule della
meccanica classica: l’accelerazione dipende della forza di gravità che
è inversamente proporzionale al quadrato della distanza. Einstein
giustifica l’ipotesi s=t perché “dx1, dx2, dx3 sono piccoli rispetto a
dx4”. Si deve tuttavia osservare che Vankov 66 rileva che la
sostituzione operata da Einstein si basa sulla dubbia identificazione
del tempo proprio con il tempo delle coordinate, invalidando quindi
le trasformazioni di Lorentz.
Anche nella “seconda approssimazione” le uniche componenti del
campo gravitazionale che Einstein considera rilevanti sono quelle
espresse dai termini Γ α44 ( α =1 , 2 ,3 ) . La seconda approssimazione
valuta più accuratamente tali termini. La formula cui giunge Einstein
α α
è Γ 44= Γ 44 1−
1
( kr ), ove 1 Γ α44 è la componente calcolata nella prima
approssimazione. La correzione introdotta dalla teoria della relatività
è espressa dal fattore 1− ( kr ) che tende a 1 quando k tende a zero o
quando r tende a infinito. La seconda approssimazione si riduce
quindi alla prima se la massa che genera il campo gravitazionale è
piccola oppure se il campo è misurato a grande distanza dall’origine.
L’introduzione del termine k/r modifica leggermente le tre
componenti del campo gravitazionale e produce una leggera
alterazione delle equazioni del moto. Passando alle coordinate polari,
Einstein esprime l’equazione che descrive il moto di un pianeta
intorno al Sole introducendo due costanti A e B facilmente
determinabili e introducendo la variabile x= 1− ( kr ):
d x 2 2 A kx
( )

2
= 2 + 2 −x +k x
B B
3
(3.12)

66
Vankov 2014.
Einstein osserva che “l’equazione [(3.12)] si distingue dalla
corrispondente teoria Newtoniana solo per l’ultimo membro della
parte destra”, ossia per il termine kx3. Per integrare la (3.12), Einstein
usa un metodo ben noto: ipotizza che il termine kx3 sia così piccolo
da poterlo trattare come una perturbazione dell’orbita newtoniana.
Tuttavia, osserva ancora Vankov, l’errore introdotto da questa
ipotesi, pur essendo piccolo, ha l’ordine di grandezza dell’effetto da
calcolare e potrebbe quindi alterare significativamente il risultato
finale. Detto ε l’avanzamento del perielio in una rivoluzione, a il
semiasse maggiore dell’orbita di Mercurio ed e l’eccentricità
dell’orbita, Einstein deriva la seguente relazione:
r
ε =3 π 2
=43} /secol ¿ (3.13)
α ( 1−e )
In questo modo risulta spiegata la differenza tra la precessione del
perielio di Mercurio osservata e quella calcolata tramite la meccanica
classica. Al valore previsto dalla meccanica classica si deve
aggiungere una piccola correzione, dovuta a un effetto relativistico,
che spiega perfettamente la precessione del perielio di Mercurio.

3.5 Osservazioni filosofiche


Come fa la teoria della relatività a spiegare esattamente il valore
osservato della precessione del perielio di Mercurio? In realtà, la
teoria della relatività spiega soltanto il 7,5% di tale valore, pari a quei
43”/secolo dovuti a un effetto relativistico che causa la rotazione
dell’orbita di Mercurio. Il restante 92,5%, pari a 531”/secolo, è
spiegato ricorrendo alla meccanica classica. Le equazioni della teoria
della relatività sono troppo complesse per essere usabili per calcolare
gli effetti gravitazionali dei pianeti su Mercurio. Tali effetti sono
valutati mediante la meccanica classica. Per determinare il valore
della precessione del perielio di Mercurio, la teoria della relatività
usa il metodo seguente.
1) Attraverso una serie di approssimazioni, la teoria della relatività
determina il valore della precessione del perielio, nel caso del
problema dei due corpi, dovuto esclusivamente all’effetto
relativistico. Nel fare questo, la teoria della relatività modifica le
equazioni, dedotte tramite la teoria classica, che descrivono
l’orbita di Mercurio. Ciò equivale a dimostrare, nell’ambito della
teoria della relatività, che la meccanica classica non è valida. In
altri termini, il metodo di calcolo usato per determinare i
43”/secolo della precessione contraddice formalmente la
meccanica classica.
2) Data l’eccessiva complessità delle equazioni della relatività, non
è possibile calcolare direttamente l’effetto che gli altri pianeti
esercitano sull’orbita di Mercurio. A questo punto, la teoria della
relatività presuppone la validità della meccanica classica e ne
accetta la spiegazione per il restante valore di 531”/secolo.
Da un punto di vista puramente formale, ossia dal punto di vista
della logica pura, il metodo usato nell’ambito della teoria della
relatività per determinare il valore della precessione del perielio di
Mercurio è contraddittorio. Da un lato, il valore di 531”/secolo,
calcolato tramite la meccanica classica, è preso come corretto,
assumendo la validità della meccanica classica. Dall’altro lato, il
valore residuo di 43”/secolo è calcolato mediante ipotesi che
contraddicono la meccanica classica.
Questa osservazione non vuole essere una critica al metodo seguito
da Einstein né un attacco contro la teoria della relatività. Ha un altro
obiettivo, ossia quello di mostrare che le teorie scientifiche non sono
chiuse rispetto alla nozione di conseguenza logica. Se lo fossero, la
spiegazione della precessione del perielio di Mercurio sarebbe
contraddittoria. Ci sembra questo un fatto fondamentale, perché
esclude la possibilità di descrivere le teorie scientifiche mediante il
modello sintattico. Questo modello, infatti, presuppone proprio che
le teorie scientifiche siano chiuse rispetto alla conseguenza logica,
ossia che contengano tutte le asserzioni derivabili dagli assiomi.
Nella lettera del 22 dicembre 1915, Karl Schwarzschild comunicò
ad Einstein di aver trovato un’altra soluzione che prediceva il
medesimo valore ottenuto da Einstein in seconda approssimazione 67.
Tuttavia Schwarzschild osservava che il metodo delle
approssimazioni successive, usato da Einstein, conduceva a una
67
Traduzione inglese in Vankov 2014.
soluzione divergente: continuando le approssimazioni, invece di
avvicinarsi a un valore definito, il metodo di Einstein avrebbe
predetto un valore infinito per la precessione del perielio di
Mercurio. Al contrario, la soluzione di Schwarzschild evitava tale
problema.
L’osservazione di Schwarzschild è, da un punto di vista filosofico,
di grande importanza. Einstein aveva ottenuto una soluzione
mediante approssimazioni successive. Nell’approssimazione zero, la
soluzione coincideva con la teoria della relatività ristretta,
escludendo quindi la presenza di un campo gravitazionale.
Nell’approssimazione uno, la soluzione forniva le equazioni della
meccanica celeste classica. Nella successiva approssimazione la
soluzione forniva il valore mancante della precessione del perielio di
Mercurio. A questo punto Einstein si era fermato nei calcoli.
Tuttavia, sarebbe stato logico continuare con le approssimazioni
successive, che avrebbero dovuto determinare un valore ancor più
preciso per la precessione del perielio. Invece, secondo i calcoli di
Schwarzschild, le successive approssimazioni avrebbero fornito
valori sempre più lontani da quello osservato, fino a diventare
fisicamente prive di senso. Una situazione di questo tipo si verifica
anche in meccanica quantistica, come vedremo subito.
3.6 L’oscillatore armonico

Figura 7
Rappresentazione schematica di una particella in una buca di potenziale
infinito ma continuo. La particella ha energia meccanica E. La parabola
rappresenta l’energia potenziale. Quando la particella è nell’origine 0, tutta la
sua energia meccanica è sotto forma di energia cinetica. Nei punti a e b,
l’energia meccanica della particella si è interamente trasformata in energia
potenziale. Da un punto di vista classico, la particella si muove nell’intervallo
tra a e b, senza poterne uscire. Secondo la meccanica quantistica, la particella
può invece entrare nella regione proibita.

Consideriamo una particella intrappolata in una buca di potenziale


infinito ma continuo, come nella figura 7. La funzione U(x) che
rappresenta l’energia potenziale della particella è data
dall’equazione:
1 2
U ( x )= k x (3.14)
2
La costante k ha le dimensioni di una massa per un tempo elevato
alla -2. In simboli (dove [g] indica le dimensioni di g):
[ k ]= [ massa ][ tempo ]−2 (3.15)
La costante k può essere scritta come:
k =m ω2 (3.16)
Nella (3.16) m è la massa della particella e ω è la velocità angolare
del moto armonico della particella. Secondo la meccanica classica, la
particella si muoverebbe tra a e b, ove avrebbe velocità nulla, senza
poter mai andare oltre questi due punti.
La posizione x(t) occupata nel tempo t da un punto che si muove di
moto armonico in una sola dimensione è data dall’equazione:
x ( t )= A cos ⁡(ωt ) (3.17)
Il simbolo A indica una costante da determinare. L’equazione di
Schrödinger indipendente dal tempo è:
d 2 Ψ ( x) 2 m 1
dx 2
ℏ 2( )
+ 2 E− m ω2 x 2 Ψ ( x )=0 (3.18)

Come si può risolvere la (3.18)? Si pongano le seguenti


sostituzioni:

α=

ξ=αx
√ ℏ2
(3.19)

(3.20)
2E
ε= (3.21)
ℏω
L’equazione (3.18) diviene:
2
d Ψ (ξ) 2
−ξ Ψ ( ξ )=0 (3.22)
d ξ2
La soluzione è:
Ψ ( ξ )=H (ξ ) e−ξ /2 (3.23)
dove H è:

H ( ξ )= ∑ a n ξ n (3.24)
n=0

I coefficienti an soddisfano la relazione ricorsiva:


−ε −1−2 n
a n+2= a (3.25)
(n+1)(n+ 2) n
Fin qui tutto bene. Tuttavia, la serie H(ξ) converge troppo
lentamente e la funzione Ψ diverge. La soluzione, dunque, è
fisicamente inaccettabile. Si risolve il problema in maniera drastica,
troncando la serie: da un certo punto in poi si trascurano i termini
successivi. Il procedimento è il medesimo usato da Einstein per
calcolare il perielio di Mercurio. La serie diverge? Allora
tronchiamola in un punto opportuno e trascuriamo gli altri termini!
Come si determina il punto opportuno per troncare la serie? Per
qualche valore di n, si assume – contrariamente alla soluzione
matematicamente corretta – che il termine an sia nullo. Per la
relazione (3.25) i termini an+2, an+4, …, sono anch’essi nulli.
Ponendo:
ε −1−2 n=0 (3.26)
si ottiene il risultato voluto, che porta a individuare i livelli
energetici En della particella:

En = n+( 12 ) ℏ ω (3.27)

Ci interessa sottolineare che la soluzione rigorosa porta a un


risultato fisicamente inaccettabile. Si deve modificare la soluzione
matematica, inserendo una condizione per ottenere un risultato
fisicamente accettabile ma matematicamente errato. A tal proposito,
giova ricordare che Ageno osservava che i teoremi dimostrati nel
sistema schematizzato potrebbero non essere validi nel sistema
idealizzato. È necessario verificare sempre la legittimità della
sostituzione del sistema idealizzato con quello schematizzato, nei
limiti del problema specifico studiato dallo scienziato. Nella pratica
scientifica, questa verifica è spesso trascurata ed è lasciata
all’intuizione, causando frequentemente una “scarsa rispondenza tra
la concreta realtà dei fatti empirici e le rappresentazioni
matematiche, faticosamente e un po’ goffamente schematizzate, che
riusciamo a darne”68.

68
Ageno 1992b p. 66.
Capitolo 4. Cos’è un modello?

4.1 Galileo e il linguaggio della scienza


Sono ben note le parole con cui Galileo enunciò i fondamenti
filosofici della sua concezione della scienza:
La filosofia è scritta in questo grandissimo libro, che continuamente
ci sta aperto innanzi a gli occhi (io dico l’universo) ma non si può
intendere se prima non s’impara a intender la lingua, e conoscer i
caratteri, nei quali è scritto. Egli è scritto in lingua matematica, e i
caratteri son triangoli, cerchi, ed altre figure geometriche, senza i
quali mezi è impossibile intenderne umanamente parola; senza questi
è un aggirarsi vanamente per un oscuro laberinto.69
Galileo pensava che il libro della natura fosse scritto in linguaggio
matematico. Il suo Creatore aveva usato, come simboli, triangoli,
cerchi ed altre figure. Galileo dice allora: che senso ha, se l’Universo
è stato scritto (creato) in un certo linguaggio, provare a intenderlo
(capirlo) usando un linguaggio diverso? Non è forse come cercare di
capire un testo scritto in tedesco come se fosse in francese? Galileo
di questo è sicuro: è la matematica il linguaggio usato dal Creatore
(si è parlato anche per questo del platonismo di Galileo)70; quindi è in
matematica che noi dobbiamo cercare di capirlo. Galileo infatti
pensava che il mondo materiale fosse retto da leggi naturali
immutabili. Tali leggi l’uomo può scoprire ed esprimere, a patto di
utilizzare lo stesso linguaggio usato dal Creatore. Galileo era un
credente cristiano. Egli credeva che fosse impossibile trovare una
contraddizione in Dio. È chiaro a questo punto perché Galileo
credesse (ad esempio) all’ipotesi eliocentrica: secondo lui mai e poi
69
Galilei, Il Saggiatore in Opere, vol. VI p. 232.
70
Koyré 1943.
mai le scoperte scientifiche (more matematico) sarebbero risultate in
contrasto con le Scritture. Questo modo di pensare è passato (spesso
implicitamente) in molte altre teste. Non ci riferiamo ai discorsi su
Dio, la creazione, …; bensì a quello che ne consegue: che il mondo è
uno e quindi la scienza (la teoria) che se ne occupa è una e una sola.
Analoga opinione è stata formulata da molti filosofi, venuti dopo
Galileo. Ad esempio, Renato Cartesio era convinto che la sua
“filosofia” poteva ricoprire sostanzialmente tutti i fenomeni
dell’universo. “Così, con una facile enumerazione, si conclude che in
questo scritto non ho tralasciato nessun fenomeno della natura” 71.
Convinzioni simili erano condivise anche da altri filosofi e pensatori.
Ad esempio Pierre Duhem:
Il solo controllo sperimentale della teoria fisica che non sia illogico
consiste nel confrontare l’intero sistema della fisica con tutto
l’insieme delle leggi sperimentali e nel valutare se il secondo insieme
è rappresentato dal primo in modo soddisfacente72
la fisica progredisce […] perché l’esperienza produce di continuo
nuovi accordi tra leggi e fatti e perché, incessantemente, i fisici
ritoccano e modificano le leggi per poter rappresentare i fatti in
modo più esatto73.
L’accordo con l’esperienza è, per una teoria fisica, l’unico criterio
di verità.
Anche Claude Bernard condivise un tal modo di pensare74:
La natura del ragionamento scientifico è sempre la stessa. […] La
verità di una teoria scientifica è sempre condizionata dal numero di
osservazioni e di esperimenti che sono stati fatti. Se finora una verità
non è stata smentita da nessuna osservazione, non per questo la
mente si illude che le cose non possano stare in modo del tutto
diverso.
Queste idee partivano da una esigenza di riaffermare la sostanziale
unità di metodo della scienza. Pervenivano poi, in definitiva, ad
71
Cartesio, Principi della filosofia, CXCIX, UTET, Torino 1994, p. 384.
72
Duhem 1906 p. 225.
73
Duhem 1906 p. 199.
74
Bernard 1865 p. 40.
affermare l’unità delle scienze tout-court. Dicevano che tutte le
scienze hanno un medesimo oggetto, il reale. Tali idee sono state
manifestate anche da pensatori neopositivisti. Possiamo considerare
attentamente il periodo in cui tali filosofi sono vissuti, e metterlo a
confronto con i periodi in cui sono vissuti quelli che abbiamo già
precedentemente considerato. Non vi sono grandi differenze. Pierre
Duhem è vissuto tra il 1861 e il 1916. Claude Bernard è nato nel
1813 e morto nel 1878.
I neopositivisti non si collocano molto lontano da questi. Rudolf
Carnap (1891-1970), Otto Neurath (1882-1945), Moritz Schlick
(1882-1936) non erano vissuti in epoca molto diversa da questi altri
pensatori. Anche i neopositivisti condividevano il parere degli altri
pensatori quanto al dominio delle teorie scientifiche. L’elemento
centrale delle teorie scientifiche, secondo i neopositivisti, è che sono
valide in un dominio illimitato. Dicevano infatti i positivisti:
R. Carnap:
Le regole per la traduzione dal linguaggio della fisica al linguaggio
protocollare sono tali che a una qualsiasi parola del linguaggio fisico
vengono associate solo e sempre parole del linguaggio protocollare.
[…] Dalle determinazioni della fisica si possono perciò sempre
derivare determinazioni protocollari di un qualsiasi dominio
sensibile [corsivo nostro]; le determinazioni della fisica valgono
«inter-sensibilmente».75
Occorre però far osservare che queste circostanze sono sì empiriche,
ma non hanno il carattere di un singolo stato di cose empirico, e
neppure di una ben determinata legge di natura. Si tratta qui,
piuttosto, di un tratto assolutamente generale dell’esperienza:
l’esistenza di un ordine sul quale riposa la possibilità sia di una fisica
inter-sensibile sia di una fisica inter-soggettiva.76

75
Carnap 1931 p. 441.
76
Carnap 1931 p. 447.
H. Hahn, O. Neurath, R. Carnap:
La concezione scientifica del mondo è caratterizzata non tanto da tesi
peculiari, quanto, piuttosto, dall’orientamento di fondo, dalla
prospettiva, dall’indirizzo di ricerca. Essa si prefigge come scopo
l’unificazione della scienza.77
M. Schlick:
Che l’unione di tutte le verità nel sistema di una scienza rigorosa
possa essere rappresentata mediante le forme inferenziali della
logica, lo insegna l’analisi di qualsiasi scienza78.
O. Neurath:
Il linguaggio fisicalistico, linguaggio unificato, è l’alfa e l’omega di
tutta la scienza. Non c’è linguaggio «fenomenistico» oltre il
linguaggio «fisico»; non c’è «solipsismo metodologico», più qualche
altra posizione possibile; non c’è «filosofia» né «teoria della
conoscenza»; non c’è una nuova «intuizione del mondo» accanto alle
altre. C’è soltanto la scienza unificata, con le sue leggi e le sue
previsioni79.
Il linguaggio unificato della scienza unificata, che in larghissima
misura è derivabile dal linguaggio della vita d’ogni giorno, è il
linguaggio della fisica…80
In questo i neopositivisti seguivano tutta una tradizione fisica che si
affermò, come abbiamo visto, fin dal nascere della scienza 81. Stiamo
parlando dell’idea di unità della scienza e della sua capacità di
rendere conto di tutti i fenomeni osservati o osservabili. Attualmente
77
Hahn, Neurath, Carnap 1929.
78
Schlick 1918, II, 14-15, p. 95.
79
Neurath 1931 p. 405.
80
Neurath 1931 p. 399.
81
Ad esempio, Cartesio era convinto che la sua “filosofia” poteva ricoprire
sostanzialmente tutti i fenomeni dell’universo. “Così, con una facile
enumerazione, si conclude che in questo scritto non ho tralasciato nessun
fenomeno della natura” (Principi della filosofia, CXCIX, UTET, Torino
1994 pag. 384). Così anche tanti altri filosofi e scienziati. Che chiamino
questa totalità, cui farebbe riferimento la scienza, col nome di natura,
mondo, universo, o uno-tutto, non ha in fondo molta importanza.
tale supposizione è (per lo più tacitamente) presente nel sentire
comune, anche delle persone colte. Tutti stiamo più o meno
inconsciamente attendendo l’arrivo di una teoria che ci spieghi tutto
quanto, che superi le limitazioni cui sono andate incontro le teorie
finora escogitate. Occasionalmente (abbastanza spesso, a dire il vero)
qualche scienziato o filosofo discute della eventualità che la scienza
raggiunga la sua fine: come interpretare queste affermazioni? È
invero abbastanza semplice. Lo scienziato o il filosofo in questione
vogliono dire: quando avremo trovato finalmente la teoria definitiva,
non avremo più nulla da fare.

Otto Neurath
Anche Popper ha condiviso, sostanzialmente, questa opinione. Si
può in effetti argomentare attorno alla possibilità di dedurre dal
falsificazionismo popperiano l’idea che la scienza ha come dominio
tutto il reale. Popper ha indicato il fatto di poter essere smentite come
caratterizzante le teorie scientifiche rispetto a quelle pseudo-
scientifiche. Questo è il criterio di demarcazione popperiano: una
teoria offre sempre sé stessa alla possibilità di essere smentita.
La mia proposta – dice Popper – si basa su un’asimmetria tra
verificabilità e falsificabilità, asimmetria che risulta dalla forma
logica delle asserzioni universali. Queste, infatti, non possono mai
essere derivate da asserzioni singolari, però possono venir
contraddette da asserzioni singolari. Di conseguenza è possibile, per
mezzo di inferenze puramente deduttive (con l’aiuto del modus
tollens della logica classica), concludere dalla verità di asserzioni
singolari alla falsità di asserzioni universali. Un tale ragionamento,
che conclude alla falsità di asserzioni universali, è il solo tipo di
inferenza strettamente deduttiva che proceda, per così dire, nella
«direzione induttiva», cioè da asserzioni singolari ad asserzioni
universali …82
Un asserto scientifico, dunque, non può mai essere compiutamente
verificato. Esso può ricevere solo conferme sperimentali (sempre
provvisorie) o smentite (queste definitive). Come esempio di teoria
scientifica, prendiamo l’asserto “tutti i corvi sono neri”. Questa
proposizione è logicamente equivalente a “non esistono corvi che
non siano neri”. Chiaramente, non esistono conferme definitive di
questo asserto. Ma basta un solo incontro con un corvo non-nero per
smentire la teoria, per mostrarcela chiaramente come falsa.
Analogamente, basta un solo esempio sperimentale contrario, purché
debitamente controllato, a screditare una teoria.
Possiamo chiamare negativismo logico la filosofia di Popper, in
opposizione al positivismo logico. Ricordiamo l’accostamento, fatto
da Popper, tra legge scientifica e leggi civili. Entrambe si chiamano
leggi, secondo Popper, perché vietano qualcosa. Certamente la
filosofia del falsificazionismo mantiene alcuni caratteri che già
furono propri del positivismo logico. Ad esempio, il ritenere
(condiviso da Popper tacitamente, per quello che ci risulta) oggetto
di ogni teoria scientifica tutto il reale. Questa opinione è stata
tacitamente condivisa anche da Popper. Ecco come Popper ha potuto
scrivere:
Credo che dovremo abituarci all’idea che non si deve guardare alla
scienza come a un «corpo di conoscenza», ma piuttosto come a un
sistema di ipotesi; cioè a dire, come a un sistema di tentativi di

82
Popper 1935, I, 6, p. 23.
indovinare, o di anticipazioni, che non possono essere giustificati in
linea di principio, ma con i quali lavoriamo fintanto che superano i
controlli, e dei quali non abbiamo mai il diritto di dire che sappiamo
che sono «veri» o «più o meno certi», o anche «probabili»83.
Nel suo Poscritto, egli ha scritto:
Tuttavia, la nostra discussione mostra come il mondo è – il fatto che
esso abbia una struttura, o che le sue regioni più lontane siano tutte
soggette alle stesse leggi strutturali – sembra in linea di principio
inesplicabile e quindi ‘mistico’84.
Popper ha più volte rimarcato questo suo punto di vista. Se diciamo
che se egli ha apertamente sostenuto che la scienza (unitariamente)
ha per scopo la verità, non è soltanto perché egli ha più volte
sottolineato questo aspetto della scienza, ma è anche perché egli non
ha mai parlato né si è mai occupato di dominio di una teoria, o di
dominio efficace, … Popper ha sempre (almeno tacitamente)
sostenuto che la scienza ha per scopo la comprensione del mondo.
Questo è stato da lui inteso nel senso che la scienza cerca un’unica
teoria che renda conto di tutti i fenomeni osservati. Questo aspetto
del filosofo austriaco rimane vero, nonostante l’osservazione (che
possiamo fare), che Popper ha avuto modo di rifiutare la scienza
“unificata” già sostenuta dai neopositivisti.
Ha scritto (a proposito di Popper) J.J. Sanguineti:
Le ‘riduzioni’ sono valide come metodo scientifico, ma non come
filosofia. L’ideale di unificazione monistica delle scienze è un
impoverimento della realtà. La psicologia non è riducibile alla
biologia, né quest’ultima può essere interamente assorbita dalla
fisica. L’origine della vita, della coscienza animale e della mente
umana sono eventi veramente nuovi e improbabilissimi. In questo
senso sono inspiegabili dalla scienza, se spiegare vuol dire dedurre
da una legge naturale85.
La filosofia popperiana si delinea invece come strettamente legata
al “mondo aperto”, alla sua imprevedibilità, alla sua meraviglia. In
83
Popper 1935 p. 351.
84
Popper 1956-1984, vol.1, p. 169.
85
Sanguineti 1997.
un certo senso, si può dire che il filosofo della scienza Karl R.
Popper non era uno scientista. Col suo porre l’accento sulla
meraviglia, sulla creatività della mente umana, egli si è distaccato
definitivamente dal determinismo scientista.

Karl Raimund Popper


Eppure, va detto che egli presumeva ancora troppo dalla scienza,
con la sua presunta capacità di avvicinarsi indefinitamente al mistero,
alla verità assoluta sull’universo, attraverso una sola teoria. Proprio
questo egli intendeva quando diceva che noi tendiamo, senza
raggiungerla mai, alla verità. La filosofia popperiana della scienza
risulta, quindi, strettamente legata all’olismo teorico. Quest’ultimo
atteggiamento sostiene infatti che, da qualche parte, esiste una sola
teoria vera dell’universo. Tutto ciò è equivalente a dire che per un
falsificazionista una teoria è indefinitamente sottoponibile a controlli,
qualunque sia, attualmente, il suo grado di corroborazione. Insomma,
il dominio teorico di un qualunque teoria è tutto il reale. Il distacco
dallo strumentalismo, che noi effettuiamo con la massima
consapevolezza e serenità86, è difficilmente percepibile se si resta nel
quadro dell’olismo teorico sottinteso dal falsificazionismo. Il
falsificazionista dice: “Esiste una teoria vera, onnicomprensiva del
86
Vedi più sotto.
reale; quindi ogni altra teoria è falsa. Dire che una teoria è
localmente vera non ha senso: questo è strumentalismo!” In
definitiva il negativismo logico di Popper si traduce in una teoria
che:
1) ha tutto il reale come dominio87;
2) consta di leggi88, ossia divieti e proibizioni;
3) può essere smentita, falsificata, ma mai confermata.
Rispetto a quello che pensava Galileo, la maggior parte degli
scienziati ragiona oggi in modo diverso. Fatto sta che i filosofi non
se ne sono accorti. Essi continuano a condividere le stesse opinioni
dei pensatori che abbiamo visto: la scienza è una e una sola; essa si
occupa della realtà, e ha per dominio tutto il reale. Nonostante vi
siano stati e vi siano attualmente alcuni pensatori che condividono il
punto di vista di Einstein, la maggior parte degli scienziati è di parere
diverso. Albert Einstein ha scritto:
[…] sono trascorsi appena più di trecento anni dacché gli scienziati
cominciarono a comprendere il linguaggio in cui quel romanzo [il
grande romanzo giallo della natura] è scritto89.
La maggior parte degli scienziati è invece convinta che i modelli
non siano riproduzioni più o meno fedeli della realtà; ogni modello
ha invece una sua propria funzione (in vista di un determinato o di
vari ma, comunque, determinati problemi) ed un preciso campo di
applicabilità. La maggioranza degli scienziati è quindi convinta che:
1) la scienza consiste nella descrizione quantitativa dei fenomeni e
dei processi che avvengono in natura, compresi quelli provocati
dall’uomo;
2) per questo, lo scienziato enuncia tutta una serie di leggi
empiriche;
87
Popper 1969 p. 114: “Lo scienziato anela a una descrizione vera del
mondo”; anche in Popper 1972, p. 40: “ciò cui miriamo nella scienza è
descrivere e (finché è possibile) spiegare la realtà”.
88
Popper sottolinea la vicinanza semantica tra il concetto di legge
scientifica e quello di legge in senso giuridico e morale. “Non per nulla
chiamiamo ‘leggi’ le leggi di natura: quanto più vietano, tanto più dicono”
Popper 1935 p. 23.
89
Einstein e Infeld 1938, pag. 18.
3) tenendo conto di queste ultime, egli costruisce modelli/teorie.
Domanda: le leggi empiriche vanno considerate come teorie? Sono
forse parti di teorie? Cominciamo dalla prima domanda. Certamente
la maggior parte delle leggi empiriche entra in molti modelli, diversi
tra loro per ogni singola legge sperimentale. Anzi, la dizione “leggi
empiriche” è probabilmente fuorviante, nel senso che tende a farci
credere all’esistenza di uno o più ambiti di empiricità “pura”. Popper
ha ampiamente discusso come questo o questi ultimi semplicemente
non esistono. I modelli, in cui entrano le leggi empiriche, possono a
loro volta entrare in una o più teorie. Queste teorie possono dunque
ben annoverare le leggi empiriche come loro parte propria. È
importante notare che, in ogni caso, i modelli vengono menzionati
solamente alla fine di questo processo. La costruzione di modelli è il
centro dell’attività scientifica. I modelli rappresentano non solamente
un mezzo (euristico) per fare procedere la scienza, non solamente
una comoda fonte di esempi didattici, ma (assai spesso) il fine,
l’obiettivo di tutta l’attività di ricerca.

4.2 La scienza e la questione strumentalista


Si ha però una preoccupante divergenza nelle opinioni degli
scienziati quando si tocca il problema della verità connessa ai
modelli. Quando, cioè, si chiede agli scienziati se c’è una relazione
tra le leggi empiriche e le leggi naturali, le risposte divergono.
Solo una minoranza degli scienziati è convinta che i modelli e le
leggi empiriche creati dall’uomo siano delle approssimazioni,
significative ma imperfette, delle leggi che reggono il mondo
naturale. Possiamo dire, sinteticamente, che solo questa minoranza è
convinta che la scienza ci dica come effettivamente è il mondo: ma
per la maggioranza degli scienziati, lo ripetiamo, le cose non stanno
così. Posizione, questa, che è sintetizzata da molti divulgatori
dicendo che la scienza sa di non sapere nulla della verità 90.
Molti altri scienziati sono più critici: essi dicono che, se si esamina
criticamente la questione, si deve concludere che per la scienza non
ha senso porsi il problema di scoprire, ovvero avvicinarsi
90
ad esempio, Rossi 1976.
progressivamente alla scoperta di leggi naturali. Queste sarebbero
inconoscibili se la scienza si serve, per procedere nel suo cammino,
di modelli e di leggi empiriche. Sia i modelli sia le leggi empiriche
vanno considerati come pure costruzioni dell’intelletto umano, libere
creazioni intellettuali (Einstein, Popper). È a questo punto che si apre
la questione dello strumentalismo. Le leggi empiriche ed i modelli
come vanno considerati? Strumenti utili per prevedere fenomeni non
ancora visti e per prevederne e progettarne applicazioni
tecnologiche?
È la questione cui lo strumentalismo risponde con un deciso sì. Per
uno strumentalista non ha senso chiedersi se una certa teoria
metafisica sia vera o falsa. Ha senso invece chiedersi: a cosa può
servirmi? E parimenti si deve dire per una teoria scientifica.
Abbiamo già trattato dello strumentalismo 91. Abbiamo già discusso
di come lo strumentalismo faccia affermazioni che lo avvicinano,
praticamente e forse al di là delle intenzioni dei suoi stessi autori, al
finzionalismo.
Si sa che lo strumentalismo asserisce che, senza occuparci della
verità di quello che dicono, dobbiamo essere coscienti che se ci
fidiamo delle teorie è soltanto per poterle usare unicamente come
strumenti di sopravvivenza. Secondo lo strumentalismo ogni
conoscenza, ogni idea è in ultima analisi qualcosa che appartiene al
dominio della tecnica. Le idee non sono quindi altro che piani di
operazione sulle cose. Noi non siamo strumentalisti. Una carta
nautica non è solo un artificio che ci serve ad individuare le rotte
nautiche più brevi. Quando una nave segue una certa rotta, è grazie
alla carta nautica (con proiezione isogonica 92), che non rappresenta
solamente un trucco empirico, una finzione concettuale per cavarsela
nella pratica nautica, ma dice effettivamente qualcosa sulle traiettorie
più brevi. È abbastanza facile dimostrare che lo strumentalismo è
praticamente la stessa cosa che il finzionalismo 93.

91
Valenti 2012.
92
Una proiezione isogonica è una proiezione che, rispetto alla realtà, lascia
inalterati gli angoli. Quindi è ottima per le esigenze di navigazione, in
particolare può dirci qual è la rotta giusta.
Le due teorie sono pienamente equivalenti. La filosofia del “come
se” si configura come una precisazione quanto al contenuto delle
osservazioni e osservazioni umane. La precisazione consiste nel
preporre alle proposizioni la dicitura; “tutto va come se …”. Il
finzionalismo è una teoria su tutte le attività intellettuali umane.
Dunque, è anche una teoria sulla scienza. Per quanto riguarda
quest’ultima, cominciamo con l’osservare che la lettera della scienza
non è finzionalista. Gli articoli scientifici non sono zeppi di frasi che
dicano che “tutto va come se ...”. Questa locuzione viene usata per lo
più per quei casi che si presentano come ancora dubbi, che
richiedono ancora sperimentazioni e calcoli; enuncia quindi
un’ipotesi di lavoro, sottolineando che quanto segue è probabile, ma
non ancora certo, allo stato dell’arte. Salvo questo caso, gli scienziati
non seguono generalmente il diktat finzionalista. Qualche scienziato
finzionalista qua e là si trova, però attua la precisazione finzionalista
tra sé e sé, non solo per quanto attiene la sua professione, ma in tutti
gli ambiti umani. Che dire allora del finzionalismo, nei riguardi della
scienza? Tale teoria asserisce anche della scienza la sostanziale
“finzionalità”, come di tutte le altre attività conoscitive. Cosa
intendiamo dire, o meglio: che cosa intende un autentico finzionalista
per “finzionalità”? Questo può essere chiarito con un esempio. Un
fisico dice: l’energia si conserva; il finzionalista lo corregge
precisando che si deve dire “tutto va come se l’energia si
conservasse”. Un fisico finzionalista dice invece, correttamente
secondo il finzionalismo, “tutto va come se l’energia si conservasse”.
Chiaramente, finzionalità è cosa diversa dal finzionalismo. È chiaro
però che questi due atteggiamenti, (entrambi finzionalisti) possono
essere trattati congiuntamente.
Per quanto riguarda la scienza, il finzionalismo si presenta in una
duplice veste, ma entrambe tali vesti sono criticabili secondo un
unico insieme di argomentazioni. Innanzitutto notiamo che il
finzionalismo presenta capacità di regresso all’infinito. Sia p una
proposizione scientifica. È chiaro che posso “correggerla” (in senso
finzionalista) dicendo: tutto va come se p. Ma anche questa
93
Vaihinger 1911. Si veda in particolare, per una discussione approfondita
della coincidenza detta, tra strumentalismo e finzionalismo, Chalmers 1976.
proposizione può essere corretta in senso finzionalista. Potrei cioè
dire: tutto va come se tutto andasse come p. E così via … Insomma
non si dà nessun criterio per fermarsi, per qualunque p (scientifica, in
particolare) al finzionalismo di primo o di secondo o … di qualunque
livello. Per meglio dire: qualunque sia il criterio proposto, esso
suonerebbe arbitrario (e di comodo). Possiamo anche enunciare
questa mancanza di criteri in modo accettabile per un finzionalista:
tutto va come se non ci fosse alcun criterio per preferire il
finzionalismo applicato ad un qualunque livello piuttosto che agli
altri.
Non si vede, d’altra parte, perché accettare singole proposizioni
finzionaliste, relative a singole proposizioni scientifiche, invece di
ricapitolare il tutto. Ciò potrebbe essere fatto dicendo: tutto va come
se tutto andasse così. Insomma: quel che non va, in una frase come
“tutto va come se l’energia si conservasse”, e che ci mette in dubbio,
è quel “tutto”. La frase, a rigore, è ambigua, perché non è chiaro se
ciò significhi: che l’apparenza è a favore della conservazione
dell’energia (ma noi non ne sappiamo in realtà nulla: finzionalismo
forte); oppure che l’insieme dei fatti conosciuti è tale che
l’asserzione che l’energia si conserva ne rende giustizia (sia pure in
modo arbitrario, ma “sostanziale”: finzionalismo debole).
Non solo il finzionalismo presenta capacità di regresso all’infinito,
ma anche capacità di auto-descrizione. Chi ci vieta di dire una frase
come la seguente? “Tutto va come se il finzionalismo funzionasse”.
Infatti, è troppo “realista” affermare: “Il finzionalismo funziona”.
Meglio la frase scritta una riga sopra. Le ambiguità interpretative di
cui si è detto, poi, non costituiscono sicuramente dei buoni titoli, agli
occhi dei logici. La possibilità di totalizzarlo (tutto va come se tutto
andasse così) e di interpretarlo in senso forte (tutto va come se la
realtà ci fosse per davvero, ma non deduco che sia così) ne mostrano
senz’altro la portata quanto a far vacillare il realismo. È anche il
realismo a poter essere messo in discussione, finché si resta in
ambito finzionalista.
In questo senso, il finzionalismo ci sembra una sofisticata versione
del dubbio cartesiano. Quest’ultimo, poi, è da prendere solamente
come un modello dell’eterno dubbio degli scettici (dei solipsisti, …):
esiste veramente il mondo oppure è tutto uno scherzo, una finzione?
Chi mi assicura che in questo momento io non stia sognando? Chi o
che cosa può darmi la certezza che questa è una mia mano?

4.3 Il ruolo dei modelli


Ci siamo già estesamente occupati di uso dei modelli nella
scienza.94 Vogliamo occuparci ora espressamente di che cosa è un
modello per la scienza. Consideriamo questa domanda fondamentale
per più aspetti. Non ci chiediamo soltanto: che cosa è un modello?
Ma anche: Che cosa esso rappresenta per lo scienziato che l’usa?
Perché gli scienziati, molto spesso, parlano di teorie/modelli? Perché,
altrettanto spesso (o quasi) trattano come un modello ciò che altrove
risulta essere una teoria scientifica? Perché la parola “modello” viene
quasi sistematicamente confusa, sovrapposta alla parola “teoria”?
Ripercorriamo, innanzitutto, i vari significati del modello in scienza.
In L’analogia come concetto analogico, A. Olmi95 affronta il
concetto di modello, cercando di esplicitarne i vari significati.
L’autore esamina i modelli ed i loro usi in fisica, chimica, biologia
generale, ecologia, geografia umana, insomma in quasi tutte le
scienze fisiche o in qualche modo imparentate alla fisica.
Esistono vari modi o significati per cui si può parlare di “modello”.
Innanzitutto ne parliamo come di un esempio paradigmatico,
qualcosa di singolarmente rappresentativo. Per esempio quando
diciamo di qualcuno: è un modello di dedizione, o di coraggio, o di
efficienza. Come secondo esempio, vi è quello di un oggetto da cui si
parte e cui si fa riferimento per la realizzazione di qualcosa: schizzo
o disegno da cui cavare un dipinto o una statua. Possiamo riferirci a
tale caso come a un modello in senso euristico o causale: euristico,
nel senso che spesso la mente, per creare qualcosa, ha bisogno di uno
schizzo o qualcosa di simile, proprio per riuscire a trovare delle
soluzioni accettabili96; causale, nel senso che la costruzione 97
94
Si veda Valenti 2012, Valenti 2014. Si veda anche Bertelé et al. 1999.
95
In Bertelé et al. 1999.
96
Cellucci 2005.
97
Bertelé et al. 1999.
dell’opera avverrà proprio secondo indicazioni fornite, per così dire,
dal modello. Riproduzione bi- o tri-dimensionale di qualcosa che è o
sarà, come quella fornita da una carta geografica, il Colosseo in
miniatura, un modello in scala 1:20 di un palazzo che si intende
costruire, ecc. Abbiamo in questo caso una mappa di certe
caratteristiche, non tutte, dell’oggetto che vogliamo rappresentare.
Raffigurazione analogica di qualcosa. Volendo fare un esempio,
pensiamo ad un modellino a stecchini di legno e pongo di una
molecola, per esempio di metano. Ma anche un modello planare della
molecola di metano ne costituisce una rappresentazione accettabile,
tanto da essere inserita anch’essa in molti libri di testo. Questa è da
confrontare con il modello tri-dimensionale, realizzato mediante
biglie e bastoncini, della stessa molecola di metano: perché entrambi
costituiscono buone rappresentazioni, rappresentazioni accettabili,
dello stesso oggetto?
La risposta sarebbe abbastanza complicata, perché coinvolge
concetti di topologia. Sinteticamente possiamo dire: è una buona
rappresentazione perché ha certe proprietà (topologiche) che sono
conservate dal modello quando passiamo da due a tre dimensioni o
viceversa. Un tal modello sarà topografico o topologico (a seconda
che sia planare o in tre dimensioni, e a seconda dei rapporti tra le
“distanze” raffigurate tra i vari atomi che compongono la molecola).
La proprietà più importante o se vogliamo caratteristica di tale
raffigurazione è quello che si può ben definire isomorfismo
operazionale. Riguardo a questa proprietà è bene dire brevemente
che cosa si intende con essa: l’isomorfismo è come noto una
proprietà matematica. Iso=uguale, morfé=forma. Quindi il termine
dice, all’ingrosso, che c’è una somiglianza di forma tra due insiemi.
Più precisamente, per isomorfismo si intende una corrispondenza
biunivoca tra due strutture algebriche che conserva le operazioni.
Quindi dire “isomorfismo operazionale” è superfluo. Abbiamo però
voluto mettere in risalto (tramite una endiadi) la natura non statica
dell’isomorfismo. Il modello si comporta rispetto ad una certa
operazione in modo analogo a quello della natura rispetto ad un’altra
(corrispondente) operazione. Facciamo un esempio di questo fatto,
relativamente semplice. Supponiamo di avere realizzato un
modellino di una molecola complessa, con stecchini di legno e
palline di pongo; se rompiamo uno di questi stecchini, otteniamo due
strutture, generalmente diverse, con diverse proprietà. La stessa cosa
accadrà se rompiamo il legame corrispondente, nella molecola vera e
propria. Ecco quindi realizzato un tipo un poco speciale di
isomorfismo, in cui si fa uso del concetto di analogia.
Parliamo ancora di modello a proposito di una ipotesi più o meno
ragionevole e semplificatrice per capire il comportamento di un
sistema. In matematica, ma anche in fisica, per esempio, si chiama
usualmente modello una equazione (con una leggera distorsione
linguistica). Notiamo che, anche in questo caso, può essere
mantenuto l’isomorfismo operazionale. In logica matematica, per
modello si intende l’interpretazione di un formalismo. Dato un
formalismo coerente ci sono più modelli, tra loro anche non
isomorfi. Data una teoria (formale) ci sono più interpretazioni-
modelli di essa.98
Vediamo quindi che il “modello” può avere più significati:
rappresentativo, esemplare paradigmatico, mappatura (parziale),
topografico-topologico con isomorfismo operazionale, ipotesi
esplicativa, interpretazione. Comunque ci pare che la prima
distinzione da fare, a proposito del modello, sia la seguente.
Innanzitutto il modello può essere inteso come la raffigurazione di
un processo, un sistema, ecc., che lo scienziato si fa tra sé, nella sua
mente. Diciamo che in questo senso è una visione della mente.
Tommaso parlava in proposito di phantasmata. Ancora più
importante, se possibile, almeno sul piano dell’operatività, è la
seconda interpretazione: quella secondo cui il modello è inteso come
disegno, schizzo, schema, oppure un oggetto fisico, sul quale lo
scienziato può operare. Con quest’ultimo significato del termine tutto
ciò che abbiamo detto sull’isomorfismo acquista veramente
significato e validità.
Negli ultimi anni il modello è stato riconsiderato da molti autori
come fondamentale nel dare un’interpretazione valida del cammino
della scienza. Siamo tuttavia convinti, contro la cosiddetta visione

98
Rogers 1971.
semantica della scienza99, che una teoria scientifica non possa essere
considerata semplicemente come una collezione di modelli. È vero
che la teoria è in corrispondenza con una collezione (che può anche
essere infinita) di modelli, tuttavia essa non va pensata come
qualcosa di diverso da quello che è: un insieme di proposizioni, di
segni, che ovviamente richiedono un’interpretazione. In ogni caso,
consideriamo questa esagerazione come significativa: anche per i
sostenitori della visione semantica, la considerazione dei modelli è
importante. L’importanza dei modelli è significata anche dal fatto
che quei filosofi ne hanno esagerato il ruolo nel definire che cosa sia
una teoria scientifica.
È comunque importante sottolineare che è fondamentale avere
presente il campo di applicazione di un modello e i suoi limiti.
Essere in grado di maneggiare più modelli, infatti, sapendo quando
questo si può fare, quando un certo modello è effettivamente
applicabile e con quali limiti, è il cuore della visione scientifica del
mondo. Il fatto che una teoria sia in corrispondenza con un insieme
di modelli, può aiutarci a spiegare la sopravvivenza di qualche
modello al cambio di teoria. Infatti, come ad una teoria
corrispondono più modelli, così un modello può corrispondere a più
di una teoria.
Per non stupirci troppo di questa affermazione, conviene riferirci a
qualche esempio. Così, ad esempio, l’equazione di Laplace si applica
alla dinamica dei fluidi ed alla diffusione del calore; ritroviamo la
seconda legge di Ohm (sostanzialmente) tutte le volte che si ha a che
fare con fenomeni di trasporto in presenza di un gradiente e di
un’impedenza. L’equazione di Laplace è un buon esempio di quel
che vogliamo dire. La funzione f è una funzione reale incognita. Il
significato fisico dell’equazione di Laplace dipende dalla funzione f.
Secondo la natura di f, l’equazione di Laplace descrive problemi di
fluidodinamica, conduzione del calore (che fanno parte del modello:
meccanica classica) ed elettrostatica-elettrodinamica (parte del
modello/teoria di Maxwell).
Le cose stanno insomma proprio come dice Basti 100:
99
Giere 1988, Fano 2005, Fano e Macchia 2009.
100
Basti 2002.
La teoria maxwelliana dell’elettromagnetismo, altro non è che un
particolare modello applicativo di una certa classe di equazioni alla
rappresentazione del moto delle cariche elettriche in un campo di
forze. Il medesimo tipo di equazioni può essere applicato anche alla
rappresentazione del moto delle particelle in un fluido, secondo un
altro modello o «interpretazione» del medesimo sistema formale.
Anzi, storicamente, Maxwell mutuò la sua teoria (modello) elettro-
magnetica proprio da un tale modello idrodinamico e solo dopo fu
definito il sistema formale da cui e l’uno e l’altro modello
derivavano.
Più sopra, elencando i vari casi in cui può parlarsi di modello,
ovvero elencando le diverse modalità in cui un modello può
presentarsi, abbiamo evocato anche quello di “esemplare
paradigmatico”. Margaret Masterman dice 101 che il paradigma
kuhniano è (praticamente) uguale al modello. Si può, perciò,
rileggere Kuhn, perlomeno il suo La struttura delle rivoluzioni
scientifiche, come se egli avesse scritto “modello” al posto di
“paradigma”. Lo scienziato fa uso continuamente di modelli. Egli ne
fa uso anche quando deve spiegare qualcosa ad un suo amico o ad un
conoscente. Anche – lo diciamo in via di ipotesi, ma ne siamo
abbastanza sicuri – tra sé e sé. Se poi poniamo allo scienziato un
problema di carattere teorico o pratico, che sia abbastanza rilevante,
se gli chiediamo spiegazioni su di un fatto abbastanza complicato,
diciamo un problema che riguardi un sistema fisico abbastanza
complesso, o meglio una parte di un tale sistema, lo sentiremo
risponderci, a seconda del tipo specifico di problema che gli stiamo
ponendo, facendo appello ad un modello di tipo classico, o ad un
modello di tipo quantistico, o magari al modello semiquantistico.
Ripetiamo: è il tipo di problema che gli poniamo, che orienta lo
scienziato nel porci una possibile risposta. Interessa assai poco, allo
scienziato detto, che i possibili modelli siano tra loro contraddittori.
Anzi: egli non si farà scrupolo di utilizzare, nella stessa spiegazione,
due o più modelli tra loro contraddittori102. Tutto questo per dare una
spiegazione che risulti soddisfacente al suo interlocutore. Se questi si

101
Masterman 1970.
102
Si veda l’esempio alle pagine seguenti.
ribellasse, e chiedesse: “Come mai mi stai dicendo cose
contraddittorie?”, lo scienziato risponderebbe più o meno così: “Sai,
a questa scala di eventi non ti devi porre di queste preoccupazioni. A
questa scala di eventi, la tal cosa è descrivibile come … invece a
questa scala occorre tener conto del contributo quantistico …” E così
via. Insomma, lo scienziato sa di usare modelli incoerenti, tra loro e
con la realtà, ma non si preoccupa di questo. Invece è attentissimo
alla produzione di teorie che siano assolutamente coerenti. Anzi:
coerenti ed eleganti.

4.4 La questione si complica


Il senso comune ritiene che un modello debba essere, almeno per
certi aspetti, isomorfo alla realtà. Questa idea proviene dalla
immagine solita, convenzionale, che abbiamo del modello. Secondo
tale idea, certi elementi sono trascurati, del tutto assenti, altri invece
sono valorizzati. Ma l’idea è sbagliata. Le cose non stanno affatto
così. Il modello ha (quasi sempre) una funzione strumentale rispetto
alla realtà: è fatto per permettere certi calcoli, altrimenti impossibili.
In tal senso, un modello può rispondere ai dettami particolari che
vengono da una teoria o da una sua (della teoria) parte. È certo che
l’uso del modello non è lineare, nel senso che non si cerca affatto,
usandolo, di realizzare una corrispondenza biunivoca con la realtà e
neppure con una parte di essa. Il modello usato in questo modo non
è, come è spontaneo credere, un modello usato in modo didattico. È
proprio un modello euristico. C’è di più. Spesso gli scienziati usano,
magari in uno stesso articolo, più modelli. Fanno ciò, semplicemente
in base a quello che gli serve, in quel preciso momento, per
dimostrare questa o quest’altra cosa. Complessivamente, dovremo
proprio dire: il rapporto degli scienziati con i modelli è complesso,
articolato, non lineare.
Ogni modello ha un suo limitato campo di validità (potremmo
anche chiamarlo dominio, o anche campo di applicabilità). Questo
deve essere specificato dai suoi autori, in modo tale da potere
stabilire se un particolare sistema o un fenomeno sono tali da potere
essere trattati usando quel modello o quella teoria. Si deve cioè poter
stabilire se un fenomeno ricade o no nel dominio dichiarato per quel
modello.
Consideriamo per esempio il caso della teoria microscopica della
materia. Si può dire che sia nata in epoca moderna, nel 1827, quando
Robert Brown, botanico scozzese, osservò che un granello di polline
sospeso in acqua si muove velocemente di moto disordinato. Quel
moto è stato detto, in omaggio a Brown, moto browniano. Il moto
browniano è responsabile di fenomeni comuni, come il disperdersi
delle molecole di fumo nell’aria, o il fatto che avvertiamo profumo di
caffè se siamo vicini a una tazzina della stessa sostanza. Albert
Einstein, nel 1905, diede un contributo fondamentale alla
comprensione del moto browniano, in termini microscopici. Il moto
browniano ha fatto sì che si facesse largo l’idea di poter costruire un
modello microscopico del gas perfetto. Questo è caratterizzato da:
1) forze di attrazione tra le molecole così piccole da poter essere
considerate nulle;
2) moto disordinato ed incessante di tutte le molecole che lo
compongono (moto di agitazione termica);
3) urti di ciascuna molecola contro le pareti del contenitore, molto
più frequenti degli urti fra molecola e molecola (questi ultimi
sono praticamente trascurati).
Il modello molecolare del gas perfetto permette di interpretare le
proprietà macroscopiche del gas (pressione, volume, temperatura) in
termini microscopici. È precisamente ai valori medi di queste
grandezze microscopiche che la teoria fa riferimento.
La teoria microscopica della materia si propone esattamente di
spiegare i fenomeni macroscopici su base microscopica.
Consideriamo il caso di uno scienziato che debba studiare un gas in
una scatola. Egli può certamente utilizzare una quantità di modelli
(meccanici): ad esempio, un insieme di palline di ferro (o metalliche)
contenute in una scatola con un lato mobile. Può (anche) utilizzare
un modello computeristico del gas, ossia un programma che simuli il
comportamento delle molecole. Se però è alla ricerca di una
dimostrazione del legame tra pressione del gas ed energia cinetica
media, egli ricorrerà a qualche stratagemma didattico. Siamo qui nel
cuore della teoria microscopica della materia. Quella, cioè, che cerca
di spiegare il comportamento macroscopico di un gas in termini di
variabili microscopiche.
L’idea generale è che la pressione del gas sulle pareti del
contenitore sia legata agli urti delle molecole contro le pareti stesse.
Questo è il fenomeno per cui un palloncino di gomma si gonfia se è
riscaldato e, viceversa, si sgonfia se è raffreddato. Lo scienziato
comincerà col dire che le molecole del gas in questione si muovono
del tutto disordinatamente. È impossibile prevedere dove una
molecola si troverà tra qualche minuto, con quale velocità starà
muovendosi, ed in quale direzione. Ad ogni urto con le pareti, per
una direzione di moto qualunque, la quantità di moto ceduta alla
parete dalla molecola sarà pari al doppio di una sua componente
iniziale. Supponiamo per esempio di considerare una parete verticale
posta a destra nella scatola. Siano px e py le due componenti in cui
risulta scomponibile la quantità di moto della molecola. Se è py ad
essere perpendicolare alla parete, allora la variazione della quantità
di moto della molecola sarà -2py. Quella della parete, per la
conservazione del momento in un sistema isolato, sarà perciò pari a
+2py. Il modello usato fin qui è classico, non quantistico: non si tiene
conto della relazione di indeterminazione di Heisenberg. A questo
punto si rende necessaria una approssimazione ulteriore. Abbiamo
visto che la quantità di moto ceduta dalla molecola alla parete
dipende solo dalla componente di essa perpendicolare alla parete. Gli
urti obliqui hanno dunque un effetto indistinguibile da quello di urti
perpendicolari alle pareti. Per questa ragione, il calcolo della forza
media esercitata dal gas sulle pareti viene effettuato servendosi di tre
ipotesi (semplificative):
1) tutte le molecole si muovono in modo perpendicolare ad una
delle pareti, ossia parallelamente ad uno degli assi;
2) se N è il numero complessivo di molecole presenti nel gas, N/3
(un terzo del totale) si muoverà lungo l’asse x, N/3 lungo y e N/3
lungo z;
3) ogni molecola ha velocità pari alla velocità media ⟨ v ⟩ .
Anche quest’ultima assunzione è chiaramente irricevibile, se
pensiamo che il modello da utilizzare “assomigli” alla realtà. È
chiaro infatti che assumere che tutte le molecole abbiano la stessa
velocità, quella media, è assolutamente contrario alla realtà (per
come la conosciamo).
Dato che gli urti obliqui sulle pareti della scatola hanno lo stesso
effetto di urti diretti in modo perpendicolare sulle pareti, assumiamo
che tutte le molecole abbiano un moto in direzione perpendicolare
alle pareti, ossia di uno degli assi introdotti. Con questa assunzione si
ottiene naturalmente che ogni molecola che urta una certa parete
trasferisce ad essa esattamente la stessa quantità di moto, cioè abbia
esattamente lo stesso effetto che per l’urto in una direzione
qualunque. Questa è chiaramente un’assunzione irricevibile se ci si
ferma all’immagine disordinata del gas che abbiamo considerato
sinora. Quindi ci raffiguriamo il gas come se un terzo delle molecole
si muovesse lungo l’asse x, un terzo lungo l’asse y, e infine un terzo
lungo l’asse z. Che dire di quest’ipotesi? Possiamo senz’altro dire
che è una ipotesi ultra-semplificativa, che non corrisponde
sicuramente alla situazione reale. Per di più, possiamo aggiungere, il
modello ora proposto è chiaramente in contraddizione con la realtà.
Tuttavia non è di questo che lo scienziato si preoccupa: egli vuole
solamente raggiungere la possibilità di eseguire un certo calcolo.
Ripetiamo: allo scienziato non interessa attenersi alla realtà; quello
che gli importa è poter condurre a termine il calcolo. Questo calcolo
era troppo difficile col modello precedente, più facile risulta invece
con questo modello, delle velocità parallele agli assi, tutte uguali a
⟨ v ⟩ . È chiaro allora che, con quest’assunzione, lo scienziato si è
allontanato da quella che a noi, e pure a lui, pare essere la realtà. Se
2L
⟨ v ⟩ è pari a , risulterà:
∆t
2L
∆ t= (4.1)
⟨ v⟩
Per il teorema dell’impulso
∆ p parete =f media ∆t (4.2)

∆ p parete 2 m ⟨ v ⟩ m ⟨ v ⟩2
f media = = = (4.3)
∆t 2 L/ ⟨ v ⟩ L
La forza media complessiva F esercitata dalle N/3 molecole sulla
parete risulterà pari a N/3 volte la forza della singola molecola
urtante:
2
N Nm ⟨ v ⟩
F= ( )
3
f media =
3L
(4.4)

Se ora vogliamo, possiamo esprimere la pressione p, esercitata


sulla parete considerata, come il rapporto tra la forza media F e
l’area della parete A=L2:
2 2
F Nm ⟨ v ⟩ Nm ⟨ v ⟩
p= =( )/L2 = (4.5)
A 3L 3V
Dato che il volume del recipiente è V = L3. Poiché l’energia
cinetica Ec è pari a:
1 2
Ec = m ⟨ v ⟩ (4.6)
2
2
risulta che, dato che 2 Ec =m ⟨ v ⟩ :
2 N Ec
p= (4.7)
3V
Quindi abbiamo effettivamente connesso grandezze macroscopiche
(la pressione e il volume) con grandezze microscopiche (come N,
numero di particelle presenti nel gas) e Ec , energia cinetica (media).
Questa legge viene ampiamente sfruttata per spiegare una serie di
fatti conosciuti, e permette di risolvere in modo relativamente
semplice una quantità praticamente infinita di problemi. Ricordiamo
che stiamo sempre muovendoci nell’ambito del modello del gas
perfetto. Non però il modello standard, ma quello modificato dalla
assunzione che un terzo delle molecole si muovano lungo l’asse x, un
terzo lungo l’asse y, infine un terzo lungo z. Vi sembra che questa
assunzione rispetti la verità, nel caso delle molecole di un gas, che si
sanno (meglio: si assumono, nel modello di gas perfetto) muoversi
liberamente nello spazio consentito?
Non si deve pensare che la falsificazione di un modello significhi il
rigetto di quel modello. Infatti, spesso si tratta di modificare alcuni
assiomi. In altri casi andrà considerata una riduzione del campo di
validità. Però, anche un modello rigettato può tornare utile, ad
esempio nella divulgazione: pensiamo ad un caso come quello del
modello atomico planetario di Rutherford.

4.5 Le teorie come modelli


Si è già detto che spesso gli scienziati attuano un’apparente
confusione, utilizzando le parole teoria e modello come aventi lo
stesso significato. Eppure non si tratta di una semplice scorciatoia
linguistica. Possiamo dire che, anzi, gli scienziati sanno quel che
dicono. Vediamo come. Supponiamo che uno scienziato stia
effettuando l’elaborazione di una teoria in non importa quale ambito
del sapere. Immaginiamo che ad un certo punto egli si trovi nella
necessità di effettuare certi calcoli tra grandezze dinamiche di un
sistema in esame. Egli può, naturalmente se questo è palesemente
coerente, ovvero non dà luogo a incoerenze nel sistema, ricorrere alla
teoria newtoniana classica (usata in questo frangente come un vero e
proprio modello). È chiaro, allora, perché gli scienziati chiamino
“modelli” anche le teorie (come la meccanica classica elaborata da
Isaac Newton). Accade così semplicemente perché essi le usano,
effettivamente, come modelli. Certamente, ci possiamo chiedere: che
differenza c’è tra una teoria e un modello? È parere abituale che una
teoria sia maggiormente completa rispetto ad un modello, che abbia a
differenza di questo una autonomia che la rende autosufficiente e che
abbia pure un campo di applicabilità generalmente più vasto di
qualunque modello. In realtà questa è una distinzione di origine
storica. Inoltre quello che dice non risulta sempre vero: ad esempio il
modello standard delle particelle e delle forze comprende al suo
interno la teoria della relatività ristretta e la teoria quantistica! Altre
volte si dice che una teoria usa un linguaggio matematico più preciso
rispetto ai modelli: ma neppure questo è sempre vero; basta
considerare la teoria neo-darwiniana dell’evoluzione delle specie,
che è sì una teoria molto potente, ma che si esprime solamente
attraverso enunciati verbali e non pronuncia (non scrive) nemmeno
una formula. Alcune persone sono del parere, quindi, che sarebbe
effettivamente meglio parlare soltanto di modelli, senza usare mai la
parola “teoria”103. Noi pensiamo invece che sia meglio continuare ad
usare entrambe le parole: sia per un motivo di consuetudine storica,
sia per sottolineare ancora qualche differenza tra teoria e modello.
Ora dobbiamo discutere una questione importante. Essa si rivelerà
decisiva anche per decidere tra modello sintattico e modello
semantico della scienza. La questione è la seguente. Come mai gli
scienziati, che usano continuamente modelli (abbiamo visto come
questi ultimi sono spesso auto-contraddittori, falsi, svianti rispetto
alla realtà – ovvero contraddittori di altri modelli che gli scienziati
stessi considerano veri), insistono tanto per accertarsi di eventuali
incoerenze delle loro teorie? Possiamo anche fare i nomi di questi
scienziati (i più famosi). Albert Einstein, Erwin Schrödinger, Max
Planck, Paul Adrien Maurice Dirac, Max Born.
Albert Einstein ha toccato il tema della coerenza parecchie volte,
anche nella sua corrispondenza con Max Born 104. Erwin Schrödinger
ne era addirittura ossessionato105. Max Planck, da parte sua, ha più
volte detto che per una teoria è importante accertarsi della sua
coerenza106. P.A.M. Dirac ha dedicato a questi temi un libretto 107. Il
tema della coerenza si è posto in modo drammatico nel caso della
interpretazione della funzione d’onda e della meccanica quantistica
nel suo complesso.
Pensiamo che la preoccupazione dei fisici era ben riposta, se
consideriamo che da una proposizione incoerente, o comunque in
una teoria che manifesti qualche incoerenza, si può dedurre
qualunque cosa108. Quindi è una cosa fondamentale stare bene attenti
a non infilare neppure una asserzione contraddittoria
(intrinsecamente), o contraddittoria con le altre proposizioni della

103
Amaldi 1999.
104
Einstein e Born 1973.
105
Schrödinger 1929-59.
106
Planck 1923-36.
107
Dirac 1939-83.
108
Si veda, ad es., Rogers 1971.
teoria, nel nostro lavoro: perché altrimenti lo invalideremmo del tutto
in maniera irreparabile.
E perché, allora, non c’è una tale attenzione nel caso dei modelli?
Perché si tollera di utilizzare dei modelli incoerenti? La risposta va
cercata nel fatto che i modelli hanno nella teoria una funzione
didattica o euristica, quindi limitata rispetto agli assunti generali
della teoria. Ogni modello viene introdotto per uno scopo ben preciso
(di solito in silenzio: lo scienziato non dice sempre che si tratta di un
modello, né per quali motivi esso viene utilizzato). Quindi è previsto
per esso un uso limitato, circoscritto. È questo uso dei modelli, un
uso limitato, sporadico, spesso contraddittorio, anomalo, che li
differenzia sostanzialmente dalle teorie. Vale la pena di approfondire
il discorso.

4.6 Modelli continui e discontinui


Cominciamo col distinguere tra modelli continui e modelli
discontinui. I modelli continui si basano sull’ipotesi che la materia
sia continua, cioè senza sottostrutture. Ricordiamo tra i modelli
continui: il modello del gas perfetto, il modello del liquido
incompressibile e quello del corpo rigido.
Se volessimo fare a meno dei modelli continui, non avremmo più
previsioni meteorologiche; non avremmo neppure la possibilità di
progettare circuiti elettrici, nuove astronavi, nuovi razzi per spedirli
nello spazio e neppure bacini idroelettrici, né un qualunque progetto
che utilizzi concetti di idrodinamica.
Tra i modelli continui, riveste particolare importanza il modello
ondulatorio, a causa della sua generalità, in quanto riguarda il
trasporto dell’energia. L’energia è riconosciuta essere, dai fisici di
tutto il mondo, la grandezza più importante in fisica. Tale modello si
applica in fisica classica tutte le volte in cui si ha un trasporto di
energia tra due punti (o due zone) dello spazio senza avere un
trasferimento di materia.
I modelli continui sono caratterizzati dall’avere ampi ed utili
campi di applicabilità. L’ampiezza dei loro possibili domini è dovuta
in definitiva al fatto che ogni pezzetto anche piccolo di materia è
costituito da un numero sterminato di particelle. Essi soffrono però di
qualche motivo di insoddisfazione. Infatti è necessario introdurvi
molti parametri fenomenologici (le cosiddette costanti fisiche), ed è
necessario ricavare questi ultimi dalle esperienze fisiche. Stiamo
alludendo a resistività, elasticità, dielettricità, scambi di calore, …
eccetera.
I modelli discontinui superano, in parte, i motivi di insoddisfazione
legati ai modelli continui. Infatti essi permettono il calcolo delle
costanti fisiche dei modelli continui, partendo dalla conoscenza della
struttura intima della materia. È vero tuttavia che tali calcoli sono
così complicati da essere proibitivi anche per il più potente dei
calcolatori. Ricordiamo tra i modelli discontinui il modello
granulare, il modello semiquantistico ed il modello standard delle
particelle e delle forze. Cominciamo dal modello granulare. È il
modello che si usa abitualmente quando si vuole esaminare la
termodinamica dal punto di vista microscopico. I sistemi
termodinamici sono sistemi meccanici costituiti da un numero molto
grande di granuli (che altro non sono che molecole) che si urtano in
modo apparentemente disordinato. Quando un sistema di questo tipo
viene a contatto con un altro sistema più freddo, l’agitazione termica
del corpo più caldo si trasmette alle molecole del corpo più freddo
attraverso urti disordinati. Questo può essere descritto ricorrendo ad
un altro modello, quello della meccanica classica. In tal modo si
ottiene che la termodinamica contiene la meccanica classica quando
il numero di particelle che formano il sistema è piccolo. Il modello
granulare della materia si basa su tre principi (in un senso un poco
“dumasiano”, nel senso che sono quattro, non tre). Questi principi
sono:
1) (Principio zero o dell’equilibrio termico) Quando due corpi a
temperature diverse vengono messi a contatto, gli urti disordinati
delle molecole danno luogo a un flusso di calore.
2) (Primo principio) Tempo e spazio sono omogenei e le leggi della
meccanica godono della proprietà di invarianza rispetto alle
trasformazioni di Galileo. L’energia interna di un sistema fisico
isolato e solidale con un sistema di riferimento inerziale sarà
allora data dalla somma delle energie cinetiche di ciascun
granulo e dall’energia potenziale del sistema. Quest’ultima
risulta funzione solamente delle distanze relative tra i granuli.
3) (Secondo principio) Ogni stato microscopico ha la stessa
probabilità di realizzarsi. Quindi, poiché lo stato macroscopico
più probabile sarà quello risultante dalla sovrapposizione di
molti stati microscopici, si capisce come possa valere la legge
dell’entropia.
4) (Terzo principio) Non è possibile ridurre l’energia cinetica media
delle particelle componenti un corpo fino a zero, con un processo
che comporti un numero finito di passi.
Questi tre (quattro) principi fanno riferimento a quella che si
chiama fisica microscopica e sono molto più convincenti e “sicuri” di
quelli macroscopici perché danno spiegazioni precise su che cosa è la
temperatura (misura dell’energia cinetica media dei granuli) e cosa
assicura l’equilibrio termico, invece di postularlo come una quantità
misteriosa. Inoltre danno una giustificazione dell’aumento di
entropia per i sistemi isolati, sulla base della agitazione termica dei
granuli, verso stati macroscopici di maggiore probabilità.
Il modello semiquantistico costituisce una correzione del modello
granulare. Esso è basato su cinque principi:
1) Lo spazio gode della proprietà di isotropia e lo spazio ed il
tempo sono omogenei.
2) Le leggi che reggono la fisica sono invarianti rispetto alle
trasformazioni di Lorentz.
3) Una particella può avere un momento angolare intrinseco (spin)
e un momento magnetico; la parola “spin”, in lingua inglese,
significa trottola, e suggerisce l’idea intuitiva che negli elettroni,
ad esempio, lo spin sia dovuto alla rotazione della loro massa
attorno ad un asse. Insomma questo renderebbe l’elettrone simile
ad una piccola trottola. In realtà, questo contrasta con tutti i dati
sperimentali finora raccolti sugli elettroni, secondo i quali
l’elettrone appare come un oggetto puntiforme, non come un
corpo esteso che possa ruotare su sé stesso. Lo spin dell’elettrone
non è quindi dovuto ad un particolare stato di moto di questa
particella, come la velocità o l’energia cinetica, ma è una
caratteristica che l’elettrone ha di per sé, come la massa o la
carica (proprietà intrinseca).
4) Valgono le relazioni di indeterminazione di Heisenberg, per le
quali certe misure contemporanee di certe quantità fisiche sono
soggette ad una precisa indeterminazione. Queste quantità fisiche
sono energia e tempo, come anche la coppia quantità di moto e
posizione.
5) Ogni particella ha alcuni gradi di libertà interni che non
appartengono allo spazio-tempo abituale.
Per completare il modello semiquantistico, che è una correzione del
modello corpuscolare (tenendo conto dello spin e del principio di
indeterminazione), ci occorre un artificio. Anziché rappresentare una
particella come un corpo puntiforme, la rappresenteremo come un
piccolo cerchio sulla cui circonferenza è disegnato un puntino. Tale
puntino definirà il valore della fase dell’onda di probabilità. Il
principio di invarianza di fase è stato storicamente detto principio di
invarianza locale di ricalibratura (local gauge invariance). Potremmo
anche, più opportunamente, dirlo principio di libertà di rotazione
interna locale. Tuttavia, anche il modello semiquantistico incontra
fenomeni e proprietà della materia che non sono descrivibili da esso,
cioè non rientrano nel suo campo di applicazione. Questa è del resto
una caratteristica che esso condivide con tutti i modelli. La proprietà,
molto importante, che il modello semiquantistico non è in grado di
descrivere, è quella delle ampiezze di probabilità che è conosciuta
come “principio di sovrapposizione”.
Infine abbiamo il modello standard delle particelle e delle forze
fondamentali, che si fonda su tre principi.
1) Ci sono tre famiglie ciascuna fatta da quattro particelle di spin ½.
Queste sono due quark e due leptoni, che possono essere
descritte dal modello semi-quantistico.
2) Invarianza delle leggi della fisica rispetto a rotazioni negli spazi
interni a 1, 3, 8 gradi di libertà delle 12 particelle-materia.
3) Presenza del cosiddetto campo di Higgs (che è un campo scalare)
in tutto lo spazio.
4.7 La questione della visione scientifica del mondo
Abbiamo detto: a seconda dell’interpretazione che scegliamo di
utilizzare per analizzare il nostro sistema, anzi proprio a seconda del
modello interpretativo che adottiamo a questo scopo, abbiamo una
diversa visione dei fenomeni in gioco. Questo, tra l’altro, toglie
molta vigoria a chi dichiara solennemente di seguire la visione
scientifica del mondo. Infatti: quale visione è, quella che egli
dichiara scientifica? Quale tra le tante? Da quale modello la trae? Il
fatto innegabile che il modello possa essere molto utile per effettuare
calcoli, avere idee ingegnose, poter ottenere una visione d’insieme
del fenomeno, non ci autorizza ad estrarne considerazioni relative a
presunte visioni scientifiche del mondo.
Perché possiamo fornire un parere convincente su un problema
scientifico siamo costretti ad usare una teoria scientifica o un
modello. Teorie e modelli sono costruzioni intellettuali che, quando
sono affermati nella comunità scientifica, si sono lentamente
sviluppati nel mondo scientifico: ciascuno attraverso l’accumulo di
dati e formulandone varie interpretazioni.
Come esempi possiamo ricordare i seguenti.
Ad esempio, il modello quantistico riguarda la luce, gli atomi e la
stella di neutroni; l’elettromagnetismo riguarda il computer, il razzo
spaziale, gli atomi; il modello neo-darwiniano riguarda tutti gli esseri
animali (compreso l’uomo); la meccanica classica riguarda l’uomo, i
razzi spaziali, terra e sole; la relatività generale tratta dell’universo; il
futuro modello unificato riguarderà forse la massa di Planck e il
quark-b. Come è chiaro, ai diversi sistemi si applicano modelli
diversi. Non esiste, oggi, un’unica teoria che si possa applicare a tutti
questi sistemi.
Per esplorare il mondo, siamo costretti ad utilizzare modelli diversi.
Ogni modello utilizza grandezze, termini, linguaggio suoi propri. Si
badi poi a questo: non è semplicemente in questione il fatto che
modelli diversi richiedono, in genere, sistemi diversi. Anche uno
stesso sistema fisico può richiedere l’uso di modelli diversi, a
seconda del livello di grandezza a cui lo si vuole considerare.
Per esempio, consideriamo il sistema fisico uomo: se siamo
interessati all’evoluzione biologica, utilizziamo il modello neo-
darwiniano, se vogliamo capirne il meccanismo della circolazione
sanguigna, o il funzionamento degli arti considerati come leve,
utilizzeremo la meccanica classica. Francesco Gusmano ne ha
parlato occupandosi della costruzione dell’immagine scientifica
dell’uomo109.
Non appena si mette mano al compito di delineare un’immagine
scientifica dell’uomo ci si rende subito conto che, in realtà, di
immagine ve n’è più d’una. Non esiste un’immagine scientifica
unitaria dell’uomo, ma vi sono tante “immagini” quante sono le
discipline scientifiche che più o meno direttamente trattano come
oggetto di studio l’essere umano. Così, si avrà l’immagine fisica
dell’uomo, poi quella biochimica, quella fisiologica, quella
sociologica e, infine, quella psicologica. Ciascuna di queste
discipline fornisce una quantità di informazioni, propone spiegazioni,
formule e previsioni, e tutto questo elaborando un sistema teorico
edificato su alcuni principi generali, messo continuamente alla prova
dei fatti mediante specifici strumenti di indagine, per essere
confermato o eventualmente smentito.
La scienza usa continuamente modelli, in uno o più dei sensi che
può assumere la parola (vedremo tra poco quali sono questi sensi).
Non si deve però credere, per questa onnipresenza dei modelli nella
pratica scientifica, che quella del modello sia una sorta di via regia
della scienza. Ci fa rapidamente rinunciare a questa idea la dinamica
dello sviluppo delle teorie, della competizione tra teorie, del rapporto
tra teorie e modelli. Vediamo, innanzitutto, perché un modello non
sempre è attendibile quanto all’interpretazione che suggerisce.
Si consideri un gas in un contenitore come sistema fisico di
interesse. Consideriamo il gas in condizioni iniziali di non equilibrio.
Ciò vuol dire che, per esempio, la maggior parte delle molecole del

109
Gusmano 2007 p. 15. Poco importa che Gusmano parli di “immagini”; è
chiaro che potrebbe anche dire “modelli”. Qualche pagina dopo, Gusmano
scrive, parlando di Wilfrid Sellars: “L’obiettivo […] non è, come si è spesso
stati tentati di pensare, quello di ‘naturalizzare’ l’umano ma, al contrario,
quello di mostrare i limiti insuperabili di ogni tentativo del genere. In altri
termini, quello di delimitare lo spazio dell’immagine scientifica
tracciandone, in modo visibile, i confini”.
gas si troverà, inizialmente, concentrata in una zona particolare del
contenitore. Come studiare questo sistema? A quali leggi della fisica
affidarsi? Vedremo che la risposta a questa domanda non è scontata,
ed apre scenari molto diversi tra loro. Immaginiamo che un fisico
voglia studiare questo sistema, con buona approssimazione isolato,
costituito da un certo numero N (molto grande, probabilmente) di
particelle mutuamente interagenti secondo una legge nota. Le
condizioni iniziali siano note, pur non formulando nessuna ipotesi
aggiuntiva sullo stato del sistema al tempo t=0, salvo che, poniamo,
tutte le particelle siano confinate nella parte sinistra del contenitore.
Supponiamo che questo110 fisico immaginario non debba fare i conti
con l’impossibilità pratica di risolvere esattamente il moto del
sistema secondo la fisica classica, se N non è piccolo, il che rende in
pratica impossibile questo tipo di trattazione. Si può anche supporre
che egli studi il gas con l’aiuto di un computer, il che gli
permetterebbe di avere a disposizione un complesso modello
computistico del gas in esame. Egli potrebbe allora scrivere le
equazioni differenziali corrispondenti ai gradi di libertà del sistema.
Le previsioni ottenute in questo modo corrisponderebbero ai dati
sperimentali (stiamo supponendo le condizioni iniziali note con
precisione arbitraria). La conclusione cui il fisico perverrebbe
sarebbe che l’evoluzione del sistema è descritta rigorosamente da
una legge di causalità. Dato che il fisico ha a disposizione un
computer, potrebbe decidere di seguire il percorso di una particolare
particella sullo schermo del computer: allora giungerebbe alla
conclusione che il caso governa il comportamento del sistema in
esame. Alla medesima conclusione arriverebbe se si servisse della
teoria statistica, per ragionare con le quantità fornite da tale teoria per
studiare il sistema in esame. Egli potrebbe però decidere di servirsi,
anziché di questi due modelli, di equazioni variazionali. Allora
avrebbe l’impressione che la natura si comporti in modo tale da
raggiungere determinati fini, in modo cioè da massimizzare
determinati parametri. Gli sembrerebbe cioè che la natura abbia uno
scopo, al quale si uniformino i fenomeni osservati, che sarebbero
110
Suppes 1961, Suppes 1962, Suppe 1977, Suppe 1989, van Frassen 1980,
Ageno 1987, Ageno 1992b, Giere 1988, Fano 2005, Murzi 2011a.
comunque in accordo con le sue previsioni. Quindi vediamo che al
variare della nostra impostazione (modellistica, modellizzante) del
problema abbiamo un responso diverso: se seguo ogni particella,
vedo il caso; se seguo l’evoluzione come descritta da un’equazione
di marcia verso l’equilibrio, ho l’impressione che il sistema sia
deterministico; se calcolo le funzioni in base al calcolo variazionale,
ho l’impressione che il gas segua dei principi teleologici ovvero
persegua delle finalità.
Il sistema ci appare ora, a posteriori, come intrinsecamente
ambiguo: ci sembra, non appena ci solleviamo ad un livello
superiore, che esso possa essere descritto da ben tre modelli
intrinsecamente differenti. Siamo forse capitati in uno di quei casi in
cui abbiamo a che fare con un’ambiguità intrinseca, irrisolvibile,
insomma con una di quelle figure interpretabili a piacere come
moglie/suocera o anatra/coniglio111? Passando dal gas che abbiamo
considerato ad un qualunque sistema fisico, avremo la domanda: di
quale sistema di indagine si è servito il fisico? Il suo modello
interpretativo è tale da suggerire una visione del mondo
deterministica, oppure finalistica? Oppure dobbiamo pensare che alla
base di tutto ci sia il caso? Quindi abbiamo raggiunto questa
importante conclusione: l’interpretazione della dinamica del sistema
è strettamente legata alla tecnica di calcolo che si utilizza. Lo stesso
problema si presenta anche in Teoria Quantistica. Consideriamo un
sistema (s) assoggettato ad una misura, rappresentata nel nostro caso
dall’operatore A; As=s0. Qui s (come anche s0) rappresenta lo stato
del sistema. Quando scriviamo As intendiamo significare che il
sistema s è assoggettato ad un procedimento di misura, rappresentata
dall’operatore A. Se pensiamo che tutto il sistema, compreso
l’apparato (a) di misura, deve obbedire alle regole della meccanica
quantistica, abbiamo che il “nuovo” sistema (s+a) deve evolvere nel
tempo secondo l’equazione di Schrödinger. Quindi si ha qui un
paradosso: quello di un sistema che evolve in modo non-causale,
quando assoggettato ad una misura; e un sistema allargato (costituito
dal “vecchio” sistema più l’apparato di misura) che evolve in modo
prevedibile (secondo l’equazione di Schrödinger). Questa è una
111
Kuhn 1962.
contraddizione che dà ancora da pensare ai fisici interessati ai
fondamenti della loro teoria. Come viene affrontata dalla stragrande
maggioranza degli scienziati?
Ritorniamo all’esempio che stavamo discutendo. Il moto delle
molecole di un gas in un contenitore è determinato dagli urti delle
molecole tra loro e con le pareti del contenitore. Gli urti seguono le
leggi della meccanica classica, che sono deterministiche.
L’evoluzione del sistema è allora, egli direbbe in questo caso,
descritta da una legge di causalità. Se il fisico invece seguisse il
percorso di una singola particella, osserverebbe un tipico moto
browniano, del tutto casuale. L’evoluzione del sistema è governata
dal caso, dalla fatalità, dalla sorte. Oppure anche: egli potrebbe
decidere di prestare attenzione al fatto seguente. Le molecole del gas
si dispongono nel contenitore in modo da massimizzare l’entropia.
L’evoluzione del sistema tende a un determinato stato finale. Siamo
quindi costretti a questa conclusione: l’interpretazione della dinamica
di un sistema dipende dal modello usato per la sua descrizione.
Abbiamo detto: a seconda dell’interpretazione che scegliamo di
utilizzare per analizzare il nostro sistema, anzi proprio a seconda del
modello interpretativo che adottiamo a questo scopo, abbiamo una
diversa visione dei fenomeni in gioco. Questo, tra l’altro, toglie
molta vigoria a chi dichiara solennemente di seguire la visione
scientifica del mondo. Infatti: quale visione è, quella che egli
dichiara scientifica? Quale tra le tante? Da quale modello la trae? Il
fatto innegabile che il modello possa essere molto utile per effettuare
calcoli, avere idee ingegnose, poter ottenere una visione d’insieme
del fenomeno, non ci autorizza ad estrarne considerazioni relative a
presunte visioni scientifiche del mondo.
È però possibile parlare in un altro senso, più debole e meno
ideologico, di visione scientifica del mondo. Si vuole dire che è
possibile acquisire una forma mentis, uno sguardo, un modo di
considerare le cose, una sensibilità particolare eppure generalissima,
che contraddistingue (quasi) tutte le menti scientifiche. È possibile
individuare in questa visione del mondo qualche tratto più preciso?
Sostanzialmente, l’avere acquisito una visione scientifica del mondo
significa essere in grado di orientarsi quando siamo posti dinanzi ad
un problema, o una questione, o ad un dilemma che riguarda un tema
scientifico, ovviamente non specialistico. Possiamo specificare
ulteriormente che cosa (operativamente) significa questo
“orientarsi”:
1) Riconoscere a quali discipline si può far risalire il problema, e
d’altra parte sapere individuare il sistema interessato al
problema.
2) Conoscere il significato dei termini usati in modo da saperli
eventualmente spiegare a chi non conosce bene queste materie e
sapere almeno alcuni dei modelli che si possono applicare in
questa situazione.
3) Sapersi muovere all’interno dei modelli validi per questi sistemi
e sapere emettere giudizi corretti dal punto di vista scientifico,
anche quantitativi.
Il procedimento intellettuale che si è delineato può cominciare con
l’individuare la scala spaziale e temporale dei fenomeni. Già questo
fatto significa scegliere tra uno, due, massimo tre modelli (e
scartarne “infiniti” altri).

4.8 Grandi teorie/grandi modelli?


Veniamo all’idea di poter formulare una teoria onnicomprensiva
del reale. È questo un sogno coltivato (in passato ed ancora oggi) da
molti fisici. Secondo John Archibald Wheeler (nato nel 1911 e
scomparso nel 2008), una teoria del tutto o una equazione che
descriva tutte le cose non può esistere. Ciò per il motivo
fondamentale ricordato più sopra. Ricordiamo quello che diceva
Einstein: le teorie fisiche sono frutto esclusivo di pensieri dell’uomo,
libere creazioni della mente umana; queste teorie andranno poi
confrontate con quanto la natura ha da dirci, in appositi esperimenti
preparati proprio per avere certe risposte; l’esperimento, la situazione
sperimentale hanno l’ultima parola sulla giustezza o meno di quanto
proposto dalla teoria, ma la libera invenzione, la creatività dello
scienziato sono altrettanto importanti, in quanto fondamentali nella
creazione della teoria.
In accordo con ciò, anche J. Wheeler ha sostenuto che le teorie
sono frutto di un processo di elaborazione mentale, legato agli
schemi di cui facciamo uso anche per porre domande alla natura.
Pare che Wheeler abbia anche detto: “Non correre mai dietro un bus,
una donna o una teoria cosmologica. Ce ne sarà sempre un’altra nel
giro di pochi minuti”. C’è stato un grande sostenitore della “teoria
del tutto”, e questi è Stephen Hawking (1942-2018). Egli era in
origine un credente della Teoria del Tutto, ma, dopo aver considerato
il Teorema di Gödel, concluse che non ve ne fosse una ottenibile.
“Alcune persone si arrabbierebbero molto se non dovesse esistere
una teoria definitiva, che possa essere formulata come un numero
finito di principi. Io appartenevo a quel gruppo di persone, ma ho
cambiato idea.”112
Ultimamente questo scienziato ha espresso la convinzione che una
teoria del tutto esista, ma abbia un aspetto di grande collage, ognuno
dei pezzi essendo una teoria o un modello particolare, che servono a
spiegare un pezzo di realtà. Con questo suo punto di vista,
inconsapevolmente vicino alla filosofia circoscrizionista della
scienza, Hawking ha dato l’addio alla vecchia teoria secondo cui ci
doveva pur essere una teoria scientifica in grado di spiegare tutto.
Teoria, quest’ultima, contro cui si erano già spesi: Mauro Ageno 113,
Ugo Amaldi114, Juan José Sanguineti115, S. Jaki116, Evandro Agazzi117,
Werner Heisenberg118, Erwin Schrödinger119, non ha attratto neppure
Freeman Dyson il quale, pure riferendosi al teorema di Gödel, ha
detto:

112
Citato il 6 aprile 2011 su “La Repubblica”, articolo tratto da Stephen
Hawking e Leonard Mlodinov, Il grande disegno, Mondadori, Milano,
2017.
113
Ageno 1992b.
114
Amaldi 2004.
115
Sanguineti 1997.
116
Jaki 1966.
117
Agazzi et al. 1989.
118
Heisenberg 1935.
119
Schrödinger 1929-59.
Il teorema di Gödel implica che la matematica pura è inesauribile.
Non importa quanti problemi vengono risolti, ci saranno sempre altri
problemi che non possono essere risolti con le regole esistenti. [...] A
causa di questo teorema, anche la fisica è inesauribile. Le leggi della
fisica sono un insieme finito di regole e includono quelle della
matematica, quindi il teorema di Gödel si applica anche a loro.
Come si vede, per almeno due pensatori, grandi scienziati e stimati
spiriti liberi, quali erano Freeman Dyson e Stephen Hawking, il
teorema di Gödel ha costituito lo spartiacque per decidersi contro una
teoria del tutto, anziché a favore. Che cosa è stato, allora, questo
famoso teorema di Gödel, il teorema di incompletezza? Che
importanza ha avuto nella matematica e nella logica del Novecento?
È questo quanto andremo ora ad analizzare.
Capitolo 5. Teoria circoscrizionista e sistemi
formalizzati

Persino l’aritmetica contiene la casualità. Alcune


delle sue verità possono essere accertate solo
tramite la ricerca sperimentale. Vista in questa
luce comincia a rassomigliare ad una scienza
sperimentale.
John D. Barrow

Kurt Gödel

5.1 Confronto tra scuole e modi di pensiero


Tutta la nostra tradizione epistemologica separa nettamente la
matematica dalle scienze naturali.
Ricordiamo quanto diceva Tommaso d’Aquino che quando
descrive l’operare delle scienze distingue sempre la matematica dalla
fisica. Ad esempio, nel Commento alla Metafisica di Aristotele, libro
VI, lect. 1, dice:
In ciò dunque la matematica è diversa dalla fisica, poiché la fisica
considera ciò nella cui definizione rientra la materia sensibile. E
considera ciò che non è separato [dalla materia sensibile], in quanto
non è separato. La matematica invece considera ciò nella cui
definizione non si pone la materia sensibile.120
Ancora, nel Commento al De Trinitate di Boezio:
Poiché infatti la verità consiste nell’adeguamento della cosa
all’intelletto, la falsità si ha – di conseguenza – quando la cosa viene
considerata diversamente da come è. Se dunque le cose che sono
nella materia vengono considerate dalla matematica senza materia, il
modo stesso in cui la matematica considera le cose sarà falso, e in tal
senso essa non potrà essere una scienza, dal momento che ogni
scienza verte sul vero.121
Questo avviene nonostante l’utilizzo continuo della matematica da
parte delle scienze naturali: fisica, chimica, geologia, … È
soprattutto la fisica, generalmente riconosciuta come la regina, il
modello delle scienze naturali, ad avere effettuato questa interazione
con la matematica. Nel corso del XVIII e XIX secolo, grande è stato
l’impulso che la fisica ha fornito ai matematici per sviluppare nuovi
ambiti teorici. Nel XX secolo, poi, sono stati addirittura i fisici stessi
a creare della nuova matematica122.
È stato da tempo notato come sia “irragionevole” l’efficacia della
matematica nel trovare successo nello spiegare i fatti delle scienze
naturali123. La situazione è a dir poco imbarazzante. Da un lato, ad
120
[...] sicut scientia quae tractat de numero, non tractat de magnitudine.
Nulla enim earum determinat de ente simpliciter, idest de ente in communi,
nec etiam de aliquo particulari ente inquantum est ens. Sicut arithmetica non
determinat de numero inquantum est ens, sed inquantum est numerus.
121
Cum enim veritas consistat in adaequatione rei ad intellectum, oportet
esse falsitatem, quandocumque res consideratur aliter quam sit. Si ergo res,
quae sunt in materia, sine materia considerat mathematica, eius consideratio
erit falsa, et sic non erit scientia, cum omnis scientia sit verorum.
122
È il caso dell’introduzione della funzione delta da parte di Dirac.
123
Wigner 1959.
esempio, si caratterizza la fisica moderna (post-galileiana) e
contemporanea (quantistica) per il suo carattere matematico e si dice
che soltanto imparando la matematica sottostante si può davvero dire
di avere capito anche la fisica; dall’altro si sottolinea come lo statuto
epistemologico della matematica sia completamente differente da
quello della fisica. In che senso la situazione è imbarazzante? Perché,
perlomeno, la matematica e la fisica sono così insieme e separate ed
unite strettamente. Nec tecum nec sine te. Come risolvere la
questione? Davvero la matematica è tanto diversa dalla fisica?
Indubbiamente, nell’individuare e segnare tale differenza, ha giocato
un ruolo importante la filosofia kantiana, con la distinzione a priori-a
posteriori. La matematica sarebbe una scienza fondamentalmente
deduttiva, la fisica una scienza fondamentalmente induttiva. La
matematica ha un impianto di postulati e regole di deduzione (con i
conseguenti teoremi), mentre per la fisica vale soprattutto la capacità
di confrontare le sue conclusioni con la natura, attraverso
l’esperimento.
Vogliamo davvero attaccare questa tradizione? Che motivi
abbiamo per fare ciò? Oltre a sistemare questa impasse, di cui si è
detto, che parte da Kant e porta direttamente agli interrogativi di
Eugene Wigner124, vorremmo anche discutere qualche motivo per cui
non c’è una tale separazione tra matematica e fisica. Diciamo che,
d’ora innanzi, considerare la matematica e la fisica unite, almeno per
quello che riguarda la fisica o, come meglio è stata chiamata, la
fisica-matematica, è un obbligo. Ne viene di conseguenza, a pensarci
un po’, che un libro di filosofia della fisica o della scienza debba per
forza contenere una parte che parli anche di matematica.
I primi trenta anni del Novecento furono di fuoco per le scoperte
che in campo logico vennero a mettere in crisi l’idea che si aveva
della matematica. Se osserviamo da circa un secolo di distanza
quello che allora avvenne in campo logico, siamo tentati di
parafrasare un libro il cui titolo suona: Dieci giorni che sconvolsero
il mondo. La tesi che vogliamo sostenere è che la rivoluzione operata
da Gödel è di carattere sostanzialmente circoscrizionista. In effetti, è
proprio quello che intendiamo, quando diciamo: “Ma è
124
Wigner 1959.
matematico!”, ad essere messo radicalmente in crisi da quanto ci
accingiamo a dire. È una cosa che ci capita di dire spesso, quando
vogliamo dire che è una cosa di cui non si può proprio dubitare, che
è palese per tutti, che è garantita. È proprio così? È proprio vero che
la matematica è un corpus di teorie indubitabili e certe? Per l’uomo
istruito comune, diciamo per chi ha una istruzione liceale abbastanza
solida, la matematica non è che una rete di deduzioni garantite. Dagli
assiomi si deducono i teoremi, che quindi, a questo punto, sono da
considerare tautologicamente veri. Una volta ammessi i postulati, se
la teoria è ben costruita, non si potranno più mettere in discussione i
vari teoremi della teoria. Insomma, tutta quanta la teoria è nient’altro
che un ammasso di tautologie!
Vedremo che, almeno in un certo senso, non è (proprio) così.
Anche le teorie matematiche vivono una storia di progressiva
espansione, fino a che non incontrano dei limiti invalicabili. Anche le
teorie matematiche sono circoscritte, dunque, in un senso ancora più
preciso, se possibile, delle scienze naturali. Questo risultato è
importante in ordine allo scopo di comprendere la vera portata di
quanto siamo andati dicendo, presentando la teoria circoscrizionista.
Infatti mentre per le scienze naturali o positive (fisica, chimica,
biologia, …) è naturale dare una definizione delle scienze stesse
come riferite al proprio dominio, all’oggetto di cui queste si
occupano, per la matematica questo non è possibile.
Questi risultati sono stati, in particolare, ottenuti in modo serio ed
indubitabile attorno alla metà del secolo scorso, da alcuni studiosi
che si occupavano di metamatematica, logica matematica, problema
dei fondamenti. Vedremo come Kurt Gödel, Alonso Church, Alan
Turing e altri seppero svolgere in modo inoppugnabile (o
matematico) svariati argomenti per illustrare la vera situazione della
matematica.
I vari argomenti di cui si occupa la matematica non sono
rappresentabili in un unico quadro formale, ma piuttosto sono
rappresentabili in tanti (infiniti) quadri formali irriducibili l’uno agli
altri, come tanti fogli di un atlante geografico per rappresentare la
terra. Ogni sistema formale ha, in questo senso, dei limiti precisi che
ne delimitano l’ambito di applicazione.
Vale la pena di ripercorrere brevemente anche la storia della
matematica nel secolo scorso, per riconoscere in essa la validità della
teoria circoscrizionista. Come vedremo, ci sono vari aspetti per cui
questo è vero, non solo delle teorie matematiche proposte via via
nell’arco di tempo considerato, cioè circa un secolo. È addirittura
nella meta-matematica (o filosofia della matematica) che troviamo
agganci per la nostra teoria. Praticamente, quasi ad ogni livello
teorico (teoria, meta-teoria, …) troveremo fenomeni e costrutti
teorici inscrivibili nella teoria circoscrizionista. Preferiamo, tuttavia,
non forzare troppo la discussione della storia della matematica in
senso circoscrizionista. È la storia della matematica stessa a parlare
da sola, a volte per bocca dei suoi stessi protagonisti, come
sentiremo. È questa una storia molto bella, affascinante, piena di
colpi di scena. Vale la pena di ripercorrere quello che è successo
nella storia della matematica e della logica del Novecento,
indipendentemente da ogni interesse (quale è quello di ritrovare in
essa supporti al circoscrizionismo), semplicemente perché è una
storia entusiasmante.
Si è già detto che non è solo parte della storia della matematica, ma
anche di quella della logica. Spesso diciamo: “Ma è logico!”, quando
vogliamo mettere fine ad una discussione oppure sottolineare che
siamo giunti a conclusioni che noi consideriamo inoppugnabili. È,
oggi, coerente fare questo?
L’ultimo secolo ha visto uno sviluppo rigoglioso di nuove logiche:
tra logiche estese e logiche devianti, si contano oggi più di una
dozzina di nuove teorie logiche, ed il conto rischia di essere errato
per difetto. Allora: a quale logica ci riferiamo, quando usiamo questa
espressione?
“Ma, naturalmente, alla logica, quella che usiamo tutti!”
Ebbene: questo è precisamente quanto non siamo più in grado di
dire! Non c’è più una logica “che usiamo tutti”.
Nel seguito presupporremo qualche conoscenza, nel lettore, di
filosofia e, in particolare, di filosofia della matematica. In particolare
presupporremo che il lettore abbia almeno già sentito parlare del
platonismo, della filosofia aristotelica e del kantismo (in quanto
filosofie della matematica).
È nota la caratterizzazione che Alexandre Koyré ha fatto
dell’appartenenza alla filosofia platonica ovvero a quella aristotelica
(nel suo Galileo e Platone)125:
Se si rivendica alla matematica una posizione superiore, se, al di là di
questo, le si attribuisce un valore reale e una posizione di comando
nella fisica si è Platonici. Se invece si vede nella matematica una
scienza astratta che riveste pertanto un valore minore di quelle che,
come la fisica e la metafisica, si occupano dell’essere reale; se in
particolare si presume che alla fisica non occorre altra base che
l’esperienza e che essa si costruisca direttamente sulla percezione;
che la matematica deve accontentarsi del ruolo secondario e
sussidiario di semplice scienza ausiliaria, allora si è Aristotelici.
Oltre a queste filosofie, è emersa nel corso del Settecento un’altra
filosofia della matematica, quella kantiana. Così, in effetti queste tre
tendenze si sono affrontate nel corso della storia della matematica
fino a tutto l’Ottocento.
I problemi attorno a cui si concentravano queste scuole filosofiche
erano sostanzialmente due: quello della esistenza degli oggetti
matematici e quello della (pretesa di) verità delle proposizioni
matematiche. Si hanno in particolare, su questi temi, le seguenti
posizioni:
1) scuola platonica: gli enti matematici hanno esistenza di per sé,
nel mondo delle idee, che è poi il mondo contemplato
dall’intelletto e non percepito sensorialmente; le proposizioni
matematiche descrivono dunque in modo esatto una porzione del
mondo delle idee;
2) scuola aristotelica: la matematica è frutto di una astrazione dal
mondo sensibile (bisogna ricordare che astratto vuole quasi dire
estratto); le proposizioni matematiche descrivono abbastanza
bene certi aspetti del mondo percepito dai sensi, trascurando certi
altri aspetti: più precisamente, ne descrivono la struttura
quantitativa e formale;
3) scuola kantiana: gli enti matematici sono pure intuizioni della
mente, quindi le proposizioni matematiche non descrivono nulla

125
Koyré 1943.
di reale, ma sono solo la manifestazione di certi aspetti della
struttura del modo umano di conoscere.
Accanto a queste scuole, altre se ne sono presentate nel corso
dell’Ottocento e soprattutto del Novecento:
4) innanzitutto il formalismo: secondo i formalisti, la matematica,
per così dire, si riduce ad un gioco che si gioca con inchiostro e
carta; gioca bene chi riesce a rispettare tutte le regole, ma mostra
di avere altresì abbastanza fantasia126;
5) accanto a questo, il movimento intuizionista sosteneva invece
che né la logica né il linguaggio possono fare del bene alla
matematica, in quanto questa si basa su un atto fondamentale di
intuizione da parte del matematico;
6) un’altra corrente di pensiero, nota come logicismo, sosteneva che
la matematica, in definitiva, si riduceva ad una forma di logica, e
che la logica era alla base della matematica. Essa si proponeva
quindi di risolvere l’intera matematica in un capitolo della logica
dimostrando che (nella terminologia kantiana) tutte le
proposizioni matematiche esprimono giudizi analitici a priori.
Questo programma logicista è stato attuato in parte, da Frege e
Russell e Whitehead, sul presupposto di una logica di validità
assoluta. È stato particolarmente Gottlob Frege a sostenere
questa scuola filosofica, che non è certamente una novità in
filosofia: già Leibniz sosteneva la necessità di ricercare una
fondazione assiomatica della matematica;
7) infine la scuola del predicativismo, iniziata da Poincaré e Weyl.
È stata descritta, in modo leggermente ironico, così: I numeri
naturali esistono realmente; tutto il resto è opera dell’uomo.
Questa scuola si richiama esplicitamente a Kant, e in particolare
al passo della Critica della ragion pura nel quale Kant sostiene
che la definizione di un ente matematico non è la descrizione di
un oggetto esistente indipendentemente dall’uomo, ma è la
costruzione che legittima tale oggetto.
126
Il principale artefice del formalismo fu David Hilbert. È noto quello che
egli rispose quando gli venne comunicato che un suo allievo intendeva da lì
ad innanzi dedicarsi alla poesia. La risposta di Hilbert fu, pressappoco, che
quell’alunno non aveva abbastanza fantasia per fare il matematico!
Un elemento comune a queste concezioni è quello di considerare la
matematica come un corpo completo. Riassumiamo cosa questo
significa e comporta, scusandoci se saremo un po’ schematici.
Ogni problema matematico, se esattamente formulato, trova una
risposta definitiva. Tale risposta può essere negativa, come nel caso
della quadratura del cerchio. Il problema di costruire un quadrato di
area uguale a un cerchio dato, usando solo riga e compasso, è stato
risolto dimostrando l’impossibilità di una tale costruzione. Il punto
essenziale è, comunque, che ogni quesito matematico ha una risposta
univoca. Può essere difficile trovare una dimostrazione che individua
la risposta corretta. Tuttavia, tale dimostrazione esiste. Compito del
matematico è cercarla. Questa è l’idea di matematica come corpo
completo di conoscenze. Ancora: l’idea che possa esistere un
problema matematico che, in linea di principio, non abbia alcuna
risposta, appare semplicemente assurda. C’è chi, come Leibniz, ha
anche sostenuto che ogni problema matematico (e persino filosofico)
sia risolvibile mediante il calcolo ossia, per usare un termine
moderno, mediante un algoritmo. Ma anche chi ha negato questa
possibilità, contestando che i problemi matematici siano risolvibili
mediante il calcolo, non ha mai negato la completezza della
matematica.
Ogni problema matematico ha una sola risposta corretta. Potrebbe
essere impossibile trovarla: in fondo, gli uomini sono esseri finiti.
Ma la risposta esiste. Dio sicuramente conosce la risposta corretta.
Pensate per un attimo quanto potrebbe sembrare assurda
l’affermazione che esistono problemi matematici la cui risposta è
ignota a Dio stesso.
Eppure, dalla dimostrazione di Gödel, sappiamo che è così 127.
Sembra però che la filosofia della matematica non abbia compreso
l’importanza dei teoremi di incompletezza. Essi sono visti come una
falsificazione del programma finitista di Hilbert e come una
dimostrazione dell’intrinseca limitazione dei metodi assiomatico-
deduttivi.
127
Perlomeno, se Dio pensasse per concetti. Questa, a ben vedere, potrebbe
essere la prova che effettivamente Dio non pensa per concetti, come già
affermato più volte da illustri filosofi e teologi.
Noi vogliamo invece provare che l’incompletezza di una teoria
matematica non è una sua limitazione, ma è un’importante proprietà
positiva. Le teorie incomplete sono fondamentali, perché aprono la
possibilità di esplorare nuovi territori impensabili. L’incompletezza è
essenziale alle teorie matematiche. Ma è essenziale non perché tali
teorie sono limitate (nel senso negativo del termine).
L’incompletezza è essenziale perché è vitale alla ricerca
matematica. L’incompletezza non è una limitazione della mente
finita dell’uomo. L’incompletezza è l’essenza delle teorie
matematiche.
Recentemente, si è assistito ad un indebolirsi della trattazione
filosofica dei teoremi di Gödel. Infatti, dopo un periodo euforico di
ricerche, volto a trovare applicazioni le più disparate 128, si è assistito
ad una progressiva diminuzione d’interesse, oltre ad uno
specializzarsi delle ricerche. Dopo una prima fase, a dir poco
entusiastica, in cui pareva che dai teoremi di Gödel si potesse
ottenere (quasi) tutto, si è passati ad una fase di stanca. Così, non è
azzardato dire che, se si interroga un qualunque filosofo
sull’argomento, ci si sente rispondere che, tutto sommato, i teoremi
di Gödel hanno lasciato la matematica così com’è.
Eppure noi crediamo (e vorremmo discutere la cosa) che ci sia una
applicazione filosofica (e potremmo aggiungere: relativamente
sicura, immediata, senza sforzi) dei teoremi di Gödel: precisamente
alla teoria circoscrizionista della scienza. Prima di approfondire
questi argomenti, è bene però fare un poco di chiarezza sui problemi
che andiamo trattando. Cominceremo pertanto con un breve esame
storico degli ultimi tre secoli.

128
Jaki 1992. L’autore in particolare “cerca” di applicare i risultati di Gödel
alla “teoria del tutto”, ovvero alla fisica nel suo insieme. Così, egli sembra
sostenere l’applicabilità dei teoremi di Gödel, pensati per le teorie
formalizzate, anche nel caso di quelle non formalizzate (e, aggiungiamo noi,
forse non formalizzabili).
5.2 L’Ottocento. Logicismo e crisi dell’evidenza: le geometrie
non euclidee
La prima differenza che salta all’occhio, a chi studi la matematica
del secolo XVIII e la confronti con quella del secolo successivo, è la
straordinaria ripresa di una attenzione tenace al problema del rigore
matematico. Si parla a tale proposito di rigorismo ottocentesco. In
effetti, nasce e si manifesta pienamente un’esigenza di rigore e
precisione concettuale e metodica. Tale esigenza va via via
trasformandosi, poi, nell’esigenza sempre più chiara e marcata di
fondazione delle varie discipline e poi di tutta la matematica.
In particolare si fa luce quello che possiamo chiamare logicismo
ottocentesco. Kaspar Wessel, Jean Robert Argand, Karl Friedrich
Gauss danno inizio al processo di cui stiamo parlando, e il cui
carattere logicista emergerà soltanto più tardi. Essi iniziano il
processo di riconduzione della teoria dei numeri complessi alla teoria
dei numeri reali.
La corrente di pensiero, nota come logicismo, sosteneva che la
matematica, in definitiva, si riduceva ad una forma di logica, e che la
logica era alla base della matematica. Essa si proponeva quindi di
risolvere l’intera matematica in un capitolo della logica dimostrando
che (nella terminologia kantiana) tutte le proposizioni matematiche
esprimono giudizi analitici a priori. Questo programma logicista è
stato attuato parzialmente da Friedrich Ludwig Gottlob Frege, da una
parte, e Bertrand Russell e James Whitehead, dall’altra, sul
presupposto di una logica di validità assoluta.
Il logicismo sostiene che alla base della matematica c’è la logica.
Pertanto è entrato in crisi, e si pensa attualmente che non sia più
riproponibile, dopo la scoperta di logiche non-aristoteliche.
Accanto a questi studi, il lavoro di tanti sul quinto postulato di
Euclide ha portato alla scoperta delle geometrie non-euclidee.
Ricordiamo questi nomi, tra i tanti che si sono affannati a scoprire se
potevano dimostrare il quinto postulato di Euclide, ovvero cambiare
l’esposizione euclidea col proporre una migliore e diversa
definizione di parallelismo, oppure con la proposta di un altro
postulato, che godesse di maggiore evidenza rispetto a quello
euclideo: Tolomeo (II secolo a. C.), Posidonio (I secolo a. C.), Proclo
(410-485), Al Narizi (IX secolo), Nasir ed Din (1201-1274), F.
Commandino (1509-1575), R.S. Clavio (1537-1612), P. A. Cataldi
(1552-1626), Giovanni Alfonso Borelli (1608-1679), John Wallis
(1616-1703), Giordano Vitale (1633-1711). Questi autori
prepararono il terreno per la scoperta delle geometrie non-euclidee.
Tra gli scopritori vanno menzionati: Carl Friedrich Gauss (1777-
1855), Janos Bolyai (1802-1860), Nicolaj Ivanovic Lobacevskij
(1792-1856) e George Friedrich Bernhard Riemann (1826-1866).
Questa scoperta ha riaperto il duplice problema: dello status
ontologico degli enti matematici e della verità delle proposizioni
matematiche.
Le geometrie non-euclidee costituirono uno scandalo intellettuale
in quanto contrastanti con la realtà del mondo delle idee, ritenuta a
torto euclidea dai platonisti; con la struttura del mondo percepito dai
sensi, ritenuta a torto euclidea dagli aristotelici; con la struttura a
priori dell’umano conoscere, ritenuta a torto euclidea dai kantiani.
Si generò l’aspettativa che prima o poi le geometrie non-euclidee
potessero essere smascherate come assurde: ma tale aspettativa si
rivelò ingannevole; anzi si sono ottenute prove e riprove che
ciascuna geometria non-euclidea può essere tradotta, grazie ad un
opportuno “vocabolario”, in un capitolo della geometria euclidea, e
viceversa. Un matematico italiano (Eugenio Beltrami) è riuscito ad
ottenere modelli euclidei di ciascuna delle geometrie non-euclidee;
questo prova che la geometria euclidea, se dimostrata incoerente,
trascinerebbe con sé, in questa sentenza di incoerenza, anche quelle
non-euclidee.
Insomma, geometria euclidea e geometrie non-euclidee simul
stabunt aut simul cadent. Come hanno reagito le varie filosofie della
matematica a questa notizia?
I platonisti hanno pensato che le diverse geometrie descrivono
regioni diverse del mondo delle idee; secondo gli aristotelici le varie
geometrie astraggono strutture formali diverse del mondo percepito
dai sensi, utilizzando metodi diversi; infine secondo i kantiani esse
costituiscono altrettante “griglie conoscitive” a priori, tra le quali il
soggetto liberamente sceglie.
La storia della matematica aveva dimostrato, fino a questo punto,
che estendendo il campo degli assiomi si poteva ottenere la
possibilità di risolvere problemi che prima di allora erano preclusi.
Forse questo procedimento poteva essere esteso fino a far sì che la
matematica potesse risolvere tutti i problemi? La matematica poteva
ricoprire tutto l’Universo, per quanto è vasto? Questa domanda, in
cui riconosciamo la caratteristica della modernità, fu effettivamente
posta.
Sembrò, ad un certo punto, che fosse possibile darvi una risposta
affermativa.
Ma fu una breve illusione. Ben presto subentrò la sensazione di una
nuova Torre di Babele. Questa venne con la cosiddetta crisi dei
fondamenti.

5.3 Crisi dei fondamenti


La logica del secolo scorso, intendiamo proprio la logica del ’900,
ha conosciuto enormi sviluppi. Questi sviluppi ne hanno fatto una
delle discipline scientifiche più interessanti per metodi e risultati
ottenuti. La ricerca logica aveva già conosciuto un periodo
straordinariamente fecondo nel XIX secolo. Possiamo dire che quella
stagione straordinaria si concluse con la pubblicazione da parte di
Hilbert delle Grundlagen e dei Grundgesetze di Frege.
Tra questi lavori e quelli di Russell, Whitehead, Brouwer e i
successivi interventi di Hilbert si inserisce un elemento che
costituisce un vero e proprio iato: questo elemento è costituito dalla
crisi dei fondamenti, ovvero una serie di paradossi che si apre con la
scoperta nel 1902 della contraddittorietà della teoria cantoriana e
fregeana degli insiemi. È a questi problemi che fa riferimento
l’indagine di inizio secolo scorso. È tutta quanta la concezione della
matematica che riceve un duro colpo dalla scoperta di Russell.
Russell, cominciò col distinguere, fra gli insiemi, quelli che
appartengono a sé stessi da quelli che non appartengono a sé stessi.
Esempi del primo tipo sono dati dall’insieme di tutte le idee (che è
una idea), o dall’insieme di tutti i concetti (che è un concetto);
esempi del secondo sono dati dall’insieme di tutti gli uomini (che
non è un uomo) o dall’insieme di tutti i matematici (che non è un
matematico). Russell si rese conto che l’insieme di tutti gli insiemi
che non appartengono a sé stessi appartiene a sé stesso se e solo se
non appartiene a sé stesso. Con questo, dimostrava la
contraddittorietà di uno degli assiomi che Frege aveva considerato
apodittici, l’assioma cosiddetto di astrazione, in base al quale “ogni
proprietà individua l’insieme degli oggetti che ne godono”. La
proprietà di non appartenere a sé stesso, infatti, dava origine a un
insieme dalle caratteristiche contraddittorie. Questo “paradosso di
Russell” ebbe un ruolo fondamentale nella crisi dei fondamenti della
matematica, la quale a sua volta ebbe un peso notevole nella più
ampia crisi che interessò le certezze fondamentali della fisica, della
filosofia e appunto della matematica all’inizio del XX secolo. In
particolare, dimostrò la contraddittorietà della teoria ingenua degli
insiemi di Georg Cantor, che faceva uso di strumenti matematici
analoghi a quelli su cui si era basato Frege nel tentativo di produrre
una completa fondazione della matematica sulla logica (tale tentativo
va sotto il nome – come già sappiamo – di logicismo). Nel tentativo
di risolvere l’antinomia, in modo tale da conservare la validità
dell’idea (alla base del logicismo) per cui la matematica può essere
fondata completamente dalla logica, Russell sviluppò in
collaborazione con Alfred North Whitehead la teoria dei tipi, esposta
nel loro libro Principia Mathematica.
All’origine di tale cambiamento di concezione non sta tuttavia
solamente il paradosso di Russell. Infatti possiamo dire che il
bersaglio primo di tale paradosso era la concezione (di Cantor) di
insieme come estensione di proprietà arbitrarie. Dato che nel lavoro
del matematico si parla raramente (per non dire mai) di proprietà
arbitrarie, ma sempre di insiemi di punti, di numeri, e così via, il
paradosso di Russell poteva quindi essere considerato un caso non
pertinente. Altri paradossi dovevano essere scoperti da lì a poco:
Julius König (nel 1905) e Jules Antoine Richard (nello stesso anno)
scoprirono paradossi per cui la stessa nozione cantoriana di insieme
poteva essere considerata senza significato. Tali paradossi ebbero la
conseguenza di colpire non tanto la pratica matematica, quanto la
concezione che di questa disciplina si aveva ed era sostenuta nei
lavori di Frege, Dedekind e Cantor.
È proprio la concezione deduzionista della matematica che si trova
ad essere messa in crisi. Tale tesi equivale a quella secondo cui tutta
la matematica non è nient’altro che una rete di identità tautologiche.
Con ciò, proprio il legame tra logica e matematica, trovato (o
ipotizzato) da Frege, Cantor e Dedekind, viene messo
(definitivamente) in crisi.

5.4 L’algebra astratta


A questo punto va registrata un’ulteriore crisi: quella dell’infinito.
Originariamente il calcolo infinitesimale fu esposto in una forma che
comportava l’utilizzo di grandezze infinite in atto e grandezze
infinitesime in atto. Questo modo di presentare le cose offriva il
fianco alle critiche classiche contro l’infinito attuale.
Diciamo per correttezza verso il lettore qualche parola sulla
distinzione tra infinito attuale ed infinito potenziale. Consideriamo
un esempio, quello dei numeri naturali:
1,2,3,4, … Chiaramente si può sempre aggiungere un “più uno” a
qualunque numero naturale, ottenendo ancora un numero naturale.
Questo porta a concludere che i numeri naturali costituiscono un
infinito (potenziale). Considerare invece un infinito in atto vorrebbe
dire rappresentarsi davanti agli occhi della mente tutta la quantità
infinita.
Una prima riforma del calcolo infinitesimale ebbe luogo ad opera
di Augustin-Luis Cauchy (1789-1857) e Karl Weierstrass (1815-
1897).
Questa riforma era diretta ad eliminare infiniti ed infinitesimi in
atto mediante l’uso di procedimenti di passaggio al limite. Essa
costrinse a precisare il concetto di numero reale in modo tale da
esigere la considerazione della loro totalità, che è una totalità infinita
in atto. Ciò richiese a sua volta un’apposita teoria dei numeri
cardinali infiniti e dei numeri ordinali infiniti.
Siamo così giunti a parlare della Teoria degli insiemi di George
Cantor (1845-1918) e di Ernst Zermelo (1871-1953).
Una seconda riforma, più radicale, fu opera di Paul Lorenzen, Boris
Abramovich Kušner, Erret Bishop. Questa riforma era ispirata a
criteri costruttivisti (o intuizionisti).
Infine una terza riforma, legata al nome di Abraham Robinson
(1918-1974), l’inventore dell’analisi non-standard. La portata della
riforma attuata da Robinson è presto detta: essa giustificò l’uso di
grandezze infinite in atto e di grandezze infinitesime in atto.
Servendosi di mezzi raffinati di logica formale moderna, essa
ricostruisce il calcolo infinitesimale, apparentemente nella forma
originaria e senza perdite, sfuggendo alle critiche contro l’infinito
attuale.
Su tale problema, quello dell’uso dell’infinito attuale e della sua
giustificazione logica, la comunità dei matematici è divisa: una
(piccola) minoranza di costruttivisti ripudia l’infinito attuale in tutte
le sue forme, in quanto privo di valore operativo, e manifesta la
propria preferenza per la seconda riforma detta (Paul Lorenzen, Boris
A. Kušner, Erret Bishop); una (piccola) minoranza di eterodossi
accetta l’infinito attuale logicamente giustificato e circoscritto, in
quanto del tutto innocuo, e propugna la terza riforma; la stragrande
maggioranza dei matematici accetta la prima riforma, in quanto
compromesso ragionevole e fecondo.
Quale è, al momento attuale, lo stato della questione per tutte
queste teorie? Che ne è della geometria euclidea, dell’aritmetica dei
numeri reali, delle geometrie non-euclidee, dl calcolo infinitesimale?
A che punto siamo giunti nella ricerca di una dimostrazione di non-
contraddittorietà (di coerenza) per queste teorie?
Occorre partire dalla conclusione, relativamente a questo problema,
per poi discutere i modi ed i metodi che si sono utilizzati per
raggiungerla.
La conclusione è la seguente. Si è dimostrato a più riprese che
ammettendo l’uso di totalità infinite in atto e per mezzo di opportuni
“vocabolari” è possibile tradurre: la geometria euclidea in un
capitolo dell’aritmetica dei numeri reali, e viceversa; il calcolo
infinitesimale, come risulta secondo i canoni imposti dalla prima
riforma detta (Cauchy, Weierstrass) in un capitolo dell’aritmetica dei
numeri reali, e viceversa; l’aritmetica dei numeri reali in un capitolo
dell’aritmetica dei numeri interi positivi, e viceversa. Allora, se si
ammette l’uso di totalità infinite in atto, geometria euclidea,
geometrie non-euclidee, calcolo infinitesimale (prima riforma:
Cauchy-Weierstrass), aritmetica dei numeri reali, aritmetica dei
numeri interi positivi simul stabunt aut simul cadent.
In tale ottica si pongono spontaneamente queste domande:
1) Qual è lo status epistemologico delle dottrine dette?
2) Possiamo essere sicuri che una di esse, almeno, si regga in piedi?
3) È legittimo l’uso di totalità infinite in atto?
Ritorneremo ben presto su queste domande. Registriamo che nel
frattempo, l’affermarsi dell’Algebra Astratta (gruppi, anelli,
reticoli, ...) nata come fioritura di teorie assiomatiche “artificiali”,
ciascuna intenzionalmente suscettibile di più letture, ha confermato
tale scoperta.
Si può caratterizzare la concezione formalista di una teoria
assiomatica come sistema ipotetico-deduttivo, ossia puro schema
sintattico senza riferimento semantico; oltre a ciò, si può
caratterizzare la concezione formalista della matematica come studio
di teorie assiomatiche, con un doppio fine:
1) quello della assiomatizzazione di dottrine assegnate;
2) quello della ricerca delle possibili letture di teorie assiomatiche
assegnate.
Nell’ottica formalista si pongono spontaneamente alcune domande:
quali teorie assiomatiche sono ammissibili? in una teoria assiomatica
cosa vuole dire “vero”? cosa vuole dire “esiste”? Si danno le risposte
seguenti. È ammissibile una teoria a patto che sia intrinsecamente
coerente: che non sia una teoria da cui è possibile dedurre alcuna
proposizione del tipo “p e non-p”; in una teoria assiomatica una
proposizione è vera quando essa è deducibile dagli assiomi; un ente
esiste quando dagli assiomi si può dedurre che non è vuota
l’estensione della proprietà che lo definisce.
Perciò in tale ottica formalista possiamo riprendere le domande
formulate più sopra, in questo paragrafo.
1) Qual è lo status epistemologico delle dottrine dette?
Risposta: parlando in generale, possiamo dire che la coerenza di
una qualunque di esse dipende dalla coerenza delle altre; ovverossia,
la dimostrazione di coerenza di una qualunque di esse significherà
anche la coerenza (dimostrata) delle altre.
2) Possiamo essere sicuri che almeno una di esse si regga in piedi?
Risposta: la domanda è stata tradotta nel problema di
assiomatizzare in modo intrinsecamente coerente l’aritmetica dei
numeri interi positivi.
3) È legittimo l’uso di totalità infinite in atto?
Risposta: questa domanda è stata tradotta nel problema di
assiomatizzare in modo intrinsecamente coerente la teoria degli
insiemi, finiti ed infiniti.
L’aritmetica dei numeri interi positivi è stata assiomatizzata a
diverse riprese, da Dedekind e Peano, è stata dimostrata
intrinsecamente coerente (da Gerhard Gentzen). Tuttavia, i discorsi
necessari a queste dimostrazioni facevano riferimento a totalità
infinite in atto ed a numeri ordinali infiniti. La teoria degli insiemi,
finiti ed infiniti, è stata assiomatizzata a diverse riprese, da Zermelo a
Fraenkel, non è mai stata dimostrata intrinsecamente coerente senza
fare appello, implicito o esplicito, all’aritmetica dei numeri interi
positivi. Ciò ha imposto il dilemma di approfondire ovvero
rinunciare a sostenere la concezione formalista della matematica.

5.5 Hilbert: parola d’ordine: assiomatizzazione!


Il principale artefice e rappresentante del formalismo fu David
Hilbert. I formalisti sono attentissimi al segno, anzi ai segni e alle
loro connessioni. Il loro scopo principale era quello di rispondere al
problema: come può una teoria matematica essere provata coerente
(cioè tale che non se ne possano trarre contraddizioni)?
Allo scopo di dimostrare coerente in sé una teoria assiomatica,
David Hilbert ha proposto di formalizzarla, ossia di considerare:
1) i simboli linguistici usati per esporre la teoria come puri e
semplici pezzi di un gioco analogamente ai pezzi che servono
per giocare a scacchi; è chiaro allora che l’attenzione si sposta
dal contenuto alla forma, nel senso che ogni pezzo (carattere,
formula) è definito unicamente dal suo possibile utilizzo, da
quello che può fare: come negli scacchi, ad ogni pezzo sono
consentite solamente certune mosse, e non altre;
2) le proposizioni della teoria come configurazioni ammissibili di
pezzi ottenute mediante certe regole formali (regole di
costruzione);
3) gli assiomi della teoria come configurazioni ammissibili iniziali;
4) le deduzioni logiche su proposizioni della teoria come pure e
semplici mosse del gioco con le quali si passa da certe
configurazioni a certe altre mediante certe regole formali (regole
di deduzione). Una regola di deduzione si dice valida se ogni
volta che è applicata a formule vere permette di inferire soltanto
formule vere.

David Hilbert
Dunque caratteristica di una teoria formale è che tutto è
determinato dalla forma dei simboli. Non ci sono significati
preesistenti. Sono le regole del gioco a dare i significati. Ad esempio,
se diciamo: “La regina, insidiata da un alfiere, si rifugia dietro un
cavallo”, noi pensiamo al gioco degli scacchi, cioè ad un gioco in cui
il nome è legato alla posizione iniziale e alle mosse possibili. A
(quasi) nessuno verrebbe fatto di pensare a veri cavalli, a torri di un
castello medievale, con cavalieri, re e regine. Abbiamo quindi un
insieme di regole ed una configurazione iniziale. Esiste un problema
circa quali sono le configurazioni raggiungibili e quelle non
raggiungibili. Ad esempio, finire una partita a scacchi con un solo
pezzo sulla scacchiera è una configurazione impossibile. Il problema
può essere indicato nel modo seguente. Possiamo raggiungere, con
regole formali (ovvero meccaniche o, per dirla come Hofstadter 129,
“tipografiche”), tutte le configurazioni che ci interessano? Gli scopi
da raggiungere sono formalmente sono due: completezza e coerenza.
Diremo che un sistema formale è completo se esso è sufficiente per
decidere di ogni proposizione correttamente costruita o formulata a
partire dagli assiomi. Quindi completezza di un sistema significa che
deve essere possibile dimostrare nel sistema ogni proposizione
(possibile nel sistema stesso, in base alle regole grammaticali-
sintattiche di composizione) o la sua negazione.
Diremo inoltre che un sistema formale è coerente se è impossibile
dedurre, al suo interno, p e non-p. Insomma è coerente se e soltanto
se non è contraddittorio.
Hilbert (si) proponeva poi di dimostrare in modo puramente
combinatorio che tale gioco è sintatticamente coerente, ossia che
usando le sole regole di deduzione a partire dalle configurazioni
iniziali non è possibile riottenere tutte le configurazioni ammissibili.
Ricordiamo che, in logica aristotelica, se una teoria assiomatica non
è coerente in sé allora dagli assiomi si possono dedurre tutte le
proposizioni della teoria.
Nasce così il concetto di sistema formale, costituito da:
1) un elenco finito di pezzi, ciascuno replicabile a volontà
(“alfabeto” del sistema); i vari pezzi vanno combinati secondo
una lista finita di regole di costruzione, che nel loro complesso
specificano le configurazioni ammissibili del sistema (“tettonica”
del sistema);
2) una lista finita di configurazioni iniziali e di regole di deduzione,
che nel loro complesso specificano le configurazioni deducibili
nel sistema tra le configurazioni ammissibili (“struttura
deduttiva” del sistema).
La tettonica e la struttura deduttiva di un sistema formale ne
costituiscono la sintassi.
129
Hofstadter 1979.
A questo punto, occorre ribadire la seguente osservazione.
Che differenza, potremmo chiederci, passa tra assiomatizzazione e
formalizzazione di un sistema o di una dottrina? Quando si
assiomatizza una dottrina, si lasciano sottintese: la lingua utilizzata
per esporla (solitamente, la lingua corrente nel paese) e la logica
usata per dedurre (solitamente, una versione di quella aristotelica).
Quando invece si formalizza una dottrina, si specificano
esattamente (per mezzo di alfabeto e tettonica) la lingua usata per
esporla (di regola, una lingua artificiale); si specifica poi, per mezzo
della struttura deduttiva, la logica usata per dedurre, che non è
necessariamente quella aristotelica.
La semantica di un sistema formale, invece, è costituita dal
complesso delle dottrine che il sistema stesso formalizza, con
annesse logiche e lingue d’uso.
In questa ottica, nasce la concezione di uno studio radicalmente
formalistico della matematica, intesa come studio dei sistemi
formali. A tale formalismo radicale venivano assegnati tre compiti:
1) formalizzazione di dottrine assegnate;
2) discutere la coerenza sintattica di sistemi formali assegnati;
3) discutere la sintattica di sistemi formali assegnati.
Notiamo per inciso che in tale concezione l’intera logica veniva
risolta in un capitolo della matematica (risultato opposto a quello cui
arrivava il logicismo, che invece considerava la matematica stessa
come una parte della logica). A proposito del logicismo, va registrata
la sua definitiva fine tra gli eventi importanti di questo periodo.
Questa filosofia della matematica (ricordiamolo) si proponeva di
risolvere l’intero sapere matematico in un capitolo della logica. È
stato Bertrand Russell, con James Whitehead, a riproporre un
programma logicista, sul presupposto di una logica di validità
assoluta.
Il logicismo ricevette il colpo definitivo dalla comparsa di molte
logiche, diverse da quella aristotelica; quest’ultima logica che era
servita ai suoi scopi (egregiamente) per tutto il medioevo ed anche
nel rinascimento, ed era stata perfezionata e migliorata dai logici
medievali130.
130
Pozzi 1992.
In effetti potrebbe risultare utile al lettore tener presente la seguente
tabella, che presenta alcune delle logiche attualmente in vigore:
A) Logica tradizionale
sillogistica aristotelica
B) Logica classica
calcolo delle proposizioni (bivalente)
calcolo predicativo del primo ordine
calcolo predicativo del secondo ordine
C) Logiche estese
logiche modali
logiche temporali
logiche deontiche
logiche epistemiche
logiche della preferenza
logiche imperative
logiche erotetiche o interrogative
D) Logiche devianti
logiche polivalenti
logiche quantistiche
logiche intuizionistiche
logiche libere (da presupposizioni esistenziali)
Tra queste vanno ricordate, come rilevanti nell’ambito di ciò che
stiamo discutendo (la crisi del logicismo), le invenzioni delle logiche
polivalenti (operata da Jan Lukasiewicz, Emil Leon Post, Charles
Sanders Peirce, Alfred Tarski e la scuola logica polacca), modali
(ricordiamo in proposito i lavori di David K. Lewis e Samuel A.
Kripke), nonché le logiche intuizionistiche (Arend Heyting e molti
altri). Oltre a queste, c’è una virtualmente infinita varietà di logiche,
da quelle affermative, a quelle erotetiche, ecc.
Tutte queste logiche hanno uno status analogo a quello delle
geometrie non euclidee. Dicendo che esse hanno status analogo,
intendiamo dire che si fissano gli assiomi di ciascuna di esse, poi si
deducono via via i vari teoremi. In quale logica ci si trova
attualmente, dipende da quali postulati si sono scelti. Proprio come
avviene per una geometria (euclidea o non-euclidea) si può sempre
stabilire in quale di esse si sta lavorando, lo stesso vale per le
logiche.
L’indagine comparativa di queste disparate logiche ha richiesto la
loro formalizzazione: ciò ha ricondotto all’ottica formalistica
radicale, perlomeno da un punto di vista metodologico.

5.6 L’intuizionismo
Nessun indirizzo di ricerca ha più la pretesa di
rappresentare la sola matematica vera.
Arend Heyting
L’intuizionismo (o costruttivismo) rappresenta un’altra corrente di
pensiero che rigetta formalismo e logicismo.
È stata fondata da Luitzen Egbertus Jan Brouwer. Brouwer espone
le sue vedute soprattutto in Zur Begründung der intuitionistischen
Mathematik (Per la fondazione della matematica intuizionistica), nei
Mathematischen Annalen tra il 1925 e il 1927. Per Brouwer la
questione era quella del ruolo del linguaggio nella matematica; per
questo egli criticava Hilbert e Russell, in quanto sostenitori della
falsa credenza in una portata decisiva del linguaggio nelle teorie
matematiche. Essi facevano questo, come conseguenza della loro
infondata fiducia nella logica classica. Per Brouwer viceversa il
linguaggio non ha alcun ruolo nella matematica, che risulta invece da
un atto mentale indipendente da ogni linguaggio. Quindi per questo
non era assolutamente necessario sottoporre, come volevano i
formalisti, la lingua matematica stessa ad un trattamento linguistico.
Arend Heyting
Andrey N. Kolmogorov nel 1925 pubblicò un articolo (On the
principle of the excluded middle) in logica intuizionistica, in cui
provava che sotto una certa interpretazione, tutte le affermazioni in
logica classica possono essere formulate anche in logica
intuizionistica. Arend Heyting (1898-1980) pubblica nel 1930 Die
Formalen Regeln der intuitionistischen Logik e Die Formalen
Regeln der intuitionistischen Mathematik I, II.
L. Brouwer fu il fondatore della “scuola intuizionistica”, una delle
principali scuole di filosofia della matematica del XIX secolo, le cui
tesi essenziali sono:
1) l’impossibilità di dedurre tutta la matematica dalla logica pura;
2) la riduzione della logica a un metodo, che si sviluppa con la
matematica senza trascenderla.
Sostanzialmente la base di tale atteggiamento è la seguente. Né la
logica né l’assiomatizzazione possono dare conto adeguato della
matematica. Ciò in quanto ne trascurano i contenuti ossia
precisamente quelle dottrine che i formalisti, da un canto, essiccano
in sistemi formali, mentre i logicisti svuotano in reti tautologiche. Gli
intuizionisti sostengono invece che la conoscenza matematica si
ottiene mediante intuizioni dirette, direttamente giustificate,
contestualmente a quelle porzioni della logica che si rivelano via via
necessarie.
L’intuizionismo ha avuto un’influenza salutare nel rivalutare
l’aspetto creativo della matematica. Non è riuscito però a convertire
la comunità matematica, perché la ricostruzione intuizionistica di
varie parti della matematica si è rivelata insoddisfacente.
Attualmente ha una diffusione piuttosto ristretta; comunque presso
la comunità dei matematici si registra una viva simpatia per i
procedimenti costruttivi; inoltre è attualmente presente una logica
non-aristotelica che è ora debitamente formalizzata e catalogata.

5.7 Che cosa ha fatto Gödel


Dopo Gödel i fondamenti non consistono più nel
costruire teorie onnicomprensive che riducano
tutta la matematica a una nozione fondamentale
e sicura, ma nel dimostrare teoremi che indicano
nuovi problemi e nuovi modi di fare matematica.
Gabriele Lolli
Kurt Gödel è stato senza dubbio il più grande logico del secolo
scorso; le sue ricerche ebbero un significativo impatto, oltre che sul
pensiero matematico e informatico, anche sul pensiero filosofico del
XX secolo.
Gödel ha discusso il problema della coerenza sintattica dei sistemi
formali, utilizzando questo artificio: dato un sistema formale, le
configurazioni ammissibili sono rappresentate da numeri interi
positivi (numeri di Gödel); le regole di deduzione si traducono di
conseguenza in operazioni aritmetiche sui numeri di Gödel. Quindi,
il sistema stesso si trasforma in un capitolo dell’aritmetica
elementare (viene – come si usa dire – gödelizzato).
Si può provare a vedere che cosa succede se si formalizza
l’aritmetica elementare e poi si gödelizza il sistema risultante. Ecco
gli esiti di una tale riflessione, se vogliamo di una riflessione
dell’aritmetica su di sé. Il risultato principale ottenuto è che un
sistema formale sintatticamente coerente la cui semantica include
l’aritmetica elementare non può essere sintatticamente completo:
ossia la sua semantica permette l’enunciazione di certi giudizi senza
poterne dare né la dimostrazione né la confutazione.
5.7.1 La struttura logica

Definiamo i simboli, le formule e le regole di inferenza. Con i


simboli, possiamo scrivere le formule, che sono gli “oggetti” del
nostro mondo, i pezzi con cui giocare. Le regole di inferenza ci
permettono di giocare ottenendo nuove formule da certe formule di
partenza. Queste ultime sono l’analogo della configurazione iniziale
di un gioco.
Definizione dei simboli
Per comodità del lettore, affianchiamo alla colonna dei simboli la
loro interpretazione.
Simboli Interpretazione
0 zero
s successore
+ addizione
× moltiplicazione
= uguale
¬ negazione (non)
& congiunzione (e)
v disgiunzione (o)
→ implicazione (se … allora …)
x quantificatore universale (per ogni x)
x quantificatore esistenziale (esiste un x)
Si introducono poi i soliti simboli “tipografici”.
Simboli Interpretazione
( parentesi aperta
) parentesi chiusa
, virgola
x, y, z, … variabili
a, b, c, … costanti
Definizione delle formule
Le regole per scrivere le formule sono lunghe e complicate. Esse
sono però in numero finito. Quando una formula è scritta in modo
tipograficamente corretto, diremo che essa è ben formata. Parleremo
pertanto di formule ben formate (fbf). Diamo dapprima la definizione
di numero: è un numero qualunque successione sss…s0. In
particolare, s0 rappresenta il numero 1, ss0 il numero 2, ecc.
Ricordiamo che quando scriviamo sss…s0 non siamo obbligati a
interpretare la scrittura come un numero. Quello che abbiamo di
fronte, insomma, non sono che sequenze di simboli non interpretate
(come negli scacchi: il “cavallo” non nitrisce né galoppa). Ecco
alcuni esempi di fbf.
(ossia, esiste almeno un numero uguale
x (x=0)
a zero).
xy (sx=sy → y=x (due numeri che hanno il medesimo
) successore sono uguali).
Definizione degli assiomi

Gli assiomi sono in pratica quelli di Peano; essi sono A 1 e A2.


(zero non è il successore di
A1 x ¬ (0=sx)
alcun numero)
(i successori di numeri diversi
A2 ¬ (n=m) → ¬ (sn=sm)
sono diversi)
Definizione delle regole di inferenza
Le regole di inferenza consentono di ottenere “nuovi” teoremi da
assiomi e teoremi già ricavati dagli assiomi. Useremo due regole: la
regola di generalizzazione (che chiameremo GEN) e la regola di
particolarizzazione (che chiameremo PART).
GEN consiste in questo: da A si deduce xA.
Ciò significa che se è vera la formula A, allora, qualunque x si
consideri, la formula A resta vera. Ad esempio, se 3=3, allora per
qualunque x, 3=3.
PART consiste in questo: se xA(x) allora si deduce A(n).
Con GEN e PART riesco a “giocare” a modus ponens (MP). GEN
e PART (e MP che ne risulta) sono le sole tre regole di inferenza. La
regola MP (o modus ponens) dice che, da A e da A → B, si può
inferire B. Si tratta quindi una regola di inferenza, forse la più nota
delle regole di inferenza.
Ad ogni relazione vera nell’aritmetica corrisponde una formula
calcolabile nell’aritmetica formalizzata (AF).
Aritmetica assiomatica di Peano (AAP) e aritmetica formalizzata
(AF) sono in corrispondenza perfetta. Vale anche il viceversa
(isomorfismo). Diciamo che AAP è un modello di AF.
Vediamo ora un esempio di dimostrazione formalizzata.
Dimostriamo che i numeri 1 e 2 sono diversi. Si deve dimostrare
¬ (s0=ss0), che significa “1 è diverso da 2”.
F1 ¬ (n=m) → ¬ (sn=sm) assioma A2
F2 x y ¬(x=y) → ¬ (sx=sy) GEN applicato a F1
F3 x ¬ (x=1) → ¬ (sx=s1) PART su y in F2
F4 ¬ (0=1) → ¬ (s0=s1) PART su x in F3
F5 x ¬ (0=sx) assioma A1
F6 ¬ (0=s0) PART su x in F5
F7 ¬ (s0=ss0) assioma A2 applicato a F6
5.7.2 Relazioni numeriche e loro icone formali

Consideriamo la classe delle relazioni numeriche (binarie) tra i


numeri naturali. Sono tutte le relazioni tra una coppia di numeri
naturali. Ad esempio, la relazione S(3, 2) significa che 3 è il
successore di 2, ossia: 3=s2; in linguaggio formale: sss0=s(ss0).
Ad una relazione numerica nell’aritmetica assiomatizzata AAP
corrisponde una relazione tra segni nella AF. Le relazioni numeriche
dell’aritmetica di Peano sono tradotte in relazioni tra i numerali
dell’aritmetica formale.
Ad ogni relazione numerica vera tra numeri corrisponde una
relazione tipografica dimostrabile (vale a dire: meccanicamente
calcolabile) tra numerali. Per esempio: se è vero che il numero 5 è il
successore del numero 4, allora s(ssss0) = sssss0 è dimostrabile-
calcolabile.
Adesso siamo in grado di definire esattamente coerenza e
completezza:
1) coerenza: non sono dimostrabili sia A sia ¬A (A è una formula di
AF)
2) completezza: o A è dimostrabile o A è refutabile.
Siamo, come si vede, in metamatematica, anzi in meta-aritmetica.
C’è una corrispondenza perfetta tra AAP e AF. Se le relazioni
numeriche sono vere, le loro icone sono calcolabili o, come si è soliti
dire, computabili. Se le relazioni numeriche sono false, le loro icone
sono refutabili. Ribadiamo ancora una volta che la teoria formale può
anche non ricevere significati. Notiamo che “tutto ciò che è legato
nella AAP è legato nella AF, e tutto ciò che è legato nella AF è
legato nella AAP”, dove l’espressione “essere legato” va intesa in
senso analogo nei due ambiti.
La corrispondenza sembra autorizzare a interpretare i numerali
(nomi di simboli, di per sé senza alcuna interpretazione, come si è
più volte ribadito) come numeri, le (icone di) formule come teoremi
dell’aritmetica, ecc. Allora si può dire anche “dimostrazione” la
produzione di certe formule icone di teoremi, anche se sarebbe
meglio usare termini come computabilità.
In ogni caso va tenuto presente che i tavoli su cui si gioca sono due,
e i termini che si usano per descrivere quello che accade su un tavolo
hanno un senso analogo a quegli stessi termini usati sull’altro tavolo.
Introduciamo adesso un terzo tavolo, che chiameremo tavolo G
(come Gödel), in cui faremo “giocare” un terzo matematico, che
descrive coi codici di Gödel quello che stanno facendo il primo
matematico sul tavolo A e il secondo sul tavolo Β. Scriveremo con
caratteri normali o corsivi le relazioni che si hanno in AF: esempi ne
sono le relazioni R o R. Scriveremo invece in grassetto le relazioni
che si hanno sul tavolo G (come R).
5.7.3 Dalla formalizzazione dell’aritmetica alla gödelizzazione

Dobbiamo ora presentare la costruzione di Gödel. Essa si basa


nell’attribuire a ogni successione di simboli, diciamo X, un unico
numero intero positivo, c(X), detto il numero (o il codice) di Gödel
di X. Il codice c(X) ha la proprietà di essere in corrispondenza
univoca con X: data una certa sequenza di simboli X, il codice c(X) è
univoco; dato un numero intero positivo a, è possibile stabilire se a è
il codice di una sequenza di simboli e, se lo fosse, è anche possibile
individuare questa sequenza di simboli. Per ottenere ciò, si associa
un numero intero positivo ad ogni simbolo; ad esempio, se i simboli
fossero le lettere A, B e C, si potrebbe associare rispettivamente i
numeri 1, 2 e 3. Data una qualunque sequenza di simboli (ad
esempio, BAC o ACB), si associa alla sequenza il numero ottenuto
moltiplicando tra di loro gli ennesimi numeri primi elevati
all’esponente che corrisponde al simbolo. Proseguendo nel nostro
esempio:
c(BAC) = 22×31×53 = 4×3×125 = 1500
c(ACB) = 21×33×52 = 2×27×25 = 1350
L’unicità e l’invertibilità della relazione tra una sequenza di
simboli e il corrispondente codice è garantita dal teorema
fondamentale dell’aritmetica, che assicura che ogni numero intero
positivo può essere rappresentato in modo univoco come prodotto di
numeri primi. Se, ad esempio, ci domandassimo quale sequenza di
simboli corrisponde al numero 1350, sarebbe sufficiente scomporlo
in fattori primi e ordinare il prodotto in ordine crescente dei numeri
primi: gli esponenti forniscono il numero che era stato associato alle
lettere. Infatti,
1350 = 21×33×52
I numeri associati alle lettere sono gli esponenti, ossia 1
(corrispondente ad A), 3 (C) e 2 (B). La sequenza, quindi, è ACB. Se
si considera, ad esempio, il numero 4802, si scopre che non è il
codice di alcuna sequenza di simboli. Infatti, 4802 = 2 1×74 e
l’esponente 4 non corrisponde ad alcun simbolo.
Nel procedimento ideato da Gödel, le formule sono considerate
sequenze di simboli. Vediamo come assegnare ad ognuna di esse un
codice. Diciamo c il “codice di Gödel” di un simbolo. Avremo
c(0)=1, c(s)=2, c(=)=3, c(+)=4, c(×)=5, c(¬)=6, c(→)=7, c(&)=8,
c(v)=9. In pratica, i simboli sono stati ordinati in un modo qualsiasi e
a ciascuno di essi è stato assegnato il numero che corrisponde alla
posizione occupata. Continuando, i quantificatori universale ed
esistenziale sono rappresentati dai numeri 10 e 11; per gli altri
simboli tipografici, come le parentesi aperta e chiusa e la virgola,
ricorriamo ai numeri 12, 13 e 14. Le lettere dell’alfabeto, da a fino a
d, sono rappresentate dai numeri 17, 19, 23, 29. I numeri di Gödel
dei simboli h, m, n, q, u sono 43, 67, 71, 83, 101. Il numero primo
successivo, 107, è usato come codice di w. Infine, c(x)=109,
c(y)=113, c(z)=127. Un teorema della matematica (detto teorema
fondamentale dell’aritmetica) afferma che si può esprimere ogni
numero maggiore di uno come prodotto di numeri primi e che tale
rappresentazione è unica. Quindi ogni formula avrà un codice e solo
un codice, e lo avrà solamente lei. Noi usiamo una notazione un po’
semplificata rispetto a quella originale di Gödel: una notazione
intermedia tra quella dell’articolo originale e gli scritti divulgativi.
Chiameremo quindi c (della opportuna variabile tipografica) il
codice di Gödel di quella variabile tipografica. Ad esempio,
scriveremo 1=c(0) per dire che 1 è il codice (il numero di Gödel) di 0
(si osservi che 1 è un numero naturale e 0 è un simbolo di AF che
potrebbe indicare qualunque oggetto compatibile con gli assiomi e le
regole di inferenza). La regola di Gödel per comporre il codice di
una formula (per esempio di ss0, cioè del numero 2) è quella di
associare ad ogni simbolo il prodotto di un numero primo elevato
alla potenza di esponente corrispondente al simbolo. Per esempio,
per il numero 2, ossia ss0, sarà:
c(ss0) = 22×32×51 = 4×9×5 = 180
Gli esponenti della potenza sono i codici dei simboli della formula.
Alla base mettiamo i numeri primi in ordine crescente. Allora ogni
formula ha il suo codice. Ci possiamo chiedere, a proposito di un
numero qualunque, se è il codice di qualcosa. Ad esempio: 6300 è il
codice di qualcosa? Per rispondere alla domanda, proviamo a
scomporlo in numeri primi: 6300 = 2 2×32×52×71 cui corrisponde sss0
(ossia, il numero 3). Si è quindi ottenuto che 6300=c(sss0). Ma non
tutti i numeri sono codici. Vediamo perché. È possibile calcolare se
1000 è il codice di qualcosa? 1000 = 2 3×53 che è il gödeliano di ==.
Quindi il numero 1000 non fa parte della nostra collezione (infinita)
di numeri.
Adesso facciamo un passo ulteriore. Consideriamo una
dimostrazione, cioè una successione ordinata di formule. Avremo ad
esempio:
F1 x=y → x×x=y×y
.
.
.
F7 x×x=3×3
Consideriamo ora i codici di queste formule. Per F 1 si avrà: c(F1) =
2 ×35×5113×7…×11…×13……×31… = a; la stessa cosa per F2, F3,
109

fino a F7. Quindi avremo c(F1) = a; c(F2) = b; c(F3) = c; … ; c(F7) = g.


Ogni formula è un insieme ordinato di segni. Ogni formula ha perciò
un codice costruito secondo la regola: partiamo da due (che è più
piccolo numero primo) e lo eleviamo al codice di Gödel del simbolo
corrispondente; andiamo avanti col tre e lo eleviamo al simbolo del
secondo carattere della formula; … e così via fino alla fine della
formula. Otteniamo così un numero (di solito molto grande) per la
formula. Ogni dimostrazione è un insieme ordinato di formule. Ogni
dimostrazione ha perciò un codice costruito secondo la regola
seguente: è il prodotto dei numeri primi in successione, ciascuno
elevato al codice della formula corrispondente. Quindi:
c(codice della dimostrazione di F7) = 2a×3b×5c×7d×11e×13f×17g
Il lettore non si spaventi. Questo numero, enorme, è un certo
numero che è il codice di questa dimostrazione e solamente di
questa. Così, abbiamo ottenuto codici gödeliani per segni, formule e
dimostrazioni. Siamo adesso in grado di dire (matematicamente) che
una certa formula è una dimostrazione della sua ultima riga: cioè,
proprio dell’affermazione da dimostrare. Questo fa rientrare la
matematica che stiamo facendo nella sua concezione tipografica o
meccanica: le dimostrazioni non sono altro che sequenze di formule,
ognuna delle quali è la dimostrazione dell’ultima formula che
compare in essa.
5.7.4 La trattazione della metateoria

Trattare la metateoria significa: fare affermazioni su un certo corpo


teorico. Quindi la metateoria è un insieme di affermazioni che
riguardano una certa teoria. Ad esempio, si avrà l’affermazione che
esiste un certo legame tra due o più asserzioni della teoria. Noi
vogliamo ora asserire formalmente che la sequenza di formule da F 1
a F7 è una dimostrazione della formula F7. Formalmente diremo che:
DIM (2a×3b×5c×7d×11e×13f×17g, g) = DIM (u, g)
che è una relazione numerica tra i numeri u e g. Ricordiamo che g è
l’esponente del maggiore dei numeri primi della scomposizione di u
in fattori primi.
L’affermazione metateorica che una certa sequenza F 1, …, F7 di
formule è una dimostrazione della formula F 7 diviene una relazione
numerica tra i numeri u e g (una coppia ordinata di numeri).
Prendiamo ora una relazione del tipo A(n, sq), che vale se e solo se
n = sq (ossia, quando n è il successore di q):
c(A(n, sq)) = c(n=sq)) = 271×33×52×783 = a
Consideriamo ora la relazione A(3, sq), che indica che 3 è il
successore di q. Il codice di Gödel corrispondente sarà:
c(A(3, sq)) = c(sss0=sq)) = 22×32×52×…×p83 = b
ove p è un numero primo. Come si può definire, brevemente, il
numero b? Possiamo dire che b è il numero di Gödel che si ottiene
sostituendo 3 a n nella formula che ha il numero di Gödel a. Allora è:
b = sost (271×33×52×783, 71, 3)
dove in sost (a, b, c), a è il codice della formula di partenza, b il
numero che viene rimpiazzato, c è il numero che lo sostituisce.
Nell’esempio che abbiamo considerato, b è il numero di Gödel
della formula ottenuta sostituendo, nella formula che ha codice a, al
carattere (al simbolo) che ha codice 71, il simbolo (il numero) 3.
Possiamo chiederci, ancora con un esempio: che cosa è il
sost (2109×33×5113, 113, 5)?
È abbastanza facile calcolare di cosa è il codice 2 109×33×5113: è il
codice di x=y. Quello che abbiamo scritto sopra è dunque il codice di
x=5. Praticamente, abbiamo scelto una piccola abbreviazione per
scrivere in altro modo il codice di x=5, che, tenuto conto che se 5 si
rappresentasse come sssss0, sarebbe:
c(x=sssss0) = 2109×33×52×72×…
Facciamo ancora qualche esempio. Ci chiediamo ora: che cosa è il
sost (2109×33×5109, 109, 5)? 2109×33×5109 è il codice di x=x, quindi il
numero scritto è il codice di 5=5. Abbreviamo facilmente anche
questo modo di scrivere mediante sost (a, k) in quanto le regole
tipografiche permettono di individuare univocamente (non
ambiguamente) il simbolo cui sostituire k. Chiediamoci ora che
significato ha scrivere quanto segue:
sost (2109×33×5109, 2109×33×5109)
Si tratta di partire da x=x (il cui codice è 2109×33×5109) e sostituire a
x il codice stesso, ossia il numerale 2 109×33×5109, che sarà in realtà
dato da una sequenza di s seguiti dal (simbolo del) numero 0: ssss…
ss…s0. Otteniamo così il codice di uguaglianza del numero con sé
stesso: c(2109×33×5109=2109×33×5109). Questo codice lo chiamo
ipse (2109×33×5109). ipse è allora il codice di una formula:
ipse (k) = c(k=k), dove k è il numerale ssss...ss...s0.
I passaggi da fare sono quindi i seguenti.
1) Partiamo da 2109×33×5109 (cioè, consideriamo l’uguaglianza x=x
scritta secondo la grafia di Gödel).
2) Eliminiamo la variabile libera (che sarebbe x, ossia il codice)
109.
3) Sostituiamo al posto di x il numero 2109×33×5109.
Introduciamo Dim (u, n) per indicare che u è il codice di una
dimostrazione di un teorema di codice n; possiamo esprimere questo
fatto dicendo, più brevemente, che u è il codice di una dimostrazione
di n. Che succede se n è di tipo ipse? Ci troveremmo di fronte ad una
situazione di questo genere:
F1: x=x Tautologia
F2: x(x=x) GEN su F1
F3: 2109×33×5109=2109×33×5109 PART su F2
Notiamo ancora una volta che abbiamo usato per il numerale
(sequenza di s seguita da 0) il valore (notazione aritmetica pari a)
2109×33×5109. La stessa nota valga anche per le scritte successive.
Siano i codici di queste formule:
c(F1) = a, c(F2) = b, c(F3) = c = ipse (2109×33×5109).
Possiamo scrivere allora:
Dim (2a×3b×5c, ipse (2109×33×5109))
Abbreviamo questa scrittura: Dimipse (2a×3b×5c, 2109×33×5109).
Questa relazione ci dice semplicemente che la dimostrazione del
teorema che dice che “2109×33×5109 è uguale a sé stesso” è la sequenza
di formule da F1 a F3.
Abbiamo detto che esiste una perfetta corrispondenza tra relazioni
in AAP e AF: per esempio, consideriamo la relazione in AAP
corrispondente a 6=3×2; tale relazione andrebbe scritta come: ssssss0
= sss0 × ss0. Questa relazione è dimostrabile-computabile in AF. Più
in generale, possiamo dire quanto segue. Sia D(k, n) la relazione
“essere doppio di” (ovvero: k=2n). Questa relazione è ovviamente
scritta in AAP. Ovviamente, D(6, 3) è vera, D(16, 3) è falsa,D (10, 5)
è vera. Se D(n, k) è vera (in AAP), allora esiste in AF una D(k, n)
dimostrabile-computabile. Se D(n, k) è falsa (in AAP), allora esiste
in AF una D(k, n) refutabile; ossia, è dimostrabile-computabile
¬D(k, n) (negazione di D(k, n)). La seconda coppia di simboli, quella
in D(k, n), rappresenta dei numerali, corrispondenti alla coppia di
numeri (k, n) nella interpretazione “privilegiata” di AF. Sussiste
infatti il seguente
Lemma. Sia R(k, n) una relazione binaria in AAP. Esiste una
formula R(k, n) in AF tale che:
1) Se R(k, n) è vera, allora R(k, n) è dimostrabile.
6) Se R(k, n) è falsa, allora ¬R(k, n) è dimostrabile.
Tutto questo è applicabile anche alle relazioni tipo Dimipse, che
sono relazioni binarie tra codici delle dimostrazioni e delle
dimostrazioni e delle formule. Una relazione di tipo Dimipse parla di
numeri che sono codici di dimostrazioni e formule della AF. Se
Dimipse (k, n) è vera, cioè, se n è l’ultimo esponente della
scomposizione in fattori primi crescenti di k allora è vero che k è il
codice di una dimostrazione di ipse(n): allora è vero che esiste in AF
una DIMIPSE (k, n) che è dimostrabile. Se invece Dimipse (k, n) è
falsa, allora esiste in AF una DIMIPSE (k, n) refutabile, ossia tale
che ¬ DIMIPSE (k, n) è dimostrabile.
5.7.5 Il teorema di Gödel

Consideriamo ora una relazione del tipo


E(t): u ¬DIMIPSE (u, t)
Che cosa dice questa relazione? Dice che non si può dimostrare la
tesi che ha codice ipse(t), con nessun procedimento dimostrativo
(nessuna sequenza di formule) di codice u, qualunque sia u. Una
formula è non dimostrabile se è refutabile o indecidibile. Il caso di
una formula non ben formata non è interessante. È chiaro che né ==
né ¬ (==) sono dimostrabili. Tutte le formule mal formate sono
indecidibili, banalmente.
E(t) parla di tutte le formule con una variabile libera t. Sia, ad
esempio, data la relazione aritmetica x=x+x. Sappiamo che essa può
essere vera solo in un caso, quello di x=0. Come fare a trattare
secondo i codici di Gödel questa relazione?
Cominciamo col calcolare il codice di questa formula: c(x=x+x) =
2109×33×5109×74×11109. Chiamiamo t questo numero. Quindi è t =
c(x=x+x). Che codice avrà la relazione t=t+t? t è un numerale: t =
sssss...ss...s0. Devo quindi pensare alla relazione tra numerali. Allora
il codice di t=t+t sarà:
c(t=t+t) = c(sssss...ss...s0=...) = 22×32×52×… = ipse(t)
ipse(t) = c(t=t+t) è chiaramente falsa, quindi E(t) è vera, nel senso
che la sua negazione è confutabile.
Consideriamo adesso la relazione F(x): x=x. Il suo codice è c(x=x)
= 2109×33×5109. ipse(t) è il codice di t=t, cioè della relazione
2109×33×5109 = 2109×33×5109. Questa relazione è dimostrabile con
PART sul teorema x(x=x). Quindi stavolta E(t) è falsa, dato che
E(t) dice che non è dimostrabile la relazione di codice ipse(t), con t =
c(x=x). E(t) dice il falso per le formule per cui ipse(t) è calcolabile-
computabile. E(t) dice il vero per le formule che danno luogo a
formule di codice ipse(t) refutabili o indecidibili. E(t) parla di tutte le
formule con variabile libera. Anch’essa, però, ha una variabile libera,
ossia t, che varia su tutti i codici di formule con variabile libera x. Ci
chiediamo: essa parla anche di sé stessa? Qual è il suo codice?
E(t): ¬ DIMIPSE (u, t).
Sia c(E(t)) = n, cioè n è il codice di E(t). Ma dato che t è libera,
allora vale anche E(n): u ¬ DIMIPSE (u, n). Che codice ha questa
formula?
c(E(n)) = sost (n, c(t), n) = ipse(n).
Allora, abbiamo che si potrà scrivere, in definitiva:
E(n): x ¬ DIMIPSE (x, n)
Questo è il teorema di Gödel. DIMIPSE è una certa formula
“icona” della relazione numerica Dimipse tra i numeri x ed n.
Diciamo allora che E(n) è l’icona di una certa affermazione sulla
relazione Dimipse (x, n). Gödel si è ispirato al paradosso del
mentitore di Epimenide, che diceva (sostanzialmente): “Io sono
cretese e, badate bene, i cretesi sono tutti bugiardi” (citato da S.
Paolo nella Lettera a Tito). Se diciamo: “questa proposizione è
indimostrabile” avremo – in pratica – il teorema di Gödel. In effetti
si può “vedere” che tale proposizione è vera, uscendo dal sistema.
Soltanto uscendo dal sistema, infatti, potremo avere la chiara
percezione della verità di ciò che la proposizione dice. Certamente
essa non sarà dimostrabile (ovvero non esisterà regola “tipografica”
che possa “raggiungerla”), altrimenti sarebbe falsa! Il fatto che la
proposizione di Gödel abbia qualche analogia con il paradosso del
mentitore può creare l’impressione che sia una costruzione astratta,
semplicemente ad hoc per dimostrare la possibilità che esistono
proposizioni indecidibili.
Si badi bene, invece: dal tempo del teorema di Gödel 131, molte
teorie sono state trovate essere indecidibili. Menzioniamo tra le
teorie indecidibili la teoria elementare dei gruppi 132, tutte le
estensioni consistenti dell’aritmetica di Robinson, la teoria degli
insiemi di von Neumann-Bernays-Gödel. Lavori successivi hanno
esposto esempi concreti di enunciati indecidibili: sia l’assioma della
scelta sia l’ipotesi del continuo sono indecidibili
nell’assiomatizzazione tradizionale della teoria degli insiemi 133.
Questi risultati non si basano sul teorema di incompletezza, ma lo
confermano.
5.7.6 Indecidibilità e modelli

Può essere opportuno, a questo punto, richiamare il concetto di


modello. Modello significa qui una struttura di cui il matematico e
l’algebrista, in particolare, fa uso costantemente. Si tratta di un
insieme non vuoto sui cui elementi sono definite relazioni (struttura
relazionale) e operazioni (struttura algebrica). Possiamo citare, come
modelli da considerare, la geometria euclidea e le geometrie non
euclidee.
Cosa è una teoria assiomatico-deduttiva?
Siano dati dei termini primitivi (assunti senza definizione) ed
accanto a questi dei termini comuni (come: e, ma, con, …).
Formuliamo con i termini comuni e quelli primitivi degli assiomi o
postulati.
Ora abbiamo bisogno di regole di deduzione per ricavare dai
postulati i teoremi. Esempi di regole di deduzione o regole di
inferenza (primitive):

131
Gödel 1931.
132
Tarski 1946.
133
Cohen 1963, Cohen 1964, Cohen 1966.
1) regola di scambio definizionale: se A e B sono equivalenti per
definizione, allora è possibile inferire A da B, e viceversa;
2) modus ponens: da A e A→B si può inferire B.
Tali regole sono dette primitive perché combinandole in vario
modo si possono ottenere (infinite) regole di inferenza valide. Del
resto, ad ogni schema tautologico di forma condizionale corrisponde
una regola di inferenza valida.
Fatto questo, la macchina può essere “messa in moto”. E produrrà
teoremi a profusione.
Questo fatto, probabilmente, per la sua grande familiarità e per la
continua sollecitazione con cui era sottoposto ai matematici, ha
generato l’idea che la matematica altro non fosse che una fabbrica di
ovvietà: dati i postulati e le regole di deduzione, ogni teorema è già
implicito nella costruzione. Si tratterà solo di portarlo a galla. È
questa una concezione della matematica che ha fatto in passato dei
proseliti anche fra chi si interessava professionalmente alla filosofia
della matematica, oltre ad essere ancora oggi una concezione molto
diffusa nel grande pubblico.
5.7.7 Indipendenza degli assiomi e quinto postulato euclideo

Torniamo a parlare di geometria. Possiamo trovare in essa esempi


utili a discutere la natura dell’incompletezza. Il primo argomento su
cui possiamo tornare è quello della indipendenza degli assiomi o
postulati.
Gli assiomi devono essere tra loro indipendenti. Ciò vuol dire che
non deve essere possibile ricavare uno di essi da altri postulati o da
teoremi ricavati da altri postulati. Giova ricordare, a questo punto, un
poco di storia. Gerolamo Saccheri era un gesuita, vissuto tra il ’600 e
il ’700. Fu anche matematico e docente universitario. Scrisse varie
opere di geometria. La sua più famosa, Euclides ab omni naevo
vindicatus (Euclide riscattato da ogni difetto)134 uscì nell’anno della
sua morte, 1733. Egli (come tanti altri, prima e dopo di lui) era
affascinato dall’eleganza del sistema di Euclide. Ammirava in
particolare l’eleganza dei primi quattro postulati, mentre il quinto

134
Saccheri 1733.
non gli pareva altrettanto elegante. Egli decise perciò di cercare di
dimostrarlo, e tentò la dimostrazione per assurdo: cioè, postulando
che quanto affermato fosse falso, sperava di dimostrare che anche
qualcuno degli altri quattro fosse negato. Purtroppo la morte gli
impedì, non solo di verificare che la sua dimostrazione era errata, ma
anche il grande successo che gli arrise. Cinquant’anni dopo, J. H.
Lambert ripeté ancora l’operazione quasi riuscita a Saccheri. Infine,
correva l’anno 1823, Jànos Bolyai e Nikolai Lobachevsky
inventarono le geometrie non euclidee.
Si arriva così alla idea di una geometria minimale (detta anche
assoluta), ossia costituita (poniamo) dai primi quattro postulati di
Euclide. Ne parla diffusamente Hofstadter 135. Questa si può anche
definire geometria assoluta, ed è stata effettivamente definita così. I
quattro (primi) teoremi di Euclide sono così enunciabili 136:
1) se si congiungono due punti qualsiasi, si ottiene un segmento di
retta;
2) ogni segmento di retta può essere prolungato indefinitamente da
entrambe le parti;
3) dato un segmento qualsiasi, si può costruire su di esso una
circonferenza che abbia il semento stesso come raggio e come
centro un estremo del segmento;
4) ogni angolo retto è congruente ad ogni altro angolo retto.
Generazioni e generazioni di geometri hanno tentato, per secoli, di
dimostrare il quinto postulato. Troviamo nell’elenco nomi di
geometri greci, arabi, italiani, francesi. Anche Euclide stesso utilizzò
il suo quinto postulato solamente dopo molte (circa ventotto)
dimostrazioni in cui si servì solamente dei primi quattro postulati.
Del quinto postulato si hanno varie versioni; da quella di Euclide:

135
Hofstadter 1979.
136
Mangione in Geymonat 1971, vol. III, dice a pag. 186, a proposito della
distinzione tra assiomi e postulati, facendo riferimento alla distinzione
ancora attiva nella logica antica, non più nella moderna: “i postulati invece
sono proposizioni primitive la cui validità è sì assunta come evidente, ma la
cui validità è per così dire limitata al campo specifico della scienza che li
assume”.
Se si tracciano due rette e le si interseca con una terza, in modo tale
che da una parte la somma degli angoli interni sia inferiore a due
angoli retti, allora le due rette si incontreranno necessariamente da
quella parte
al postulato delle parallele:
Data una qualsiasi retta ed un punto esterno, esiste una ed una sola
retta passante per quel punto e parallela alla retta data.
Una domanda sorge spontanea: quante sono le geometrie non
euclidee?
La risposta è perlomeno imbarazzante. Sono quante se ne possono
pensare. C’è stato un periodo in cui i matematici non facevano altro
che produrre geometrie non euclidee. Storicamente, per costruire una
geometria non-euclidea basta negare il quinto postulato di Euclide e
sostituirlo con un altro.
Ricapitoliamo quanto siamo venuti dicendo: consideriamo il
gruppo di assiomi da A1 ad A4.
A1: da qualunque punto si può condurre una retta a qualunque
altro punto;
A2: ogni segmento finito è indefinitamente prolungabile;
A3: con un centro qualunque ed una distanza si può descrivere un
cerchio;
A4: tutti gli angoli retti sono uguali tra loro.
Da questi assiomi non è deducibile nessuna delle affermazioni
seguenti:
E5: esiste una sola retta parallela passante per un punto esterno ad
una retta data (Euclide);
R5: non esiste nessuna retta parallela passante per un punto esterno
ad una retta data (Riemann);
L5: esiste più di una retta parallela passante per un punto esterno
ad una retta data (Lobachevsky).
Poiché E5, R5 e L5 sono mutuamente contraddittori, dobbiamo
sceglierne uno. Avremo, così, o la geometria euclidea, o qualche
geometria non-euclidea: se scegliamo R5, avremo la geometria di
Riemann137, con L5 quella di Lobachevsky. Ognuno di questi
assiomi, E5, R5 e L5, è indecidibile rispetto agli altri quattro assiomi.
Allora, poiché, per il teorema di Gödel, questo problema di
indecidibilità si ripresenterà, qualunque sia il “quinto” postulato che
abbiamo accettato ed introdotto, avremo un’altra diramazione, e così
via138.
Quindi, riassumendo:

137
Dagli assiomi A1-A4 è possibile dimostrare (ed Euclide effettivamente
l’ha fatto) che esiste almeno una retta parallela passante per un punto
esterno ad una retta data; quindi, è possibile dimostrare la contraddittorietà
di R5+A1-A4. Per formulare in modo non contraddittorio la geometria di
Riemann è necessario modificare anche A2.
138
La nozione di “indecidibilità” è affetta da una difficoltà dovuta a una
confusione terminologica. Ci sembra utile, per evitare fraintendimenti,
affrontarla a vantaggio dei non esperti. Un sistema assiomatizzato si dice
“indecidibile” quando almeno una sua formula ben formata è “indecidibile”.
Una formula ben formata, all’interno di un sistema assiomatizzato, è detta
“indecidibile” in due sensi diversi, che non vanno assolutamente confusi.
(1) Una fbf A è “indecidibile” quando non esiste un algoritmo che, in un
numero finito di passi, determini se A è derivabile o meno dagli assiomi. (2)
Una fbf A è “indecidibile” quando né A né ¬A deriva dagli assiomi (ossia,
quando A è indipendente dagli assiomi). Si dice “completo” un sistema
assiomatizzato in cui, data una qualsiasi fbf A valida, A è derivabile dagli
assiomi. Nel caso dell’aritmetica di Peano, poiché A oppure ¬A è valida
nell’interpretazione standard (si osservi che implicitamente si assume la
correttezza del principio del terzo escluso), l’aritmetica di Peano è completa
se e solo se A oppure ¬A deriva dagli assiomi; altrimenti è “incompleta” (o
anche “indecidibile”, come spesso si usa dire, nel senso 2). Si dice
“decidibile” un sistema formale in cui, data una qualsiasi fbf A, si può
dimostrare che A deriva dagli assiomi oppure che A è refutabile, tramite un
algoritmo che termina in un numero finito di passi; altrimenti è
“indecidibile” (nel senso 1). Consideriamo due sistemi assiomatizzati, come
il calcolo dei predicati del primo ordine (che chiamiamo PC - Predicate
Calculus) e l’aritmetica di Peano (PA). PC è completo ma indecidibile nel
senso 1. PA è incompleto e quindi indecidibile nel senso 2. L’indecidibilità
(sia nel senso 1 sia nel senso 2) implica la non computabilità dei teoremi.
Tuttavia, solo l’indecidibilità nel senso 2 implica l’incompletezza. Infatti,
1) non esiste un unico sistema formale (ossia: chiaro, per quanto è
possibile) che possa render conto di tutti i risultati matematici
finora raggiunti;
2) ognuno dei vari sistemi formali può trovare utilmente
applicazione in un dato ambito di fenomeni fisici, biologici, …;
3) è del tutto vano sperare di trovare un principio unificatore,
un’unica struttura formale che renda conto simultaneamente di
tutti i risultati matematici (e a maggior ragione di quelli a
venire).

5.8 Dopo Gödel: come cambia la matematica


L’ostacolo più poderoso per una soddisfacente
filosofia della matematica è tuttora costituito dal
teorema di incompletezza di Gödel.
Paul J. Cohen
Veniamo ora a considerare qualcuna delle implicazioni del teorema
di incompletezza. Vediamo che ciò che soprattutto cambia è la
considerazione della natura della matematica: non perché ad una
concezione se ne sostituisca un’altra, ma perché le vecchie
concezioni trovano tutte, nel teorema di Gödel, una precisa smentita
(o perlomeno una delimitazione assai seria).
Riconosciamo questo aspetto anche quando consideriamo
attentamente cosa segue dal teorema di indecidibilità di Gödel.
Infatti è nella problematica relativa ai teoremi di Gödel, che questo
aspetto della matematica emerge con evidenza se possibile anche
maggiore.
Supponiamo di avere davanti agli occhi alcune teorie formalizzate,
abbastanza potenti da descrivere l’aritmetica elementare. Poiché essi
sono indecidibili in senso gödeliano, in tutti quanti emergeranno
proposizioni indimostrabili e non refutabili (indecidibili).
Allora, per ognuna di tali proposizioni, potremo o postularle, o
postulare la proposizione che le nega.

PC è completo pur essendo indecidibile (nel senso 1).


Perciò l’attività matematica, ben lungi dal ridursi ad un vacuo
intreccio di tautologie, porrà ad ogni passo problemi radicalmente
nuovi, la cui soluzione esigerà idee radicalmente nuove. Avrà sempre
sul capo la spada di Damocle che tutto quanto si è fatto fino al
momento attuale risulti a conti fatti incoerente, e quindi sia da
revisionare, in tutto o in parte. Si ha perciò, attualmente, un quadro
della matematica che è insieme e semplificato e ancora composito.
Sussistono dunque ora più che mai, ciascuna nel proprio ambito, le
diverse concezioni classiche della verità: come adaequatio rei et
intellectus (Tommaso D’Aquino, Alfred Tarski), evidenza certa
(Luitzen Brouwer), coerenza intrinseca (David Hilbert), efficacia
operativa (Paul Lorenzen).
Si potrebbe anche aggiungere che sussistono ora più che mai le
classiche opposizioni tra:
1) atomismo e strutturalismo (George Cantor-Saunders Mac Lane)
2) relativismo ed essenzialismo (David Hilbert-Kurt Gödel)
3) dialettica e gradualismo (René Thom-Christopher Zeeman)
4) rasoio di Occam e principio di plenitudine (Richard Quine-
Marshall Stone).
Di tutti questi indirizzi/tendenze si può senz’altro dire che:
ciascuno di essi si presta meglio di altri per risolvere certi problemi,
per affrontare determinate situazioni, per muoversi in certi ambiti;
nessuno di loro è adatto per tutti i problemi, le situazioni, gli ambiti;
nessuno di loro può quindi pretendere di essere “la” matematica per
eccellenza.
Ciò è pienamente consistente con quanto è emerso nella meta-
logica, qualunque sia il legame che pensiamo sussista tra la
matematica e la logica. I pensatori logici hanno escluso che possa
esistere una Logica Suprema: non è possibile, in effetti, dare una
dimostrazione deduttiva dell’esistenza di tale logica; infatti tale
dimostrazione, per essere tale, deve presupporre dei postulati. A
quale logica apparterranno tali postulati? Se si richiedono dei
postulati ad una logica particolare, si sarà dimostrato che, posta la
logica x, ne discende la logica suprema; se viceversa si usano
postulati della logica suprema, non si è fatto altro che dimostrare che,
se è vera la logica suprema, allora è vera la logica suprema. Come è
chiaro, siamo capitati in una tautologia.
Da quanto detto sopra, otteniamo alcune informazioni sulle attuali e
future acquisizioni dell’umanità che possiamo così sintetizzare.
Fino ad un certo punto, le scoperte matematiche che l’umanità è
venuta facendo hanno dato l’impressione di poter continuare
indefinitamente a raccogliere queste scoperte in un tutto organico, in
un’unica teoria. Poi, i risultati ottenuti da Gödel negli anni Trenta e
da altri ricercatori negli anni successivi hanno chiarito che questo
non è (e sicuramente non sarà) possibile. Un tale sistema non può
essere neppure semanticamente completo, ossia la sua semantica, in
ogni caso, copre l’enunciazione di certi problemi (risolubili) senza
coprirne alcun procedimento risolutivo. Ancora più importante, se
possibile, non può essere in grado di autogiustificarsi, ossia la sua
semantica non copre in alcun caso la dimostrazione della coerenza
sintattica del sistema stesso.
Pertanto, occorrerà dire che ogni sistema formale sintatticamente
coerente la cui semantica ricopra l’aritmetica elementare rinvia a
sistemi formali (sintatticamente coerenti) più ampi, sia per
formalizzare la dimostrazione della propria coerenza sintattica, sia
per formalizzare la risoluzione di problemi pur ricoperti dalla sua
semantica.
Parlando alla buona, qualunque teoria-linguaggio di assoluta
chiarezza (che escluda equivoci di significato, che abbia una sintassi
rigorosamente coerente), capace di descrivere l’aritmetica elementare
è in grado di enunciare problemi (risolubili!) di cui non può
descrivere alcun procedimento risolutivo; non è in grado di
esprimere la dimostrazione della propria coerenza; rinvia quindi a
teorie-linguaggi più ricchi, ossia semanticamente più espressivi,
deduttivamente più potenti (che escludano equivoci di significato,
che abbiano sintassi rigorosamente coerenti). Qualunque teoria-
linguaggio la quale sia in grado di dimostrare la propria coerenza ed
univocità, oppure risolvere tutti i problemi che è in grado di
formulare risulta necessariamente equivoca, o incoerente, ovvero
anche così povera da non riuscire neppure a descrivere l’aritmetica
elementare.
A questi risultati hanno fatto seguito varie reazioni dei matematici,
che hanno dato luogo a dei programmi di ricerca diversi. Se per la
complessità rilevata non possiamo addentrarci in questi temi,
possiamo comunque accennare a qualche linea di ricerca. La prima
concerne il costruttivismo.
Certuni matematici, visto inattuabile il programma formalistico
hilbertiano, hanno rinunciato a considerare la matematica come
complesso organico di conoscenze; hanno adottato la concezione
della matematica come complesso organico di norme operative. Si
sono dunque concentrati sullo studio della loro applicabilità e delle
loro conseguenze.
In questo ordine di idee abbiamo la logica operativa e la
matematica operativa (Paul Lorenzen), la teoria degli algoritmi
(Andrey Andreyevic Markov) e la ricostruzione della matematica
esclusivamente in termini di tale teoria (Kushner). In pratica la
matematica in quanto programmabile su elaboratori elettronici, con
esclusione dell’infinito attuale.
Veniamo ora a parlare di non-costruttivismo. Certi altri, visto
inattuabile il programma formalistico hilbertiano, e da accettare per
fede l’aritmetica elementare, si limitano ad esigere che, per essere
accettabile, una teoria assiomatica sia coerente, non in sé, ma rispetto
all’aritmetica elementare assiomatizzata, ossia sia traducibile in un
capitolo di quest’ultima. Parimenti, per essere accettabile, un sistema
formale sia sintatticamente coerente rispetto all’aritmetica
elementare formalizzata, cioè subordinatamente all’ipotesi che
quest’ultima sia sintatticamente coerente.
In questo ordine di idee, risultano perfettamente ammissibili:
1) insiemi infiniti in atto
2) grandezze infinitamente grandi in atto
3) grandezze infinitamente piccole in atto
4) punti all’infinito
5) e tante altre entità e proprietà eterodosse, pur entro ambiti
perfettamente definiti e circoscritti.
Le diverse dottrine ammesse dai non-costruttivisti descrivono
diverse regioni del mondo delle idee (secondo la visione platonista),
astraggono strutture formali diverse, utilizzando metodi diversi, del
mondo percepito dai sensi (aristotelici), costituiscono altrettante
“griglie conoscitive” a priori, tra le quali il soggetto liberamente
sceglie (kantiani), sono discorsi-limite ideali, i quali indicano soglie
non valicabili, obiettivi possibilmente non irraggiungibili per la
matematica operativa (costruttivisti).
Ogni qual volta aggiungiamo un postulato alla teoria di partenza,
possiamo eseguire operazioni, quindi trovare applicazioni della
teoria, che prima ci erano vietate. Eppure prima o poi troveremo di
nuovo un ambito indecidibile: certamente potremo allora aggiungere
un nuovo postulato per decidere di quella certa questione indecidibile
(fino a quel momento).
In matematica, ogni volta che si scopre (o si inventa) qualcosa,
diventano possibili operazioni che prima erano vietate.
Quel che è certo, è questo: resteranno per sempre precluse, sia la
capacità di auto giustificazione della matematica, sia la possibilità di
precisare il proprio fine ultimo.
I teoremi di Gödel hanno ricevuto una più chiara comprensione e
sistemazione dai lavori successivi di Alfred Tarski (e da tutta la
scuola logica polacca).
Tarski inizia dai linguaggi formalizzati perché questi offrono due
vantaggi, innanzitutto la dominabilità dal punto di vista sintattico e
poi permettono la separazione tra livello linguistico e livello
metalinguistico che abbiamo visto essere necessaria al fine di evitare
i paradossi. Tarski affermava che non era possibile stabilire una
teoria del significato in modo rigoroso per il linguaggio naturale. Ciò
per la intrinseca ambiguità di questo linguaggio. Questo era forse un
modo per ribadire che soltanto le teorie formalizzate possono dare
garanzie di vera chiarezza?
Abbiamo visto che il paradosso del mentitore è strettamente
connesso con la dimostrazione di Gödel. Esso richiama la nostra
attenzione sulla sostanziale incompletezza della teoria dei numeri
naturali. Mostra infatti che, se questa teoria è consistente (ossia
coerente), la nozione di essere vero in essa non può essere definita in
tale teoria. Questo significa che non si può neppure affermare che la
teoria sia vera, nell’ambito della teoria stessa. Poiché sappiamo
dall’articolo di Gödel che in questa teoria può essere definita la
proprietà di essere dimostrabile, la teoria è evidentemente incompleta
sotto due aspetti: dobbiamo cioè concludere per la sua incompletezza
non solo sul piano dimostrativo (come affermato dal teorema di
Gödel), ma anche per la sua capacità espressiva.

5.9 Conclusioni
Dio esiste di certo, perché l’aritmetica è
coerente; però esiste anche il diavolo, perché la
coerenza dell’aritmetica è indimostrabile!
André Weil
Per terminare le nostre considerazioni, vorremmo richiamare la
vostra attenzione sulla consistenza tra quello che abbiamo sinora
sostenuto e la logica matematica recente (dell’ultimo secolo, grosso
modo). Innanzitutto, in ambito logico, si ha una pluralità di logiche:
logica classica, intuizionista, modale, paraconsistente, quantistica,
fuzzy, logiche polivalenti. Ognuna di queste logiche è basata su
presupposti diversi, spesso è stata pensata per risolvere determinati
problemi, in determinati ambiti di lavoro. Pertanto si può dire: non
esiste una logica vera, ma ciascuna logica è corretta nel proprio
campo. Ciò significa che le diverse logiche non sono in contrasto tra
loro, ma operano in ambiti (circoscritti) diversi. Si può dire pertanto
che esse si riferiscono ad ambiti diversi, o forse che circoscrivono
ambiti diversi.
Analoga è anche la situazione in matematica. Qui, un ruolo da
gigante è stato svolto dai teoremi di incompletezza di Gödel. Questi
ha dimostrato che ogni sistema formale sintatticamente coerente la
cui semantica ricopra l’Aritmetica Elementare non può di per sé
dimostrare la propria coerenza, né formalizzare la soluzione di
problemi pur enunciabili in esso. Ognuno di questi sistemi contiene
in sé almeno una proposizione indecidibile, cioè di cui non si può
stabilire formalmente (ossia all’interno del sistema) se sia vera o
falsa. Pertanto o essa, o la sua negazione, potranno essere ammesse
tra i postulati di un nuovo sistema ottenuto a partire dai postulati di
quello “vecchio”. Anche tutti i nuovi sistemi, tuttavia, saranno
soggetti alle stesse restrizioni “di Gödel” quanto all’indecidibilità:
ciò in quanto anch’essi conterranno al loro interno proposizioni
indecidibili. Anch’essi quindi genereranno nuovi sistemi,
reciprocamente incompatibili (a seconda che la proposizione
accettata come nuovo postulato sia quella indecidibile, oppure la sua
negazione), ma in sé pienamente coerenti.
È chiaro quindi che tali sistemi saranno in generale applicabili ad
ambiti diversi: non occorre necessariamente, in proposito, pensare
soltanto alle scienze cosiddette naturali, ma anche a quelle
economiche, alla sociologia, a tutte le “scienze umane”, …
Si otterranno, così, diverse teorie che potranno essere utilizzate in
ambiti (o domini) diversi: la formalizzazione delle teorie, necessaria
per ottenere una maggiore chiarezza, significa la loro circoscrizione.
In generale, è pertanto vano sperare che un giorno si riesca ad
assiomatizzare o a formalizzare l’intero complesso delle conoscenze
matematiche. Come per rappresentare in piano la superficie della
Terra non è sufficiente un’unica carta geografica, ma è necessario un
intero atlante, in cui ogni pagina descriva solo una piccola parte del
tutto, così l’intero quadro delle conoscenze matematiche può essere
rappresentato da un intero atlante di infiniti sistemi formali, o di
teorie assiomatiche, irriducibili l’uno all’altro e ciascuno descrivente
soltanto una piccola parte del tutto.
La matematica ci si presenta dunque come ben diversa dal
tradizionale intreccio di tautologie che viene solitamente concepita e
con cui viene presentata. I teoremi di Gödel, mostrando
l’incompletezza di ogni sistema formale, aprono la possibilità a
sistemi matematici alternativi. Pensiamo all’analisi non standard di
Abraham Robinson, oppure alle geometrie non euclidee: la non
dimostrabilità del quinto postulato di Euclide ha permesso di
sviluppare geometrie alternative, che hanno trovato applicazione
nella fisica moderna.
Concludiamo sintetizzando un po’ brutalmente quello che siamo
venuti dicendo, ma speriamo che risulti chiaro perché lo affermiamo:
l’incompletezza essenziale dei sistemi formali è sostanzialmente un
elemento a favore della teoria circoscrizionista della scienza.
Bibliografia

Agazzi et al. 1989. Evandro Agazzi, Ludovico Geymonat e Fabio Minazzi,


Filosofia, scienza e verità, Rusconi, Milano.
Ageno 1987. Mario Ageno, La biofisica, Laterza, Roma-Bari.
Ageno 1992a. Mario Ageno, Punti cardinali. Dal mondo della fisica al
mondo della vita, Sperling & Kupfer, Milano.
Ageno 1992b. Mario Ageno, Le origini della irreversibilità, Torino,
Boringhieri.
Amaldi 1999. Ugo Amaldi, La Fisica per i Licei Scientifici, 4a edizione,
Zanichelli, Bologna.
Amaldi 2004. Ugo Amaldi, Linguaggio e interpretazione scientifica della
natura in Intelligenza e linguaggio, a cura di G. Cicchese, Lateran
University Press, Roma.
Balmer 1885. Johann Jakob Balmer, Notiz über die Spectrallinien des
Wasserstoffs in Annalen der Physik, vol. 261, pp. 80-87.
Barone et al. 1997. A cura di Francesco Barone, Gianfranco Basti, Claudio
A. Testi, Il fare della scienza, Il Poligrafo, Padova.
Basti 2002. Gianfranco Basti, Filosofia della natura e della scienza. 1: I
fondamenti, Lateran University Press, Roma.
Bernard 1865. Claude Bernard, Introduction à l'étude de la médecine
expérimentale. Introduzione allo studio della medicina sperimentale,
Feltrinelli, Milano, 1973.
Bertelé et al. 1999. Bertelé Franco, Olmi Antonio, Salucci Alessandro,
Strumia Alberto, Scienze, analogia, astrazione, Il Poligrafo, Padova.
Bohr 1913. Niels Bohr, On the constitution of atoms and molecules in
Philosophical Magazine, vol. 26 pp. 1-25, 476-502, 857-875.
Bohr 1920. Niels Bohr, Über die Serienspektra der Elemente in Zeitschrift
für Physik, vol. 2, pp. 423-469.
Bohr 1922. Niels Bohr, The theory of spectra and atomic constitution,
Cambridge University Press, Cambridge.
Bootello 2012. Javier Bootello, Angular precession of elliptic orbits.
Mercury in International Journal of Astronomy and Astrophysics, vol. 2,
pp. 249-255.
Carnap 1931. Rudolf Carnap, Die physikalische Sprache als
Universalsprache der Wissenshaft in Erkenntnis, vol. 2, pp. 432-465.
Cartesio. René Descartes, Principia philosophiae, 1644. Principi della
filosofia, UTET, Torino, 1994.
Cellucci 2005. A cura di Carlo Cellucci e Donald Gillies, Mathematical
Reasoning and Heuristics, King’s College, Londra.
Chalmers 1976. Alan Chalmers, What is this thing called science? Che
cos’è questa scienza? Arnoldo Mondadori, Milano, 1979.
Cohen 1963. Paul J. Cohen, The Independence of the Continuum
Hypothesis I in Proceedings of the U.S. National Academy of Sciences,
vol. 50, pp. 1143–1148.
Cohen 1964. Paul J. Cohen, The Independence of the Continuum
Hypothesis II in Proceedings of the U.S. National Academy of Sciences,
vol. 51, pp. 105–110.
Cohen 1966. Paul J. Cohen, Set Theory and the Continuum Hypothesis,
Benjamin, New York.
Dirac 1939-83. Paul Adrien Maurice Dirac, La bellezza come metodo, a
cura di Vincenzo Barone, Indiana Editore, Milano, 2013 (scritti vari tra il
1939 e il 1983).
Duhem 1906. Pierre Duhem, La théorie physique. La teoria fisica, il suo
oggetto e la sua struttura, a cura di S. Petruccioli, il Mulino, Bologna,
1978.
Eddington 1938. Arthur Stanley Eddington, The Philosophy of Physical
Science. Filosofia della fisica, Laterza, Bari, 1941.
Einstein 1915. Albert Einstein, Erklärung der Perihelbewegung des
Merkur aus der allgemeinen Relativitätstheorie in Sitzungsberichte der
Königlich Preußischen Akademie der Wissenschaften (Berlin), vol. 47, pp.
831-839.
Einstein 1950. Albert Einstein, Out of My Later Years, Thames and
Hudson, Londra. Pensieri degli anni difficili, Boringhieri, Torino, 1977.
Einstein e Born 1969. Albert Einstein e Max Born, Briefwechsel, 1916-
1955. Scienza e vita. Lettere 1916-1955, Einaudi, Torino, 1973.
Einstein e Infeld 1938. Albert Einstein e Leopold Infeld, The Evolution of
Physics. L’evoluzione della fisica, Bollati Boringhieri, Torino, 1976.
Fano 2005. Vincenzo Fano, Comprendere la scienza. Un’introduzione
all’epistemologia delle scienze naturali, Liguori, Napoli.
Fano e Macchia 2009. Vincenzo Fano e Giovanni Macchia, Realismo dei
modelli e progresso scientifico in Il realismo scientifico di Evandro
Agazzi, Editrice Montefeltro, Urbino.
Fieschi 2013. Roberto Fieschi, Sul limitare della fisica: una scienza
pervasiva, MUP, Parma.
Fieschi. Roberto Fieschi, Corso di Struttura della materia per universitari,
dispense.
Feynman 1967. Richard Feynman, The Character of Physical Law. La
legge fisica, Boringhieri, Torino, 1971.
van Frassen 1980. Bas C. van Frassen, The Scientific Image, Clarendon
Press, Oxford.
Gadamer 1960. Hans-Georg Gadamer, Wahrheit und Methode. Verità e
metodo, Bompiani, Milano, 1983.
Galilei. Galileo Galilei, Il Saggiatore (1623) in Le opere di Galileo Galilei:
ristampa dell’edizione nazionale, a cura di Antonio Favaro, G. Barbera,
1929-39, vol. VI.
Geymonat 1971. Ludovico Geymonat, Storia del pensiero filosofico e
scientifico, Garzanti, Milano 1971. Vol. III (Il Settecento): C. Mangione,
Logica e fondamenti della matematica, pp. 155-203. Vol. IV: C.
Mangione, Logica e fondamenti della matematica nella prima metà
dell’Ottocento, pp. 140-208. Vol. V (Dall’Ottocento al Novecento): C.
Mang, La svolta della logica nell’Ottocento, pp. 92-161; Logica e
problema dei fondamenti nella seconda metà dell’Ottocento, pp. 755-830.
Vol. VI (Il Novecento): La logica nel ventesimo secolo, pp. 469-682; Vol.
VII (Il Novecento – II): La logica nel ventesimo secolo (II), pp. 299-433.
Vol. VIII: Giovanni Boniolo, Filosofia della scienza: la chiusura di un
ciclo? pp. 3-78.
Giere 1988. Ronald N. Giere, Explaining Science, The University of
Chicago Press, Chicago-Londra.
Gödel 1931. Kurt Gödel, Über formal unentscheidbare Sätze der Principia
Mathematica und verwandter Systeme I in Monatshefte für Mathematik
und Physik, vol. 38, pp. 173–198.
Gusmano 2007. Francesco Gusmano, La naturalizzazione dell’umano: una
sfida per la filosofia. Itinerari sulle tracce di Wilfrid Sellars in
Dialeghesthai. Rivista di filosofia in linea, anno 9 (2007),
http://mondodomani.org/dialegesthai/.
Habermas 1981. Jürgen Habermas, Theorie des kommunikativen Handelns.
Teoria dell’agire comunicativo, il Mulino, Bologna, 1986.
Hahn, Neurath, Carnap 1929. Hans Hahn, Otto Neurath, Rudolf Carnap,
Wissenschaftliche Weltauffassung: der Wiener Kreis. La concezione
scientifica del mondo, a cura di Alberto Pasquinelli, Laterza, Roma-Bari,
1979.
Heidegger 1950. Martin Heidegger, Holzwege. Sentieri interrotti, La
Nuova Italia, Firenze, 1968.
Heidegger 1954. Martin Heidegger, Was heisst Denken? Max Niemeyer
Verlag, Tübingen.
Heidegger 1957. Martin Heidegger, Identität und Differenz. Identità e
differenza in aut aut n. 187-188, gennaio-aprile 1982.
Heisenberg 1935. Werner Heisenberg, Wandlungen in den Grundlagen der
Naturwissenschaft. Mutamenti nelle basi della scienza, Boringhieri,
Torino, 1978.
Heisenberg 1958. Werner Heisenberg, Physics and Philosophy. Fisica e
filosofia, Il Saggiatore, Milano, 1961.
Hofstadter 1979. Douglas R. Hofstadter, Gödel, Escher, Bach: An Eternal
Golden Braid. Gödel, Escher, Bach: un’eterna ghirlanda brillante,
Adelphi, Milano, 1979.
Horgan 1994. John Horgan, La metafisica delle particelle in Le Scienze n.
308, aprile 1994, pp. 84-93.
Husserl 1936. Edmund Husserl, Die Krisis der europäischen
Wissenschaften und die transzendentale Phänomenologie. La crisi delle
scienze europee e la fenomenologia trascendentale, Il Saggiatore, Milano,
2008.
Jaki 1966. Stanley L. Jaki, The Relevance of Physics, The University of
Chicago Press, Chicago-Londra.
Jaki 1992, Stanley L. Jaki, I limiti di una scienza senza limiti in Barone et
al. 1992.
Jordan 1957. Pascual Jordan, Das Bild der modernen Physik. L’immagine
della fisica moderna, Feltrinelli, Milano, 1964.
Kemeny 1959. John G. Kemeny, A Philosopher Looks at Science. Il
filosofo e la scienza, Il Saggiatore, Milano, 1972.
Koyré 1943. Alexandre Koyré, Galileo and Plato. Galileo e Platone, in
Philip P. Wiener e Aaron Nolan, Le radici del pensiero scientifico,
Feltrinelli, Milano, 1971.
Kuhn 1962. Thomas S. Kuhn, The Structure of Scientific Revolutions. La
struttura delle rivoluzioni scientifiche, Einaudi, Torino, 1969.
Marquard 1986. Odo Marquard, Apologie des Zufälligen. Apologia del
caso, il Mulino, Bologna, 1991.
Marquard 1989. Odo Marquard, Aesthetica und Anaesthetica. Estetica e
anestetica, il Mulino, Bologna, 1994.
Masterman 1970. Margaret Masterman, The Nature of a Paradigm. La
natura di un paradigma in Critica e crescita della conoscenza, a cura di
Imre Lakatos e Alan Musgrave, Feltrinelli, Milano, 1976.
Murzi 2011a. Mauro Murzi, La filosofia della scienza di Mario Ageno in a
cura di M. Murzi, 150 anni di scienza e filosofia nell’Italia unita, Limina
Mentis, Villasanta.
Murzi 2011b. Mauro Murzi, Galassie e generi naturali: osservazioni sulla
filosofia dell’astronomia in L’arrivista (quaderni democratici) vol. 1 n. 1,
pp. 9-33.
Murzi e Valenti 2014. Mauro Murzi e Alberto Valenti, Struttura e limiti
della scienza. Per una teoria circoscrizionista della scienza, Limina
Mentis, Villasanta, 2014.
Neurath 1931. Otto Neurath, Soziologie im Physikalismus in Erkenntnis,
vol. 2, pp. 393-431.
Newton 1713. Isaac Newton, Philosophiae Naturalis Principia
Mathematica, seconda edizione, Cambridge.
Planck 1923-36. Max Planck, Kausalgesetz und Willensfreiheit, 1923; Vom
Wesen der Willensfreiheit, 1936. Il libero arbitrio, Castelvecchi, Roma,
2018.
Popper 1935. Karl R. Popper, The Logic of Scientific Discovery, 1959, ed.
originale Logik der Forschung, 1935. Logica della scoperta scientifica,
Einaudi, Torino 1970.
Popper 1956-1984. Karl R. Popper, Postscript to the Logic of Scientific
Discovery. Poscritto alla logica della scoperta scientifica, I. Il realismo e
lo scopo della scienza. II. L’universo aperto. Un argomento per
l’indeterminismo. III. La teoria dei quanti e lo scisma nella fisica, Il
Saggiatore, Milano 1984.
Popper 1969. Karl R. Popper, Conjectures and Refutations. Congetture e
confutazioni, 2 voll., il Mulino, Bologna 1972.
Popper 1972. Karl R. Popper, Objective Knowledge. Conoscenza obiettiva.
Un punto di vista evoluzionistico, Armando Editore, Roma, 2015.
Pozzi 1992. Lorenzo Pozzi, Il formalismo della logica medievale in Barone
et al. 1992.
Rogers 1971. Robert Rogers, Mathematical Logic and Formalized
Theories. Logica matematica e teorie formalizzate, Feltrinelli, Milano,
1978.
Rorty 1979. Richard Rorty, Philosophy and the Mirror of Nature. La
filosofia e lo specchio della natura, Bompiani, Milano, 1986.
Rossi 1976. Vittorio G. Rossi, Maestrale, Mondadori, Milano.
Russo F. 2015. Federica Russo, I modelli nelle scienze sociali, APhEx 12,
periodico on-line.
Russo L. 1996. Lucio Russo, La rivoluzione dimenticata, Feltrinelli,
Milano.
Rutherford 1911. Ernest Rutherford, The scattering of α and β particles by
matter and the structure of the atom in Philosophical Magazine, vol. 21,
pp. 669-688.
Rydberg 1890. Johannes Rydberg, Recherches sur la constitution des
spectres d'émission des éléments chimiques, Stoccolma, P.A. Norstedt.
Rydin 2011. Roger A. Rydin, The theory of Mercury’s anomalous
precession in Proceedings of the NPA, vol. 8, pp. 501-506.
Saccheri 1773. Giovanni Girolamo Saccheri, Euclides ab omni naevo
vindicatus. Euclide vendicato da ogni neo, a cura di Vincenzo De Risi,
Edizioni della Normale, Pisa, 2011.
Sanguineti 1997. Juan José Sanguineti, Il realismo scientifico. Popper e
Einstein a confronto in Barone et al. 1997, pp. 97-122.
Schrödinger 1929-59. Erwin Schrödinger, L’immagine del mondo,
Boringhieri, Torino, 1963 (scritti vari tra il 1929 e il 1959).
Schrödinger 1948. Erwin Schrödinger, Die Natur und die Griechen. La
natura e i greci in L’immagine del mondo, Boringhieri, Torino, 2001.
Schlick 1918. Moritz Schlick, Allgemeine Erkenntnislehre. Teoria generale
della conoscenza, Franco Angeli, Milano, 1986.
Suppe 1977. A cura di Frederick Suppe, The Structure of Scientific
Theories, University of Illinois Press, Urbana.
Suppe 1989. Frederick Suppe, The semantic conception of theories and
scientific realism, University of Illinois Press, Urbana.
Suppes 1961. Patrick Suppes, A comparison of the meaning and uses of
models in mathematics and the empirical sciences in a cura di H.
Freudenthal, The concept and the role of the model in mathematics and
the natural and social sciences, Reidel, Dordrecht, 1961, pp. 163-177.
Suppes 1962. Patrick Suppes, Models of data in Ernest Nagel, Patrick
Suppes e Alfred Tarski (a cura di), Logic, methodology and philosophy of
science, Stanford University Press, Stanford, 1962, pp. 252-261.
Tarski 1946. Alfred Tarski, Introduction to logic and to the methodology of
deductive sciences, Oxford University Press, New York-Oxford.
Tommaso d’Aquino, S. Thomae Aquinatis in Aristotelis libros “De caelo
et mundo”, Marietti, Torino-Roma, 1952.
Vaihinger 1911. Hans Vaihinger, Die Philosophie des Als Ob. La filosofia
del come se, Ubaldini, Roma, 1967.
Valenti 1994. Alberto Valenti, Nichilismo dalla scienza? Obiezioni al
pensiero debole in Studi Cattolici 401/2, luglio/agosto 1994, p. 459-462.
Valenti 2012. Alberto Valenti, Per una teoria circoscrizionista della
scienza. Il senso analogico in cui una teoria scientifica può essere detta
vera o falsa in Divus Thomas, 2012, n. 1, pp. 305-331.
Valenti 2014. Alberto Valenti, La demarcazione delle teorie e dei modelli
scientifici in Temi di filosofia della fisica, a cura di M. Murzi, Limina
Mentis, Villasanta, 2014.
Vankov 2014. Anatoli A. Vankov, Einstein’s Paper: “Explanation of the
Perihelion Motion of Mercury from General Relativity Theory” in The
General Science Journal, agosto 2014.
Vattimo 1985. Gianni Vattimo, La fine della modernità. Nichilismo ed
ermeneutica nella cultura post-moderna, Garzanti, Milano.
Vattimo 2002. Gianni Vattimo, Oltre l’interpretazione, Laterza, Roma-
Bari.
Wigner 1959. Eugene Wigner, The Unreasonable Effectiveness of
Mathematics in the Natural Sciences. L’irragionevole efficacia della
matematica nelle scienze naturali, Adelfi, Milano, 2017.

Potrebbero piacerti anche