Sei sulla pagina 1di 163

CORSO DI FONDAMENTI

TEORICI-STORICO-EPISTEMOLOGICI DELLA FISICA

PRIMA LEZIONE

L. Canton

1 Introduzione
Come si è indicato nella presentazione del corso, gli insegnanti di fisica,
matematica, e altre materie scientifiche delle scuole superiori hanno come
obbiettivo primario quello di cogliere gli specifici valori formativi e cultur-
ali della propria disciplina e di trasmetterli nelle classi dove insegnano (o
andranno ad insegnare).
È importante che questa attività di sviluppo coinvolga tutti gli allievi
della classe, e non venga poi mirata soltanto agli allievi per i quali le materie
scientifiche risultano più congeniali. Una concezione della scuola secondo
la quale le materie scientifiche sono un’area di studio principalmente desti-
nata per coloro (tipicamente pochi) che hanno particolari inclinazioni verso
queste specifiche materie, ma che possono essere trascurate da coloro i quali
seguono con profitto le attività storico-letterarie, perchè quel tipo di attività
trasmette valori formativi più che sufficienti, depriva la scienza dei suoi speci-
fici contenuti e valori. È evidente l’esigenza di muoversi rapidamente verso
una società basata sempre più sulla conoscenza, e in questo contesto è fon-
damentale la presa di coscienza dell’importanza della diffusione della cultura
scientifica nella società.
Certamente il compito di sviluppare e diffondere la cultura scientifica
nella società non può gravare soltanto sugli insegnanti delle materie scien-
tifiche. Bisogna però osservare che l’esposizione a materie quali la fisica, la
matematica, la biologia, etc. per una larghissima parte della nostra società
si realizza e si conclude con la scuola secondaria. Pertanto, è a questo livello

1
che si può sperare di stimolare gli interessi negli allievi - che saranno i pro-
tagonisti della società del domani - e di fornire loro gli strumenti formativi
adeguati per poter partecipare più consapevolmente alle conquiste e alle sfide
scientifiche e tecnologiche dell’oggi e del domani.
Mi immagino di trovarmi di fronte ad una classe, il primo giorno di scuola.
Per prima cosa, mi porrei il compito di far destare negli allievi l’interesse
per la materia. Quale potrebbe essere il modo migliore per far lezione? Si
potrebbe partire dalla formulazione logico-matematica della teoria scientifica,
oppure seguire una impostazione basata sulla storia della scienza seguendo il
cammino, spesso tortuoso, che ha fatto l’autore di una scoperta scientifica,
oppure ancora: si potrebbe partire dalle applicazioni pratiche, che si possono
“toccare con mano” nella quotidianità e che influenzano la nostra esistenza
di tutti i giorni.
Ovviamente una classe non è un organismo unico, ma è composta da
un insieme di menti con caratteristiche ciascuna diversa dalle altre. Se si
parte da una formulazione logico-matematica della teoria scientifica, facendo
risaltare il senso di coerenza interna della formulazione matematica di una
teoria, si colglierà l’attenzione di quegli studenti particolarmente orientati
verso un ragionamento di tipo logico-deduttivo, invece un’impostazione in
cui ci si basa su elementi di storia delle scienze sarà particolarmente adatta
per coloro i quali hanno in particolare inclinazioni storico-letterarie, e infine,
si può catturare l’attenzione delle menti più pratiche facendo riferimento alle
applicazioni d’uso comune che risultano dalle scoperte e dai progressi scien-
tifici. Per dirla secondo il Feynman, si tratta cioè di catturare l’attenzione
di studenti diversi con ami diversi, suggerendo che probabilmente la tec-
nica migliore è quella di mescolare le varie impostazioni alternando le varie
modalità di far lezione. Feynman riconosce che è difficilissimo riuscire a cat-
turare l’attenzione di tutti gli studenti di una classe in modo simultaneo,
e scherzandoci sopra, afferma che se il docente riesce a non far sbadigliare
tutti gli studenti nel medesimo istante, quel docente ha qualche speranza di
essersela cavata, con la sua lezione (...).
Gli insegnanti di materie scientifiche devono imparare da subito a combat-
tere i pregiudizi contro l’impostazione scientifica. Tali pregiudizi si verificano
talvolta nello stesso ambiente scolastico, sono radicati nella società comune,
e dunque si riflettono nelle concezioni di molti studenti.
Il problema si può evidenziare facendo la seguente domanda: c’è una
bellezza nella scienza? Spesso prevale la concezione secondo cui è l’artista

2
che riesce a percepire la bellezza di un tramonto, oppure di un fiore, men-
tre, la scienziato lo scompone in tanti pezzi, nei suoi elementi costituenti, e
conseguentemente ne fa scomparire il senso del bello.
Per prima cosa, si può obbiettare che per percepire la bellezza della natura
non occorre certo essere esperti d’arte, poichè la bellezza di un tramonto,
di un fiore, di un volo d’uccelli è accessibile a tutti e dunque anche agli
scienziati. E poi, la bellezza di un fiore non si esaurisce certo nella sua
contemplazione, c’è anche una bellezza nella sua organizzazione e struttura,
nei colori, negli odori, nei processi evolutivi che hanno portato naturalmente
il fiore ad assumere quelle forme e colori, nel chiederesi come il fiore riesca
a catturare l’attenzione degli insetti impollinatori: chissà se anche gli insetti
riescono a percepirne e ammirarne i colori, proprio come noi. E poi giù,
fino alla scala biochimica e molecolare, nei processi che mantengono in vita
il fiore e le consentono di essere quello che è. La conoscenza scientifica non
può che ampliare e dilatare il senso di bellezza, di meraviglia, di mistero,
di ammirazione che la natura suscita in tutti noi. Di certo non può farlo
diminuire.
Abbiamo parlato di cultura scientifica, vale la pena di ricordare alcuni
aspetti sul ruolo che la cultura scientifica ha nella società.
Chiariamo subito che la scienza non può dare una risposta a tutti i prob-
lemi dell’uomo. Per esempio, la scienza non è in grado di dare indicazioni
su quale sia il modo migliore con cui gli uomini si debbano organizzare per
vivere assieme. Vi sono problemi che esulano dal mondo della scienza, e
risposte che la scienza non è in grado di dare.
La scienza è però un potere: è il potere di fare. Potere che nasce dal “know
how” delle applicazioni tecnologiche. Le possibilità odierne che abbiamo di
viaggiare, di comunicare, di diagnosticare e sconfiggere le malattie, etc, etc,
nascono dagli sviluppi delle scoperte e invenzioni scientifiche. Sono il frutto
più tangibile del metodo con cui la scienza si sviluppa e genera conoscenza.
Inoltre la scienza produce idee e queste sono di due tipi: il primo tipo
idee riguarda quelle sulla visione del mondo che ci circonda. Idee e concezioni
dei molteplici aspetti della realtà in cui viviamo, che vanno dalla struttura
dell’infinitamente piccolo fino alle immense distanze e intervalli temporali nei
quali esiste e si evolve l’intero nostro universo. Idee che vengono generate
e sviluppate compatibilmente e coerentemente con le osservazioni che siamo
in grado di effettuare in natura ed in laboratorio. Questa è forse la cosa più
affascinante che la scienza riesce a produrre.

3
Il secondo tipo di idee riguardano i mezzi di indagine scientifica. Molti
scienziati ritengono che questo secondo tipo di idee siano uno dei contributi
fondamentali che la scienza ha portato all’umanità, e forse il contributo più
importante di tutti. Sono le idee sui metodi di validazione della conoscenza
scientifica. “Mezzi talmente ovvi ed evidenti di per sè che che si stenta a
capire come mai non sono stati scoperti prima. Idee semplici: provandole vedi
subito quello che succede. Probabilmente tutto dipende dal fatto che la mente
umana si è evoluta nello stesso modo in cui si evolvono i nuovi strumenti, e
come ogni altro strumento è tutt’altro che immune da imperfezioni. Gli inizi
di questa scoperta risalgono a Galileo Galilei” (Da R. Feynman, Il piacere di
scoprire).

2 Epistemologia
L’epistemologia affronta il problema della conoscenza, le sue possibilità e i
suoi limiti. Il suo ambito è molto vasto e all’interno del discorso epistemo-
logico si confrontano vari indirizzi e orientamenti filosofici. Lo studio della
conoscenza, la scienza della conoscenza, e infine la scienza della scienza pos-
sono esser considerate questioni di epistemologia.
Quest’ultima locuzione, scienza della scienza, mette in risalto l’aspetto di
meta-scienza dell’epistemologia, e affronta il problema di quale significato e
portata dare al sapere scientifico. Di come si giustifica l’impresa scientifica.
Questo tipo di epistemologia coinvolge aspetti e problematiche filosofiche
molto ampie, e che non possono venire chiuse certamente nell’ambito di
questo testo, sempre che sia possibile arrivare a conclusione su questi temi.
Del resto non si sa neppure quali siano i tipi di autori o studiosi in grado di
giustificare l’impresa scientifica, e in base a quali meriti e valori (scientifici,
filosofici, economici, sociali?).
La discussione epistemologica che si affronta in questa sede non ha am-
bizioni cosı̀ elevate e generali. È una discussione che si vuole sia mantenenuta
all’interno della stessa scienza, dove gli attori principali sono i ricercatori e gli
stessi scienziati. L’epistemologia delle discipline fisiche affronta i temi della
struttura e limiti di validità della conoscenza e del progresso scientifico. Stu-
dia e analizza i metodi di indagine scientifica, e di come sia eventualmente
possibile migliorarli e applicarli a nuove scienze. Discute su quali siano le
modalità con cui l’indagine scientifica possa diventare uno strumento per

4
conoscere meglio il mondo, e conseguentemente di vivere meglio la realtà
che ci circonda. È un’epistemologia che vuole mettere in evidenza il modo
di procedere e di ragionare che sta dentro e dietro al processo di sviluppo
del sapere scientifico. Essa consente di rivisitare alcuni episodi chiave della
fisica, opportunatamente scelti, per meglio far comprendere che la fisica è un
processo -spesso intricato- di crescita della conoscenza, e non un elenco di
formule risolutive tabulate per ogni situazione.
Falsi convincimenti a proposito della scienza sono stati messi in evidenza
in modo estremamente chiaro da H. Poincaré (1954-1912) nei suoi scritti
epistemologici: L’osservatore superficiale del mondo scientifico ritiene che
la verità scientifica sia al di fuori di ogni possibile dubbio e la logica della
scienza sia infallibile; se gli scienziati si ingannano è perchè ne disconoscono le
regole. Le verità matematiche derivano, attraverso un una catena di ragion-
amenti irreprensibili, da un piccolo insieme di proposizioni autoevidenti che
si impongono non solamente a noi, ma anche alla natura. Esse incatenano,
per cosı̀ dire, il Creatore e gli permettono di operare scelte con poche possi-
bili opzioni. Basterà qualche osservazione o esperimento per capire l’opzione
scelta dal creatore, e da ogni esperienza conseguiranno una moltitudine di de-
duzioni matematiche, che ci faranno conoscere come è fatto il mondo. Però,
dopo aver riflettuto un pò, scopriamo il ruolo fondamentale per il progresso
scientifico che ha avuto l’ipotesi. Nè il matematico, nè il fisico sperimenta-
tore saprebbero privarsene. Il fatto che le costruzioni scientifiche dipendano
dall’ipotesi può far pensare che le costruzioni scientifiche siano dei castelli
campati in aria. Essere cosı̀ scettici vuol dire ancora essere superficiali. Du-
bitare di tutto o credere a tutto sono due soluzioni egualmente comode ed
entrambe ci risparmiano di pensare.
È fondamentale nella scienza analizzare bene il ruolo delle ipotesi: solo
in questo modo potremo scoprire che l’ipotesi è necessaria, ma anche il più
delle volte legittima.
Le ipotesi possono a volte essere verificabili, possono essere confermate
dall’esperienza, e diventare verità feconde. Le ipotesi possono essere in-
oltre strumenti utili per fissare il nostro pensiero. A volte le ipotesi pos-
sono essere soltanto apparenti e ridursi a mere definizioni o a convenzioni
camuffate. Queste convenzioni sono libere creazioni della nostra mente che
in questo campo non conosce ostacoli. La nostra mente ha sconfinate ca-
pacità nell’inventare ipotesi. Essa decreta queste convenzioni, imponen-
dole alla nostra scienza che senza queste invenzioni sarebbe impossibile, ma

5
non alla natura. Tutto questo può far nascere il sospetto: ma allora, la
scienza é una costruzione arbitraria ? No, perche l’esperienza ci indica la
via da seguire, ci lascia la nostra libera scelta, ma ci aiuta a capire qual è
la strada più comoda, quella che realizza la maggiore economia di pensiero.
La libertà non è l’arbitrio. Se cosı̀ fosse la scienza sarebbe impotente. Ma
noi vediamo che la scienza è un potere, (è il potere di fare, come si è detto
precedentemente citando Feynman) e la sua utilità non potrebbe accadere se
non ci facesse conoscere qualcosa della realtà. Attraverso la scienza, però,
noi non possiamo raggiungere la realtà delle cose, realtà indipendente da noi,
ma solamente i rapporti tra le cose. Al di fuori di questi rapporti, non esiste
realtà conoscibile.
La visione della scienza, cosı̀ come la vede Poincaré, concepisce lo scienzi-
ato come un principe assoluto, ma saggio che consulta il suo consiglio di stato
(impersonato dall’Esperimento, e dal Rigore Matematico) prima di emanare
i suoi decreti e dettare le sue leggi.

3 Conoscere il mondo che ci circonda


Come si può percepire da quanto detto fin’ora, la discussione epistemologica
affronta temi complessi, sulla natura della conoscenza e dell’oggettività, che
da secoli turbano i filosofi. Un’avvertenza prima di trattare questi temi. Non
è necessario essere d’accordo con le posizioni epistemologiche che verranno
espresse; lo scopo della prima parte del corso è quello di fornire un panorama
(naturalmente introduttivo, e quindi limitato, ma spero sufficientemente am-
pio per gli scopi precedentemente dichiarati) di posizioni epistemologiche che
sono state proposte in filosofia della scienza, a partire da quelle iniziali e
più semplici, in modo che ciascun lettore possa elaborarle e individuare nel
suddetto spettro di posizioni quella che trova più significativa, più convin-
cente, tenendo presente anche l’esistenza di posizioni difformi. Qualsiasi sia
l’orientamento epistemologico che uno vorrà considerare nel proprio modo di
insegnare, è bene ricordare di non portare all’eccesso la propria posizione,
ma di mantenerla nei limiti della ragionevolezza, del giusto equilibrio, della
moderazione.

6
3.1 Solipsismo (e scetticismo radicale)
Come possiamo sperare di raggiungere una conoscenza oggettiva - non nec-
essariamente certa, ma anche approssimata, incompleta - del mondo intorno
a noi?
Noi non abbiamo mai accesso diretto al mondo esterno, noi abbiamo
accesso soltanto ai nostri sensi. Come sappiamo che esiste qualcosa al di
fuori delle nostre sensazioni?
La posizione solipsista è una posizione inconfutabile, nel senso che non ab-
biamo dimostrazione alcuna che il mondo esterno a noi sia perfettamente reale
e sia cosı̀ come lo percepiamo. Tuttavia questa posizione, sebbene logica-
mente coerente, boccherebbe in partenza qualsiasi possibilità di conoscenza,
e si dubita che esista un solo solipsista convinto, o perlomeno non è noto
che se ne sia mai incontrato uno1 . Ovviamente se una persona persistesse
nel suo convincimento di “essere un clavicembalo che suona da solo” non ci
sarebbe nessun modo di convincerlo del contrario. È ragionevole pensare che
esistano agenti esterni alla nostra coscienza, osservando la persistenza delle
nostre sensazioni. Soprattutto quelle spiacevoli. Non si può sperare di fer-
mare una guerra, far sparire le malattie, oppure far partire una macchina in
avaria solo con l’esercizio del proprio pensiero. Bisogna far attenzione, perchè
questa non è una confutazione del solipsismo: ma il semplice fatto che una
posizione non sia confutabile non implica che tale posizione debba essere
necessariamente vera. Posizione in sostanza simile a quella del solipsismo è
quella dello scetticicismo radicale: in questo caso uno ammette l’esistenza
di una realtà esterna e indipendente da noi, ma sostiene l’impossibilità di
ottenerne una conoscenza affidabile. Anche se esiste una realtà esterna, le
nostre percezioni sono troppo inaffidabili per la conoscenza del mondo es-
terno. Entrambe queste posizioni giungono alla stessa conclusione, ovvero,
ogni conoscenza del mondo in cui viviamo ci è preclusa perchè non abbiamo
garanzie che le nostre sensazioni riflettano in misura sufficientemente accu-
rata la realtà. È necessario allora invocare un argomento a priori, come ad
esempio nella filosofia di Descartes e dei razionalisti, in cui idee innate ven-
gono innestate da un Dio benevolo nella mente umana, per poter avere la
1
A dire il vero, Bertrand Russel racconta che una volta ha ricevuto una lettera da un
logico matematico eminente (tale Christine Ladd Franklin) la quale sosteneva di essere
una solipsista ed era sorpresa del fatto che non ce ne fossero altri, o perlomeno non ne
aveva mai incontrato nessun altro

7
garanzia che le nostre percezioni riflettano la realtà esterna in modo accurato.
Sulla questione interviene anche D. Hume, 1748 (Ricerca sull’intelletto
umano) “È una questione di fatto, se le percezioni dei sensi sono prodotte
da oggetti esterni, che assomigliano ad esse, oppure no? Come risolveremo
questa questione ? Certamente per mezzo dell’esperienza; come tutte le altre
questioni simili. Ma qui l’esperienza è, e deve essere, interamente muta. La
mente non ha mai presente alcunchè, se non percezioni, e non è possibile che
le riesca di conseguire esperienza alcuna della connessione fra le percezioni e
gli oggetti. La supposizione di una simile connessione è perciò senza alcun
fondamento razionale.”
Lo scetticismo radicale o sistematico (assumere che le nostre percezioni
ci ingannino sistematicamente) sebbene inconfutabile, non porta da nessuna
parte. Le ragioni del suo rigetto sono le stesse del solipsismo. L’accettazione
di queste posizioni porterebbe automaticamente alla negazione del valore
conoscitivo della scienza. Il modo migliore per spiegare la coerenza della
nostra esperienza è di supporre che il mondo esterno corrisponda, almeno
approssimativamente, all’immagine che di esso ci offrono i nostri sensi. A sup-
porto di questa posizione possiamo considerare la teoria biologica dell’evoluzio-
ne. Chiaramente il possedere organi sensori che riflettono più o meno accu-
ratamente il mondo esterno conferisce un vantaggio evolutivo. È piuttosto
ragionevole pensare che, come prodotto di una catena evolutiva, i nostri sensi
si siano affinati in modo da riprodurre con buona accuratezza la realtà del
mondo esterna a noi.
Quale atteggiameno prendere davanti allo scetticismo radicale? Bisogna
osservare che tale scetticismo si deve applicare a tutte le nostre conoscenze:
non solo all’esistenza degli atomi, degli elettroni, delle proteine e dei geni,
ma anche alla circolazione del sangue nei vasi (arterie e vene) del nostro
corpo, al fatto che la terra sia (più o meno) rotonda e addirittura ai fatti più
banali della nostra quotidianità (per esempio l’esistenza della sedia su cui
stiamo seduti). Infatti, anche le conoscenze più banali dipendono interamente
dall’assunzione che le nostre percezioni non ci ingannino in modo sistematico.
L’esistenza di un inganno sistematico da parte dei nostri sensi ci porterebbe a
negare anche l’esistenza di un substrato oggettivo riguardo ai fatti più banali
e comuni della nostra vita, non minerebbe soltanto la possibilità di poter
costruire una conoscenza scientifica. In altre parole, è proprio il carattere
di universalità dello scetticismo humeano a renderlo poco convincente. A
questo proposito, vale la pena di citare Leonardo Eulero (1761):

8
‘‘Quando il mio cervello provoca nella mia anima
la sensazione di un albero o di una casa,
io affermo con forza che esiste realmente
fuori di me un albero o una casa,
di cui io conosco il luogo, la grandezza e altre proprietà.
In generale, non c’è uomo o bestia che dubiti di questa verità.
Se un contadino volesse dubitarne e dicesse,
per esempio, che il suo balivio non esiste,
per quanto stia davanti a lui,
lo si prenderebbe per pazzo, ed a ragione:
ma una volta che un filosofo avanza tali sentimenti,
egli si aspetta che il suo spitito e la sua sagacità,
che sorpassano infinitamente quelli del popolo, siano ammirati.’’

Si osservi che affermare il carattere poco convincente dello scetticismo


radicale (per quanto la posizione sia, come abbiamo già detto, inconfutabile)
non vuol dire che si abbia una spiegazione convincente sul modo con cui si
stabilisce una corrispondenza tra la realtà oggettiva e le nostre percezioni.

9
Table 1: Schema del mondo a tre livelli. La mente individuale interagisce
colla realtà del mondo esterno attraverso le percezioni, i sensi. Ovviamente, la
nostra mente ha accesso diretto soltanto ai nostri sensi, noi non abbiamo ac-
cesso diretto alla realtà oggettiva. La nostra mente inoltre stabilisce rapporti
anche con l’insieme dei nostri simili, attraverso il linguaggio. Ciò consente
di uscire dalla soggettività dell’esperienza individuale, potendo effettuare an-
che esperienze e osservazioni riproducibili da parte di altri osservatori. La
riproducibilità da parte di altre menti dotate di raziocinio non rendono le
osservazioni “oggettive” ma conferiscono all’esperienza o all’osservazione ef-
fettuata il valore dell’ “intersoggettività”.

↔ ↔
P L
E I
R N
C G
realtà E mente U mente
oggettiva Z individuale A collettiva
I G
O G
N I
I O
↔ ↔

3.2 Schema a tre livelli


Possiamo rappresentare in maniera schematica i rapporti che la nostra mente
individuale riesce ad instaurare attraverso le percezioni sensoriali e il linguag-
gio secondo la tabella riportata qui.

3.3 Realismo ingenuo


Una volta superato lo scoglio del solipsismo e dello scetticismo radicale, pos-
siamo iniziare a discutere sui processi cognitivi sia nell’ambito della scienza,

10
sia nell’ambito della quotidianità. La tesi del “realismo ingenuo” si presenta
come una tesi naturale, ragionevole e perfettamente accettabile dal senso co-
mune. Al contrario di quella paradossale del solipsismo, che è inconfutabile
logicamente, la tesi del tutto ragionevole del realismo ingenuo si presenta, ad
un’analisi più approfondita, difficile da sostenere. Il realismo ingenuo si fonda
sulla convinzione che esista una connessione completamente soddisfacente tra
la realtà oggettiva e il mondo delle percezioni sensoriali. (nel senso che sia
possibile determinare in maniera completa la natura della connessione fra
percezioni e le cause esterne delle percezioni)
La posizione del “realista ingenuo” si riassume nel seguente modo: Esiste
una realtà esterna che trascende i soggetti conoscenti ovvero il mondo delle
percezioni (il mondo fenomenico). Noi siamo legati a questa “realtà vera”
attraverso i sensi con un doppio filo. 1) Questa realtà vera è il fondamento,
cioè la causa, delle nostre percezioni e 2) occorre partire dalle percezioni per
conoscere la realtà del mondo.
Per quanto riguarda il primo tratto del filo, cioè quello che vi è un mondo
indipendente che starebbe alla base del mondo delle percezioni e che ne
sarebbe la causa, Kant ha dimostrato che la causalità è in grado di sta-
bilire nessi applicabili soltanto al mondo delle percezioni. La categoria della
causalità non è in grado di designare rapporti fra il mondo fenomenico e la
vera realtà esterna ed indipendente da noi che gli starebbe alla base. Un
conto è sostenere che la persistenza delle percezioni (soprattutto quelle spi-
acevoli!) ci induce a credere che esiste un mondo oggettivo al di là delle
nostre percezioni, un altro è pretendere di stabilire quale sia il nesso fra il
mondo fenomenico e la realtà oggettiva che vi sta a fondamento.
La seconda connessione fra mondo delle percezioni e mondo della realtà
oggettiva, secondo cui partendo dalle percezioni possiamo conoscere la realtà
del mondo esterno da noi, presenta difficoltà ancora più marcate. Non si
vede come si possa passare dal mondo delle percezioni, su cui instauriamo le
nostre conoscenze, a quello della realtà oggettiva che ne sta a fondamento e
trascende completamente le percezioni.
Fra i tentativi di superare le difficoltà del realismo ingenuo salvando
l’istanza del realismo, possiamo annoverarne almeno due:
1) Il realismo matematizzante. Questa posizione attribuisce alla matem-
atica il potere di trascendere le percezioni per giungere alla realtà sottostante
il mondo fenomenico. La concezione di questo tipo di realismo è quella di
raggiungere la vera natura delle cose attraverso il calcolo. Tale impostazione

11
è caduta per la plurivocità della matematica (e molte altre cose, per esem-
pio i teoremi di Gödel, però queste problematiche esulano dagli argomenti di
questa lezione.)
2) Il realismo fideistico. Questa posizione rifiuta di attribuire sia al mondo
delle percezioni, sia alla razionalità della matematica, la capacità di farci pen-
etrare al nocciolo della realtà. È soltanto attraverso l’esistenza di un atto
intuitivo, dotato di un supporto irrazionale, che noi riusciamo ad accedere
alla realtà oggettiva esterna da noi.

12
CORSO DI FONDAMENTI STORICO-EPISTEMOLOGICI DELLA
FISICA

SECONDA LEZIONE

L. Canton

1 Da Aristotele a Newton
Una trama, molto semplificata, che si intreccia sui seguenti nomi e date:

Aristotele (384 aC-322 aC)


Ipparco da Nicea (' 190 aC); Tolomeo (' 121÷131 dC)
Copernico (1473 - 1543)
Tycho Brahe (1546 -1601); Keplero (1571 - 1630)
Galilei (1564 - 1642)
Newton (1642 - 1727)
Con questa trama si vuole indicare un percorso che parte dalla visione
aristotelica del cosmo dove la terra si trovava immobile al centro della sfera ce-
leste (delle stelle fisse) e tutto lo spazio interno alla sfera celeste veniva diviso
in regioni concentriche, dette le sfere omocentriche di Eudosso. Queste regioni
intermedie dominavano il moto dei pianeti, e ruotavano ciascuna rispetto alle
altre, con l’intero sistema spinto dalla rotazione della sfera più esterna, oltre
la quale non c’era nulla. Le rotazioni delle sfere celesti dovevano essere in
grado di spiegare i moti dei corpi celesti, inclusi i pianeti, i quali a loro volta
erano responsabili (in maniera indiretta) di tutto ciò che accadeva sulla terra.
Questa teoria dei moti celesti era tutto sommato un non disprezzabile primo
tentativo di capire com’ era fatto il mondo fisico. Il percorso aristotelico era
però piuttosto complesso: si partiva dall’ horror vacui che non solo spiegava
il fenomeno dell’aspirazione dell’acqua attraverso una cannula e l’apparente
impossibilità riscontrata dai Greci di produrre il vuoto, ma era intimamente

1
connesso con la visione eudossiana delle sfere celesti fatte di un materiale par-
ticolarissimo, la quintessenza, che permetteva il trasferimento delle rotazioni
celesti e implicava una concezione dello spazio “pieno di materia” dove il
vuoto era stato bandito da ogni luogo. La trama che viene qui illustrata
introduce la cosiddetta Rivoluzione Scientifica del Seicento, dove la visione
geocentrica con la terra immobile viene soppiantata da una visione detta elio-
centrica in cui la stessa terra diviene un corpo planetario rispetto al sole. Un
tale capovolgimento di prospettiva astronomica è intimamente connesso con
la necessità di introdurre delle nuovi leggi del moto, che rendono l’astronomia
copernicana possibile. Questo è il significato del percorso scientifico di questa
lezione, che parte appunto da Aristotele e arriva a Galileo e a Newton. In
questa lezione si farà soltanto un brevissimo quadro del contributo di Galilei
e Newton, rimandando alla prossima lezione per un’analisi più approfondita.

1.1 La “Fisica” di Aristotele.


La fisica di Aristotele chiama moto qualsiasi mutamento, mentre il movi-
mento fisico viene descritto come “moto locale”.
A sua volta il moto locale viene distinto in moto naturale e moto violento.
Il moto naturale si riferisce al moto spontaneo, ad esempio dei gravi verso
il basso oppure il moto di risalita dei corpi più leggeri. Il moto violento o
artificiale invece si riferisce ai moti prodotti da agenti esterni (per esempio
causato da una fionda o dal lancio con la mano). Si ignora il principio
d’inerzia.
Nella Fisica di Aristotele non c’è lo spazio ma ci sono i luoghi. Ciascun
corpo ha i suoi luoghi naturali. L’Universo di Aristotele viene visto come una
serie di sfere concentriche in cui la sfera più interna è la terra, seguita dalla
sfera dove si muove la luna, poi a seguire quella del sole, quelle dei pianeti, e
infine la sfera delle stelle, mossa dalla sfera più esterna che viene denominata
il “primum mobile”, il quale viene mosso dal motore immobile. La centralità
della terra viene fondata su considerazioni moralistiche: la corruttibilità dei
corpi terreni li rende meno degni e pertanto debbono restare in basso.
Nella fisica di Aristotele vengono distinte due tipi di fisiche: la fisica dei
corpi sublunari e la fisica celeste. La fisica dei corpi sublunari è caratterizzata
dai quattro elementi che compongono i corpi materiali. Questi sono l’aria,
il fuoco, l’acqua e la terra, e ciascun corpo materiale è composto da questi
quattro elementi in mescolanza, con parti variabili per effetto del caldo e

2
del freddo. La possibilità di variare le mescolanze per effetto del caldo e del
freddo rende possibile la corruttibilità dei corpi sublunari.
Il moto naturale dei corpi sublunari è di tipo lineare e tende a farli portare
nel loro luogo naturale dove si dispongono nello stato di quiete. La legge dei
luoghi naturali i corpi vogliono raggiungere il proprio fine che corrisponde
al posizionamento nel proprio luogo naturale. Infatti, ciascun elemento ha
il suo luogo naturale, con il fuoco che tende verso l’alto più di ogni altro
elemento, seguito dall’aria che pure tende verso l’alto. L’acqua invece tende
spontaneamente verso il basso, ma in misura minore rispetto alla terra che
ha nel basso il suo luogo naturale. Quando il corpo arriva nel suo luogo
naturale cessa la causa del moto, perchè si è raggiunto il fine, e quindi i corpi
si fermano.
Questa impostazione finalistica, emergente dalla legge aristotelica dei lu-
oghi naturali, diventa problematica quando si affronta la questione dei moti
violenti o artificiali. Una volta che una freccia è scoccata dall’arco, essa
continua a muoversi nella direzione impressa dall’arco: essa non cambia rap-
idamente il suo moto in un moto lineare che procede verso il basso, ma avanza
nella direzione innaturale impressa allo strale quando uscı̀ dall’arco. Si os-
servi che alla fisica aristotelica manca completamente il principio d’inerzia, e
che la distinzione fra moto naturale e moto violento entra in crisi nel caso del
lancio di un corpo, perchè l’agente esterno (arco o fionda che sia) interrompe
il suo contatto cessando la sua azione sul corpo. Bisogna perciò ricorrere all’
horror vacui: il proietto caccia l’aria che si trova davanti alla punta dai lu-
oghi che attraversa, facendo il vuoto in prossimità della coda. L’aria rientra
nel vuoto da dietro, spingendo il proietto nella direzione impressa dall’arco.
Nel sesto secolo dopo Cristo, il commentatore aristotelico Giovanni Filopono
sente il bisogno di discutere a questo riguardo una teoria alternativa, la teoria
dell’impetus, che riprenderemo più avanti, secondo la quale il motore comu-
nica al proietto un impetus, o “potenza cinetica”, che resta impresso finchè
l’aria non lo frena, e solo allora ritorna a terra secondo le leggi naturali.
La fisica dei corpi celesti è invece molto differente. I corpi celesti sono
puri, rotondi ed incorruttibili, e fatti di quintessenza (o etere).
Essi si muovono di moto circolare uniforme attraverso un sistema di sfere
concentriche (ben 55!). Siccome sono incorruttibili, i corpi celesti non salgono
nè scendono e per questo motivo si muovono di moto circolare uniforme. Le
sfere sono materiali, ovvero di quel minimum di materialità che corrisponde
alla quintessenza. La sfera più esterna, il primum mobile trascina con sè

3
tutte le altre sfere ed è mossa a sua volta da un motore immobile.

1.2 Il sistema Tolemaico


Durante il periodo di Aristotele, si era imposto il sistema eudossiano delle
sfere omocentriche, la cui immagine cosmologica dell’universo resterà pre-
dominante per molti secoli a dispetto della scarsità di elementi scientifici
presenti in essa. Naturalmente, l’immagine dell’universo di Aristotele ha una
sua suggestione poetica che la rende molto seducente, come si può vedere in
figura 1.
Gli astronomi alessandrini si posero il problema di sviluppare una ipotesi
astronomica, cioè la formulazione di un modello matematico-geometrico di
come si possa descrivere il movimento dei corpi celesti, lasciando nelle mani
dei filosofi il compito di congetturare la struttura dell’universo reale. Natural-
mente, la descrizione delle traiettorie dei pianeti doveva risultare consistente
con la concezione cosmologica delle sfere omocentriche che si era imposta in
ambito filosofico.
La terra viene pensata immobile al centro dell’universo; l’universo, a sua
volta, viene pensato chiuso da una sfera cristallina pressochè immateriale
che ruota da oriente ad occidente attorno ad un asse avente per centro la
terra, e che si caratterizza come l’asse dell’universo. Questa sfera esterna è
la sfera delle stelle fisse, ed internamente ad essa ruotano tutte le altre sfere
celesti, i cui assi di rotazione non devono coincidere necessariamente con l’asse
dell’universo, sebbene il centro di ognuna di queste sfere celesti corrisponda
alla posizione della terra. Ogni pianeta ha la sua sfera cristallina a cui è
agganciato e di conseguenza ne viene trascinato nel loro moto di rotazione,
ma non tutte le sfere celesti hanno un loro pianeta. Il sistema eudossiano
prevedeva un armamentario complesso di ben 26 sfere, che proliferarono fino a
55 nel sistema aristotelico, nel tentativo di dare una spiegazione soddisfacente
dei moti apparenti dei corpi celesti, delle stagioni eccetera. I moti apparenti
dei pianeti venivano generati dal trascinamento delle sfere interne ad opera di
quelle più esterne, per cui il moto risultante dei pianeti non era più circolare,
ma una combinazione di moti circolari.
Tolomeo, riprese i risultati di Ipparco da Nicea e produsse degli scritti
sistematici che furono poi compendiati nell’Almagesto. Questa fu la bibbia
per gli astronomi dell’antichità. Presenta un modello matematico-geometrico
del movimento dei corpi celesti. Ipparco da Nicea (nato attorno al 190 a.C.)

4
fu forse il più grande astronomo dell’età antica; egli giunse a stabilire con
considerevole precisione la durata dell’anno solare (365 giorni e un quarto),
e del mese lunare medio. Compilò un catalogo che confrontò con misure cat-
alogate in antichi scritti Babilonesi, arrivando ad intuire il fenomeno della
precessione degli equinozi. Particolare impulso venne dato alla trigonome-
tria, essenziale per lo sviluppo dell’astronomia (come della geografia), con la
catalogazione delle tavole delle corde, poi esposte in maniera sistematica da
Tolomeo nell’ Almagesto.
Ipparco fornı̀ la teorizzazione di due traiettorie che consentirono di formu-
lare un’ipotesi astronomica, relativa ad un modello matematico di movimento
dei corpi celesti. Attraverso le traiettorie del circolo eccentrico e dell’epiciclo
i moti dei corpi celesti erano risolti in movimenti circolari o combinazioni
più o meno complesse di moti circolari. Tali traiettorie erano consistenti con
la concezione cosmologica delle sfere omocentriche affermatasi in seno alla
filosofia.
Il circolo eccentrico è un circolo descritto da un mobile che si muove at-
torno ad un centro geometrico G, l’eccentrico, che però è diverso dal centro
fisico C, ovvero dal punto dove è situato l’osservatore, che comunque si trova
in una posizione interna al cerchio descritto dal mobile. L‘epiciclo è una
figura geometrica più complessa, e può essere di svariati tipi. Nell’epiciclo
il mobile descrive un moto circolare attorno ad un centro D, detto defer-
ente, che si muove a sua volta di movimento circolare attorno al centro C.
Si possono distinguere vari epicicli a seconda che la distanza del mobile dal
deferente sia maggiore o minore della distanza del deferente D dal centro C.
Inoltre, il deferente può muoversi rispetto al centro C con um movimento che
può essere a sua volta un circolo eccentrico, e cosı̀ via. Con questa varietà
di modelli, e loro combinazioni rigorosamente descritte nelle loro proprietà
geometriche l’astronomia alessandrina potè affontare con un certo successo il
problema della descrizione dei fenomeni celesti. Tuttavia, al fine di ottenere
un accordo quantitativo con i dati osservativi (cioè le posizioni dei pianeti
in un dato istante, incluse le previsioni future) l’armamentario di deferenti,
epicicli ed eccentrici non risultò sufficiente, e Tolomeo dovette introdurre un
nuovo artifizio, l’ equante, che corrisponde ad un nuovo punto diverso dal cen-
tro geometrico del deferente (l’eccentrico) e diverso dal centro fisico dove è
situato l’osservatore. La caratteristica dell’equante è che la velocità angolare
di rotazione della sfera deferente era costante rispetto a questo nuovo punto,
e non rispetto al punto eccentrico. Con l’artifizio dell’equante si segna una

5
dipartita dalla visione aristotelica dell’universo fondato sui movimenti circo-
lari uniformi dei corpi celesti. In sostanza, di astronomie antiche geocentriche
ve n’erano almeno due: quella aristotelica e quella tolemaica, le quali erano
ben diverse fra loro nell’immagine dell’universo che volevano rappresentare.
Con tutta questa complessità geometrica, il sistema tolemaico, pur nella
sua superiorità rispetto a quello aristotelico-eudossiano delle sfere omocen-
triche, non riusciva ancora a riprodurre i dati osservativi, benchè avesse alla
fine abbandonato gli ideali aristotelici del moto circolare uniforme, e della
terra posizionata nel centro geometrico dell’universo. Il sistema tolemaico
diventò di una tale complessità che si dice che il re di Spagna, Alfonso X
di Castiglia (1221-1264), quando volle apprendere il modello di Tolomeo, es-
clamò che se il Signore Onnipotente lo avesse consultato prima di intrapren-
dere la Creazione, egli, il re di Spagna, sarebbe stato in grado di suggerigli
qualcosa di migliore.
Questo episodio mette in luce come la filosofia di Aristotele, e le associate
opere della scienza greco-alessandrina, riscoperte in Europa attraverso la
paziente traduzione dall’arabo al latino (a volte attraverso l’intermediazione
dello spagnolo), produsse un profondo effetto sulla cultura scientifica medio-
evale. Ecco allora che grazie all’opera di grandi filosofi-teologi quali la figura
di Tommaso d’Aquino (1226-1274), la filosofia del pagano Aristotele fu sdo-
ganata (non senza forti contrasti teologici) per il suo contributo alla grande
sintesi fra Cristianesimo e Ragione che si affermò in Europa verso il XII se-
colo. Il Motore Immobile dell’universo aristotelico si identificò col Dio della
teologia cristiana, e il Primum Mobile con il paradiso del mondo cristiano,
mentre la posizione centrale che occupava la terra nella filosofia artistotelica
ben si accordava con l’attenzione che il Dio del mondo cristiano riversava
nell’Umanità.
Da questo connubio le idee della filosofia aristotelica assunsero la caratter-
istica del dogma religioso: sfidare tale visione dell’universo non rappresentava
più una semplice controversia scientifica, ma significava sfidare soprattutto il
potere della Chiesa, e i dissenzienti sarebbero stati inevitabilmente sottoposti
al giudizio dai poteri della Chiesa.

1.3 Il sistema Copernicano


L’opera “De revolutionibus orbium coelestium” fu pubblicata il 24 maggio
1543, lo stesso giorno in cui il suo autore, il mite abate polacco Nicolò Coper-

6
nico, morı̀. Alle complicazioni dell’astronomia classica, sia teolemaica sia
aristotelica, Copernico oppose la semplicità della propria ipotesi che riusciva
a spiegare i movimenti astronomici ricorrendo ad un numero minore di movi-
menti, e per di più di tipo molto più semplici (moti circolari). Copernico
ricorda che già nell’antichità si erano sviluppate nei circoli pitagorici opin-
ioni secondo le quali la terra poteva anche non essere al centro dell’universo.
Aristarco di Samo aveva in particolare già formulato nel 250 a.C. l’ipotesi
eliocentrica.
Copernico attaccò in particolare il sistema tolemaico per gli artifizi a cui
doveva ricorrere per spiegare i dati astronomici, ed in particolare l’ipotesi dell’
equante, secondo la quale il moto dei pianeti non era uniforme nè rispetto al
centro geometrico del deferente nè tantomento rispetto al centro fisico dove
veniva posto l’osservatore. Una tale ipotesi aveva tutte le caratteristiche di
un artifizio “ad hoc”, secondo una terminologia moderna, che non poteva
lasciare soddisfatta la ragione.
Copernico propose perciò di mettere in moto la terra, piuttosto che la to-
talità degli altri corpi celesti, rompendo con la tradizione astronomica classica
e medioevale.
L’opera di Copernico, il “De rivolutionibus”, apparve preceduta da una
prefazione anonima, attribuita al teologo luterano Andrea Osiander che si
assunse il compito di pubblicare l’opera per conto di Copernico. L’intento
della prefazione era quello di prevenire le reazioni scandalizzate di teologi e
professori, sostenendo che il modello copernicano non pretendeva di essere
più vero di quello tolemaico, ma soltanto di offrire un procedimento di calcolo
che si adatta meglio alle osservazioni.
La teoria copernicana si può condensare nei seguenti punti:

• 1) L’universo astronomico è sferico, finito, delimitato dalle stelle fisse.

• 2) Il sole è immobile al centro dell’universo.

• 3) I pianeti e con essi la terra girano attorno al sole di moto circolare


uniforme.

• 4) La terra si muove dei seguenti moti:

– a) di rivoluzione attorno al sole, descrivendo una circonferenza


completa in un anno

7
– b) di rotazione diurna, descrivendo un giro in 24 ore, con asse di
rotazione obliquo rispetto al piano dell’eclittica
– c) di “precessione degli equinozi” o di librazione dell’ asse di ro-
tazione sul piano dell’eclittica

L’immagine dell’universo di Copernico si presenta in figura 6.


Il modello dell’universo secondo il sistema copernicano possedeva indubbi
vantaggi: innanzitutto a ciascun pianeta bastava attribuire un raggio orbitale
di rivoluzione e una velocità di rivoluzione, mentre nel caso del sistema geo-
centrico ad ogni pianeta corrispondevano almeno cinque parametri: raggio
e velocità angolare della sfera deferente, raggio e velocità angolare del cir-
colo dell’epiciclo, nonchè la distanza dall’eccentrico. Inoltre la spiegazione
dell’alternarsi fra moto progressivo e moto regressivo dei pianeti (rispetto alle
stelle fisse) proviene dalla composizione di due moti di rivoluzione attorno
al sole: quello della terra dove è situato l’osservatore e quello del pianeta in
osservazione. In figura 7 viene illustrata la spiegazione del moto apparente
retrogrado nel caso di un pianeta esterno, ma un ragionamento analogo può
essere fatto nel caso di un pianeta interno.
Un’ altra spiegazione che risulta naturale nel sistema copernicano riguarda
le osservazioni di Venere e Mercurio, che risultano sempre abbastanza vicine
fra di loro e spesso riconosciute nel cielo come stelle del mattino o della sera.
Ciò si spiega a causa dei raggi dell’orbita attorno al sole dei due pianeti
interni, che risultano considerevolmente più piccoli di quello della terra, e
pertanto tali pianeti si trovano, rispetto ad un osservatore posto sulla terra,
vicini al sole e con angoli di separazione relativa piuttosto piccoli.
È diffusa la misconcezione che il sistema copernicano non avesse bisogno
degli epicicli, a differenza di quello tolemaico. In realtà questo non è cor-
retto. Copernico rimase aderente all’ideale aristotelico del moto circolare,
e pertanto dovette assumere che i pianeti, inclusa la terra, si muovevano di
moto circolare attorno al sole. Come vedremo in seguito, noi sappiamo che
il moto dei pianeti non è circolare ma in realtà ellittico. Pertanto anche il
sistema copernicano dovette ricorrere agli epicicli per produrre una maggior
consistenza con i dati osservativi, sebbene il numero di epicicli da introdurre
fosse chiaramente minore rispetto a quelli del sistema tolemaico.
Possiamo passare in rassegna tre caposaldi che fissavano l’astronomia
classica e medioevale: 1) L’assunzione che la terra fosse posta al centro
dell’universo. 2) L’assunzione che i corpi celesti si muovessero di moto circo-

8
lare uniforme. 3) Infine, l’idea che le sfere celesti consistessero di una sostanza
perfetta e immutabile che non si trovasse sulla terra.
Chiaramente, la proposta di Copernico andava contro la prima ipotesi,
ma rimaneva fedele alla seconda. Vale la pena di notare che, implicitamente,
veniva minata nel suo essere anche la terza ipotesi, in quanto si poneva la
terra, con tutta la sua corruttibilità e umanità nelle sfere celesti. Questo
mite abate, che ritardò fino alla morte la pubblicazione del suo capolavoro
per paura del ridicolo e delle ritorsioni da parte dei colleghi e del potere ec-
clesiastico, mise in moto un processo che portò alla più grande rivoluzione nel
pensiero scientifico occidentale. Con il secolo successivo, attraverso le opere
di Keplero, Galilei e Newton, basate sulla visione dell’universo elicentrico di
Copernico, le idee di Aristotele furono completamente spazzate via per venire
sostituite con idee moderne sulle scienze naturali e sull’astronomia. È pro-
prio questo processo, che è maturato molti anni dopo la morte di Copernico,
che viene indicato come la rivoluzione Copernicana.

1.4 Tycho Brahe e le tre leggi di Keplero


Da un punto di vista dell’accordo quantitativo con le osservazioni astro-
nomiche, il modello di Copernico non era in realtà sensibilmente superiore,
nelle sue capacità descrittive, rispetto al modello Tolemaico. Il punto era che
il data-base di Copernico era formato dalle antiche osservazioni dei Caldei e
dei Greci, integrate da osservazioni più recenti degli Arabi. Le osservazioni
dirette prodotte dallo stesso Copernico erano alquanto imprecise e sparse.
Inoltre alcuni dati in suo possesso risultarono in seguito nettamente incor-
retti. Ulteriori progressi necessitavono chiaramente di dati osservativi più
accurati, e fu proprio in questa veste che il danese (nato nella regione Sca-
nia, parte meridionale della Svezia, allora annessa alla Danimarca) Tycho
Brahe ebbe un ruolo determinante nel processo di affermazione del sistema
Copernicano. Tycho Brahe è considerato il massimo esperto di fenomeni as-
tronomici osservati ad occhio nudo (prima dell’avvento del telescipio). Fu
un geniale osservatore ed un abile esecutore di misure. Sebbene il suo con-
tributo fu determinante all’affermarsi della rivoluzione Copernicana, egli non
aderı̀ alla visione copernicana dell’universo, ma vi contrappose una visione
ibrida, geo-eliocentrica, in cui il sole e la luna girano attorno alla terra, e gli
altri pianeti girano attorno al sole. Egli accumulò più dati osservativi di chi-
unque altro prima di lui, inoltre produsse un compendio di posizioni continue

9
dei pianeti e una mappa stellare di quasi mille stelle. Divenne famoso nel
1572 per la scoperta di una stella che non era stata osservata in precedenza.
Questa stella rimase visibile per più di un anno senza mai cambiare la sua
posizione rispetto alle stelle fisse, per poi scomparire. Successivamente, fu in
grado di concludere che la grande cometa del 1577 si trovava oltre la sfera
lunare. Queste due osservazioni iniziano a far scuotere il sistema platonico e
aristotelico, di un universo celeste superlunare immutabile ed eterno, l’ideale
a cui aderirono sia Tolomeo, sia Copernico.
Tycho era un’anima eccentrica, con un aspetto singolare dovuto ad un
naso posticcio fatto di metalli preziosi, che rimpiazzava quello originale per-
duto da giovane durante un duello. Di famiglia ricca, potè compiere notevoli
osservazioni a sue spese, fino a quando il re Federico II di Danimarca gli con-
cesse l’isolotto di Huan per effettuare le sue osservazioni astronomiche che
durarono oltre un ventennio. Alla scomparsa del suo mecenate, i costi ecces-
sivi del suo osservatorio e gli eccessi caratteriali di Tycho fecero sı̀ che nel
1597 dovette abbandonare Huan e trasferirsi in Bohemia, sotto la protezione
dell’imperatore Rodolfo II.
Giovanni Keplero proveniva da una famiglia molto povera, era un mistico
che ottenne una posizione come matematico e astronomo a Graz. In seguito
alla pubbicazione di una sua opera importante, il Mysterium Cosmography-
cum (1596), fu notato sia da Brahe che da Galilei che iniziarono una cor-
rispondenza con lui. In seguito divenne allievo di Brahe, e alla sua morte,
ne fu il successore all’osservatorio di Benatek, e presso la corte di Rodolfo II.
Non fu un abile osservatore, ma spiccava per le sue competenze matematiche.
Ereditò gli scritti di Brahe. Non condivise la teoria geo-eliocentrica del suo
maestro, ma fu un convinto sostenitore della teoria copernicana, basando le
sue convinzioni su ragioni mistiche. Fra il 1600 e il 1606 lavorò sull’orbita
di Marte, cercando di descriverla attraverso combinazioni di moti circolari.
Egli raggiunse una descrizione che si accordava con le osservazioni di Tycho
entro otto minuti primi d’arco, ma convenne che la descrizione non poteva
essere corretta perchè le osservazioni del maestro erano ben più accurate del
suo errore.
Ecco l’emergere di uno dei caposaldi della scienza moderna: la necessità di
un accordo quantitativo fra descrizione teorica e misure sperimentali. Prima
di Brahe il modello astronomico veniva considerato corretto se l’accordo risul-
tava dell’ordine di dieci minuti primi d’arco. Tale scarto venne per lo meno
dimezzato grazie ai dati astronomici osservati da Brahe.

10
Fu proprio il problema dell’orbita di Marte, e lo studio lunghissimo (durò
circa ventanni!) sulle traiettorie dei pianeti e l’accordo con le catalogazioni di
Brahe che portarono Keplero a formulare le tre leggi empiriche che gli diedero
fama immortale e assicurarono il trionfo del copernicanesimo. Queste leggi
sono semplicemente un sunto conciso delle regolarità trovate da Keplero anal-
izzando una mole enorme di dati osservativi raccolti in moltissimi anni. Nella
loro qualità di leggi empiriche, esse non esprimono nessuna teoria sottostante.
Esprimono in maniera concisa - attraverso il linguaggio della matematica -
una regolarità nei fatti osservati. I suoi risultati e conclusioni furono pubbli-
cati attorno al 1620 in Epitome Astronomiae Copernicus.

La prima legge di Keplero: tutti i pianeti si muovono in un’ orbita


ellittica di cui il sole occupa uno dei due fuochi.

La seconda legge di Keplero: Un raggio disegnato dal sole al pianeta


spazza aree uguali in tempi uguali (ovvero la velocità areolare del
pianeta rispetto al sole è costante).

La terza legge di Keplero (detta anche legge delle armoniche): I quadrati


dei periodi di rivoluzione sono proporzionali ai cubi dei semiassi
maggiori delle rispettive orbite ellittiche. Questa legge mette in re-
lazione le traiettorie dei diversi pianeti che ruotano attorno al sole. Sappi-
amo che le orbite di ciascun pianeta sono ellittiche. Sappiamo che le orbite
ellittiche di ciascun pianeta sono percorse a velocità areolare costante. In-
fine sappiamo, per la legge delle armoniche, che se facciamo il rapporto fra il
quadrato del periodo di rivoluzione e il cubo del semiasse maggiore dell’ellisse,
questo rapporto è costante per tutti i pianeti che ruotano attorno al sole.
C’è infine un altro aspetto del pensiero di Keplero che va messo in evi-
denza. Egli ha per primo formulato l’esistenza di una forza fisica, che spinge
i pianeti nella loro traiettoria. Viene intuita l’esistenza di un qualche cosa
(un’anima motrice, una forza vitale) tramite la quale il sole fa mantenere i
pianeti nel loro moto. In qualche misura ciò si può connettere ad un’idea
germinale di quel programma che sarà poi compiuto dalla fisica newtoniana
attraverso la teoria della gravitazione.

11
1.5 L’attacco finale ai quattro caposaldi Tolemaico-
Aristotelici
Fu con Galileo e con Newton che si completò l’attacco decisivo ai quattro
presupposti base dell’universo tolemaico-aristotelico.
Facciamo un breve commento ai quattro presupposti.
1) La separazione fra mondo celeste e mondo sublunare, ovvero la divi-
sione fra il mondo terreno e il mondo celeste, ciascuno governato da un suo
specifico tipo di fisica. Il mondo terrestre, dove avvengono i cambiamenti, le
generazioni, la corruzione e la morte. Dove i processi si riferiscono ai corpi che
sono imperfetti per loro natura, e dove l’imperfezione stessa proviene dalla
mutevole mescolanza dei quattro elementi terreni di base. Il mondo celeste,
fatto di perfezione, regolarità ed eternamente uguale a se stesso, costituito
di incorruttibile quintessenza.
2) Il circolo come figura perfetta, per la descrizione delle traiettorie dei
pianeti. È ovvio che il moto circolare uniforme rappresenta l’ideale del moto
eterno, ed eternamente uguale a sè stesso. Presuppone l’esistenza di una
simmetria esatta nella disposizione dell’universo aristotelico, con la terra al
centro.
3) Ogni moto richiede un motore. Questa impostazione si rivela chiara-
mente quando abbiamo discusso i moti violenti: la necessità di trovare una
spiegazione del moto della freccia basata sull’aria che rientra da dietro la
freccia e la spinge in avanti. Oppure sul moto delle sfere celesti, che sono
spinte per trascinamento dalla sfera più esterna, il primum mobile.
4) Ogni motore agisce per contatto. È evidente nei due esempi del
punto precedente come l’azione della forza impressa avvenga per contatto.
Questa è una caratteristica importante della fisica aristotelica. Manca l’idea
dell’azione di una forza a distanza. A questo si aggiunge, nella fisica aris-
totelica, l’esistenza di un principio teleonomico nell’interpretazione dei moti
spontanei: i corpi si muovono (di moto spontaneo) per raggiungere il loro
fine, che è quello di raggiungere il loro luogo naturale. Il movimento spon-
taneo avviene perchè si vuole raggiungere un fine, che corrisponde al voler
posizionarsi nel proprio luogo naturale, proprio come avviene per gli organ-
ismi viventi che si muovono per raggiungere un loro obbiettivo. Emerge
dunque una costruzione del mondo fisico sul modello di essere o organismo
vivente. Tale visione dei moti spontanei, basata sul principio teleonomico od
organicistico, consente la riduzione del ruolo giocato dalle forze a quelle che

12
agiscono soltanto per contatto. L’avvento della scienza moderna romperà
con questo schema e riuscirà, attraverso l’introduzione del concetto di forza
a distanza, a sostituire la visione organicistica della natura con una visione
basata sul meccanicismo.
Galileo Galilei riuscı̀ ad abbattere i presupposti 1) e 3).
Per quanto riguarda il presupposto 1), Galilei fu un convinto sostenitore
del sistema copernicano. I corpi terresti non sono diversi da quelli terreni (la
superficie della luna è increspata, l’esistenza delle macchie solari. La scoperta
che anche il pianeta Giove ha le lune, similmente alla terra. Tutte osservazioni
che potè compiere, costruendo il cannocchiale e puntandolo verso il cielo).
Invece, relativamente al presupposto 2), egli fu il primo coerente sosten-
itore che il moto si autosostiene; avanzò l’idea che il moto sulla terra è in-
erziale, ovvero rettilineo uniforme se liberato dagli impedimenti. Fu merito di
Galilei quello di elaborare una fisica alla luce della quale l’astronomia coper-
nicana diventa possible. Vedremo più in dettaglio in seguito la questione del
moto. Ricordiamo qui che egli diede un contributo fondamentale alla prob-
lematica del moto, avanzando l’idea dell’esistenza di un principio di indipen-
denza dei fenomeni meccanici dallo stato di moto (uniforme) dell’osservatore.
“Rinserratevi con qualche amico nella maggiore stanza che sia sotto coverta
di un gran navilio, e quivi fate di aver mosche, farfalle o simili animaletti
volanti ... e stando ferma la nave, osservate diligentemente come quelli ani-
maletti volanti con pari velocità vanno verso tutte le parti della nave ..., poi
fate muovere con quanta si voglia velocità che (purchè il moto sia uniforme
e non fluttuante quà e là) voi non riconoscerete una minima mutazione in
tutti li nominati effetti, nè da alcuno di quelli potrete comprendere se la nave
cammina oppure sta ferma ...”.
Keplero invece scredita i presupposti 1) e 2), facendo trionfare il coper-
nicanesimo. I moti giacciono su orbite ellittiche, non concepisce l’inerzia,
concepisce però una forza che si indebolisce con la distanza e che fa spingere
i pianeti nelle loro orbite.
Lo scardinamento di tutti i quattro pregiudizi tolemaici-aristotelici avviene
nell’opera del 1687: “Philosophiae Naturalis Principia Mathematica”, di I.
Newton.
L’opera contiene :
1) i principi fondamentali della dinamica.
2) la legge di gravitazione universale.
Gli assiomi del moto sono:

13
Prima legge: Ciascun corpo persevera nel suo stato di quiete o di moto
rettilineo uniforme, eccetto che sia costretto a mutare quello stato da forze
impresse.
Seconda legge: Il cambiamento di moto è proporzionale alla forza motrice
impressa, ed avviene lungo la retta secondo la quale la forza è stata impressa.
Terza legge: ad ogni reazione corrisponde una reazione uguale e contraria:
ossia, le azioni dei due corpi sono sempre uguali fra di loro e dirette verso
parti opposte.
Nel terzo libro dei “Principia” Newton inoltre propone una spiegazione
del sistema del mondo, postulando la legge universale dei gravi.
“la gravità appartiene a tutti i corpi, ed è proporzionale alla quantità
di materia in ciascuno”. La gravità è una forza universale di attrazione
che agisce fra qualsiasi coppia di corpi, e decresce in misura inversamente
proporzionale al quadrato della distanza.
Sarà oggetto di una lezione successiva far vedere come Newton, attraverso
la sua teoria del mondo, riesce a spiegare le leggi di Keplero.

14
Figure 1: Aristotele strutturò l’universo in una serie di cieli composti di 55 sfere
cristalline concentriche, ad alcune delle quali i corpi celesti erano agganciati e ruo-
tavano a velocità differenti. Le sfere celesti ruotavano a velocità angolare costante
con la terra al suo centro. La figura illustra l’ordine con cui le sfere celesti a
cui erano agganciati i pianeti, il sole e la luna, erano disposti. La figura non è
in scala e i pianeti sono allineati per semplicità. In generale i pianeti sono dis-
allineati e si distribuiscono lungo i circoli. V’erano sfere addizionali (non illustrate
in figura) che stratificavano ulteriormente la struttura del cielo aristotelico. La
sfera della stelle fisse era rappresentata come uno strato esterno rispetto a quello
dei pianeti. Lo strato più esterno era costituito dal primum mobile che segnava i
confini dell’universo, il quale ruotava mosso da un motore immobile. Il moto di
rotazione del primum mobile trascinava con sè le sfere più interne che comunque
ruotavano a velocità differenti. Aggiustando la velocità delle sfere, si potevano
spiegare molte caratteristiche dei moti apparenti dei pianeti.

15
Figure 2: Un problema insoluto dell’astronomia antica era quello del temporaneo
moto retrogrado di alcuni pianeti rispetto alle stelle fisse, e l’associato cambio nella
luminosità apparente dei pianeti.

16
Figure 3: L’astronomia alessandrina raggiunse la soluzione del problema del moto
retrogrado con cambio di luminosità attraverso l’introduzione degli epicicli, senza
alterare la sostanza dell’ipotesi cosmologica aristotelica. I pianeti non erano attac-
cati direttamente alle sfere celesti, ma a cerchi collegati alle sfere celesti; i cerchi
venivano denominati epicicli. Le sfere celesti a cui tali epicicli erano attaccati veni-
vano denominate “deferenti”. I centri degli epicicli si muovevano di moto circolare
uniforme in conformità col moto della sfera celeste deferente. Simultaneamente,
l’epiciclo, a cui era attaccato il pianeta, si muoveva di un proprio ulteriore moto
circolare uniforme.

17
Figure 4: Il moto apparente dei pianeti, incluso il temporaneo movimento
retrogrado rispetto alle stelle fisse e il simultaneo aumento di luminosità
poteva venir spiegato dalla composizione dei due moti circolari uniformi che
formano il movimento del pianeta sull’epiciclo. Se si segue dalla terra la
posizione apparente del corpo celeste come se questa venisse proiettata sullo
schermo delle stelle fisse, la traiettoria che appare è del tipo di quella rapp-
resentata dalla linea celeste sul cielo stellato della figura. L’epiciclo consente
la struttura del movimento retrogrado sullo sfondo delle stelle fisse, nonch’è
la variazione di luminosità determinata dalla variazione della distanza fra
pianeta e terra nel corso dell’evoluzione della traiettoria del pianeta, pur sal-
vaguardando l’idea del moto circolare uniforme cosı̀ cruciale nella meccanica
celeste dell’antichità.

18
Figure 5: In sostanza, il semplice epiciclo non era sufficiente a spiegare i
dettagli del moto dei corpi celesti sulle sfere omocentriche. Ecco allora la
necessità di ricorrere a figure più complesse ed elaborate, come l’epiciclo
dell’epiciclo mostrato in figura. Oppure all’epiciclo con eccentrico, come
spiegato nel testo.

19
Figure 6: Il sistema copernicano.

Figure 7: Il moto retrogrado rispetto alle stelle fisse nel sistema copernicano.

20
Figure 8: La traiettoria dei pianeti secondo la prima legge di Keplero.

Figure 9: La seconda legge di Keplero: La velocità areolare è costante

21
CORSO DI FONDAMENTI STORICO-EPISTEMOLOGICI DELLA
FISICA 1

TERZA LEZIONE

L. Canton

Il testo e’ diviso in due parti: la prima parte riprende quanto fatto la


prima lezione in presenza e lo completa, mentre la seconda parte tratta il
discorso sulle diverse concezioni di sviluppo della scienza, e viene interamente
affrontato in questo terzo modulo, on line. Le due parti del corso si integrano
molto bene e pertanto vengono presentate in un testo unico. Il terzo modulo
inizia a pag. 12 del testo.
PRIMA PARTE

1 Introduzione
Gli insegnanti di fisica, matematica, e altre materie scientifiche delle scuole
superiori hanno come obbiettivo primario quello di cogliere gli specifici valori
formativi e culturali della propria disciplina e di trasmetterli nelle classi dove
insegnano (o andranno ad insegnare).
È importante che questa attività di sviluppo coinvolga tutti gli allievi
della classe, e non venga poi mirata soltanto agli allievi per i quali le materie
scientifiche risultano più congeniali. Una concezione della scuola secondo
la quale le materie scientifiche sono un’area di studio principalmente desti-
nata per coloro (tipicamente pochi) che hanno particolari inclinazioni verso
queste specifiche materie, ma che possono essere trascurate da coloro i quali
seguono con profitto le attività storico-letterarie, perchè quel tipo di attività
trasmette valori formativi più che sufficienti, depriva la scienza dei suoi speci-
fici contenuti e valori. È evidente l’esigenza di muoversi rapidamente verso

1
una società basata sempre più sulla conoscenza, e in questo contesto è fon-
damentale la presa di coscienza dell’importanza della diffusione della cultura
scientifica nella società.
Certamente il compito di sviluppare e diffondere la cultura scientifica
nella società non può gravare soltanto sugli insegnanti delle materie scien-
tifiche. Bisogna però osservare che l’esposizione a materie quali la fisica, la
matematica, la biologia, etc. per una larghissima parte della nostra società
si realizza e si conclude con la scuola secondaria. Pertanto, è a questo livello
che si può sperare di stimolare gli interessi negli allievi - che saranno i pro-
tagonisti della società del domani - e di fornire loro gli strumenti formativi
adeguati per poter partecipare più consapevolmente alle conquiste e alle sfide
scientifiche e tecnologiche dell’oggi e del domani.
Mi immagino di trovarmi di fronte ad una classe, il primo giorno di scuola.
Per prima cosa, mi porrei il compito di far destare negli allievi l’interesse
per la materia. Quale potrebbe essere il modo migliore per far lezione? Si
potrebbe partire dalla formulazione logico-matematica della teoria scientifica,
oppure seguire una impostazione basata sulla storia della scienza seguendo il
cammino, spesso tortuoso, che ha fatto l’autore di una scoperta scientifica,
oppure ancora: si potrebbe partire dalle applicazioni pratiche, che si possono
“toccare con mano” nella quotidianità e che influenzano la nostra esistenza
di tutti i giorni. Ovviamente una classe non è un organismo unico, ma è com-
posta da un insieme di menti con caratteristiche ciascuna diversa dalle altre.
Se si parte da una formulazione logico-matematica della teoria scientifica,
facendo risaltare il senso di coerenza interna della formulazione matematica
di una teoria, si colglierà l’attenzione di quegli studenti particolarmente orien-
tati verso un ragionamento di tipo logico-deduttivo, invece un’impostazione
in cui ci si basa su elementi di storia delle scienze sarà particolarmente adatta
per coloro i quali hanno in particolare inclinazioni storico-letterarie, e infine,
si può catturare l’attenzione delle menti più pratiche facendo riferimento alle
applicazioni d’uso comune che risultano dalle scoperte e dai progressi scien-
tifici. Per dirla secondo il Feynman, si tratta cioè di catturare l’attenzione
di studenti diversi con ami diversi, suggerendo che probabilmente la tec-
nica migliore è quella di mescolare le varie impostazioni alternando le varie
modalità di far lezione. Feynman riconosce che è difficilissimo riuscire a cat-
turare l’attenzione di tutti gli studenti di una classe in modo simultaneo,
e scherzandoci sopra, afferma che se il docente riesce a non far sbadigliare
tutti gli studenti nel medesimo istante, quel docente ha qualche speranza di

2
essersela cavata, con la sua lezione (...).
Gli insegnanti di materie scientifiche devono imparare da subito a combat-
tere i pregiudizi contro l’impostazione scientifica. Tali pregiudizi si verificano
talvolta nello stesso ambiente scolastico, sono radicati nella società comune,
e dunque si riflettono nelle concezioni di molti studenti.
Il problema si può evidenziare facendo la seguente domanda: c’è una
bellezza nella scienza? Spesso prevale la concezione secondo cui è l’artista
che riesce a percepire la bellezza di un tramonto, oppure di un fiore, men-
tre, la scienziato lo scompone in tanti pezzi, nei suoi elementi costituenti, e
conseguentemente ne fa scomparire il senso del bello.
Per prima cosa, si può obbiettare che per percepire la bellezza della natura
non occorre certo essere esperti d’arte, poichè la bellezza di un tramonto,
di un fiore, di un volo d’uccelli è accessibile a tutti e dunque anche agli
scienziati. E poi, la bellezza di un fiore non si esaurisce certo nella sua
contemplazione, c’è anche una bellezza nella sua organizzazione e struttura,
nei colori, negli odori, nei processi evolutivi che hanno portato naturalmente
il fiore ad assumere quelle forme e colori, nel chiederesi come il fiore riesca
a catturare l’attenzione degli insetti impollinatori: chissà se anche gli insetti
riescono a percepirne e ammirarne i colori, proprio come noi. E poi giù,
fino alla scala biochimica e molecolare, nei processi che mantengono in vita
il fiore e le consentono di essere quello che è. La conoscenza scientifica non
può che ampliare e dilatare il senso di bellezza, di meraviglia, di mistero,
di ammirazione che la natura suscita in tutti noi. Di certo non può farlo
diminuire.
Abbiamo parlato di cultura scientifica, vale la pena di ricordare alcuni
aspetti sul ruolo che la cultura scientifica ha nella società.
Chiariamo subito che la scienza non può dare una risposta a tutti i prob-
lemi dell’uomo. Per esempio, la scienza non è in grado di dare indicazioni
su quale sia il modo migliore con cui gli uomini si debbano organizzare per
vivere assieme. Vi sono problemi che esulano dal mondo della scienza, e
risposte che la scienza non è in grado di dare.
La scienza è però un potere: è il potere di fare. Potere che nasce dal “know
how” delle applicazioni tecnologiche. Le possibilità odierne che abbiamo di
viaggiare, di comunicare, di diagnosticare e sconfiggere le malattie, etc, etc,
nascono dagli sviluppi delle scoperte e invenzioni scientifiche. Sono il frutto
più tangibile del metodo con cui la scienza si sviluppa e genera conoscenza.
Inoltre la scienza produce idee e queste sono di due tipi: il primo tipo

3
idee riguarda quelle sulla visione del mondo che ci circonda. Idee e concezioni
dei molteplici aspetti della realtà in cui viviamo, che vanno dalla struttura
dell’infinitamente piccolo fino alle immense distanze e intervalli temporali nei
quali esiste e si evolve l’intero nostro universo. Idee che vengono generate
e sviluppate compatibilmente e coerentemente con le osservazioni che siamo
in grado di effettuare in natura ed in laboratorio. Questa è forse la cosa più
affascinante che la scienza riesce a produrre.
Il secondo tipo di idee riguardano i mezzi di indagine scientifica. Molti
scienziati ritengono che questo secondo tipo di idee siano uno dei contributi
fondamentali che la scienza ha portato all’umanità, e forse il contributo più
importante di tutti. Sono le idee sui metodi di validazione della conoscenza
scientifica. “Mezzi talmente ovvi ed evidenti di per sè che che si stenta a
capire come mai non sono stati scoperti prima. Idee semplici: provandole vedi
subito quello che succede. Probabilmente tutto dipende dal fatto che la mente
umana si è evoluta nello stesso modo in cui si evolvono i nuovi strumenti, e
come ogni altro strumento è tutt’altro che immune da imperfezioni. Gli inizi
di questa scoperta risalgono a Galileo Galilei” (Da R. Feynman, Il piacere di
scoprire).

2 Epistemologia
L’epistemologia affronta il problema della conoscenza, le sue possibilità e i
suoi limiti. Il suo ambito è molto vasto e all’interno del discorso epistemo-
logico si confrontano vari indirizzi e orientamenti filosofici. Lo studio della
conoscenza, la scienza della conoscenza, e infine la scienza della scienza pos-
sono esser considerate questioni di epistemologia.
Quest’ultima locuzione, scienza della scienza, mette in risalto l’aspetto di
meta-scienza dell’epistemologia, e affronta il problema di quale significato e
portata dare al sapere scientifico. Di come si giustifica l’impresa scientifica.
Questo tipo di epistemologia coinvolge aspetti e problematiche filosofiche
molto ampie, e che non possono venire chiuse certamente nell’ambito di
questo testo, sempre che sia possibile arrivare a conclusione su questi temi.
Del resto non si sa neppure quali siano i tipi di autori o studiosi in grado di
giustificare l’impresa scientifica, e in base a quali meriti e valori (scientifici,
filosofici, economici, sociali?).
La discussione epistemologica che si affronta in questa sede non ha am-

4
bizioni cosı̀ elevate e generali. È una discussione che si vuole sia mantenenuta
all’interno della stessa scienza, dove gli attori principali sono i ricercatori e gli
stessi scienziati. L’epistemologia delle discipline fisiche affronta i temi della
struttura e limiti di validità della conoscenza e del progresso scientifico. Stu-
dia e analizza i metodi di indagine scientifica, e di come sia eventualmente
possibile migliorarli e applicarli a nuove scienze. Discute su quali siano le
modalità con cui l’indagine scientifica possa diventare uno strumento per
conoscere meglio il mondo, e conseguentemente di vivere meglio la realtà
che ci circonda. È un’epistemologia che vuole mettere in evidenza il modo
di procedere e di ragionare che sta dentro e dietro al processo di sviluppo
del sapere scientifico. Essa consente di rivisitare alcuni episodi chiave della
fisica, opportunatamente scelti, per meglio far comprendere che la fisica è un
processo -spesso intricato- di crescita della conoscenza, e non un elenco di
formule risolutive tabulate per ogni situazione.
Falsi convincimenti a proposito della scienza sono stati messi in evidenza
in modo estremamente chiaro da H. Poincaré (1954-1912) nei suoi scritti
epistemologici: L’osservatore superficiale del mondo scientifico ritiene che
la verità scientifica sia al di fuori di ogni possibile dubbio e la logica della
scienza sia infallibile; se gli scienziati si ingannano è perchè ne disconoscono le
regole. Le verità matematiche derivano, attraverso un una catena di ragion-
amenti irreprensibili, da un piccolo insieme di proposizioni autoevidenti che
si impongono non solamente a noi, ma anche alla natura. Esse incatenano,
per cosı̀ dire, il Creatore e gli permettono di operare scelte con poche possi-
bili opzioni. Basterà qualche osservazione o esperimento per capire l’opzione
scelta dal creatore, e da ogni esperienza conseguiranno una moltitudine di de-
duzioni matematiche, che ci faranno conoscere come è fatto il mondo. Però,
dopo aver riflettuto un pò, scopriamo il ruolo fondamentale per il progresso
scientifico che ha avuto l’ipotesi. Nè il matematico, nè il fisico sperimenta-
tore saprebbero privarsene. Il fatto che le costruzioni scientifiche dipendano
dall’ipotesi può far pensare che le costruzioni scientifiche siano dei castelli
campati in aria. Essere cosı̀ scettici vuol dire ancora essere superficiali. Du-
bitare di tutto o credere a tutto sono due soluzioni egualmente comode ed
entrambe ci risparmiano di pensare.
È fondamentale nella scienza analizzare bene il ruolo delle ipotesi: solo
in questo modo potremo scoprire che l’ipotesi è necessaria, ma anche il più
delle volte legittima.
Le ipotesi possono a volte essere verificabili, possono essere confermate

5
dall’esperienza, e diventare verità feconde. Le ipotesi possono essere in-
oltre strumenti utili per fissare il nostro pensiero. A volte le ipotesi pos-
sono essere soltanto apparenti e ridursi a mere definizioni o a convenzioni
camuffate. Queste convenzioni sono libere creazioni della nostra mente che
in questo campo non conosce ostacoli. La nostra mente ha sconfinate ca-
pacità nell’inventare ipotesi. Essa decreta queste convenzioni, imponen-
dole alla nostra scienza che senza queste invenzioni sarebbe impossibile, ma
non alla natura. Tutto questo può far nascere il sospetto: ma allora, la
scienza é una costruzione arbitraria ? No, perche l’esperienza ci indica la
via da seguire, ci lascia la nostra libera scelta, ma ci aiuta a capire qual è
la strada più comoda, quella che realizza la maggiore economia di pensiero.
La libertà non è l’arbitrio. Se cosı̀ fosse la scienza sarebbe impotente. Ma
noi vediamo che la scienza è un potere, (è il potere di fare, come si è detto
precedentemente citando Feynman) e la sua utilità non potrebbe accadere se
non ci facesse conoscere qualcosa della realtà. Attraverso la scienza, però,
noi non possiamo raggiungere la realtà delle cose, realtà indipendente da noi,
ma solamente i rapporti tra le cose. Al di fuori di questi rapporti, non esiste
realtà conoscibile.
La visione della scienza, cosı̀ come la vede Poincaré, concepisce lo scienzi-
ato come un principe assoluto, ma saggio che consulta il suo consiglio di stato
(impersonato dall’Esperimento, e dal Rigore Matematico) prima di emanare
i suoi decreti e dettare le sue leggi.

3 Conoscere il mondo che ci circonda


Come si può percepire da quanto detto fin’ora, la discussione epistemologica
affronta temi complessi, sulla natura della conoscenza e dell’oggettività, che
da secoli turbano i filosofi. Un’avvertenza prima di trattare questi temi. Non
è necessario essere d’accordo con le posizioni epistemologiche che verranno
espresse; lo scopo della prima parte del corso è quello di fornire un panorama
(naturalmente introduttivo, e quindi limitato, ma spero sufficientemente am-
pio per gli scopi precedentemente dichiarati) di posizioni epistemologiche che
sono state proposte in filosofia della scienza, a partire da quelle iniziali e
più semplici, in modo che ciascun lettore possa elaborarle e individuare nel
suddetto spettro di posizioni quella che trova più significativa, più convin-
cente, tenendo presente anche l’esistenza di posizioni difformi. Qualsiasi sia

6
l’orientamento epistemologico che uno vorrà considerare nel proprio modo di
insegnare, è bene ricordare di non portare all’eccesso la propria posizione,
ma di mantenerla nei limiti della ragionevolezza, del giusto equilibrio, della
moderazione.

3.1 Solipsismo (e scetticismo radicale)


Come possiamo sperare di raggiungere una conoscenza oggettiva - non nec-
essariamente certa, ma anche approssimata, incompleta - del mondo intorno
a noi?
Noi non abbiamo mai accesso diretto al mondo esterno, noi abbiamo
accesso soltanto ai nostri sensi. Come sappiamo che esiste qualcosa al di
fuori delle nostre sensazioni?
La posizione solipsista è una posizione inconfutabile, nel senso che non ab-
biamo dimostrazione alcuna che il mondo esterno a noi sia perfettamente reale
e sia cosı̀ come lo percepiamo. Tuttavia questa posizione, sebbene logica-
mente coerente, boccherebbe in partenza qualsiasi possibilità di conoscenza,
e si dubita che esista un solo solipsista convinto, o perlomeno non è noto
che se ne sia mai incontrato uno1 . Ovviamente se una persona persistesse
nel suo convincimento di “essere un clavicembalo che suona da solo” non ci
sarebbe nessun modo di convincerlo del contrario. È ragionevole pensare che
esistano agenti esterni alla nostra coscienza, osservando la persistenza delle
nostre sensazioni. Soprattutto quelle spiacevoli. Non si può sperare di fer-
mare una guerra, far sparire le malattie, oppure far partire una macchina in
avaria solo con l’esercizio del proprio pensiero. Bisogna far attenzione, perchè
questa non è una confutazione del solipsismo: ma il semplice fatto che una
posizione non sia confutabile non implica che tale posizione debba essere
necessariamente vera. Posizione in sostanza simile a quella del solipsismo è
quella dello scetticicismo radicale: in questo caso uno ammette l’esistenza
di una realtà esterna e indipendente da noi, ma sostiene l’impossibilità di
ottenerne una conoscenza affidabile. Anche se esiste una realtà esterna, le
nostre percezioni sono troppo inaffidabili per la conoscenza del mondo es-
terno. Entrambe queste posizioni giungono alla stessa conclusione, ovvero,
1
A dire il vero, Bertrand Russel racconta che una volta ha ricevuto una lettera da un
logico matematico eminente (tale Christine Ladd Franklin) la quale sosteneva di essere
una solipsista ed era sorpresa del fatto che non ce ne fossero altri, o perlomeno non ne
aveva mai incontrato nessun altro

7
ogni conoscenza del mondo in cui viviamo ci è preclusa perchè non abbiamo
garanzie che le nostre sensazioni riflettano in misura sufficientemente accu-
rata la realtà. È necessario allora invocare un argomento a priori, come ad
esempio nella filosofia di Descartes e dei razionalisti, in cui idee innate ven-
gono innestate da un Dio benevolo nella mente umana, per poter avere la
garanzia che le nostre percezioni riflettano la realtà esterna in modo accurato.
Sulla questione interviene anche D. Hume, 1748 (Ricerca sull’intelletto
umano) “È una questione di fatto, se le percezioni dei sensi sono prodotte
da oggetti esterni, che assomigliano ad esse, oppure no? Come risolveremo
questa questione ? Certamente per mezzo dell’esperienza; come tutte le altre
questioni simili. Ma qui l’esperienza è, e deve essere, interamente muta. La
mente non ha mai presente alcunchè, se non percezioni, e non è possibile che
le riesca di conseguire esperienza alcuna della connessione fra le percezioni e
gli oggetti. La supposizione di una simile connessione è perciò senza alcun
fondamento razionale.”
Lo scetticismo radicale o sistematico (assumere che le nostre percezioni
ci ingannino sistematicamente) sebbene inconfutabile, non porta da nessuna
parte. Le ragioni del suo rigetto sono le stesse del solipsismo. L’accettazione
di queste posizioni porterebbe automaticamente alla negazione del valore
conoscitivo della scienza. Il modo migliore per spiegare la coerenza della
nostra esperienza è di supporre che il mondo esterno corrisponda, almeno
approssimativamente, all’immagine che di esso ci offrono i nostri sensi. A sup-
porto di questa posizione possiamo considerare la teoria biologica dell’evoluzio-
ne. Chiaramente il possedere organi sensori che riflettono più o meno accu-
ratamente il mondo esterno conferisce un vantaggio evolutivo. È piuttosto
ragionevole pensare che, come prodotto di una catena evolutiva, i nostri sensi
si siano affinati in modo da riprodurre con buona accuratezza la realtà del
mondo esterna a noi.
Quale atteggiameno prendere davanti allo scetticismo radicale? Bisogna
osservare che tale scetticismo si deve applicare a tutte le nostre conoscenze:
non solo all’esistenza degli atomi, degli elettroni, delle proteine e dei geni,
ma anche alla circolazione del sangue nei vasi (arterie e vene) del nostro
corpo, al fatto che la terra sia (più o meno) rotonda e addirittura ai fatti più
banali della nostra quotidianità (per esempio l’esistenza della sedia su cui
stiamo seduti). Infatti, anche le conoscenze più banali dipendono interamente
dall’assunzione che le nostre percezioni non ci ingannino in modo sistematico.
L’esistenza di un inganno sistematico da parte dei nostri sensi ci porterebbe a

8
negare anche l’esistenza di un substrato oggettivo riguardo ai fatti più banali
e comuni della nostra vita, non minerebbe soltanto la possibilità di poter
costruire una conoscenza scientifica. In altre parole, è proprio il carattere
di universalità dello scetticismo humeano a renderlo poco convincente. A
questo proposito, vale la pena di citare Leonardo Eulero (1761):
‘‘Quando il mio cervello provoca nella mia anima
la sensazione di un albero o di una casa,
io affermo con forza che esiste realmente
fuori di me un albero o una casa,
di cui io conosco il luogo, la grandezza e altre proprietà.
In generale, non c’è uomo o bestia che dubiti di questa verità.
Se un contadino volesse dubitarne e dicesse,
per esempio, che il suo balivio non esiste,
per quanto stia davanti a lui,
lo si prenderebbe per pazzo, ed a ragione:
ma una volta che un filosofo avanza tali sentimenti,
egli si aspetta che il suo spitito e la sua sagacità,
che sorpassano infinitamente quelli del popolo, siano ammirati.’’

Si osservi che affermare il carattere poco convincente dello scetticismo


radicale (per quanto la posizione sia, come abbiamo già detto, inconfutabile)
non vuol dire che si abbia una spiegazione convincente sul modo con cui si
stabilisce una corrispondenza tra la realtà oggettiva e le nostre percezioni.

3.2 Schema a tre livelli


Possiamo rappresentare in maniera schematica i rapporti che la nostra mente
individuale riesce ad instaurare attraverso le percezioni sensoriali e il linguag-
gio secondo la tabella Tab. 1.

3.3 Realismo ingenuo


Una volta superato lo scoglio del solipsismo e dello scetticismo radicale, pos-
siamo iniziare a discutere sui processi cognitivi sia nell’ambito della scienza,
sia nell’ambito della quotidianità. La tesi del “realismo ingenuo” si presenta

9
↔ ↔
P L
E I
R N
C G
realtà E mente U mente
oggettiva Z individuale A collettiva
I G
O G
N I
I O
↔ ↔

Table 1: Schema del mondo a tre livelli. La mente individuale interagisce


colla realtà del mondo esterno attraverso le percezioni, i sensi. Ovviamente, la
nostra mente ha accesso diretto soltanto ai nostri sensi, noi non abbiamo ac-
cesso diretto alla realtà oggettiva. La nostra mente inoltre stabilisce rapporti
anche con l’insieme dei nostri simili, attraverso il linguaggio. Ciò consente
di uscire dalla soggettività dell’esperienza individuale, potendo effettuare an-
che esperienze e osservazioni riproducibili da parte di altri osservatori. La
riproducibilità da parte di altre menti dotate di raziocinio non rendono le
osservazioni “oggettive” ma conferiscono all’esperienza o all’osservazione ef-
fettuata il valore dell’ “intersoggettività”.

10
come una tesi naturale, ragionevole e perfettamente accettabile dal senso co-
mune. Al contrario di quella paradossale del solipsismo, che è inconfutabile
logicamente, la tesi del tutto ragionevole del realismo ingenuo si presenta, ad
un’analisi più approfondita, difficile da sostenere. Il realismo ingenuo si fonda
sulla convinzione che esista una connessione completamente soddisfacente tra
la realtà oggettiva e il mondo delle percezioni sensoriali. (nel senso che sia
possibile determinare in maniera completa la natura della connessione fra
percezioni e le cause esterne delle percezioni)
La posizione del “realista ingenuo” si riassume nel seguente modo: Esiste
una realtà esterna che trascende i soggetti conoscenti ovvero il mondo delle
percezioni (il mondo fenomenico). Noi siamo legati a questa “realtà vera”
attraverso i sensi con un doppio filo. 1) Questa realtà vera è il fondamento,
cioè la causa, delle nostre percezioni e 2) occorre partire dalle percezioni per
conoscere la realtà del mondo.
Per quanto riguarda il primo tratto del filo, cioè quello che vi è un mondo
indipendente che starebbe alla base del mondo delle percezioni e che ne
sarebbe la causa, Kant ha dimostrato che la causalità è in grado di sta-
bilire nessi applicabili soltanto al mondo delle percezioni. La categoria della
causalità non è in grado di designare rapporti fra il mondo fenomenico e la
vera realtà esterna ed indipendente da noi che gli starebbe alla base. Un
conto è sostenere che la persistenza delle percezioni (soprattutto quelle spi-
acevoli!) ci induce a credere che esiste un mondo oggettivo al di là delle
nostre percezioni, un altro è pretendere di stabilire quale sia il nesso fra il
mondo fenomenico e la realtà oggettiva che vi sta a fondamento.
La seconda connessione fra mondo delle percezioni e mondo della realtà
oggettiva, secondo cui partendo dalle percezioni possiamo conoscere la realtà
del mondo esterno da noi, presenta difficoltà ancora più marcate. Non si
vede come si possa passare dal mondo delle percezioni, su cui instauriamo le
nostre conoscenze, a quello della realtà oggettiva che ne sta a fondamento e
trascende completamente le percezioni.
Fra i tentativi di superare le difficoltà del realismo ingenuo salvando
l’istanza del realismo, possiamo annoverarne almeno due:
1) Il realismo matematizzante. Questa posizione attribuisce alla matem-
atica il potere di trascendere le percezioni per giungere alla realtà sottostante
il mondo fenomenico. La concezione di questo tipo di realismo è quella di
raggiungere la vera natura delle cose attraverso il calcolo. Tale impostazione
è caduta per la plurivocità della matematica (e molte altre cose, per esem-

11
pio i teoremi di Gödel, però queste problematiche esulano dagli argomenti di
questa lezione.)
2) Il realismo fideistico. Questa posizione rifiuta di attribuire sia al mondo
delle percezioni, sia alla razionalità della matematica, la capacità di farci pen-
etrare al nocciolo della realtà. È soltanto attraverso l’esistenza di un atto
intuitivo, dotato di un supporto irrazionale, che noi riusciamo ad accedere
alla realtà oggettiva esterna da noi.

3.4 Il realismo nel programma di ricerca meccanicis-


tico
Il meccanicismo è quel programma di ricerca sviluppatosi in seguito all’indubbio
fulgido successo della meccanica di Galilei e di Newton.
Il meccanicismo prevede l’interpretazione di tutti i fenomeni fisici (non
solo il moto, ma anche quelli acustici, ottici, termici, elettrici e magnetici)
in termini meccanici, ovvero come risultato di forze attrattive e repulsive
agenti fra particelle materiali invariabili e che dipendano unicamente dalla
distanza, e di dare poi una spiegazione dei corrispondenti fenomeni basandosi
sulle leggi fondamentali della meccanica. Alla base di questa impostazione, vi
è la convinzione che le teorie meccaniche costituiscono una rappresentazione
esatta e certa della struttura reale del mondo fisico. Gli assiomi, o principi
della meccanica, sono proposizioni vere che pongono la meccanica a base
sicura e definitiva (cioè a fondamento ultimo) dell’intera rappresentazione del
mondo fisico. Secondo questa impostazione, vi è la possibilità di realizzare
la completa intelleggibilità della natura, riconducendo i fenomeni naturali
a sistemi meccanici interagenti a distanza. La visione sottesa viene ben
riassunta dalle parole di A. Einstein: “ Dio creò le leggi di Newton assieme alle
masse e alle forze necessarie. Questo è tutto, perchè il resto è una questione
di puro calcolo.” È evidente la rigidezza dogmatica, anzi si può addirittura
parlare di un dogmatismo ingenuo.
Il declino del programma di ricerca meccanicistico si ebbe verso la fine
dell’Ottocento in seguito all’esaurirsi dlla spinta propulsiva di tale programma,
e all’evidenziarsi di alcune difficoltà insite in tale approccio. Tutto ciò portò
alla modifica del significato conoscitivo insito nelle teorie fisiche e scientifiche.
Quest’ultime infatti non sono più considerabili come sistemi di proposizioni
vere, ma solo sistemi di ipotesi, sempre controllabili e modificabili, mai defini-

12
tive. Citiamo, fra le molte difficoltà riscontrate nel programma di ricerca
meccanicistico, il fallimento dei ripetuti tentativi di dare una coerente spie-
gazione dell’etere quale mezzo di trasmissione delle onde luminose. Mach,
Poincaré, Duhem furono i protagonisti della critica al programma di ricerca
meccanicistico.

3.5 Il convenzionalismo come superamento del pro-


gramma di ricerca meccanicistico
Queste critiche all’ impostazione epistemologica del meccanicismo portarono
all’abbandono delle istanze realiste, che vogliono attribuire alle teorie scien-
tifiche la capacità di saper dare una rappresentazione della realtà che sta
sta alla base del mondo delle percezioni. L’indirizzo di pensiero che opera la
svolta, verso fine ottocento, è il convenzionalismo. Il valore della teoria scien-
tifica sta nella capacità di rappresentare una sintesi delle esperienze, ovvero
una economia di pensiero rispetto alle molteplicità dei dati sperimentali. Il
valore della teoria scientifica si manifesta nella capacità di riprodurre i dati
con il calcolo, o di anticipare attraverso il pensiero i risultati delle misure
di laboratorio (le previsioni). I concetti scientifici diventano schemi d’ordine
che razionalizzano le osservazioni del quotidiano e del laboratorio, senza avere
carattere nè di necessità nè di verità. Il fatto che la meccanica costituisca la
vera rappresentazione del mondo fisico diventa un pregiudizio.
Secondo Mach, non bisogna perdere di vista il fatto che le teorie sono
strumenti scientifici elaborati storicamente e storicamente modificabili. Le
teorie fisiche non sono spiegazioni che dalle osservazioni ci fanno risalire alla
realtà spogliata dalle apparenze. Sono un sistema di proposizioni matem-
atiche che, dedotte da un ristretto numero di principi, hanno lo scopo di
rappresentare nel modo più semplice, più completo, più esatto, un insieme
di leggi sperimentali.
Anche Poincarè va oltre l’idea della scienza come concezione di conoscenza
certa della realtà, attribuendole un carattere convenzionale: nulla può farci
sapere qual è la vera natura delle cose. La scienza può cogliere i rapporti fra
gli oggetti che percepiamo, essa mette in relazione osservazioni sensibili ap-
parentemente scollegate. È soprattutto classificazione, in grado di relazionare
i fatti attraverso i collegamenti. È oggettiva, ma non vera.
Sorge un problema: se si attribuisce carattere convenzionale alla conoscenza

13
scientifica, come possiamo attribuire valori alle teorie scientifiche? In altre
parole, come possiamo decidere quali siano accettabili e quali invece non lo
sono?
Si può partire dall’indirizzo di pensiero noto come utilitarismo: i principi
di una teoria fisica sono accettabili in un dato ambito fenomenico se possono
venire applicati utilmente (le teorie sono utili in quanto strumenti per la
previsione e riproduzione di dati sperimentali); le teorie che non soddisfano
il criterio di utilità vanno quindi scartate.
Ridurre il significato della scienza alla sola dimensione dell’utile è però
troppo riduttivo anche per gli stessi convenzionalisti, in quanto nega la pos-
sibilità che la scienza possa avere un qualche valore conoscitivo. In realtà
l’indirizzo convenzionalista è più aperto alle tematiche cognitive; esso am-
mette un valore di verità nelle teorie scientifiche, ma è una verità in qualche
modo relativa, contestualizzata, e pertanto modificabile (per esempio da
nuovi dati sperimentali), mai assoluta e immutabile. In questo senso l’utilità
di una teoria non è scollegata dalla possibilità che tale teoria sia una teo-
ria “vera” (cioè che abbia colto un qualche parziale elemento di oggettività
rispetto al reale). In conclusione, la forza del convenzionalismo sta nella sua
contrapposizione all’implicito essenzialismo del realismo ingenuo, ovvero alla
sua pretesa capacità di trovare una spiegazione ultima dei fenomeni.

SECONDA PARTE

4 Lo sviluppo della scienza


Nella prima parte abbiamo la volta scorsa introdotto alcune concezioni del
sapere scientifico illustrando uno spettro di posizioni epistemologiche che
vanno dal realismo al convenzionalismo e all’utilitarismo.
È evidente che la conoscenza scientifica non può essere in grado di fornirci
delle verità assolute e immodificabili, ma soltanto delle conoscenze oggettive,
delle verità parziali, sempre modificabili perchè oggetto di ulteriori appro-
fondimenti, possibili attraverso la conquista di ulteriori dati osservativi, e
di nuove interpretazioni teoriche degli stessi dati. La visione della scienza
come una successione illimitata di approfondimenti ulteriori porta immedi-
atamente alla questione di come si accumula la conoscenza scientifica, ovvero
di “come cresce la scienza”.

14
Possiamo esporre in maniera molto schematica le interpretazioni classiche
o tradizionali di come si accumula la conoscenza nella scienza:

4.1 Lo schema Galileiano.


Questo schema prende a paradigma quanto avvenuto nel periodo che ha
visto, grazie a Galilei, la nascita e i primi albori della scienza moderna, e
risente dell’influsso dovuto alle notevoli aspettative e fiducia che i ricerca-
tori dell’epoca riversavano nella loro attività. Secondo lo schema Galileiano,
l’Universo è ritagliabile in zone indipendenti fra di loro. L’idea della “Sep-
arabilità dell’Universo” esprime proprio questa concezione. Si può isolare
una zona dell’Universo, oppure un dato fenomeno, e studiarlo fino a rag-
giungere una conoscenza assoluta e perfetta senza dover studiare o conoscere
quello che succede in altre zone dell’Universo. È possibile circoscrivere un
dato fenomeno e raggiungere una conoscenza intensiva in un ambito ben cir-
coscritto. Questo presuppone una costruzione della conoscenza scientifica
per semplice accumulo, più o meno come avviene per un muro fatto di mat-
toni. Ciascun scienziato aggiunge il suo mattoncino all’edificio globale della
scienza; una volta che il mattone viene deposto, esso è immutabile e assoluto
e costituisce la base su cui gli altri scienziati si appoggiano per aggiungere al-
tri mattoni alla conoscenza. L’idea che emerge è quella di una conoscenza per
accumulazione, senza sentire il bisogno di dover approfondire ulteriormente
“tasselli” di conoscenza precedenti, in quanto questi tasselli sono frammenti
di verità assoluta in grado di descrivere una realtà oggettiva associata ad un
dato gruppo di fenomeni.

4.2 Lo schema Laplaciano


Secondo lo schema Laplaciano, l’Universo non è circoscrivibile in settori fra
loro indipendenti, per cui non si può raggiungere una conoscenza assoluta e
perfetta in un dato settore senza aver raggiunto una conoscenza altrettanto
adeguata per ciò che concerne tutti gli altri settori dell’Universo. Questo
perchè Laplace aveva una concezione meccanicistica totalizzante, olistica,
della natura. La natura veniva concepita come un unico grande orologio,
regolato da leggi rigorosamente deterministiche: non è possibile conoscere
l’Universo se mancano dei pezzi di conoscenza nella grande catena causale.
Di conseguenza non è possibile conoscere l’Universo nella sua Totalità, ma

15
neppure nelle sue situazioni locali (nei sui singoli pezzi) se non siamo in grado
di comprendere tutte le connessioni che uniscono le singole parti con il tutto.
La conoscenza perfetta ed assoluta, secondo Laplace, non è umanamente
accessibile. Soltanto un’intelligenza suprema, nota come “il demone di Laplace”
può accedere al sapere assoluto, attraverso una conoscenza precisissima di
tutti i dettagli del quadro generale dell’esperienza, e il dominio assoluto di
tutte le tecniche matematiche. Solo cosı̀ si può raggiungere una formulazione
in grado di descrivere presente, passato e futuro degli eventi naturali.
La conoscenza umana non potrà mai essere di questo tipo, perchè sarà
sempre una conoscenza parziale, incerta e quindi soltanto probabile di sin-
goli eventi. Man mano che il sapere scientifico si accumula, la conoscenza
umana si avvicinerà sempre di più alla conoscenza del “demone”, senza per-
altro poterla raggiungere. Secondo questa concezione, l’apertura di un nuovo
fronte di conoscenze in un dato campo si ripercuote sull’intero corpo di
conoscenze già acquisite, che quindi vanno rivisitate e approfondite. Questo
processo rende il sapere scientifico via via meno incerto, più probabile.

4.3 Lo schema Kleiniano.


Tale schema di crescita della scienza viene esposto nel 1872 da Felix Klein,
nel cosiddetto “programma di Erlangen”. In questo caso la crescita della
conoscenza passa attraverso il processo di generalizzazione, secondo il quale le
teorie si sviluppano disponendosi in una scala gerarchica, che dispone ai livelli
più elevati le teorie più generali e profonde, che includono le precedenti come
casi particolari. Nel programma di Erlangen il processo di crescita del sapere
viene illustrato facendo riferimento ai progressi raggiunti nel campo delle
teorie geometriche (metriche, affini, proiettive) ma si indica come crescita del
sapere secondo lo schema kleiniano ogni sviluppo che implica un passaggio
attraverso un processo di generalizzazione.

4.4 Analisi degli schemi tradizionali


Per quanto riguarda lo schema Galileiano, è ovvio che questa concezione
dello sviluppo del sapere costituı̀ uno stimolo e un’iniezione di fiducia per la
scienza che iniziava, proprio allora, a compiere i primi passi. La necessità
storica di questa impostazione risulta evidente se consideriamo che la scienza
Galileiana doveva competere contro una concezione della natura dogmatica

16
e assoluta che si rifaceva ad Aristotele. Ma lo schema Galileiano è una tesi
insostenibile per la pretesa di arrivare ad una conoscenza “vera” e assoluta
in situazioni isolate dell’Universo. Lo schema non prende in considerazione il
fatto che il progresso scientifico autentico richiede in taluni casi l’abbandono
delle concezioni scientifiche precedentemente sviluppate e date per buone. È
proprio il carattere di universalità del sapere scientifico a richiedere talvolta
l’abbandono delle concezioni scientifiche precedentemente sviluppate, e ciò
va in chiaro contrasto con lo schema galileiano di crescita per accumulo.
Lo schema Laplaciano, invece, permette un’interpretazione più artico-
lata dello sviluppo del sapere scientifico. Per esempio, questa concezione
prevede che le conoscenze successive soppiantino le teorie scientifiche accred-
itate precedentemente. Viene a mancare dunque l’attributo di valore assoluto
alla conoscenza umana. La verità assoluta della conoscenza viene ammessa
soltanto come attributo limite accessibile all’intelligenza suprema del demone
di Laplace. La conoscenza “vera” e assoluta si realizza soltanto come limite
di crescita della reale conoscenza umana. Quest’ultima si mantiene pertanto
in un ambito limitato di verità probabile. Lo schema Laplaciano descrive
il processo di conoscenza del sapere umano come un processo molto artico-
lato, in cui la conoscenza assoluta si realizza come il limite a cui tende la
conoscenza dell’uomo per approssimazioni successive.
Lo schema kleiniano, infine, può andare bene per descrivere lo sviluppo
del sapere per alcune particolari situazioni che ben si addicono alla crescita
per generalizzazione, ma ovviamente, non si può utilizzare in tutte le situ-
azioni: vi sono teorie scientifiche che sono state sviluppate in evidente antitesi
rispetto a conoscenze date per acquisite in precedenza.
Man mano che uno assiste allo svolgersi del progresso scientifico, si osserva
una moltitudine di vie lungo le quali la scienza ha svolto percorsi di ampli-
amento ed approfondimento. Vale la pena di chiedersi: esiste uno schema
unico? E se esiste, in che modo dobbiamo ragionare sullo sviluppo del sapere
scientifico?

5 Sulla questione della rivoluzione scientifica


Gli schemi precedentemente discussi tendono a scoprire una caratterizzazione
generale della crescita della scienza.
Questi schemi però, in qualche modo non tengono conto dell’osservazione

17
che la crescita della scienza non venne impedita, ma anzi stimolata dal crollo
di alcune teorie, come quella di Newton ad opera di Enstein, cui era stato
attribuito valore incontestabile in precedenza. Questo caratteristica del pro-
gresso scientifico risulta di non facile interpretazione, e vale la pena di sof-
fermarsi su alcune posizioni assunte a riguardo da alcuni eminenti studiosi.
Popper propone, in primo luogo, di cercare un criterio di demarcazione
fra le teorie scientifiche e teorie non scientifiche, e ritiene che la nozione di
falsicabilità fornisca il criterio cercato.
Una teoria scientifica deve essere in grado di fare delle predizioni sull’andamento
di certi eventi del mondo reale, e se le predizioni teoriche non sono confermate
dalle osservazioni e dai dati sensibili allora le predizioni teoriche risulteranno
essere false. Quindi si può asserire che una teoria assume la caratteristica
di essere una teoria scientifica quando è in grado di fare delle previsioni su
eventi reali, che possono, in linea generale, anche essere non confermati sper-
imentalmente. In pratica, la demarcazione fra una teoria scientifica e una
teoria non scientifica avviene col seguente criterio: se una teoria mette in
gioco il suo valore facendo delle previsioni che si potrebbe anche dimostrare
essere false (facendo il confronto col dato sensibile) allora questa sua carat-
teristica, la falsicabilità, la fa essere una teoria scientifica. Invece una teoria
che non accetta il criterio di falsicabilità e il confronto con le osservazioni
sperimentali non può essere considerata una teoria scientifica.
Una teoria scientifica è quindi una teoria falsificabile, cioè soggetta a
continui controlli di falsificazione. Se le misure sperimentali contraddicono
una teoria scientifica ne consegue che la teoria è falsa e nella sua forma attuale
deve essere respinta. In definitiva, siccome è difficile provare la verità di una
teoria scientifica, Popper risolve la questione dicendo che si può dimostrare
quando una teoria è falsa.
Naturalmente, il criterio di falsicabilità per demarcare le teorie scientifiche
ha alcuni seri problemi, e va preso con molta attenzione. Per esempio ab-
bandonare la verificabilità e ripiegare sulla falsicabilità significa pagare un
prezzo piuttosto alto: la storia delle scienze ci dice che le teorie vengono ac-
cettate più per i successi che riescono a raggiungere, che per la loro capacità
di sopravvivenza alle falsificazioni. Falsificare una teoria, inoltre, potrebbe
essere più difficile di quanto possa apparire. Potrebbero esserci delle difficoltà
transitorie nel confronto con certi dati sperimentali, che poi rientrano nella
spiegazione finale una volta che si è compreso meglio il fenomeno che si vuole
descrivere.

18
Secondo Popper la scienza è una rivoluzione continua, e la sua carat-
teristica principale consiste nell’avere due tipi di atteggiamento: da un lato
l’audacia creativa nella formulazione delle congetture e delle ipotesi, e dall’altro
l’ estrema severità e spietatezza della critica razionale nell’eliminare le teorie
in base al criterio della falsificazione. Il razionalismo critico indica quindi un
punto nevralgico nell’impresa scientifica, nella visione popperiana di come
progredisce la scienza.
L’accento posto da Popper sul problema della rivoluzione scientifica viene
ripreso successivamente anche da Kuhn. Per Popper l’impresa scientifica
ha la caratteristica di una rivoluzione permanente, con gli scienziati impeg-
nati a formulare un continuo di congetture da sottoporre al criterio della
falsificazione, come se questo criterio agisse come selezione naturale per la
teoria scientifica. L’atteggiamento di Kuhn è però diverso: egli non con-
corda col fatto che la rivoluzione scientifica abbia quella caratteristica di
permanenza attribuitale da Popper, nè col fatto che il razionalismo critico
sia il cuore dell’impresa scientifica. Per Kuhn, i momenti in cui avvengono
le rivoluzioni scientifiche sono eventi eccezionali, nella storia delle scienze.
L’atteggiamento critico in tempi normali (ovvero nei momenti in cui non è in
corso una rivoluzione scientifica) non è ben visto, anzi viene stigmatizzato.
Non succede che uno possa confutare una teoria scientifica in tempi normali,
e che ne venga chiesta l’eliminazione attraverso la critica razionale basata
sulla falsificazione. In tempi normali, in cui il progresso della scienza corre
sui binari stabiliti dalle teorie accreditate dalla comunità scientifica, regna
il dogmatismo e la critica alle teorie correnti viene vista come un anatema.
La rivoluzione scientifica emerge nel modello di Kuhn soltanto in tempi di
crisi, ovvero nei momenti in cui le teorie accreditate incontrano qualche diffi-
coltà interna o registrano insuccessi nella spiegazione di certi fenomeni nuovi.
La proposta di teorie nuove solitamente avviene durante queste situazioni di
crisi, altrimenti la scienza assume impostazioni piuttosto dogmatiche, e tende
a respingere i tentativi di cambiamento.
È interessante a questo proposito introdurre un ulteriore modello di in-
terpretazione della rivoluzione scientifica: il modello di Lakatos.
Il modello di Lakatos è fondato sul concetto di programma di ricerca (o
paradigma di ricerca), già noto in precedenza. Con tale termine si intende
un insieme, una successione di teorie sviluppate con una certa continuità e
fondate su di un set di regole metodologiche che stabiliscono le direzioni da
seguire e le direzioni da evitare nel procedere del lavoro di ricerca.

19
Il set di regole metodologiche conferisce al programma di ricerca una
struttura a nucleo, dove il nucleo centrale viene formato da quell’insieme
di ipotesi teoriche che si ritengono indiscutibili e che non vanno assoluta-
mente confutate. Il programma di ricerca si sviluppa mantenendo inalterate
le ipotesi che definiscono il suo nucleo. Oltre al nucleo, il paradigma di ricerca
è costituito da uno strato che circonda il suo nucleo inconfutabile, e che fa
da cintura protettiva. Questo strato è costituito dall’insieme di congetture
scientifiche confutabili sul quale si opera con il lavoro di ricerca. Sono le
congetture confutabili che mantengono in vita il programma di ricerca, e
che vengono via via modificate e rese più sofisticate man mano che il pro-
gramma di ricerca va avanti. La cintura protettiva rappresenta un insieme
strutturato di proposte e suggerimenti che vengono continuamente variati
e migliorati attraverso l’azione di confutazione. La decisione metodolog-
ica di conferire alle ipotesi del nucleo centrale l’attributo dell’inconfutabilità
caratterizza l’euristica negativa del paradigma di ricerca, mentre la cintura
protettiva dove avviene il lavoro di ricerca e lo sviluppo della conoscenza
ne caratterizza l’euristica positiva. Una tipica e semplice visualizzazione del
paradigma di ricerca viene fornita in Fig. 1.
Secondo il modello di Lakatos, la scienza progredisce localmente attraverso
lo sviluppo lento e faticoso del lavoro di ricerca all’interno dei paradigmi di
ricerca, e globalmente attraverso la competizione fra paradigmi diversi fra
loro. Essi possono anche coesistere fra di loro, giungendo a caratterizzare un
pluralismo teorico nelle scienze: non sempre si realizza la mutua esclusione dei
paradigmi. Quindi l’alternanza di Kuhn fra periodi normali di dogmatismo
ed eccezionali di rivoluzione viene sostituita secondo Lakatos dalla compe-
tizione e dalla lotta fra programmi di ricerca diversi. La storia della scienza
viene interpretata secondo Lakatos come la storia dei programmi di ricerca
in competizione, e le rivoluzioni scientifiche consistono nella sostituzione di
un programma di ricerca con un altro. Il modello di Lakatos è stato anche
utilizzato per i tentativi di ricostruzione razionale della storia delle scienze.

6 Sul rapporto fra Teoria ed Esperimento


Il metodo scientifico si fonda su due pilastri: L’Esperimento fornisce alla
teoria il materiale per le sue costruzioni. La Teoria fornisce all’esperimento
concetti, interpretazioni, previsioni per stimolare nuovi esperimenti.

20
CINTURA PROTETTIVA
 

 
 
 

  

NUCLEO 





 
 



Figure 1: Schema del paradigma di ricerca, col suo nucleo centrale contenente
l’insieme di asserzioni dogmatiche che non si vogliono mettere in discussione,
e con lo strato esterno caratterizzante l’euristica positiva

La fisica sperimentale senza fisica teorica mancherebbe del pungolo e del


suggello per la concettualizzazione. La fisica teorica senza fisica sperimentale
mancherebbe del confronto con la realtà che fornisce il materiale per formare
i nuovi concetti.
Per l’uomo è importante sia il lavoro delle proprie mani e del proprio
cervello, e questo genera spesso una rivalità amichevole: il focoso sperimen-
tatore si compiace delle sue misure e non apprezza “la fisica della carta e
penna” del suo collega teorico. Il quale, d’altro canto, è fiero delle idee ele-
vate ed invenzioni teoriche che riesce a produrre e disprezza le dita sporche
dell’altro.
In passato vi sono state anche delle degenerazioni legate a questa rivalità:
per esempio, una scuola di sperimentatori in Germania diventò estremista
durante il nazismo e, capeggiata da Lenard e Stark, arrivò a rifiutare la
Teoria come un’invenzione degli Ebrei e dichiarò che l’unico metodo scien-

21
tifico genuinamente ariano è l’esperimento. Un’altra corrente di pensiero
(almeno questa non contaminata da ideali razzisti) fu altrettanto estrem-
ista nell’affermare che la mente umana, bene coltivata nella matematica e
nell’epistemologia, può arrivare a cogliere in pieno le leggi della natura senza
ricorrere all’esperimento (Eddington).
Queste aberrazioni sono un notevole pericolo per il sano sviluppo della
scienza, e la storia della scienza offre esempi molteplici delle proficue mutue
interazioni fra teoria ed esperimento.
L’inizio della scienza moderna si ebbe nel Rinascimento, e consistette
in una nuova filosofia che considerava sistematicamente l’esperimento come
fonte principale di conoscenza. La scienza moderna, la cui istaurazione fu
profetizzata da Francesco Bacone, fu poi fondata da Galileo e Newton.
Francis Bacon (1561-1626) fu il filosofo del metodo sperimentale, e for-
mulò il progetto visionario di fondare (o rifondare) la scienza attraverso
l’esperimento e l’induzione. Secondo Bacon, occorreva riporre una ridotta
fiduca nel processo di raggiungimento della conoscenza attraverso il ragiona-
mento logico-deduttivo. Il ragionamento induttivo prende le mosse dalle sin-
gole osservazioni e tenta di arrivare alla formulazione delle leggi generali che
governano la natura. Esso richiede come prerequisito una fede nell’esistenza
di leggi naturali, come ha saputo esprimere bene Galilei con la frase: “la
natura si esprime nel linguaggio della matematica”. Richiede inoltre l’ipotesi
dell’esistenza di regolarità genuine, che sono distinguibili dalle regolarità ac-
cidentali. L’opera di Bacon ebbe il merito di togliere il metodo deduttivo
dalla sua posizione dominante (ciò era tipico per la Scolastica dell’epoca),
per arrivare ad un approccio che alla fine accoppierà il metodo induttivo e
quello deduttivo producendo formulazioni che rappresentano delle sintesi di
risultati sperimentali, e, contemporaneamente, in grado di suggerire nuovi
esperimenti per confermare o confutare la teoria.
René Descartes (1596-1650) fu per converso il filosofo razionalistico. Ri-
conosce il fondamentale ruolo dell’osservazione ed esperimento, ma fonda
comunque la conoscenza scientifica sul ragionamento deduttivo. Secondo
Descartes, il ragionamento precede l’essere ed attraverso il ragionamento si
arriva ad una completa conoscenza dell’essere. Giova a questo proposito ri-
cordare la critica del Wittgenstein il quale, attraverso un’analisi serrata del
linguaggio e della sua genesi, riconosce che il linguaggio per svilupparsi ha
bisogno costante di agganciarsi all’esistenza. Ora, siccome il ragionamento
ha bisogno del linguaggio per avanzare, risulta difficile motivare come il ra-

22
gionamento possa precedere l’esistenza.
Sulla stessa linea e in contrapposizione a Cartesio, troviamo John Locke
(1632-1704), filosofo empirista: capire e conoscere vuol dire essere aperti al
mondo delle osservazioni (e dei fatti sperimentali) ed è la rappresentazione
di questi fatti che prende forma nelle nostre menti e crea il linguaggio e la
ragione. La coscienza inizia a formare le idee dopo che ha iniziato la facoltà di
percepire il mondo esterno. E forma una gerarchia di idee dalle più semplici
alle più complesse.
È interessante osservare l’evoluzione che questa linea di pensiero rag-
giunge con David Hume (1711-1776), altro filosofo empirista, il quale ci ri-
corda di “attenerci ai fatti”: tutta l’informazione è contenuta nei fatti e le
leggi fisiche sono semplicemente un compendio di fatti osservati. I fatto os-
servati generano tutto, la regolarità che si riscontra nei fenomeni consente
alla ragione e al linguaggio di essere utili strumenti per articolare le leggi che
li descrivono. Le leggi non aggiungono nessuna informazione che non sia già
contenute nei fatti. La nostra logica è semplicemente la nostra abitudine a
voler mimare la ripetitività, regolarità dei fatti osservabili. Secondo Hume,
non ha senso interrogarsi circa l’origine delle leggi di natura. Estrapolando su
questa linea, si potrebbe arrivare a spiegare la nostra mente e la razionalità
umana proprio come uno strumento che si è evoluto attorno alla regolarità
dei fatti osservabili e che si è sviluppato semplicemente perchè ha costituito
nella storia dell’uomo un evidente vantaggio evolutivo.
Concludo la discussione sull’intreccio fra teoria ed esperimento richia-
mando come da questo intreccio può nascere un metodo per giudicare lo
stadio di sviluppo di una teoria scientifica. Ciò è stato discusso da Roland
Omnés nel suo libro del 1999 “Quantum Philosophy” (Princeton U. Press).
Questo metodo mostra la specificità della scienza e di come l’intreccio fra
teoria ed esperimento sia fondamentale per illuminarci su come possiamo
comprendere la natura. Si osservi che qui si parla di un metodo per giu-
dicare la scienza dopo che viene costruita, non per costruirla. Si tratta di
una serie di regole per stimare quanto sia avanzata la corrispondenza fra la
rappresentazione scientifica e la realtà sottostante in una data area di studio.
Si tratta di un metodo che non si riferisce ai particolari percorsi di ricerca
che vengono seguiti dai ricercatori per raccogliere le informazioni o fare le
scoperte, poichè questi possono essere influenzati da elementi storici, politici
o sociali, ma piuttosto riflette sull’accrescimento della conoscenza scientifica
dell’uomo, e ne rivela la specificità rispetto a tutte le altre forme di rappre-

23
sentazione della realtà che l’uomo è riuscito a produrre.
Per mettere in evidenza la specificità dello sviluppo della scienza Omnés
distingue quattro momenti o stadi di sviluppo: i quattro stadi corrispondono
in successione alla fase empirica (o empirismo), la concettualizzazione, lo
sviluppo, e infine la verifica, e rappresentano quattro diverse strutture di
conoscenza che si integrano e complementano e richiedono quattro diverse
attività dove interviene l’esperimento e/o la teoria.
1) La fase empirica comprende la semplice osservazione esploratoria dei
fatti. La collezione di fatti sperimentali, lo sviluppo di esperimenti per os-
servare, la catalogazione delle misure (un esempio tipico potrebbe essere
l’attività di catalogazione di Tycho Brahe sul moto dei pianeti). È la fase
della messa a punto delle leggi empiriche (esempio: le leggi di Keplero, op-
pure la legge di Galilei sulla caduta dei gravi). È chiaro che una scienza che
si trova a questo stadio non è ancora una scienza matura.
2) La concettualizzazione comprende lo sviluppo e selezione dei con-
cetti che permettono una rappresentazione della realtà. Quasta è la fase
dell’invenzione di concetti e di principi. È la genesi di nuove idee. Questa
fase rappresenta un momento creativo nello sviluppo di una teoria scientifica
ed è poco razionalizzabile. È la fase creativa che ebbe Newton quando con-
cettualizzò l’equazione della dinamica. L’invenzione di concetti nuovi come
accrescimento improvviso della conoscenza.
3) La fase di sviluppo e razionalizzazione. In questa fase si procede
alla derivazione logica di alcune conseguenze dai nuovi principi. Richiede
lo sviluppo del calcolo per controllare che certe conseguenze che derivano
dai principi siano consistenti con fatti noti. È la fase in cui Newton inizia a
testare i sui principi sul moto dei pianeti e sui gravi in caduta.
4) La fase della verifica (che comprende la falsificazione popperiana), dove
vengono prese in considerazione tutte le conseguenze e la totalità delle predi-
zioni per poter accreditare la teoria come valida, e per poter ritenere che
abbia catturato degli elementi della realtà. Dopo che si è superata questa
fase di validazione, i concetti inventati nel secondo stadio del processo pos-
sono dare luogo alla ‘scoperta scientifica’.
Va detto subito che questo metodo di giudizio del livello di maturità di
sviluppo delle scienze non si applica ovviamente alla discipline matematiche.
Naturalmente, sarebbe abbastanza ingenuo pensare che ogniqualvolta si
sviluppa una nuova scienza si possano distinguere in maniera manifesta i
quattro stadi come è avvenuto per la meccanica classica. Alle volte alcuni

24
di essi possono sembrare assenti e non venir notati, magari perchè il com-
pletamento dello stadio per una particolare scienza risulta troppo triviale
e immediato. È evidente, inoltre, come il contatto con la realtà avvenga
principalmente nello stadio 1) dell’ empirismo e nello stadio 4), quello della
validazione. In entrambi gli stadi entra in gioco in maniera fondamentale
l’esperimento. Il terzo stadio, lo sviluppo, rappresenta un importante eser-
cizio logico-deduttivo di derivazione delle conseguenze dai principi, ed è quello
che generalmente, l’insegnamento delle scienze tende ad enfatizzare maggior-
mente, tanto è che all’occhio dell’inesperto si potrebbe dare l’impressione che
il metodo scientifico inizi e finisca con il terzo stadio.
Il ruolo principale del terzo stadio è quello di preparare gli strumenti per
arrivare allo stadio finale, quello della verifica.
Il secondo stadio, quello della concettualizzazione, è molto fascinoso per
la sua caratteristica di appellarsi alla creatività dell’uomo e alla sua capacità
di inventare nuove idee, anche attraverso processi che possono fare appello ad
elementi irrazionali della mente umana. Si potrebbe dire che questo stadio
fornisce informazioni sorprendenti sulla natura dell’uomo, piuttosto che sulla
natura del mondo che lo circonda.
Ma non si può che concordare con Omnés che la cosa sorprendente che
forse più d’ogni altra emerge dal concatenarsi di queste fasi dello sviluppo
delle scienze, è l’incredibile balletto che la Realtà fa con se stessa, nel mo-
mento in cui la mente umana, un prodotto della stessa Realtà, riesce a gener-
are un’immagine della Realtà cosı̀ meravigliosamente e inaspettatamente pre-
cisa.

25
CORSO DI FONDAMENTI STORICO-EPISTEMOLOGICI DELLA
FISICA

QUARTA LEZIONE

L. Canton

1 Galilei
1.1 Note biografiche
“Finché l’umanità continuerà a brancolare nella sua nebbia millenaria di su-
perstizioni e di venerande sentenze, finché sarà troppo ignorante per svilup-
pare le sue proprie energie, non sarà nemmeno capace di sviluppare le energie
della natura che le vengono svelate”. Dal dramma di Bertold Brecht, Vita di
Galileo
Galileo Galilei nacque il 15 febbrario 1564 a Pisa, da una conosciuta
e rispettata famiglia fiorentina, sebbene oramai avviata verso la decadenza
economica. Il padre Vincenzo era un insigne musicista e maestro teorico
della musica, che in passato era entrato in conflitto con la tradizione classica
che attribuiva la consonanza tra tutti i suoni al controllo delle proporzioni
numeriche ed aveva proposto idee proprie al riguardo. Quindi a Firenze, dove
la famiglia si trasferı̀ nel 1574, Galileo ricevette una raffinata educazione di
stampo prevalentemente artistico e letterario. Infine il padre, nella speranza
di contrastare il decadimento economico della famiglia, lo indirizzò verso lo
studio della medicina. Fu cosı̀ che Galileo fece il suo ingresso all’università di
Pisa, dove seguı̀ i corsi aristotelici, studiò Platone, e soprattutto approfondı̀
lo studio della matematica.
Risale a quegli anni l’intuizione della legge dell’isocronismo del moto del
pendolo realizzata, secondo il tipico metodo galileano, osservando l’oscillazione
accidentale di una lampada nel duomo di Pisa. Nel 1585 lasciò Pisa senza

1
conseguire alcun titolo accademico, e tornò a Firenze. Qui, approfondendo
lo studio della geometria, in particolar modo di Archimede, giunse sia alle
fondamentali ricerche sul baricentro dei solidi, esposte nel Theoremata circa
centrum gravitatis solidorum (1585), sia all’invenzione della bilancetta idro-
statica, descritta nel trattatello in volgare La bilancetta (1586).
Intanto, come rivelano i suoi scritti letterari, le Due lezioni all’Accademia
fiorentina circa la figura, sito e grandezza dell’Inferno dantesco, le Postille
all’Ariosto, le Considerazioni al Tasso, continua in lui quell’amore per le
lettere, che coltiverà per tutta la vita.
Grazie all’appoggio dell’astronomo e matematico Guido Dal Monte, ot-
tenne nel 1589 la cattedra di matematica nello Studio di Pisa. Spinto da una
forte insoddisfazione nei confronti della scienza aristotelica, intraprese, con
grande scontento di tutti i filosofi nemici delle novità, le ricerche sul moto
e incominciò a scrivere il De motu, rimasto a lungo inedito. La morte del
padre gli lasciò la responsabilità della famiglia e la sua situazione economica
divenne assai difficile. Quindi, desideroso di migliori condizioni economiche
e lavorative, nel 1592 riuscı̀ a farsi assegnare la cattedra di matematica allo
Studio di Padova. Vi rimase per diciotto anni, gli anni più sereni e felici della
sua vita, sebbene le difficoltà economiche lo costrinsero ad impartire lezioni
private. Strinse rapporti con gli uomini di cultura più in vista (soprattutto
con Paolo Sarpi), e relazioni epistolari con i maggiori scienziati europei, Ke-
plero, Gassendi, Welser. Vari e ricchi sono gli interessi di questo periodo
padovano, come rivelano i titoli delle sue opere: il Trattato di fortificazione,
la Breve istruzione dell’architettura militare e Le Mecaniche, il Trattato della
sfera ovvero cosmografia, e Le operazioni del compasso geometrico e militare.
Frattanto, dalla convivenza con la veneziana Marina Gamba ebbe tre figli,
due femmine e un maschio.
Dal 1609 cominciò a perfezionare ed usare il cannocchiale come strumento
per le osservazioni astronomiche. Il cannocchiale non era un’invenzione di
Galileo (artigiani olandesi e italiani ne avevano realizzati di diversi tipi) ma i
miglioramenti che lo scienziato vi apportò inaugurarono l’epoca delle grandi
scoperte astronomiche, di cui lo stesso Galilei diede annuncio nel Sidereus
Nuncius del 1610. I 4 maggiori satelliti di Giove, le montagne ed i cra-
teri della Luna, le macchie solari, le “orecchie” (anelli) di Saturno, le fasi
di Venere, furono fenomeni fino ad allora sconosciuti che destarono merav-
iglia ed ammirazione nel mondo accademico (Keplero riconobbe e confermò
l’importanza delle scoperte di Galilei), ma anche contrasto ed opposizione da

2
parte delle gerarchie ecclesiastiche (in particolare del cardinale Bellarmino)
e degli aristotelici.
Acquistò un prestigio tale che venne nominato capo matematico e filosofo
del granduca di Toscana, ad opera di Cosimo II de’ Medici, senza obbligo di
insegnamento e con più che dignitose condizioni economiche. Quindi tornò a
Firenze. Nel 1611, sempre duramente osteggiato dagli scienziati tradizional-
isti ma appoggiato dai maggiori astronomi e matematici del tempo, si recò a
Roma ad illustrare le sue scoperte, ove ottenne l’approvazione dai Gesuiti del
Collegio Romano, e venne nominato membro della prestigiosa accademia dei
Lincei. In quell’epoca, i poteri ecclesiastici probabilmente erano ancora in-
consapevoli delle implicazioni del programma galileiano. Ma già germinavano
i primi sospetti d’eresia da parte dell’Inquisizione.
Galileo, dal canto suo, accentua la polemica antiaristotelica contro la
scienza ufficiale. Prima, nel 1612, pubblica il Discorso intorno alle cose che
stanno in su l’acqua o che in quella si muovono. Poi, nel 1613, entra in
polemica diretta con un gesuita nelle tre lettere indirizzate a Marco Welser,
pubblicate col titolo l’Istoria e dimostrazione intorno alle macchie solari e
loro accidenti. Inoltre, prima di stendere la grande opera sul sistema coper-
nicano del mondo, si trova costretto a porre i limiti tra scienza e fede. E nelle
quattro famose Lettere copernicane (una a Benedetto Castelli, due a Mon-
signor Dini, e una più ampia alla granduchessa Cristina di Lorena), rivendicò
l’indipendenza della scienza dalla religione e il diritto alla libera ricerca scien-
tifica. Durante un suo soggiorno a Roma, nel febbraio del 1616, attraverso un
decreto del cardinal Roberto Bellarmino, Galileo venne ammonito ad asten-
ersi, pena il carcere, dal professare e dall’insegnare la teoria copernicana, in
quanto inconciliabile con la fede cattolica. Il cardinal Bellarmino era il con-
sigliere dell’allora Papa Paolo V, e fu l’inquisitore nel processo a Giordano
Bruno, il quale fu poi condannato al rogo nel 1600. (Il cardinal Bellarmino
venne canonizzato “San Roberto Bellarmino” sotto il papato di Pio XI, nel
1930).
Profondamente amareggiato, tuttavia saldo nelle proprie convinzioni, Galileo
riprese la polemica, e con Il Saggiatore (edito a cura degli Accademici dei
Lincei nel 1623, e dedicato al suo vecchio amico Maffeo cardinal Barberini,
il nuovo papa Urbano VIII) si oppose al trattato del gesuita Orazio Grassi
Libra astronomica ac philosophica, scritto nel 1618 in occasione della com-
parsa di tre comete. In seguito al grande successo conseguito con Il Saggia-
tore, suo capolavoro polemico, e sperando in una maggiore apertura della

3
Chiesa, sotto il papato di Urbano VIII, verso la nuova scienza, nel 1624 in-
traprese la composizione del Dialogo sopra i due Massimi Sistemi. Dopo
una stesura protratta per anni e dopo vari negoziati ed aggiustamenti per
ottenere il permesso di stampa nel febbraio del 1632, questo capolavoro della
letteratura scientifica di ogni tempo divenne finalmente di dominio pubblico.
Ma la carica rivoluzionaria dell’opera scatenò immediatamente la reazione
dell’Inquisizione, con il sequestro del libro e l’ordine all’autore di recarsi im-
mediatamente a Roma, dove Galileo, fortemente sospettato d’eresia, venne
processato per aver disobbedito all’ingiunzione del 1616. Nel 1633, dopo
cinque mesi, il processo si concluse con la sentenza che proibı̀ il Dialogo, con
l’abiura, e con la condanna al carcere formale. Grazie al suo prestigio inter-
nazionale e al suo atto di sottomissione, Galileo non venne incarcerato, ma
relegato, prima a Siena presso l’arcivescovo Ascanio Piccolomini, e poi nella
villa di Arcetri, vicino a Firenze.
Vecchio, debilitato e malato, continuò a mantenere rapporti con gli scien-
ziati di tutta Europa. Sotto l’occhio vigile dell’Inquisizione, riprese e portò a
termine il capolavoro in cui vennero gettate le basi della dinamica moderna,
il trattato Discorsi e dimostrazioni matematiche intorno a due nuove scienze
attinenti alla meccanica ed i movimenti locali, edito nel 1638 a Leida. Inoltre,
assistito dal fedele allievo Vincenzo Viviani, scrisse nel 1640 la Lettera sul
candore della luna.
Lucido e sereno, morı̀ esiliato ad Arcetri, l’8 gennaio del 1642, circondato
da pochi allievi e nella quasi totale cecità. Le sue spoglie vennero deposte
nella basilica di Santa Croce a Firenze solamente nel 1736.
Nel 1822, il Santo Uffizio concesse la pubblicazione di libri che insegnano
che la terra si muove. I Dialoghi di Galileo furono rimossi dall’Indice dei
libri proibiti dalla Chiesa nel 1835. La Chiesa Cattolica riabilitò pubblica-
mente e formalmente Galilei dall’accusa di eresia solo nel 1992, trecentocin-
quanta anni dopo la sua morte, con la nota del Papa Giovanni Paolo II su
“l’intelligenza, testimoniata dalle meravigliose scoperte della scienza e della
tecnica, ci porta in ultima analisi, a quel primordiale e trascendente pensiero
impresso in tutte le cose”.

1.2 Galilei e il moto


Nel corso dei secoli si annoverano molte traduzioni e molti commentari con-
cernenti l’opera di Aristotele. In alcune di queste opere di commento e

4
traduzione traspare anche un atteggiamento critico rispetto alla dottrina
aristotelica, e uno dei punti attorno al quale ruotano molte delle critiche
sul pensiero di Aristotele riguarda proprio la questione del moto innaturale;
ovvero il moto sotto l’azione di un agente esterno.
Per esempio, nel 533 D.C. il filosofo Giovanni Filopono osserva che c’e’
qualcosa di assolutamente falso negli scritti Aristotelici già nel caso del prob-
lema dei moti naturali, e che si tratta di un problema che si chiarisce meglio
andando a considerare i fatti osservati, piuttosto che seguire le dimostrazioni
logiche. Se uno prende due oggetti che sono molto diversi per massa, e li
si lascia cadere dalla stessa altezza, i tempi di caduta sono soltanto legger-
mente diversi, e non sono affatto nel rapporto dei loro pesi come previsto dal
pensiero Aristotelico.
Nei moti artificiali, Filopono riprende una antica ipotesi fatta da Ipparco
secondo la quale i moti continuano nel loro moto a causa di una forza im-
pressa, che l’agente esterno trasmette al corpo in movimento e lo fa contin-
uare lungo la traiettoria iniziale fino a quando il mezzo materiale nel quale il
corpo si muove non fa dissipare la forza impressa. Filopono perciò si discosta
dall’idea che lanciare una pietra nell’aria la fa muovere di moto innaturale,
anche dopo che la pietra è stata lanciata, in quanto l’aria spinge da dietro la
pietra secondo il meccanismo dell’horror vacui che obbliga la pietra a contin-
uare la sua corsa. Egli ripropone l’idea che il lancio ha impresso la pietra di
una forza motrice che per questo continua nella sua corsa. Dottrine simili a
quelle della forza impressa di Filopono-Ipparco furono sostenute nel Medio-
evo da Avicenna (980-1037), importantissimo commentatore Aristotelico del
mondo Mussulmano e Avempace (1095-1139). L’interpretazione del moto
causato della forza impressa fu introdotto nel mondo occidentale durante
il medioevo dalle traduzioni latine dei commenti dell’opera di Aristotele da
parte di Averroè (1126-1198), che spicca fra i massimi esponenti della cultura
Arabo-Ispanica nel Medioevo.
Nel corso del XIII secolo si registra un significativo cambiamento di im-
postazione sulla questione del moto, e la forza impressa, da causa del moto
artificiale, si trasforma piuttosto in un effetto conseguente al moto. Il con-
cetto del moto inizia a modificarsi per opera di Guglielmo da Occam, che
sostiene che il moto, una volta che viene attuato, non richiede il manteni-
mento di una causa per continuare ad esistere. Questo segna un importante
cambio di prospettiva che interrompe l’impostazione precedente dove ogni
moto richiede un motore. E’ in questo contesto che Giovanni Buridano, che

5
studió a Parigi sotto la guida di Guglielmo da Occam, formulò la teoria dell’
impetus.
Il motore trasmette al corpo una potenza motrice (cioè l’impetus) pari al
prodotto della quantità di materia per la velocità, per cui potremmo leggere
nell’impetus la moderna quantità di moto P , cioè m v. Naturalmente non
possiamo collegare queste dottrine troppo strettamente alle nostre conoscenze
attuali, in quanto non fu mai specificato che tipo di moto questo impetus
facesse mantenere.
La teoria dell’impetus fu poi ripresa dall vescovo Nicola D’Oresme, un
discente di Buridano, che la sviluppò fino a dimostrare il cosiddetto teorema
di Merton per i moti accelerati uniformi, secondo il quale lo spazio percorso
da un corpo che parte da fermo corrisponde a x = 21 vf t, dove t è il tempo
impiegato a percorrerlo e vf è la velocità finale del corpo. Il teorema di
Merton era noto già attorno al 1330, trecento anni prima che venisse stabilito
per la caduta dei gravi da Galilei.
È chiaro da questa discussione che nel corso del medioevo vi è un lento
ma significativo spostamento sulla questione del moto rispetto all’ ortodossia
aristotelica, e il riconoscimento di questi meriti ai pensatori del medioevo, e’
un’acquisizione relativamente recente, in cui ha avuto un ruolo importante
lo storico e filosofo P. Duhem.
La teoria dell’impetus, cosı̀ come è stata introdotta da Buridano e D’Oresme,
era ben nota a Galileo Galilei (1564-1642). Nel 1589 Galilei ebbe un in-
carico come docente all’Università di Pisa e fu durante questo periodo che
egli condusse dimostrazioni pubbliche presso la Torre di Pisa per confutare
(potremmo qui usare ante litteram il concetto di confutazione popperiana) i
teoremi aristotelici sulla caduta dei moti. Sebbene non vi siano prove storiche
certe che egli realmente attuó esperimenti di caduta di oggetti dalla Torre
Pendente, egli menziona espressamente nei suoi scritti di aver fatto prove di
caduta da vari tipi di piani inclinati.
Nei dialoghi intorno a due nuove scienze pubblicata nel 1638 a Leida,
mentre Galilei si trovava al confino presso la Villa ad Arcetri, viene affrontato
il problema del moto. Galilei ricorda che molti testi erano stati scritti da
filosofi a questo riguardo, e che alcune crude osservazioni erano già state
fatte: per esempio, che il moto dei gravi in caduta libera continua ad accel-
erare. Ma indicazioni più quantitative non erano state date, come pure non
era stato osservato che la traiettoria dei “missili” e dei “proiettili” fosse una
parabola. Egli osservó inoltre che i moti dei gravi è ad accelerazione costante

6
(od uniforme, o anche “naturale”), nel senso che l’incremento di velocità varia
costantemente nel tempo. Siccome la caduta verticale dei gravi solitamente
avviene in tempi troppo piccoli per essere oggetto di crude misure, Galilei in-
iziò a “rallentare” la caduta utilizzando i piani inclinati, e trovò che lo spazio
percorso da una pallina ben levigata di ottone lungo una scalanatura ben
fatta (liscia e regolare) di un piano inclinato si avvicinava bene al quadrato
del tempo impiegato, mentre la velocità finale variava in base all’altezza da
cui veniva rilasciata la pallina, ma non rispetto all’angolo del piano incliato.
Orologi accurati a quell’epoca ancora non c’erano, e i tempi venivano misurati
pesando le corrispondenti quantità d’acqua che fluivano a ritmo costante in
appositi contenitori.
Per quanto riguarda il moto violento, ovvero il moto dei proiettili, Galileo
osservò la possibilità di scomporre il moto in una componente verticale uni-
formemente accelerata e una componente orizzontale a velocità costante. La
composizione di questi due moti portava a dei risultati che si accordano con
l’esperienza.
In linguaggio moderno, la composizione dei due moti, quello verticale
(y = 21 gt2 ) e quello orizzontale (x = vo t), portano come è noto all’equazione
della parabola
" #
g
y= x2 . (1)
2vo2

La dimostrazione che la traiettoria è una parabola cosı̀ come fu presentata da


Galilei, non potendo utilizzare le tecniche dell’algebra che furono introdotte
più avanti, fa pesantemente uso delle proprietà geometriche delle coniche.
Sostanzialmente egli osserva la legge empirica che gli spazi percorsi verti-
calmente sono in rapporto ai quadrati degli spostamenti orizzontali (Fig. 1),
ovvero
∆X12 ∆Y1
= . (2)
∆X22 ∆Y2

Poi mostra che la relazione fra questi 4 segmenti corrisponde a quella


della sezione piana di un cono circolare retto, dove il piano intersecante corre
parallelo alla retta generatrice il cono (è la definizione della parabola secondo
Appollonio). Si dimostra la soprascritta proprietà dei quadrati rispetto alla

7
Figure 1: La traiettoria del moto (in rosso) osservata da Galileo, gode della
legge empirica secondo cui gli spazi percorsi verticalmente sono in rapporto
ai quadrati degli spazi percorsi orizzontalmente

curva conica, considerando due sezioni circolari rette. Applicazioni delle


proprieta’ di similitudine dei triangoli generati dalla costruzione di queste
figure geometriche portano alla dimostrazione che il corpo si muove su di
una parabola. (Fig. 2).
Galileo non ricercò le cause del moto naturale, in quanto riteneva che i
tempi non erano ancora maturi per questo sviluppo. Fu Newton che formulò
i principi quantitativi della dinamica. Tuttavia Galilei introdusse il concetto
di inerzia, secondo il quale un corpo in movimento tende a mantenere il suo
stato di moto. Inoltre Galilei utilizzò il concetto di impulso inteso come il
prodotto del peso per la velocità.
Galilei osserva che una pallina che scende da un piano inclinato accel-
era naturalmente, e al contrario una pallina che sale decelera fino all’arresto.
Cosı̀, estrapolando, una pallina lanciata su di un piano orizzontale assumerebbe
una velocità costante. Egli inoltre fece l’osservazione che se si lancia una pal-

8
lina dall’ albero maestro di una nave in movimento, la pallina non cade nè
prima nè dopo la base dell’albero stesso, cosicchè il corpo lasciato libero
mantiene il suo stato iniziale di moto (in questo caso, la componente oriz-
zontale) che aveva all’inizio.
Successivi contributi al concetto dell’inerzia vennero da Cartesio, il quale
nel 1644 espresse l’idea che ciascun corpo ha la tendenza a continuare il
moto in linea retta, a meno che non intervenga qualche impedimento esterno.
Questo concetto fu poi ripreso da Huygens che lo formulò come il primo
assioma del moto, nella forma che fu poi ripresa da Newton come la Lex
I nel suo capolavoro Philosophiae Naturalis Principia Mathematica. Ecco
dunque come la linea di pensiero che va da Galilei a Newton produsse una
nuova concezione del moto naturale. Non più la linea retta dall’alto al basso
per i corpi di terra, non più dal basso all’alto per i corpi di fuoco, non più
i moti circolari per la quintessenza celeste, ma un principio universale di
moto rettilineo uniforme (o stazionarietà) per tutti i differenti tipi di corpi.
Questa rottura dalla visuale Aristotelica del moto avvenne gradualmente
attraverso i passaggi concettuali della forza impressa, della teoria medioevale
dell’impetus, e colloca la grandezza di Galilei nella prospettiva storica che
gli è propria, senza per questo sminuirla.
È interessante notare che Galilei confuta aspetti della dottrina Aristotel-
ica sul moto utilizzando anche elementi puramente logici, e dimostrando
l’inconsistenza interna del ragionamento aristotelico. Questo lo si può vedere
bene per esempio nelle obiezioni alla dottrina che la velocità di caduta di
un corpo è proporzionale al peso del corpo stesso. La linea dell’argomento
di Galilei parte dall’affermazione che una pietra pesante A cadrebbe, sec-
ondo il dogma aristotelico, con una velocità VA maggiore della velocità Va
di una pietra più leggera, denominata a. Allora, osserva Galilei, se uno lega
assieme le due pietre in modo da formare oggetto unico, la pietra a ten-
derebbe a far cadere il corpo con velocità Va minore della velocità VA , della
pietra più pesante, e quindi avrebbe una funzione di rallentamento rispetto
al corpo A, obbligando il sistema a muoversi con una velocità intermedia
Va < V(a+A) < VA . Questo contraddice l’ipotesi iniziale che prevede, essendo
a + A più pesante di A, che la velocità V(A+a) sia maggiore di VA .
Naturalmente, oggi sappiamo che la resistenza dell’aria rende diverse le
velocità di arrivo al suolo, e frena di più (a parità di forma e superficie)
il corpo meno pesante. Tipica, in questo senso è la caduta della piuma
rispetto alla palla di ferro. Ma il punto cruciale, piume a parte, é che oggetti

9
che differiscono in peso di diversi fattori moltiplicativi arrivano al suolo sı̀
distanziati per effetto del frenamento dell’aria, ma in modo poco percettibile,
cosa che è ben diversa dall’affermare che le distanze di caduta dipendono in
misura proporzionale al peso del corpo.
Le regole del ragionamento nei Principia.
Nei Principia, Newton completò una trasformazione epocale che era in-
iziata con Galileo. Questi due uomini proposero un nuovo modo di osservare
e comprendere il mondo. È fondamentale sottolineare il processo genuina-
mente creativo contenuto nella loro opera, processo creativo che comunque
non va identificato con processo arbitrario. Le nuove leggi del moto non pos-
sono essere direttamente colte attraverso il solo processo induttivo - l’esame
delle osservazioni e dei dati sperimentali. Sono costruzioni e convenzioni,
non completamente arbitrarie ma nemmeno “rivelate” in modo univoco dalla
natura fisica del mondo; sono proposizioni che risultano utili perchè costruite
coerentemente con quanto del mondo è osservato e osservabile.
Talvolta ci si riferisce all’aforisma ”hypothesis non fingo” contenuto nei
principia per attribuire a Newton l’impostazione che considera l’inferenza
induttiva come l’unico, esclusivo metodo legittimato ad operare nella filosofia
della natura. Newton in realtà tiene sempre presente nei principia l’esistenza
di due livelli necessari per avanzare nella comprensione del mondo: il livello
matematico che utilizza il procedimento logico-deduttivo, per analizzare le
conseguenze di certi assiomi, e quello fisico che utilizza il dato sperimentale
per decidere fra tutti gli assiomi quali sono quelli ai quali la natura aderisce.
Newton analizza i passaggi logici che lo portano dalle leggi di Keplero alla
legge di gravitazione universale, e analizzando il percorso enuncia delle regole
di ragionamento nella filosofia della natura:
REGOLA 1: Non dobbiamo ammettere più cause di quelle che sono nec-
essarie e sufficienti per spiegare l’occorrere dei fenomeni osservati.
REGOLA 2: All’occorrere degli stessi effetti dobbiamo, per quanto ci è
possibile, utilizzare il ricorso alle stesse cause.
REGOLA 3: Le qualità che noi attribuiamo ai corpi, e che troviamo avere
un carattere universale che non ammette attenuazione o intensificazione,
vanno considerate come proprietà universali che valgono in ogni circostanza.
REGOLA 4: Nella filosofia sperimentale noi ricerchiamo affermazioni
(leggi) ottenute attraverso il metodo induttivo dalle percezioni sensoriali
nel modo più vero e più accurato possibile. indipendentemente da qualsiasi
ipotesi contraria che possiamo immaginare, fino a che non intervenga un ul-

10
teriore nuovo fenomeno attraverso il quale le leggi possono essere rese ancora
più accurate, o fino a che non vengano accertate le possibilità di eccezioni.
In sostanza, le spiegazioni dei fenomeni vanno cercate facendo il numero
minore possibile di ipotesi, assumendo che le stesse ipotesi agiscano nelle
cause di fenomeni simili, che si ricerchi il carattere universale nelle proprietà
che vengono attribuite ai corpi, e che si utilizzi attentamente l’inferenza in-
duttiva come elemento di “ricerca della verità” fino a che non intervengano
ulteriori fenomeni naturali che introducano elementi di modifica delle leggi.
Si possono riconoscere in queste regole elementi di forte contrasto con la
visione del mondo naturale generata dalle dottrina aristotelica.
Newton discusse le tre leggi del moto e la legge di gravitazione uni-
versale in modo fortemente interconnesso, come viene testimoniato dallo
svilupparsi delle discussioni nei Principia. Ragioni pedagogiche suggeriscono
d’altro canto una presentazione separata dei due risultati. Se consideriamo
lo sviluppo della dinamica, è evidente che si parte dall’idea che la forza sta
all’origine della variazione del moto, ma l’espressione della proposizione in
senso quantitativo non avviene in modo semplice, ma fornisce come vedremo
spunti non banali di problematicità. Newton parte dalla massa o quantità di
materia, e già con la definizione della massa ci troviamo di fronte al problema
di una definizione circolare:
La quantità di materia proviene dal prodotto della densità per il volume.
Ovviamente in assenza di definizione della densità la definizione della
massa resta sospesa, a meno che uno interpreti la densità come una proprietà
intrinseca dei materiali che rimanda a proprietà del mondo microscopico che
restano qui fissate in modo intuitivo.
Successivamente, Newton passa alla definizione di quantità di moto, intesa
come prodotto della massa per la velocità.
Poi viene formulata la legge dell’inerzia, per cui ciascun corpo prosegue
nel suo stato di quiete o di moto rettilineo uniforme, a meno che non sia
obbligato a cambiare stato per effetto di una forza impressa su di esso.
La seconda legge è l’asserzione quantitativa che mette in relazione la forza
impressa sopra un corpo col cambiamento del suo stato di moto: il cambia-
mento dello stato di moto e’ proporzionale alla quantità di forza impressa, e il
cambiamento avviene secondo la direzione rettilinea indicata dalla direzione
secondo cui la forza agisce.
Nella notazione moderna, possiamo dire che se una forza agisce per un
tempo ∆t, la variazione della quantità di moto ∆p è pari a ∆p = F ∆t.

11
Bisogna osservare che l’interpretazione letterale del testo implicherebbe la
proporzionalità diretta di F con ∆P , pero’ poi Newton usa nel testo l’interpretazione
corretta che abbiamo considerato, ovvero F ∆t = ∆P
Newton non usa mai nei Principia l’equazione F = ma, che si ottiene
nel caso in cui la massa risulta costante. La legge è comunque riportata in
modo verbale nei principia, mentre fu scritta espressamente quasi un secolo
più tardi, da Leonardo Eulero. Seppur descritta anch’essa in modo verbale,
la legge di composizione delle forze (regola del parallelogramma) è pure con-
tenuta nei principia.
La terza legge di Newton, il pricipio di azione e reazione, stabilisce che
le forze avvengono sempre in coppie, e che l’azione di un corpo su un altro
comporta sempre un carattere di reciprocità, con cui il secondo corpo agisce
sul primo con una forza uguale e contraria. Questa legge consente di uscire
da noti paradossi, che lo stesso Newton osservò:
Se uno prende una terra sferica isolata nello spazio questa persevera nel
suo stato di moto o di quiete. Se uno considera due emisferi distinti, allora
il secondo agisce sul primo attraverso l’interazione gravitazionale, e cosı̀ fa il
primo sul secondo. Se l’azione e la reazione non fossero uguali e contrari, una
forza risultante diversa da zero agirebbe sulla superficie di demarcazione dei
due emisferi, la quale cosa implicherebbe una accelerazione netta del sistema
che cosı̀ aumenterebbe la sua velocità ad infinitum. Ciò porterebbe ad una
insanabile contraddizione con il principio d’inerzia, che per la sua validità
richiede il terzo principio della dinamica.
I principi della meccanica classica sono stati lungamente analizzati allo
scopo di chiarire il tipo di assunzioni che devono essere introdotte nel processo
di costruzione del sistema Newtoniano.
Mach e Poincaré hanno lungamente discusso lo schema logico della mac-
canica classica, andando a cercare le condizioni e gli assiomi essenziali sui
quali tale sistema può essere costruito. Per esempio, Poincaré nel suo scritto
“Scienza e Ipotesi”, parte dalla definizione cinematica dell’accelerazione vet-
toriale. Dopodichè uno procede ad introdurre le definizioni caratteristiche
del concetto di forza per mezzo del principio d’inerzia (definita come con-
dizione di assenza di forza) e del terzo principio della meccanica (le forze
sono a due corpi e con caratteristiche di reciprocità fra l’azione dell’una e
dell’altra). Ecco che la prima legge e la terza legge sono diventate delle mere
convenzioni, pur senza essere delle convenzioni arbitrarie. Nel caso dei due
corpi possiamo introdurre (cioè definire) le masse in quanto il rapporto fra le

12
due masse di un sistema isolato a due corpi è inversamente proporzionale alle
due accelerazioni, e uno osserva in modo empirico che il rapporto non varia al
variare delle velocità e dei valori assoluti delle accelerazioni. Quindi definita
m1 la massa campione, e m2 la massa incognita, dal principio di azione e
reazione possiamo misurare la massa (cioè il rapporto m2 /m1 ) misurando il
rapporto di accelerazione a1 /a2 per il sistema isolato, e osservando che tale
rapporto non varia con la velocità delle particelle, se ne deduce l’indipendenza
della massa dalla velocità.
Infine il secondo principio della dinamica diventa una definizione quanti-
tativa del concetto di forza. Se abbiamo una prescrizione indipendente per
il calcolo della forza, tipo la gravità, oppure le forze elastiche, allora la sec-
onda legge può venire utilizzata per trovare l’accelerazione, se si è potuto
quantificare la massa con operazioni di misura fatte in precedenza. Poincarè
conclude che le leggi della meccanica sono delle convenzioni, ma questo non
significa che siano arbitrarie, perchè sono stati i dati empirici a giustificarne
l’adozione.

2 Attività:
1) (FORUM ATTIVITA’ per valutazione, ad invito) Fate una rifles-
sione sulle differenze tra il punto di vista di Newton e quello di Poincaré sulle
3 equazioni della dinamica.
2) (FORUM LEZIONE per la presenza, per coloro che non sono
esplicitamente invitati sul Forum Attività): Illustrate con parole vostre
le differenze fra la giustificazione aristotelica dell’ horror vacui nel moto in-
naturale, il concetto d’inerzia, e la legge empirica del moto parabolico di
caduta dei gravi.

13
Figure 2: La definizione di parabola (in rosso) secondo Apollonio, gode della
proprietà secondo cui il quadrato del rapporto fra i segmenti BD e F H
corrisponde al rapporto fra i segmenti ID e IH. Questa è la stessa proprietà
empirica delle traiettorie dei gravi osservata da Galilei.

14
CORSO DI FONDAMENTI STORICO-EPISTEMOLOGICI DELLA
FISICA

QUINTA LEZIONE

L. Canton

1 La sintesi Newtoniana
La Natura e le sue Leggi languivano nell’oscurità,
e Dio disse “Sia fatto Newton!”, e dappertutto la luce fu (Alexander Pope) 1

Abbiamo già discusso le tre leggi di Keplero, le quali rappresentano un


esempio molto significativo di leggi empiriche sul moto dei pianeti del sistema
solare. Nella loro qualità di leggi empiriche, esse erano in grado riprodurre
i dati e fare previsioni: per questo scopo, le leggi di Keplero funzionavano
meravigliosamente bene! Però nessuno riusciva a dare una spiegazione del
perchè funzionavano cosı̀ bene, facendo riferimento a qualche spiegazione più
fondamentale. In realtà queste tre leggi non esprimevano nulla di più che
una versione sintetica dei dati astronomici raccolti da Tycho. Per esempio,
le leggi di Keplero non dicevano nulla riguardo a qualsiasi altro moto che
poteva avvenire nell’Universo.
È stato proprio Newton a cambiare tutto questo. Per prima cosa, egli
mostrò che il moto dei corpi sulla terra poteva venir descritto attraverso le
famose tre leggi di Newton contenute nei Principia, ma poi proseguı̀ oltre
mostrando che le tre leggi di Keplero per il moto planetario potevano essere
1
Nature and nature’s laws lay hid in night;
God said ‘Let Newton be’ and all was light.
A questo famoso epitaffio poi Sir Collings Squire aggiunse:
It did not last: the devil, shouting ‘Ho!
Let Einstein be’ restored the status quo.

1
derivate come dei casi speciali delle tre leggi di Newton, se veniva postu-
lata una forza speciale (che noi conosciamo come la forza di gravitazione
universale) agente fra tutti i corpi dell’Universo dotati di massa. Newton
fu il costruttore di una teoria superba. Attraverso la sua teoria, Newton
potè dimostrare che le tre leggi di Keplero erano delle leggi in realtà solo ap-
prossimativamente corrette, mentre la sua teoria poteva fornire le correzioni
numeriche opportune che in seguito, attraverso delle ulteriori osservazioni
astronomiche di precisione molto alta, si dimostrarono essere corrette, molto
più accurate delle leggi di Keplero.

1.1 Perchè valgono le leggi di Keplero?


Ciò che si vuole far emergere in questa seconda parte è il procedimento logico-
deduttivo in fisica. È proprio con questo tipo di procedimento che si può
far vedere che la diamica Newtoniana e la gravitazione universale spiegano
le tre leggi di Keplero. Anzi, come si è detto sopra, i principi newtoniani
non solo spiegano le tre leggi di Keplero, ma le migliorano. Questo è un
momento importante nello sviluppo di una teoria fisica, ed è stato ben de-
scritto nel terzo stadio del modello a quattro stadi di Omnés, già citato in
precedenza. Bisogna però anche riflettere sul fatto che la fisica non è fatta
soltanto di calcoli, dimostrazioni e deduzioni matematiche, e che il momento
logico-deduttivo e il momento del calcolo, pur rappresentando degli strumenti
importanti di indagine in fisica, non esauriscono la fisica. La fisica non è la
matematica: questo devono tenerlo sempre a mente soprattutto gli insegnanti
di matematica, quando si cimentano nell’insegnamento della fisica.
Di seguito, presenteremo questa deduzione seguendo un normale testo
universitario, secondo una via che viene considerata “standard” oggigiorno
per uno studente dei primi anni dell’università, con conoscenze di calcolo
differenziale normali. Non mancheremo alla fine della lezione di dare alcuni
spunti e riflessioni storiche su tale dimostrazione.

1.2 Considerazioni teoriche


Possiamo partire dalla descrizione del moto su di un piano. Generalmente si
descrive il moto attraverso un sistema di coordinate cartesiano, ma in questo
caso preferiamo far riferimento ad un sistema di coordinate polari, per cui
presentiamo in Fig. 1 la relazione fra i due sistemi.

2
Figure 1: Le due coordinate polari del punto P sono il modulo r (in rosso) del
raggio vettore ~r e l’anomalia θ. Le corrispondenti coordinate cartesiane x e y
si possono scrivere in funzione delle coordinate polari attraverso le seguenti
equazioni: x = r cos(θ), e y = r sin(θ)

Possiamo adesso scomporre, relativamente alla traiettoria piana che per-


corre il punto mobile P , la velocità istantanea nelle sue due componenti
radiale vr e trasversa (o azimutale, o angolare) vθ , secondo i due versori ρ~ e
~η illustrati in Fig. 2.
Il vettore velocità si può infatti scrivere:

dr dθ
~v = ρ~ + r ~η , (1)
dt dt

con cui restano determinate le due componenti radiali e trasverse, rispetti-

3
Figure 2: La traiettoria del mobile che al tempo t si trova in P , e al tempo
t0 = t + dt si trova in P 0 . La direzione del raggio vettore r individua il
versore radiale ρ~, mentre il secondo versore, lungo la direzione trasversa,
viene denominato ~η .

vamente

dr
vr = , (2)
dt


vθ = r . (3)
dt

Giova ricordare le seguenti proprietà di derivazione dei due versori ρ~ e ~η ,


che si ottengono da banali considerazioni sulle proprietà del moto circolare:

4
d~
ρ dθ
= ~η (4)
dt dt

d~η dθ
= −~
ρ . (5)
dt dt

Se deriviamo l’espressione della velocità rispetto al tempo, si ottiene l’


accelerazione espressa in coordinate polari:

! !
d~v d2 r dθ 2 d2 θ dr dθ
~a = = − r( ) · ρ
~ + r +2 · ~η (6)
dt dt 2 dt dt 2 dt dt

con le seguenti componenti lungo i versori ρ~ e η~, rispettivamente

!
d2 r dθ 2
ar = − r( ) , (7)
dt2 dt
!
d2 θ dr dθ
aθ = r 2 + 2 . (8)
dt dt dt

Una volta che abbiamo scomposto l’accelerazione lungo le sue due com-
ponenti radiale ed angolare, possiamo supporre che il corpo di massa m1
(diciamo, il nostro pianeta) si muova soggetto ad una forza attrattiva di
tipo gravitazionale generata da un corpo materiale m2 (il sole) posizionato
all’origine del sistema di coordinate polari. Applichiamo quindi la legge di
Netwon
F~ = m1~a, (9)
al caso in cui la forza in esame sia di tipo gravitazionale,

m1 m2 G
m1~a = − · ρ~ , (10)
r2

5
(con G denotiamo la costante di gravitazione universale).
Scomponiamo l’equazione nelle sue due componenti lungo i versori ρ~ e ~η ,
e otteniamo le due equazioni:

!
d2 r dθ m2 G
ar = − r( )2 = − 2 (11)
dt 2 dt r
!
d2 θ dr dθ
aθ = r 2 + 2 = 0. (12)
dt dt dt

Concentriamoci per il momento sulla seconda equazione. Osserviamo che


questa equazione può essere riscritta come

!
d dθ
r2 =0 (13)
dt dt


da cui si ricava che, definita la velocità angolare come ω = dt
,

r 2 ω = costante . (14)
2
Osservando la figura 3 ci si convince subito che2 , r 2dθ rappresenta l’area
dS spazzata dal raggio vettore nell’intervallo di tempo dt; pertanto la velocità
areolare istantanea corrisponde a

dS 1
= r2 ω , (15)
dt 2

e diventa dunque una costante del moto. La conclusione dunque è che la


velocità areolare è costante, ovvero vale la seconda legge di Kelero.
Osserviamo che per giungere alla seconda legge di Keplero non abbiamo
utilizzato il fatto che la forza gravitazionale dipende dall’inverso del quadrato
2
a meno di infinitesimi di ordine superiore, che comunque vanno trascurati nel limite
dt → 0

6
Figure 3: L’area infinitesima dS spazzata dal vettore ~r del tempo dt

della distanza; infatti qualsiasi dipendenza radiale avrebbe prodotto lo stesso


risultato. Abbiamo solamente utilizzato l’ipotesi che la forza gravitazionale
è centrale, ovvero è sempre diretta verso un centro. È interessante osservare
inoltre che da questo fatto discende anche che il momento angolare del corpo
~ si conserva3 .
L
Infatti il momento angolare si scrive come
~ = ~r × m1~v = ~r × m1 (vr ρ~ + rω~η)
L (16)
In particolare, il suo modulo risulta
~ = mr 2 ω
L = |L| (17)
da cui risulta evidente che il momento angolare è proporzionale alla velocità
areolare, e la costanza dell’uno implica la costanza dell’altro.
3
cosa che avremmo anche potuto osservare direttamente considerando che le forze cen-
trali danno momento torcente nullo rispetto al centro della forza, per cui il momento
angolare si conserva se calcolato rispetto al centro della forza

7
dS 1 L
= r2 ω = = costante . (18)
dt 2 2m1

Concentriamoci adesso sull’equazione radiale, che possiamo anche riscri-


vere come
dvr L2 m2 G
= 2 3− 2 . (19)
dt m1 r r

Integriamo una prima volta l’equazione:

" #
1 2 1 2 L2 1 1 1 1 1
 
vr − vr (0) = − 2 − + m 2 G − . (20)
2 2 m1 2 r 2 ro2 r ro

Qualcuno giustamente può osservare che cosı̀ si ottiene, in sostanza, il


principio di conservazione dell’energia meccanica (in coordinate polari):

1 L2 1 G
E = m1 vr2 + + m1 m2 = costante , (21)
2 2m1 r 2 r

con i tre termini corrispondenti, rispettivamente, all’energia cinetica radiale,


l’energia potenziale centrifuga, e l’energia potenziale gravitazionale.
Risolvendo l’equazione 20 in funzione di vr e ricordando che dθ dt
= mL1 r2 ,
si ottiene facilmente che

s
dr 1 1
= ±r 2 A + B − 2 , (22)
dθ r r

con le due costanti A e B date dalle espressioni

2Em1
A= (23)
L2

8
2m21 m2 G
B= . (24)
L2

Attraverso la sostituzione di variabile u(θ) = 1/r(θ), l’equazione differen-


ziale 22 diventa
du √
= ± A + Bu − u2 . (25)

Si verifica che la soluzione

 s 
B 4A
u(θ) = 1 − 1 + 2 cos θ  (26)
2 B

soddisfa l’equazione differenziale cercata.


Posto allora

2 L2
`= = , (27)
B Gm21 m2
s s
4A 2Em1 l2
e= 1+ 2 = 1+ , (28)
B L2

si ottiene

1 − e cos θ
u(θ) = (29)
`
ovvero

`
r(θ) = . (30)
1 − e cos θ

Questa è la famosa equazione delle coniche.

9
Figure 4: La definizione di curva conica attraverso la proprietà della direttice

Le coniche erano note fin dall’antichità come le curve generate dall’intersezione


di un piano con un cono circolare retto. Attorno al 350 Avanti Cristo (A.C.)
Menecmo, un discepolo di Eudosso, discusse le curve coniche come le sezioni
piane di un cono circolare retto. Anche Apollonio da Perge (262-190 A.C.)
definı̀ le sezioni coniche attraverso il “taglio” di un cono circolare retto.
Attorno al 320 Dopo Cristo (D.C.), si ritrova in una citazione di Pappus
l’affermazione che Euclide conosceva la proprietà della direttrice delle sezioni
coniche. “Le coniche sono il luogo geometrico dei punti di un piano le cui
distanze da un punto fisso detto fuoco e da una retta fissa detta direttrice
sono in rapporto costante. Tale rapporto viene denominato eccentricità “e”, e
la conica è un’ellisse , una parabola, o un’iperbole a seconda che l’eccentricità
sia minore, uguale o maggiore di uno (se e = 0 la conica diventa un cerchio).”
Aiutandosi con la curva in figura 4, la proprietà della direttrice individua

10
il generico punto P della conica come

|P F |
=e (31)
|P A|

che si può scrivere anche come

r
` = e. (32)
e
+ r cos(θ)

Quest’ultima equazione, risolta in r, fornisce l’equazione della conica scritta


sopra (Eq. 30)
Nel caso delle orbite ellittiche (0 ≤ e ≤ 1) si può calcolare l’afelio ra
e il perielio rp (rispettivamente il punto più distante e più vicino al fuoco)
attraverso le seguenti relazioni:

`
ra = (33)
1−e

`
rp = . (34)
1+e

Il semiasse maggiore dell’ellisse a si ottiene invece cosı̀ :

ra + r p `
a= = , (35)
2 1 − e2

mentre per il semiasse minore b vale la relazione

` √
b= √ = a 1 − e2 . (36)
1 − e2

11
Si può quindi ricavare l’area come

A = πab = πa2 1 − e2 , (37)

e attraverso la relazione
s
√ `
1 − e2 = , (38)
a

si può anche scrivere


3√
A = πa 2 ` (39)
Finalmente, il periodo di rivoluzione T può essere riscritto come

3√
A πa 2 `
T =  dS  = L (40)
dt 2m1

e ricordando che per ` vale l’Eq. (27), si arriva al risultato finale

v
1
u
3u
T = 2πa 2t
u
. (41)
Gm2

Questa equazione contiene infatti la terza legge di Keplero. Per tutti i


pianeti del sistema solare, il quadrato del periodo è proporzionale al cubo del
semiasse maggiore.
In sostanza,

! ! ! !
T2 T2 T2 T2
= = = = ... (42)
a3 T erra
a3 M arte
a3 V enere
a3 Giove

discende dal fatto che nell’equazione (41) compaiono soltanto la massa del
sole m2 , e la costante universale di attrazione gravitazionale G.

12
Naturalmente, nel corso della derivazione delle leggi di Keplero dalla teo-
ria di Newton si sono utilizzate delle approssimazioni. Per esempio, si è con-
siderato il sole fisso all’origine, anzichè trattare il sistema come un problema
a due corpi (sole-pianeta). Inoltre, appare evidente che si sono trascurate le
complicazioni dovute alle perturbazioni degli altri pianeti sulla traiettoria di
rivoluzione del pianeta attorno al sole.

1.3 Commenti
Il problema dell’orbita di un pianeta soggetto ad una forza dipendente dal
quadrato inverso della distanza fu posto da Hooke nel 1679. Si riporta che
Newton conoscesse la soluzione già nel 1684, anno in cui Halley visitò Newton
a Cambridge. Halley pressò Newton su questo problema e Newton rispose
immediatamente che era un’ellisse. Dopodichè Newton riprese la questione
nei Principia che furono pubblicati nel 1687.
La trattazione che si è discussa nel paragrafro precedente si trova spesso
(con alcune varianti) nei libri di testo universitari di Fisica Classica4 . Questo
modo di dimostrare le leggi di Keplero dalla teoria di Newton risale, di
fatto, al Trattato “Meccanica Celeste” di S.P. Laplace, degli inizi del 1800.
L’approccio secondo Laplace al problema della dimostrazione delle leggi di
Keplero è basato su considerazioni energetiche, attraverso il calcolo dell’integrale
energia e del vincolo imposto dalla conservazione del momento angolare.
Sebbene non venissero espresse ancora in forma moderna, la conservazione
dell’energia meccanica e del momento angolare erano note a Laplace. Un
problema che risulta evidente dalla trattazione presentata concerne la diffi-
coltà della seconda integrazione, che rende non particolarmente facile la pre-
sentazione dell’ intera dimostrazione. Si può dunque capire perchè il matem-
atico tedesco Carl Gustav Jacob Jacobi (1804-1851) nel 1842 pubblicò una
memoria in Latino De motu puncti singularis in cui presentò una semplcis-
sima, concisa ed elegante soluzione del problema del quadrato inverso, dove si
dimostra che l’orbita è, appunto, un’ellisse (o più correttamente, una sezione
conica).
In una lezione come questa, incentrata sugli aspetti logico-deduttivi della
fisica, vale la pena di ripetere la dimostrazione di Jacobi. Seguiremo la
4
Naturalmente vi sono delle eccezioni, per esempio, il testo “La Fisica di Berkeley-
Meccanica” segue un procedimento alquanto diverso

13
dimostrazione di Jacobi facendo riferimento alla notazione vettoriale, in-
trodotta però successivamente rispetto al lavoro originale.
Partiamo osservando che il versori ~η e ρ~ introdotti precedentemente godono
della seguente proprietà:

d~η
= −~
ρ. (43)

La legge di Newton si può esprimere in forma vettoriale come:

d~v ~r
= −Gm2 3 . (44)
dt r

D’altro canto, siccome d~v /dt = ωd~v/dθ, la legge di Newton si può anche
scrivere come
d~v Gm2 ~r
= − 2 = −λ~
ρ, (45)
dθ ωr r

dove nell’ultima equazione si è utilizzata la costanza della velocità areolare


(ωr 2 = costante) per introdurre un’unica costante λ (e si è osservato che il
vettore ~r/r corrisponde ovviamente al versore radiale ρ~).
Confrontando le equazioni (43 e 45) è evidente che vale l’equazione
d~v = λd~η (46)
che in forma integrale diventa
~v = ~vo + λ(~η − ~ηo ). (47)

Possiamo introdurre il momento angolare Λ ~ per unità di massa, ovvero


~ = L/m
Λ ~ 1 , come Λ~ = ~r × ~v , e applicando l’equazione appena trovata, si
5
ottiene
~ = ~r × (~vo − λ~ηo ) + λ~r × ~η =
Λ (48)
~zr[(voy − ληo y ) cos θ − (vox − ληo x ) sin θ + λ] . (49)
5
Con ~z si è indicato il versore perpendicolare al piano su cui giace la traiettoria

14
Riordinando le componenti cartesiane dell’ultima equazione, si ottiene

Λ
r= (50)
λ − (vox − ληo x )sinθ + (voy − ληo y ) cos θ

che corrisponde ad una generica conica in forma polare.


Scegliendo opportunamente le condizioni iniziali (per esempio vox = 0 e
ηo x = 0) si può ulteriormente ridurre l’equazione della conica nella sua forma
normale, con l’origine del sistema di coordinate polari nel fuoco

Λ
λ
r= . (51)
1 + ( vλo − 1) cos θ

Jacobi usò questo metodo (senza però l’ausilio della notazione vettoriale qui
esposta) per dimostrare la prima legge di Keplero, partendo dalla legge di
gravitazione universale.
Facciamo ora un breve cenno sul percorso che invece ha seguito Newton
nei Principia. Il percorso di Newton è un percorso essenzialmente geomet-
rico e si avvale di una proprietà assai bizzarra (ai nostri occhi) delle sezioni
coniche. Newton conosceva, dai lavori di Hyugens, il concetto di cerchio
osculatore e raggio di curvatura di un punto su di una traiettoria curva. 6
Definito come γ l’angolo che ha come vertice il punto generico P sulla
traiettoria (si veda la figura 5), e come estremi il fuoco e il centro di curvatura
del punto P , si riscontra che la velocità areolare può essere scritta nei seguenti
modi diversi
dS 1 1 1
= rvθ = rγ v = r 2 ω = costante . (52)
dt 2 2 2

Con rγ = r cos γ si è indicata la proiezione del raggio r sulla retta normale


alla tangente nel punto P (l’uguaglianza tra il secondo ed il terzo membro
6
Ricordiamo che il centro di curvatura corrisponde al punto d’intersezione di due linee
normali alla traiettoria tracciate nell’intorno del punto in esame, e richiede, come passaggio
al limite, che l’ampiezza dell’intorno tenda a zero.

15
Figure 5: L’angolo γ, definito dall’intersezione dal vettore ~r con la retta in
cui giace il centro di curvatura

dell’equazione deriva dalla nota proprietà che l’area di un triangolo è data


dal semiprodotto della base per la corrispondente altezza, ed il risultato non
dipende ovviamente dal lato che viene scelto come base).
Newton inoltre conosceva una importante proprietà geometrica delle sezioni
coniche, ovvero
Rc cos3 γ = ` (53)
dove Rc è il raggio di curvatura del generico punto P sulla curva, e γ è il già
citato angolo con il vertice sul punto P e delimitato dalle due rette passanti
per il fuoco e per il centro di curvatura ed intersecantesi nel punto P .
L’equazione (52) consente di esprimere la velocità (in modulo) in funzione
dell’angolo θ, secondo la seguente espressione

2( dS
dt
)
v(θ) = . (54)
r(θ) cos γ

16
Newton mostra che tale condizione è necessaria e sufficiente perchè il moto
sia governato da una forza centrale. In pratica, Newton riesce a fattoriz-
zare le caratteristiche del moto in due aspetti, quello cinematico e quello
geometrico. L’aspetto cinematico, che coinvolge il movimento e descrive la
successione temporale con cui i punti della traiettoria vengono attraversati,
è fissato esclusivamente dalla caratteristica che la forza è centrale, attraverso
l’equazione (54). Invece, l’aspetto geometrico, ovvero della forma della trai-
ettoria, viene messo in connessione con la dipendenza radiale della forza.
Infatti, il mobile m1 viene pensato muoversi con continuità su di una
successione di cerchi osculatori con raggio Rc , con la componente della forza
lungo il raggio di curvatura pari a |F~ (r)| cos γ che fornisce la necessaria ac-
celerazione centripeta per la curvatura m1 v 2 /Rc ,

F (r) cos γ = m1 v 2 /Rc . (55)

Risolvendo l’equazione in funzione di F (r) e utilizzando l’equazione (54)


si ottiene

4m1 ( dS
dt
)2 1
F (r) = . (56)
Rc cos3 γ r 2

Emerge allora, dal ragionamento di Newton, che se la traiettoria è un’ellisse


con l’attrazione diretta verso il fuoco, allora si ha la costanza del primo fat-
tore (per via dell’ Eq. (53)) e la forza dipende necessariamente dall’inverso
del quadrato della distanza.
Newton, in conclusione, attraverso un ragionamento logico deduttivo, di-
mostra dalla seconda legge di Keplero che la forza attrattiva gravitazionale
deve essere di tipo centrale. Successivamente, partendo dalla prima legge di
Keplero, conclude che la forza gravitazionale soddisfa la legge del quadrato
inverso. La terza legge di Keplero non è logicalmente indipendente dalle
prime due: infatti abbiamo già mostrato come si può far derivare la legge
delle armoniche dalla teoria newtoniana della gravitazione universale 7
Bisogna però osservare che questa connessione fra le tre leggi di Keplero e
la legge di gravitazione universale, può essere dimostrata soltanto nell’ambito
7
In realtà, la terza legge di Keplero contiene un aspetto aggiuntivo rispetto alle altre
due, ovvero l’equivalenza fra massa inerziale e gravitazionale, ma questa questione, per
brevità, non viene trattata in questa lezione.

17
della meccanica newtoniana. Senza i principi della dinamica di Newton, e il
concetto di forza a distanza, non è possibile interpretare il significato delle
tre leggi di Keplero.

1.4 Vantaggi (e svantaggi) di una teoria


Una cattiva notizia è che le teorie richiedono un sacco di lavoro teorico-
deduttivo: in generale tra i principi teorici ipotetici di partenza, e il calcolo
finito di quantità misurabili od osservabili la distanza non è breve, ci sono for-
mule anche laboriose e calcoli complessi. I calcoli mostrati in questa lezione
sono ben poca cosa, in confronto alla complessità di un calcolo di fisica nu-
cleare, di meccanica quantistica, o di meccanica statistica. Inoltre, in alcuni
settori, il paradigma di ricerca dominante è basato su teorie che ancora non si
riescono a risolvere e calcolare in maniera adeguata per poter confrontare cal-
coli affidabili con i dati sperimentali. Un caso emblematico è la fisica adronica
(che studia le proprietà dei barioni e mesoni) alle basse energie, dove la teoria
interpretativa dei fenomeni è la QCD non-perturbativa (l’acronimo QCD sta
per cromodinamica quantistica ovvero la teoria dei quarks e dei gluoni), che
a tutt’oggi rappresenta una teoria dove i calcoli matematici hanno posto os-
tacoli insormontabili. In moltissimi campi di ricerca c’e‘ molto lavoro teorico
da fare per poter progredire. Questa complessità crescente dei calcoli, questa
distanza crescente tra i concetti matematici della fisica teorica e le quan-
tità ossevabili rendono la fisica moderna poco accessibile all’uomo comune:
è difficile divulgare i risultati conseguiti, far comprendere l’importanza degli
obbiettivi di ricerca non solo all’uomo della strada, ma anche al politico che
decide dei finanziamenti.
Un’altra notizia cattiva è che le teorie sono interpretazioni, non sono pas-
sibili di misure dirette; non c’è misura o osservazione che possa confermare la
verità assoluta di una teoria. Pertanto le teorie non sono mai certe, ma con-
tinuano a sopravvivere fino a che il disaccordo con le osservazioni non diventa
cosı̀ critico e insostenibile che bisogna abbandonarle e cercare di inventare
nuove teorie. Quindi bisogna distinguere le osservazioni e sperimentazioni
dalle interpretazioni teoriche. Osservare una moneta che cade sul fondo di
un recipiente pieno d’acqua e misurarne la cinematica è un’osservazione e
una misura. Tali osservazioni non cambieranno (possono ovviamente essere
sempre migliorate) anche se un giorno la teoria della gravitazione o la fluido-
statica/fluidodinamica venissero clamorosamente sostituite da nuove teorie,

18
che si dimostreranno migliori delle precedenti. Osservare e misurare le carat-
teristiche delle lune di Giove è un’osservazione. La data di quella prima
osservazione galileiana resterà un punto fisso nella storia delle conoscenze
dell’umanità, anche se le idee di Galilei sull’inerzia potrebbero in futuro venir
soppiantate da idee totalmente diverse sul moto. Osservare il ruotare del
piano di oscillazione del pendolo di Foucault è ancora un’osservazione. Os-
servare e misurare il ticchettio che produce una sorgente radioattiva su di un
contatore Geiger-Müller è un’osservazione, (anche se ovviamente sono coin-
volti degli strumenti scientifici che presuppongono per il loro utilizzo una loro
base di conoscenze pratiche e teoriche). Osservare e misurare un intervallo
temporale fra due eventi è ancora un’osservazione e una misura, anche se -
come è ben noto- bisogna sempre esplicitare il sistema di riferimento rispetto
al quale avviene la misurazione. Tali osservazioni e misure non dipendono
dalla teoria. L’ osservazione dei fenomeni di diffrazione e interferenza dei
raggi catodici resterà confermata anche se un domani la meccanica quantis-
tica dovesse essere clamorosamente smentita da ipotetiche nuove osservazioni.
Certamente bisogna stare attenti a quello che si osserva veramente: se
uno, guardando una mela che cade da un albero, dice che sta osservando
l’effetto della gravitazione universale, non sta facendo una osservazione, ma
sta offrendo un’interpretazione. Se uno, mentre osserva e misura il moto del
pendolo di Foucault, dice che sta osservando la rotazione della terra ancora
una volta sta offrendo una interpretazione, per quanto lecita e ragionevole
possa essere.
Naturalmente, l’intreccio fra esperimento e teoria è un punto cruciale
del metodo scientifico. Sono le teorie che offrono nuovi spunti e indirizzi
alla ricerca sperimentale, che suggeriscono dove e cosa andare a cercare.
Senza teoria la ricerca sperimentale avanzerebbe alla cieca e senza strate-
gie. La teoria può indicare la possibile esistenza di un nuovo oggetto as-
tronomico (un pianeta, oppure una pulsar) oppure un nuovo tipo di parti-
cella dell’infinitamente piccolo, oppure un nuovo fenomeno fisico da osservare.
Questo è chiaramente un vantaggio considerevole della teoria. Le teorie ci
offrono inoltre nuovi concetti e nuovi strumenti mentali per interpretare e
considerare sotto una luce nuova il mondo in cui viviamo.
La teoria del moto di Newton e l’ipotesi teorica dell’azione delle forze a
distanza ci portano molto più avanti nella nostra capacità di rappresentare
il mondo che ci circonda, rispetto a quanto possono fare le Leggi di Keplero,
oppure rispetto alla visione della natura suggeritaci da Aristotele.

19
Questo dato di fatto, noi lo possiamo leggere direttamente nei Principia.
Infatti Newton enuncia e interpreta fatti empirici ben più vasti delle leggi di
Keplero.

• 1) I satelliti di Giove soddisfano la legge delle aree e la legge armonica


rispetto a Giove.
• 2) La stessa cosa vale per i satelliti di Saturno.
• 3) la luna soddisfa alla legge delle aree rispetto alla terra.

Si possono inoltre fare delle nuove previsioni. Per esempio:

• 4) Sulla variazione dell’accelerazione g (e quindi del peso) con l’altezza:


g a 4000 metri è leggermente più basso rispetto al valore di g sul livello
del mare.
• 5) Sulla variazione di g (e quindi del peso) con la latitudine. Siccome la
forma della terra è schiacciata ai poli rispetto all’equatore ci si aspetta
che all’equatore g sia leggermente minore
• 6) Sulle traiettorie delle comete, che come abbiamo visto debbono essere
delle coniche.
• 7 Sulle caratteristiche del fenomeno delle maree, il quale viene spiegato
dagli effetti combinati dell’attrazione lunare (e solare) sulla superficie
della crosta terrestre.

• 8) Sulle correzioni necessarie alle leggi di Keplero. Per esempio, se


vogliamo risolvere il problema sole-pianeta come un sistema a due corpi
con la corretta trattazione del moto del centro di massa, si ottengono
subito delle piccole deviazioni dalla legge delle armoniche in quanto
l’equazione diventa

2 (2π)2
3
T =a . (57)
G(m1 + m2)
20
Qui si vede che c’è una dipendenza anche dalla massa del pianeta
m1 , che però è generalmente trascurabile rispetto a quella del sole m2 .
Le deviazioni più grandi alla legge delle armoniche riguardano il caso
del pianeta Giove, che ha una massa soltanto mille volte più piccola
rispetto a quella del sole. Altre correzioni che si possono tenere in
conto riguardano le perturbazioni sui pianeti dovute ai fenomeni di
mutua interazione con i rimanenti pianeti del sistema solare.

• 9) Sul fenomeno di precessione degli Equinozi. La teoria di Newton


riesce a spiegare il fenomeno di precessione della rotazione terrestre
con l’effetto combinato dello schiacciamento ai poli della terra e di una
maggior attrazione verso il sole delle parti della terra che si trovano più
vicine al sole. Ciò introduce di fatto un momento torcente ad opera
dell’attrazione gravitazionale del sole sulla terra, che obbliga la terra a
comportarsi come se fosse una trottola.

Questo vasto insieme di fatti empirici viene armonizzato nell’ambito di


un’unica prospettiva intellettuale, (la sintesi newtoniana), che è l’immagine
della natura che ha costruito Newton, e che ci ha lasciato in eredità.

2 Attività:

1) Dimostrate che l’orbita di un pianeta soggetto ad un’attrazione verso


un centro (il sole) sta sempre in un piano.
2) Commentate brevemente8 le diversità fra le dimostrazioni (riportate
nella lezione) che connettono le leggi di Keplero alla teoria di Newton.

8
Si raccomanda la sintesi!

21
CORSO DI FONDAMENTI STORICO-EPISTEMOLOGICI DELLA
FISICA

SESTA LEZIONE

L. Canton

1 Il determinismo
C’è ovviamente un fondante elemento di fiducia nel credere che l’impresa sci-
entifica produca una conoscenza oggettiva della realtà. La storia del pensiero
scientifico occidentale è stata caratterizzata da questa tendenza, ovvero che
il mondo con la sua miriade di fenomeni e diversità della natura possa essere
ricondotto ad un piccolo insieme di leggi o principi. C’è in questo desiderio
la necessità di credere che il mondo nel quale viviamo possa essere a noi
intelleggibile.
Si è cercato di basare la visione scientifica del mondo sull’accettazione
dell’idea che vi sia un principio di semplicità delle leggi fondamentali della
natura. E che in questa semplicità si possa cogliere la vera essenza della
realtà esterna da noi.
L‘altra visione che emerge dallo sviluppo della prima meccanica classica
è l’impostazione sostanzialmente materialistica (in senso filosofico) che la
natura dell’universo sia fatta nella sua essenza di materia e delle sue inter-
azioni: questa visione porta ad una visione completamente deterministica
dell’Universo. Si osserva spesso la tendenza a credere che sia stato soltanto
con l’avvento della Meccanica Quantistica che si è arrivati ad una radicale
rottura con questa impostazione, poichè è la Meccanica Quantistica che ha
messo in crisi l’impostazione materialista e deterministica della Fisica Clas-
sica. Ciò che si trascura, in questa tendenza, è che in realtà si è potuto
osservare un radicale cambiamento di atteggiamento rispetto al determin-
ismo, e alla completa fiducia nella scienza che questa impostazione sottende,

1
senza per questo dover uscire dal paradigma della fisica classica e discutere
di meccanica quantistica.
Il determinismo insito nelle equazioni di Newton discende dall’osservazione
che, una volta date le esatte posizioni e velocità iniziali di tutte le particelle
dell’Universo, l’equazione F~ = m~a ci consente di calcolare e prevedere le
traiettorie di tutte le particelle, e quindi di conoscere il futuro dell’Universo,
nonchè ovviamente il passato.
Possiamo anche formalizzare questo aspetto della teoria di Newton nel
modo seguente: per un sistema di N particelle, la conoscenza esatta di

~ri (t0 ) (1)


~vi (t0 ) (2)

F~i = mi~ai , (3)

dove i (i = 1, . . . N ) denota la particella i-esima di massa mi e con posizione


(all’istante iniziale t0 ) ~ri (t0 ) e velocità ~vi (t0 ), porta alla conoscenza esatta,
matematica, di ~ri (t) per ogni valore di t, ovvero nel passato e nel futuro.
Bisogna osservare a questo punto due ordini di problemi: Da un lato, i
successi che si sono avuti da Newton in poi nell’integrazione analitica delle
orbite dei pianeti rispetto al sole1 , non ci autorizzano a pensare che per
ogni sistema materiale sia possibile integrare analiticamente le equazioni del
moto, e ottenere sempre traiettorie esprimibili in forme analitiche chiuse. Per
esempio, non è possibile ottenere una soluzione esatta di un sistema di tre o
più corpi gravitazionali in interazione: bisogna utilizzare tecniche di calcolo
numerico o procedere per approssimazioni successive. Dall’altro lato, sorge
il problema che quando si tenta di descrivere le condizioni iniziali per un
dato sistema fisico, ci muoviamo sulla sfera delle conoscenze pratiche, dove
non si riesce a determinare (misurare) con precisione assoluta il valore delle
grandezze fisiche. Per esempio, noi possiamo conoscere la posizione iniziale
e la velocità iniziale di un punto materiale con un’incertezza statistica ∆~r0 e
∆~v0 .
Secondo lo schema classico, in principio noi possiamo arrivare a rendere
sempre più piccolo l’errore raffinando le tecniche di misura, però nella prat-
ica abbiamo associato ad ogni misura un margine di errore. In meccanica
1
Ne abbiamo visto un esempio nella lezione precedente

2
classica, il linea di principio, noi potremo arrivare a conoscere con preci-
sione assoluta il valore di una misura, ma in pratica la nostra conoscenza
di una quantità fisica ha sempre associato un margine ineliminabile di in-
determinazione. Questo tipo di indeterminazione viene detto errore epis-
temico, ed è dovuto ai limiti di precisione strumentali e statistici impliciti
in ogni attività di misurazione. (L’errore epistemico indica un limite di in-
certezza nel modo con cui noi possiamo conoscere il mondo, piuttosto che nel
modo con cui il mondo è fatto) Questo tipo di indeterminazione si distingue
dall’indeterminazione non epistemica ma “di principio” che si riscontra in
meccanica quantistica.
Il determinismo meccanico del diciassettesimo secolo era in larga misura
consonante con l’opinione teologica di un Dio onnipresente e onnisciente
e rafforzava la concezione di una divina preveggenza. Il determinismo in-
sito nelle equazioni di Newton portava infatti all’idea di un mondo fatto
di materia e regolato da leggi che rigorosamente determinavano l’evoluzione
dell’universo. È interessante osservare che in Newton non era ancora emersa
l’idea che l’universo meccanico potesse autosostenersi esclusivamente tramite
le sue leggi. Il ruolo del Creatore, nell’universo meccanico di Newton non si
limitava all’atto della creazione del mondo e all’instaurazione di un ordine
dettato dalle leggi della natura. Veniva previsto un continuo intervento da
parte del creatore per mantenere l’ordine nell’universo, e per mantenerne la
stabilità. Newton, nel suo trattato di Ottica aveva intuito che le leggi della
meccanica non garantivano la stabilità al sistema solare (a causa della mu-
tua interazione dei pianeti e degli effetti delle comete) per cui, di tanto in
tanto, si richiedeva l’intervento del creatore per riformare i moti e ristabilire
la regolarità del moto.
L’universo veniva concepito come un grande orologio, con un Dio che
interveniva per ricaricarlo di tanto in tanto e rimetterlo ordinatamente in
funzione, (risolvendo in questo modo il problema della stabilità del sistema
solare). Questa impostazione tese a rafforzarsi e a radicalizzarsi nel diciottes-
imo secolo, dove la fiducia nelle equazioni della meccanica diventò tale che
prese piede l’idea che l’universo meccanico fosse in grado di autsostenersi
senza l’intervento del creatore. L’universo diventava un grande orologio com-
pletamente autosufficiente, che non richiedeva più interventi divini per essere
“ricaricato”: l’universo in questo istante resta completamente determinato
dalle condizioni passate, ovvero dallo stato in cui si trovava in precedenza, e
lo stato attuale dell’universo definisce completamente le cause che lo faranno

3
evolvere nel futuro.
Forse giova citare la risposta Je n’avais pas besoin de cette hypothèse là 2 ,
che Laplace pare aver dato all’imperatore Napoleone Bonaparte (1769-1821),
dopo che gli fu chiesto se aveva menzionato Dio, nel suo trattato Meccanica
Celeste. Evidentemente, per Laplace non c’era bisogno dell’azione divina per
far mantenere in movimento l’universo.

1.1 Il determinismo nelle equazioni di Newton.


Cerchiamo di analizzare un pò più in dettaglio la questione del determinismo
nelle equazioni di Newton. Consideriamo il problema balistico del calcolo
della gittata L di un proiettile di massa m, e soggetto alla forza peso F~g = m~g ,
che esce dalla bocca di un cannone con velocità iniziale (a t = 0) v0 e alzo φ.
(Figura 1)
Come mostrato in figura, consideriamo un sistema di assi cartesiani, con
l’asse y diretto verticalmente verso l’alto e l’asse x orizzontale.
La seconda legge di Newton consente di scrivere l’equazione

d~v
m = F~g (4)
dt
ovvero
d~v
= ~g . (5)
dt

Questa equazione, porta alle seguenti leggi orarie

~v (t) = ~v0 + ~g t , (6)

1
~r(t) = ~r0 + ~v0 t + ~g t2 . (7)
2

Risulta evidente che, conoscendo le posizioni iniziali e le velocità iniziali


di ogni singola particella (e, naturalmente, le espressioni delle forze) posso
2
non ho bisogno di quella ipotesi

4
Figure 1: Illustrazione del problema balistico. Supponiamo di avere
all’origine O un cannone con un alzo φ, che lanci un proiettile con velocità
iniziale vo . Quale sarà la gittata L?

determinare l’evoluzione temporale fino a t = +∞, e analogamente risalire


alla situazione dinamica fino al più lontano passato (t = −∞).
Per determinare la gittata del proiettile L considero le componenti della
velocità e della posizione lungo i due assi cartesiani,

vx (t) = v0 cos(φ) (8)


vy (t) = v0 sin(φ) − gt (9)

e posto ~r0 = 0

x(t) = v0 cos(φ)t (10)

1
y(t) = v0 sin(φ)t − gt2 . (11)
2

5
L’istante dell’impatto si ricava immediatamente dalla condizione in t:
y(t) = 0. Si ottiene

1
y(t) = t(v0 sin(φ) − gt) = 0 (12)
2

da cui si ha l’espressione per l’istante d’impatto

2v0 sin(φ)
t= . (13)
g

La gittata L è data dal valore che assume x(t) in corrispondenza dell’istante


d’impatto,

v02
L = v0 cos(φ)t = 2 cos(φ) sin(φ) (14)
g
e ricordando la formula di duplicazione del seno

v02
L = sin(2φ) . (15)
g

Si osserva subito che la massima gittata balistica si ottiene quando l’angolo


di alzo è di 45o (in quanto sin(2φ) assume il valore massimo 1), e il valore di
tale gittata è Lmax = v02 /g.
Naturalmente, noi sappiamo che il moto dipende dai valori iniziali della
posizione e della velocità. Questi valori, a loro volta, sono oggetto di mis-
urazioni, e sono dunque soggetti ad errori. Ignoriamo, per semplicità, l’errore
sulla posizione (∆x e ∆y) e concentriamoci soltanto sull’imprecisione nell’alzo
∆φ e nel valore assoluto della velocità ∆v0 . Faremo la supposizione che questi
errori siano “piccoli”, in particolare, per fissare le idee:

∆v0
' 1% ; ∆φ(radianti) ' 1% . (16)
v0

6
Possiamo allora fare il calcolo delle variazioni per l’espressione della git-
tata, e ottenere

∆v0 v2
∆L = 2v0 sin(2φ) + 0 cos(2φ)2∆φ , (17)
g g

∆L ∆v0
=2 sin(2φ) + 2 cos(2φ)∆φ. (18)
Lmax v0

Bisogna osservare che si è preso come lunghezza caratteristica del sistema il


valore fisso Lmax , in quanto questa lungezza è indicativa del raggio d’azione
del sistema.
Osserviamo che l’errore relativo nella gittata

∆L
' 2% (a 90o ) (19)
Lmax

∆L
' 2% (a 45o ) (20)
Lmax

è dell’ordine del 2%, perciò è perfettamente sotto controllo (basta infatti che
si conosca con una precisione dello 0.5% sia la velocità di uscita che l’alzo
(espresso in radianti) per ottenere che l’errore relativo ∆L/Lmax nella stima
del punto d’impatto è non superiore all’1%.
Ecco dunque dove si poggia l’ideale deterministico: da un lato l’accettazione
che le condizioni iniziali saranno sempre soggette ad un errore epistemico;
dall’altro lato, la convinzione che questo tipo di errore sia sempre “govern-
abile” e sia sempre possibile tenere sotto controllo la propagazione di tale
errore nel calcolo delle osservabili relative al sistema dinamico.

1.2 Il calcolo numerico di un’orbita


In questa parte si vuole riprendere la questione del calcolo di un’orbita.
Questo argomento è stato ampiamente discusso nel precedente capitolo. Però

7
questa volta vogliamo svolgere il calcolo in modo totalmente differente rispetto
al procedimento geometrico-analitico discusso in precedenza. I motivi saranno
più chiari nel proseguio della discussione.
Consideriamo il moto di un pianeta attorno al sole, assumendo la massa
del sole M sia infinitamente più grande rispetto a quella del pianeta m.
Supponiamo che il pianeta si muova partendo da un certo punto e con una
certa velocità iniziale e che descriverà una certa curva.
Si tratta di analizzare in maniera numerica il moto.
Consideriamo un punto P, indicante il nostro pianeta, su di un piano
cartesiano, e siano (x,y) le generiche coordinate cartesiane di P. Supponiamo
che sull’origine del sistema di coordinate sia posizionato il sole, √
interagente
col pianeta attraverso una forza centrale, di modulo F . Con r = x2 + y 2 si
indica la distanza di P dall’origine.
È evidente che si possono scrivere le componenti di F~ lungo i due assi
coordinati y e x come

y
Fy = F · , (21)
r
x
Fx = F · . (22)
r

Le equazioni del moto diventano, nel caso di una forza gravitazionale,

dvx x
m1 = −GM m1 3 (23)
dt r

dvy y
m1 = −GM m1 3 . (24)
dt r

Per fissare le idee, il calcolo verrà svolto con i seguenti valori numerici (in
unità arbitrarie): GM = 1000, (m1 = 70, che comunque è ininfluente nel
calcolo) x(0) = 300, y(0) = 0, vx (0) = 0.0, vy (0) = 1.1.
Il primo calcolo che si svolge è quello dell’accelerazione, all’istante t = 0,

8
n(dt) x vx ax y vy ay
0 x(0) vx (0) ax (0) y(0) vy (0) ay (0)
1 x(1) vx (1) ax (1) y(1) vy (1) ay (1)
2 x(2) vx (2) ax (2) y(2) vy (2) ay (2)
...

Table 1: Schema di una tabella che si può costruire attraverso un calcolo nu-
merico dell’orbita. Si possono approfondire le tematiche sul calcolo numerico
dell’orbita partendo dal testo R. Feynman, R.B. Leighton, e M. Sands The
Feynman Lectures of Physics [Addison-Wesley, California 1963].

come forza diviso la massa:

x(0)
ax (0) = −1000 (25)
r 3 (0)

y(0)
ay (0) = −1000 , (26)
r 3 (0)

q
dove r(0) = x2 (0) + y 2 (0) è la distanza pianeta-sole iniziale.

Poi avviene il calcolo della velocità al tempo successivo 1 (0+dt)


vx (1) = vx (0) + ax (0)dt (27)
vy (1) = vy (0) + ay (0)dt , (28)
assumendo che nell’intervallino dt il moto sia ad accelerazione costante. Analoga-
mente, si procede per arrivare alle nuove posizioni al tempo (0 + dt):

1
x(1) = x(0) + vx (0)dt + ax (0)dt2 (29)
2

1
y(1) = y(0) + vy (0)dt + ay (0)dt2 . (30)
2

Ottenute le nuove posizioni, possiamo ripetere lo schema calcolando le


nuove accelerazioni al tempo 1, e da queste le velocità al tempo 2 (cioè

9
0 + 2dt), e da queste le posizioni al tempo 2. E cosı̀ via, fino a costruire una
tabella (si veda la Tab 1) che fornisce posizione, velocità, e accelerazione per
ogni valore del tempo multiplo di dt.
All’atto pratico, per il calcolo numerico dell’orbita la discussione prece-
dente si riconduce alla scrittura di un facile programma. Si è scelto di scrivere
il programma in linguaggio Postscript, per cui il risultato diventa del tipo
mostrato in Figura 2
Il tale programma è in realtà un file grafico postscript (semplificato) che
direttamente produce la figura 3.

1.3 Commenti sul problema a due corpi


Consideriamo un sistema a due corpi, e vogliamo utilizzare la meccanica di
Newton per descrivere il moto dei due corpi soggetti soltanto alla loro mutua
interazione.
Possiamo scrivere le equazioni di Newton per i due corpi nel modo seguente

m1~r̈1 = F~12 (31)

m2~r̈ 2 = F~21 . (32)


In queste equazioni, m1 e m2 sono le masse dei due corpi, ~r̈ 1 e ~r̈2 le accel-
erazioni dei due corpi, secondo la notazione originale di Newton in cui la
derivata prima rispetto al tempo si indica con ~ṙ 1 e la derivata seconda con
~r̈ 1 . F~12 rappresenta la forza che agisce sul corpo m1 per effetto del corpo m2 ,
lungo la retta congiungente i due corpi. Per il terzo principio della dinamica
si ha che F12 = −F21 .
Possiamo sommare le due equazioni, ottenendo cosı̀:

m1~r̈1 + m2~r̈2 = 0 (33)

da cui deriva che la quantità di moto totale P~tot del sistema si conserva

m1~v1 + m2~v2 = costante . (34)

10
Questo fatto, cioè la conservazione della quantità di moto, dà particolare
rilevanza all’introduzione della coordinata del centro di massa

~ cm = m1~r1 + m2~r2
R (35)
m1 + m 2

perchè nel caso di un sistema isolato (P~tot = costante) la velocità del centro

~cm = P~tot /Mtot è costante.


di massa V
Possiamo sottrarre le due equazioni (31,32), dopo aver diviso la prima
equazione per m1 e la seconda per m2 ,

~ ~
~r̈1 − ~r̈2 = F12 − F21 , (36)
m1 m2

e, introdotta la coordinata relativa ρ~ = ~r1 − ~r2 , l’equazione dei due corpi


diventa:
1 1
 
~ρ̈ = + F~12 , (37)
m1 m2
che si può scrivere anche nella forma più conosciuta

µ~ρ̈ = F~12 , (38)


dove con µ = m1 m2 / (m1 + m2 ) si è introdotta la massa ridotta del sistema.
Vediamo di analizzare cosa abbiamo conseguito dal punto di vista pret-
tamente matematico: si è trasformato il sistema di equazioni differenziali
accoppiate

m1~r̈1 = F~12 (~r1 − ~r2 )


(
, (39)
m2~r̈2 = F~21 (~r2 − ~r1 )

attraverso il cambiamento di variabili

~ cm = m1 ~r1 +m2 ~r2


(
R m1 +m2 . (40)
ρ~ = ~r1 − ~r2

11
La trasformazione di variabili permette il disaccoppiamento del sistema di
equazioni:

~ =0
(
Mtot R̈ cm (41)
µ~ρ̈ = F~12 (ρ)

riconducendo cosı̀ il problema ad un problema effettivo a un corpo.


Chiaramente, nel caso gravitazionale, avremo:

Gm1 m2
µ~ρ̈ = − (~
ρ) (42)
ρ3

per cui l’equazione differenziale risulta

~ρ̈ = −G(m1 + m2 ) ρ~ . (43)


ρ3

Questo equazione risolve esattamente il problema a due corpi (per esempio


pianeta-sole) senza più trascurare la massa del pianeta rispetto a quella del
sole. In questo caso, se ripercorriamo il ragionamento fatto la lezione prece-
dente sul calcolo delle orbite partendo dalla legge di Newton, otteniamo la
versione che corregge la terza legge di Keplero:

s
1 3
T = 2π a2 . (44)
G(m1 + m2 )

Nell’equazione (38), vale la pena di analizzare un pò più in dettaglio il


significato della massa ridotta µ. La massa ridotta sembra il risultato di un
puro artificio matematico, e la sua introduzione rende l’equazione dei due
corpi di difficile lettura. Infatti, questa equazione ci dice che la forza agente
sul punto di massa m1 non è uguale alla massa m1 per l’accelerazione del
punto 1 rispetto al punto 2. Come mai? Perchè c’è una violazione della legge

12
di Newton? (Possiamo fissare le idee supponendo che la forza F~12 sia di tipo
gravitazionale, la massa m1 sia un pianeta e la massa m2 sia il sole.)
Per capire la situazione possiamo aiutarci con la figura 4. Fissiamo un
sistema di riferimento Oxyz (in nero in figura), in cui valgono le leggi di
Newton (abbiamo cioè un sistema inerziale). Sempre dalla figura si capisce
chiaramente che la coordinata ρ~ corrisponde alla coordinata della massa m1
rispetto ad un sistema di riferimento 0x0 y 0 z 0 (in magenta nella figura) solidale
con la massa m2 che trasla3 rispetto al sistema Oxyz.
Nel sistema Oxyx, l’equazione di Newton per m1 si scrive come

m1~r̈1 = F~12 (ρ) . (45)

Siccome ~r1 = ρ~ + ~r2 , l’equazione si può anche scrivere come

m1 (~ρ̈ + ~at ) = F~12 (ρ) . (46)

dove il termine ~at = ~r̈2 rappresenta l’accelerazione di trascinamento del sis-


tema Ox0 y 0 z 0 (che è fisso su m2 ) rispetto al sistema inerziale 0xyz. Si deve

osservare che ~at = F~21 (ρ)/m2 .


In conclusione, si ottiene

m1 ~
m1~ρ̈ = F~12 (ρ) + F12 (ρ) . (47)
m2

dove il secondo termine a destra rappresenta una forza apparente4 . Tale


termine deve essere introdotto nell’equazione di Newton a causa del fatto
che il sistema 0x0 y 0 z 0 solidale a m2 , non è più un sistema inerziale, essendo
m2 soggetto ad una forza e quindi ad un’accelerazione.
L’effetto combinato della forza gravitazionale e della forza fittizia ci ob-
bliga a scrivere
m1 + m 2 ~
m1~ρ̈ = F12 (ρ) , (48)
m2
3
il discorso sarebbe assai più complicato se il sistema 0x0 y 0 z 0 in aggiunta ruotasse
4
tale forza viene anche indicata come fittizia oppure inerziale

13
oppure

~
~ρ̈ = F12 (ρ) , (49)
µ

dove è comparsa la massa ridotta µ.

2 Cenni al problema a tre corpi


La soluzione esatta del problema dei tre corpi è un problema classico che
presenta grandissime difficoltà. Uno degli elementi di difficoltà associabile
al sistema classico a tre corpi risiede nel fatto che per questo problema non
si riesce a integrare analiticamente le equazioni del moto, come si è potuto
fare invece per le traiettorie dei pianeti soggetti alla sola attrazione gravi-
tazionale esercitata dal sole (supposto fisso al centro dell’universo). Come si
è detto nell’introduzione, la relativa facilità con cui si è ottenuta la soluzione
analitica che porta alla prima legge di Keplero non autorizza a pensare che
sia sempre possibile trovare le soluzioni analitiche al problema del moto, e
neppure che i casi in cui sia possibile integrare analiticamente le equazioni
del moto siano molto frequenti. Il problema dei tre corpi (per esempio con
interazioni gravitazionali) rientra proprio in questi casi difficili da trattare.
Possiamo impostare il sistema di equazioni dinamiche partendo dalle leggi
di Newton (in un sistema di riferimento inerziale):

 m1~r̈ 1 = F~12 + F~13




m2~r̈ 2 = F~21 + F~23 , (50)
m3~r̈ 3 = F~31 + F~32

dove il principio di azione-reazione consente di scrivere F~ij = −F~ji con (i, j =


1, 2, 3).
Possiamo sommare le tre equazioni, e utlilizzando il principio di azione e
reazione si ottiene
m1~r̈1 + m2~r̈2 + m3~r̈3 = 0. (51)
L’equazione corrisponde alla conservazione del momento
m1~v1 + m2~v2 + m3~v3 = costante . (52)

14
~cm = costante dove Mtot = P3 mi
e alla nota proprietà del baricentro Mtot V i=1
e
P3
~ cm = Pi=1 mi~ri .
R (53)
3
i=1 mi

Fra le varie formulazioni del problema a tre corpi, ricordiamo in partico-


lare la formulazione di Jacobi, per la sua utilità. La formulazione di Jacobi
non è simmetrica negli indici a tre corpi (contrariamente alla formulazione
Lagrangiana, che non discuteremo) per cui privilegia uno dei tre corpi rispetto
agli altri due. Scegliamo uno dei tre corpi in interazione, ad esempio il 3. In
questo caso le coordinate di Jacobi sono la coordinata del centro di massa
totale, cioè R ~ cm , la coordinata relativa del corpo 1 rispetto a 2, denominata
ρ~3 , e infine la coordinata relativa del corpo 3 rispetto al centro di massa della
coppia 1 e 2. Indicheremo questa coordinata con ~σ3 . Queste coordinate jaco-
biane si possono esprimere in funzione delle coordinate di particella singola
nel modo seguente:

ρ~3 = ~r1 − ~r2



 
~σ3 = ~r3 − m1m~r11 +m 2~
r2

+m2 . (54)
 ~

m1 ~r1 +m2 ~r2 +m3 ~r3
Rcm = m1 +m2 +m3

D’altra parte, si può invertire il sistema di equazioni ed esprimere le coordi-


nate di particella singola in funzione delle coordinate jacobiane:

~r1 = m1m+m m3 ~ cm




2
2
ρ~3 − m1 +m 2 +m3
~σ3 + R
~r = − m1m+m 1
ρ~3 − m1 +m m3 ~ cm .
~σ3 + R (55)
 2 2 2 +m3

~r3 = m1m+m 1 +m2 ~ cm



~σ3 + R

2 +m3

Sostituendo quest’ultime equazioni nel sistema Newtoniano dell’Eq. (50), e

~ = 0, si ottengono le equazioni del moto in formulazione


ricordando che R̈ cm
jacobiana:

ν3~σ̈ 3 = F~31 + F~32


(

~ , (56)
~
µ3 ρ̈3 = F12 + m1m+m 1
2
F~32 + m1m+m
2
2
F~13

15
dove
m3 (m1 + m2 )
ν3 = (57)
m1 + m 2 + m 3

e
m1 m2
µ3 = (58)
m1 + m 2

sono le masse ridotte dei sistemi [(m1 + m2 ),(m3 )] e [(m1 ),(m2 )], rispettiva-
mente.
Nel caso in cui le forze di mutua interazione siano di tipo gravitazionale,
la formulazione jacobiana delle equazioni del moto diventa:
 
~ ρ
~2 ρ
~1

σ̈ 3 = (m1 + m2 + m3 )G − m1m+m 1
2 ρ2
m2
3 + m +m ρ3
1
 2 1 , (59)
 ~ρ̈3 = −(m1 + m2 )G ρ~33 + m3 G ρ~13 + ρ~32
ρ3 ρ1 ρ2

dove ρ~3 = ~r1 − ~r2 , ρ~2 = ~r3 − ~r1 , e ρ~1 = ~r2 − ~r3 .
La formulazione di Jacobi è molto conveniente nel caso cosiddetto “lunare”,
ovvero nel caso in cui le due coordinate jacobiane soddisfano la condizione

ρ3
<< 1 . (60)
σ3

Si chiama caso lunare perchè ρ3 può rappresentare cosı̀ la coordinata rela-


tiva del sistema terra-luna, mentre σ3 si adatta a rappresentare la coordinata
relativa del centro di massa del sistema terra-luna rispetto al sole, che noto-
riamente è molto maggiore. In questo caso, aiutandosi con la figura 5, ci si
convince subito che valgono le condizioni
ρ~2 ' −~
ρ1 ' ~σ3 (61)
e le equazioni di Jacobi diventano

~

σ̈ 3 = −(m1 + m2 + m3 )G σ~σ33
~ρ̈3 = −(m1 + m2 )G ρ~33
3
. (62)

ρ3

16
Ecco allora che otteniamo che in questo caso approssimato il moto dei tre
corpi si disaccoppia in due moti kepleriani per le coordinate relative. Ovvero,
il centro di massa del sistema terra-luna si muove di moto kepleriano rispetto
al sole, come se la massa totale del sistema terra-luna fosse tutta concentrata
nel suo centro di massa, mentre la luna si muove di un ulteriore movimento
kepleriano rispetto alla terra. Questa è indubbiamente una bella semplifi-
cazione, rispetto alla complessità originale delle equazioni a tre corpi! Fra
l’altro, è curioso osservare che la traiettoria che cosı̀ si ottiene per la luna
rispetto al sole mantiene una vaga parentela con la geometria tolemaica
dell’epiciclo.
Se però ci discostiamo da queste condizioni particolari (del caso lunare),
e da altre simili, e affrontiamo il problema generale del calcolo della traiet-
toria per tre corpi in interazione, dobbiamo renderci conto che non abbiamo
a disposizione una soluzione analitica, e che, il più delle volte, dobbiamo far
ricorso a metodi puramente numerici. Ciò si può ovviamente fare, gener-
alizzando il programma numerico discusso precedentemente al caso dei tre
corpi.
Il risultato del calcolo numerico può essere osservato nelle due figure 6 e 7,
dove vengono illustrate 12 sequenze dell’evoluzione di un sistema di tre corpi
in interazione gravitazionale. Dal confronto delle due figure emerge un fatto
nuovo: in questo caso non è possibile tenere sotto controllo gli errori sulle
condizioni iniziali del sistema. Il regime del moto è quindi sostanzialmente
diverso da quello che avevamo visto precedentemente nel caso del problema
balistico. Nella situazione attuale abbiamo che un piccolissimo errore nelle
condizioni iniziali porta a delle conseguenze catastrofiche: è l’emergere del
caos ovvero della sostanziale impredicibilità nei tempi lunghi dell’evolversi
dei sistemi dinamici deterministici, a causa della estrema sensibilità alle con-
dizioni iniziali. La situazione fu messa in evidenza in modo molto chiaro da H.
Poincaré nel 1908: “Una causa piccolissima che sfugga alla nostra attenzione
determina un effetto considerevole che non possiamo mancare di osservare e
allora diciamo che l’effetto è dovuto al caso. Se conoscessimo esattamente le
leggi della natura e la situazione dell’universo all’istante iniziale, potremmo
prevedere esattamente la situazione dell’universo in un istante successivo.
Ma non è sempre cosı̀; può accadere che piccole differenze nelle condizioni
iniziali ne producano di grandissime nei fenomeni finali”.
Il caos deterministico si riferisce al comportamento complicato, impreved-
ible e sostanzialmente casuale che sembrano avere certi sistemi dinamici clas-

17
sici. Gli eventi atmosferici e metereologici sono un esempio paradigmatico di
comportamenti caotici: “il tempo che farà” risulta sempre più impossibile da
prevedere, man mano che si vogliono allungare gli intervalli di tempo della
previsione. Abbiamo fatto vedere che, col problema dei tre corpi, pur nella
sua relativa semplicità, già incontriamo uno di questi sistemi.
Questi sistemi si caratterizzano per l’esistenza di due regimi di moto.
Sotto certe circostanze il moto diventa regolare, prevedibile e riproducibile
proprio come quello dei pianeti nel nostro sistema solare. Sotto altre cir-
costanze, il moto acquista un regime caotico e perdiamo la nostra capacità
di prevederne l’evoluzione futura. Un fluido che scorre nei tubi a basse ve-
locità va incontro ad un regime di moto ordinato (il moto laminare) che è
prevedibile e descivibile con grande semplicità. Man mano che si aumenta
la velocità di scorrimento, il moto diventa complicato, disordinato ed im-
prevedible allorchè si instaura il regime di moto turbolento. Abbiamo allora
realizzato una transizione dall’ordine al caos.
Per questa ragione, dobbiamo concludere che l’ideale del determinismo
come fondamento della meccanica newtoniana si è sviluppato in una certa
misura anche sul pregiudizio e sull’ eccesso fiducia nella completa intelleggi-
bilità delle leggi della meccanica. Ma, come abbiamo illustrato, le leggi della
meccanica newtoniana non possono assolutamente giustificare la pretesa di
un determinismo assoluto, in quanto abbiamo visto che le leggi della mec-
canica newtoniana contengono, al loro interno, i germi di evoluzioni assai
stravaganti per moltissimi sistemi, almeno su tempi sufficientemente lunghi.
Queste derive indeterministiche contenute nelle leggi della meccanica classica
sono state poste in evidenza dalla teoria del caos di Poincarè, e si possono
anche metter in relazione con la teoria dei frattali di Mandelbrot.

18
Printed by

Apr 03, 05 3:40 newton−C.ps Page 1/1


%! postscript by Luciano Canton
% −−−−−−−−−−−−−−−−− variables and procedures

/dt 0.09 def


/k 1000 def
/m1 70 def

/x1 300 def


/y1 0 def

/vx1 0 def
/vy1 1.1 def

/force{
/r x1 dup mul y1 dup mul add sqrt def
/fx{k m1 mul r div r div x1 r div mul neg} def
/fy{k m1 mul r div r div y1 r div mul neg} def} def

/acc{/ax1 fx m1 div def


/ay1 fy m1 div def} def

/position{/x1 x1 vx1 dt mul ax1 2.0 div dt dt mul mul add add def
/y1 y1 vy1 dt mul ay1 2.0 div dt dt mul mul add add def
} def

/velocity{/vx1 vx1 ax1 dt mul add def


/vy1 vy1 ay1 dt mul add def
} def

/particle1{2 0 360 arc 0.0 setgray stroke} def

/punto{3 0 360 arc 0.0 setgray fill} def

/printpart{x1 y1 particle1} def

% −−−−−−−−− begin program

200 300 translate 1.1 1.1 scale


0 0 punto

1 1 90 { 1 1 30 {force acc velocity position


force acc position velocity
} for printpart} for

showpage

Sunday April 03, 2005 1/1

Figure 2: Programma scritto in linguaggio postscript (postfix) che pro-


duce direttamente l’immagine grafica 19illustrata nella figura successiva. È
sufficiente avere un interprete tipo ghostview, per files con estensione “ps”
(postscript), per visualizzare l’immagine dell’orbita. Il programma segue alla
lettera la presentazione discussa in questa lezione, eccetto che per un trucco
che stabilizza l’orbita nei tempi lunghissimi. Il programma non è ottimizzato,
per renderlo più trasparente
Figure 3: Questa figura è il risultato grafico producibile direttamente con
il testo postscript illustrato nella figura precedente. È sufficiente avere un
“viewer” per file postscript, per esempio l’interprete ghostview.

20
Figure 4: Schema di riduzione di un problema a due corpi in un problema
effettivo ad un corpo. Le equazioni originarie vengono scritte in un sistema
di riferimento inerziale (in nero in figura). Il sistema viene ricondotto ad
un problema effettivo ad un corpo se ci si riferisce al sistema di riferimento
(non inerziale) solidale col corpo di massa m2 (punto in rosso). La massa
m1 viene cosı̀ modificata in massa inerziale ridotta µ a causa della comparsa
delle forze apparenti nel nuovo sistema di riferimento Ox0 y 0 z 0

21
Figure 5: Schema in cui le coordinate jacobiane soddisfano la condizione
“lunare”, ovvero ρ3 /σ3 << 1. In questo limite si ha che ρ~2 '−~
ρ1 '~σ3 , e le
equazioni di Jacobi si disaccoppiano in due movimenti kepleriani per le due
coordinate relative

22
Figure 6: Evoluzione numerica di un sistema a tre corpi celesti che interagis-
cono attraverso la forza gravitazionale. Sono due pianeti di massa uguale,
rappresentati in verde e magenta, mentre il terzo (in celeste) di massa molto
maggiore, potrebbe essere un ipotetico sole. A causa delle interazioni ravvi-
cinate fra i due pianeti orbitanti attorno al corpo centrale, questi ultimi
cambiano continuamente il loro modo di orbitare: siamo evidentemente ben
lontani dalla periodicità delle orbite kepleriane!

23
Figure 7: Questa figura riproduce esattamente il calcolo numerico della figura
precedente, con l’unica eccezione che la coordinata iniziale verticale di uno
dei due pianeti è stata cambiata di meno del 0.003 % (tre parti su 100000
in solamente uno dei 12 parametri che definiscono le condizioni iniziali del
sistema) ! Come si vede un impercettibile errore nelle condizioni iniziali
modifica nei tempi lunghi in maniera molto sostanziale l’evoluzione del sis-
tema. Non siamo neppure in grado di prevedere nei tempi lunghi se questo
sistema resta legato o se uno dei pianeti si stacca dal sistema per perdersi
nell’ universo.

24
CORSO DI FONDAMENTI STORICO-EPISTEMOLOGICI DELLA
FISICA

SETTIMA LEZIONE

L. Canton

1 Termodinamica e irreversibilità
1.1 Introduzione storica
Sebbene la sensazione dell’irreversibilità del tempo abbia da sempre accom-
pagnato il pensiero umano, il concetto scientifico di irreversibilità si è formato
nelle scienze fisiche in tempi relativamente recenti (19o Secolo). La scienza
moderna nasce con Galileo e Newton nel 16o Secolo, ma agli albori della
scienza i fenomeni irreversibili non ricevettero alcuna attenzione in quanto
gli sviluppi tecnologici erano cosı̀ primitivi che si potevano effettuare soltanto
crude osservazioni a riguardo.
L’attenzione primaria era rivolta verso analisi dei moti quali quello dei
pianeti, che sono caratterizzati da periodicità che contrastano col concetto
dell’irreversibilità, e la misura e definizone stessa di tempo provenivano dai
moti periodici e tipicamente reversibili, quali quello del pendolo. Ovvia-
mente, nelle equazioni del moto trovate erano implicite le leggi di conser-
vazione, ma esse non furono immediatamente recepite dai primi seguaci di
Galileo e Newton. Si pensi al fatto che la legge di conservazione dell’energia
per i sistemi meccanici non venne formulata nella sua interezza nemmeno dai
fisici del 18o secolo. La formulazione generale del principio di conservazione
dell’energia è dovuta ad Helmohltz (1847).
Lazare Carnot (1753-1823) cominciò a discutere le efficienze dei congegni
meccanici in seguito alla crescente importanza delle macchine nello sviluppo
dell’economia, arrivando alla conclusione che una maggior efficienza poteva

1
essere raggiunta cercando di evitare cambiamenti repentini di velocità che
portano alla perdita di “forza viva”. Il concetto di “forze vive” era stato in-
trodotto da Leibnitz per denotare il movimento in opposizione a Cartesio il
quale suggeriva come indice di movimento il valore assoluto della quantità di
moto. Se accettiamo l’idea di un sistema meccanico composto da particelle
materiali interagenti attraverso forze di contatto e soggette a collisioni pura-
mente elastiche comprendiamo come l’idea della “forza viva”, intesa come il
prodotto della massa per la velocità al quadrato, computata su tutte le parti
del sistema, sia una quantità effettivamente conservata in tutti i processi di-
namici riferentesi a sistemi meccanici. Però la forza viva veniva perduta nei
casi meccanici analizzati da Carnot (padre) in cui venivano coinvolti fenomeni
di produzione di calore.
L’avvento delle macchine a vapore e i tentativi per migliorare l’efficienza
dei congegni per la nuova produzione di lavoro attraverso il vapore furono
oggetto di approfonditi studi da parte del figlio di Lazare, Sadi Carnot (1796-
1832), il quale fu senza dubbio molto influenzato dal lavoro del padre. Nel
suo lavoro fondamentale egli riuscı̀ a dimostrare che la massima efficienza
possibile poteva essere ottenuta attraverso un ciclo reversibile di processi
consistenti nell’alternanza di due trasformazioni (reversibili), l’adiabatica e
l’isoterma. Inoltre il suo criterio per la massima efficienza poteva essere appli-
cato in modo molto generale per processi qualsivoglia che coinvolgono scambi
di calore, consentendo anche l’analisi sperimentale dei dati che riguardano
le proprietà dei gas. Infine consentı̀ l’introduzione e definizione di una scala
assoluta di temperature. Tale scala basata sul principio di Carnot fu poi
effettivamente introdotta da lord Kelvin nel 1848, e seguendo la modalità di
graduare in cento gradi, proprio come nella scala Celsius, la differenza fra il
punto di ebollizione e di fusione dell’acqua in condizioni normali, si arriva
alla scala di temperature assolute detta “Kelvin”. Il libro di Carnot era in-
dirizzato prevalentemente verso un uditorio di ingegneri e rimase pressochè
sconosciuto ai fisici almeno fino a quando non lo notò W. Thomson (Lord
Kelvin) in seguito ad una citazione di Clapeyron. Fu allora che le idee e gli
studi di Carnot vennero apprezzati nell’ambito più propriamente scientifico.
Vale la pena di sottolineare che la termodinamica è nata proprio dai ten-
tativi di convertire calore in lavoro e dallo sviluppo di una teoria atta a
descrivere il funzionamento e, possibilimente, a migliorare l’efficienza delle
macchine costruite a questo scopo. Proprio per questo motivo le questioni
connesse col secondo principio della termodinamica vennero a galla ancora

2
prima che venisse data una corretta interpretazione alla natura fisica del
calore. Basta pensare che negli scritti di Carnot si delinea in nuce una
forma del secondo principio della termodinamica: per produrre lavoro, una
macchina termica deve necessariamente ricevere calore dalla sorgente calda
e cederne alla sorgente fredda (1824) ancora prima che Joule, nel 1847,
mostrasse l’equivalenza fra calore e lavoro dei processi termomeccanici. Il
lavoro di Carnot si basava ancora sull’ipotesi che il calore fosse una sostanza,
che si poteva scambiare fra le sorgenti durante le trasformazioni, e questa vi-
sione venne messa in crisi dalla legge di Joule sull’equivalenza calore-lavoro.
Furono Clausius e W. Thomson che misero in evidenza l’apparente contrad-
dizione nel pensare al calore in termini di sostanza da far passare da una sor-
gente all’altra e il principio di equivalenza di Joule che implicava la possibilità
di trasformare il calore in movimento meccanico, e riuscirono a sanare le cose
attraverso la loro formulazione del secondo principio: Non si può senza spesa
di lavoro far passare calore da un corpo freddo ad un corpo caldo (enunciato
di Clausius, 1850); Non è possibile che un sistema, che abbia percorso un
ciclo di trasformazioni monoterme, cioè senza scambiare calore che con un
solo termostato, abbia in totale prodotto lavoro (e in conseguenza assorbito
calore) (W. Thomson, 1851, noto come enunciato di Kelvin) Questa seconda
formulazione, ha poi subito varie modifiche per poi approdare alla forma più
o meno definitiva nota spesso sotto il nome di enunciato di Kelvin-Planck: è
impossibile realizzare una trasformazione il cui unico risultato sia quello di
assorbire calore da un serbatoio e di convertirlo interamente in lavoro.
Si osservi che Thomson, nel suo lavoro del 1851, attribuisce a Clausius
il merito di formulare su basi rigorose il teorema di Carnot. Sempre nel
1850 Clausius formulò il primo principio della termodinamica nella forma
dQ=dU+dW, ed ebbe il merito di riconoscere la falsità della teoria del
calorico, abbracciata da Laplace, Poisson, Sadi Carnot e Clapeyron, sec-
ondo la quale il calore totale dell’universo si conserva, e interpretò il calore
come l’energia cinetica delle particelle che formano le sostanze. Introdusse
poi il concetto di entropia arrivando a formulare, nel 1865, i due principi
della termodinamica nel modo seguente:
1. L’energia dell’universo rimane costante. 2. L’entropia dell’universo
tende ad un massimo.
Approdiamo dunque al concetto di entropia come ad una misura di trasforma-
bilità di un sistema: le trasformazioni reversibili dei sistemi isolati lasciano
l’entropia costante, mentre quelle irreversibili portano i sistemi isolati ad un

3
aumento della stessa.
Il punto cruciale della ricerca in questo campo divenne allora come derivare
i principi della termodinamica dalle leggi fondamentali della meccanica de-
terministica. A quell’epoca stava prendendo piede l’interpretazione secondo
la quale i corpi materiali erano costituiti da sistemi meccanici formati da
corpuscoli elementari in movimento. Secondo questo punto di vista il calore
andava letto come l’energia derivante da un particolare tipo di moto di queste
particelle (l’agitazione termica) e i comportamenti termodinamici dovevano
trasparire dalle proprietà dinamiche delle particelle microscopiche. Era del
tutto naturale assumere che le stesse leggi che governavano il moto dei sin-
goli corpuscoli a livello microscopico dovevano governare anche le proprietà
globali delle sostanze materiali macroscopiche. La prima legge della termodi-
namica risulta direttamente dall’applica- zione del principio di conservazione
dell’energia meccanica. Fu Maxwell a rendersi conto del carattere essen-
zialmente statistico del secondo principio. Boltzmann inizialmente addottò
l’approccio statistico senza rendersi conto delle profonde implicazioni che ne
conseguono. Soltanto quando ebbe a contrastare due serie obiezioni raggiunse
una visione più chiara delle problematiche coinvolte.
La prima obiezione, che venne avanzata da Loschmidt, riguarda l’evoluzione
dei sistemi termodinamici. Se supponiamo che il sistema si evolva partendo
da uno stato definito, e consideriamo poi la situatione termodinamica suc-
cessiva nel corso della sua evoluzione, se ad un certo punto si invertono i
segni di tutte le velocità delle particelle che costituiscono quello stato, al-
lora l’evoluzione del sistema deve invertirsi e tornare al punto di partenza.
Questo significa che a processo invertito l’entropia del sistema deve decrescere
spontaneamente e perciò il teorema H di Bolzmann dovrebbe essere in con-
traddizione con le leggi della meccanica. L’altro paradosso sull’irreversibilità
fu sollevato da Zermelo, facendo riferimento al teorema di Poincarè sulla
quasiperiodicità del moto dei sistemi isolati di estensione finita, secondo il
quale detti sistemi tornano dopo un tempo sufficientemente lungo a con-
figurazioni molto vicine alle loro configurazioni d’origine. Ovviamente, tali
comportamenti ciclici differiscono dal concetto di irreversibilità sancito dal
secondo principio. Tali obiezioni ebbero dunque il merito di porre in ev-
idenza l’impossibilità di derivare qualsiasi forma di comportamento irre-
versibile dalle leggi rigorosamente reversibili della dinamica.
È chiaro dunque che il punto essenziale per arrivare all’irreversi- bilità è
costituito dalla connessione con una descrizione intrinsecamente statistica dei

4
sistemi. Questo punto di vista di Boltzmann ricevette ulteriori rafforzamenti
da Ehrenfest, che mise in evidenza come venisse introdotto un elemento in-
trisecamente non-dinamico nel passaggio da una descrizione rigorosamente
continua ad una descrizione mediata attraverso campionamenti su cellette
di dimensione finita, ovvero “granularizzando” la descrizione, e da Gibbs,
che mise in relazione l’evoluzione dei sistemi nell’ambito di quest’ultima de-
scrizione con i processi di mescolamento.
In linguaggio moderno, abbiamo a che fare con due descrizioni com-
plementari di certi fenomeni fisici, che corrispondono ad approcci osserva-
tivi che portano ad escudersi a vicenda. Si possono evitare contraddizioni
nell’uso di tali descrizioni complementari attraverso una precisa limitazione
delle modalità d’uso di ciascun approccio. Nella fattispecie diventa essen-
ziale per stabilire una corretta demarcazione fra le due descrizioni la di-
mensione dei sistemi e il numero dei gradi di libertà che si utilizzano per
la descrizione. Una descrizione microscopica basata sui gradi di libertà dei
singoli atomi o molecole richiederebbe un numero elevatissimo di gradi di
libertà; per converso, l’approccio termodinamico utilizza un numero molto
limitato di variabili. Le proprietà termodinamiche si applicano a sistemi di
grandi dimensioni, molto superiori alle dimensioni atomiche o molecolari e
sono questi i sistemi per cui si osserva in generale l’irreversibilità, mentre i
sistemi microscopici non presentano questa caratteristica (si pensi ad esempio
al moto Browniano, come caso tipico). La caratteristica dimensione che fa la
differenza dipende dalle dimensioni dei nostri organi sensoriali, rispetto alle
dimensioni dei singoli atomi. L’irreversibilità si manifesta anche rispetto a
scale temporali macroscopiche, caratterizzate anche dai tempi di rilassamento
dei processi di percezione dei segnali tipici dei nostri sensi, che sono mag-
giori rispetto alle scale temporali atomiche, scandite dal tempo medio delle
interazioni atomiche. Torniamo in questo modo ad una visione in cui pos-
siamo riporporre l’aforisma di Heisenberg sulla conoscenza scientifica come
catena infinita di dialoghi fra l’uomo e la natura, piuttosto che la conoscenza
della natura in sè. Naturalmente, la possibilità di una conoscenza obbiet-
tiva e intersoggettiva dei fenomeni non ne viene scardinata, in quanto tutti
gli osservatori posti nelle medesime condizioni concorderebbero sulle espe-
rienze. Vale la pena di menzionare che sui concetti termodinamici sono state
avanzate da alcuni posizioni molto più estreme: per esempio G.N. Lewis ha
espresso l’idea che l’entropia, come l’associato concetto di disordine, siano in
realtà concetti soggettivi.

5
A conclusione, vale la pena di osservare che le precedenti considerazioni
si applicano anche nel caso di sistemi a molticorpi quantistici, in quanto le
leggi della meccanica quantistica sono anch’esse reversibili, al pari di quelle
della dinamica classica. La differenza è che all’elemento statistico di natura
epistemica dovuto alla moltitudine di elementi di cui è formato il sistema
macroscopico, si aggiunge l’elemento statistico non epistemico dovuto alla
natura intrinsecamente probabilistica dei fenomeni microscopici. È chiaro
che questi due elementi statistici operano ad un livello diverso, ma resta in
qualche modo stabilita una loro origine unica, in quanto l’elemento proba-
bilistico viene generato in entrambi i casi dal come le entità microscopiche
vengono introdotte attraverso le operazioni di misura effettuate attraverso
apparati macroscopici.

1.2 Il dilemma teoria cinetica e irreversibilità


La diffusione del calore attraverso il postulato di Fourier

dQ dθ
= −KS (1)
dt dx

porta invariabilmente al livellamento termico irreversibile. La comparsa di


equazioni non simmetriche nel tempo fu però notata soltanto nel 1842 da Lord
Kelvin. Pochi anni più tardi si iniziò a registrare la comparsa del conflitto
fra la reversibilità meccanica e l’intrinseca irreversibilità dei processi termici
coi primi scritti di Clausius e Maxwell sui modelli meccanici dei gas ideali.
Dal 1851 in poi, soprattutto ad opera di Kelvin, si delinea la parte as-
sertiva del II principio, consistente nella proclamazione del carattere irre-
versibile dei processi naturali: l’energia si conserva, però si degrada e si è
nell’impossibilità di reintegrarla tutta. Con questo Kelvin mette in luce la
presenza di un principio di azione irreversibile all’interno della natura. Il mec-
canismo cosmico passa da grande orologio ad un processo evolutivo per cui
l’energia potenziale si trasforma in moto, poi in calore per arrivare all’arresto
e all’equilibrio termico. Il mondo come luogo di vita è destinato ad una fine
meccanicamente inevitabile.
Kelvin propose l’utilizzo del ciclo reversibile di Carnot, e del teorema
di Carnot, per definire una scala assoluta di temperature, ovvero che fosse

6
indipendente dalle sostanze termometriche usate, e che poi si dimostrò coin-
cidere con la temperatura del termometro a gas perfetto.

Q1 + Q 2 T1 − T 2
ηc = = . (2)
Q1 T1

Si ricava immediatamente da ciò che il rapporto dei valori assoluti dei calori
scambiati nel ciclo di Carnot definisce un rapporto di temperature,

|Q2 | T2
= (3)
|Q1 | T1

indipendentemente dalla sostanza termometrica che compie il ciclo, per cui


si può introdurre la scala di temperature assolute (scala Kelvin) prendendo
a riferimento come valore fisso il punto triplo dell’acqua:

T = 273.16 Q/Q3 [K o ] (4)

dove Q3 rappresenta la quantità di calore scambiato con la sorgente che si


trova in equilibrio al punto triplo dell’acqua (che nella scala Celsius si trova
a 0.01 o C).
Il fatto poi che la temperatura assoluta abbia uno zero assoluto lo si può
vedere analizzando l’utilizzo frigorifero della macchina di Carnot, dove risulta
conveniente introdurre il rapporto

|Q1 | − |Q2 |
ρ= . (5)
|Q2 |

Questo rapporto rappresenta la quantità di lavoro che bisogna spendere per


produrre una frigoria (togliere una caloria dalla sorgente fredda), quantità
che ovviamente risulta minima nel caso di un ciclo di Carnot. In questo caso,
si ha anche che
|Q1 | − |Q2 | T1
ρ= = −1 (6)
|Q2 | T2

7
il che rende infinito il lavoro che bisogna spendere per raggiungere lo zero
assoluto (T2 → 0), e ciò rende tale temperatura impossibile a raggiungersi
(anche se ci si può andare molto vicino).
Ancora Clausius negli anni 1854-1865 persegue la ricerca di una quantifi-
cazione dell’irreversibilità. Cerca per questo una funzione di stato che carat-
terizzi e misuri lo scostamento di una trasformazione reale da una trasfor-
mazione ideale reversibile. Trova la soluzione nel teorema di Clausius

dQ
Z
O =0 (7)
rev T

mentre se il ciclo è irreversibile

dQ
Z
O < 0. (8)
nonrev T

Si arriva cosı̀ alla formulazione “matura” o analitica del II principio della


termodinamica secondo la quale, se la trasformazione è reversibile

Z 2 dQ
= S(2) − S(1) , (9)
1 T

mentre per una trasformazione spontanea, in generale si ha

2 dQ
Z
≤ S(2) − S(1) . (10)
1 T

Applicando il teorema all’universo intero, possiamo concludere con Clau-


sius che

• L’energia dell’universo è costante.

• L’entropia dell’universo tende ad un massimo.

8
È interessante osservare che a questo punto la questione cruciale divenne
come derivare i principi della termodinamica dalle leggi fondamentali della
meccanica deterministica. Si tratta di un programma di ricerca circoscritto
nell’ambito della fisica teorica, in cui si è ricercata la comprensione della
realtà fenomenologica descivibile attraverso i principi della termodinamica
in base all’interpretazione microscopica (cinetico-molecolare) delle sostanze.
Fu Clausius nel 1857 che attribuı̀ al meccanismo delle collisioni molecolari
l’origine del fenomeno del livellamento termico. Secondo la teoria cinetica
del calore, le molecole si muovono tanto più velocemente quanto più elevata
è la temperatura e il calore è l’aspetto macroscopico dell’energia cinetica e
potenziale delle molecole del corpo. Nel caso dei gas perfetti, l’equazione di
Joule-Clausius (1957: Sul tipo di moto che chiamiamo calore) si scrive

N
1X
PV = mvi2 (11)
3 i=1

e, introdotta la velocità quadratica media, v¯2 = i vi2 /N , abbiamo


P

1
P V = N mv¯2 , (12)
3
ovvero
1
P = ρv¯2 , (13)
3

dove pressione, densità e velocità quadratica media delle molecole sono messe
in relazione.
Come è noto da ciò si può derivare l’interpretazione cinetica della tem-
peratura, che si può esprimere in forma moderna come

1 ¯2 3
mv = KT (14)
2 2

dove K è la costante dei Boltzmann (1.38 × 10−23 [J/o K]).

9
Nei gas normali, dall’Eq. (13) risultano velocità molto elevate. Per il caso
dell’aria, dalla densità (ρ = 1.28 Kg/m3 ) e dalla pressione standard (1 atm)

si ricava v¯2 ' 500m/s, ovvero una velocità elevatissima. Per spiegare la
maggior lentezza dei fenomeni di diffusione Clausius dovette introdurre il
concetto di cammino libero medio, che implica l’assunzione dei processi di
collisione molecolare.
Nel 1866 Maxwell pubblicò un ampio studio (On the dynamical theory of
gases) dove illustrò il modello cinetico del gas e come dalla distribuzione delle
velocità delle particelle (che poi prese il suo nome) si potevano ottenere le più
disparate propietà dei gas. Maxwell fu un pioniere nell’utilizzo dei metodi
statistici nella fisica. Nel 1859 egli vinse il premio Adams dell’Università di
Cambridge per aver per primo spiegato la natura, stabilità e struttura degli
anelli di Saturno. Maxwell sviluppò una descrizione statistica degli anelli,
la cui composizione era ipotizzata come fluida, oppure formata da polvere
consistente in innumerevoli particelle simili a granelli di polvere. Gli anelli
furono suddivisi in classi di orbite e sugli anelli furono individuati dei moti
collettivi corrispondenti a onde di densità.
Nel 1864 pubblicò poi la sua famosissima teoria dell’elettro- magnetismo.
Nel suo studio del 1866 sui gas, Maxwell superò la limitazione di Clausius
(e precedentemente di Waterston) dove le particelle del gas si muovevano
tutte alla stessa velocità e introdusse una nuova funzione matematica f (v)
chiamata distribuzione delle velocità. Ciò fu fatto essenzialmente attraverso
due ipotesi. 1) La microreversibilità ovvero la reversibilità meccanica nei
processi d’urto tra due molecole. 2) L’ipotesi del caos molecolare ovvero se
un gas si trova in condizioni stazionarie tutte le posizioni e tutte le direzioni
del moto hanno la stessa probabilità.
La distribuzione delle velocità descrive statisticamente il numero di molecole
aventi modulo della velocità compreso fra v e v + dv, secondo la relazione

dN = N f (v)dv , (15)

e all’equilibrio termodinamico, l’espressione di questa distribuzione è

m 3
1 mv 2
2 − 2KT
f (v) = 4π( ) v e
2 . (16)
2πKT

10
Come si è detto Maxwell derivò la distribuzione delle velocità suppo-
nendo di avere un gas in equilibrio. Era una formula plausibile che si accor-
dava con molte osservazioni, ma non c’era una dimostrazione rigorosa che
garantisse che i gas evolvessero naturalmente e spontaneamente verso questa
distribuzione. Maxwell si basò su criteri di coerenza ed eleganza per ottenere
una semplice formula che fosse plausibile.
Boltzmann estese la formula di Maxwell ai casi in cui l’energia non fosse
semplicemente quella cinetica associata alla velocità delle molecole
dN = N n()d , (17)

1 − 
n() = ( )e KT . (18)
KT

Il tentativo più articolato di derivare l’evoluzione irreversibile dello stato


di un gas dal complesso delle collisioni molecolari è stato pubblicato in una
nota del 1872 da Boltzmann. La nota presenta un’evoluzione dell’equazione
temporale della funzione di distribuzione delle velocità in conseguenza delle
collisioni molecolari (equazione del trasporto di Boltzmann), con l’obbiettivo
di dimostrare che la funzione di distribuzione evolve necessariamente con
il tempo verso la distribuzione di Maxwell, raggiungendo un minimo nel
funzionale (teorema di minimo, o teorema H). Si ottiene con questo lavoro
di Boltzmann quello che è l’apice dello sforzo dimostrativo per derivare il
secondo principio attraverso il programma riduzionistico di sviluppo di un
modello cinetico-molecolare. Il cosiddetto teorema H era stato presentato
come una dimostrazione rigorosa che un gas, descritto in termini puramente
cinetico-molecolari e basato sulle equazioni di Newton, porta invariabilmente
e rigorosamente (si poterbbe dire deterministicamente) al secondo principio
della termodinamica e all’irreversibilità dei processi macroscopici.
Emerge però un problema fondamentale che mina il rigore deterministico
implicito nel teorema H. È l’implicito contrasto che viene messo in evidenza
dalla teoria cinetica dei gas tra la reversibilità meccanica delle molecole e
l’irreversibilità fenomenologica dei sistemi macroscopici. Il primo segno di
incrinatura nelle certezze del teorema H fece il suo ingresso nella letteratura
scientifica attraverso le fattezze del diavoletto di Maxwell. Fu attraverso
questa fantasiosa ipotesi che Maxwell mostrò come si poteva far fluire calore
da un corpo più freddo ad un corpo più caldo, attraverso l’operazione di

11
controllo di un’ipotetica creatura che lascia passare gli atomi più veloci da
una parte e quelli più lenti dall’altra. Il ruolo dei diavoletti fu chiarito da
Maxwell stesso nella sua corrispondenza con Tait, e mostrava come il secondo
principio avesse una certezza di carattere puramente statistico. Si potevano
immaginare moti atomici compatibili con le leggi di Newton, non importa
quanto fantastici o improbabili, il cui risultato sarebbe stato quello di far
fluire il calore nella direzione sbagliata. Il diavoletto mette in evidenza ciò
che potrebbe accadere anche per caso, non importa se a probabilità estrema-
mente bassa, e di conseguenza la seconda legge della termodinamica non
poteva essere una legge assoluta: c’erano circostanze in cui essa poteva non
valere (sebbene fossero altamente improbabili). Quello che in realtà era già
contenuto nell’osservazione di Maxwell sull’operato dei sui diavoletti, e che
mise in crisi il contenuto deterministico del teorema H, fu poi formalizzato
attraverso due ben precise critiche mosse a Boltzmann e già menzionate nelle
note storiche introduttive.
Si è detto che la prima critica (sulla questione della reversibilità moleco-
lare e irreversibilità temodinamica) fu avanzata dal collega ed amico Josef
Loschmidt nel 1876 e riguarda il problema della reversibilità. Supponiamo di
studiare l’evoluzione di un modello molecolare termodinamico, partendo da
uno stato definito, e consideriamo la situazione termodinamica successiva nel
corso della sua evoluzione: se ad un certo punto invertiamo i segni di tutte
le velocità delle singole particelle, allora l’evoluzione del sistema deve inver-
tirsi e tornare al punto di partenza. A processo invertito l’entropia decresce
spontaneamente e perciò il teorema H di Boltzmann risulta in contraddizione
con le leggi della meccanica, che invece rappresentavano la base di partenza.
A questa obiezione Boltzmann rispose cambiando nettamente registro: egli
conveniva l’esistenza di disposizioni particolari di atomi per cui l’entropia
andava nel verso sbagliato, ma che casi simili avrebbero richiesto una specie
di congiura, ovvero una probabilità ridicolmente bassa a fronte del numero di
casi in cui l’evoluzione avrebbe seguito la legge del teorema H. È chiaro che
si andava sempre più verso una interpretazione statistica dell II principio.
Nel 1892, Poincarè stabilı̀ un teorema secondo cui qualsiasi sistema mec-
canico finito deve, nel corso della sua evoluzione temporale, tornare al suo
stato di partenza, o almeno in uno stato infinitesimamente vicino al suo
stato di partenza. Poincarè affermò anche che il teorema poteva essere un
elemento di difficoltà per “le teorie cinetiche inglesi”. Ernst Zermelo nel
1895 formulò l’obiezione in termini precisi, sostenendo che, in base al teoema

12
della quasiperiodicità, il gas sarebbe prima o dopo tornato nella sua config-
urazione iniziale contravvenendo al teorema H e all’interpretazione statistica
cinetico-molecolare dell’entropia. Boltzmann quella volta rispose che sı̀ , il
sistema poteva ritornare nella sua configurazione iniziale, ma la questione,
come sempre, era quanto fossero probabili questi eventi. Boltzmann stimò il
tempo secondo il quale ci si poteva aspettare che un centimetro cubo di gas
tornasse nello stato iniziale. Ottenne un tempo inimmaginabile, un numero
di secondi pari a un valore con un miliardo di miliardi di cifre! Il teorema
della ricorrenza o quasiperiodicità di Poincarè, benchè indiscutibile dal punto
di vista matematico, non era di nessun interesse pratico per la teoria dei gas.
Forse fu Maxwell ad aver intuito le conseguenze della teoria cinetica sul
secondo principio della termodinamica: La seconda legge della termodinamica
ha lo stesso grado di verità che ha l’affermazione che se si versa un bicchiere
d’acqua nel mare non si può riprendere ancora lo stesso bicchiere d’acqua.
Una concezione secondo la quale la conoscenza del mondo è statistica, ma il
mondo non è statistico.
Emerge dal dilemma reversibilità meccanica - irreversibilità termodinam-
ica il carattere intrinsecamente probabilistico del II principio della termodi-
namica. Le note del 1877 furono cruciali per la formulazione probabilistica
del II principio. Boltzmann ottenne la formula per l’entropia

S = K ln(Ω) (19)

dove Ω rappresenta il numero dei possibili modi o configurazioni micro-


scopiche con cui può essere ottenuta una data distribuzione di atomi in celle
finite. I sistemi evolvono verso una situazione di massimo mescolamento
perchè le situazioni di massimo mescolamento sono quelle più probabili in
quanto sono ottenibili attraverso un numero maggiore di configurazioni.

2 Verifica (2a settimana)


1) In cosa consiste la problematicità associata al concetto di irreversibilità?

13
CORSO DI FONDAMENTI
TEORICI-STORICO-EPISTEMOLOGICI DELLA FISICA

OTTAVA LEZIONE

L. Canton

1 Teoria cinetica e problematiche connesse


1.1 Introduzione
L’introduzione della teoria cinetica nel caso di un gas ideale rappresenta
un’occasione assai importante per presentare lo sviluppo di un modello mi-
croscopico che sta alla base di proprietà e fenomenologie che appartengono
agli oggetti macroscopici. Per molti versi tale introduzione rappresenta una
costruzione basata sull’idealizzazione, sulla semplificazione e razionalizzazione
tipiche della più genuina tradizione galileiana. L’approccio si basa su una
modellizzazione, una idealizzazione della realtà che noi osserviamo a livello
macroscopico.
La teoria cinetica si basa sull’ipotesi di una struttura discreta della mate-
ria, anzichè continua. Nelle descrizioni fisiche dei processi noi ragioniamo in
termini di “atomi” e “molecole”, e ciò è entrato cosı̀ profondamente nel modo
di pensare comune e nel linguaggio, che sembrerebbe assurdo porsi domande
del tipo: come facciamo a sapere che la materia ha questa architettura?
Vale la pena di ricordare perciò che la teoria atomistica/cinetico/molecolare
cosı̀ come la concepiamo oggigiorno ha avuto nel corso degli sviluppi del pen-
siero scientifico occidentale una vita assai travagliata, e in molte occasioni é
stata accusata di rappresentare una dottrina eretica e pertanto da criticare
aspramente. Furono relativamente pochi coloro che ebbero il coraggio di ab-
bracciarla, e alcuni di coloro che lo fecero, dovettero difendere strenuamente
le loro posizioni. Perfino intorno al 1897 Bolzmann si trovò nella posizione

1
di dover difendere questa concezione dagli attacchi certo non trascurabili di
Mach. Rapportato al proprio periodo storico, il dibattito fra Boltzmann e
Mach e, naturalmente, tutti i dibattiti antecedenti sull’argomento non de-
vono essere intesi come una baruffa sull’esistenza o meno degli atomi, ma
piuttosto una controversia sull’intero modo di fare fisica: cioè se la fisica si
deve limitare sempre e solo allo studio di quantita’ misurabili, come riteneva
Mach, oppure se, come riteneva Boltzmann, si può e si deve far ricorso ad
ipotesi più ampie e a spiegazioni più elaborate che, eventualmente, richiedono
richiedono anche l’accettazione della realtà del non misurabile1 .
In passato sono stati sviluppati una serie di modelli atomistici alternativi
di cui si vogliono richiamare i tratti salienti, soprattutto per sottolineare che
il modello cinetico attuale non ha avuto la vita facile che, superficialmente,
uno potrebbe essere indotto ad attribuirgli. Del resto, la storia rocambolesca
del manoscritto di John James Waterston, ricevuto dalla Royal Society l’11
Settembre 1845 (12 anni prima di Clausius), contenente la prima spegazione
cinetico-molecolare della pressione, ma pubblicato (postumo) soltanto nel
1892 su “Philosophical Transaction” rappresenta un caso emblematico del
trattamento a cui sono andati incontro i sostenitori di teorie controverse,
quando questi non erano sorretti da fama scientifica ormai consolidata.
Per esempio alcuni atomisti, tra cui Newton e Dalton, considerarono un
modello statico in cui le particelle di un gas in equilibrio stazionario oc-
cupavano posizioni fisse riempiendo tutto lo spazio di loro pertinenza fino
alle particelle contigue, espandendosi o contraendosi - però senza perdere il
contatto con le particelle vicine - man mano che il gas veniva fatto espandere
o contarre. Nei Principia, Newton illustrò chiaramente la concezione secondo
la quale se i corpuscoli costituenti il gas si respingono a coppie con una forza
inversamente proporzionale al quadrato della distanza fra i rispettivi centri,
allora la pressione del gas varierebbe in modo inversamente proporzionale col
volume del gas stesso, proprio come R. Boyle aveva precedentemente osser-
vato sperimentalmente.
Un altro modello corpuscolare che ebbe alcune significative influenze nel
periodo durante il quale fu proposto é il modello di Boscovich, frutto nel
1758 delle speculazioni dello scienzato dalmata Ruggero Boscovich. Secondo
questo modello la materia è composta da una distribuzione discreta di centri
1
La “realtà del non misurabile” va intesa principalmente in senso storico, perchè
potrebbe anche diventare misurabile in futuro

2
Figure 1: L’interazione fra centri di forza nel modello di Boscovich. In ascisse,
la distanza fra due centri di forza, in ordinata, l’intensità e la direzione della
forza agente.

di forze, indivisibili proprio come era concepito l’atomo. Questi centri di forze
sono dotati di massa inerziale ed interagiscono con gli altri centri di forze con
forze a lungo raggio (tipo l’interazione gravitazionale). La forza è attrattiva
e dipende dall’inverso del quadrato della distanza per grandi distanze di sep-
arazione, è invece repulsiva per piccole distanze di separazione di due centri
di forza, e assume un’alternanza di attrattività e repulsività nella regione
intermedia fra i due estremi (si veda la Fig. 1). In qualche modo il modello
di Boscovich sostituisce all’idea degli atomi come “palloncini” che riempi-
ono tutto il volume a loro disposizione, desumibile dal modello statico, l’idea
che gli atomi siano dei puri centri di forza dotati di massa, che estendono
all’infinito le loro influenze attraverso forze a distanza. Si possono trovare
influenze del modello di Boscovich nei lavori di Hamilton, Faraday, Henry.
Agli inizi del 1800, H. Davy propose il suo modello a vortice, ovvero
una concezione della stuttura della materia che descriveva il trasferimento
di calore come un processo dinamico volto ad incrementare le vibrazioni
degli atomi e molecole nei solidi, mentre nei gas gli atomi potevano ruotare

3
intorno ai propri assi, formando dei vortici nell’ipotesi che ciascun atomo
avesse una sua propria atmosfera. In questo modo la naturale tendenza dei
gas ad espandersi e a riempire tutti gli spazi vuoti veniva interpretata come
una naturale spinta gentrifuga generata dal moto vorticoso, riprendendo un
punto di vista molto vicino a quello di Cartesio.
Il modello cinetico fu proposto nel 1738 da Daniel Bernoulli come un
modello atomistico dove il gas veniva idealizzato come composto da una
miriade di corpuscoli individuali che si muovono in continuazione a velocità
elevate all’interno del volume in cui sono costretti, esercitando una pressione
stabile sulle pareti del contenitore in virtù dei continui urti elastici di questi
corpuscoli ad alta velocità sulle pareti esterne. Il modello non ebbe molto
successo all’inizio, soprattutto a causa dell’ipotesi di collisioni perfettamente
elastiche che i corpuscoli dovevano sostenere sia con le pareti esterne sia
nel corso di mutue interazioni. Il modello cinetico venne ripreso quasi un
secolo più tardi da Waterston, Clausius e Maxwell, i quali - perlomeno i sec-
ondi due - avevano a loro disposizione la consapevolezza della conservazione
dell’energia come ulteriore condizione da soddisfare per costruire un modello
dinamico dei gas. Fu il modello cinetico, pur nella sua estrema semplicità,
che riusciva a rendere conto direttamente dei svariati fenomeni osservabili sui
comportamenti dei gas, e che si affermò alla fine come la piattaforma giusta
su cui costruire la visione moderna sulle strutture degli oggetti materiali.
Naturalmente il modello cinetico e la sottesa visuale atomistico-molecolare
richiede l’esame di alcune conseguenze immediate che portano a sviluppi che
possono anche sembrare ovvi, ma poi tanto ovvi non sono se si vogliono
utilizzare alcuni spunti della teoria cinetica per l’insegnamento nella scuola
secondaria.
Per esempio, se siamo fatti di atomi e molecole, come mai le nostra ossa,
muscoli, etc non si sfasciano ogni qualvolta li sottoponiamo a sollecitazioni
esterne quali compressioni o trazioni? Se accettiamo la natura discreta e par-
ticellare, dobbiamo necessariamente invocare l’esistenza di importanti forze
di mutua interazione fra le particelle. Nei solidi (nei liquidi) le particelle
devono essere tenute assieme in situazione di equilibrio in posizioni (con dis-
tanze) fissate, e per questo le forze intermolecolari debbono esercitare forze
molto intense che risultano attrattive se cerchiamo di allontanarle, e repul-
sive se cerchiamo di comprimerle. La consapevolezza che la natura di queste
forze sia di origine elettrica fu una conquista del diciannovesimo secolo che
si raggiunse dopo che si affermò il modello atomico cinetico, con la concomi-

4
tante accettazione del ruolo dei fenomeni elettrici su scala microscopica (si
pensi all’elettrolisi, ai fenomeni di ionizzazione, alle scariche nei dielettrici).
Nella concezione cinetico atomistica salta agli occhi l’immediata visualiz-
zazione della sostanziale diversità che si ha nelle proprietà di un gas, rispetto
ad un liquido o un solido. In primis, l’elevata compressibilità dei gas, rispetto
alla bassissima compressibilità delle altre due sostanze. Tutto ciò risulta in-
terpretabile con l’evelatissima mobilità delle molecole di un gas, mentre la
mobilità delle particelle è notevolmente ridotta negli altri casi. La visualiz-
zazione secondo questo schema risulta del resto consistente con il fatto che
la densità di un gas è circa tre ordini di grandezza inferiore al corrispon-
dente liquido o solido, e ciò implica che le distanze interatomiche del gas
sono maggiori di un fattore 10.
La capacità dei gas di ricoprire in toto le parti di volume concesse loro
indica la specifica libertà traslazionale di cui godono le singole particelle.
Inoltre, l’evidenza che le particelle si possano muovere liberamente in ogni
punto del volume occupato dal gas viene dalla diffusione degli odori oppure
di gas colorati.2 .
Un punto concettualmente non banale riguarda la sostanziale differenza
che c’è nel regime dinamico microscopico rispetto al tipo di moto che siamo
abituati ad osservare su scala macroscopica. La differenza sta tutta nell’impossibilità
di poter realizzare a livello macroscopico il moto perpetuo, attraverso col-
lisioni perfettamente elastiche, particelle che si muovono indefinitamente
perchè libere dall’attrito, etc., mentre il modello cinetico prevede il moto
perpetuo delle molecole, con collisioni intermolecolari perfettamente elas-
tiche, e analogamente per le collisioni fra le molecole e le pareti esterne.
L’assenza di fenomeni dissipativi su scala microscopica, fenomeni che invari-
abilmente porterebbero all’arresto del moto molecolare, é stato uno dei nodi
concettuali più importanti, che hanno ostacolato la facile accettazione del
modello cinetico dei gas. Il successo del modello cinetico dei gas richiede
di riposizionare il postulato dell’impossibilità del moto perpetuo di prima
specie nella sua giusta prospettiva macroscopica. Il persistere della pressione
e temperatura di un gas in equilibrio implica chiaramente, secondo il modello
cinetico, l’esistenza di forze di tipo conservative a livello microscopico, e ciò
2
L’osservazione che la velocità di diffusione degli odori (o gas colorati) è di gran lunga
inferiore alla velocità media molecolare porta direttamente al concetto di libero cammino
medio e alla conseguente importanza delle collisioni molecolari

5
appare plausibile quando attribuiamo all’elettricità e all’elettro- magnetismo
l’origine di queste forze.
La natura perpetua del moto molecolare comporta come successivo pas-
saggio concettuale l’assunzione dell’intriseca natura casuale e caotica del
moto microscopico, per cui riveste un ruolo fondamentale l’introduzione di
concetti come la distribuzione delle velocità delle particelle, e l’isotropia
delle direzioni delle loro traiettorie. Il continuo cambiamento delle velocità,
posizioni, direzioni delle singole particelle per effetto degli urti particella-
particella e parete-particella porta automaticamente ad una descrizione sta-
tistica dove uno ragiona in termini di distribuzioni statistiche e valori medi.
Del resto, l’insegnamento che si è potuto trarre dallo studio del problema a
tre corpi porta inevitabilmente a concludere che per un sistema a moltissimi
corpi (quale quello che deriva dall’interpretazione cinetico-molecolare dei sis-
temi termodinamici), il regime di riferimento è quello del caos e del caso, che
ci obbliga ad una trattazione su base statistica.
Secondo il modello cinetico, la pressione viene continuamente rigenerata
mediante gli urti particella-parete. Consideriamo una particella singola che
si muove all’interno di un box cubico. Ad ogni urto elastico la particella
trasferisce una variazione di quantità di moto uguale ed opposta a quella
subita dalla particella stessa, che può essere stimata nel doppio della com-
ponente della quantità di moto della particella perpendicolare alla superficie
nell’istante d’impatto. Il tempo fra due successivi impatti della singola par-
ticella dipende dal doppio della distanza lineare fra la parete in oggetto e la
parete opposta, e inversamente dalla componente della velocità perpendico-
lare alla parete. Ciò determina la forza che una singola particella esercita
su di una parete come il rapporto fra questa variazione di quantità di moto
diviso l’intervallo di tempo fra un urto e il successivo, e in base alla discus-
sione appena fatta tale forza risulta proporzionale alla massa della particella,
al quadrato della componente della velocità perpendicolare alla parete, e in-
versamente proporzionale alla distanza fra la parete e quella opposta. La
dipendenza quadratica dalla velocità è perfettamente spiegabile col fatto che
che la variazione della quantità di moto dipende dalla componente ortogonale
della velocità della particella, e la frequenza degli impatti dipende anch’essa

6
dalla stessa componente della velocità.

mvx 2
Fx = . (1)
Lx

Se calcolo la pressione come forza diviso la superficie della parete, ottengo

mvx 2
Px = = ρvx 2 , (2)
Lx Ly Lz

ovvero la pressione agente perpendicolarmente alla parete può essere espressa


come la densità (intesa come massa della particella diviso il volume del cubo
che la contiene) per il quadrato della componente della velocità perpendico-
lare alla parete. Naturalmente questo risultato vale per la dinamica di una
singola particella all’interno della parete.
Ovviamente, lo stesso discorso vale per molte particelle aventi la stessa
velocitá vx , poiché ciascuna particella contribuisce alla pressione globale con
la sua variazione microscopica di quantità di moto, nell’unità di tempo e di
superficie, per cui il risultato dell’Eq. 2 resta invariato anche quando rap-
presenta un insieme di molte particelle che si muovono alla stessa velocità.
L’unica differenza è che in questo caso ρ rappresenta la densità dell’insieme
di molte particelle, ovvero ρ = N m/V dove N ne rappresenta il numero.
Risulta chiaro che la pressione dipende dal numero di particelle presenti,
perché raddoppiando le particelle raddoppia ovviamente la frequenza degli
urti con la parete. Più sottile è la dipendenza dalla velocità, in quanto come
si é visto raddoppiando la componente vx della velocità quadruplica la pres-
sione, in quanto raddoppiando la velocità da un lato raddoppia la frequenza
degli urti, ma dall’altro lato raddoppia anche la variazione di quantità di moto
della singola particella nell’urto con la parete. La sensazione della pressione
deriva da questa forza per unità di superficie generata da una miriade di
collisioni elastiche delle particelle con la parete, collisioni che avvengono ad
una frequenza altissima.
Il successivo nodo concettuale che si vuole affrontare nell’analisi delle
problematiche connesse alla teoria cinetica riguarda da un lato la presa di

7
coscienza della ben sperimentabile stabilità dei valori pressori del gas in equi-
librio, e dall’altro l’acquisizione delle proprietà di isotropia (Px = Py = Pz )
e distribuzione statistica delle velocità delle singole particelle. Uno potrebbe
essere indotto a pensare che l’elevatissimo numero di molecole che urtano
con velocità elevate e frequenze elevate la parete siano di per se una garanzia
sufficiente per poter garantire la stabilità e isotropia della pressione. In re-
altà il discorso è più sottile in quanto il numero elevato di particelle implica
un gran numero di collisioni particella-parete e particella-particella: ciò in-
troduce un regime di caos molecolare, in cui tutte le direzioni, posizioni e
velocità vengono esplorate dalle molecole. Le singole molecole sono quindi
soggette a continue mutazioni del loro stato di moto, e questo sarebbe indub-
biamente un fatto drammatico per la stazionarietà macroscopica del sistema,
se non fosse per l’altro postulato che concerne la microreversibilità dei pro-
cessi d’equilibrio, per cui se tante particelle cambiano il loro stato di moto
nell’unità di tempo, altrettante particelle compiono il procedimento inverso
compensando il mutamento subı́to dalle prime. Si arriva cosı́ a compren-
dere come non si possa parlare di una velocità singola posseduta da tutte le
molecole, ma di una distribuzione di velocità (in senso statistico) che rimane
costante nel tempo in regime d’equilibrio. Si introduce quindi il concetto di
velocità quadratica media v¯2 (si rimanda alla lezione precedente, equazione
1.12) com’è naturale quando si ha a che fare con una distribuzione di parti-
celle. L’ipotesi di caos molecolare e di microreversibilità implica l’isotropia
nella direzione delle velocità molecolari, che si traduce nell’equaglianza per
le componenti quadratiche medie

v¯2
v¯x2 = v¯y2 = v¯z2 ≡ . (3)
3

Da queste ulteriori considerazioni discende la stabilità e isotropia della


pressione, secondo l’equazione 1.13 della lezione precedente,

ρv¯2
Px = P y = P z ≡ P = , (4)
3

che introduce la nota dipendenza dalla velocità quadratica media.

8
Una problematica simile si ha nella visualizzazione delle collisioni particella-
parete come se queste fossero perfettamente speculari, cosa che avviene soltanto
nell’ipotesi di una parete perfettamente liscia. É chiaro ed evidente che non
si puó pensare la parete come perfettamente liscia nell’interazione con un
oggetto di dimensioni atomiche o molecolari, e quindi la trattazione dell’urto
fra parete e particella come se fosse perfettamente speculare trova la sua
giustificazione soltanto nell’ambito di una media sopra un numero enorme
di collisioni. È soltanto attraverso questa operazione di media che tutte le
deviazioni dalla specularità, ovvero dall’eguaglianza fra l’angolo di incidenza
e l’angolo di riflessione, si cancellano “in media” e si ottiene la spiegazione
della validità dell’assunzione di specularietà dell’urto. Un altro punto, evi-
dentemente, dove la semplice schematizzazione di particella singola si giova
dell’ipotesi di caos molecolare, isotropia, e microreversibilità.
La relazione fra temperatura e pressione contenuta nelle note leggi fenomeno-
logiche dei gas perfetti (leggi di Gay-Lussac, equazione di stato dei gas per-
fetti, etc.) descrive il dato di fatto facilmente osservabile che, a volume
costante, la pressione di un gas aumenta aumentando la temperatura. Ciò
porta necessariamente a mettere in relazione la temperatura con la velocità
delle molecole, in quanto rimanendo costante il volume la densità non varia,
e se la densità rimane costante il solo modo con cui può variare la pressione
lo si ottiene variando la velocità quadratica media (si osservi l’Eq. 4). In
questo modo si arriva a mettere in relazione la temperatura con l’energia
cinetica media delle molecole, secondo quanto espresso dall’Eq. (1.14) della
lezione precedente. Ecco allora come possiamo concepire l’equilibrio termico
(o livellamento termico) in termini di stazionarietà delle distribuzioni statis-
tiche molecolari, di microreversibilità, di caos molecolare, di isotropia.
Infine, rivestono un ruolo chiave nel modello cinetico le cosiderazioni en-
ergetiche, che vanno ben al di là della già menzionata relazione fra l’energia
cinetica media e la temperatura. Nel modello cinetico dei gas rarefatti si
assume che le forze intermolecolari abbiano un ruolo non particolarmente
rilevante. Si visualizza il sistema come un sistema di particelle in cui le
collisioni intermolecolari sono elastiche e pressochè istantanee, per cui una
frazione elevatissima di molecole si trova in moto libero, rispetto a quelle che
in un dato istante si trovano in interazione. In altre parole, la frazione di en-
ergia potenziale immagazzinata nel sistema è trascurabile rispetto all’energia
cinetica. Ciò può essere assunto soltanto se i volumi a disposizione del sis-
tema sono ovviamente molto maggiori dei volumi occupati per effetto della

9
dimensione caratteristica delle particelle, nel qual caso diventa giustificabile
la trattazione a particelle puntiformi. È chiaro che questa situazione non
può andar bene per tutti i sistemi di interesse termodinamico, laddove di-
venta significativa la componente di energia potenziale di interazione fra i
costituenti elementari del sistema (si pensi ai gas reali, alle trasformazioni di
stato e ai calori latenti).
La descrizione di un sistema termodinamico tramite il modello cinetico
“a particelle puntiformi” trova la sua ragione d’essere in una visuale di mod-
ellizzazione, schematizzazione, idealizzazione, che permette di comprendere
gli aspetti più salienti del modello senza dover affrontare in un singolo mo-
mento e dall’inizio anche le complessità imposte quando, oltre all’energia
cinetica traslazionale, intervengono altre forme di energia interna moleco-
lare (vibrazioni, rotazioni). Ciò permette di discutere eventualmente in un
secondo stadio gli aspetti caratteristici dei calori specifici dei gas perfetti
in un contesto non puntiforme, in cui intervengono possibilmente i gradi
di libertà molecolari di tipo rotazionale e vibrazionale. Bisogna anche ri-
cordare che l’introduzione degli aspetti roto-vibrazionali a livello molecolare
e l’osservazione delle spettacolari anomalie osservate nei calori specifici di
riferimento non farebbe altro che portare alla luce uno dei molteplici nodi di
profonda crisi della fisica classica e riaprirebbe una porta di accesso verso i
successi storici della meccanica quantistica.

1.2 Attività
Descrivere nella visuale cinetico molecolare i concetti di calore, temperatura,
energia interna.

10
CORSO DI FONDAMENTI
TEORICI-STORICO-EPISTEMOLOGICI DELLA FISICA ∗

NONA LEZIONE

L. Canton

1 Sulla realtà fisica degli atomi e delle molecole


1.1 Introduzione
Tutti sappiamo cos’è il moto Browniano: si tratta di quella eterna e caotica
danza che fa un granello di polline immerso in una goccia d’acqua e osserv-
abile attraverso un microscopio. Il fenomeno viene detto essere generato a
causa dell’impatto del granello con innumerevoli e invisibili molecole d’acqua.
Fu proprio il lavoro del 1905 (cento anni fa) di Einstein sul moto Browniano
che permise a Jean Perrin e collaboratori di dimostrare la realtà fisica degli
atomi e delle molecole. Il lavoro sul moto Browniano fu infatti uno dei tre
sviluppi importantissimi che fece Einstein nel 1905 e che portò alla procedura
con cui si poteva dimostrare che le molecole esistono, sebbene fossero troppo
minute per poter essere osservate direttamente. Gli altri due lavori del 1905
riguardano la teoria della relatività speciale o ristretta, e l’idea dei quanti
di luce (premio Nobel nel 1921), e sono senz’altro più conosciuti rispetto a
quello sul moto Browniano.
Se si tirano le somme ad un secolo di distanza, la questione del moto
Browniano continua ad essere di primaria importanza nelle scienze fisiche,
biologiche e, ultimamente, anche nello sviluppo di scienze nuove, quali quelle
che si rivolgono alla nanotecnologia. La rivoluzione atomistico/molecolare,

Lezione tratta da un articolo di M.Haw pubblicato su Physics World, v. 16 n.1 (2005)

1
sebbene più discreta rispetto alle gloriose rivoluzioni della relatività Einste-
niana e della fisica quantistica, si dimostra però di grande impatto nel lungo
periodo: i lavori di Einstein sul moto Browniano sono stati citati molte più
volte rispetto ai lavori sulla relatività speciale e sull’effetto photoelettrico.

1.2 L’agitarsi del Sig. Brown


Agli inizi del diciannovesimo secolo, gli Europei erano molto attratti dalla
botanica. L’interesse proveniva dalle esplorazioni e delle colonizzazioni eu-
ropee. In particolare l’impero inglese era affascinato dalle nuove realtà che
provenivano dall’Australia. Lo scozzese Robert Brown era l’esperto botan-
ico al seguito di una spedizione navale del 1801 che esplorarono le coste
dell’Australia e della Tasmania e che raccolse e catalogò migliaia di esem-
plari di specie nuove, prima di ritornare a Londra. Brown non era un mero
collettore di specie ma aveva la stoffa del ricercatore scientifico. A lui si
attribuisce la prima chiara descrizione del nucleo della cellula, si ricordano
gli importanti scambi scientifici e consigli a Charles Darwin, che aiutarono
quest’ultimo nel formulare la teoria Darwiniana dell’evoluzione della specie.
Tra i fisici, Brown è conosciuto per aver descritto il fenomeno del moto
Browniano. Infatti nell’estate del 1827, Brown eseguı̀ una serie di osservazioni
al microscopio di sospensioni di granuli presi dalle sacche di polline di una
pianta nota come Clarkia pulchella. Brown notò una cosa sorprendente: i
piccoli granuli, che erano sospesi nell’acqua apparivano essere in moto per-
petuo, come se facessero una danza che sembrava non rallentare mai. Brown
ebbe modo di osservare che il fenomeno non era causato da influenze esterne
(tipo luce o altre cause), e neppure si poteva pensare che il moto fosse dovuto
alla vitalità del polline, in quanto lo stesso fenomeno avveniva anche osser-
vando allo stesso modo granuli di materiale inerte. Era un fenomeno fisico,
che non era connesso con il coinvolgimento di organismi o materiali biologici.

1.3 Relazione con la teoria cinetica


Per molti anni le osservazioni sul moto di Brown non destarono particolare
attenzione. Abbiamo visto che le leggi della termodinamica furono una con-
quista della metà del diciannovesimo secolo. L’osservazione sul moto Brow-
niano rappresenta la chiave per riconciliare due grandi conquiste della fisica

2
dell’epoca: la teoria cinetica dei gas e la termodinamica, ed era già a dis-
posizione di chi avesse voluto cogliere il significato profondo delle sue impli-
cazioni prima che le leggi della termodinamica e la teoria cinetica venissero
scritte in una forma matura.
Abbiamo visto che una grande varietà di fenomeni fisici potevano essere
compresi attraverso i concetti di energia (calore e lavoro) e di entropia, senza
fare alcun riferimento a particolari ipotesi sulla teoria della materia. In una
qualche misura, si potrebbe richiamare le leggi di Keplero, che permettevano
di comprendere il moto degli astri, senza far riferimento ad alcuna partico-
lare teoria del moto. È chiaro che non tutti gli scienziati potevano essere
soddisfatti dalle leggi della termodinamica ma sentivano il bisogno di trovare
una spiegazione delle leggi termodinamiche.
È in questa fase che si innesta il lavoro di James Clerck Maxwell e Ludwig
Boltzmann che sposarono l’idea che la materia, per esempio un volume di gas,
fosse composto da una miriade di invisibili particelle. Essi mostrarono che
molte delle leggi empiriche della termodinamica potevano essere ottenute
attraverso il calcolo di medie statistiche sui comportamenti di insiemi molto
numerosi particelle, secondo l’interpretazione che è conosciuta sotto il nome
di teoria cinetica. Ma come si è ampiamente discusso nelle lezioni precedenti,
la teoria di Maxwell e Boltzmann pose in risalto con la massima evidenza
un paradosso profondo tra la termodinamica e la meccanica Newtoniana. Il
punto chiave è l’intrinseca simmetria temporale e reversibilità delle equazioni
Newtoniane che si scontra con la nozione di irreversibilità a cui soggiaciono
molte trasformazioni termodinamiche (in pratica: tutte quelle reali) e che ci
danno la sensazione di un tempo che scorre soltanto in una direzione e che
non può tornare indietro.
La questione è: se non può derivare dalle equazioni di Newton, sup-
posta vera la teoria cinetica e l’ipotesi molecolare, da dove arriva la nozione
dell’irreversibilità? È chiaro che, fino al tempo di Maxwell, i fisici “cinetici”
del diciannovesimo secolo hanno sempre considerato il gas come un sistema
meccanico realmente deterministico. Vigeva l’idea della superintelligenza di
Laplace che poteva conoscere lo stato di tutte le posizioni e velocità delle par-
ticelle e calcolare attraverso le equazioni di Newton le evoluzioni del sistema
fino alla conoscenza della situazione termodinamica.
Ma, attraverso il lavoro di Maxwell e Boltzmann si giunse alla conclusione
che il secondo principio della termodinamica avesse un significato statistico
e fosse intrecciato con il nostro modo macroscopico (ovvero statisticamente

3
mediato su un gran numero di configurazioni microscopiche) di percepire
e conoscere il mondo materiale. Una conoscenza microscopica del mondo
materiale (il diavoletto di Maxwell) avrebbe potuto portare ad una violazione
del secondo principio della termodinamica. Questa possibile violazione del
secondo principio della termodinamica alla scala microscopica della singola
particella era perfettamente nota a Maxwell, ma Maxwell non colse la sottile
connessione che c’era fra il paradosso dell’irreversibilità e il moto Browniano;
connessione che poteva dare origine ad una feconda ricerca sperimentale.
Infatti, anche il moto Browniano, con la sua eterna, inarrestabile danza
portava ad una violazione apparente del secondo principio della termodinam-
ica. Se un pò d’energia viene irremediabilmente persa sotto forma di calore,
come può la particella Browniana danzare perpetuamente?
È stato soltanto alla fine del diciannovesimo secolo che L.G. Gouy in-
cominciò a considerare il moto Browniano come un laboratorio naturale per
fare sperimentazioni nel tentativo di riconciliare la seconda legge della ter-
modinamica con la teoria cinetica. Il moto Browniano incominciò ad essere
visto come un grimaldello (cioò un osservatiorio privilegiato) per gettare luce
sul dilemma teoria-cinetica irreversibilità. A quel punto si innescò il
dibattito su quali fossero le quantità fisiche osservabili che anda-
vano misurate. Fu a questo punto che un giovane impiegato di terza classe
dell’ufficio brevetti in Berna, il Sig. Albert Einstein, fece il suo ingresso nel
dibattito.

1.4 Gli atomi fra filosofia, mito, realtà e disperazione


L’interesse per il moto Browniano scaturisce dalla grande controversia gen-
erata dalla soluzione al paradosso dell’irreversibilità, soluzione costruita da
Ludwing Boltzmann attraverso l’intrepretazione statistica. Secondo questa
interpretazione, discussa ampiamente in precedenza, ciascuna singola molecola
si comporta secondo la meccanica reversibile Newtoniana, ma quando si met-
tono insieme un numero enorme di tali particelle, è dal loro comportamento
statistico che nasce l’irreversibilità e la seconda legge della termodinamica.
Ma, il successo matematico del lavoro di Boltzmann nel formulare la mecca-
nica statistica fu aspramente contestato dai contemporanei di Boltzmann. Le
leggi della termodinamica erano percepite some solide e certe, quindi basate
su postulati sicuri, deterministici ed infallibili: come si poteva abbandonarle
a favore del probabile e dell’incerto implicito nella teoria di Boltzmann ?

4
Ecco allora che l’attacco più devastante alla concezione di Boltzmann
venne inferto alla stessa accettazione dell’esistenza degli atomi. È chiaro
che Boltzmann aveva una concezione discreta e corpuscolare della materia e
riteneva gli atomi delle entità reali. Ma prove sperimentali non ve n’erano
il che obbligava Maxwell e Boltzmann a stare sulla difensiva: Boltzmann
descriveva la teoria cinetica come un’analogia meccanica, e Maxwell aveva
presente che la visuale cinetico-molecolare poteva essere un pretesto su cui
costruire teorie matematiche che non andavano sempre prese alla lettera.
Una forte opposizione all’interpretazione di Maxwell venne dagli energeticisti,
guidati da E. Mach e W. Ostwald, che considerarono la teoria cinetica alla
stregua di una mera convenzione, che non poteva venir presa alla lettera, a
meno che uno non avesse potuto ottenere una evidenza certa dell’esistenza
degli atomi. La scienza, secondo Ostwald, non poteva supportare una teo-
ria della materia basata soltanto sulla congettura dell’esistenza degli atomi
introdotti come astrazione teorica.
Ma il punto di vista di Einstein era diverso: egli credeva alla realtà fisica
degli atomi e nel 1905, analizzando il moto Browniano, egli mostrò come
ottenere misure sulla realtà degli atomi che avrebbero convinto della loro
esistenza anche gli scienziati più prudenti. Sviluppò quindi quei decisivi
passi teorici necessari alla prova che i liquidi veramente sono composti di
atomi. Unificò la termodinamica dei liquidi con la meccanica statistica per
formulare una teoria del moto Browniano che potesse essere verificata per
via sperimentale, e aprı̀ quindi un varco da cui si poteva dare un’occhiata nel
mondo degli atomi.

1.5 L’analisi di Einstein sul moto Browniano


Come tutti, anche Einstein dovette accettare il fatto che i singoli atomi er-
ano troppo piccoli e mediamente troppo veloci per essere visti. Ma Einstein
osservò che se uno assumeva come veritiere le previsioni della meccanica
statistica, allora qualsiasi particella immersa in un bagno di atomi doveva
comportarsi essa stessa come un atomo molto grosso che si trovava in equi-
librio termico con gli atomi del liquido nel quale la particella veniva immersa.
Inoltre, il teorema di equipartizione dell’energia stabiliva precisamente come
l’energia cinetica media della particella variava con la temperatura. Infatti
per ciascun, grado di libertà l’energia cinetica media della particella assume

5
il valore
kB T
Ēk = (1)
2

dove con T si indica la temperatura del bagno d’immersione e con kB la


costante di Boltzmann. Se si considera una particella con una dimensione
di 1 µm (1 micrometro), ovvero abbastanza grande da poter essere vista
attraverso un microscopio, uno riesce ad ottenere una lente con cui sbirciare
il mondo degli atomi. Considerando il comportamento della particella sotto
osservazione alla stregua di quello di un atomo, e confrontando le osservazioni
della particella con le previsioni della teoria cinetica uno poteva stabilire in
maniera diretta se le idee di Boltzmann erano sufficientemente corroborate
dall’evidenza sperimentale.
Einstein fece la previsione che le particelle Browniane diffondono in ac-
cordo con la legge
s
kB T
D= t (2)
6πηR

dove D rappresenta lo spostamento statistico della particella (lo spostamento


quadratico medio) al tempo t rispetto all’istante iniziale t = 0, T la temper-
atura, η il coefficiente di viscosità del liquido e R il raggio della particella.
L’equazione di Einstein prevede che le particelle più voluminose diffondono
più gradualmente, rendendo più facile l’osservazione. Inoltre, che le particelle
diffondono con uno spostamento medio che varia con la radice quadrata del
tempo. Siamo dunque in un regime assai diverso dal regime balistico dove lo
spostamento varia in modo lineare con il tempo.
Prima dell’equazione di Einstein, la misura delle proprietà di diffusione
dava risultati contradditori in quanto la velocità di diffusione veniva calcolata
dividendo lo spazio percorso per il tempo, col risultato che il risultato era
sempre più grande più piccolo era l’intervallo temporale considerato. Einstein
spiegò perchè la velocità del moto Browniano non poteva essere determinata
dividendo semplicemente la distanza per l’intervallo di tempo. In seguitò a
questo contributo, si poterono finalmente fare sperimentazioni e osservazioni
quantitative serie sul moto Browniano, in quanto l’operazione di misura della
diffusione Browniana doveva risultava consistente con la formula di Einstein.

6
1.6 Gli atomi sono realtà?
Fu grazie al lavoro di un chimico-fisico che lavorava alla Sorbona (a Parigi),
Jean Perrin, e alle sue osservazioni sotto il miscroscopio, che si poterono con-
fermare le previsioni teoriche di Einstein che convalidarono la concezione di
una realtà materiale discontinua, fatta da una natura fisica atomica. Tali
studi iniziarono attorno al 1908 dal team di Perrin, che svilupparono una se-
rie completa di esperimenti basati sull’osservazione al microscopio. Vi furono
una serie di accorgimenti tecnici che furono sviluppati per completare gli es-
perimenti: come ottenere una sospensione di particelle tutte della stessa
dimensione e di raggio noto. Ciò fu reso possibile partendo da sostanze gom-
mose che si dissolvono nell’acqua dando luogo, con particolari accorgimenti
tecnici, a particelle della dimensione del micron. Perfezionando le osser-
vazioni al microscopio, Perrin riuscı̀ a dimostrare che tali particelle formavano
una specie di atmosfera sotto l’azione della gravità, nel senso che le particelle
si disponevano con concentrazione che dipende in maniera esponenzialmente
decrescente con l’altezza, similmente alla densità dell’aria nell’atmosfera. Le
particelle di sostanza gommosa si distribuivano esattamente come predetto
da Boltzmann nel teorema di equipartizione dell’energia, ewsattamente come
fanno le molecole d’aria in atmosfera.
Perrin fece ulteriori indagini e riuscı̀ a misurare la diffusione delle molecole,

confermando la legge di Einstein della radice quadrata del tempo (D ' t),
e portando alla validazione dell’approccio di Einstein basato sulla teoria ci-
netica. Successivamente Perrin produsse una mole notevole di osservazioni
sperimentali che non poterono più essere contestate. Perfino lo scettico Ost-
wald dovette alla fine convenire che la teoria di Einstein, suffragata dalle
osservazioni di Perrin, non poteva più essere contestata. Gli atomi realmente
esistevano.

1.7 La nuova frontiera del mondo possibile e mai certo,


in eterna fluttuazione
Grazie al lavoro di Perrin, si ottenne una conferma puntuale della mecca-
nica statistica, e attraverso la teoria cinetica, si consolidò una concezione
statistico-probabilistica della struttura della materia. È molto probabile
che questa visuale statistico-probabilistica della teoria cinetica cementò la
strada per l’accettazione di quella altra teoria meccanica probabilistica che

7
rappresentò una delle più grandi rivoluzioni del ventesimo secolo: la mec-
canica quantistica. Va osservato che Einstein, il quale aveva dato un con-
tributo molto significativo al successo della meccanica statistica classica, non
accettò mai l’interpretazione statistico-probabilistica della meccanica quan-
tistica. In meccanica quantistica si introduce il concetto di probabilità e
statistica legata ad un singolo elettrone: questo introduce un cambiamento
radicale di prospettiva rispetto alla nozione classica di probabilità legata ad
un insieme molto vasto di particelle. Einstein non accettò mai questo cam-
biamento di prospettiva ed innescò una disputa scientifica con Niels Bohr
sull’inadeguatezza della interpretazione probabilistica della meccanica quan-
tistica.
La rivoluzione quantistica attirò una tale attenzione nella prima metà del
ventesimo secolo che oscurò il successo ottenuto dalla meccanica statistica
classica. Soltanto recentemente, l’importanza dei lavori sulla fisica statistica
classica di Einstein e Perrin venne alla luce. Non appena la fisica incominciò
ad intrecciarsi con la biologia, la nanotecnologia e la statistica dei fenomeni
complessi, fu evidente che la comprensione dei fenomeni di fluttuazione nel
moto Browniano diventa un paradigma per comprendere e rappresentare una
vastità di fenomeni di fluttuazione, che vanno dal funzionamento della cellula,
al flusso del traffico di una metropoli, dai modelli per gli ecosistemi alla teoria
dei giochi e all’andamento degli indici del mercato azionario.
Partendo dalle prime osservazioni di 180 anni fa, ad opera di Brown sulle
minuscole danze dei granuli di polline della Clarkia Pulchella, gli scienziati
odierni, provenienti da molte discipline, stanno acquistando sempre più con-
sapevolezza dell’importanza delle fluttuazioni casuali. Senza le fluttuazioni
non ci sarebbero le transizioni di fase, il folding delle proteine, le funzioni
delle membrane delle cellule, le evoluzioni delle specie. E si inizia soltanto
adesso ad a comprendere quanto profonda e vasta stia diventando questa
disciplina dagli ultimi lavori sui motori molecolari, e sulle membrane cellu-
lari. Il lavoro di Einstein fu fondamentale nello sviluppare questa rivoluzione,
perchè rappresentò una porta che aprı̀ una connessione fra il mondo astratto
degli atomi (sempre pensati ma mai visti), e la realtà fisica dell’osservabile.
Attraverso questa porta, anni di confuse osservazioni diventarono i solidi
risultati di Perrin, e da questi risultati si sviluppò una nuova visione della
fisica che trasse la sua ispirazione e la sua concezione del mondo naturale da
un nucleo di ipotesi statistiche e probabilistiche.

8
9
1.8 Attività
Quali commenti sui valori della fisica vi suggerisce questa lettura?

10
CORSO DI FONDAMENTI STORICO-EPISTEMOLOGICI DELLA
FISICA

DECIMA LEZIONE

L. Canton

1 Radioattività: Considerazioni storiche ed


applicazioni
1.1 Introduzione storica
Un momento molto interessante nello sviluppo delle conoscenze fisiche lo si è
avuto negli anni 1895-1903, cioè a cavallo del 1900. In quel periodo l’atomo
era percepito come entità fondamentale immutabile, ordinato attraverso la
tavola periodica di Mendeleev, la cui compilazione maturò fra il 1868-1869.
Negli anni 1895-1903 si sviluppò un’area di ricerca assai problematica che
alla fine portò alla luce, in ciò che si riteneva fino a quel momento eterno e
immutabile, l’insorgenza di strutture che si trasformano.
L’area di ricerca che si caratterizzò come problematica e che poi produsse
un modo totalmente nuovo di vedere l’atomo - e, giova ricordarlo, questo
avvenne ancora prima che si delineasse la costituzione dell’atomo stesso - si
sviluppò lungo lo schema che condusse alla scoperta di:

• le proprietà del tubo catodico (W. Crooks)

• i raggi X (W. Röntgen, 1895)

• l’elettrone (J.J. Thomson, 1897)

• la radioattività (Becquerel, 1896)

1
La discussione sulla scoperta della radioattività presenta degli aspetti in-
teressanti riguardo ai possibili modi di procedere dello sviluppo delle conoscenze
scientifiche, e proprio per questo merita di essere qui analizzata. L’elenco
dato sopra ricorda alcune grandi questioni su cui si dibatteva la comunità
scientifica dell’epoca. L’atomo era considerato l’elemento immutabile fon-
damentale a cui attribuire le caratteristiche di principio primo e da cui poi
discendevano, secondo la tavola di Mendeleev, le proprietà chimiche e fisiche
della materia. Che l’atomo avesse la proprietà di disintegrarsi e trasformarsi
in altre sostanze (altri atomi) non faceva parte dell’idea dell’epoca, e non es-
isteva un piano di esperimenti guidati da una teoria dell’epoca sulla trasfor-
mazione dell’atomo. Come si ricorderà più avanti, una ardita e non confer-
mata congettura di Poincarè fra il fenomeno della luminescenza e quello dei
raggi X, fu il punto di partenza abbastanza casuale da cui partı̀ Becquerel,
che avviò un programma di osservazioni sulle proprietà di certi elementi,
tipo uranio e simili, che terminò con la scoperta della radioattività degli
atomi, ovvero del fatto che gli atomi non sono eterni ma si trasformano, sec-
ondo caratteristiche diverse dalle trasformazioni chimiche degli elementi. Il
processo di sviluppo delle conoscenze ed interpretazioni su questo fenomeno
rappresenta, per molti versi, un esempio di come l’indagine proceda dalle
osservazioni, dallo sviluppo e catalogazione di nuovi fatti osservati e misurati
e che alla fine portano ad una nuova interpretazione e concezione di come è
fatta la struttura del mondo che ci circonda.

Becquerel, come molti altri scienziati rimase affascinato dalla scoperta da


parte di Röntgen dei raggi X, capaci di passare attraverso le sostanze tanto
da poter fotografare le ossa di un individuo. Una cosa che si osservò quasi
subito nel comportamento del tubo di Crooks era la tenue luminescenza che
si formava in corrispondenza del punto in cui andavano a terminare i raggi
catodici, luminescenza che si ipotizzò associata all’insorgenza dei raggi X
che uscivano dal tubo. Fu su suggerimento di Poincarè che Becquerel iniziò a
studiare se materiali naturalmente luminescenti emettessero spontaneamente
raggi X. A tal fine, Becquerel si procurò alcuni sali di uranio luminescenti e,
nel febbraio del 1896, incominciò a fare esperimenti atti a registrare che, dopo
avere esposto i sali d’uranio alla luce del sole per attivarne la luminescenza,
questi effettivamente emettevano raggi simili ai Raggi X che impressionavano
lastre fotografiche attraverso schermi opachi.
Questo primo risultato fece ben sperare circa l’eventualità di poter di-

2
mostrare che l’emissione di raggi penetranti fosse associabile al fenomeno
della luminescenza nei materiali. Le ulteriori analisi sperimentali portarono
però ad un esito negativo, e alla verifica dei fatti, l’ipotesi che i raggi X fossero
causati dal fenomeno della luminescenza non resse più, in quanto l’emissione
dei raggi penetranti risultò indipendente dall’attivazione o meno della lumi-
nescenza mediante la luce solare. I raggi risultarono essere piuttosto una
caratteristica intrinseca dell’uranio, e quindi dei suoi sali e altri composti,
indipendentemente dal fatto che tali composti possedessero o meno la carat-
teristica della luminescenza. Infine risultò dalle osservazioni di Becquerel che
questi raggi erano simili alla radiazione X emessa dal tubo di Crooks, ma
avevano anche caratteristiche per cui differivano dalla radiazione messa in
evidenza da Röntgen.
Becquerel, attraverso la scoperta dei “raggi uranici”, mise in luce un
fenomeno nuovo che aprı̀ una nuova linea di ricerca. Poi ulteriori contributi
fondamentali volti alla comprensione della radioattività vennero dai Curie
(Marie e Pierre) e da Ernest Rutherford.
I Curie introdussero un nuovo metodo d’indagine nello studio dei fenomeni
radioattivi che venne denominato come metodo “elettrico”, e che si basa sul
fatto che, tanto più una sostanza è attiva nell’emissione di radiazioni, tanto
più rendeva conduttrice l’aria. Iniziarono perciò a catolagare le sostanze in
base alla loro attività ionizzante. Il primo risultato fu che non solo l’uranio
ma anche il torio possedeva questa attività. La prima sorpresa fu che vi erano
tre minerali contenenti uranio che risultarono più attivi dell’uranio stesso. I
minerali in questione erano un tipo di calcolite e due tipi di pechblenda. Ciò
condusse i Curie a credere che questi minerali potessero contenere elementi
molto più attivi dell’uranio. Nella prospettiva dei Curie, la radioattività
del torio e dell’uranio erano caratteristiche e proprietà atomiche. La mag-
gior attività della pechblenda doveva quindi caratterizzarsi come un indizio
dell’esistenza di elementi atomici ancora più attivi del torio e dell’uranio.
Questi nuovi elementi furono poi separati chimicamente e battezzati polonio
e radio. Questo risultato fu di grandissima importanza per specificare la
radioattività come una caratteristica atomica di certi elementi. Giova ricor-
dare che nei residui della pechblenda precedentemente trattata dai Curie per
separare il polonio e radio, A. Debierne, un giovane ricercatore sotto la guida
dei Curie, riuscı̀ nel 1900 ad isolare un nuovo radioelemento, l’attinio.
Becquerel, i Curie, si resero conto che i radioelementi emanavano raggi
fra cui elettroni (raggi β) e altri raggi (α) di natura imprecisata. Contestual-

3
mente Paul Villard fu in grado di identificare una componente più penetrante
dei raggi β e non deviabile dai campi magnetici, i raggi γ. Un problema gen-
erale di fondo riguardava i fenomeni connessi con la radioattività. Essi pare-
vano porsi in contrapposizione con un principio fondamentale che governava
tutti i fenomeni fisici: il principio di conservazione dell’energia. I Curie nel
1898 osservarono: i raggi emessi dal polonio e dal radio rendono il platinocia-
nuro luminescente, apparendo leggermente luminoso nell’oscurità. Si è cosı̀
ottenuta una sorgente di luce che opera senza una sorgente di energia.
Sorge quindi spontanea la domanda: le sostanze radioattive traggono la
loro energia da forze esterne od interne all’atomo? Siccome non si potè met-
tere in evidenza la possibilità di modificare l’entità delle radioemissioni del
materiale radioattivo attraverso modifiche dell’ambiente esterno (ad esempio,
facendo il vuoto, oppure schermando opportunamente il materiale radiogeno
da radiazioni esterne) si dovette concludere che la sorgente d’energia doveva
essere nelle forze che si annidano all’interno dell’atomo. Inziarono in questo
modo le prime suggestive speculazioni sulla struttura dell’edificio atomico.
Nel 1899/1900 Rutherford e collaboratori iniziarono uno studio esteso
del fenomeno dei radioelementi, con particolare riguardo alla natura delle
particelle emesse e alle leggi a cui obbediscono i meccanismi di emissione.
Riguardo alla natura delle particelle emesse, Rutherford rinchiuse degli
elementi radioattivi in un contenitore di piombo, facendone uscire le emis-
sioni soltanto attraverso un foro. Poi attivò un campo magnetico per vedere
come fossero influenzati i raggi in uscita: riuscı̀ a separare tre diversi tipi di
radiazione. Una parte poco penetrante (radiazione α) caratterizzata da una
natura corpuscolare carica positivamente, le particelle α o nuclei di elio, una
parte più penetrante (radiazione β) caratterizzata dall’emissione di elettroni,
e una parte molto penetrante (i raggi gamma) formati da onde elettromag-
netiche di alta energia. Il contributo di Rutherford in quest’area si fonda
sulla scoperta della natura corpuscolare della radiazione α. Precedentemente
vigeva l’analogia che i raggi α fossero secondari ai raggi β proprio come i
raggi di Röntgen sono secondari ai raggi catodici.
In questo ambito, Rutherford osservò che l’uranio emetteva raggi α anche
dopo la separazione di tutte le sostanze β-radianti. Provò inoltre, nel 1903,
che i raggi α venivano deflessi dal campo magnetico e successivamente di-
mostrò che si trattava di cariche positive con masse confrontabili con quelle
atomiche, anzichè quelle dell’elettrone.
Nel 1902 Rutherford e Soddy formularono la tranformation theory in cui

4
si poteva leggere nel fenomeno della radioattività il significato di un mu-
tamento chimico a livello subatomico, però senza dipanare una sostanziale
ambiguità fra la mutazione chimica e l’emissione radioattiva. Solo dopo il
fondamentale lavoro del 1903 sulla natura corpuscolare dei raggi α si potè
capire che la radioattività non rappresentava un effetto secondario e collat-
erale che accompagnava la trasformazione dell’atomo. L’espulsione di parti-
celle cariche attraverso il fenomeno della radioattività costituiva invece parte
integrante dello stesso processo di mutazione dell’atomo. Fu soltanto dopo
aver conseguito questa consapevolezza sulla natura dell’emissione α (1903)
che Rutherford e Soddy poterono riformulare la loro transformation theory
cogliendo in pieno il significato del processo radiogeno.
Come si è ricordato, l’energia emessa sembrava inesauribile, ma ben presto
si comprese che ciò era dovuto alla presenza di diversi elementi radioattivi,
anzichè uno singolo. Uno dei problemi a cui Rutherford e Soddy tentarono
di dare una risposta era se la capacità di emanare sostanze che rendevano
radioattive tutte le sostanze che circondavano il torio era una caratteristica
specifica del torio, o andava attribuita alla presenza di una sostanza estranea,
presente in piccole quantità e separabile per via chimica dal torio stesso. Essi
riuscirono ad isolare chimicamente dall’ossido di torio un composto molto
attivo che chiamarono torio X. Separando il torio X dal torio, non si riusciva
a ottenere una disattivazione totale del torio. Infatti il torio, dopo essere stato
parzialmente disattivato attraverso la rimozione del torio X, riacquistava nel
giro di poche settimane la sua attività iniziale, mentre il torio X nello stesso
intervallo di tempo perdeva totalmente l’attività originale. Queste ricerche
misero in luce sia l’andamento di recupero dell’attività del torio sia quello di
decadimento dell’attività del torio X. Per il recupero di attività del torio si
ottenne una legge del tipo

I(t) = Io (1 − e−λt ), (1)

e per il decadimento dell’attività del torio X,

I(t) = Io e−λt . (2)

Si potè osservare inoltre che il torio privato del torio X emetteva raggi “non
deviabili” (raggi α) mentre il torio X emetteva un miscuglio di raggi devia-
bili e non deviabili. Questi fatti, unitamente a certe proprietà nelle trasfor-
mazioni collegate alla radioattività dell’uranio, e messe in risalto preceden-

5
temente da W. Crooks, portarono alla conclusione che il torio X rappresenta
un tipo distinto di materia con la sua propria specificità chimica.
L’analisi contenuta nel lavoro di Rutherford e Soddy mise dunque in luce
una serie di proprietà associate al processo della radioattività. In partico-
lare, che la maggior parte della radioattività del torio (circa il 54%) è orig-
inata dalla presenza di una sostanza diversa dal torio stesso, il torio X, che
possiede caratteristiche proprietà chimiche che lo rendono diverso dal torio.
L’attività del torio X subisce un decadimento, riducendosi alla metà del suo
valore iniziale in circa quattro giorni. Il torio mantiene la sua attività nat-
urale costante grazie alla continua produzione di torio X. Non è possibile
modificare l’attività radioattiva del torio X con metodi fisici o chimici. Suc-
cessivamente il torio X va incontro ad una ulteriore modificazione dove una
sostanza prodotta è di natura gassosa e rappresenta il veicolo con cui il torio
induce la radioattività sui corpi inattivi che lo circondano (emanazione).
Si arriva inoltre a cogliere nel fenomeno della radioattività l’effetto della
presenza di minuscole quantità di tipi particolari di materia, e a ritenere che
la radioattività sia il risultato di un fenomeno che avviene a livello atomico
e che produce un mutamento chimico in cui vengono prodotti nuovi tipi di
materia. Si arriva infine a cogliere nel lavoro del 1903 come la radioattività
sia l’effetto di un mutamento chimico che avviene a livello subatomico.
Bisogna sottolineare che nella transformation theory si trova riferimento
esplicito alla famosa legge del decadimento radioattivo,

n(t) = no e−λt (3)

dove si asserisce che il numero di particelle radioattive emesse da una sostanza


nell’unità di tempo (e quindi anche il numero di nuclei instabili) non è
costante nel tempo ma decresce esponenzialmente, e questa dipendenza espo-
nenziale caratterizza tutti i fenomeni radioattivi. Poichè il decadimento di un
singolo nucleo è un evento dettato dal caso ci aspettiamo statisticamente che
la velocità di trasformazione sia proporzionale esclusivamente alla quantità
di materia che deve trasformarsi

dn
= −λn (4)
dt

dove λ in [s−1 ] rappresenta la costante di decadimento. Possiamo risolvere

6
l’equazione rispetto al numero di nuclei iniziali e ottenere la legge esponen-
ziale con cui il numero dei nuclei varia nella particolare sostanza per effetto
della trasformazione. Il numero di decadimenti radioattivi nell’unità di tempo
viene chiamato attività A

dn
A= = λn(t) = λno e−λt (5)
dt

mentre l’inverso della costante di decadimento λ viene chiamato vita media


τ = 1/λ. Di utilità pratica risulta anche il tempo di dimezzamento t1/2 , che
corrisponde al tempo necessario affinchè il numero di nuclei iniziali no si sia
ridotto a metà no /2

ln(2)
t1/2 = = τ ln(2) ' τ 0.693 . (6)
λ

Fu grazie soprattutto al contributo di Rutherford che si potè intrepretare


nella radioattività il segno di una trasformazione monoatomica e, in ultima
analisi, di una disintegrazione. Fu proprio grazie alla scoperta della natura
corpuscolare delle radiazioni α che la radioattività divenne sinonimo di dis-
integrazione: non si sapeva ancora cosa in realtà fosse l’atomo (siamo nel
1903!), si sapeva però che esisteva e che la radioattività era il segno della sua
disintegrazione.

1.2 Applicazioni della radioattività


Vi sono delle conseguenze importantissime delle ricerche sulla radioattività
e delle ricerche in fisica nucleare: queste riguardano la ricchezza e varietà
di utili applicazioni che ne sono scaturite. Queste applicazioni hanno avuto
un enorme impatto sulle altre discipline scientifiche (tipo astronomia, medic-
ina, archeologia, geologia etc.) che utilizzano quotidianamente metodolo-
gie nucleari - oppure originariamente sviluppate in ambito nucleare - per
avanzare nello stato delle loro conoscenze. Anche l’impatto sul benessere
e sviluppo dell’umanità in generale va sottolineato, se si pensa agli impor-
tantissimi sviluppi che si sono ottenuti in diagnostica medica, nelle terapie, e

7
nella produzione dell’energia. L’impatto delle applicazioni della radioattività
sul mondo del lavoro si svela da solo, leggendo il seguente elenco: sistemi
di controllo antincendio, oggetti luminescenti, rivelatori di mine antiuomo
nell’opera di sminamento, rivelatori, test non distruttivi, conservazione di
alimenti, controllo delle abrasioni, sterilizzazione alimenti, conservazione di
opere d’arte, produzione di materiali speciali, controlli di qualità, studio della
struttura dei materiali, analisi delle sequenze di geni, studio dei processi di
flusso in medicina ed industria, individuazione della circolazione oceanica,
batterie di alimentazione a lunga durata per satelliti, controlli ambientali,
datazioni radiometriche per l’archeologia e la geologia, controllo dei chip di
silicio, controllo dei sedimenti, studio della fisiologia delle piante, controllo
delle saldature, indurimento dei materiali, prospezioni geologiche.
Si vuole nella parte di lezione che segue dare soltanto un esempio, quello
forse piú classico; ovvero l’applicazione del fenomeno della radioattivitá per
lo sviluppo di una valida tecnica per la datazione dei reperti archeologici e
geologici.

1.3 Datazione radiometrica


Una delle importanti applicazioni del fenomeno della radioattivitá riguarda
la possibilità di effettuare misure precise circa l’età di un certo reperto. Puó
essere un reperto importante per lo studio dell’età della terra, oppure per la
storia dell’umanità, oppure ancora, come é recentemente successo, per la più
prosaica necessità di stabilire con precisione l’annata di una bottiglia di vino
particolarmente rilevante sul piano enologico.
I metodi di datazione radiometrica si fondano sul fatto che una sostanza
radioattiva impiega un determinato numero di anni a trasformarsi in un’altra
sostanza, e il tempo caratteristico della trasformazione viene specificato dal
tempo di dimezzamento t1/2 . Le leggi di trasformazione radioattiva, inoltre,
non vengono influenzate da sollecitazioni meccaniche e fisiche (inclusi i cam-
biamenti di stato) e dalle trasformazioni chimiche.
Determinando la percentuale dell’isotopo radioattivo (che generalmente
viene indicato come radioisotopo) ancora presente nella sostanza sotto analisi
rispetto a quella dell’elemento “figlio” cioé del prodotto finale della catena
di mutazioni, si puó risalire all’etá del reperto. Se l’elemento “padre” e
l’elemento “figlio” si trovano in rapporti 1:3 si può dedurre che il tempo
trascorso dalla situazione iniziale corrisponde a due tempi di dimezzamento

8
del radioisotopo.
Per la datazione radiometrica ovviamente non si può usare direttamente
l’equazione
n(t) = no e−λt (7)
in quanto non si conosce la quantità iniziale di radioisotopi, no , però si può
misurare il numero di nuclei prodotti dal decadimento d(t), come pure il
numero di radioisotopi che devono ancora decadere, n(t). In tal modo si
può determinare il tempo del campione sotto analisi attraverso l’equazione
dell’età
n(t) + d(t)
t = λ−1 ln( ) [s] . (8)
n(t)

Per la datazione radiometrica vengono usati i seguenti radioisotopi:

Padre → Figlio t1/2 (in anni)


87 87
37 Rb → 38 Sr 47 000 milioni
232 208
90 T h → 82 P b 13 900 milioni
238 206
92 U → 82 P b 4 510 milioni
40 40
19 K → 18 Ar (11%) 1 270 milioni
235 207
92 U → 82 P b 713 milioni
14 14
6 C → 7 N 5730

Tabella: Radioisotopi utilizzati nelle tecniche di datazione radiometriche e cor-


rispondenti tempi di dimezzamento. Per il potassio 40 K, viene data la frazione
corrispondente alla formazione dell’argon (Ar) come prodotto di decadimento, in
quanto la diramazione in calcio, 40 Ca non risulta utile ai fini della datazione.

Quando si vogliono datare rocce molto vecchie, di milioni di anni, si usa


il rubidio (Rb), il torio (Th), e i due isotopi dell’uranio (U). L’utilizzo della
trasformazione del potassio in argon è molto flessibile in quanto é possibile
misurare al giorno d’oggi quantità molto piccole di argon nelle rocce.
L’uranio 238 ha un tempo di dimezzamento di 4.5 miliardi di anni, dell’ordine
dell’età del sistema solare. Ciò significa che di tutto l’uranio presente quando
si è formato il sistema solare, ne esiste ancora circa la metà. L’uranio 235

9
invece ha un tempo di dimezzamento circa sei volte più breve, e pertanto si
è conservata soltanto la frazione pari a

 6
1 1
= (9)
2 64

cioè circa l’ 1.5% dell’isotopo 235 dell’uranio.


Al presente, soltanto lo 0.7 % dell’uranio esistente in natura è 235 U , mentre
238
l’ U costituisce il rimanente 99.3 %.
I nuclidi con tempi di dimezzamento più brevi di 0.1 miliardi di anni non
sono sopravissuti in quantità significative dai tempi della loro formazione
originaria. I nuclidi con tempi più brevi che esistono in natura si sono formati
attraverso il decadimento di un capostipite a lunga vita, oppure attraverso
la produzione da raggi cosmici.
Per esempio, l’238 U è il membro capostipite che vive piú a lungo di una
lunga catena di decadimenti, che termina nell’isotopo del piombo, 206 P b. In
un campione di uranio esistente in natura, tutti i prodotti di decadimento
sono presenti nella proporzione dei loro tempi di dimezzamento, e attraverso
l’emissione di radiazioni α e β si possono formare soltanto radionuclidi con
238 − 4n, ovvero nuclidi che differiscono fra loro di quattro unità di massa.
Per le definizioni, la lettura di una carta dei nuclidi, esempi di catene di
decadimento, si rimanda a quanto detto nella lezione in presenza.
L’altra sorgente naturale di radionuclidi a vita breve sono i raggi cosmici,
che sono costituiti da particelle di alta energia, per la maggior parte elettroni
e protoni, che bombardano la terra dallo spazio cosmico. Gli urti dei protoni
con gli strati superiori dell’atmosfera, se l’energia è sufficiente, producono
dalla rottura del nucleo un certo numero di protoni, neutroni, particelle alfa,
e altre particelle. I neutroni secondari creano a loro volta nuclidi radioattivi
attraverso successive collisioni con altri nuclei. Una delle più rilevanti reazioni
di questo tipo è
n +14 14
7 N → p +6 C , (10)
dove il costituente principale dell’atmosfera (pari a circa l’80%), l’azoto
(14 14
7 N ), si converte in carbonio radioattivo 6 C attraverso l’assorbimento del
neutrone e l’emissione di un protone. Questo processo di conversione nucleare
avviene continuamente in natura, ed esiste un equilibrio dinamico in atmos-

10
fera fra la velocità di produzione e la velocità di decadimento del carbonio
14
C.
Il metodo di datazione con il carbonio fu proposto e sviluppato nel 1947
dal chimico W. F. Libby, e per questa scoperta gli venne assegnato il premio
Nobel per la chimica nel 1960. Il metodo del carbonio radioattivo si caratter-
izza per il fatto che qui non viene misurato l’elemento figlio, che è l’azoto 14
7 N,
14
ma si misura il rapporto fra il carbonio radioattivo C e l’isotopo stabile,
12
C.
Il carbonio è l’elemento fondamentale dei materiali di origine organica e
di conseguenza delle strutture biologiche. Si trovano mescolati in natura tre
isotopi, 12 C, 13 C, e 14 C, dove i primi due sono stabili, e distribuiti in natura
con le proporzioni 98,9 %, e 1.1 %. Il terzo è molto più raro e, come si è detto,
è radioattivo e prodotto nell’atmosfera. Quando si formano i nuclei di car-
bonio radioattivo, questi si combinano con l’ossigeno per formare l’anidride
carbonica 14 CO2 che si mescola uniformemente con la normale anidride car-
bonica, e attraverso la fotosintesi, passa negli gli organismi biologici e infine
anche nell’uomo, attraverso la catena alimentare. Quindi negli esseri viventi,
si osserva lo stesso rapporto fra carbonio 12 C e 14 C che c’è nell’atmosfera. Per
il periodo di tempo che comprende la storia dell’umanità questo rapporto può
essere considerato costante e pari a 1.2 10−12 , cioè un rapporto circa uguale
a 1.2 su mille miliardi. È facile a questo punto stimare qual è l’ attività per
1 Kg. di carbonio estratto da una sostanza organica. Basta ricordare che il
tempo di decadimento del carbonio radioattivo è dato da (si utilizzi il tempo
di dimezzamento dato in tabella) τ = t1/2 /ln2 = 2.6 × 1011 [s]. Osservando
poi che in un kilogrammo di carbonio vi sono 83.3 moli, che per ogni mole
di carbonio naturale vi sono 6.023 1023 x 1.2 10−12 nuclei di carbonio 14 C, si
ricava subito che l’attività del carbonio da materiale biologico risulta essere

83.3 × 6.023 × 1.2


AC = ' 230 [decadimenti/s] . (11)
2.6

Nel sistema internazionale (SI), l’unità di misura di attività di una sostanza


radioattiva è il becquerel [Bq], che viene definito come 1 decadimento al sec-
ondo. L’unità di misura storica per l’attività delle sostanze è il Curie [Ci]. 1
Ci corrisponde a 3.7 x 1010 [Bq]. Il Curie corrisponde all’attività di 1 gr. di
radio 226
88 Ra.

11
Concludiamo perciò osservando che negli organismi viventi la radioat-
tività da 14 C corrisponde a 230 Bq per kilogrammo di carbonio. In un uomo
normale, dal peso di 70 Kg, possiamo stimare la massa di carbonio in 16-17
Kg.
Con la morte dell’organismo vivente, il carbonio radioattivo presente
nell’organismo diminuisce sempre di più, perché si rompe l’equilibrio dinam-
ico con la biosfera. Perciò col passare degli anni cambia il rapporto fra il 12 C
e 14 C, rispetto al rapporto che l’organismo aveva inizialmente (in corrispon-
denza della morte). La datazione con il carbonio permette di determinare la
data della morte organica e viene applicata nei campioni archeologici relativi
a pezzi di legno, ossa, tessuti, pergamene, etc.
La tecnica convenzionale di datazione corrisponde all’estrazione chimica
del carbonio dal reperto, e poi nell’analisi del carbonio estratto con un rivela-
tore di particelle, tipo Geiger-Müller, che rivela il passaggio della radiazione
ionizzante dovuta al decadimento del carbonio, trasformandola in un segnale
elettrico. Gli impulsi elettrici vengono contati e il numero di impulsi rivelati
nell’unità di tempo rappresenta l’attività A del 14 C contenuto nel campi-
one. Possiamo procedere alla datazione risalendo al numero n(t) di nuclei di
radiocarbonio presenti nel campione, attraverso l’equazione

A
n(t) = (12)
λ

e da questo alla concentrazione del 14 C, attraverso la conoscenza della massa


totale del carbonio nel campione.
Chiaramente, la concentrazione di radiocarbonio nei reperti varia con
l’età secondo la legge del decadimento esponenziale, per cui il rapporto di
concentrazione R =14 C/12 C varia secondo la
R(t) = Ro e−λt (13)
dove Ro assume il già citato valore di 1.2 ×10−12 . Dalla misura di R(t) si
risale dunque al tempo t.
Attualmente, le tecniche di datazione radiometrica si sono molto raffinate,
e utilizzano spettrometri di massa per misurare direttamente il rapporto
14
C/12 C in tempi molto più brevi e con precisioni molto più elevate rispetto
alle tecniche convenzionali. Si può arrivare anche a datare reperti archeologici
vecchi di 50000 - 60000 anni!

12
1.4 La radioattività e l’uomo
Pierre Curie, ricevendo il Premio Nobel agli inizi del 1900, pronuciò queste
parole: “Possiamo chiederci se l’umanità trarrà beneficio dalla conoscenza
dei segreti della natura, se è abbastanza matura da trarne vantaggio o se
questa conoscenza non risulterà invece dannosa. Io faccio parte di quelle
persone che sono convinte che l’umanità saprà trarre più bene che male da
questa sua scoperta”.

1.5 Attività
1) Un osso contenente 100 g di carbonio ha un’attività pari a 400 decadimenti
al minuto. Se ne determini l’età.
2) Qual è approssimativamente il valore della radioattività del corpo umano,
generata naturalmente dal 14 C? (Si assuma una persona dal peso di 70 Kg.)

13

Potrebbero piacerti anche