Sei sulla pagina 1di 30

1 – L’equante

Claudio Tolomeo fu uno dei più grandi astronomi dell’antichità. La sua Raccolta matematica
(meglio nota come Almagesto)1, pubblicata intorno al 140 d.C. offrì una rappresentazione
matematica dei moti celesti così efficace da resistere per oltre mille anni.
L’esigenza di elaborare una descrizione dei moti celesti matematicamente precisa ed altresì
coerente con le idee di ordine, regolarità e perfezione proprie della mentalità greca 2 si traduceva
nel tentativo di spiegare i movimenti degli astri ricorrendo al solo moto circolare uniforme.
Il problema è che gli astri non sembrano seguire affatto tale forma di moto. Osservando il cielo
notturno, si nota che le stelle sorgono e tramontano, ruotando (con moto uniforme) intorno a un
punto specifico (polo celeste) e restando sempre alla stessa distanza tra loro, come se fossero infisse
nella parte interna di una sfera rotante su sé stessa (sfera celeste). I greci parlavano pertanto di stelle
fisse e di sfera delle stelle fisse. Tuttavia, osservando il cielo durante più notti emerge che alcuni astri
si muovono per conto proprio sullo sfondo delle stelle fisse, come se fossero infissi in altre sfere. Il
loro moto non pare regolare3: questi astri vanno avanti, rallentano, si fermano, diventano più
luminosi, tornano indietro, accelerano e poi ripartono in avanti, tornando alla luminosità iniziale.
Inoltre, le retrogradazioni (fasi in cui l’astro torna indietro e appare più luminoso) non avvengono a
intervalli regolari, non hanno la stessa durata e non paiono ripetersi ciclicamente. I greci
identificarono cinque astri (Mercurio, Venere, Marte, Giove e Saturno) che comportandosi in
questo modo vennero detti stelle erranti, ovvero pianeti4.
Occorreva “salvare i fenomeni”, ossia elaborare una teoria matematica che desse conto:
- della retrogradazione dei pianeti;
- della variazione di luminosità;
- della variazione di velocità;
il tutto a partire da due presupposti “filosofici”:
1) l’immobilità della Terra, al centro dell’Universo;
2) il moto circolare uniforme degli astri.
Il modello più antico pervenutoci dall’antichità è quello di Eudosso di Cnido (IV sec. a.C.),
secondo cui l’universo è costituito da un sistema di sfere agganciate l’una all’altra e, al centro, vi è
la Terra (modello a sfere omocentriche). Ogni pianeta è infisso in una sfera rotante su sé stessa di moto
uniforme e in senso antiorario; questa sfera è a sua volta agganciata ad un’altra, che ruota alla
stessa velocità, ma in direzione opposta e con asse di rotazione diverso: la combinazione dei due
movimenti genera una curva complessa (ippopeda), simile al simbolo dell’infinito. Una terza sfera
trascina le due sfere inferiori, determinando il moto del pianeta così come appare in cielo, con le
retrogradazioni e le variazioni di velocità.
Tale modello fu adottato da Aristotele, perché si adattava bene all’idea di un universo mosso da
un primo motore mobile, in cui il movimento viene trasmesso alle sfere inferiori grazie a principi
1
Già nell’antichità il titolo originario (Μαϑηματικὴ σύνταξις) fu modificato in Μεγάλη μαϑηματικὴ
σύνταξις τὴς ἀστρονομίας («Grande raccolta matematica di astronomia»). Tradotta in arabo, venne poi
detta “La più grande [raccolta matematica di astronomia], dunque al-Magisṭī.
2
Che il moto degli astri fosse circolare e uniforme è esplicitamente affermato da Aristotele, il quale, peraltro,
non fa che dar voce e dignità filosofica a un'idea tipica della cultura greca. I babilonesi, che pure avevano
elaborato una raffinata astronomia e rappresentavano i moti celesti in forma matematica, non pare fossero
turbati dalla possibilità di un moto non uniforme.
3
Le comete invece venivano considerate da Aristotele come fenomeni atmosferici.
4
πλάνητες ἀστέρες plànētes astéres, o “stelle vagabonde”.
1
meccanici, come in un orologio. Tuttavia, il sistema non spiegava le variazioni di luminosità e non
poteva fornire previsioni affidabili sulle posizioni degli astri.
Il modello epiciclo-deferente di
Tolomeo deriva dagli studi di
Ipparco di Nicea (II sec. a.C.),
cui è fatto costante riferimento
nell’Almagesto. Alla base del
sistema c’è l’idea che il pianeta
si muova a velocità costante
lungo una circonferenza
(epiciclo), il cui centro, a sua
volta, si muove, anch’esso con
moto uniforme, lungo un’altra
circonferenza (deferente). Questa
soluzione spiega sia le
retrogradazioni sia le variazioni
di luminosità (nel movimento
retrogrado, il pianeta è più
vicino alla Terra, quindi appare
più luminoso), ma in questa forma più semplice non spiega la velocità non uniforme. Pertanto,
Tolomeo introdusse due importanti innovazioni.
Con la prima, il centro del deferente non risultava coincidere con il centro della Terra, ma appariva
leggermente spostato (eccentrico): ciò consente a un osservatore posto sulla Terra di percepire una
apparente velocità non uniforme (più veloce al perigeo, quando è più vicino alla Terra e più lento
all’apogeo quando è più lontano dalla Terra), mentre in realtà il pianeta procede nel suo percorso
sempre alla stessa velocità.
La seconda innovazione è più drastica. Poiché il modello non
determinava predizioni affidabili sulla posizione del pianeta nel
corso della sua orbita, viene introdotto l’equante. Secondo
Tolomeo, il pianeta si muove di moto uniforme non rispetto al
centro del deferente, né rispetto al centro della Terra o al centro
dell’epiciclo, bensì rispetto a un altro punto (punto equante) e al
rispettivo circolo equante (anche se l’epiciclo non si trova sul
circolo equante).
Tolomeo assumeva a riferimento del moto la velocità angolare,
anziché quella lineare (il pianeta traccia angoli uguali in tempi
uguali, rispetto al punto equante). Ciò significa anche che, rispetto all’epiciclo e al deferente, la
velocità non è uniforme, ma accelera quando il pianeta è lontano dall’equante e rallenta quando gli
è più vicino (e il fenomeno risulta accentuato dall’eccentricità del deferente).
La lettera del dogma era salva: il pianeta si muove sempre con velocità uniforme. Solo che questa
velocità è quella angolare e il punto rispetto a cui essa è uniforme è un punto immaginario, che
non coincide né con il centro dell’orbita né con il centro della Terra. Di fatto, è come dire che la
velocità del moto del pianeta non è uniforme. Nonostante ciò, Tolomeo riusciva a dare conto delle
variazioni di velocità dei pianeti, seppur ad un altissimo prezzo: l’equante è un’entità puramente
geometrica, un artificio per far quadrare i conti, dunque un trucco.

2
A Niccolò Copernico (1473 –
1543), educato in quel clima
umanistico che mitizzava l’antichità,
assorbendone gli ideali di armonia,
unità e proporzionalità in modo
anche più radicale degli stessi greci, il
sistema tolemaico sembra una
mostruosità. Nel De rivolutionibus
orbium coelestium (1543) veniva
dunque proposto un sistema
5
eliostatico : la Terra ruota intorno al
Sole, insieme agli altri astri.
Secondo Copernico, un sistema
astronomico non doveva limitarsi a
salvare i fenomeni, ma doveva
rappresentare la vera costituzione dei
cieli. Secoli di aggiustamenti e
modifiche avevano fatto passare
l’idea che il sistema tolemaico fosse un mero strumento di calcolo delle posizioni planetarie, non
una descrizione fedele dell’universo. I filosofi e i teologi avevano continuato a seguire Eudosso e
Aristotele, lasciando ai matematici il modello tolemaico. Per Copernico, questo era inaccettabile:
una teoria astronomica non poteva limitarsi a offrire soluzioni per salvare i fenomeni, ma doveva
fornire una rappresentazione della realtà. Il moto circolare uniforme è uno dei caratteri principali
dell’ordine voluto da Dio e tentare di aggirare questo principio con l’equante significava, per
Copernico, una sola cosa: barare
D’altra parte, rinunciando all’equante, Copernico era costretto a trovare una nuova via per
affrontare il problema del moto non uniforme. Il moto della Terra era inidoneo per sé a giustificare
le variazioni di velocità dei pianeti. Inoltre, Copernico considerava la Terra ancora un posto
particolare e non era disposto ad affermare che la sua orbita fosse eccentrica rispetto al Sole e
nemmeno che ruotasse su un epiciclo. Pertanto, Copernico ipotizzò che ogni pianeta si muovesse
di moto uniforme su un epiciclo (2), il cui centro giaceva immobile sulla circonferenza di un altro
epiciclo (1), il cui centro viaggiava lungo un deferente eccentrico rispetto al Sole. In questo modo,
tutti i moti risultavano uniformi rispetto al proprio centro e non si doveva più ricorrere all’equante.
Il prezzo da pagare era però quello di una maggior complessità e, soprattutto, una serie di
problemi fisici e filosofici connessi all’idea di una Terra in movimento. Dovendosi scegliere se
salvare il dogma del moto circolare uniforme o quello della Terra immobile al centro dell’Universo,
Copernico aveva scelto il primo.
Del resto, l’idea del moto della Terra risultava per lui più ragionevole di una soluzione
geometrica per salvare i fenomeni, nel senso che l’equante rappresentava il simbolo di
un’astronomia che aveva rinunciato a descrivere la vera struttura dell’universo, riducendosi a una
mera dimensione strumentale. Poco importava che il sistema fosse più complicato, che fosse
difficile capire come una Terra in moto potesse ancora essere il centro di gravità dei corpi pesanti,

5
Il sistema copernicano è stato a lungo considerato eliocentrico: in realtà, il Sole non è esattamente al centro
dell’Universo.
3
o perché, tra la sfera di Saturno e quella delle stelle fisse, vi fosse uno spazio vuoto pressoché
sconfinato. Assolutamente implausibile appariva l’idea che i pianeti ruotassero di moto uniforme
non rispetto alla Terra o al centro delle rispettive orbite, ma rispetto a dei punti immaginari
disseminati nel cielo, dove faceva più comodo all’astronomo di turno.

Nel 1603, l’astronomo imperiale


Johannes Kepler sembrava essere
giunto a un punto morto nelle sue
ricerche sull’orbita di Marte. Egli era
virtualmente l’unico astronomo in
Europa a disporre dei dati raccolti da
Tycho Brahe, il quale lavorando su di
essi era giunto alla conclusione che né
il modello tolemaico né il modello
copernicano riuscivano a rendere
conto dell’orbita di Marte.
Condividendo l’idea di Copernico, sul
compito dell’astronomia di fornire
una descrizione vera dei cieli, Kepler
si spinse oltre, affermando che
l’astronomo non poteva esimersi
dall’indagare le cause dei moti celesti.
Era questo un tema che gli astronomi
avevano da tempo smesso di considerare, ritenendolo argomento proprio della filosofia naturale.
Essi si contentavano di una descrizione matematica, senza porsi il problema del perché gli astri si
muovessero in un certo modo.
Dal punto di vista geometrico, il sistema tolemaico e quello copernicano sono equivalenti. Il
modello copernicano era però preferibile per ragioni fisiche e metafisiche. Il moto degli astri,
secondo Kepler, è determinato dall’azione del Sole (l’unica entità fisica che sembrava in grado di
“far muovere” le cose): era dunque più opportuno che il Sole fosse posto al centro dell’Universo e
fosse il centro di rotazione dei pianeti. Rispetto al sistema eliostatico di Copernico, quello di Kepler
è più strettamente un sistema eliocentrico.
Kepler supponeva che l’intensità dell’azione del Sole fosse inversamente proporzionale alla sua
distanza e questo era coerente sia con l’eccentricità delle orbite dei pianeti (rispetto al Sole), sia con
la loro velocità non uniforme. Inoltre, risultava possibile recuperare l’equante come strumento di
calcolo: «la causa dell’equante è essenzialmente fisica». Se il Sole fa muovere i pianeti in circolo e la
sua efficacia varia in funzione della distanza, allora non c’è niente di ripugnante nell’ammettere
che il punto rispetto al quale la velocità angolare è uniforme sia un punto geometrico diverso dal
centro dell’orbita e dal corpo del Sole. Inoltre, l’equante non necessariamente doveva essere fisso:
l’ipotesi fisica della velocità inversamente proporzionale alla distanza poteva giustificare una
variazione di eccentricità dell’equante. La posizione del punto equante si poteva determinare di volta
in volta, in funzione della variazione di velocità dell’astro.
L’ipotesi formulata per l’orbita di Marte nel 1602 (ipotesi vicaria) era quella di un’orbita circolare
con un equante la cui eccentricità variava nel tempo. Ciò forniva risultati in linea con i dati di Brahe,

4
quando Marte e Terra erano in opposizione (con Sole, Terra e Marte sulla stessa linea), ma falliva
nel prevedere la posizione del pianeta in altre situazioni.
A questo punto, Kepler ipotizzò che la discrepanza fosse determinata da un’imperfetta
determinazione dell’orbita della Terra. Kepler determinò allora l’orbita con un metodo semplice e
ingegnoso: immaginò di essere su Marte e di osservare la Terrà da lassù. Il periodo orbitale di
Marte è di 687 gg., il che significa poter determinare quattro punti di osservazione a distanza di
687 gg. l’uno dall’altro e attribuire poi la differenza delle posizioni osservate al moto della Terra.
Attraverso questi quattro punti, si poteva quindi tracciare l’orbita. Quello che si ottenne fu che, non
solo l’orbita terrestre era eccentrica rispetto al Sole (a differenza di quanto pensava Copernico), ma
che sembrava che la Terra ruotasse di moto uniforme rispetto a un equante e che l’eccentricità del
punto equante fosse uguale all’eccentricità del Sole. In sostanza, anche la Terra era sottoposta
all’ipotesi fisica.
Tutto ciò dava a Kepler la possibilità di trovare la regola per descrivere la variazione di velocità
della Terra lungo la sua orbita e poi risalire a rimuovere l’errore presente nell’ipotesi vicaria per
l’orbita di Marte. Per fare ciò Kepler usò l’equante come un orologio, per misurare la distanza
percorsa lungo la circonferenza e dunque la velocità rispetto al Sole. Occorreva dividere l’orbita in
360 parti uguali, misurare la distanza dal Sole in ciascuno dei 360 punti della circonferenza così
ricavati, sommare tutte le distanze e infine costruire una tavola di corrispondenze tra le posizioni
del pianeta rispetto al Sole e il tempo impiegato per raggiungere ciascuna di esse, partendo
dall’afelio. Il tutto sul presupposto di una velocità angolare uniforme del pianeta rispetto all’equante.
La ricostruzione dell’orbita della Terra attraverso l’equante (idoneo a strutturare l’eccentricità
dell’orbita), descrive una velocità di rotazione non uniforme, maggiore al perielio (più vicino al
Sole) e minore all’afelio (più lontano dal Sole).
All’atto pratico, anziché misurare tutte le distanze Sole – pianeta, Kepler pensò di semplificare,
sostituendo tali distanze lineari con le aree sottese ai settori ricavati nell’orbita. Di qui
l’enunciazione della seconda legge di Keplero: la linea che congiunge il Sole al pianeta spazza aree
uguali in tempi uguali6.
La tavola delle corrispondenze presentava leggere incongruenze con i dati osservativi. Ciò in
quanto Kepler aveva lavorato sull’ipotesi di orbite circolari e moti uniformi rispetto a un equante. In
realtà, i pianeti hanno orbite ellittiche, ma questo Kepler lo avrebbe scoperto solo dopo. La sua
fortuna fu che l’orbita della Terra è quasi perfettamente circolare e perciò il suo modello di orbita
con equante forniva risultati molto simili a quelli di un’orbita ellittica, con il Sole a occupare uno
dei due fuochi.
L’equante ebbe un ruolo nella costruzione della nuova astronomia di Kepler, pubblicata
nell’opera Astronomia Nova seu Physica coelestis (1609). Il suo recupero non come mero artificio
geometrico, bensì come effetto di un’ipotesi di attrazione fisica, aveva permesso di studiare il
problema dei moti non uniformi.
Dopo aver dimostrato che i pianeti presentano orbite ellittiche, veniva meno la necessità di
postulare l’equante: Kepler aveva sostituito alla velocità angolare (uniforme rispetto a un equante), la
velocità areolare (uniforme rispetto al Sole). L’equante, assolto il suo compito, scompariva dalla
ricerca astronomica e con esso si dissolveva anche il dogma del moto circolare uniforme.

6
Per Kepler, non si trattava di una legge, ma di un principio operativo. Inoltre, non era neppure lui sicuro
che tale operazione (il passaggio dalle distanze alle aree, ottenuto supponendo che queste ultime fossero
somme di infinite lunghezze) fosse rigorosa dal punto di vista matematico
5
2 – L’impetus
Il dogma del moto circolare uniforme era in origine il prodotto di una cultura, quella greca, che
vedeva nelle idee di simmetria, armonia, equilibrio e regolarità la chiave per interpretare la realtà.
Tale approccio continuò a esercitare il proprio fascino nel medioevo latino e oltre, soprattutto in
quanto si trattava di uno degli elementi fondamentali del sistema filosofico di Aristotele.
Questo non significa che l’accettazione della filosofia aristotelica fosse incondizionata e l’autorità
di Aristotele indiscutibile. I medievali, pur riconoscendo in Aristotele il “principe dei filosofi”,
furono capaci di interpretarne la filosofia criticamente, per giungere all’elaborazione di teorie
originali e talvolta diametralmente opposte a quelle aristoteliche. Se questa originalità è stata a
lungo misconosciuta è perché gli intellettuali del medioevo adottarono il commentario come genere
letterario specifico della riflessione scientifica e filosofica, per cui la stragrande maggioranza dei
loro contributi sono presentati nella forma di interpretazioni ai testi di Aristotele. La tradizione di
pensiero che ne derivò (elaborata all’interno della struttura delle scholae) fu detta scolastica.
Tra le dottrine più commentate vi fu senza dubbio quella del moto violento. Si trattava di un caso
particolare di moto locale, il quale a sua volta va inquadrato nella teoria generale del movimento
come passaggio dalla potenza all’atto7. Aristotele distingueva due tipi di moto locale: quello
naturale e quello violento.
Il moto naturale è determinato dalla natura del mobile e può essere diretto:
 verso il centro, proprio dei corpi pesanti (prevalenza dell'elemento Terra)
 lontano dal centro, proprio dei corpi leggeri (prevalenza dell’elemento Fuoco)
 intorno al centro, proprio della c.d. quinta essenza (la materia di cui sono fatti i cieli).
Si trattava, in fondo, di una spiegazione improntata al senso comune: un sasso cade giù perché,
essendo pesante, ha una naturale tendenza a raggiungere il suo luogo naturale e la velocità con la
quale cade dipende dal suo peso e dalla resistenza del mezzo. Pur con diversi problemi, la teoria
del moto naturale dava conto dei fenomeni osservati.
I dubbi sorgevano quanto Aristotele passava a considerare il moto violento, ovvero la situazione
in cui un corpo si muove in direzione contraria alla sua tendenza naturale. Che cosa succede
quando si scaglia un sasso? Il Filosofo osservava che un corpo che si muove di moto violento deve
necessariamente essere mosso da qualcos’altro, un motore esterno, ma fisicamente a contatto con il
mobile8. Nel caso del moto dei proiettili, il motore è costituito dalla mano che lancia il proiettile,
ma cos’è che fa sì che il proiettile continui nella sua traiettoria anche una volta separato dal
motore?
La soluzione di Aristotele è l’antiperistasi (contro + circondare), la sostituzione del motore e del
mosso, che si realizza all’interno del mezzo (acqua o aria) nel quale avviene il moto violento. La
mano che scaglia il proiettile trasmette la «capacità di muovere» anche all’aria contigua,
rendendola a sua volta un motore. La causa motrice non termina nel momento in cui il proiettile
viene mosso, ma trasforma ciò che gli è vicino in una nuova causa motrice più debole di quella
originaria. È l’aria dunque a far sì che il proiettile persista nel suo moto contro natura. Il moto

7
Aristotele intendeva il movimento non come semplice spostamento da un luogo all’altro, bensì come un
processo finalizzato alla realizzazione dell’essenza propria della cosa. La generazione e la corruzione,
l’aumento e la diminuzione, l’alterazione e lo spostamento erano per Aristotele tutte forme diverse di
movimento, riferibili rispettivamente alla sostanza, alla quantità, alla qualità e al luogo. Quest’ultimo (moto
locale) era considerato il principale e più importante tra i movimenti.
8
«Il motore e il mosso stanno insieme» (Fisica, VIII, 10, 266b – 267b). Ciò vale tanto per i corpi che si
muovono da sé quanto per quelli mossi da altro.
6
violento cessa quanto la causa motrice è diventata così debole da non riuscire più a vincere la
resistenza opposta dalla tendenza del corpo a dirigersi verso il proprio luogo naturale.
La prima obiezione alla teoria aristotelica del moto violento fu formulata da Giovanni Filopono
(490 – 570 d.C.). Se davvero la causa motrice va individuata nel mezzo (l’aria), allora dovrebbe
essere possibile muovere un sasso semplicemente muovendo l’aria a esso contigua, senza toccarlo.
Dal momento che questo evidentemente non avviene, la spiegazione di Aristotele è da rigettare
come errata. L’esperienza induceva piuttosto a credere che «una qualche virtù motrice incorporea
si trasmetta direttamente dal motore al mobile».
Una più articolata teoria si deve a Giovanni Buridano (prima del 1300 – dopo il 1358), il quale fu
anche colui che per primo diede il nome di impetus alla «forma impressa».

Possiamo e dobbiamo perciò concludere che nella pietra o in qualsiasi altro proiettile vi
sia impressa qualche forza motrice (vis motiva). Questo è molto più ragionevole che
assumere che sia l'aria a muovere il proiettile, dal momento che l'aria, più che causare il
movimento, sembra opporsi ad esso. Mi pare dunque si debba affermare che il motore
imprima al mobile un impetus o forza motrice (vis motiva), e che tale forza motrice agisca
nella stessa direzione del motore. E più intensa sarà l'azione del motore, tanto più grande
sarà l’impetus impresso al mobile. È in virtù dell’impetus che la pietra continua a
muoversi anche quando il motore cessa di farlo. Tuttavia, l'impetus si disperde
progressivamente a causa della resistenza opposta dall'aria, e così la pietra si muove
sempre più lentamente finché l'impetus non è così consumato da soccombere al peso della
pietra che ritorna così verso il suo luogo naturale.

La quantità di impetus che un corpo può ricevere dipende, secondo Buridano, dalla quantità di
materia (peso) e dalla velocità. Pertanto, posto che il peso è costante durante tutto il moto, ne
consegue che l’impetus di un corpo varia in funzione della velocità.
Si poteva così risolvere un “problema aperto” della fisica aristotelica: la caduta libera dei gravi. La
teoria dei luoghi naturali dava conto del perché un oggetto pesante, lasciato cadere da una torre, si
dirigesse verso il basso, ma non chiariva perché nel corso della caduta la sua velocità aumentasse.
Se ad agire sul corpo erano solo il suo peso, la tendenza naturale a dirigersi verso il basso e la
resistenza dell’aria, allora non c’era motivo che il corpo si muovesse di moto accelerato. Secondo la
teoria dell’impetus, al principio della caduta agiva sul corpo solo la naturale tendenza a dirigersi
verso il luogo naturale, ma nel momento in cui questa tendenza faceva muovere il corpo, veniva
altresì impresso un impetus (nella stessa direzione), facendo accelerare progressivamente la sua
caduta.
Inoltre, secondo Buridano, in assenza di resistenza esterna e di una naturale tendenza contraria,
l’impetus si conservava costante per un tempo infinito (sarebbe diminuito solo per la resistenza del
mezzo e la naturale tendenza del corpo stesso). Nel mondo sublunare, ciò non avveniva mai,
mentre era proprio quello che accadeva in cielo: le sfere celesti si muovevano di moto circolare
uniforme perché ad agire su di esse era solo l’impetus originario impresso da Dio: in assenza di
resistenza opposta dal mezzo e di tendenza delle sfere a dirigersi verso il basso o verso l’alto, le
sfere si muovevano senza che fosse necessario ipotizzare intelligenze angeliche per dirigerle e
conservarle nel moto (come pensavano i teologi).
La fisica dell’impetus non metteva in dubbio il principio aristotelico secondo cui «tutto ciò che si
muove è mosso da qualcosa», né l’idea generale del moto come passaggio dalla potenza all’atto.
L’impetus è una qualità dei corpi «naturalmente preesistente e predisposta a far muovere il corpo

7
nel quale è impressa». Pertanto, se si poteva imprimere un impetus a un corpo era solo perché i
corpi in generale sono per natura atti a riceverlo in proporzione alla quantità di materia in essi
contenuta.
La fisica dell’impetus si diffuse nel corso del ‘400 e fu tenuta in grande considerazione almeno
fino alla fine del ‘500. Tra i maggiori fattori di successo vi fu la necessità di comprendere al meglio
il moto dei proiettili e di migliorare le tecniche di puntamento, per determinare in anticipo la
strategia da adottare in battaglia. Matematici come Niccolò Tartaglia si servirono dell’impetus per
fondare su basi scientifiche una nuova disciplina: la balistica.
Nella formulazione data da Buridano (prodotto del peso per la velocità), l’impetus era una di
quelle qualità che ben si prestavano a un trattamento matematico-geometrico. Presso il Merton College
di Oxford, gruppo di filosofi (calculatores), convinti della possibilità di quantificare le qualità, si
occuparono dei problemi della velocità, seppure da un punto di vista cinematico e individuarono
un rapporto di proporzionalità semplice tra impetus, resistenza e velocità. Nella loro formulazione,
la velocità cresceva in proporzione diretta al crescere del rapporto geometrico fra forza impressa e
resistenza: nel caso in cui impetus e resistenza fossero uguali, non si darebbe alcun moto.
Il francese Nicolas Oresme (1320 – 1382) mise a frutto le intuizioni dei calculatores per riunire la
fisica dell’impetus in un’originale concezione dinamica del moto violento. Oresme riformulò il tutto
in termini geometrici, sfruttando le nozioni di latitudo (v) e di longitudo (t) per rappresentare il
moto, così da poter visualizzare graficamente le variazioni di velocità per mezzo di figure piane.
Rispetto alla teoria di Buridano, quella di Oresme presentava due elementi di novità:
a) accanto alla resistenza del mezzo e alla tendenza verso il luogo naturale, veniva introdotta
una naturale tendenza alla quiete come ulteriore fattore di movimento;
b) in virtù di ciò, l’impetus diveniva causa non del movimento in generale, bensì del moto
difforme. Tale formulazione si avvicinava al concetto newtoniano di forza: Oresme era arrivato a un
passo dall’accedere a una fisica basata sul principio d’inerzia, ma non ne varcò mai la soglia.

La dimostrazione del teorema della velocità media.


L’altezza del rettangolo è pari alla metà di quella del cateto
minore del triangolo: ciò significa che la velocità uniforme con cui si latitudo uniformiter difformis
copre la data distanza nel dato tempo è uguale alla velocità media del (moto uniformemente accelerato)
moto uniformemente difforme.

latitudo uniformis

Tutte le discussioni medievali sulla fisica dell’impetus si svolsero entro una cornice di pensiero
rigorosamente aristotelica. Né Buridano, né Oresme e neppure Filopono o i calculatores misero mai
in dubbio i principi aristotelici secondo cui ogni cosa che si muove è mossa da altro e ogni oggetto
ha un suo luogo naturale verso cui si dirige naturalmente. La stessa nozione di spazio in si svolge
il moto è sostanzialmente aristotelica: uno spazio in cui esiste un luogo privilegiato, il centro.
D’altra parte, l’impetus è qualcosa che non ha corrispettivo nella fisica classica.
8
Nella definizione di Buridano, l’impetus (peso per velocità) sembra avere qualcosa in comune
con la quantità di moto newtoniana (massa per velocità). Sennonché, per Newton la quantità di
moto è un effetto del movimento, mentre in Buridano l’impetus è la causa.
Nella definizione di Oresme, l’impetus sembra essere analogo alla forza (massa per
accelerazione), ma anche qui si tratta di una formulazione particolare, relativa al caso della fisica
terrestre, in un contesto ancora regolato dai principi del luogo naturale e delle resistenze (interne ed
esterne).
Infine, in tutte le formulazioni, l’impetus sembra avere in sé qualcosa del principio di inerzia (in
quanto forza che interviene a modificare lo stato “naturale” di un corpo), ma occorre tener
presente che, per i medievali, il moto era una situazione ontologica particolare, qualitativamente
inferiore alla quiete: doveva sempre esserci qualcosa a far muovere il corpo, altrimenti esso sarebbe
rimasto in quiete.
Nella fisica classica, fondata sul principio di inerzia («un corpo permane nel suo stato di quiete o
moto rettilineo uniforme finché una forza esterna non interviene a modificare tale stato») moto e
quiete sono ontologicamente equivalenti: nell’esame di un corpo in movimento, il problema
principale non è quello di capire che cosa lo fa muovere, bensì che cosa lo fa fermare. Inoltre, lo
spazio della fisica classica è omogeneo, non ci sono punti o direzioni privilegiate e la resistenza del
mezzo è un fattore trascurabile in sede di analisi matematica, mentre per i medievali era, al
contrario, un elemento sostanziale del moto stesso.
Più che un’anticipazione della fisica classica, la fisica dell’impetus fornì il terreno di discussione e
un campo d’indagine che, analizzato dagli studiosi della prima età moderna (Galileo e Newton)
permise loro di elaborare nozioni che erano solo accennate o implicitamente contenute e che, una
volta pienamente sviluppate, rendevano il ricorso a una qualità come l’impetus del tutto superfluo.
Se accettare il principio di inerzia significa eliminare la necessità di ricorrere a una qualità impressa
per spiegare il moto del corpo, meno evidente è che furono proprio le riflessioni sulla natura di tale
qualità a rendere pensabile quel principio. Una volta ammesso che l’impetus è una qualità
permanente e auto-conservativa in assenza di fattori esterni, è possibile pensare che, in fondo, la
quiete e il moto non sono stati qualitativamente distinti, ma possono essere trattati alla stesso
modo. Così come l’equante fu utilizzato da Kepler per superare l’equante stesso, così l’ impetus fu
utilizzato dai protagonisti della rivoluzione scientifica per elaborare una nuova concezione della
fisica e poi venne relegato nel dimenticatoio della storia.
3 – Gli indivisibili
Il problema della quadratura del cerchio consiste nel trovare un quadrato la cui area è uguale a
quella di una data circonferenza. La soluzione tentata da Archimede utilizza il metodo di Eudosso
detto metodo di esaustione (una versione raffinata del metodo per prova ed errore basato su una doppia
riduzione all’assurdo): per dimostrare l’uguaglianza di due grandezze A e A1, si dimostrava che
non era possibile che A > A1 né che A < A1. Tale metodo non serviva a scoprire che due grandezze
erano uguali, ma solo a verificare su basi rigorose la supposizione che lo fossero, ossia a
dimostrare delle conclusioni precedentemente ottenute per via intuitiva.
I greci utilizzarono metodi di esaustione dapprima per trovare la quadratura dei poligoni
regolari e, grazie a questi risultati, provare a risolvere il problema della quadratura del cerchio. La
procedura era quella di inscrivere e circoscrivere a una circonferenza dei poligoni "quadrabili" con
un numero di lati sempre maggiore per poi dimostrare che l'area del cerchio non poteva essere né
maggiore di quella del poligono circoscritto, né minore di quella del poligono inscritto.

9
L’idea è quella di dividere il cerchio in un numero infinito di triangoli (spicchi) infinitamente
piccoli. Tali triangoli hanno come base un arco di circonferenza talmente piccolo da rendere
indistinguibile il triangolo da un segmento di retta, con altezza (dell’ipotetico triangolo) uguale al
raggio del cerchio. L’area del cerchio può così essere definita come somma delle infinite aree di
questi triangoli.
Indicata con C l’area del cerchio, con bn le basi dei triangoli e con hn le loro altezze, risulta che
l’area di ciascun triangolo è (bn* hn) /2 e la somma delle aree dei triangoli è n*(bn* hn) /2
Pertanto, pensando la circonferenza come un poligono con un numero infinito di lati,
C = n*(bn* hn) /2
Poiché la somma delle basi dei triangoli (b) è uguale alla lunghezza della circonferenza (2πr) e
l’altezza di ogni triangolo (h) è uguale al suo raggio (r), con le opportune sostituzioni,
C = (2πr)*r = πr2
Nella definizione di Archimede: “ogni cerchio è uguale a un triangolo rettangolo se ha il raggio
uguale a un cateto del triangolo e la circonferenza uguale alla base”9.
Tuttavia, questa procedura presentava due problemi concettuali:
 che cos’è esattamente un poligono con un numero infinito di lati infinitamente piccoli?
 che cosa significa moltiplicare un numero per una quantità infinitamente piccola?
Queste domande nascono dalla difficoltà di maneggiare matematicamente l’infinito. La soluzione di
Archimede fu quella di usare il metodo di esaustione, per giustificare il risultato ottenuto in modo
empirico, senza fare riferimento all’infinito10.
L’idea di Archimede fu ripresa da Kepler per trovare una regola per predire lo spostamento di
un pianeta lungo l’orbita in un dato intervallo di tempo11. Tuttavia, Kepler non fece uso del metodo
di esaustione, allontanandosi in maniera decisiva da Archimede. Se per il matematico greco
riempire un’area di infinite figure geometriche infinitamente piccole era giustificato nella misura in
cui ciò portava a far scattare la doppia riduzione all’assurdo, per Kepler lo stesso procedimento
non richiedeva la garanzia dell’esaustione, ma poteva essere usato in maniera libera, in quanto era
il risultato ottenuto a garantire la procedura.

9
Il risultato suggeriva l'intrattabilità del problema della quadratura del cerchio. Un quadrato di area πr2
avrebbe il lato di lunghezza √πr2, ovvero r√π: una quantità ingestibile per i geometri greci.
10
Se l’area del triangolo (T) è inferiore a quella del cerchio (C), allora ε = C – T. Se inscriviamo nella
circonferenza un quadrato (Q) e indichiamo con δ la quantità C – Q, otterremo che ε < δ (il triangolo è
approssimazione per difetto di C e il quadrato è, a sua volta, approssimazione per difetto del triangolo).
Continuando a inscrivere nella circonferenza poligoni con un numero sempre maggiore di lati, arriveremo
ad un poligono (P) tale che δ < ε, il che significa che P > T (assurdo: l’area del poligono P è uguale a quella di
un triangolo avente come base il perimetro stesso di P e altezza il suo apotema, per cui necessariamente P <
T, essendo T un triangolo di base uguale alla circonferenza C e quindi maggiore del perimetro di P e altezza
uguale al raggio e quindi maggiore dell’apotema di P). Pertanto, l’area del triangolo T non può essere
inferiore a πr2. Lo stesso procedimento, ripetuto circoscrivendo dei poligoni alla circonferenza, conduce ad
analoga (assurda) conclusione (che si possa circoscrivere un poligono P la cui area sia inferiore a quella del
triangolo T avente per base la lunghezza della circonferenza e per altezza il raggio r e la cui area è supposta
maggiore di quella del cerchio). In sostanza, se l’area del triangolo con base uguale alla lunghezza di una
data circonferenza e un cateto uguale al suo raggio non può essere né maggiore né minore di quella del
relativo cerchio è necessario che sia uguale.
11
Il metodo fu modificato da Kepler per adattarsi a un circolo eccentrico, ossia a un’ellisse. Kepler non
divideva il cerchio a partire dal sul centro, ma a partire dal Sole (che occupa uno dei fuochi dell’ellisse).
10
Il problema era spostato da che cosa fossero le quantità infinitamente piccole al come potessero
essere validamente impiegate.

La necessità di trattare con quantità infinitamente piccole era emersa anche durante le ricerche
svolte dai teorici dell’impetus. Galileo ne dà conto nella prima giornata dei Discorsi e dimostrazioni
matematiche intorno a due nuove scienze (1638):

Ricordiamoci che siamo tra gl'infiniti e gl'indivisibili, quelli incomprensibili dal


nostro intelletto finito per la lor grandezza, e questi per la lor piccolezza. Con tutto ciò
veggiamo che l'umano discorso non vuol rimanersi dall'aggirarsegli attorno; dal che
pigliando io qualche liberta produrrei alcuna mia fantasticheria, se non concludente
necessariamente, almeno, per la novità, apportatrice di qualche maraviglia.

Il termine indivisibili usato da Galileo proviene dal latino medievale e rimanda ai calculatores e,
soprattutto, a Oresme, il quale aveva rigettato l’idea che una quantità continua potesse essere
composta di elementi infinitesimi discreti (nullum continuum est ex indivisibilibus): sulla questione
egli aveva dedicato diverse pagine del suo commento alla Fisica di Aristotele. Tuttavia, notava
Galileo, la necessità di ricorrere a «infinite quantità infinitamente piccole» sorgeva proprio
dall’analisi della teoria geometrica del moto proposta da Oresme.
le linee verticali rappresentano sia la velocità istantanea Riprendendo la dimostrazione
sia la distanza (infinitesima) percorsa nell’istante di tempo.
di Oresme del teorema della
velocità media, Galileo osservava
che l'area triangolare sottesa alla
retta che rappresenta la velocità
del corpo esprimeva, a sua volta,
la distanza percorsa in un dato
tempo (t). Un qualsiasi segmento
parallelo all'asse v che incontrasse tale retta doveva rappresentava sia la misura della velocità
istantanea del corpo, sia la distanza infinitesima percorsa. L’area rappresentante la distanza totale
percorsa in un dato tempo non poteva quindi che essere la somma degli infiniti segmenti paralleli
all'asse v compresi tra la base e l’ipotenusa del triangolo.
Ora, ammettendo la possibilità che un oggetto finito, limitato e continuo, come un segmento,
fosse costituito da infiniti elementi «non quanti» (senza estensione), Galileo era poco convinto che
fosse possibile escogitare una teoria matematica rigorosa per trattare questi elementi «non quanti»:
pur essendo gli indivisibili parte di una (ambigua) teoria dell’atomo come costituente ultimo, al
contempo, della materia (fisica) e del continuo (matematica), risultava che affrontare sul piano
matematico l’infinito «con i mezzi del finito» avrebbe generato una serie di paradossi che
suggerivano prudenza nell’accettare la possibilità di una matematica degli indivisibili.
Le cautele di Galileo furono abbandonate dal suo allievo Bonaventura Cavalieri.
A differenza del suo maestro, Cavalieri non considerava cruciale la questione della natura degli
indivisibili, ma si preoccupava piuttosto di capire come essi potessero essere sfruttati nella pratica
matematica. Curiosamente, se Galileo riteneva il continuo come fisicamente costituito da indivisibili
«non quanti», ma dubitava della geometria che ne poteva derivare, Cavalieri preferiva non
pronunciarsi sulla prima questione, ma riconosceva agli indivisibili diritto di cittadinanza
all'interno delle discipline matematiche.

11
Anche se solo come artificium, l'utilità degli indivisibili era, secondo Cavalieri, irrinunciabile. Il
metodo di esaustione, per quanto formalmente rigoroso, rimaneva comunque un metodo indiretto
che non permetteva di dimostrare teoremi riguardanti intere classi di figure geometriche ma
costringeva a lavorare ogni volta sul caso singolo, rendendo il suo utilizzo complicato, laborioso e
poco efficace. Con gli indivisibili, al contrario, poteva produrre risultati di carattere universale.
Il punto di partenza di Cavalieri è analogo a quello di Kepler: le superfici e i volumi possono
essere considerati come costituiti rispettivamente da lunghezze e superfici parallele. Tuttavia, a
differenza di Kepler, Cavalieri traduceva questa idea in una relazione di proporzionalità tra le figure e
gli indivisibili (linee e superfici) che le costituivano.
Per visualizzare il principio di Cavalieri, immaginiamo di avere dei fogli di carta disposti uno
sull'altro in maniera disordinata (alcuni fogli sporgono a sinistra, altri a destra, e così via) e di voler
calcolare il volume del blocco risultante. La soluzione più immediata è quella di ordinare i fogli in
modo tale da ottenere un parallelepipedo rettangolo (una risma) e calcolarne il volume: poiché il
numero di fogli di cui è composto il parallelepipedo è uguale a quello del blocco iniziale, è chiaro
che i volumi dei due solidi saranno uguali. Il problema del calcolo del volume del blocco irregolare
può essere perciò ricondotto a quello del calcolo del volume di un parallelepipedo rettangolo. Se
immaginiamo i nostri fogli di carta come aventi uno spessore infinitamente piccolo, ma non nullo
(infinitamente sottili), avremo gli indivisibili cli Cavalieri e la regola base del loro utilizzo: l'area o il
volume di una qualsiasi figura geometrica possono essere calcolati comparando gli indivisibili
della figura in oggetto e gli indivisibili di un'altra
figura con area o volume noti o calcolabili.
CM : GM = DN : HN = a : b

È possibile così calcolare l’area dell’ellisse. Sia data


un’ellisse (con a semiasse maggiore e b semiasse
minore). Inscriviamo l’ellisse in una circonferenza
di raggio a e tiriamo gli indivisibili del cerchio (i
segmenti che ne costituiscono la sua area) in
modo perpendicolare al semiasse maggiore
dell’ellisse a (uguale al raggio della circonferenza).
L’ellisse intercetta lungo gli indivisibili del cerchio
dei segmenti (indivisibili dell’ellisse) il cui rapporto con quelli del cerchio è lo stesso di quello tra il
semiasse maggiore (a) e il semiasse minore (b) dell’ellisse. Pertanto, indicata con E l’area
dell’ellisse, avremo:
πa2 : E = a : b
da cui
π a2 b
E= =π ab
a

Questa procedura poteva essere applicata anche per calcolare l’area di specifici settori
dell’ellisse, consentendo a Cavalieri di risolvere il problema di Kepler dell’estensione della legge
delle aree (seconda legge) alle orbite ellittiche (prima legge).

12
La Geometria degli indivisibili di Cavalieri fu pubblicata nel 1635. A parte l’ambiguità della
nozione di indivisibile12, per un certo periodo, gli indivisibili dominarono la scena matematica e
fornirono a quanti erano impegnati a elaborare tecniche di calcolo infinitesimale un punto di
partenza fondamentale13. In particolare, il dissenso tra Newton e Leibniz sul modo di trattare
l’infinito diede vita a una delle controversie più famose della storia della matematica e della
cultura in generale.
Newton aveva più volte impiegato metodi dimostrativi ricorrendo agli indivisibili. Egli era però
anche al corrente dei più recenti contributi dati all’algebra da François Viete e René Descartes e
soprattutto pensava alle curve in termini fisici, anziché strettamente geometrici. Per lui una curva
non era un oggetto, ma la traiettoria di un oggetto, per cui la sua grandezza non era, in senso
stretto, costituita da indivisibili, ma generata dal loro moto. La linea era determinata dal moto di
un punto; la superficie da quello di una linea; il volume da quello di una superficie. Le variazioni
delle grandezze geometriche dipendono quindi dalle velocità dei movimenti che le generano.
Newton chiamava flussioni tali variazioni di velocità e fluenti le quantità generate. Il metodo
elaborato per trattare matematicamente queste quantità variabili era detto metodo delle flussioni.
Nel Tractatus de quadratura curvarum (1704) così si esprime:

considero le quantità matematiche non come costituite da parti infinitamente piccole


ma come definite da un moto continuo. Le linee sono definite, e dunque generate, non
dall’aggregazione delle parti ma dal continuo movimento dei punti; le superfici dal
movimento delle linee; i solidi, dal movimento delle superfici; gli angoli, dalla rotazione
dei lati; gli intervalli di tempo, da un flusso continuo. Queste generazioni avvengono
realmente in natura e si possono quotidianamente osservare nel moto dei corpi (…).
Pertanto, visto che le quantità il cui movimento avviene in tempi uguali e sono da questo
generate aumentano o diminuiscono in funzione della velocità alla quale si muovono e
sono generate, io ho cercato di determinarle a partire dalle velocità stesse.

In sostanza, la velocità di accrescimento di una quantità era espressa da Newton come la flussione
di una data fluente. Si trattava di un’operazione analoga all’odierna derivazione, mentre
l’espressione della fluente come funzione di una data flussione era un’operazione simile all’odierna
integrazione.
Leibniz giungeva nello stesso periodo14 a risultati analoghi. Più legato alla nozione di
indivisibile, che non abbandonava completamente, ma traduceva in termini di quantità infinitesime,
Leibniz esprimeva, per mezzo di una notazione da lui ideata e tuttora in uso, la stessa operazione
simile alla derivazione e alla integrazione descritta da Newton in termini di flussioni e fluenti, ma lo
faceva ricorrendo a incrementi infinitamente piccoli, ovvero a variazioni infinitesimali della
funzione che associa una certa quantità a un’altra maggiore di 0 e minore di qualsiasi numero
reale. Leibniz chiamava tale variazione differenziale e le quantità associate infinitesimi. Il metodo
per fare operazioni con gli infinitesimi divenne noto come calcolo differenziale.
Gli infinitesimi di Leibniz erano però quantità fittizie, entità linguistiche più che matematiche,
che servivano per riassumere in una sola parola l’espressione una differenza tra due quantità che può
essere resa minore di una qualsiasi quantità data. D’altra parte, Leibniz scriveva:
12
Nel 1640 il matematico Paul Guldin attaccò Cavalieri, sostenendo che una somma di lunghezze non
potesse dare come risultato un’area.
13
Gilles Personne de Roberval, Evangelista Torricelli e Isaac Barrow svilupparono particolari concezioni
degli indivisibili per affrontare e risolvere il problema della determinazione della tangente a una curva.
14
De quadratura arithmetica circuli ellipseos et hyperbolae (1675 – 1676).
13
ho ragioni sufficienti per dubitare che sia possibile effettuare anche solo una singola
operazione di quadratura senza far ricorso a quantità fittizie, ovvero a quantità infinite o
infintamente piccole.

Con le opere di Newton e Leibniz si chiudeva la breve ma intensa stagione degli indivisibili e si
apriva quella del calcolo infinitesimale. Pur nella diversità dei singoli programmi di ricerca,
l'esperienza degli indivisibili ebbe le caratteristiche di un'impresa collettiva. Per circa sessant'anni,
tre generazioni di matematici sparsi per l'Europa, mossi dalla necessità di rispondere a una serie di
domande ereditate dalla tradizione medievale alla luce della nuova fisica inerziale, aveva condiviso
un linguaggio comune e l'obiettivo generale di rendere l'infinito matematicamente trattabile.
Sarebbe fin troppo semplice leggere nell’opera di Leibniz e Newton le anticipazioni della
nozione matematica di limite, ma la realtà è che tale nozione non si trova formulata in nessuno dei
due autori. Il loro orizzonte concettuale, il loro linguaggio e le loro soluzioni sono
indissolubilmente legate al mondo degli indivisibili e degli infinitesimi. Entrambi usarono gli
indivisibili nelle loro dimostrazioni e per entrambi questo metodo era, se non proprio elegante,
quantomeno efficace.

14
4 – Il flogisto
Il Settecento fu il secolo dei lumi, il secolo in cui alla ragione fu attribuito il potere di migliorare
la condizione umana scacciando le tenebre dell'ignoranza e al filosofo il compito di farsi strumento
di tale potere con lo studio, la discussione e la divulgazione delle conquiste della ragione.
Per la filosofia naturale, il Settecento sancì la fine dell'aristotelismo (già compromesso dagli
sviluppi della fisica e dell'astronomia nel corso del Cinquecento e del Seicento) e l'ascesa del
newtonianesimo. La filosofia di Newton riassumeva le conquiste dei secoli passati (l'eliocentrismo,
le leggi di Keplero, la fisica inerziale) e le proponeva come parte di una descrizione matematica
complessiva di un universo omogeneo (le stesse leggi valevano in Cielo e in 'l'erra) e costituito da
corpuscoli immersi in uno spazio e un tempo assoluti e soggetti alle leggi del moto. Con Newton,
l'universo qualitativo aristotelico cedeva il passo a uno governato da forze intese come quantità
misurabili legate una all'altra per mezzo di leggi matematiche.
La filosofia naturale di Newton con la sua enfasi sulle dimostrazioni matematiche, sull'evidenza
sperimentale e sul meccanicismo, apparve agli Illuministi come la più compiuta realizzazione della
nuova mentalità liberata dall'oscurità della superstizione.
Appare dunque sorprendente che una delle nozioni più caratteristiche della filosofia naturale del
Settecento non provenga da Newton, ma proprio da uno di coloro ai quali "mancò completamente
il lume"; che non sia stata derivata dall'analisi delle leggi matematiche, ma anzi ne abbia imposte
di nuove; che non ebbe il supporto dell'evidenza sperimentale, ma sia stata sostenuta quasi in
opposizione a essa. Si tratta del flogisto, una meravigliosa idea sbagliata che segnò il Secolo dei Lumi
a tal punto da poter definire quest'ultimo anche come il secolo del flogisto.
Tre generazioni di chimici di diversa provenienza, formazione e area di interessi accettarono il
flogisto. Ciò consente una prima fondamentale osservazione: quella del flogisto non fu una teoria,
bensì molte. Come nel caso degli indivisibili, ogni autore modellò la propria nozione di flogisto,
mettendola al servizio del proprio programma di ricerca. Il presupposto comune a tutte le teorie
era comunque la fede nell’esistenza, all’interno di ogni corpo, di una sostanza fluida che conferiva
al corpo in cui era contenuta la proprietà della combustibilità. Il flogisto può quindi essere pensato,
in analogia all’impetus: come quello realizzava in un corpo la sua attitudine a muoversi, così questo
realizzava quella di bruciare. Tuttavia, a differenza dell’impetus, il flogisto non era inteso come una
forma immateriale, ma come un vero e proprio fluido contenuto all’interno dei corpi, che veniva
consumato durante la combustione.

L’uso del termine flogisto (φλογιστόν = materia infiammabile) per indicare la sostanza che
determina la combustibilità di un corpo si trova per la prima volta nelle opere del medico tedesco
Georg Ernst Stahl (1659 – 1734). Stahl dichiarava di essere stato guidato alla “scoperta” del flogisto
dalle riflessioni del suo maestro, il fisico e alchimista Johann Joachim Becher, esposte nel trattato
Physica subterranea (1669)15.
15
L’opera trattava della generazione dei metalli e fa riferimento alle teorie di Paracelso. Secondo Becher, i
corpi fisici sono costituiti da un miscuglio di Acqua e Terra, reso possibile dall’azione strumentale dell’Aria,
del Fuoco e del Cielo. A differenza di Paracelso, Becher ipotizzò che l’elemento Terra fosse in realtà un
miscuglio di tre elementi: una terra lapidea (caratteristiche terrose), una terra pinguis (caratteristiche ignee) e
una terra fluida (caratteristiche acquatiche). Sebbene queste “tre terre” non si potessero osservare
direttamente in natura, era possibile riconoscerle nelle sostanze che ne contenevano in percentuale massima,
ossia i principi paracelsiani del Sale (terra lapidea), dello Zolfo (terra pinguis) e del Mercurio (terra fluida). Le tre
terre si mescolavano in varie proporzioni nella miscela di cui sono fatti tutti i corpi e possono essere separate
per combustione: sulla scia dell’alchimia tradizionale, Stahl riteneva che il fuoco, penetrando nei corpi,
15
Basandosi sul principio alchemico di affinità (il simile attrae il simile), Stahl rinominò la terra
pinguis di Becher in flogisto e ne fece l’elemento centrale della sua teoria della combustione: il flogisto
non era solo ciò che veniva separato nel processo di combustione, ma piuttosto come l’elemento
che determinava la combustione stessa della materia.
Il flogisto era ciò che i corpi combustibili avevano in comune, in quanto appunto combustibili.
Solo le sostanze contenenti flogisto potevano essere bruciate e solo in proporzione alla quantità di
flogisto in esse contenuto. La combustione, infatti, non consisteva in altro che nella separazione del
flogisto dal combustibile e nella sua dispersione nell’aria, sotto forma di fiamma o calore.
Secondo Stahl, il flogisto era una sostanza semplice, omogenea, immutabile e indistruttibile,
unica in tutti i corpi infiammabili e trasferibile da un corpo all'altro per mezzo di procedimenti
chimici (il flogisto non poteva essere né creato né distrutto, ma solo trasmesso). Nel processo di
combustione, esso veniva separato dal combusto e disperso nell'aria sotto forma di fuoco o calore;
una volta esauritosi il flogisto contenuto nel corpo, o saturatasi l'aria deputata ad assorbirlo, la
combustione cessava e del corpo rimaneva soltanto la parte non flogistica, la cenere.
L’ambiguità della nozione di flogisto consentiva a Stahl di invocarne l'azione per spiegare tutti
quei processi che, in qualche modo, potevano essere ricondotti alla combustione. Ad esempio, si
poteva dar conto del fenomeno della calcinazione dei metalli16, che per Stahl era un processo
essenzialmente identico alla combustione. Riscaldando i metalli ad alte temperature questi
perdevano il flogisto e si trasformavano in calci; restituendo il flogisto per mezzo della vivificazione
o riduzione, le calci riacquistavano natura metallica.
Inoltre, il flogisto svolgeva un ruolo fondamentale anche nei processi fisiologici della
respirazione e della crescita vegetale, oltre che nella formazione dei fenomeni atmosferici come
lampi e fulmini, nella misura in cui potevano essere ricondotti a forme particolari di combustione.
Ciò portava Stahl a immaginare una vera e propria “ecologia del flogisto”.

La teoria del flogisto di Stahl non era integrabile nella visione newtoniana della natura, non
tanto per i suoi legami con la tradizione alchemica e neppure per il rifiuto delle nuove tendenze
meccaniciste e corpulariste in filosofia naturale. Il dissidio con il newtonianesimo era più profondo
e sostanziale, essendo determinato dall’approccio stesso ai problemi della natura.
Nella teoria di Stahl, il flogisto veniva ipotizzato per dare conto di una serie di dati osservativi
altrimenti incomprensibili: si trattava di una sorta di ipotesi ad hoc pensata per “salvare i fenomeni”.
Ciò era l’opposto di quanto Newton chiedeva alla nuova filosofia naturale: hypotheses non fingo
significava affermare come illecito lo spiegare i fenomeni ricorrendo ad ipotesi ad hoc.
Non sono stato ancora in grado di spiegare, a partire dai fenomeni, le particolari proprietà della
gravitazione, e non faccio ipotesi al riguardo. Tutto ciò che non è dedotto dai fenomeni deve essere chiamato
ipotesi, e per le ipotesi, siano esse metafisiche, fisiche, basate su qualità occulte o meccaniche, non può esservi
alcuno spazio nella filosofia sperimentale. In quest'ultima le proposizioni particolari vengono derivate dai
fenomeni e generalizzate grazie all'induzione (Philosophiae naturalis principia mathematica, 1687)

causasse la loro decomposizione in elementi più semplici, determinando l’espulsione della parte
infiammabile (terra pinguis).
16
La calcinazione è un termine, noto fin dai tempi dell'alchimia, che definisce un processo di riscaldamento
ad alta temperatura, protratto per il tempo necessario ad eliminare tutte le sostanze volatili (flogisto) da una
miscela solida o da un singolo composto. Gli alchimisti consideravano calcinazione anche l'ossidazione di un
metallo. Simbolo alchemico della calcinazione è la salamandra, eletto a tale dignità dagli alchimisti stessi a
causa della sua (presunta e leggendaria) capacità di resistere al fuoco diretto.
16
Con il suo metodo Newton era giunto a formulare la legge di gravitazione universale. A partire
dall’osservazione dell’accelerazione centripeta della Luna e confrontandola con l’accelerazione di
gravità terrestre, aveva stabilito una relazione tra la forza attrattiva esercitata dai due corpi e la
loro distanza. Una volta generalizzato questo risultato e verificato che la relazione sussisteva anche
in altre situazioni, era stato riformulato in termini matematici come
m 1∗m 2
F=G
r2
Si trattava di una proposizione particolare derivata dai fenomeni e generalizzata per induzione. Quello
che Newton non aveva fatto, era fare ipotesi sul perché tutti i corpi sembravano obbedire a questa
legge matematica17.
L’approccio di Stahl era del tutto diverso: l’esistenza del flogisto era proprio una ipotesi, una
proposizione generale derivata da principi generali e poi modellata per derivare i fenomeni per
deduzione. A questo punto, è lecito chiedersi come sia stato possibile che una teoria del tutto
opposta all’idea newtoniana di filosofia sperimentale abbia potuto godere di cittadinanza proprio in
un’epoca così newtoniana come il Settecento.
Occorre considerare che la disciplina che oggi chiamiamo chimica era rimasta estranea a quel
processo di profonda rielaborazione di contenuti, metodi, principi e finalità della filosofia naturale
che tra il XVI e XVII sec. aveva portato alla completa revisione della fisica aristotelica e
dell'astronomia tolemaica. Nonostante alcuni tentativi di avvicinare la chimica alla nuova fisica 18,
tale disciplina risultava ancora legata ai principi sperimentali dell’alchimia e considerata ancella
della medicina. D’altra parte, ai contemporanei di Stahl, fautori della filosofia sperimentale, il
flogisto non poneva particolari problemi, se non altro perché il suo campo di applicazione veniva
considerato ancora indipendente da quello della fisica.
Una volta accettata l’esistenza del flogisto, era possibile indagarne sperimentalmente le
proprietà e il comportamento, allestendo esperienze in grado di smentire o confermare gli effetti
che si riteneva dovessero derivare dalla teoria. Nel Settecento furono studiati i processi di
flogisticazione e deflogisticazione specifici di molte sostanze, tentando di classificare i diversi tipi di
“aria” cui essi davano luogo. Così, Joseph Black riuscì a isolare l'aria fissa (anidride carbonica),
Daniel Rutherford l'aria flogisticata (azoto), Henry Cavendish l'aria infiammabile (idrogeno), Joseph
Priestley l'aria nitrosa (monossido cli carbonio), l'aria nitrosa deflogistizzata (diossido di azoto) e l'aria
deflogisticata (ossigeno). Intorno agli anni '80 del Settecento, Cavendish scoprì inoltre che l'acqua
non è un elemento semplice, ma è composta da due misure di aria infiammabile e una di aria
deflogisticata.
Questi risultati portarono ad abbandonare i presupposti originari della teoria di Stahl: non solo
la Terra, ma neanche l’Aria e l’Acqua erano da considerarsi elementi semplici.
D’altra parte, il flogisto divenne col tempo un’entità le cui proprietà venivano puntualmente
invocate per spiegare qualsiasi effetto o evidenza apparisse dagli esperimenti. Ecco cosa scriveva
Antoine-Laurent Lavoisier, il principale oppositore del flogisto:

I chimici hanno fatto del flogisto un principio vago e indefinito, e perciò utilizzabile in
qualsiasi situazione. A volte è pesante, altre volte no; a volte è libero, altre volte è legato à

17
Su questa base, nei Principia, Newton rifiutava la teoria di Cartesio secondo cui le particelle di etere nel
cielo si muovono creando dei vortici che, combinati, danno luogo al moto degli astri.
18
Robert Boyle aveva proposto nel 1661 una versione corpuscolare della natura della materia che rifiutava
la teoria aristotelica degli elementi.
17
un elemento terrestre; a volte può passare attraverso le porosità dei vasi, altre volte
invece questi sono per lui impenetrabili; il flogisto spiega la causticità e la non causticità
la diafanità e l'opacità, il colore e l'assenza di calore. È davvero un Proteo che cambia
forma ad ogni occasione.

Con circa due secoli di anticipo rispetto a Karl Popper, Lavoisier enunciava qualcosa di simile al
principio di confutabilità per valutare la scientificità di una teoria. Il flogisto era da rifiutare perché, di
fatto, virtualmente inattaccabile e qualsiasi difficoltà poteva essere risolta attribuendo a esso una
proprietà ad hoc: persino il fatto che la calce ottenuta da un metallo pesasse di più del metallo
stesso, era spiegato dai flogististi assumendo che il flogisto potesse avere peso negativo. Secondo
Lavoisier, il flogisto era una nozione che non spiegava nulla proprio perché spiegava tutto.

Nel 7774, Lavoisier effettuò un esperimento per isolare l’ossigeno, mantenendo del mercurio ad
alte temperature per 12 gg. e osservando come al processo di calcinazione si accompagnasse una
riduzione dell'aria. L’aria così ottenuta non era né respirabile né dava sostegno alla combustione
(gli animali morivano in pochi secondi e le candele si spegnevano immediatamente). Inoltre (come
previsto dalle teorie del flogisto), riscaldando la calce di mercurio (riduzione) si riotteneva mercurio e
il gas che si liberava era respirabile e atto a sostenere la combustione.
Secondo i flogististi, nella I parte dell’esperimento (calcinazione) il mercurio cedeva flogisto
all’aria, rendendola irrespirabile; nella II parte (riduzione), la calce veniva flogistizzata, riassumeva
flogisto, dando di nuovo vita al metallo. Tale spiegazione presentava però un problema: non
chiariva perché alla calcinazione si accompagnasse una riduzione dell’aria né perché la calce di
mercurio pesasse più del mercurio iniziale (o meglio, lo faceva, ma occorreva ammettere che il
flogisto avesse peso negativo).
Secondo Lavoisier, durante la calcinazione, il mercurio non rilasciava il flogisto, ma “assorbiva”
l’aria respirabile; viceversa, nella riduzione era l’aria respirabile ad essere “rilasciata” e non il flogisto
ad essere assorbito. In questo modo, Lavoisier rendeva ragione sia della riduzione dell’aria che
dell’aumento di peso, presentandoli come fenomeni collegati. Il flogisto non era richiesto: l’unico
agente implicato nella combustione, nella calcinazione e nella respirazione era l’aria, (precisamente le
componenti, respirabile e non respirabile, chiamate da Lavoisier, rispettivamente, ossigeno o
«generatore di acido» e azoto o «senza vita»). Né si trattava di tipi di aria, distinti in base al loro
grado di flogistizzazione, ma di elementi diversi che, insieme, costituivano la cosiddetta “aria”.
Supporre che l’aria respirabile fosse tale perché priva di flogisto (aria deflogisticata) significava
porre un’ipotesi ad hoc non giustificata dall’analisi sperimentale e, soprattutto, dannosa per
comprendere il fenomeno della combustione.
L'esperimento di Lavoisier (cruciale a uno sguardo retrospettivo) non apparve così decisivo ai
suoi contemporanei. Alcuni lo interpretarono sostenendo che il flogisto avesse peso negativo, altri
ammisero l'esistenza dell’ossigeno accanto al flogisto, altri ancora sostennero che Lavoisier stava
semplicemente dando nomi nuovi ai diversi tipi di aria già isolati dai chimici e che fosse tutt'al più
necessario rivedere la nozione di flogisto, ma non abbandonarla. In generale, per i sostenitori del
flogisto l'esperimento di Lavoisier non provava in modo definitivo l'inesistenza del flogisto: se la
calce ridiventava mercurio, ciò era un segno del fatto che essa riacquistasse il flogisto dall'aria fissa
(anidride carbonica), rendendo quest'ultima aria deflogisticata (ossigeno).
Flogististi e antiflogististi parlavano lingue diverse e, pur effettuando le stesse esperienze,
realizzavano in realtà esperimenti diversi.

18
Alla fine del Settecento, la controversia sul flogisto non riguardava tanto la sua effettiva
esistenza quanto il metodo stesso e lo statuto epistemologico della chimica come disciplina.
Uomini come Lavoisier mettevano in dubbio non solo l'esistenza del flogisto ma tutta una serie di
concezioni, metodi e pratiche a esso legate. La chimica, per Lavoisier, doveva cambiare del tutto
prospettiva epistemologica, metodologica e linguistica, affidandosi a nozioni precise, quantificabili
e rilevabili sperimentalmente per mezzo degli strumenti di misura, non a sintesi filosofiche come
quelle di Stahl o a spiegazioni di comodo come quelle dei flogististi: la chimica, insomma, doveva
farsi newtoniana, abbandonando l'obiettivo comodo, ma fuorviante, di "salvare i fenomeni" con un
deus ex machina come il flogisto.

19
5 – L’etere luminifero
Tra il Cinquecento e il Seicento c’era stato un generale e rinnovato interesse nei confronti
dell’ottica geometrica. Nella prima metà del Seicento, indipendentemente l’uno dall’altro, Cartesio
e il matematico olandese Willebrod Snell van Royen sistematizzarono i principi generali dell’ottica
geometrica, cosi che al tempo di Newton erano comunemente accettati tre principi fondamentali:
- i raggi luminosi, in un mezzo omogeneo, si propagano in linea retta;
- l’angolo di incidenza e l’angolo di riflessione del raggio di luce che colpisce un corpo sono
uguali;
- il rapporto tra il seno dell’angolo di incidenza e quello dell’angolo di rifrazione del raggio di luce
che attraversa un corpo è costante.
Nel 1666, costretto dall’epidemia di peste a ritirarsi in campagna e a rinchiudersi in casa con le
finestre sbarrate, Isaac Newton, praticando dei piccoli fori nelle imposte, aveva effettuato una serie
di esperienze con dei prismi di vetro che lo avevano portato a rifiutare l’ipotesi, allora accettata,
della luce solare come entità semplice e omogenea. Quando un raggio luminoso attraversava il
prisma, veniva scomposto in bande colorate e a ogni colore sembrava corrispondere un angolo di
rifrazione distinto. Da queste osservazioni Newton aveva derivato una serie di conseguenze:
 affermare che la luce era costituita da un insieme di raggi diversamente rifrangibili di
colori diversi implicava che il colore fosse una proprietà originale e intrinseca della luce,
non una qualità secondaria del corpo illuminato o dell’occhio;
 esisteva un gruppo di colori primari, la cui combinazione originava tutti gli altri colori;
 il colore bianco era un composto di tutti i colori e dunque la luce stessa era un aggregato
confuso di raggi di tutti i colori;
 la luce era un’entità corporea, costituita da fasci di particelle colorate che, attraversando il
prisma venivano rifratti in maniera diversa, separandosi così l’uno dall’altro.
Nel trattato Ottica (1704), la luce veniva presentata da Newton come un insieme di particelle
colorate emesse dal corpo luminoso e il cui comportamento obbediva alle leggi generali del moto e
poteva essere descritto matematicamente con il metodo delle flussioni.
Quando la teoria newtoniana della luce fu presentata nel 1672 alla Royal Society, Robert Hooke,
vi oppose la sua teoria della luce: «una vibrazione prodotta da un qualche tipo di movimento
interno al corpo luminoso stesso, trasmessa a un mezzo omogeneo e trasparente e da questo
propagata velocissimamente in tutte le direzioni».
Si trattava di una teoria già delineata da Cartesio, secondo cui la luce prodotta da un corpo
luminoso non era un’entità corporea, ma solo un effetto del moto circolare uniforme delle particelle
interne al corpo e trasmesso al mezzo sotto forma di una specie di pressione capace di raggiungere
in modo istantaneo l’occhio dell’osservatore. Tuttavia, a differenza di Cartesio, Hooke riteneva che
il movimento delle particelle interne che generavano la luce fosse una vibrazione rapidissima, tale
da sfuggire all’osservazione e, soprattutto, capace di determinare un movimento reale del mezzo.
La luce bianca, secondo Hooke, è la luce prodotta da un’onda che si propaga in linea retta e a
velocità uniforme in un mezzo omogeneo. Quando l’onda passa obliquamente attraverso un
mezzo di densità diversa, la variazione di velocità e di direzione dell’onda, determinata di volta in
volta dall’angolo di incidenza e dalla densità del mezzo, genera i colori, che sono effetti secondari
dovuti alla riflessione e alla rifrazione e non, come sosteneva Newton, proprietà della luce stessa.
La teoria ondulatoria fu riformulata dall’astronomo e fisico danese Christiaan Huygens, il quale
concepì la propagazione della luce in analogia alla propagazione del suono. Come il suono, anche
la luce consisteva in un insieme di vibrazioni longitudinali (oscillanti avanti e indietro nella
20
direzione di propagazione) trasmesse dalla sorgente al mezzo e propagantesi in tutte le direzioni
in circoli sempre più grandi. Il mezzo le cui vibrazioni determinavano il propagarsi della luce però
non era, come per le onde sonore, l’aria (nel vuoto il suono non si propaga, a differenza della luce),
bensì una materia dura, elastica, onnipresente, inosservabile e composta di particelle sottilissime,
alla quale Huygens diede il nome di etere.

Nella filosofia aristotelica, etere era uno dei nomi attribuiti alla quinta essenza, la materia perfetta,
solida, trasparente, impenetrabile, imponderabile e immutabile di cui erano fatti i cieli e il cui moto
proprio era circolare e uniforme.
Questa concezione fu messa in crisi da Tycho Brahe alla fine del Cinquecento, che dimostrò
come sia il percorso delle comete che l’orbita dei pianeti Mercurio, Venere e Marte intersecassero le
sfere celesti. Di conseguenza, l’etere non poteva essere una materia solida e impenetrabile, bensì
un fluido nel quale gli astri si muovevano come pesci nell’acqua (sicut pisces in aqua).
Analogamente, fluidità dell’etere fu ripresa da Cartesio per spiegare la trasmissione meccanica del
movimento senza ricorrere all’azione a distanza.
In ogni caso, l’etere non era richiesto dalla teoria corpuscolare della luce e dal momento che
nell’immediato questa prevalse sulle teorie ondulatorie, esso non entrò a far parte del corredo di
nozioni usate nel Settecento per spiegare i fenomeni luminosi. Tuttavia, la teoria corpuscolare, pur
avendo avuto la meglio di quella ondulatoria, non dava conto in modo soddisfacente di alcuni
importanti fenomeni, come la diffrazione e la birifrangenza.
La diffrazione venne descritta per la prima volta dal gesuita Francesco Maria Grimaldi in
un’opera postuma pubblicata nel 1665. Grimaldi aveva notato che un piccolo corpo opaco posto
sulla traiettoria di un fascio di luce non dava luogo a un’ombra dai contorni netti (come ci si
aspetterebbe per il principio di propagazione rettilinea), ma sembrava essere “aggirato” dal fascio
di luce e, su uno sfondo bianco, produceva un sistema di bande chiare e scure. La luce non si
propaga dunque solo per via rettilinea, per rifrazione e per riflessione, ma anche per diffrazione.
Grimaldi era convinto che la luce fosse composta da particelle, ma la diffrazione lo portò ad
ammettere che talvolta «poteva comportarsi come un’onda».
Quanto alla birifrangenza, il danese Rasmus Bartholin osservò, nel 1669, che piccoli oggetti
osservati attraverso un cristallo di spato d’Islanda 19 apparivano sdoppiati: i raggi luminosi,
attraversando il mezzo non venivano semplicemente rifratti, ma divisi in due raggi distinti,
procedenti l’uno in accordo col principio di rifrazione e l’altro lungo una direttrice diversa.
Questi fenomeni era difficilmente spiegabili in una prospettiva corpuscolaristica, mentre
risultavano più trattabili da un punto di vista ondulatorio.
La definitiva consacrazione della teoria ondulatoria si
ebbe nel 1801, quando Thomas Young effettuò una
serie di esperimenti che sembravano confermare la
teoria di Huygens, a scapito di quella di Newton.
Young fece passare un fascio di luce attraverso due
piccole fenditure circolari realizzate in una sottile lamina opaca. Le bande chiare e scure che si
producevano sullo sfondo vennero interpretate come effetto della “sovrapposizione” delle onde
luminose passate attraverso le fenditure, in virtù di un principio già enunciato da Huygens,
secondo cui ciascuna particella di etere messa in movimento dalla sorgente luminosa si
comportava a sua volta come sorgente secondaria. La formazione delle bande sullo sfondo era
19
Si tratta di una varietà particolarmente limpida di calcite, da poco rinvenuta in alcune cave islandesi.
21
dunque il risultato di interferenze delle onde luminose. Venne così riportata in auge la nozione di
etere luminifero, le cui vibrazioni determinavano il propagarsi della luce. L’etere di Young non era
molto diverso da quello di Huygens: una materia fluida «che permea tutti i corpi materiali e
oppone al loro moto poca o nessuna resistenza».
Le teorie di Young furono riprese da Augustin-Jean Fresnel, il quale giunse alla conclusione che
le onde luminose non erano longitudinali, ma vibrazioni trasversali (le particelle di etere non
oscillavano avanti e indietro, ma su e giù). Ciò ebbe conseguenze nella determinazione delle
proprietà dell’etere luminifero. Se le onde erano trasversali, l’etere non poteva essere fluido, ma
doveva necessariamente essere solido: le onde trasversali possono propagarsi solo in un mezzo
rigido, dove le particelle sono legate l’una all’altra; un etere fluido non avrebbe potuto supportarle.
L’etere di Fresnel era una materia solida, elastica, rigidissima, immobile, onnipresente; tuttavia, era
anche estremamente rarefatto, evanescente, facilmente attraversabile dai corpi, indifferenze al loro
moto e incapace di interagire con la materia. In sostanza, si trattava della materializzazione dello
spazio assoluto di Newton.
Questa nozione di etere contribuì in modo determinante all’elaborazione della teoria
dell’elettromagnetismo di James Clerk Maxwell. Riassumendo duecento anni di studi sui fenomeni
elettro-magnetici, Maxwell dimostrò che l’elettricità e il magnetismo erano in realtà aspetti di una
medesima realtà ondulatoria, descrivibile come effetto dell’azione di linee di forza (intese come
distorsioni dell’etere) e che la luce stessa non era altro che un’onda elettro-magnetica. Con Maxwell,
l’etere luminifero diveniva più propriamente un etere cosmico.

Quantunque sia difficile formarsi un’idea coerente della natura dell’etere, non c’è
dubbio che gli spazi interstellari e interplanetari non siano vuoti, ma siano occupati da
una sostanza materiale, un corpo, che sicuramente è il più esteso e probabilmente il più
uniforme di tutti quelli di cui abbiamo notizia. (Encyclopedia Britannica, 1878)

L’esigenza di ammettere l’esistenza dell’etere luminifero non scaturiva solo da questioni


filosofiche e meccaniche quali la ritenuta impossibilità dell’azione a distanza, ma era insita nel
formalismo matematico ad esso collegato e alla nozione di moto assoluto.
In un celebre brano del Dialogo sui massimi sistemi (1632) Galileo aveva enunciato quello che
sarebbe poi stato conosciuto come principio di relatività galileiano.

Rinserratovi con qualche amico nella maggiore stanza che sia sotto coverta di alcun
gran naviglio, e quivi fate d'aver mosche, farfalle e simili animaletti volanti: siavi anco
un gran vaso d'acqua e dentrovi de' pescetti; sospendasi anco in alto qualche secchiello,
che a goccia a goccia vada versando dell'acqua in un altro vaso di angusta bocca che sia
posto a basso; e stando ferma la nave, osservate diligentemente come quelli animaletti
volanti con pari velocità vanno verso tutte le parti della stanza. I pesci si vedranno andar
notando indifferentemente per tutti i versi, le stille cadenti entreranno tutto nel vaso
sottoposto; e voi gettando all'amico alcuna cosa non più gagliardamente la dovrete gettare
verso quella parte che verso questa, quando le lontananze sieno uguali; e saltando voi,
come si dice, a piè giunti, eguali spazi passerete verso tutte le parti. Osservate che avrete
diligentemente tutte queste cose, benché niun dubbio ci sia mentre il vascello sia fermo
non debbano succedere così: fate muovere la nave con quanta si voglia velocità purché di
moto uniforme e non fluttuante di qua e in là voi non riconoscerete una minima

22
mutazione in tutti li nominati effetti; né da alcuno di quelli potrete comprendere se la
nave cammina, o pure sta ferma.

L'osservatore interno alla nave non può capire, dal movimento degli oggetti che sono dentro la
nave, se quest'ultima è immobile o si muove di moto rettilineo uniforme: le leggi che descrivono il
moto di quegli oggetti sono identiche sia che la nave sia ferma sia che si muova. Supponiamo ora
di avere due navi, una ferma e l'altra che si muove di moto rettilineo uniforme: è possibile, per chi
si trova nella nave ferma, descrivere in forma matematica ciò che succede dentro la nave in
movimento come farebbero i passeggeri al suo interno? La risposta è sì, e ciò grazie alle cosiddette
trasformazioni galileiane.
In ognuna delle navi, lo stato di un oggetto nell’istante t è dato dalla sua posizione in un sistema
di coordinate cartesiane tridimensionali. Poniamo con x, y, z le coordinate che definiscono la
posizione di un certo oggetto immobile P nella nave che sta ferma e x1, y1, z1 le coordinate
dell’oggetto P1 nella nave che si muove in avanti lungo l’asse x a una velocità v. Posto che il tempo t
scorra allo stesso modo per entrambe le navi, indichiamo con vt la distanza percorsa dalla nave in
movimento nel tempo t. L’osservatore posto sulla nave che sta ferma potrà descrivere lo stato di P1
(che a lui appare in movimento) per mezzo del seguente sistema:
x1 = x – vt
y1 = y
z1 = z
t1 = t
L’unica differenza tra P e P1 è il fatto che P1 si sta muovendo in avanti insieme alla nave: il valore
di x1 dipende dalla distanza percorsa nel tempo t (x – vt). In sostanza, le trasformazioni galileiane
permettono di passare da un sistema di riferimento inerziale all’altro.
Le leggi matematiche che descrivono una certa situazione fisica si riteneva dovessero valere in
tutti i sistemi di riferimento, ovvero dovevano essere invarianti per trasformazioni galileiane.
La propagazione di un’onda era stata descritta da d’Alembert nel 1750 come un’equazione alle
derivate parziali iperbolica. Ipotizzando un’onda che si propaga il linea retta lungo l’asse x, alla
velocità c (in un mezzo omogeneo, essa è costante), l’equazione che descrive la funzione ammette
due soluzioni per l’incognita ψ che rappresenta la distorsione del mezzo:
ψ = (x ± ct)
Ognuna delle soluzioni ammissibili rappresenta, rispettivamente, un’onda che viaggia lungo
l’asse x e un’altra onda identica alla prima che viaggia alla stessa velocità sull’asse negativo – x.
Ora, considerando un’onda che viaggia in un altro sistema inerziale e applicando la
trasformazione galileiana, otterremo che essa non viaggia più alla stessa velocità: l’onda viaggia
lungo l’asse x alla velocità (c – v) e lungo l’asse – x alla velocità (c + v). L’equazione ha soluzioni
diverse in sistemi di riferimento diversi: non è invariante rispetto alle trasformazioni galileiane.
L’equazione d’onda non obbediva alla relatività galileiana, ma questo non comportava
particolari problemi finché si ammetteva l’esistenza di un sistema di riferimento privilegiato (SRP),
ossia di qualcosa che fosse assolutamente fermo (per tornare all’immagine di Galileo, qualcosa che
fosse assoluto, presente in entrambe le navi e completamente stazionario e insensibile al loro
moto). Ipotizzando l’etere luminifero come SRP, il fatto che in un caso la velocità dell’onda fosse (c –
v) e nell’altro (c + v) era spiegabile come effetto di una sorta di distorsione del mezzo detta vento
d’etere, generato nel momento in cui la nave attraversa questo mezzo immobile.

23
Come l’equazione d’onda, anche le equazioni di Maxwell sono non invarianti per trasformazioni
galileiane, a meno di non postulare un riferimento assolutamente immobile: se non si accettava
l’esistenza dell’etere, l’alternativa era dover ammettere che per l’elettromagnetismo non valessero i
principi della meccanica newtoniana (o che fossero sbagliati). L’etere luminifero divenne la chiave
per cercare di salvare la teoria.
I tentativi di dare conferma sperimentale dell’esistenza dell’etere culminarono nel 1897
nell’esperimento cruciale di Michelson e Morley. I due scienziati statunitensi pensarono di misurare
la velocità relativa di un sistema inerziale in movimento (la Terra viaggia nella sua orbita alla
velocità di 30 km/s) rispetto all’etere immobile (rispetto al Sole), al fine di rivelare il vento d’etere.
(se la Terra è in moto rispetto all’etere, allora l’etere è in moto rispetto alla Terra) L’apparecchio
ideato (interferometro) era dotato di uno specchio semi-riflettente che, dato un fascio di luce,
permetteva di farne passare liberamente una metà e di rifletterne una parte ad angolo retto. L’idea
era che un raggio di luce che viaggiasse nella stessa direzione del moto della Terra, una volta
riflesso, avrebbe dovuto percorrere una distanza minore rispetto a quella di un altro raggio che
invece viaggia in direzione perpendicolare. La differenza di fase sarebbe stata poi rivelata dalle
diverse frange d’interferenza formate dai due raggi20. Dopo diverse prove puntando lo strumento in
direzioni diverse, si ottenne un risultato sorprendente: in qualunque direzione venisse puntato
l’interferometro, le frange d’interferenza era sempre perfettamente identiche.

Come già riscontrato nel caso del flogisto, il significato dell’esperimento dipende da che cosa si
vuole vedere: i sostenitori dell’esistenza dell’etere vedevano la conferma che la Terra era immobile
o che l’etere veniva trascinato dal suo moto (vento d’etere). Rinunciare all’etere non fu immediato.
Il fisico olandese Hendrick Lorentz salvò l’etere ipotizzando che un oggetto, muovendosi in
esso, subisse una contrazione nella direzione del moto per un fattore λ pari a:

v2
λ= 1−
√ c2

20
L'interferometria fa uso del principio di sovrapposizione, per il quale l'onda risultante dalla
combinazione di onde separate (interferenza) ha proprietà legate a quelle dello stato originale delle onde. In
particolare, quando due onde con stessa frequenza si combinano, l'onda risultante dipende dalla differenza
di fase fra le due onde: onde in fase subiranno interferenza costruttiva, mentre le onde fuori fase subiranno
interferenza distruttiva. Tipicamente un singolo raggio di luce in arrivo viene diviso in due raggi identici da
uno specchio semiriflettente. Ognuno di questi raggi percorrerà una strada differente (cammino ottico), prima
che essi siano ricombinati insieme in un rivelatore grazie anche degli specchi riflettenti; la differenza di
cammino ottico crea una differenza di fase tra i due segnali ricombinati.
24
Questo significava che l’etere poteva in qualche modo interagire con i corpi, ponendo diversi
problemi (in queste trasformazioni lo spazio si contrae e anche il tempo non è invariante) 21, ma in
ogni caso era possibile far valere un principio di invarianza, riformulando le trasformazioni
galileiane22.

Reinterpretando l’esperimento di Michelson e Morley, l’opinione di Elbert Einstein fu che la


velocità della luce (circa 300 000 km/s) andava intesa come una costante universale, indipendente dal
sistema di riferimento (in qualunque sistema inerziale, a prescindere dalla sua velocità relativa
rispetto a un altro sistema inerziale). Poco propenso ad accettare l’idea di un moto assoluto (nello
spazio e nel tempo), Einstein ammetteva la contrazione dei corpi in direzione del movimento: non
era più necessario ipotizzare come SRP l’etere luminifero per far valere le trasformazioni di
Lorentz e rendere invarianti le leggi sull’elettromagnetismo di Maxwell. Einstein non dimostrò che
l’etere non esiste, ma formulò una teoria (relatività ristretta, 1905) in cui non era richiesto.
Da un punto di vista logico e formale, la teoria di Lorentz della contrazione dell’etere salvava i
fenomeni in modo adeguato. Tuttavia, Einstein diffidava delle ipotesi ad hoc. Se accettare le
trasformazioni di Lorentz (e dunque l’elettromagnetismo) significava rivedere i presupposti della
meccanica newtoniana (spazio e tempo assoluti), per Einstein ciò era preferibile piuttosto che
postulare l’esistenza di un’entità come l’etere. In sostanza, la soluzione di Einstein, eliminando
l’etere, metteva in discussione la visione del mondo newtoniana23.
La realtà non poteva più essere concepita come un insieme di punti in uno spazio e tempo
assoluti: essi non potevano esistere come assoluti se l’unica cosa comune a tutti gli osservatori è la
velocità della luce. Lo spazio e il tempo erano relativi e dipendevano dall’osservatore e dunque la
realtà doveva essere concepita come un insieme di eventi24 nello spaziotempo.25
21
dilatazione dei tempi: gli intervalli relativi a un evento misurati da un osservatore in moto sembrano
minori a quelli di uno in quiete, dal suo punto di vista e per lo stesso evento (il tempo misurato
dall’osservatore in moto non solo è corretto del fattore λ , ma è anche influenzato dalla posizione x).
22
Le trasformazioni di Lorentz sono un sistema di equazioni che, inserendo la velocità della luce c, danno il
modo corretto in cui cambia il moto, in un sistema di riferimento in moto, rispetto ad uno fisso. Il caso più
semplice di trasformazione è quella in cui il moto di un sistema si sviluppa solo ed esclusivamente lungo un
asse particolare, ad esempio l’asse x.
23
In realtà, la meccanica newtoniana è incluso come caso particolare nella teoria della relatività. Essa resta
valida quanto le velocità considerate sono di grandezza trascurabile rispetto alla velocità della luce.
Diversamente, lo spazio si contrae e il tempo si dilata (se l’osservatore viaggia alla velocità della luce).
24
Un evento indica un fenomeno fisico, localizzato in un punto dello spazio quadrimensionale.
25
Lo spaziotempo combina le classiche nozioni distinte di spazio e di tempo in un’unica entità omogenea. Si
tratta della struttura quadridimensionale dell’universo: le tre dimensioni dello spazio (lunghezza, larghezza
e profondità) e il tempo. Così come nella visione classica dello spazio le sue tre dimensioni componenti sono
equivalenti e omogenee fra loro e relative all'osservatore (ciò che viene considerato avanti o dietro da un
osservatore può essere considerato destra o sinistra da un altro osservatore disposto diversamente), la
visione relativistica assimila anche la dimensione temporale (prima-dopo) alle tre dimensioni spaziali,
25
Era la fine non solo dell’etere, ma dell’intera visione del mondo newtoniana. Eppure, a questo
risultato non si sarebbe potuti pervenire se non si fosse creduto nell’esistenza di un mezzo solido,
elastico, rigidissimo, onnipresente, immobile, intangibile, imponderabile e inosservabile come
l’etere luminifero.

rendendola percepibile in modo diverso da osservatori in condizioni differenti.


26
6 – L’atomo-vortice
La nozione di atomo26 è antichissima, risalente agli antichi Greci. Secondo l’atomismo antico
(Leucippo e Democrito, Epicuro e Lucrezio), la materia era costituita da un insieme di elementi
ultimi (non ulteriormente divisibili) che si muovevano casualmente nel vuoto e la cui aggregazione
dava origine ai corpi. A tale concezione era contrario Aristotele, per il quale il vuoto non può
esistere in natura e la materia è un’entità continua, in linea di principio divisibile all’infinito.
Nel medioevo, l’atomismo fu guardato con sospetto dalla Chiesa per via di alcune implicazioni
nella concezione cattolica del sacramento dell’Eucarestia 27. Per questo motivo, essa rimane a lungo
una corrente minoritaria nell’ambito della filosofia naturale.
L’atomismo riacquistò vigore nel Rinascimento, con la riscoperta delle opere di Lucrezio,
diffondendosi fra il Cinquecento e il Seicento grazie a Giordano Bruno e alla nuova fisica, per la
quale il moto nel vuoto, al contrario di quanto sosteneva Aristotele, non avrebbe dato luogo a un
movimento di velocità infinita.
Per Galileo, gli atomi sarebbero stati, da un lato, delle particelle fisiche elementari costituenti la
materia e, dall’altro, come «infiniti atomi non quanti», gli indivisibili matematici che intervengono
nella composizione del continuo.
Nel Seicento l’atomismo, grazie alla scoperta dell’esistenza del vuoto (Torricelli), acquisì le
caratteristiche di una filosofia fisico-matematica che interpretava la realtà in termini di atomi e di
movimento. Robert Boyle (The Sceptical Chymist, 1661) propose di ridefinire gli elementi come
costituiti da atomi, ossia «corpi primitivi semplici», giungendo su queste basi a stabilire un
rapporto di proporzionalità inversa tra pressione e volume di un gas e ponendo così le basi per una
teoria cinetica dei gas. Con l’avvento della filosofia naturale di Newton, nell’atomismo furono
integrati i concetti di forza, gravità, attrazione e repulsione28.
Tuttavia, nel Settecento. l’atomismo rimase in gran parte una dottrina di carattere speculativo: il
flogisto sembrava offrire un quadro interpretativo per i fenomeni chimici che non richiedeva il
ricorso ad assunzioni di carattere metafisico sulla natura delle particelle minime di cui si
supponeva composta la materia. Nella chimica flogistica, i principi fisici della materia erano
separati dai principi chimici: sapere che la materia era in ultima analisi composta da atomi non
aggiungeva nulla alla comprensione dei processi chimici.
L’affermazione dell’atomismo come teoria della materia avvenne per effetto della nuova
impostazione della chimica di Lavoisier e la sua definizione di elemento come tutto ciò che non è
ulteriormente scomponibile in laboratorio. Si trattava di una definizione operativa, che evitava di fare
supposizioni sulla natura della materia e faceva riferimento a una nozione quale risultato
empirico, del tutto indipendente da qualsiasi ipotesi. In questo modo, Lavoisier fu in grado di
pervenire a delle leggi di carattere newtoniano come la legge di conservazione della massa (in una
reazione chimica, la somma delle masse delle sostanze di partenza è pari alla somma delle masse
delle sostanze che si ottengono dalla reazione).
26
ἄτομος, àtomos (indivisibile): unione di ἄ, alfa privativo + τέμνειν – témnein, tagliare
27
Il mistero della transustanziazione (la trasformazione del pane e del vino nel corpo e nel sangue di
Cristo) era interpretato in senso aristotelico, come la trasformazione delle qualità sostanziali del pane e del
vino che lasciava inalterate le qualità accidentali. In una teoria atomica, ciò era impossibile, perché per gli
atomi non poteva darsi tale distinzione di qualità: essendo tutti gli atomi uguali, l’unico modo perché il pane
e il vino fossero trasformati era una riconfigurazione completa degli atomi costituenti primi, che quindi
avrebbero dovuto assumere non solo la forma, ma anche l’apparenza del corpo e del sangue di Cristo.
28
Ruggero Boscovich interpretò gli atomi come punti geometrici che agiscono come «centri di forza»,
aggiungendo alla gravitazione newtoniana una «forza repulsiva» per spiegare l’interazione tra gli atomi.
27
Fu proprio per adeguare la teoria della materia alla nuova chimica delle leggi ponderali che,
all’inizio dell’Ottocento, l’inglese John Dalton mise mano alla teoria atomistica, in quella che più
che una rielaborazione della teoria secentesca, fu piuttosto una riformulazione ex novo.
Basandosi sulla definizione operativa di elemento, Lavoisier ne aveva identificato e classificato
un certo numero in base al loro comportamento in laboratorio (ad esempio, l’ossigeno «generava
acidi» e l’azoto «non supportava la vita»), ma la questione della loro composizione (se fossero
entità continue i composti di corpuscoli discreti) gli appariva di carattere metafisico, per cui la
risposta risultava inessenziale per la pratica chimica. Dalton, pur accettando la nuova chimica di
Lavoisier non si spiegava come mai gli elementi sembrava si combinassero sempre in rapporti fissi,
finché non osservò che una teoria chimica poteva spiegare questo comportamento in modo
efficace.
Se si pensa a ogni elemento come costituito da atomi identici che intervengono nella formazione
dei composti chimici secondo proporzioni numeriche semplici, secondo Dalton si poteva spiegare
non solo la legge di conservazione della massa, ma anche le leggi ponderali, secondo cui, in un
composto chimico, gli elementi si combinano sempre in rapporti di massa definiti e costanti (ad
esempio, l’acqua è costituita dalla combinazione di ossigeno e idrogeno in proporzione 1:2 perché
nella sua composizione intervengono due atomi di idrogeno e uno di ossigeno). Interpretando la
massa dell’elemento come il peso dei suoi atomi, Dalton poteva ricondurre a un principio fisico
misurabile ciò che per secoli era stato spiegato in termini di affinità o simpatia tra le sostanze. Era un
passaggio cruciale: determinare il peso atomico e le varie proporzioni in cui atomi di elementi
diversi possono combinarsi sarebbe diventata una delle principali preoccupazioni dei chimici.

Come è fatto un atomo? Essendo entità inosservabili (all’epoca), gli atomi venivano descritti
sulla base della teoria degli effetti rivelati dalla pratica sperimentale. Nella teoria di Dalton, tutto
ciò che si richiedeva agli atomi era che avessero massa e peso29. Gli atomi di diversi elementi hanno
pesi e masse diversi che si determinano per via sperimentale e possono essere rappresentati come
corpuscoli pieni, indivisibili, incompressibili, impenetrabili e indistruttibili. Tuttavia, questa
concezione sollevava due problemi:
- se gli atomi erano dotati di massa , allora la loro interazione doveva essere governata dalla
gravitazione universale newtoniana, mentre invece i legami tra gli atomi sembravano avere
natura selettiva;
- pur ammettendo una qualche interazione di natura selettiva, non si poteva spiegare come
dal semplice contatto tra gli atomi potessero nascere composti con proprietà nuove e diverse
rispetto ai componenti.
La teoria atomica di Dalton non spiegava il loro ruolo nei fenomeni connessi all’elettricità.30.
Inoltre, con la scoperta della natura vibrazionale della materia (Kirchoff e Bunsen, 1859) si notava
che utilizzando uno strumento particolare (spettroscopio) era possibile osservare che ogni elemento
chimico generava uno spettro diverso da tutti gli altri, tale per cui si poteva concludere che doveva
esserci una qualche vibrazione interna e propria di ogni elemento, capace di generare diversi spettri.

29
Nella fisica newtoniana, la massa era l’elemento fondamentale della concezione della materia e poteva
essere determinata in funzione del peso. In funzione di ciò Newton teneva un atteggiamento prudente sugli
atomi: senza supporre ipotesi, bastava assumere che, fosse o meno divisibili all’infinito, la materia sarebbe
comunque stata dotata di una massa, per quanto piccola.
30
In particolare, l’invenzione della pila di Volta (1800) implicava l’identificazione del fenomeno
dell’elettrolisi, ossia della scomposizione dell’acqua nei suoi componenti idrogeno e ossigeno.
28
L’accumularsi vertiginoso dei dati osservativi e sperimentali impose alle teorie atomiche nuovi e
più stringenti requisiti alla definizione di atomo come corpuscolo solido dotato di massa e peso.
Nel corso dell’Ottocento vennero presentati diversi modelli atomici, da quello più simile al
modello di Dalton, proposto dal chimico svedese Berzelius, per il quale gli atomi erano corpuscoli
sferici e compatti che interagiscono elettricamente, a quello più ondulatorio di Faraday, secondo
cui gli atomi sarebbero stati (come sosteneva Boscovich) punti senza estensione immersi in nuvole
di forze elettriche e magnetiche.
Nel 1867, William Thompson (Lord Kelvin) propose uno dei modelli di maggior successo, tanto
che verso al fine dell’Ottocento era considerato il candidato più appropriato per acquisire il titolo
di modello atomico definitivo.
L’evidente connessione tra i fenomeni magnetici, elettrici e luminosi richiedeva, secondo
Thompson, la determinazione di un modello meccanico, al fine di costituire l’oggetto di una verifica
degli effetti previsti dalla teoria scientifica. Proprio questa concezione spinse Thompson ad
abbracciare l’idea dell’atomo-vortice.
Nel 1858 il medico e fisico tedesco Hermann von Helmholtz aveva pubblicato i risultati dei suoi
studi sulla meccanica dei fluidi, che estendevano quelli di Leonhard Euler e di Joseph-Louis
Lagrange al caso dei moti rotazionali o vorticosi (quei moti in cui le singole particelle del fluido
ruotano intorno a un asse passante per il loro centro)31.
L’aspetto fondamentale dei tubi di vortice in un fluido omogeneo, incomprimibile e non viscoso è
che sono ancorati sempre agli stessi elementi del fluido e si muovono con esso: si tratta dunque di
tubi materiali, non solo di strutture matematiche. A proposito dei tubi di vortice, Helmholtz
dimostrava alcuni importanti teoremi:
1) devono necessariamente richiudersi in sé stessi, formando dei vortici ad anello;
2) la loro intensità si conserva nel tempo ed essi rimangono sempre uguali;
3) il fluido all’esterno ai tubi non può entrarvi e quello all’interno non può uscire. In sostanza, i
tubi di vortice si comportavano come tubi materiali stabili, permanenti e immutabili.
Esistono in natura dei vortici ad anello? La risposta è sì: Peter Tait (1831-1901), un allievo di
Kelvin, nel 1867, ideò un apparato che produceva, in accordo con la teoria matematica di
Helmholtz, degli anelli di fumo. Ciò convinse il suo maestro di avere davanti agli occhi il principio
di un modello atomico soddisfacente. Immaginando gli atomi come vortici ad anello nell'etere, i
requisiti richiesti a una teoria atomica sono soddisfatti:
(a) i vortici ad anello sono entità chiuse, permanenti e impenetrabili;
(b) sono soggetti a specifiche leggi di rotazione e traslazione;
(c) sono producibili in una enorme varietà di configurazioni;
(d) sono, di fatto, peculiari distorsioni dell'etere, ovvero vibrazioni essi stessi.
Il successo dell’atomo-vortice di Kelvin fu immediato, soprattutto per via dell’accordo con la
nuova teoria elettromagnetica di Maxwell.

31
Helmholtz considerava un fluido omogeneo, incomprimibile non viscoso e in esso un generico punto di
date coordinate cartesiane (x, y, z) il cui campo di velocità v (i, j, k) definiva una grandezza vettoriale detta
vorticità. Ora, detta linea di vortice una linea interna al fluido a una data distanza dal centro la cui direzione
corrisponde sempre all’asse di rotazione del fluido e considerando una curva chiusa C all’interno del fluido,
allora la superficie tubolare determinata dalle linee di vortice passanti per C è detta tubo di vortice.
29
Per non ricorrere all’azione a distanza, Maxwell interpretava i campi e le linee di forza di Faraday
come distorsioni meccaniche dell’etere. Le forze elettriche e magnetiche potevano essere ricondotte ad
azioni meccaniche non a distanza assumendo che ogni punto del mezzo circostante esercitasse
pressioni diverse in direzioni diverse.
La differenza di pressione poteva essere spiegata supponendo che la materia fosse costituita da
vortici molecolari con gli assi di rotazione paralleli alla direzione delle linee di forza. Le forze
centrifughe causate dai vortici peraltro causano una differenza di pressione nel mezzo, dipendente
dalla loro velocità. Così, l’intensità di un campo magnetico generato da un corpo è proporzionale
alla velocità angolare dei vortici, mentre l’induzione magnetica generata è proporzionale alla
densità della sostanza dei vortici.
I vortici molecolari ruotano tutti nello stesso senso, ma se si ammette che essi siano a contatto
diretto uno con l’altro, questo non è evidentemente possibile. Pertanto, Maxwell suppose che tra di
essi vi fosse uno strato di particelle molto piccole (materia dell’elettricità) che, rotolando lungo le
pareti dei vortici, trasmetteva loro il movimento. L’attrito generato dal movimento di queste
particelle avrebbe prodotto fenomeni associabili alle correnti elettriche (calore, magnetismo, forza
elettromotrice), mentre la loro immobilità in determinate sostanza ne avrebbe spiegato le
caratteristiche dielettriche (isolanti)
Il mezzo costituito dai vortici e dalle particelle attraverso cui le onde magnetiche ed elettriche
vengono trasmesse aveva le caratteristiche dell’etere: dapprima venne detto mezzo magneto-elettrico.
Una volta dimostrato che la luce era un’onda elettromagnetica, esso fu identificato con l’etere
stesso.
È importante sottolineare che la validità della teoria elettromagnetica dipende da equazioni che
descrivono il comportamento delle linee di forza in un campo e non dal modello meccanico dello
stesso. Per quanto Maxwell possa essere arrivato alla formulazione dell’elettromagnetismo
lavorando sull’ipotesi di azioni meccaniche esercitate in un “mare di vortici”, non era questo a
garantire la plausibilità della teoria. Il modello meccanico non è che una possibile interpretazione di
quanto rivelato dal formalismo matematico: dire che nel mezzo c’è una qualche materia
dell’elettricità costituita da particelle che, rotolando, trasmettono il moto a dei vortici il cui moto, a
sua volta, genera un campo magnetico locale di intensità proporzionale alla loro velocità angolare
vuol dire “tradurre” (più o meno correttamente) in un modello meccanico un’equazione.

L’atomo-vortice fu abbandonato nello stesso periodo in cui fu abbandonato l’etere luminifero, a cui
era intimamente legato, ma per ragioni diverse. A sancire l’insostenibilità della teoria dell’atomo-
vortice fu la scoperta dell’elettrone, compiuta (ironia della sorte) nel 1897 da Joseph John
Thompson (omonimo dell’ideatore dell’atomo-vortice).
La scoperta riaccese le discussioni intorno ai modelli atomici. Tra il 1903 e il 1913 furono almeno
cinque i modelli proposti e rivelatisi poi insufficienti. Con il modello orbitale di Niels Bohr, l’atono è
rappresentato come un piccolo sistema planetario, nel quale agli elettroni, per qualche motivo, è
concesso di occupare solo certe orbite e non altre.
In un’ottica storica, l’atomo-vortice è un momento fondamentale per comprendere gli sviluppi
successivi della fisica, in quanto proprio con esso comincia a farsi strada l’idea che la materia sia in
qualche modo un’alterazione dello spazio, imponendo perciò una stretta relazione tra geometria e
fisica che sarà tipica tanto della teoria della relatività quanto della meccanica quantistica.

30

Potrebbero piacerti anche