Sei sulla pagina 1di 97

Ilya Prigogine

La nascita del tempo


Le domande fondamentali
sulla scienza dei nostri giorni

Saggi Tascabili

Il testo del saggio "Energia"


di Prigogine-Stengers è stato
tratto dal vol. 5
dell'Enciclopedia Einaudi,
Torino 1978
Copyright 1988
Edizioni Theoria s.r.l.'
Roma-Napoli
Copyright 1994
R.C.S. Libri & Grandi Opere
S.p.A., Milano
Iv edizione "Saggi Tascabili"
febbraio 1996
Bompiani

Introdotte da una lunga intervista che ha il valore di una


piccola
autobiografia scientifica, sono qui raccolte due importanti
conferenze tenute da Prigogine sul tema del tempo. Lo
scienziato
mette in discussione una concezione statica della scienza e
della
fisica classica, mostrando "come in un certo senso il tempo
 preceda
l'universo". "Forse - scrive Prigogine - oggi serve una nuova
nozione
del tempo in grado di trascendere le categorie di divenire e
di
eternità". La portata dei problemi affrontati dallo studioso
sovietico è enorme, e non riguarda soltanto la fisica ma la
biologia,
la chimica, l'ecologia, la cosmologia, e la posizione stessa
dell'uomo nell'universo. La pubblicazione di questo libro,
scritto in
modo semplice, è dunque un'occasione, anche per quei lettori
che non
hanno famigliarità con il ragionamento e con il linguaggio
scientifico, di accostarsi ad alcune questioni fondamentali
della
scienza moderna. In aggiunta ai due testi citati, il volume si
chiude
con un importante saggio sul tema dell'energia, scritto da
Prigogine
in collaborazione con Isabelle Stengers, e che completa e
allarga i
temi affrontati nei capitoli precedenti.

Ilya Prigogine è nato a Mosca nel 1917, e si è poi

1
trasferito in
Belgio dove attualmente risiede. Grazie alla teoria sulla
termodinamica dei sistemi complessi, ha ottenuto nel 1977 il
premio
Nobel. Il suo libro più famoso è la  Nuova alleanza che
ripercorre
le tappe dello sviluppo della scienza moderna. Tra le molte
altre
pubblicazioni sono da ricordare  Le strutture dissipative
(1982) e
 Dall'essere al divenire (1986).

Nota ai testi
Presentiamo al lettore italiano il testo di due brevi
conferenze
sul medesimo tema, il tempo, tenute da Ilya Prigogine a pochi
anni di
distanza l'una dall'altra. Entrambe occasionate da un invito
della
Montedison, esse hanno dello scritto d'occasione solo la
freschezza e
il tono divulgativo obbligati dalla «limitatezza del mezzo»:
un
intervento orale per una platea di non specialisti. Con il
merito,
quindi, di tracciare in poche pagine e senza l'ausilio di
complessi
apparati matematici, con grande chiarezza, le avvincenti tesi
del
loro autore. Ciò ci ha convinti della utilità di riproporle
qui
insieme. La breve nota biografica e il testo della
conversazione che
le precedono introdurranno il lettore italiano alla complessa
problematica di Prigogine. In aggiunta il saggio, scritto con
Isabelle Stengers, sull'energia, già pubblicato
nell'Enciclopedia
Einaudi e qui riproposto ad integrazione degli interventi sul
tempo.

Nota biografica
Ilya Prigogine nasce il 25 gennaio 1917 a Mosca. A causa del
cambiamento di regime la famiglia lascia la Russia nel 1921 e
dopo
qualche anno di spostamenti in Europa e un breve soggiorno in
Germania, nel 1929 si stabilisce definitivamente in Belgio, a
Bruxelles, dove il giovane Prigogine compie i propri studi
medi e
superiori. Il Belgio diventerà da allora la sua patria
d'adozione e
nel 1949 gli verrà concessa la nazionalità belga.
A Bruxelles studia chimica e fisica all'Université Libre,
dove nel
1941 si laurea. In questi anni Prigogine subisce la decisiva
influenza intellettuale di due suoi professori, Theophile de
Donder,

2
dottore in scienze fisiche e titolare di un corso di
termodinamica
teorica, e Jean Timmermans, sperimentatore interessato alle
applicazioni della termodinamica classica alle soluzioni
liquide e,
piú in generale, ai sistemi complessi. I due studiosi
orientano
l'interesse del giovane Prigogine verso la termodinamica dei
sistemi
complessi.
Dopo il conseguimento della laurea inizia la sua attività di
ricercatore presso l'Université Libre ma è presto costretto a
interromperla per la chiusura dell'università in seguito
all'occupazione tedesca.
Nel frattempo i suoi interessi scientifici si focalizzano
sullo
studio dei fenomeni irreversibili. E' in questo periodo che
Prigogine
comincia a considerare il ruolo essenziale dei fenomeni
irreversibili
negli esseri viventi. Tali ricerche confluiscono nella sua
tesi,
presentata nel 1945 all'Université Libre con il titolo di
 étude
Thermodynamique des Phénomènes irreversibles . Con quest'opera
si può
dire inizi il lungo processo di elaborazione che porterà
Prigogine a
formulare nel 1967, piú di vent'anni dopo, il concetto di
struttura
dissipativa.
L'importanza dell'opera di Prigogine viene intanto
riconosciuta in
una sfera sempre piú larga e nel 1959 viene nominato direttore
degli
Instituts Internationaux de Physique et de Chimie Solvay.
Nel 1967 Prigogine introduce esplicitamente il concetto di
struttura dissipativa in una comunicazione intitolata
 Structure,
Dissipation and Life . A questo punto si è ormai reso conto
che a
fianco delle strutture classiche di equilibrio appaiono anche,
a
sufficiente distanza dall'equilibrio, delle strutture
dissipative
coerenti. Questo tema viene trattato a fondo in un libro
scritto da
Prigogine nel 1971 insieme a Paul Glansdorff, con il titolo di
 Structure, Stabilité et Fluctuations.
La reputazione scientifica di Prigogine sia come teorico che
come
sperimentatore si diffonde intanto anche al di fuori
dell'Europa. Non
giunge perciò inattesa la sua nomina a direttore del Center
for
Statistical Mechanics and Thermodynamics della University of

3
Texas
(Aus-tin).
Il riconoscimento piú significativo del valore della sua
attività
nell'ambito dello studio dei processi irreversibili e della
termodinamica dei sistemi complessi viene a Prigogine, già
vincitore
del premio Solvay nel 1965, dall'assegnazione del premio Nobel
per la
chimica nel 1977. Dello stesso anno è la pubblicazione di
un'opera
fondamentale per la comprensione del suo pensiero,  Self-
Organization
in Non-Equilibrium Systems ( Le Strutture dissipative ,
Sansoni,
Firenze 1982), scritta in collaborazione con G' Nicolis.
La varietà e la vivacità degli interessi intellettuali di
Prigogine
sono testimoniate anche dall'audace tentativo di portare le
proprie
idee, e soprattutto l'intuizione del ruolo fondamentale
dell'irreversibilità per i processi di autorganizzazione
spontanea,
in campi diversi da quello chimico-fisico. Secondo Prigogine
in
condizioni di lontananza dall'equilibrio la materia è in grado
di
percepire differenze nel mondo esterno e di reagire con grandi
effetti a piccole fluttuazioni. Pur senza portarla sino in
fondo
Prigogine suggerisce la possibilità di un'analogia con i
sistemi
sociali e con la storia. Frutto di queste riflessioni è il
libro
scritto nel 1979 insieme a Isabelle Stengers,  La Nouvelle
Alliance.
Métamorphose de la Science ( La nuova alleanza. Metamorfosi
della
scienza , Einaudi, Torino 1981). Questo libro, sicuramente il
piú
noto al pubblico dei non specialisti, mantiene sin dal titolo
un
ideale legame con un testo che a sua volta aveva suscitato
ampio
dibattito,  Il caso e la necessità. Saggio sulla filosofia
naturale
della biologia contemporanea , scritto nel 1970 da Jacques
Monod,
biologo molecolare francese, premio Nobel nel 1965. Secondo
Monod,
l'avvento della scienza moderna ha separato il regno della
verità
oggettiva da quello dei valori producendo l'angoscia che
caratterizza
la nostra cultura. L'unica strada che ancora possiamo
percorrere è

4
quella dell'accettazione di un'austera «etica della
conoscenza»;
scrive a tale proposito Monod: «L'antica alleanza è infranta;
l'uomo
finalmente sa di essere solo nell'immensità indifferente
dell'universo da cui è emerso per caso. Il suo dovere come il
suo
destino, non è scritto in nessun luogo. A lui la scelta tra il
Regno
e le tenebre».
Prigogine, che afferma di essere stato grandemente
influenzato dal
libro di Monod, nella  Nuova alleanza ammette che il
biochimico
francese ha tratto con rigore e coerenza le conseguenze
filosofiche
della scienza classica, tesa a determinare le leggi universali
di una
natura vista come un meccanismo semplice e reversibile (il
modello
meccanicistico del «mondo-orologio»). Tuttavia l'odierna
prospettiva
scientifica, sostiene Prigogine, ci offre un'immagine molto
diversa:
i processi irreversibili rimettono in gioco le nozioni di
struttura,
funzione, storia. In questa nuova prospettiva
l'irreversibilità è
fonte di ordine e creatrice d'organizzazione. Per questo il
mondo
dell'uomo non va visto come un'eccezione marginale
dell'universo: nel
segno del recupero dell'importanza del tempo e dei processi
irreversibili si può ricostituire una «nuova alleanza» tra
uomo e
natura.
In definitiva se «è morta e sepolta l'antica alleanza,
l'alleanza
animista..., il mondo finalizzato», è anche vero per Prigogine
che il
«nostro mondo non è nemmeno il mondo della "moderna alleanza".
Non è
il mondo silenzioso e monotono, abbandonato dagli antichi
incantesimi, il mondo-orologio sul quale ci è stata assegnata
la
giurisdizione». La conclusione di Prigogine è sí un
riconoscimento
dell'importanza dei problemi sollevati da Monod, ma anche, nel
contempo, un invito al superamento della posizione del biologo
francese: «Jacques Monod aveva ragione: è ormai tempo che ci
assumiamo i rischi dell'avventura umana... E' ormai tempo per
nuove
alleanze, alleanze da sempre annodate, per tanto tempo
misconosciute,
tra la storia degli uomini, della loro società, dei loro
saperi e

5
l'avventura esploratrice della natura». In questa prospettiva
di
riconciliazione delle due culture, il sapere scientifico
diventa
«ascolto poetico della natura e contemporaneamente processo
naturale
nella natura, processo aperto di produzione e d'invenzione, in
un
mondo aperto, produttivo e inventivo».
 La nuova alleanza , ripercorre le tappe principali di
sviluppo
della scienza moderna. Secondo Prigogine benché al tempo di
Newton la
scienza operi una separazione tra mondo dell'uomo e natura
fisica,
condivide con la religione l'interesse a trovare leggi fisiche
universali testimonianti la saggezza divina. Quindi la scienza
moderna nasce sí dalla rottura dell'antica alleanza animistica
con la
natura, ma instaura un'altra alleanza con il Dio cristiano,
razionale
legislatore dell'universo.
Ben presto la scienza è tuttavia in grado di fare a meno del
soccorso teologico e Prigogine indica nell'immagine del dèmone
onnisciente di Laplace il simbolo della nuova scienza: Dio,
per usare
un'espressione dello stesso Laplace, non è piú un'ipotesi
necessaria.
A parere di Prigogine anche la revisione critica di Kant è
solo un
capovolgimento apparente, poiché se è vero che nella filosofia
kantiana il soggetto impone la legge alla natura attraverso la
scienza, è altresí vero che con Kant viene sancita la
distinzione tra
scienza e verità e con essa la separazione tra le due culture.
La ricostruzione di Prigogine vede l'Ottocento aprirsi con
un
evento inatteso e decisivo: nel 1811 Jean Joseph Fourier vince
il
premio dell'Académie per la trattazione teorica della
propagazione
del calore nei solidi. Questo evento può essere considerato
l'atto di
nascita della termodinamica, scienza matematicamente rigorosa
ma
decisamente «non classica», estranea al meccanicismo. A parere
di
Prigogine, da quel momento in fisica s'instaurano due
«universali»:
la gravitazione e il calore.
L'impatto tecnologico della termodinamica è enorme. Bisogna
però
attendere fino al 1865 perché Clausius, col concetto di
entropia, ne
tragga le conseguenze sul piano cosmologico: gli esiti finali
che la

6
nuova scienza del calore fa intravedere sono la dissipazione
dell'energia, l'irreversibilità e l'evoluzione verso il
disordine.
Nel Xix secolo viene però considerato solo lo stadio ultimo
dei
processi termodinamici. In questa termodinamica
«dell'equilibrio» i
processi irreversibili vengono accantonati come oggetti non
degni di
studio.
L'ultima parte della  Nuova alleanza mostra come sia
possibile
gettare un ponte tra la concezione statica della natura e
quella
dinamica, tra universo gravitazionale e universo
termodinamico. Ciò
implica una drastica revisione del concetto di tempo che nella
scienza attuale non è piú solo un parametro del moto, ma
«misura
evoluzioni interne a un mondo in non-equilibrio».
Prigogine ci dice che oggi l'universo accessibile alle
nostre
ricerche è esploso e che il tempo ha assunto una nuova
immagine:
«ironia della storia: in un certo senso Einstein è diventato,
contro
la sua volontà, il Darwin della fisica. Darwin ci ha insegnato
che
l'uomo è immerso nell'evoluzione biologica; Einstein ci ha
insegnato
che siamo immersi in un universo in evoluzione». Anche
attraverso la
rimeditazione delle critiche mosse alla scienza da un
pensatore
«scomodo» come Bergson viene superata la divisione tra le due
culture. In tal modo Prigogine scavalca la pessimistica
conclusione
di Monod per tratteggiare l'immagine di un universo in cui
l'organizzazione degli esseri viventi e la storia dell'uomo
non sono
piú accidenti estranei al divenire cosmico.
Suscitata proprio dai piú recenti risultati scientifici, la
riflessione critica di Prigogine si risolve infine in una
nuova
immagine della scienza stessa: «ogni grande era della scienza
ha
avuto un modello della natura. Per la scienza classica fu
l'orologio;
per la scienza del Xix secolo..., fu un meccanismo in via di
esaurimento. Che simbolo potrebbe andar bene per noi? Forse
l'immagine che usava Platone: la natura come un'opera d'arte».
Dopo la pubblicazione della  Nuova alleanza Prigogine non
ha
cessato di approfondire le tematiche scientifiche imperniate
sul
concetto di struttura dissipativa. Attualmente questi sono

7
stati
ampliati ad altri campi, biologia e meteorologia soprattutto,
e
vengono condotti da gruppi di ricerca, guidati da Prigogine,
sia
presso l'Université Libre che presso il Center for Statistical
Mechanics and Thermodynamics diAustin.
Nel 1978 Prigogine ha pubblicato  From Being to Becoming
( Dall'essere al divenire , Einaudi, Torino 1986).

Conversazione
con Ilya Prigogine

Professor Prigogine, lei nasce a Mosca nel 1917, l'anno


della
rivoluzione, ma quando lei ha quattro anni la sua famiglia
lascia la
Russia, si sposta attraverso l'Europa per stabilirsi in Belgio
nel
1929. Riferendosi a quegli anni lei si è descritto una volta
come un
adolescente incuriosito dalla storia, dall'archeologia, dalla
musica,
appassionato di filosofia. Come mai invece al momento di
iscriversi
all'università preferisce studiare chimica e fisica?
Penso si debba tener conto di due diverse forme di
instabilità che
si sono sommate l'una all'altra. Innanzitutto l'instabilità
dell'adolescenza, quando si cerca la propria vocazione: quelli
che
possono sembrare, allora, piccoli mutamenti, alla lunga
portano
notevoli conseguenze. Mio fratello, maggiore di quattro anni,
ha
studiato chimica, e anche mio padre era ingegnere chimico, ma
in
casa, forse perché parlavo molto, si dava per scontato che io
avrei
studiato diritto. Cosí anch'io ne ero convinto ma,
curiosamente, a un
certo punto mi sono molto avvicinato alla psicologia, e la
psicologia
mi ha portato alla biologia, e da qui il passo verso la fisica
e la
chimica, tutto sommato, è stato breve. Cosí ho scoperto dei
campi che
ignoravo totalmente, molto lontani dal greco, dal latino e,
piú in
generale, dagli studi umanistici classici in cui ero impegnato
a
quell'epoca. All'inizio ero piuttosto stupito nel penetrare in
un
universo che non conoscevo affatto e forse in quel momento
sono stato
tentato di approfondire: questa è proprio ciò che definirei

8
l'instabilità dell'adolescenza.
A questa instabilità dell'adolescenza si è aggiunta
l'instabilità
dell'anteguerra. In quel momento tutti sentivamo l'imminenza
della
guerra che, evidentemente, ci poneva di fronte a gravi
interrogativi.
Che professione si può scegliere in tempi cosí difficili e
incerti?
La vita dell'archeologo o del musicista sembravano allora
piú
avventurose di quelle del fisico o del chimico. E' forse tutto
questo
intreccio di considerazioni che mi ha portato a scegliere la
chimica
e la fisica.

Nel 1941 lei consegue il dottorato e inizia la sua attività


di
ricercatore. Che cosa significa occuparsi di ricerca nel pieno
della
seconda guerra mondiale?
Per rispondere devo precisare alcuni fatti. Nel 1940 ho
cercato di
raggiungere il sud della Francia, come quasi tutti i giovani
belgi,
ma i tedeschi avevano già bloccato la strada, e cosí, come
molti dei
miei compagni, sono dovuto ritornare in Belgio.
Devo dire che in quel momento la maggioranza dei miei
insegnanti
all'università pensava che la guerra fosse virtualmente
conclusa, che
la Germania avesse vinto, e che perciò non ci fosse altro da
fare che
adattarsi alla nuova situazione. Per questo, in un primo
momento, ho
proseguito il mio lavoro di ricerca e ho presentato la tesi di
dottorato.
Ma proprio poco dopo la tesi, l'Université Libre di
Bruxelles ha
interrotto la sua attività. Fino a quel punto aveva avuto un
discreto
margine di autonomia, ma poi le pretese del commissario
tedesco erano
divenute tali da costringere l'università a chiudere.
Si è posto cosí un problema nuovo, quello di continuare a
insegnare
agli studenti, e allora mi sono impegnato nell'attività
didattica
clandestina. E' stata la mia prima esperienza pratica, si
andava a
insegnare nelle case private, nelle infermerie degli ospedali,
dove
si poteva.

9
Non posso naturalmente dire che mi sia molto occupato di
ricerca,
dal 1941 fino alla fine dell'occupazione tedesca è stato
soprattutto
un periodo di riflessione sovrastato da un grande avvenimento
come la
seconda guerra mondiale. A volte mi domando se l'insistenza
che metto
nel mio lavoro sul tempo non derivi in qualche modo dalla mia
vita di
emigrato, prima, e poi da questa esperienza che mi ha visto
testimone
di avvenimenti cosí importanti. Chi vive nella seconda metà
del Xx
secolo non può rendersi conto di come era il mondo negli anni
'40,
quando Mussolini, Hitler e Stalin si dividevano gran parte del
potere
mondiale.
Credo che l'essere passato attraverso quegli anni mi abbia
dato una
forte coscienza della realtà del tempo. Come ricorda spesso
Popper,
il tempo non può essere un'illusione perché sarebbe come
negare
Hiroshima. E in una certa misura quando parlo di questa realtà
del
tempo, forse parlo della mia stessa vita.

Il tempo-reale della biologia e il tempo-illusione della


fisica
sono due concezioni del tempo sulle quali lei ritorna
continuamente
nel suo libro  La nuova alleanza , (1) per esempio quando
parla della
polemica fra Bergson e Einstein. Pensa che queste due
posizioni siano
sempre inconciliabili?
Prima di rispondere, vorrei innanzitutto insistere sul fatto
che il
tempo esterno alla fisica, spinto in un certo senso al di
fuori della
fisica, è in realtà un elemento comune a Bergson e Einstein, e
anche
ad altri, Heidegger per esempio. Si tratta di un problema che
supera
di gran lunga la controversia tra Bergson e Einstein; per
trovarne la
giusta collocazione bisogna risalire alle fonti del pensiero
filosofico occidentale.
Aristotele dice che il tempo è lo studio del movimento, ma -
aggiunge - nella prospettiva del prima e del poi. (2) Ma da
che cosa
è data questa prospettiva del prima e del poi? Aristotele non
dà una

10
risposta: afferma che forse è l'anima che effettua
l'operazione del
contare.
Einstein riprende la stessa domanda: dove è il tempo? Forse
è nella
fisica? E risponde di no. In una conversazione con Carnap dice
testualmente: «Il tempo non è nella fisica».
Se scelgo il punto di vista della fisica, il tempo, in
quanto
irreversibilità, è illusione e dunque non può essere oggetto
di
scienza. Su questo punto, curiosamente, Einstein si incontra
sia con
Bergson che con Heidegger: Bergson sostiene che il tempo non
può
essere oggetto di scienza, perché è troppo complesso per la
scienza.
Allora perché invece io penso che stiamo entrando in un
periodo di
risistemazione concettuale della fisica? Perché oggi vediamo
dei
fenomeni irreversibili nella natura e comprendiamo il ruolo
costruttivo di questi fenomeni irreversibili. Vediamo il
formarsi
delle strutture, vediamo come alcune regioni dello spazio
siano
organizzate dalla irreversibilità.
Questi fenomeni irreversibili ci possono dare ora quella
prospettiva del prima e del poi che cercava Aristotele. Il
nostro
compito attualmente è di incorporare questa irreversibilità
nella
struttura fondamentale della scienza.
Oggi, bene o male, tutti concordano sull'importanza
dell'evoluzione
in cosmologia, nelle particelle elementari, in biologia, nelle
scienze umane; sono tutti d'accordo sull'importanza del tempo.
Non c'è invece accordo su un interrogativo cruciale:
«Bisogna
ripensare le strutture di base della fisica? Non si dovrebbe
mettere
l'irreversibilità alla base della meccanica quantistica, della
meccanica classica, della relatività, visto che non possiamo
piú
considerare il tempo come una approssimazione?». Noi dobbiamo
considerare il tempo come ciò che conduce all'uomo e non
l'uomo come
il creatore del tempo. Questo in fondo è il punto in
questione. E su
questo punto, tuttavia, non c'è l'unanimità dei fisici. E' un
punto
sul quale esistono molte e differenti opinioni.
Uno dei miei migliori amici e colleghi, John A' Wheeler, (3)
un
eminente fisico molto conosciuto, ha sviluppato il concetto di
« observer participancy description » dell'universo. In questa

11
descrizione è l'osservatore, l'uomo, la coscienza, che crea il
tempo
il quale non esisterebbe in un universo senza uomini e senza
coscienza.
Mentre per me, al contrario, l'uomo fa parte di questa
corrente di
irreversibilità che è uno degli elementi essenziali,
costitutivi
dell'universo.
Quindi, anche se la polemica fra Einstein e Bergson è oggi
superata, il dibattito prosegue tuttavia su altri piani.
Ritorna la
domanda: il tempo è essenziale come pensava Bergson, e, in
quanto
tale, mai scientifico? Oppure il tempo è accessorio, come
pensava
Einstein?
Io sono convinto che il tempo sia oggetto di scienza. Deve
poter
essere collocato al suo posto nella struttura della scienza
moderna e
questo posto, secondo me, è fondamentale, è il primo. Bisogna
dunque
pensare all'universo come a un'evoluzione irreversibile; la
reversibilità e la semplicità classiche divengono allora dei
casi
particolari.

Molti hanno visto in queste sue riflessioni la ricerca di


una
concezione rigorosamente «laica» del tempo ...
«Laico» è una parola che può avere parecchi significati. Se
lei
vuol dire che la concezione classica, nella quale il tempo
viene
relegato al di fuori della fisica, è una concezione che
attribuisce
all'uomo dei poteri quasi divini, sono d'accordo, perché credo
effettivamente che la scienza sia fatta dall'uomo, a sua volta
parte
della natura che descrive. L'idea di un'onniscienza e di un
tempo
creato dall'uomo presuppone che l'uomo sia differente dalla
natura
che egli descrive, concezione che io considero non
scientifica. Che
si sia laici o religiosi, la scienza deve collegare l'uomo
all'universo. Il ruolo della scienza è proprio quello di
trovare dei
legami, e il tempo è uno di questi. L'uomo proviene dal tempo;
se
l'uomo invece creasse il tempo, quest'ultimo sarebbe
evidentemente
uno schermo tra l'uomo e la natura.
Dunque, da questo punto di vista, la mia risposta è che, in

12
effetti, questa è una concezione laica e io credo che la
scienza
debba essere laica, quali che siano le estrapolazioni che ci
si possa
permettere al di fuori della scienza.

In questa concezione del tempo, il  Big Bang non si può piú


riprodurre. E' dunque l'idea di un universo in continua
evoluzione?
Io credo effettivamente in una evoluzione continua
dell'universo e
credo che tutte le teorie che pretendono di descrivere quale
sarà lo
stato dell'universo di qui a qualche miliardo di anni sono
premature
o semplicistiche. Perché le grandi linee della storia
dell'universo
sono fatte da una dialettica, se posso esprimermi cosí, tra la
gravitazione e la termodinamica, o, se si vuole, tra Einstein
e
Boltzmann. (4)
A questo livello non disponiamo ancora di una buona teoria
unitaria
della gravitazione e della termodinamica. E' un problema che
mi
interessa molto, e al quale lavoro anche ora. Sono convinto
che c'è
una stretta relazione tra la termodinamica e la gravitazione.
In queste condizioni il futuro dell'universo non è affatto
determinato, o per lo meno non piú determinato di quanto lo
sia la
vita dell'uomo o la vita delle società. Secondo me il
messaggio
lanciato dal secondo principio della termodinamica è che non
possiamo
mai predire il futuro di un sistema complesso. Il futuro è
aperto e
questa apertura si applica tanto ai piccoli sistemi fisici che
al
sistema globale, l'universo nel quale ci troviamo.
Ma quello che vediamo di fronte a noi, cioè l'evoluzione
biologica
e l'evoluzione delle società, è certamente una storia del
tempo, una
storia naturale del tempo. Noi sappiamo infatti che, accanto
al tempo
meccanico, l'irreversibilità porta a dei tempi chimici, a dei
tempi
interni, e la differenza tra una reazione chimica che possiamo
alimentare, e la vita, è che, nel caso della reazione chimica,
quando
smettiamo di alimentarla, questo tempo interno muore.
Al contrario, con la comparsa della vita, è nato un tempo
interno
che prosegue sui miliardi di anni della vita e si trasmette da

13
una
generazione all'altra, da una specie a un'altra specie, e non
solo si
trasmette, ma diviene sempre piú complesso.
Cosí come c'è una storia per i calcolatori che in un dato
tempo
astronomico riescono a produrre sempre piú calcoli, allo
stesso modo
c'è una storia biologica del tempo che corrisponde a una
struttura di
questo tempo sempre piú complessa. Possiamo leggere questa
struttura
nel tempo musicale, per esempio, e confrontare cinque minuti
di
Beethoven con cinque minuti del movimento della Terra.
Il movimento della Terra prosegue uniformemente durante quei
cinque
minuti. Nei cinque minuti di Beethoven, invece, si hanno dei
rallentamenti, delle accelerazioni, dei ritorni all'indietro,
delle
anticipazioni di temi che compariranno successivamente; dunque
un
tempo molto piú indipendente del tempo esterno, che non
potrebbe
nemmeno essere concepito da altri organismi meno evoluti.
Leggere la storia dell'universo come storia di un tempo
autonomo, o
di una autonomia crescente del tempo, è secondo me una delle
tentazioni interessanti della scienza contemporanea.

Parlando di tentazioni, lei fin dall'inizio delle sue


ricerche si è
orientato verso l'indagine dei fenomeni irreversibili, anche
se era
un periodo in cui la maggior parte degli scienziati
considerava
questo ramo della termodinamica assai sterile. Che cosa l'ha
attirata
su questa strada?
Credo che non si possa capire questa scelta senza riandare
alla mia
piccola biografia personale. In fondo, sono arrivato alle
scienze
«esatte», diciamo cosí, partendo dalle scienze umane. Quindi
l'idea
del tempo e, legata a questa, l'idea della complessità è stata
sempre
presente nelle mie riflessioni. In definitiva, mi sono
orientato
verso la scienza della complessità che è, storicamente, la
termodinamica. Sí, storicamente l'idea era che il grande
successo
della scienza consistesse nello scomporre i sistemi in pezzi,
in
atomi, in molecole, in particelle elementari, in biomolecole,

14
in
individui, mentre l'unica scienza che si sforzava di vedere
l'insieme, senza tuttavia giungere a grandi risultati, bisogna
dirlo,
era la termodinamica.
Lei ha ragione, la maggior parte dei fisici, dei grandi
fisici, che
avevo informato del mio progetto di occuparmi di termodinamica
si
erano opposti, sostenendo che era una scelta ridicola. Ma
curiosamente, forse perché sono testardo di carattere, o forse
perché
questo corrispondeva a una domanda profonda che superava gli
stessi
interrogativi scientifici, mi sono impegnato fino in fondo. E'
forse
per questo che ho proseguito nella ricerca termodinamica.

E oggi a che punto siamo?


Penso che siamo giunti a un crocevia. Ci troviamo di fronte
a un
universo meccanico o a un universo termodinamico? Che cosa c'è
prima?
Le leggi reversibili della meccanica, della meccanica
quantistica,
della relatività? O la direzione del tempo, come diceva
Aristotele,
la prospettiva del prima e del poi? I termini della questione
sono
molto mutati nel corso della mia carriera scientifica.

Uno dei concetti nuovi emersi dalla sua ricerca è il


concetto di
«struttura dissipativa», (5) cui lei perviene nel 1967, al
termine di
una fase di lavoro iniziata nel 1947. Quali sono state le idee
guida,
i momenti decisivi di quei vent'anni?
Nel guardare a questa evoluzione può stupire il fatto che ci
siano
voluti piú di venti anni per fare questo passo, ma, d'altra
parte, si
trattava di un campo che era stato poco studiato, che non si
presentava in modo molto interessante, e in queste condizioni
non
c'erano delle direzioni già tracciate, non c'era un punto di
riferimento fisso capace di indicare la strada.
Quando ho cominciato, la termodinamica era una termodinamica
dell'equilibrio. E ho dovuto seguire un percorso a cavallo tra
l'equilibrio e ciò che era ben lontano dall'equilibrio. C'era,
è
vero, una teoria dei punti vicini all'equilibrio che era la
teoria di
Onsager (6) e altri, ma c'era ben poco su ciò che si poteva

15
fare
lontano dall'equilibrio, un campo che, d'altra parte, resta
ancora da
esplorare.
La novità alla quale sono a poco a poco arrivato, e per me è
stata
una vera sorpresa, è che lontano dall'equilibrio la materia
acquista
nuove proprietà, tipiche delle situazioni di non-equilibrio,
situazioni in cui un sistema, lungi dall'essere isolato, è
sottoposto
a forti condizionamenti esterni (flussi di energia o di
sostanze
reattive). E queste proprietà completamente nuove sono
veramente
necessarie per comprendere il mondo intorno a noi.
L'espressione «strutture dissipative» inquadra queste nuove
proprietà: sensibilità e quindi movimenti coerenti di grande
portata;
possibilità di stati multipli e quindi storicità delle
«scelte»
adottate dai sistemi. Sono proprietà, studiate dalla fisica
matematica non lineare in questo «nuovo stato della materia»,
che
caratterizzano i sistemi sottoposti a condizioni di non-
equilibrio.

Mi può fare un esempio?


In condizioni di equilibrio ogni molecola vede solo ciò che
la
circonda da vicino. Ma quando ci troviamo di fronte a
strutture di
non-equilibrio, come le grandi correnti idrodinamiche o gli
orologi
chimici, devono esserci dei segnali che percorrono tutto il
sistema,
deve succedere che gli elementi della materia comincino a
vedere piú
in là, e che la materia divenga «sensibile».
Ora, io non sono un biologo, ma è evidente che rispetto alla
vita
questo ha un grande significato. La vita non è solamente
chimica. La
vita deve aver incorporato tutte le altre proprietà fisiche,
cioè la
gravitazione, i campi elettromagnetici, la luce, il clima. In
qualche
modo c'è voluta una chimica aperta al mondo esterno, e solo la
materia lontana dalle condizioni di equilibrio ha questa
flessibilità. E perché questa flessibilità? Lontano dalle
condizioni
di equilibrio le equazioni non sono lineari, ci sono molte
proprietà
possibili, molti stati possibili, che sono le diverse
strutture

16
dissipative accessibili. Mentre, se ci avviciniamo
all'equilibrio, la
situazione è opposta: tutto diviene lineare e non c'è che una
sola
soluzione.
Mi ci è voluto un po' di tempo per arrivare a questa
concezione,
che in quel momento rappresentava una novità assoluta. Ora,
naturalmente, si sono aggiunte molte altre cose, gli
attrattori, la
sensibilità alle condizioni iniziali, il caso
«deterministico», ma
tutto questo si è venuto ad aggiungere dopo.
Allora se lei mi domanda quali sono gli elementi che mi
hanno
influenzato io citerei innanzitutto il libro di Schrödinger
 What is
life? , (7) un libro molto interessante, spesso profetico, che
cerca
di comprendere la struttura delle biomolecole. Schrödinger
parlava di
cristalli aperiodici, e questa è una visione davvero
profetica, ma
quando arrivava all'ordine biologico, diceva: «ci deve essere
qualcosa nel meccanismo della vita che impedisce alla vita di
degradarsi, ci deve essere un fenomeno irreversibile»; ma non
ha
avuto nulla da dire su questo fenomeno.
A me è venuta l'idea che è la funzione che crea la
struttura.
Prendiamo una città: la città vive solo perché opera degli
scambi di
materie prime o di energia con la campagna che la circonda. E'
la
funzione che crea la struttura. Ma la funzione, il flusso di
materia
e di energia è evidentemente una situazione di non-equilibrio.
Il libro di Schrödinger mi ha fatto intuire nel 1945 che i
fenomeni
irreversibili potevano essere la sorgente dell'organizzazione
biologica e da allora questa idea non mi ha piú abbandonato.
Un altro libro che mi ha influenzato, potrà forse stupire, è
il
libro di Jacques Monod  Il caso e la necessità . (8) Non ero
affatto
d'accordo con Monod, perché poneva la vita al di fuori della
materia,
come un epifenomeno dovuto al caso, ma in qualche modo
estraneo alle
grandi leggi.
Quello che avevo imparato dalla termodinamica mi consentiva
di
avere una concezione del tutto differente. Secondo il mio
punto di
vista, la vita esprime meglio di qualunque altro fenomeno
fisico

17
alcune leggi essenziali della natura. La vita è il regno del
non-lineare, la vita è il regno dell'autonomia del tempo, è il
regno
della molteplicità delle strutture. E questo non lo si vede
facilmente nell'universo non vivente.
Nell'universo non vivente ci sono sí delle strutture, esiste
il
non-lineare, ma i tempi dell'evoluzione sono molto piú lunghi.
Mentre
la vita si caratterizza per questa instabilità che fa sí che
noi
vediamo nascere e sparire delle strutture in tempi geologici.
Ed è
per questo che io vado piú lontano e dico: la vita umana, la
vita
delle società ci permette di osservare questo fenomeno ancora
meglio,
perché in questi casi lo vediamo su una scala di tempo ancora
piú
corta.
In definitiva il libro di Monod, con il quale non ero
affatto
d'accordo, mi ha permesso di prendere meglio coscienza della
questione metafisica che era in gioco, perché, e qui sta la
sua
grandezza, osava sollevare dei problemi in tutta la loro
generalità,
nella loro grandezza, che io definirei metafisica.
Cosí il suo libro mi ha fatto prendere coscienza
dell'importanza
delle questioni in gioco; del fatto che non si trattava di
piccoli
problemi riservati alla tecnica scientifica, ma dei problemi
sui
quali hanno cercato di riflettere tutti coloro che hanno fatto
la
storia intellettuale dell'uomo.

I suoi studi di termodinamica le hanno assegnato un


importante
ruolo nella comunità scientifica: nel 1977 riceve il premio
Nobel. Ma
alla fine degli anni '70, lei scrive  La nuova alleanza .
Quale
itinerario l'ha condotta a scegliere nuovi interlocutori?
La verità è che io stesso mi sento un essere ibrido,
interessato
alle due culture: le scienze umanistiche e le lettere da un
lato, e
le scienze cosiddette esatte dall'altro. In effetti ho
avvertito
questo conflitto tra le due culture in modo molto intenso nel
corso
dei miei studi e anche nelle letture che facevo. Si è detto
che la

18
divisione tra le due culture era dovuta al fatto che i non
scienziati
non leggevano Einstein e che quelli che si occupavano di
scienza
erano privi di cultura letteraria. Penso che questo sia un
modo di
vedere molto superficiale. Innanzitutto ci sono sempre state
delle
opere radicate saldamente nelle due culture, prendiamo il caso
di
Zola in Francia, molto influenzato dalla rivoluzione
industriale, o
le fonti del pensiero di Lévi-Strauss (mi riferisco
soprattutto a
 Tristi tropici ), (9) o Freud; ci sono tutta una serie di
opere
contemporanee che traggono la propria ispirazione dalle due
culture.
E tuttavia c'è una contrapposizione che proviene dal fatto che
l'ideale della scienza è l'ideale di uno schema universale e
atemporale, mentre le scienze umane sono basate su uno schema
storico
legato al concetto di situazioni nuove o di strutture nuove
che si
sovrappongono ad altre. D'altra parte la creazione letteraria
è
interamente basata sul tempo e in gran parte sul tempo
vissuto. In
queste condizioni il dilemma delle due culture è un dilemma
importante.
Vede, io sono stato molto colpito dal fatto che fenomeni
come
l'arte astratta sono nati da un bisogno di rinnovare la
visione
artistica. Per rinnovare questa visione Kandinsky e Mondrian
hanno
cercato l'ispirazione nella teosofia, cioè in una dimensione
antiscientifica. Invece, coloro che hanno preso sul serio la
visione
scientifica, Malevic in pittura o Beckett in letteratura,
hanno al
contrario descritto la solitudine dell'uomo. Dunque non si
tratta di
un falso problema: si è verificato un divorzio tra la
situazione
esistenziale dell'uomo, nella quale il tempo svolge un ruolo
essenziale, e la visione atemporale, vuota della fisica
classica, pur
con le integrazioni e le novità apportate dalla meccanica
quantistica
e dalla relatività.
Cosí quando ho potuto fare dei progressi nella comprensione
del
tempo, all'interno delle scienze, mi sono convinto che avevo
la
possibilità di superare questa dicotomia delle due culture.

19
Non
attaccando la scienza come uno strumento positivista, né
attaccando
l'arte o la letteratura come se fossero degli artifici privi
di una
portata reale; ma piuttosto mettendo in evidenza come si sia
creata
un'unità culturale che proviene dall'interno della scienza,
mettendo
in evidenza una  nouvelle vague cresciuta all'interno della
scienza
e capace di superare questa dicotomia classica.
Questa coscienza mi ha dato l'energia per provare a scrivere
qualcosa che prendesse atto della nuova situazione. Nel suo
insieme
posso dire che questo sforzo è stato ben accolto, e cito per
inciso
il fatto che il mio libro è stato tradotto o sta per essere
tradotto
in sedici lingue. Naturalmente ci sono anche delle polemiche.
Ma
quali che siano queste polemiche, io credo che il mio libro
esprima
una corrente di sintesi molto radicata nel nostro tempo.

Lei è venuto a Milano per ricordare il premio Nobel di


Giulio
Natta. Anche Natta nel lavoro che lo avrebbe portato
all'invenzione
del polipropilene ha riflettuto sui processi che permettono di
arrivare a strutture con alto grado di ordine e sulle
proprietà che
ne derivano. C'è stato qualche contatto concettuale fra le
vostre due
linee di ricerca?
Ho incontrato piú volte Natta personalmente. Non sono uno
specialista dei polimeri, ma c'è un problema fondamentale che
ci
avvicina. Per spiegarmi meglio mi riferirò a un seminario
svoltosi
recentemente a Brux-elles che ruotava attorno a questa
domanda:
«Quali differenze tra la chimica organica e la chimica
biologica?».
La differenza è che nella chimica biologica molecole come
quelle di
Dna sono molecole che hanno una storia, e che, con la loro
struttura,
ci parlano del passato nel quale sono state costituite. Sono
dei
fossili, o, se si preferisce, delle testimonianze del passato,
mentre
una molecola organica creata oggi è una testimonianza del
presente e
non ha avuto una evoluzione storica.

20
Allora io direi che ciò che avvicina il lavoro del mio
gruppo alle
ricerche di Natta, è il fatto di andare in una direzione
simile a
quella che Natta aveva scelto e che gli ha valso tanto
successo:
comprendere come l'irreversibilità dell'ambiente si fissa
nell'ordine
molecolare di un polimero. Noi abbiamo portato a termine
recentemente
degli esperimenti, essenzialmente numerici per il momento, nei
quali
abbiamo mostrato che a partire da reazioni di un certo tipo,
cioè di
non-equilibrio, caotiche, si possono trascrivere, si possono
formare
delle catene con una struttura ordinata e una simmetria
spezzata, un
po' come il Dna che bisogna leggere in un certo modo, come un
testo
da sinistra a destra. E questa nuova rottura della simmetria,
nello
spazio, è una conseguenza della rottura della simmetria
temporale,
della differenza tra passato e futuro. Dunque in una certa
misura si
potrebbe dire che alle preoccupazioni strutturali di Natta io
ho
voluto sovrapporre le mie preoccupazioni o quelle del mio
gruppo che
sono delle preoccupazioni temporali.
Quando guardiamo un cristallo di neve, osservandone la
struttura
possiamo indovinare in quali condizioni atmosferiche si è
formato: se
era un'atmosfera fredda o piú o meno satura e cosí via. Un
giorno,
guardando una molecola della vita, un Dna o un polimero,
potremo
comprendere in quali circostanze geologiche o biologiche
queste
molecole si sono formate.
E cosí ritorniamo a quello che è stato l'oggetto di tutta la
nostra
conversazione, il problema del tempo. Come si imprime il tempo
nella
materia? In definitiva è questa la vita, è il tempo che si
iscrive
nella materia, e ciò vale non solo per la vita, ma anche per
l'opera
d'arte. Prendiamo l'esempio della scultura, delle opere piú
antiche
che noi conosciamo, i graffiti che l'uomo di Neanderthal
scavava
nella pietra, come quelli che ci sono qui in Italia, nelle
Alpi. Che

21
cosa significano questi graffiti?
Non ne sappiamo nulla, e tuttavia mi sembra che l'opera
d'arte sia
l'iscrizione della nostra simmetria spezzata (un'asimmetria
molto
accentuata, perché noi viviamo molto intensamente nel tempo)
nella
materia, nella pietra. (Milano, 27 ottobre 1984
a cura di Ottavia Bassetti)

NOTE:
(1) I' Prigogine - I' Stengers,  La Nouvelle Alliance.
Métamorphose
de la science , Gallimard, Paris 1979; ed' it' a cura di P'D'
Napolitani,  La nuova alleanza , Einaudi, Torino 1981; per la
concezione del tempo in Bergson e nella fisica moderna cfr'
 La nuova
alleanza cit', in part' cfr' pp' 273 sgg'.
(2) «Il tempo è il numero del movimento secondo il prima e
il poi»:
Aristotele,  La fisica , Laterza, Bari 1968.
(3) John Archibald Wheeler, fisico americano, nato nel 1911
a
Jacksonville (Florida); studiò a Copenhagen con N' Bohr, dal
1938 fu
professore a Princeton e collaborò ai progetti Manhattan e
Matterhorn; attualmente lavora presso laUniversity of Texas
(Austin).
Wheeler ha introdotto in fisica nucleare i concetti di matrice
di
 scattering e struttura collettiva risonante e assieme a Bohr
ha
spiegato il meccanismo della fissione nucleare; nel 1953 ha
proposto
il concetto di modello collettivo del nucleo atomico mentre
con F'C'
Werner ha elaborato le caratteristiche del modello a goccia.
Per la
sua concezione del tempo cfr' J'A' Wheeler,  Frontiers of
time ,
North-Holland, Amsterdam 1979.
(4) Ludwig Boltzmann (1844-1906), fisico austriaco; ha dato
contributi fondamentali allo sviluppo della teoria cinetica
dei gas
ed è praticamente il fondatore della termodinamica statistica
(propose l'interpretazione probabilistica del secondo
principio della
termodinamica); sono di grande importanza anche le sue
riflessioni
epistemologiche che lo portarono a sostenere il carattere
ipotetico
della conoscenza scientifica; fu professore di fisica teorica
a
Monaco (1890-1894) e a Lipsia (1900-1902) per poi ricoprire la
prestigiosa cattedra viennese di  Naturphilosophie , già di E'

22
Mach,
dal 1902 al 1906. Per la discussione della posizione di
Boltzmann
cfr' Prigogine - Stengers,  La nuova alleanza cit', pp' 195-
212.
(5) Per il concetto di struttura dissipativa cfr' I'
Prigogine - G'
Nicolis,  Self-organization in non equilibrium systems, from
dissipative structures to order to fluctuations , Wiley, New
York
1977 (tr' it'  Le strutture dissipative, auto-organizzazione
dei
sistemi termodinamici in non equilibrio , Sansoni, Firenze
1982) e
Prigogine - Stengers,  La nuova alleanza cit', pp' 148 sgg'.
(6) Per la teoria di Onsager dei punti vicini
all'equilibrio,
basata sulle relazioni di "reciprocità" scoperte dallo stesso
Lars
Onsager nel 1931, cfr' Prigogine - Stengers,  La nuova
alleanza
cit', pp' 142 sgg'.
(7) Erwin Schrödinger,  What is life? , Cambridge University
Press
1944 (tr' it'  Che cos'è la vita? , Sansoni, Firenze 1947).
(8) Jacques Monod,  Le hasard et la nécessité; essai sur la
philosophie naturelle de la biologie moderne , Editions du
Seuil,
Paris 1970 (tr' it'  Il caso e la necessità; saggio sulla
filosofia
naturale della biologia moderna , Mondadori, Milano 1970).
(9) Claude Lévi-Strauss, Tris-tes Tropiques, Plon, Paris
1955 (tr'
it'  Tristi tropici , Il Saggiatore, Milano 1960).

La nascita del tempo

Il testo che segue è una trascrizione della conferenza


presentata
da Ilya Prigogine a Roma il 12 febbraio 1987, nell'ambito
del
 Progetto cultura Montedison. Ringraziamo S' Pahant, che
lo ha
riletto per l'edizione. La traduzione è di Bruno Pedretti.

L'argomento della mia relazione concerne una domanda


classica: il
tempo ha un «inizio»? Sappiamo che Aristotele, al termine di
un'analisi dell'istante, concludeva con la tesi che il tempo è
«eterno», e che non si può in realtà parlare di un suo
«inizio».
Altre concezioni, ad esempio quelle della tradizione biblica,
hanno
condotto certi filosofi all'idea che il tempo è stato creato
«ad un
certo momento», come le altre creature; tale fu ad esempio

23
l'opinione
di Mosé Maimonide. Per parte loro, pensatori come Giordano
Bruno o
Einstein credevano a un tempo eterno. Ciò che vorrei ora
mostrarvi è
che oggi tale  quaestio disputata può essere ripresa in una
nuova
prospettiva.
Non è certo mia intenzione proporre soluzioni definitive per
un
problema che ritornerà in molte altre generazioni. Ciò che è
chiaro,
è che nel contesto della scienza classica tale domanda non
poteva
avere senso. L'universo vi appariva come un automa che non
possiede,
in realtà, una storia: «una volta messo in strada», esso
«prosegue»
all'infinito la sua corsa. Sappiamo anche che a partire dal
Xix
secolo l'idea di evoluzione è entrata di forza nella scienza,
grazie
soprattutto alla biologia darwiniana. La domanda era ormai
posta in
tutta chiarezza: basti richiamare l'esempio di Charles S'
Peirce, che
a giusto titolo chiedeva come un regno vivente evolutivo
potesse
essere concepibile nel mondo statico e determinista che la
scienza
ufficiale descriveva.
Quali sono le esigenze che la fisica deve soddisfare di
fronte ad
un universo evolutivo? Vedremo che oggi possiamo enumerarne
tre:
l' irreversibilità , la comparsa di  probabilità e la
 coerenza ,
che costituiscono le condizioni d'esistenza delle nuove
strutture che
ha incontrato la fisica dei processi lontani dall'equilibrio.
Affronteremo queste esigenze considerando innanzitutto la
scala dei
fenomeni che ci circondano, la scala detta macroscopica,
quella che
descrive la fisica della materia condensata. Qui non ne
fornirò che
un breve riassunto, avendo avuto già occasione di parlarne
sotto gli
auspici della Montedison, che ne ha poi pubblicato un
bell'opuscolo,
 Il ruolo creativo del tempo . (*)
In seguito vedremo quale prezzo la fisica fondamentale deve
essere
disposta a pagare nel caso si possa ritenere che il tempo
giochi tale
ruolo. Quali sono le implicazioni alla scala dei meccanismi

24
microscopici, dal punto di vista della dinamica? Se il mondo
fosse
sottomesso irrimediabilmente a un insieme di leggi  alla
Keplero,
non vi troveremmo che delle evoluzioni del tipo di quelle
mostrateci
dalle traiettorie planetarie, e non vi sarebbe direzione
privilegiata
del tempo. Ma il mondo, cominciamo a sospettare,  non è un
insieme
di pendoli, non è fatto di movimenti periodici semplici. Qual
è
allora il tipo di sistema dinamico che può condurre
all'irreversibilità? Questo è il punto che discuteremo,
soprattutto
nel contesto della meccanica classica.
Nella terza parte, che presenterà alcuni risultati recenti,
affronteremo la scala cosmologica. Occorre sottolineare che
l'irreversibilità è una proprietà comune a tutto l'universo:
tutti
invecchiamo nella stessa direzione. Si può anche concepire che
il tal
mio amico ringiovanisca mentre io invecchio, o che io
ringiovanisca
mentre lui invecchia. Ma ciò non si riscontra: sembra che
esista una
freccia del tempo comune a tutto l'universo, ed è per ciò che
non
potremo evitare di parlare di cosmologia.
Ci si porrà infine la domanda: come è apparso il tempo
nell'universo? Al momento del  Big Bang ? Vorrei provare a
mostrare
come in un certo senso il tempo  preceda l'universo; ossia
che
l'universo è il risultato di un'instabilità succeduta a una
situazione che l'ha preceduto; l'universo risulterebbe insomma
da un
cambiamento di fase su grande scala.

NOTE:
(*) Imago, Milano 1985, qui alle pp' 67-81.

1. L'irreversibilità
a livello macroscopico
Vorrei dire anzitutto alcune parole sui fenomeni
macroscopici.
Tutti ricordiamo il secondo principio della termodinamica.
Dato un
sistema, ossia una porzione arbitraria di spazio, il secondo
principio dice che esiste una funzione, l'entropia, che
possiamo
scomporre in due parti: un flusso entropico proveniente dal
mondo
esterno, e una produzione di entropia propria al sistema
considerato.

25
E' questa produzione di entropia interna che è sempre
positiva o
nulla, e che corrisponde ai fenomeni irreversibili. Tutte le
reazioni
chimiche sono irreversibili; tutti i fenomeni biologici sono
irreversibili.
Ma che cos'è l'irreversibilità? Per molti uomini di scienza
(e per
la maggior parte dei divulgatori) l'irreversibilità
corrisponde alla
dissipazione, al disordine: ogni struttura sarebbe conquistata
da una
forte lotta contro il secondo principio; cosí per la vita come
per
l'universo.
Vorrei subito insistere - e vi ritornerò nel contesto
cosmologico -
sul fatto che la produzione di entropia contiene sempre due
elementi
«dialettici»: un elemento creatore di disordine, ma anche un
elemento
di creazione d'ordine. E i due sono sempre legati.
Ciò lo si può vedere in un semplice esempio. In due scatole
comunicanti mettiamo una miscela di due costituenti, idrogeno
e
azoto; se la temperatura interna del sistema è omogenea, lo
stesso
sarà per la distribuzione dell'idrogeno e per quella
dell'azoto. Ma
se assoggettiamo i confini del sistema a temperature
differenti,
creiamo una distribuzione contrastata: ne sarà avvantaggiato
l'idrogeno qui e l'azoto là.
Dunque, sottomettendo il sistema a una costrizione termica,
si crea
evidentemente una dissipazione, un aumento d'entropia, ma
anche un
fenomeno d'ordine. E' il fenomeno detto dell'antidiffusione
(cfr'
fig' 1):
djs÷dt=
=Thermal flow÷Antidiffusion>=0

>=0

<=0
Qui ordine e disordine appaiono allo stesso tempo. Questo
fenomeno
richiede un cambiamento di paradigma, perché classicamente si
associava l'ordine all'equilibrio (caso dei cristalli) e il
disordine
al non-equilibrio (caso della turbolenza). Noi oggi sappiamo

26
che è
inesatto: la turbolenza è un fenomeno altamente strutturato,
nel
quale milioni e milioni di particelle si inseguono in un
movimento
estremamente coerente. Ciò vale anche per molti altri
fenomeni, come
per esempio gli orologi chimici, che sono reazioni oscillanti:
possiamo vederne la soluzione diventare rossa e poi blu,
rossa, blu e
cosí di seguito ...
Questo è un fenomeno ordinato, che traduce l'instaurazione
di una
coerenza tra le molecole. Oggi le esperienze di laboratorio
(come le
esperienze numeriche sui calcolatori) mostrano che quando si
affronta
il dominio del non-equilibrio, si stabiliscono nuove
interazioni di
lunga portata: l'universo del non-equilibrio è un universo
coerente.
E ciò rappresenta un fatto nuovo, che contraddice tutto quanto
si
pensava ancora pochi anni or sono.
L'esempio classico è, qui, l'instabilità di Bénard. Se
scaldiamo
uno strato di liquido dal basso, possiamo vedere formarsi dei
vortici, fenomeni coerenti che trasmettono il calore piú
efficacemente rispetto alla sola conduzione termica. E' un
esempio di
biforcazione che porta all'apparizione di nuove strutture, le
strutture del non-equilibrio, che si è ormai convenuto di
chiamare
 strutture dissipative . Il non-equilibrio costituisce il
dominio per
eccellenza della molteplicità delle soluzioni (cfr' fig'
2):--Biforcazione: Concentrazione di una specie chimica ¶a in
funzione di un parametro ¶l.Per i valori di ¶l inferiori alla
soglia
¶lªc esiste una sola soluzione ¶aªs.Al di là di questa soglia,
tale
soluzione diventa instabile, e appaiono nuove soluzioni.--
La figura 2 mostra le variazioni della concentrazione di un
componente d'una reazione chimica in funzione dello scarto
dall'equilibrio. Qual è il meccanismo di comparsa di queste
nuove
strutture? Vi ritornerò nel contesto della cosmologia: è
sempre un
meccanismo di amplificazione delle fluttuazioni. In una
reazione
chimica, sappiamo che si producono senza sosta delle
fluttuazioni.
C'è sempre, qui o là, un po' piú o un po' meno d'un composto
dato di
come non vorrebbe la sua concentrazione media. Senza dubbio,
per uno

27
stato prossimo all'equilibrio o in equilibrio, questo fatto è
insignificante: le fluttuazioni muoiono, e l'ambiente torna
verso uno
stato omogeneo. Ma lontano dall'equilibrio può prodursi
l'inverso:
invece di constatare un ritorno verso lo stato iniziale,
vediamo una
amplificazione delle fluttuazioni, e questa amplificazione
porta a
una situazione nuova, che apre a una serie di possibilità
variate che
oggi la fisica ha solo cominciato ad esplorare. Non c'è un
campo piú
«esplosivo», oggi, dello studio dei fenomeni di non-
equilibrio.
Perché questo interesse per il non-equilibrio? Perché un
tale
interesse per queste nuove strutture? Perché oggi noi sappiamo
che
molti dei fenomeni interessanti osservati in laboratorio e che
giocano un ruolo fondamentale nel mondo che ci circonda, non
sono
comprensibili se non facendosi carico del non-equilibrio.
Un esempio che colpisce è la storia del clima, coi suoi
numerosi
periodi di glaciazione dall'inizio del quaternario. E' cosí
che
possiamo parlare di una  storia del clima. Recenti ricerche
hanno
potuto dimostrare che questa sola espressione implica già che
la
biosfera è un sistema lontano dall'equilibrio. Un sistema in
equilibrio non ha e non può avere storia: non può che
persistere nel
suo stato, in cui le fluttuazioni sono nulle.

2. L'irreversibilità microscopica
Ma come è possibile che i fenomeni irreversibili giochino un
tale
ruolo nella natura? Se pensiamo al pendolo, non vediamo come
l'irreversibilità o la probabilità possano apparirvi.
Nell'esempio
della biforcazione che prima ho indicato, ci sono due
possibilità,
due stati possibili dopo la biforcazione. Irreversibilità e
probabilità sono nozioni strettamente legate. Come sappiamo
dopo
Boltzmann. Sappiamo anche che nella meccanica quantistica la
nozione
di probabilità è essenziale, ma qui vediamo imporsi questa
nozione a
livello macroscopico.
Vorrei analizzare un po' piú da vicino il ruolo delle
probabilità
con un esempio banale. Gioco con una moneta e constato che
all'incirca essa cade una volta su due su un versante, una

28
volta su
due sull'altro. Ognuno di questi eventi ha la medesima
probabilità.
Qual è la legge fondamentale della natura? E' una legge
determinista?
Le leggi della meccanica classica devono ad ogni modo
applicarsi a
questa moneta: è una massa pesante, e non un atomo. Ma
constatiamo
anche che il risultato è probabilistico, e non deterministico.
Come conciliare probabilità e determinismo nel caso della
moneta?
Potrebbe dipendere dalla precisione con la quale mi doto delle
condizioni iniziali. Se posso effettivamente imporre delle
condizioni
iniziali sufficientemente esatte per predire il risultato del
gioco,
posso concludere che il risultato è deterministico, e
l'impiego delle
probabilità deriverebbe in tale contesto dalla mia ignoranza
relativa
delle condizioni iniziali.
Questa è l'immagine che la maggior parte delle persone ha
delle
probabilità. Mi sorprendo di incontrare un amico a Roma; ne
sono
sorpreso perché non gli ho telefonato prima di partire; se gli
avessi
telefonato, avrei saputo del suo viaggio a Roma e sarei meno
sorpreso
di incontrarvelo. Ma, siccome non gli ho telefonato, provo un
sentimento di sorpresa. Ma: l'ignoranza è la sola fonte della
sorpresa? No: esistono dei sistemi dinamici tali che nessuna
conoscenza finita delle condizioni iniziali permette di
prevedere il
risultato del gioco.
Per questa classe di sistemi dinamici, basta che cambi
infinitesimalmente la mia condizione iniziale perché un altro
evento
si produca.--Fig'

3:[+--+++-]=[-+][++-+++--+-+--+]=[+-][++-+++--+-+--+++--]=[--]
Condizioni
iniziali sempre meglio conosciute (qui: tre livelli successivi
di
precisione) vengono applicate a stati futuri distinti.--

Qualunque sia la precisione finita delle mie condizioni


iniziali,
non posso mai «determinare» un punto sulla figura 3; in altri
termini, la situazione dinamica è talmente instabile che ogni
soluzione (+) è circondata da soluzioni (-), e ogni soluzione
(-) è
circondata da soluzioni (+).

29
Si sa che i numeri reali sono formati da numeri razionali e
da
numeri irrazionali, e si sa anche che ogni numero razionale è
«circondato» da numeri irrazionali e che ogni irrazionale è
«circondato» da numeri razionali. Come decidere che un punto
dato
corrisponde a un numero razionale o a un numero irrazionale,
anche se
ci dotiamo di una precisione arbitraria? Non lo potremo mai
decidere.
Vedremo come nella predizione del comportamento dei sistemi
instabili non sia la nostra mancanza di conoscenza ad essere
in
gioco, ma la natura dinamica del sistema. E' l'instabilità
dinamica
che sarà all'origine delle nozioni di probabilità e di
irreversibilità.
Ho già ricordato che probabilità e irreversibilità sono
concetti
strettamente legati. E' facile illustrare il concetto di
sistema
instabile con l'esempio della trasformazione detta del
fornaio:
questi, come tutti sappiamo, prende un riquadro di pasta, lo
stende e
ne ripiega una metà sull'altra (fig' 4: Stati successivi (a,
b, c)
della trasformazione del fornaio).
La trasformazione del fornaio applica un'area iniziale data,
A, su
«due aree», e poi su «un gran numero» di aree.  Qualunque sia
la
prossimità dei punti o aree di partenza, dopo qualche
iterazione di
siffatta trasformazione, essi possono trovarsi separati: cosí
è
proprio dei sistemi fortemente instabili.
Ora è possibile mostrare un altro aspetto dell'instabilità
dei
sistemi dinamici tramite un'altra rappresentazione di questa
trasformazione. Se trascriviamo in sviluppo binario i numeri
corrispondenti alle coordinate d'un punto dato nello spazio
della
fase, possiamo fornire una formulazione molto semplice della
trasformazione del fornaio, che consiste nell'applicare questo
punto
su quello la cui notazione delle coordinate corrisponde allo
spostamento di un posto verso sinistra dei  digit binari. Se
conveniamo di segnare uªn, le cifre dello sviluppo binario, e
se
ordiniamo adeguatamente questi  digit , la formulazione detta
« Shift di Bernoulli» fa corrispondere il  digit che occupa
il
posto n nelle coordinate del punto di partenza, al  digit di
posto
n-1 del punto d'arrivo:uª[n-3], uª[n-2], uª[n-1], uªn, uª[n+

30
1],
uª[n+2]...uª[n-2], uª[n-1], uªn, uª[n+1], uª[n+2], uª[n+3]...
L'evoluzione di un tale sistema è ormai impredittibile dal
punto di
vista dinamico. Consideriamo il  digit u+2; alla prossima
iterazione
entra un  digit u+3 che si conosceva agli inizi. Dunque, il
punto
che questo  digit contribuiva a misurare non è piú una
condizione
iniziale adeguatamente conosciuta: lascia il posto infatti a
due
punti «possibili». Alla tappa successiva, ognuno di questi due
punti
richiama di nuovo una «scelta» tra due punti «possibili».
Possiamo mostrare che per predire su dei tempi sempre piú
lunghi
(linearmente) l'evoluzione di questo tipo di sistema, occorre
disporre di una precisione sempre piú sottile (in senso
esponenziale)
sulle condizioni iniziali. Ogni conoscenza finita di questo
sistema
implica la perdita del concetto di predizione determinista.
Ora,
qualunque sia la nostra informazione sul sistema, tale
informazione
non può esserci data che attraverso una finestra finita. E
dunque,
finalmente, la descrizione dinamica classica, legata al
concetto di
traiettoria (poiché una traiettoria è il passaggio da un punto
a un
altro) è persa definitivamente.
I dati di cui un essere finito dispone sulla natura
corrispondono
obbligatoriamente a un'informazione finita. Io non dispongo
che di
una  finestra sulla natura. Tutti hanno letto il romanzo di
Umberto
Eco,  Il nome della rosa , il cui eroe si chiama Guglielmo da
Baskerville. Scegliere il nome Baskerville significa
evidentemente
evocare un famoso racconto di Conan Doyle, e dunque l'arte
delle
congetture del maestro del romanzo poliziesco. Sino a non
molto tempo
fa, i fisici pensavano di non formulare mai delle congetture.
Senza
dubbio, per difendere un accusato l'avvocato deve risolvere
degli
indovinelli. Ma il fisico «dovrebbe poter conoscere»
l'universo in un
modo assoluto. Ora, per quanto poco si esamini un sistema
dinamico
semplice come quello della trasformazione del fornaio, ciò non
risulta piú vero: il determinismo viene immediatamente

31
sconfitto. Io
devo sostituire in ogni momento la mia informazione su un
«punto» con
una informazione su un «sistema di punti», poiché la
conoscenza di
cui dispongo sulle condizioni iniziali,  qualunque essa sia ,
non mi
permetterà di seguire la  traiettoria nel corso del tempo.
Le idee che ho appena esposto hanno oggi sempre piú eco.
Come
esempio prenderò solo un recente testo di Lighthill: The
Recently
Recog-nized Failure of Predictability in Newtonian Dynamics.
Questo
testo bene testimonia il recente rivolgimento delle idee in
meccanica
classica: «Devo parlare a favore della vasta confraternita dei
professionisti della meccanica. Noi collettivamente vorremmo
chiedere
scusa per aver ingannato il pubblico diffondendo idee sul
determinismo dei sistemi con alla base le leggi sul moto di
Newton
che, dal 1960, si sono dimostrate inesatte».
Nella fisica classica si poteva misurare tutto, e tutto
conoscere;
uno degli elementi nuovi, rivoluzionari, della fisica del Xx
secolo,
è la restrizione di questa visione piuttosto semplicistica
dell'universo.
Tale situazione è un esempio molto interessante del pericolo
delle
estrapolazioni. Secondo il parere di molti scienziati, la
dinamica
classica aveva raggiunto la sua forma definitiva e il
determinismo
appariva come la condizione stessa dell'intelligibilità. Noi
vediamo
oggi che non è cosí. I nuovi dati costituiscono senza dubbio
il cuore
della rivoluzione concettuale che attraversiamo dagli inizi
del Xx
secolo.
Ritorniamo al problema del determinismo. Abbiamo già parlato
del
ruolo dell'instabilità dinamica; ci resta da parlare di quello
delle
costanti universali. Come sapete, la teoria della relatività
ristretta è basata sull'ipotesi di una velocità limite di
propagazione dei segnali, che è la velocità della luce nel
vuoto, che
misura la costante  c . L'esistenza di questo limite è un
nuovo
argomento per la limitazione dello schema determinista.
Nell'ora stessa in cui vi sto parlando, dall'Australia
potrebbe
partire un raggio laser che all'istante distruggerebbe Roma.

32
Ciò è
molto poco probabile, per nostra fortuna. Ma io non ho nessun
mezzo
per predirlo, ossia per inviare un segnale  piú rapido per
sapere
che sta succedendo. In relatività, io non controllo che il mio
proprio passato e il passato di tutti coloro che sono nel mio
«cono
di passato». L'esistenza della velocità massimale di
propagazione
della luce implica una rottura con il determinismo. Poincaré,
il
grande matematico e fisico francese, era a tal punto
terrorizzato da
questa conclusione che annunciava si dovesse tornare a Newton,
a uno
spazio assoluto, a uno spazio che Newton chiamava la casa di
Dio,
 Domus Dei ; ma, aggiungeva Poincaré, ciò non servirebbe a
nulla,
perché su Dio la fisica non sa dire nulla.
L'esempio della meccanica quantistica è altrettanto
istruttivo. Le
relazioni d'indeterminazione sono esposte in tutte le opere
che
presentano la storia delle scienze del Xx secolo. In questo
caso non
è piú c che gioca il ruolo essenziale, ma la costante di
Planck,
ëhnp2¶pô.
Un esempio di relazione d'indeterminazione
è§dp§dq>ª?*ëhnp2¶pô;questa relazione rinvia al carattere
non-commutativo degli operatori corrispondente a p, la
quantità di
movimento, e alla coordinata q.
La limitazione progressiva delle nostre misure è arrivata al
suo
termine? Non credo. In alcuni recenti lavori, alcuni miei
colleghi e
io abbiamo cercato di modificare la meccanica quantistica in
modo da
tener conto dell'instabilità degli stati quantici eccitati.
Non posso
qui entrare nei dettagli di questa teoria. Ma vorrei ricordare
che ad
uno stato quantico instabile corrisponde la relazione
d'indeterminazione§de=ëëhnp2¶pônp¶tôdove ¶t è la vita media
dello
stato instabile, e §de l'indeterminazione sull'energia dello
stato
quantico considerato. In una situazione sperimentale data, la
vita
media è ben determinata. Ne risulta che quest'ultima relazione
d'incertezza limita la misura del valore d'una variabile
d'energia, e
non piú di una coppia di variabili. Se prendiamo sul serio

33
questa
relazione, la meccanica quantistica deve essere trasformata
per
diventare  piú probabilista ancora di quanto lo sia oggi.
Nella concezione classica il determinismo era fondamentale e
la
probabilità era un'approssimazione alla descrizione
deterministica,
dovuta alla nostra informazione imperfetta. Oggi è l'inverso:
le
strutture della natura ci costringono a introdurre le
probabilità
 indipendentemente dall'informazione che possediamo. La
descrizione
determinista non si applica infatti che a delle situazioni
semplici,
idealizzate, che non sono rappresentative della realtà fisica
che ci
circonda.

3. L'irreversibilità
in cosmologia
In tutta la relazione abbiamo sottolineato il ruolo delle
probabilità e dell'irreversibilità: prima a livello
macroscopico, poi
a quello microscopico.
Attualmente possiamo vedere come l'irreversibilità limiti la
portata della nozione di traiettoria classica, in ragione
dell'instabilità che incontriamo nei sistemi dinamici, e come
essa
limiti la portata della nozione di funzione d'onda nella
meccanica
quantistica, quando occorre tener conto della vita media degli
stati
quantici.
Ma c'è un terzo dominio, il dominio cosmologico. L'ho già
detto:
l'irreversibilità è cosa comune all'universo intero; essa non
è
relativa solo a una parte dell'universo. Dunque si pone il
problema:
come concepire l'inizio del tempo, la creazione del tempo e la
creazione dell'universo. Forse avete incontrato un'idea spesso
avanzata nella stampa scientifica: l'universo sarebbe un free-
lunch
(la casa in cui il pranzo è gratuito). Cosa s'intende con
questa
espressione? Si vuole dire che forse è concepibile creare un
universo
a partire dal vuoto, senza alcun dispendio di energia.
Alle masse corrisponde, data la celebre relazione di
Einstein
E=mcâ2, un'energia positiva. Per contro, e torneremo su questo
punto,
può sembrare naturale associare alla gravitazione un'energia
negativa, sebbene si tratti di un problema piú complesso di

34
quanto
appaia a prima vista. Se si accetta questa dualità di energie
positiva e negativa, si può concepire un universo ad energia
totale
nulla: l'energia della materia compensa dunque quella della
gravitazione, e l'energia totale resta costante, come si
verifica
d'altronde nel caso del vuoto  assoluto , in cui non c'è né
gravitazione né materia.
Ecco l'idea del  free-lunch : l'universo potrebbe formarsi
senza
dispendio d'energia. Per i termodinamici, ciò non presenta
nulla di
sorprendente. Perché dovrebbe servire un dispendio energetico?
Anche
i vortici di Bénard sono un  free-lunch . Evidentemente,
perché si
crei il vortice, serve il calore; ed è l'energia di
riscaldamento che
si trasforma in quei bei vortici che tutti abbiamo potuto
ammirare.
Ma qual è il prezzo che si deve pagare perché si creino i
vortici?
Non è l'energia, bensí l'entropia: i vortici si formano grazie
a dei
processi irreversibili. Da qui l'idea che il prezzo
dell'universo sia
anch'esso un prezzo  entropico , un'enorme produzione di
entropia
agli esordi dell'universo, contrariamente all'idea classica
secondo
la quale l'universo comincerebbe con un'entropia trascurabile,
che
aumenta sino alla morte termica, stato in cui l'entropia
sarebbe
massimale.
L'idea che cosí sono portato a sostenere, è che la morte
termica
stia  dietro di noi ; la morte termica sta infatti ai primi
esordi
dell'universo. Tutti gli altri fenomeni entropici dovuti alla
fusione
dei nuclei, alla vita e alla storia, sono in realtà
assolutamente
trascurabili di fronte all'enorme produzione di entropia
avutasi
all'inizio dell'universo.
Ciò che ci incoraggia nell'idea di una formazione
dell'universo
associata a un'esplosione entropica è che oggi sappiamo che
l'universo ha una struttura duplice; esso è formato da due
tipi di
costituenti: i fotoni e le altre particelle, i barioni.
La cosa curiosa, scoperta dal 1965, è che l'universo è
innanzitutto
formato da fotoni, poiché esistono 10â9 fotoni per un barione.

35
Dunque, l'universo è prima di tutto un universo di fotoni nel
quale
navigano dei barioni. Ora, i fotoni sono prodotti di «scarto».
I
fotoni si vanno semplicemente raffreddando, con la dilatazione
dell'universo. Invece, i barioni sono oggetti di non-
equilibrio, sono
i sopravvissuti dei primi momenti dell'universo; dunque essi
contenevano potenzialmente le galassie, i pianeti, la vita.
L'entropia totale dell'universo deriva dalla predominanza
dei
fotoni. Si è stimato che se tutta la materia del nostro
universo si
scomponesse in fotoni, l'entropia dell'universo non
cambierebbe che
di una frazione percentuale. All'inizio della mia relazione,
ho
ricordato che la creazione di entropia si accompagna a una
creazione
simultanea di ordine e disordine. Qui, vediamo che il
disordine può
essere associato ai fotoni, mentre i portatori d'ordine sono i
barioni.
Forse possiamo abbozzare un'analogia con la biologia.
François
Jacob non ha forse detto che il sogno di ogni molecola è
quello di
riprodursi? Il sogno delle particelle elementari sarebbe
allora
quello di durare? Il sogno di riprodursi implica biomolecole
come il
Dna. Il sogno di durare non potrebbe allora implicare
l'introduzione
di una complessità intrinseca, che ormai dovremmo riconoscere
alle
particelle dette «elementari»?
Come conciliare questa termodinamica cosmologica con le idee
di
Einstein e della cosmologia moderna? L'equazione fondamentale
di
Einstein collega la curva dello spazio-tempo alla pressione e
alla
densità o, per esprimerlo in modo piú preciso, al tensore di
energia-impulso della materia.
Il carattere unico della relatività generale è quello di
aver
sorpassato la dualità inerente alle concezioni newtoniane, che
si
basavano da una parte sullo spazio-tempo considerato come
recipiente
passivo, e dall'altra sulla materia.
La storia della cosmologia del Xx secolo è una storia
drammatica.
Einstein ha per primo utilizzato le sue equazioni fondamentali
per
uscire da un modello statico dell'universo, corrispondente al

36
suo
concetto di eternità. Come è noto, intorno al 1922 si è dovuta
abbandonare l'idea di un universo statico a favore di un
universo in
espansione. Ma pochi prendevano allora sul serio questa teoria
che
aveva origine da una singolarità, il celebre  Big Bang ,
databile tra
i dieci e i venti miliardi d'anni prima. Si poteva affermare
che
comunque questa espansione non era che una similitudine
geometrica.
Ma dopo il 1965, è stato inevitabile assumere seriamente
l'idea di
un'evoluzione cosmologica, poiché si sono scoperti i fotoni
della
radiazione di fondo, prodottisi molto presto nella storia
dell'universo. Ed è cosí che il mondo scientifico ha accettato
quasi
unanimemente l'idea di un  Big Bang , di una singolarità
iniziale.
Ma è un'idea difficile da accettare. Che significa un
«inizio del
tempo»? Comunque sia, verso il 1970 i ricercatori sembravano
essere
giunti ad un'immagine soddisfacente dell'evoluzione
dell'universo. E'
probabile del resto che poche cose cambieranno questo modello
(che
ormai si chiama  modello standard ) per quanto concerne
l'evoluzione
dell'universo dopo il primo secondo. In un certo senso è una
conquista notevole, tenuto conto del fatto che l'età totale
dell'universo è nell'ordine di 10â17 secondi.
Lo sforzo attuale si concentra su questo secondo cruciale.
E' qui
che il modello standard non ci fornisce che scarse
informazioni. Le
equazioni di Einstein, che stanno alla base del modello,
prevedono
un'espansione adiabatica con conservazione dell'entropia, e
tali
equazioni non includono alcun fenomeno irreversibile. Se noi
prescindiamo dal  Big Bang , otteniamo delle condizioni
iniziali
nelle quali tutta la massa e tutta l'entropia dell'universo
sono già
presenti. Questo universo si trovava allora in condizioni di
temperatura estremamente elevate, nell'ordine della
temperatura di
Planck, ossia 10â32 gradi Kelvin. Ma che significano siffatte
condizioni iniziali? In effetti, il modello standard evitava
di porre
la questione, e oggi lo sforzo di molti teorici si focalizza
esattamente sul problema degli inizi dell'universo, della
genesi

37
delle cose: una delle questioni piú affascinanti della fisica
teorica.
Occorre ricordare che prima della scoperta dei fotoni legati
alla
radiazione di fondo di corpo nero, Hoyle e altri avevano
sviluppato
la teoria dell' universo stazionario , in cui c'è creazione
permanente di materia; questa materia «abbandonerebbe
l'orizzonte
osservabile», portando cosí a uno stato stazionario nel quale
nessuna
delle proprietà intensive del nostro universo (pressione,
densità)
varia. Il vantaggio di questo modello è quello di evitare
l'idea di
singolarità iniziale, associata al  Big Bang . Ma la teoria
dell'universo stazionario non può soddisfarci perché non ci
può
spiegare gli aspetti evolutivi che il nostro universo
presenta.
Ci troviamo dunque in una situazione difficile: sembra non
esservi
scelta che tra un  Big Bang passabilmente misterioso e una
teoria
dell'universo stazionario inaccettabile.
La teoria che sto per esporvi cerca di evitare il dilemma.
Essa fa
cominciare l'universo da una instabilità, concetto molto
diverso da
quello di singolarità. Nel caso di una instabilità, la
comparsa
dell'universo si può comparare a un cambiamento di fase.
L'universo,
come noi lo vediamo, è allora il risultato di una
trasformazione
irreversibile, e proviene da un «altro» stato fisico.
Vorrei innanzitutto spiegare di quale instabilità si tratta.
Seguo
qui i lavori di Brout, Englert e Gunzig. Loro partono
dall'idea di un
accoppiamento tra un campo di gravitazione e un campo di
materia. Le
equazioni non-lineari che corrispondono a questo
accoppiamento,
ammettono differenti tipi di soluzione.
Una, soluzione banale, è il vuoto: né materia né
gravitazione. Ma
l'analisi di questa soluzione mostra che essa è instabile in
rapporto
alla produzione di particelle di massa sufficientemente
pesanti.
Possiamo rappresentarci questo vuoto come un vuoto fluttuante,
che
produce masse leggere o pesanti. Dopo che la massa prodotta
raggiunge
un valore dell'ordine di cinquanta volte la  massa di Planck ,

38
il
vuoto diventa instabile e si trasforma in un sistema
materia/gravitazione, ossia in un universo. La massa di Planck
può
esprimersi in funzione di tre costanti universali: la velocità
della
luce  c , la costante di Planck  h e la costante
gravitazionale  k .
La massa di Planck vale 10â-5, e cinquanta volte questa
massa è
dunque 10â-3 gr, una massa che quasi possiamo prendere e
pesare. Una
particella elementare che ha una massa cosí «enorme»,
relativamente
parlando, è un buco nero. Se infatti si calcola il suo «raggio
di
Compton», questo raggio risulta piccolo in rapporto a quello
che
chiamiamo il «raggio di Schwarzschild», che è il raggio al di
sotto
del quale un fotone proveniente dal mondo esterno è assorbito.
Dei
buchi neri conosciamo talune proprietà, come la loro
temperatura
(inversamente proporzionale alla massa), o la loro vita media
(proporzionale alla massa al cubo).
Ho recentemente presentato, con J' Géhéniau e E' Gunzig, uno
schizzo della nascita dell'universo basato su un modello di
questo
tipo. In un primo tempo, in seguito all'instabilità di
particelle
corrispondente alla massa critica, vediamo costituirsi degli
ammassi,
«piccoli buchi neri», dell'ordine di 10â-3 gr. Durante questa
fase
l'universo si ingrandisce in modo esponenziale (come nel
modello
inflazionista, oggi molto studiato). Ma questi piccoli buchi
neri
sono instabili e si scompongono in tempi dell'ordine di 10â-35
secondi. A partire da questo momento l'universo diventa simile
a
quello che noi conosciamo, formato da barioni e da fotoni.
Oggi esistono differenti modelli dell'origine del nostro
universo.
Ognuno di essi presenta elementi speculativi, e questo vale
anche nel
caso di quello che sto per dire. Ma credo di poter affermare
che il
nostro modello è sino a oggi il solo in grado di condurre a
delle
predizioni.
Esso permette infatti di dedurre il rapporto attuale tra
numero di
fotoni e numero di barioni (che misura l'entropia totale
dell'universo), in buon accordo con i dati dell'esperienza, e

39
questo
solamente nei termini delle tre costanti universali  h, c, k .
Cosí,
le principali proprietà termiche dell'universo attuale si
esprimono
con il solo aiuto di queste costanti.
Ciò rappresenta un indubbio successo. Ma, se ho fiducia in
questo
modello, è perché ci propone un modo coerente di conciliare
l'esigenza di una teoria unificata dell'universo con la sua
evoluzione.
E' noto che il problema dell'unificazione delle forze è
all'ordine
del giorno. La  Grand Unification Theory , le «corde» e le
«supercorde» sono gli strumenti con i quali si tenta di
pervenire
all'unificazione. Ma un universo solamente unificato sarebbe
statico,
complicato forse, ma non evolutivo. Ci serve, dunque, qualcosa
di piú
di un'unificazione, un grado di libertà evolutiva.
Ciò è precisamente quanto il nostro modello propone. In esso
la
relazione tra spazio-tempo da una parte e materia dall'altra,
non è
simmetrica. La trasformazione dello spazio-tempo in materia al
momento dell'instabilità del vuoto corrisponde a un'esplosione
di
entropia, a un fenomeno irreversibile. La materia corrisponde
in
realtà a un  inquinamento dello spazio-tempo. Ma, come ho
sottolineato a piú riprese, l'inquinamento, la dissipazione,
sono
produttori insieme di ordine e disordine.
Allontanandomi un momento dal carattere «popolare» di questa
conferenza, vorrei dire una parola sul grado di libertà
evolutiva. Si
ammette che l'universo, secondo una prima approssimazione, è
omogeneo
e isotropo. Un tale universo può essere descritto da una
metrica
«conforme alla metrica di Minkowski». Ciò significa che il suo
elemento di linea ds differisce da uno spazio di Minkowski per
un
solo grado di libertàdsâ2=Fâ2[ds]â2
La gravitazione può allora essere descritta da un  campo
scalare
che possiamo immergere in uno spazio di Minkowski. L'energia
di
questo campo scalare è negativa (conformemente a quanto
abbiamo detto
prima sul  free-lunch ). E' tale carattere negativo che
permette di
estrarre energia gravitazionale per creare materia.
Per questa strada arriviamo a un risultato inatteso:
l'universo non

40
possederebbe uno stato fondamentale stabile. Da ciò, deriva
che esso
può diminuire la sua energia emettendo buchi neri, proprio
come un
atomo può passare da uno stato eccitato al suo stato
fondamentale
emettendo dei fotoni. Questo fenomeno è evidentemente
irreversibile.
In uno dei suoi racconti, Isaac Asimov scrive di come una
società
molto avanzata consacri immense risorse alla costruzione di un
calcolatore gigante in grado di rispondere all'«ultima
domanda»: come
vincere il secondo principio della termodinamica? La macchina
risponde imperturbabile: «Dati insufficienti»; al punto che si
esauriscono le intere risorse mondiali per raccogliere
siffatti dati.
E, quando la macchina è infine in grado di formulare la
risposta, un
nuovo universo appare. E' chiaro che questo racconto poggia
sulla
falsa idea che l'universo debba costruirsi contro le leggi
della
termodinamica. Noi vediamo invece, nella ricerca attuale, che
non è
cosí. E' grazie al secondo principio che l'universo si è
sviluppato,
e che la materia porta su di sé il segno della freccia del
tempo.
In questo contesto possiamo porre delle domande che,
inevitabilmente, presentano un carattere speculativo. Per
esempio,
qual è il futuro del nostro universo? Secondo l'immagine
classica, e
nel caso di un universo aperto, esso deve disperdersi,
sancendo la
propria fine. Qui, al contrario, una nuova nascita risulta
possibile,
se le condizioni che hanno permesso la prima instabilità
possono
riprodursi. Qual è la densità di materia compatibile con tale
instabilità? E' un calcolo che i miei collaboratori ed io
stiamo
provando ad effettuare: si tratta, probabilmente, di un tempo
molto
lungo, forse 100 miliardi d'anni. Possiamo anche immaginare la
storia
dell'universo come quella di una reazione chimica esplosiva i
cui
prodotti di scarto ne impediscono la continuazione, sino al
momento
in cui non vengono eliminati, e dunque una nuova esplosione
diventa
possibile.
Vedete che l'instabilità, le fluttuazioni e
l'irreversibilità

41
giocano un ruolo a tutti i livelli della natura, chimica,
ecologica,
climatologica, biologica con la formazione di biomolecole, e
infine
cosmologica.

4. La nascita del tempo


E' a questo punto che ritorniamo al titolo della mia
relazione. C'è
stata «nascita del tempo»? La questione è molto complessa.
Probabilmente c'è stata nascita del nostro tempo.
Probabilmente si è
avuta nascita del nostro universo. Sta qui la nascita del
tempo in
sé? E' un'abitudine, una convenzione, quella che ci porta a
contare
il tempo a partire da un evento. Sia esso la nascita di Cristo
o la
fondazione di Roma, ogni volta si tratta della nascita del
 nostro
tempo.
Non dobbiamo dimenticarlo: la scienza non può che descrivere
dei
fenomeni ripetibili. Se c'è stato un fenomeno unico, una
singolarità
quale il  Big Bang , ecco che ci troviamo di fronte a un
elemento che
introduce aspetti pressoché trascendentali, che sfuggono alla
scienza.
Parimenti, io non credo che la vita corrisponda a un
fenomeno
unico: essa si forma ogni volta che le circostanze planetarie
sono
favorevoli. E ancora, io credo che un altro universo si
formerà ogni
volta che le condizioni astrofisiche saranno favorevoli a tale
evento.
La nascita del nostro tempo non è, dunque, la nascita  del
tempo.
Già nel vuoto fluttuante il tempo preesisteva allo stato
potenziale.
Forse qui siamo tributari al nostro linguaggio. Il tempo non
è
l'eternità, né l'eterno ritorno. Ed esso non è piú solamente
irreversibilità ed evoluzione. Forse oggi ci serve una nuova
nozione
del tempo in grado di trascendere le categorie di divenire e
di
eternità.
Dagli esordi della sociologia, gli studiosi si sono
scontrati con
il problema della dualità tra sistema e individuo. Conosciamo
la
tentazione dei sociologi classici, portati a una visione
totalizzante. (*)
Oggi constatiamo il ruolo delle microstrutture, delle

42
decisioni
individuali, delle fluttuazioni che si amplificano.
Curiosamente, la
storia della fisica ne sembrerebbe in qualche modo
complementare.
La fisica classica, il cui testo canonico resta  Le systême
du
monde di Laplace, ci invitava a ricostruire un'immagine del
mondo
sovrapponendo movimenti semplici. Ad ogni movimento
corrispondeva una
disomogeneità dello spazio-tempo.
Nella cosmologia che ho appena esposto, è la totalità che
gioca il
ruolo determinante. Il fatto singolare, individuale, non si
rende
possibile se non implicato in tale totalità.
Arriviamo cosí a un tempo potenziale, un tempo che è «sempre
già
qui», allo stato  latente , che non chiede che un fenomeno di
fluttuazione per attualizzarsi. In questo senso, il tempo non
è nato
con il nostro universo: il tempo  precede l'esistenza , e
potrà far
nascere altri universi.

NOTE:
(*) Mi permetto di raccomandare la lettura del bel libro di
Claude
Javeau,  Le petit murmure et le bruit du monde , Les
Eperonniers,
Bruxelles 1987.

Il ruolo creativo del tempo

Conferenza presentata a Milano il 24 ottobre 1984,


nell'ambito del
 Progetto cultura Montedison. Traduzione di Sylvie
Coyaud.

La coppia ordine-disordine suscita oggi numerosi confronti


culturali, come indica un testo di Jean Starobinski scritto in
occasione degli Incontri Internazionali di Ginevra del 1983,
il cui
tema era appunto  Ordine e disordine .
Dice Starobinski: «Non esiste oggi nessun campo - scienze
fisiche,
umane, creazione artistica, istituzioni giuridiche, vita
economica,
dibattiti politici - i cui problemi non sembrino richiamarsi
alle
nozioni antagoniste dell'ordine e del disordine o a quelle,
piú
flessibili ma non meno antinomiche, dell'equilibrio e dello
squilibrio. Tutto ci porta a credere che queste nozioni siano

43
indispensabili per interpretare l'insieme delle realtà che si
presentano in noi e intorno a noi».
In realtà, l'interesse per i problemi di ordine e disordine
non è
recente: lo troviamo in scienziati, filosofi e poeti. Pensiamo
per
esempio ai  Cahiers di Paul Valéry, dove si trovano numerose
annotazioni, anche molto profonde, sul disordine.
Gli aspetti dell'ordine e del disordine sono molteplici;
alcuni
sono strettamente scientifici, altri riguardano problemi
epistemologici e filosofici. Prenderemo qui in considerazione
soprattutto gli aspetti scientifici, e cioè i progressi
compiuti
nella descrizione dei fenomeni di ordine e disordine in fisica
e in
chimica.
Come caratterizzare il momento scientifico nel quale viviamo
oggi?
Indubbiamente la scienza conosce nuovi sviluppi nei piú
svariati
campi, ma sembra anche trovarsi di fronte a un bivio: il mondo
è
termodinamico o meccanico? A questa domanda, alcune decine di
anni
fa, si sarebbe risposto: il mondo è essenzialmente meccanico,
la
termodinamica vi svolge una parte secondaria. Ora la risposta
sarebbe
piú incerta: ci sono state le scoperte delle particelle
elementari
instabili, alcune scoperte di cosmologia, e tutte quelle del
campo
della fisica del non-equilibrio di cui vorrei parlare
brevemente.
Cominciamo col chiederci cosa caratterizzi il pensiero
meccanico,
dinamico. Sostanzialmente è il tentativo di isolare un
sistema, di
considerarlo indipendentemente dal resto dell'universo. C'è un
aspetto importante che deve essere preso in considerazione: i
sistemi
dinamici non sono mai stabili. Per esempio quando un corpo
passa
accanto alla Terra, la traiettoria del nostro pianeta viene
modificata, spostata, e in seguito rimane diversa, non torna
alla
situazione precedente. Al contrario, quando corriamo, il cuore
accelera i battiti, ma dopo aver riposato, riprende il ritmo
iniziale. C'è quindi una differenza: nel caso del cuore,
abbiamo un
comportamento stabile, mentre nel caso della dinamica c'è una
forma
di instabilità.
Com'è invece la descrizione termodinamica? La si potrebbe
definire

44
di tipo globale: colloca un sistema nel suo ambiente. Inoltre
la
descrizione termodinamica introduce l'idea di stabilità: i
matematici
parlano di stabilità asintotica. Infatti per il secondo
principio
della termodinamica, i fenomeni irreversibili portano a una
produzione positiva di entropia. Se un sistema isolato in
equilibrio
viene perturbato, ritorna successivamente in equilibrio. Nel
mondo
dei fenomeni dissipativi si possono trascurare le
perturbazioni, nel
mondo della dinamica no.
In questo modo identifichiamo subito il nesso tra
dissipazione e
ordine. Se non ci fosse stabilità, il mondo cambierebbe di
continuo
per cui non potrebbe esistere alcuna organizzazione stabile
delle
strutture, per esempio quella delle strutture biologiche.
Pertanto
l'irreversibilità è un fattore molto rilevante.
Il problema si può tuttavia porre in modo ancora piú
generale.
Circa 2'500 anni fa, Aristotele aveva già analizzato il
problema del
tempo ( Fisica , §d Ii, 219b 1-2): aveva notato che il tempo
era la
misura del movimento nella prospettiva del prima e del poi. Ed
è ciò
che facciamo ancora oggi: misuriamo il tempo con orologi che
hanno un
movimento periodico.
Ma che cosa segna il prima e il poi? A questo interrogativo,
Aristotele non aveva risposto. Si chiedeva se non fosse
l'anima a
contare, se non fossimo noi a dare la prospettiva del prima e
del poi
e in un certo qual modo se non fossimo noi responsabili
dell'esistenza dell'irreversibilità del mondo, cosa che
pensano
tuttora molti fisici.
Ma gli sviluppi dello studio dei fenomeni irreversibili ci
danno
ora una prospettiva radicalmente diversa. Constatiamo che i
fenomeni
irreversibili portano a nuove strutture e, dal momento che
appaiono
nuove strutture a seguito dell'irreversibilità, non ci è piú
concesso
credere di essere i responsabili dell'apparizione della
prospettiva
del prima e del poi. Ora abbiamo una diversa visione del
tempo: non
possiamo piú pensare, con Einstein, che il tempo irreversibile

45
è
un'illusione.
Un esempio semplice, l'instabilità di Bénard, permetterà di
illustrare ciò che intendo dire. L'instabilità di Bénard si
verifica
in uno strato liquido riscaldato dal basso; superato un certo
valore-soglia si creano delle correnti di convezione, che
risultano
dall'interazione di non-equilibrio tra il flusso di calore e
la
gravitazione. E' interessante rilevare che ogni cella di
convezione
comprende una quantità di molecole dell'ordine di 10â21, un
numero
enorme di particelle. Il non-equilibrio crea pertanto la
coerenza,
permettendo alle particelle di interagire su lunga distanza.
Mi piace
dire che la materia in prossimità dell'equilibrio è «cieca»,
perché
ogni particella «vede» soltanto le molecole che la circondano;
mentre
lontano dall'equilibrio si producono le correlazioni di lunga
portata
che permettono la costruzione degli stati coerenti e che oggi
incontriamo in numerosi campi della fisica e della chimica.
L'osservazione ravvicinata di questi fenomeni è ricca di
implicazioni. Nell'instabilità di Bénard possiamo osservare
per
esempio uno strato caldo sovrapposto a uno strato freddo.
Oppure
delle correnti di convezione dotate di strutture coerenti che
vanno
ad esempio da destra a sinistra, e viceversa. Queste strutture
rompono la simmetria euclidea dello spazio.
All'equilibrio o vicino all'equilibrio, i punti che
giacciono su
uno stesso piano hanno tutti le stesse proprietà. Lontano
dall'equilibrio appaiono zone di chiralità opposta. C'è stata
quindi
rottura della simmetria dello spazio allo stesso modo in cui,
nei
fenomeni temporali, il fenomeno irreversibile provoca la
rottura
della simmetria del tempo.
Ma c'è di piú. Se ripetiamo questo esperimento in un altro
momento,
l'andamento delle correnti di convezione può risultare
diverso. La
situazione non è determinata: nella descrizione di questi
fenomeni
emerge un elemento casuale.
Sappiamo che la meccanica quantistica ha introdotto il caso
nella
fisica. Tuttavia il caso entrava in gioco solo a livello
microscopico

46
e alcuni ne hanno tratto la conclusione che, a livello
macroscopico,
il caso verrebbe eliminato dalla legge dei grandi numeri. Ma
ora noi
vediamo che non è cosí: il caso rimane essenziale anche a
livello
macroscopico.
Vicino all'equilibrio è sempre possibile linearizzare,
mentre
lontano dall'equilibrio abbiamo una non-linearità dei
comportamenti
della materia. Non-equilibrio e non-linearità sono concetti
legati
tra loro. Abbiamo cosí nuovi stati fisici della materia, nuovi
comportamenti. Le equazioni non-lineari hanno molte soluzioni
possibili e pertanto una molteplicità, una ricchezza di
comportamenti
che non si possono trovare vicino all'equilibrio.
L'esistenza di questi stati che possono trasformarsi l'uno
nell'altro introduce quindi un elemento storico nella
descrizione.
Sembrava che la storia fosse riservata alla biologia o alle
scienze
umane, e invece la vediamo apparire persino nella descrizione
di
sistemi estremamente semplici, e questo è un fatto di portata
generale.
Anche in questi casi la struttura, la forma dello spazio,
sono
diverse all'interno e all'esterno del sistema. Possiamo dire,
in un
certo senso, che l'irreversibilità crea una differenziazione:
l'interno del sistema diventa diverso dall'esterno,
esattamente come
l'interno di un sistema vivente ha una struttura e una
composizione
chimica completamente diverse da quelle del mondo esterno.
L'esempio dell'instabilità di Bénard non è un caso isolato:
negli
ultimi dieci anni, si è osservata la comparsa di strutture di
non-equilibrio anche in campi diversi dall'idrodinamica, e in
particolare nella chimica. Non appena vi sono fenomeni
autocatalitici
o transcatalitici, non appena si possono avere retroazioni che
amplificano i fenomeni cinetici, si possono trovare queste
strutture.
Uno dei fatti sorprendenti è stato il rilevare che le reazioni
periodiche non sono la regola; oltre a queste, vi sono anche
reazioni
dal comportamento piú irregolare. Si parla allora di caos
chimico.
Finora gli esempi sono stati tratti dall'idrodinamica e
dalla
chimica. Prima di passare alla biologia, vorrei aggiungere
qualcosa
sui meccanismi matematici di formazione di queste strutture.

47
Esse
appaiono al di là del punto detto di biforcazione e possono
rompere
le preesistenti simmetrie.
La biologia ci ha posti davanti al seguente fatto: le
molecole con
chilarità sinistrorsa sono molto piú numerose delle molecole
con
chilarità destrorsa. Perché? Accade spessissimo che non vi sia
una
simmetria perfetta. Vi è un'imperfezione che permette
selezioni
estremamente precise, che consente risultati riproducibili
persino
quando il rapporto segnale-rumore è molto piccolo.
Prendiamo un esempio: come fa una pianta a sapere
dell'arrivo della
primavera? In effetti, la temperatura, come la luce, varia
molto dal
mattino alla sera e dal giorno alla notte: ma da tutto questo
rumore,
emerge un piccolo segnale che la pianta è in grado di captare.
Cosí
cominciamo a capire come questo piccolo segnale possa essere
amplificato.
Molto recentemente questa previsione è stata verificata
sperimentalmente in sistemi semplici. Non è impossibile che si
arrivi
a quelli che si potrebbero definire  transistors chimici, in
grado
di amplificare i segnali provenienti dal mondo esterno. Una
scoperta
di questo genere aprirebbe sicuramente immense possibilità
tecnologiche. Non si tratterebbe di interruttori rapidissimi
ma di
interruttori sensibilissimi.
Ma torniamo alla biologia, un mondo dove queste
amplificazioni e
queste strutture di non-equilibrio sono moneta corrente. Le si
incontra quasi ovunque, e in particolare nella chimica degli
enzimi.
Un famoso esempio è quello delle amebe dette acrasiali: vivono
isolate, ma nel momento in cui hanno fame, si aggregano in un
«organismo» unico che poi migra verso un ambiente piú
favorevole.
Questo meccanismo di aggregazione è legato al gradiente di
concentrazione di una sostanza chiamata Amp ciclico, prodotta
da un
enzima e poi diffusa nell'ambiente. Ci troviamo di fronte a un
fenomeno di amplificazione: la presenza dell'enzima
nell'ambiente
attiva il meccanismo che produce l'Amp ciclico; vengono cosí
emesse
onde che sono amplificate e che portano a magnifiche forme
geometriche.
Tutti questi sono esempi molto semplici. Soltanto di recente

48
i
biofisici e i chimici si sono interessati a quanto accade
quando i
meccanismi di retroazione sono multipli. Un sistema può
presentare
due o piú meccanismi d'amplificazione: perciò saranno
possibili piú
tipi di ciclo-limite, piú ritmi - si parla di biritmicità o
poliritmicità - e questo fenomeno, previsto teoricamente tre o
quattro anni fa, è stato verificato nel campo della biochimica
e
della chimica inorganica.
Sono situazioni in cui il sistema assume ritmi diversi a
seconda
delle diverse condizioni.
L'irreversibilità porta pertanto all' autonomia :
debolissimi
cambiamenti nell'ambiente esterno possono portare a
comportamenti
interni del tutto diversi, con possibilità per il sistema di
adeguarsi al mondo esterno. Tutto ciò corrisponde a una
definizione
della vita: la vita non si nutre soltanto di chimica, ma ha in
un
certo modo incorporato la gravitazione, il campo
elettromagnetico e
cosí via.
Uno degli aspetti su cui vorrei soffermarmi è quello della
stabilità legata all'irreversibilità. Prendiamo un pendolo: se
non ci
fosse attrito, continuerebbe a oscillare all'infinito. Il
movimento
invece si smorza e si ferma: si dice che c'è un punto
attrattore, un
esempio di stabilità asintotica. Ma la sorpresa di questi
ultimi anni
è la scoperta che il punto attrattore non è un esempio
rappresentativo.
C'è il caso un po' piú complesso, non di un singolo punto
attrattore, ma di una curva chiusa che traduce un
comportamento
periodico. Si è scoperto da poco che spesso il punto
attrattore è un
insieme di punti e che il sistema è attratto prima da un
punto, poi
da un altro, e da un altro ancora. Si parla allora di
attrattore
strano.
Gli attrattori strani possono popolare in modo piú o meno
denso
delle linee, delle superfici, dei volumi. Possono avere
dimensioni
che non si esprimono con numeri interi, perché sono
distribuiti in
modo denso all'interno di volumi o di superfici. Si chiamano
frattali, perché la loro dimensione (nel senso della

49
geometria) non è
un numero intero. Con degli attrattori che sono frattali
bisogna
aspettarsi comportamenti molto irregolari, caotici e continue
fluttuazioni. Ma, ci possiamo chiedere, i fenomeni caotici che
osserviamo sono di natura frattale oppure della natura dei
giochi
d'azzardo?
Quando gioco alla  roulette , posso aver giocato mille volte
e
giocare una milleunesima volta, ma la situazione si ripresenta
ogni
volta nuova, non rimane nulla del passato. Mentre quando ho un
sistema dinamico anche il carattere casuale è il risultato del
sistema dinamico stesso. Ciò che mi colpisce sempre è che in
natura
s'incontra stabilità dove ci si aspetta di trovare varietà, e
si
trova varietà dove invece ci si attende stabilità. Constatiamo
per
esempio che il mondo è fatto di particelle di materia; ma
perché non
di antimateria? Perché mai la materia è cosí abbondante e
l'antimateria cosí scarsa? Perché mai tante molecole con
chilarità
sinistrorsa e cosí poche molecole con chilarità destrorsa? E
allo
stesso modo, laddove pensiamo di trovare stabilità, troviamo
invece
varietà, come nel caso del clima: per lunghi periodi l'energia
inviataci dal Sole è quasi costante eppure si verificano
enormi
variazioni climatiche. Cosa vuol dire tutto questo? Il
problema viene
esaminato oggi da vari gruppi di ricercatori, tra cui il
nostro, e
accennerò ad alcuni dei risultati conseguiti. Nel caso del
clima, noi
conosciamo il passato attraverso delle serie temporali, per
esempio
la sequenza delle temperature. Questa sequenza presenta enormi
variazioni. La domanda che ci poniamo è se queste variazioni
siano
dovute a un gioco d'azzardo, come alla  roulette , oppure se
ci
troviamo di fronte a un attrattore strano simile a quelli
citati
prima.
Negli ultimi anni i matematici hanno cominciato a sviluppare
metodi
per distinguere tra loro queste due situazioni. L'idea di
fondo è
che, se la temperatura fa parte di un sistema con un certo
numero di
variabili, allora, eliminando queste variabili, la sola
temperatura

50
entra a far parte di un'equazione differenziale di ordine
ennesimo.
Si dà il valore di una variabile, della sua derivata e cosí
via, fino
a n-1 e poi l'equazione determina la derivata ennesima. Si può
anche
prendere il valore della temperatura in un determinato
istante, e in
momenti successivi fino a ottenere una sequenza. Studiando poi
la
ripartizione di questa sequenza, si osserva che in presenza di
un
attrattore strano le sequenze si collocano in zone con una
certa
dimensionalità. Senza addentrarci nei dettagli dei calcoli
matematici, possiamo rilevare che l'interesse fondamentale,
indipendentemente da ogni modello climatico, risiede nel poter
ora
affermare che l'informazione contenuta in un milione di anni
di
temperature può essere simulata in un sistema con quattro
equazioni
differenziali non-lineari. Quali sono le quattro variabili che
producono questo attrattore? Non ne sappiamo nulla: possiamo
fare
l'ipotesi del campo magnetico, della quantità di ossigeno,
della
posizione della traiettoria terrestre. Però sappiamo che non
si
tratta di un gioco d'azzardo, che alla base dell'enorme
complessità
nelle fluttuazioni delle temperature c'è un determinismo
complesso.
Questa complessità, riflessa dall'attrattore, spiega
l'instabilità
del clima: la minima perturbazione proveniente dal mondo
esterno o da
fluttuazioni interne può fare oscillare da un clima freddo a
un clima
caldo e viceversa.
Se questa formulazione «funziona» per il clima, perché non
cercare
di applicarla a un altro fenomeno complesso, alle fluttuazioni
del
potenziale elettrico del cervello? Si può applicare alla
neurofisiologia lo stesso metodo usato per il clima, studiare
cioè il
potenziale elettrico successivo in funzione del potenziale
elettrico
precedente. Quello che si osserva è che per un soggetto in
stato di
veglia il carattere casuale è enorme: a un valore dato, può
corrispondere un qualsiasi altro valore. Nel sonno profondo,
invece,
la situazione è molto meno casuale.
Possiamo tentare quindi di analizzare la differenza tra

51
veglia e
sonno dal punto di vista degli attrattori strani. Sembra che
il
sistema neurofisiologico sia un sistema altamente instabile
che
continua a funzionare nel sonno come un sistema dinamico molto
complesso. E' ancora Valéry a scrivere: «Il cervello è
l'instabilità
stessa». Ma cosa accade quando si passa dallo stato di sonno a
quello
di veglia? Non abbiamo ancora dati sufficienti, ma due fatti
emergono
già chiaramente: in primo luogo, la dimensionalità aumenta e
il
sistema diventa piú complesso. In secondo luogo non si tratta
piú di
un sistema dinamico chiuso: in stato di veglia, guardiamo,
osserviamo, e queste osservazioni fanno sí che il sistema non
sia piú
completo, chiuso su se stesso, ma contenga elementi nuovi
venuti dal
mondo esterno. Nello stato di veglia, c'è un continuo apporto
dell'esperienza.
Non sono un neurofisiologo, ma sono affascinato dal
ritrovare nel
cervello un'attività di base altamente instabile, come nel
caso del
clima. Il mondo esterno permette di polarizzare quest'attività
di
base in una direzione o in un'altra e di arrivare alle
attività
cognitive.
Ci si può chiedere a questo punto se l'autonomia del tempo
non
svolga un ruolo molto importante nell'evoluzione biologica.
Qual è il
ruolo del tempo? Abbiamo il tempo astronomico, il tempo della
dinamica, ma dato che continuamente dentro di noi si svolgono
delle
reazioni chimiche, abbiamo anche un tempo chimico interno. Ma
il
tempo chimico è un tempo povero, che esiste soltanto quando si
alimenta la reazione. Con la vita, la situazione cambia
radicalmente;
con l'iscrizione del codice genetico abbiamo un tempo interno
biologico che prosegue lungo i miliardi di anni della vita
stessa, e
non solo questo tempo autonomo della vita si trasmette da una
generazione all'altra, ma il suo concetto si modifica. Si
produce un
perfezionamento evolutivo che evoca la storia dei computers:
una
generazione succede all'altra e permette di realizzare lo
stesso tipo
di operazioni in tempi sempre piú brevi. Potremmo chiamarlo un
perfezionamento quantitativo. Però sembra anche chiaro - si

52
stanno
ancora raccogliendo dati - che nel corso dell'evoluzione
biologica
sia cambiata la qualità del sistema dinamico, con un aumento
di
complessità che tende verso sistemi altamente instabili (un
esempio è
il cervello dei primati la cui instabilità permette
amplificazioni e
polarizzazioni in ogni direzione).
Anche qui vediamo all'opera l'irreversibilità,
nell'autonomia degli
esseri che tendono a diventare sempre piú indipendenti dal
mondo
esterno.
Questa complessità e questa autonomia trovano, a mio avviso,
il
migliore esempio nel tempo musicale. In cinque minuti
meccanicamente
misurati di un'opera di Beethoven ci sono tempi rallentati,
accelerati, ritorni indietro, premesse di quanto accadrà in
seguito,
tutto ciò nei cinque minuti del tempo astronomico.
E' questa preparazione alla complessità e all'autonomia del
tempo
musicale che vediamo emergere nel corso dell'evoluzione e che
possiamo comprendere come la storia degli attrattori. E' per
questo
che ho centrato la mia conferenza sulla nozione di attrattore,
dall'esempio piú banale, l'attrito, agli attrattori complessi
della
neurofisiologia e del clima.
Ho detto che la vita ha creato il tempo, ma questo è potuto
avvenire grazie alla creazione delle biomolecole. In realtà,
la
probabilità delle sequenze dei polimeri è estremamente diversa
vicino
all'equilibrio e lontano dall'equilibrio: vicino, sarebbe
nulla,
lontano, diventa apprezzabile. Si può pertanto dire che le
biomolecole sono molecole organiche la cui simmetria è stata
rotta
dall'irreversibilità (infatti occorre leggere le biomolecole
in un
certo ordine, da sinistra a destra, cosí come si legge questo
testo).
Questa rottura di simmetria spaziale è l'espressione della
rottura di
simmetria tra passato e futuro. In tutti i fenomeni che
osserviamo,
vediamo il ruolo creativo dei fenomeni irreversibili, il ruolo
creativo del tempo.
Nella concezione classica, l'irreversibilità era legata
all'entropia, e questa a sua volta a una probabilità. Ma come
s'intendeva la probabilità? Per coloro che, come Boltzmann,
avevano

53
avuto l'idea di esprimere l'irreversibilità grazie a una
probabilità,
la risposta era ovvia: la probabilità nasceva dalla nostra
ignoranza
delle traiettorie esatte. Dunque l'irreversibilità è
l'espressione
della nostra ignoranza.
Oggi, di fronte al ruolo creativo dei fenomeni
irreversibili,
questa concezione viene a cadere: altrimenti saremmo costretti
ad
attribuire le strutture che osserviamo alla nostra ignoranza.
E' vero
che l'ignoranza è madre di molte disgrazie, ma è pur sempre
difficile
attribuirle il potere di crearci. Dobbiamo dunque superare la
tentazione dell'ignoranza, come abbiamo superato la tentazione
di
spiegare la meccanica quantistica con delle variabili
nascoste.
Allora, qual è il cammino? Sappiamo oggi che nei sistemi
dinamici
instabili, la nozione di traiettoria perde il suo senso: due
punti,
vicini quanto vogliamo, si allontaneranno esponenzialmente,
secondo
un numero chiamato «esponente di Ljapuno». L'instabilità
distrugge il
carattere delle traiettorie e modifica i nostri concetti di
spazio-tempo. Einstein aveva già esplicitamente riconosciuto
che i
problemi dello spazio-tempo e della materia erano collegati.
Ora
dobbiamo andare oltre, capire che la struttura dello spazio-
tempo è
legata all'irreversibilità, o che l'irreversibilità esprime
anche una
struttura dello spazio-tempo.
Il messaggio del secondo principio della termodinamica non è
un
messaggio d'ignoranza, è un messaggio sulla struttura
dell'universo.
I sistemi dinamici che sono alla base della chimica, della
biologia,
sono sistemi instabili che procedono verso un futuro che non
può
essere determinato in anticipo perché essi tenderanno a
coprire tante
possibilità, tanto spazio quanto è a loro disposizione.
Dobbiamo riesaminare il senso del secondo principio: invece
di un
principio negativo, di distruzione, vediamo emergere un'altra
concezione del tempo. La fisica classica aveva prodotto
soltanto due
nozioni di tempo: il «tempo-illusione» di Einstein, e il
«tempo-degradazione» dell'entropia. Ma questi due tempi non si

54
applicano alla situazione odierna. Nei suoi primi istanti
l'universo,
ancora piccolissimo e caldissimo, era un universo di
equilibrio. Ora
si è invece trasformato in un universo di non-equilibrio.
L'esistenza
stessa di materia e non di antimateria è prova di una rottura
di
simmetria. La meccanica, che tratta di punti materiali, si
occupa in
effetti di una delle manifestazioni dell'irreversibilità. Non
vi
sarebbero punti materiali, non vi sarebbero oggetti in un
universo
d'equilibrio. L'evoluzione dell'universo non è stata nella
direzione
della degradazione ma in quella dell'aumento di complessità,
con
strutture che appaiono progressivamente a ogni livello, dalle
stelle
e le galassie ai sistemi biologici.
Alcuni credono di sapere che l'avvenire dell'universo potrà
essere
soltanto una sua ripetizione secondo l'idea per cui il tempo
non è
che illusione; oppure consisterà in un'inevitabile decadenza,
dovuta
all'esaurimento delle risorse, come vuole la termodinamica
classica.
La realtà dell'universo è piú complessa: sui tempi lunghi e a
livello
cosmologico sono implicate sia la gravitazione sia l'entropia,
e il
gioco della gravitazione e dell'entropia è ben lungi
dall'essere
chiarito. Si può già da ora pensare che, una volta chiariti
questi
collegamenti piú complessi, l'idea di poter sapere se
l'universo si
riprodurrà senza fine oppure se decadrà fino a sparire per
dissipazione, apparirà semplicistica. La dialettica tra
gravitazione
e termodinamica può generare molte possibilità e dopo altri
secoli di
fisica giungeremo a una situazione piú ragionevole, che tenga
conto
della complessità che ci circonda.
Non possiamo prevedere l'avvenire della vita o della nostra
società
o dell'universo. La lezione del secondo principio è che questo
avvenire rimane aperto, legato com'è a processi sempre nuovi
di
trasformazione e di aumento della complessità. Gli sviluppi
recenti
della termodinamica ci propongono dunque un universo in cui il
tempo

55
non è né illusione né dissipazione, ma nel quale il tempo è
creazione.

Energia
(in collaborazione
con Isabelle Stengers)

Testo della voce "Energia" dell'Enciclopedia Einaudi, vol'


V,
Torino, 1978.

Verso la fine del Xix secolo, nel momento in cui moltissimi


fisici
ritenevano che la fisica fosse ormai un campo d'indagine
praticamente
chiuso, poiché tutti i problemi importanti erano stati, almeno
nelle
linee essenziali, risolti, alcuni ricercatori si dedicarono al
compito di ricavare degli insegnamenti da ciò che essi
vedevano come
storia acquisita. Questo è il caso, in particolare, di Wilhelm
Ostwald, fondatore della scuola energetica, il quale si
propose di
mostrare non soltanto che la scoperta e la messa in opera del
concetto di energia costituiscono l'apogeo della scienza, cui
viene
rivelato ciò che essa ha sempre cercato; non soltanto che
l'insieme
dei processi naturali può essere ricondotto al trasferimento e
alla
conversione mutua di differenti forme di energia; ma in più
che la
stessa storia della civiltà può essere posta sotto il segno
dell'energia: storia dell'utilizzazione sempre più economica
ed
efficace dell'energia bruta offerta dalla natura.
Come spiegare questo preminente ruolo intellettuale svolto
dall'energia? Si deve qui evocare la scoperta, verso la metà
del Xix
secolo, che alcune trasformazioni fisico-chimiche, alcuni
fenomeni
elettrici e magnetici, fino ad allora studiati separatamente,
sono
tra loro legati, perché possono essere prodotti gli uni con
gli
altri; e che l'energia costituisce un equivalente generale di
tutta
questa rete di trasformazioni reciproche: l'energia, in tutti
gli
«effetti» studiati in laboratorio e in tutti i processi che
costituiscono la natura animata e inanimata, si mantiene
invariante
in quantità pur cambiando «forma»; dal punto di vista
dell'energia,
la rete che connette i fenomeni fisici più vistosamente
differenti è

56
una rete di conversioni.
Da allora in poi, il concetto di energia influenzerà in
modo molto
profondo la concezione che certe discipline scientifiche si
fanno
dello scopo della scienza, dell'intelligibilità della natura.
Ad
esempio, perOstwald i modelli fondati sulla materia, più
precisamente
i modelli atomici, debbono essere abbandonati; essi hanno
avuto la
loro ragion d'essere nell'aiuto dato alla formulazione del
concetto
di energia, ma ormai, come un'impalcatura servita allo scopo,
vanno
dimenticati; d'altra parte, certe discipline scientifiche che
si
stavano affermando in quell'epoca si dedicano a descrivere il
proprio
oggetto come una macchina per conversioni, regolata
dall'invarianza
fondamentale dell'energia, che permette di connettere i
fenomeni
d'ordine più diverso: così, per Freud, ad esempio, la libido
sessuale
costituisce un tale equivalente generale per tutte le
manifestazioni
della vita psichica.
La scuola energetica sparì nei tumulti delle «crisi» della
fisica
contemporanea, nel momento in cui gli operatori scientifici si
preoccupavano più di mettere in dubbio i concetti fondamentali
della
fisica che di stilare bilanci e tracciare quadri d'insieme
della sua
storia. Il concetto di energia, ciò nonostante, non ha perduto
nulla
della sua importanza. Così, per esempio, la descrizione fatta
da
Ostwald del progresso delle civiltà in funzione dei loro
consumi
energetici può essere messa in rapporto con alcuni tentativi
contemporanei di comprendere la relazione tra l'organizzazione
di una
società, la quantità di energia richiesta dal suo
funzionamento, e la
natura delle condizioni tecnologiche, economiche e politiche
necessarie perché tale quantità di energia sia disponibile.
Inoltre,
se da un lato il concetto di energia ha subìto, durante le
crisi
della fisica del Xx secolo, trasformazioni profonde, ciò
nondimeno
esso resta al centro delle nuove discipline, e proprio queste
trasformazioni, ad esempio l'equivalenza energia-materia, la
discontinuità dell'energia, simboleggiano per tutti il

57
rinnovamento
della fisica.
Ma d'altro canto, al di là degli sconvolgimenti spettacolari
della
fisica, il problema al quale gli energisti credevano di avere
trovato
la risposta - come descrivere scientificamente il cambiamento
- si
pone oggi in termini che offrono una certa continuità con il
passato.
L'energia prendeva a simbolo l'invarianza come chiave per
l'intelligibilità del cambiamento, come possibilità di
comprendere il
cambiamento grazie a ciò che, attraverso ad esso, rimane
invariato.
Essa incarnava così, in maniera eminente, il tipo
d'intelligibilità
che il filosofo francese delle scienze, Emile Meyerson,
descrive come
costituente l'obiettivo stesso dell'impresa scientifica in
generale:
la riduzione del diverso a un'identità più fondamentale, del
cambiamento a una permanenza profonda. Oggi, ed è ciò che
questo
articolo si propone di mostrare, la posizione e il ruolo
dell'energia
nelle differenti scienze fisiche del cambiamento e dei
processi
naturali appaiono ancora cruciali. In effetti è proprio qui
che si
decide l'esito di quelle stesse domande, a cui il Xix secolo
credeva
di avere risposto, sulle posizioni relative della permanenza e
del
divenire; è qui infatti che si decide la natura stessa di
queste
scienze: scienze del divenire, oppure scienze meyersoniane,
scienze
dell'essere.
Meyerson non aveva riconosciuto la possibilità di scienze
del
divenire, di scienze che comprendono il cambiamento senza
ricondurlo
a un'invarianza più fondamentale. Una scienza dell'energia, la
termodinamica, gli offriva purtuttavia un esempio, ed egli lo
sapeva:
ma per lui il secondo principio della termodinamica - il quale
prevede ciò che s'interpreta spesso come degradazione
irreversibile
dell'energia, una perdita delle proprietà collegate a certe
forme di
energia senza che si possa identificare da nessuna parte un
guadagno
per ristabilire l'equivalenza - costituiva una dimostrazione
che la
natura  resiste all'attacco della ragione umana,

58
l'identificazione
del cambiamento con una permanenza fondamentale.
Questo saggio si limiterà a questi aspetti del problema
dell'energia: esso esaminerà brevemente come viene formulato
il
concetto di energia nelle scienze dell'essere, la dinamica
classica e
la meccanica quantistica, e come si è affermata in
termodinamica
l'idea di evoluzione irreversibile. Esso sarà dedicato a
evocare la
fecondità storica della sfida che costituì per la scienza
dell'essere
per eccellenza, la dinamica, la definizione mediante un'altra
scienza, di evoluzioni fisiche irreversibili, prevedibili e
riproducibili; la meccanica statistica, la teoria ergodica,
più
recentemente la teoria della stabilità debole sono conseguenze
di
questa situazione, ma nessuna ha potuto rispondere in maniera
soddisfacente alla sfida dell'irreversibilità. Questo articolo
si
concluderà sulla prospettiva dei lavori effettuati sotto la
direzione
di uno degli autori, lavori che, invece di tentar di
conciliare la
dinamica, scienza dell'essere, con la possibilità generale di
evoluzioni irreversibili, tendono a fare della dinamica una
scienza
del divenire, ad allargare il campo dei suoi oggetti e delle
sue
domande, di modo che la dissipazione irreversibile partecipi
ormai
alla definizione stessa degli oggetti della dinamica.

1. Energia e bilanci;
la fisica, scienza di ingegneri
Le prime sorgenti di energia naturale «bruta» messe in opera
in
maniera concertata sono state probabilmente l'acqua e il
vento. Ora,
il soffio del vento e il flusso dei fiumi, utilizzati o no, si
rinnovano costantemente, gratuitamente: e i mulini, per quanto
ingegnosi possano essere, non possono utilizzare che una
piccola
parte del loro movimento: è allora allo stesso tempo inutile e
vano
calcolare il rendimento di questa utilizzazione; è
preferibile,
mediante una ricerca empirica che si prolunga fino al Xix
secolo,
scoprire la forma delle pale o dell'elica capaci di produrre i
migliori risultati nelle circostanze diverse imposte dai
flussi
naturali che cambiano senza sosta.
Certamente esisteva un'altra fonte di lavoro, la forza degli

59
animali e degli uomini, e macchine (pulegge, leve, verricelli,
piani
inclinati) per utilizzarla al meglio: un sistema di pulegge
permette
di mettere in movimento una massa che una spinta diretta
lascerebbe
immobile. Ma Archita, che scoprì la puleggia, era rinomato
come
creatore di artifici che ingannavano e imitavano goffamente la
natura, e la leggenda racconta che lo stesso Archimede
utilizzava
macchine semplici più per meravigliare i suoi contemporanei
che per
insegnare loro l'aritmetica rigorosa delle equivalenze che
legano
causa ed effetto. "Macchina" e "meccanica" hanno radici
etimologiche
analoghe, che evocano anche "macchinare", "macchinario": allo
stesso
tempo, "ingegnosità" evoca piuttosto astuzia che intelligenza
deduttiva e analitica; in generale, i costruttori di macchine,
gli
ingegneri, fino all'epoca moderna furono considerati
costruttori di
meraviglie, di artifici capaci di usare astuzia con la natura,
di
ingannarla e di ottenere da essa la creazione di effetti non
appartenenti all'ordine naturale, superiori a quelli prodotti
dalle
operazioni della natura: lungi dall'essere in qualche modo
meccanica,
la natura è dai meccanici assimilata ad una macchina.
Quantunque Leonardo da Vinci e alcuni altri prima di lui
avessero
affermato a proposito di certe macchine che non c'era nulla di
miracoloso, ma al contrario sottomissione alle leggi stesse
della
natura, si ritiene generalmente che sia stato Galileo il primo
a
fondare i suoi studi di meccanica in maniera sistematica su
questo
principio; la natura non può essere ingannata, non si può, con
astuzie di qualunque genere, ricavarne dei regali. Da quel
momento le
macchine semplici realizzano la potenza che l'uomo può
acquisire
sottomettendosi alla natura e scoprendo leggi a cui in nessun
modo ci
si può sottrarre.
Infatti, enuncia Galileo, le macchine semplici non producono
nulla
di per sé, non costituiscono che dei dispositivi passivi per
mezzo
dei quali viene trasmesso il movimento, cambiata la sua
direzione,
massimizzata la sua utilità. Si consideri il caso del sistema

60
di
pulegge che sembrava agli antichi l'esempio tipico di
creazione di un
effetto nuovo là dove un movimento naturale non potrebbe
produrne
alcuno; un cavallo tira una massa M con la forza massima F che
può
fornire; l'accelerazione impressa a questa massa, teoricamente
ZFTMW@, sarà di fatto nulla a causa degli attriti, se la massa
è
grande: il cavallo non riesce a smuovere la massa, non può
spostare
la corda sulla quale esercita lo sforzo. Il sistema di pulegge
che
può rimediare a questa impotenza del cavallo è tale che se
quest'ultimo tira la corda per una lunghezza l, la massa di
per sé
non si sposta che di ZlTxW@, ove x dipende dal numero delle
pulegge
del sistema. Di conseguenza, con la stessa forza, il cavallo
può
imprimere alla corda in ciascun istante un'accelerazione x
volte più
grande che non prima, il che permette, all'occasione, di
vincere gli
attriti e di mettere in movimento la massa.
Due conclusioni si possono immediatamente trarre da questo
esempio:
la  novità dell'effetto - la massa si muove benché prima
sembrasse
inamovibile - proviene dal fatto che le macchine reali
funzionano in
un mondo non ideale, ove gli attriti, il riscaldamento, le
deformazioni fanno sì che le masse pesanti alle quali sia
applicata
una forza piccola non solo hanno un'accelerazione molto
piccola, ma
non si muovono del tutto, «resistono»; nel mondo ideale, in
cui
Galileo calcola l'effetto della macchina, non si produce nulla
di
nuovo: alla fine di un determinato periodo di tempo il
cavallo, che
non cessa di tirare con la sua forza F, avrà spostato la massa
della
stessa distanza, con o senza pulegge; nel secondo caso, la
sola
differenza sta nell'aver lui percorso una distanza tanto più
grande
quanto più numerose sono le pulegge del dispositivo. La
macchina
semplice non può aumentare il rendimento di uno sforzo proprio
per il
fatto che, nel mondo degl'ingegneri, il rendimento è sempre
inferiore
a uno. Ma il mondo delle macchine semplici, così come lo ha

61
spiegato
Galileo, è un mondo in cui il rendimento è uguale a uno, ed è
in
quanto sono ideali che le macchine, sottoposte esse stesse
alla
legalità naturale, dànno accesso alla comprensione di questa
legalità: la caduta libera dei gravi è studiata grazie
all'artificio
del piano inclinato.

2. L'utilizzazione
dell'equivalenza tra causa
ed effetto: la reversibilità
del moto galileiano
La matematizzazione del moto pone il problema seguente, che
Galileo
dovette risolvere: come descrivere l'evoluzione delle
grandezze
caratterizzanti lo stato istantaneo di un corpo in movimento,
dal
momento che le misurazioni dirette non possono dare che
grandezze
medie, caratterizzanti globalmente un moto o un tratto di moto
di
lunghezza finita. Qual è la velocità di una caduta in ciascun
istante? Siano date due sfere identiche, di cui l'una cade e
l'altra
rotola lungo un piano inclinato: quando esse hanno percorso lo
stesso
dislivello, avvicinandosi della stessa quantità al centro
della
Terra, l'impetus delle due sfere, la «forza» acquisita nel
corso
delle loro rispettive cadute, sarà uguale. Perché? La risposta
è che
la forza acquisita in ogni istante di una caduta, qualunque
sia il
percorso della stessa, deve essere esattamente quella che
permetta ad
un corpo di risalire alla sua quota di partenza. Nel  Dialogo
dei
Massimi Sistemi (1632) è Sagredo il quale incarna il buon
senso
illuminato ma non istruito tecnicamente, l'uomo senza
pregiudizi ma
senza conoscenze scientifiche che enuncia questo ragionamento,
e
senza nessuna esitazione.
Ciò che il buon senso afferma in questo modo è l'equivalenza
in
ciascun istante tra causa identificabile come produttrice di
un
effetto ed effetto stesso: quest'ultimo, in linea di
principio, è
capace di ripristinare ciò che in qualità di causa si è
consumato nel

62
produrlo, e di riportare alla situazione iniziale. Per di più,
causa
ed effetto sono riconosciuti come di per sé evidenti: la causa
è il
dislivello percorso, l'altezza di cui un corpo in movimento è
disceso, verticalmente o sul piano inclinato; l'effetto è la
«forza»
proporzionale alla velocità istantanea acquisita durante tale
discesa.
La reversibilità tra causa ed effetto, equivalente, nel caso
di
macchine semplici, a ciò che noi intendiamo essere un
rendimento
uguale a uno, è direttamente legata al postulato
dell'impossibilità
del moto perpetuo: se l'inversione del senso del moto
accelerato di
un corpo non ripristinasse la causa di detta accelerazione; o
se,
modificando lo stato di un corpo con la soppressione o
l'introduzione
tra i suoi punti di connessioni rigide, si potesse modificarne
la
capacità di causare un moto; sarebbe sempre possibile
immaginare
un'abile sequenza di operazioni tale che si possa guadagnare
del
moto, e così permettere a una macchina di lavorare
gratuitamente,
cosa che per i fisici del Xviii secolo diverrà sinonimo di
assurdità;
Huygens e i suoi successori baseranno su questo tipo di
ragionamento
per assurdo le loro osservazioni più decisive, ad esempio
quella in
cui si dimostra l'equivalenza tra la descrizione del movimento
d'un
insieme di masse con la descrizione del moto del centro di
gravità di
tale insieme.
Ciò che anzi viene saldamente stabilito è un approccio ai
fenomeni
fisici differente da quello che è effettuato dalla fisica
delle
traiettorie rappresentata per tutti dalle leggi di Newton: il
moto di
un corpo è qui descritto come l'evoluzione della sua capacità
di
produrre un movimento, di imprimere a un corpo un movimento
che gli
permetta di superare una distanza determinata  contro una
forza:
capacità di produrre un lavoro, diciamo noi dopo il Xix
secolo; un
tale approccio non tiene però conto della traiettoria seguita
da un

63
corpo ma unicamente di ciò che, in questa traiettoria, ha
provocato
una crescita o una diminuzione della capacità studiata;
nell'esempio
galileiano, solo i cambiamenti di altezza sono pertinenti ed è
indifferente che essi siano stati realizzati dopo un percorso
a
montagne russe o dopo una caduta verticale.
La fisica delle traiettorie e la fisica della conservazione,
o di
ciò che si può chiamare bilancio, formano, nel Xviii secolo,
due
tradizioni distinte. Il ragionamento newtoniano, secondo cui
forze
dipendenti dalle posizioni dei corpi determinano in ciascun
istante
la variazione delle velocità di tali corpi, non contiene
riferimenti
espliciti a una conservazione: i corpi decelerano o accelerano
senza
che sia stabilito alcun bilancio, senza che si possa,
apparentemente,
identificare in cosa la causa di un'accelerazione sia stata
diminuita
dall'accelerazione che essa ha prodotto. Per di più, la fisica
di
Newton è una fisica vettoriale e i vettori non dànno luogo ad
operazioni aritmetiche, essi si compongono e in tal modo
addizionano
i loro effetti rispettivi, oppure li cancellano in tutto o in
parte.
Il mondo delle forze newtoniane non sembra costituire un
sistema nel
senso in cui lo intendono gli ingegneri che studiano la
trasmissione
del moto tra corpi in contatto, per cui tutto ciò che viene
guadagnato in un punto si deve perdere in un altro punto. Si
noti di
passaggio che, per quanto concerne lo stesso Newton, l'idea di
conservazione, del mondo come sistema autoconsistente, gli era
estranea; a suo modo di vedere le forze sono una testimonianza
dell'attività divina rinnovantesi senza posa che anima il
mondo e
che, con la materia rarefatta e inerte, costituisce la natura.
Nella sua definizione meccanica generale della capacità di
fornire
un lavoro, l'energia non appartiene alla fisica delle forze ma
alla
fisica scalare delle macchine e dei bilanci, in cui, a causa
della
propria massa e della propria velocità, e indipendentemente
dalla
direzione del proprio moto, un corpo possiede una capacità di
fornire
lavoro, che una macchina potrà sempre orientare nella
direzione

64
voluta.

3. La convergenza lagrangiana:
le traiettorie sottoposte
a bilanci
Alla fine del Xviii secolo, Lagrange poneva fine agli sforzi
di
unificazione tra le due tradizioni, dando il modo generale di
porre
il problema di ogni movimento dinamico in termini scalari:
bisogna
allo scopo abbandonare la considerazione delle traiettorie
prese
individualmente, come le studiava la fisica newtoniana, e
descrivere
il sistema delle traiettorie, cioè l'evoluzione delle
posizioni
relative di un sistema di punti materiali definito come
porzione
isolabile del mondo. Pertanto non si studierà più come la
forza di
attrazione del Sole determini la traiettoria ellittica della
Terra,
ma le variazioni correlate di una funzione della distanza fra
Sole e
Terra, il potenziale, da cui può essere derivata tale forza di
attrazione, e di una funzione della velocità della Terra, la
forza
viva, mvâ2 (oggi si parla piuttosto di energia cinetica).
Potenziale
e forza viva sono funzioni scalari, l'una dipende unicamente
dalle
posizioni relative di tutte le particelle in interazione del
sistema,
l'altra somma i prodotti dei quadrati delle velocità per le
masse di
queste particelle. Il movimento dinamico di un sistema isolato
conserva la somma della forza viva e del potenziale.
Il lavoro che, senza essere nominato, stava alla base della
fisica
della conservazione, misura l'effetto dello spostamento di
alcuni
corpi in ciò che concerne le loro posizioni relative, vale a
dire il
valore del potenziale: il lavoro che un corpo, caratterizzato
da una
data velocità - e dunque da una forza viva -, è capace di
compiere
imponendo lo spostamento di una parte del sistema, è
equivalente alla
variazione del potenziale di questo sistema che il corpo
stesso può
in tal modo determinare; ogni lavoro compiuto da un sistema
sul mondo
esterno determina un'equivalente diminuzione del valore del
potenziale di questo sistema.

65
La reversibilità delle variazioni correlate tra forza viva e
potenziale, di cui il movimento pendolare costituisce la
migliore
illustrazione, passò, per ragioni storiche, sotto il nome di
«principio della conservazione delle forze vive». Lagrange e i
suoi
contemporanei pensavano che tale principio non valesse che per
moti
senza attrito, senza riscaldamento né urti, cioè per moti
ideali. Nel
mondo reale, la forza viva si perde a poco a poco e senza che
si
possa ricostituire, nello stesso modo in cui, nel mondo reale,
il
rendimento delle macchine è inferiore a uno. L'invarianza
della somma
di quelle che si chiamano oggi energia cinetica ed energia
potenziale
riassume pertanto le proprietà intelligibili del mondo degli
astri e
delle macchine ideali.
Il principio di conservazione cambierà fondamentalmente
quando, là
dove si vedevano conservazione ideale e perdita senza
ricostituzione,
si vedrà la conversione tra forme differenti di energia; la
conservazione diviene allora un principio assoluto, e ideale o
brutale. La trasmissione del moto si fa senza perdite, ma con
l'eventuale conversione del moto in calore. L'effetto totale,
tale
che la fisica possa identificarlo e farne un bilancio, è da
questo
momento sempre uguale alla causa piena, e questa verità
metafisica di
Leibniz, che il Xviii secolo derideva, diverrà nel Xix verità
fisica.
Si ritornerà più avanti su questa trasformazione del
principio di
conservazione, ma non prima di aver rifatto brevemente la
storia
dell'evoluzione successiva del problema meccanico centrato sul
concetto di energia, che si è appena definito come somma
dell'energia
potenziale e dell'energia cinetica.

4. L'energia, invariante
del movimento dinamico
Il formalismo lagrangiano è tuttora insegnato nei libri di
testo:
esso costituisce un metodo generale non per risolvere i
problemi
dinamici o per calcolare le traiettorie dei punti di un
sistema, ma
per formulare questi problemi, per quanto complicati essi
siano,
sotto la forma di n equazioni differenziali indipendenti del

66
secondo
ordine, ove n è il numero totale dei gradi di libertà del
sistema.
Nel Xix secolo, Hamilton formulò il problema dinamico in
maniera
ancora più astratta, non più in termini di coordinate spaziali
e
delle loro derivate rispetto al tempo, le velocità, ma
introducendo
coppie di variabili, p e q, coordinate e momenti, considerate
variabili indipendenti e legate da una relazione fondamentale
che le
definisce come variabili canoniche. Così uno stesso sistema
può
essere descritto mediante un'infinità di coppie di variabili
canoniche differenti legate tra di loro da trasformazioni
canoniche.
In questo formalismo, l'energia del sistema, somma delle
energie
cinetica e potenziale, svolge un ruolo fondamentale. Espressa
nelle
variabili canoniche, essa costituisce l'hamiltoniana del
sistema, che
viene lasciata invariante da tutte le trasformazioni canoniche
e da
tutti i possibili cambiamenti di variabili. L'hamiltoniana di
un
sistema permette di esprimere le equazioni di evoluzione delle
qª1,
..., qªn, pª1, ..., pªn corrispondenti agli n gradi di libertà
del
sistema sotto forma di 2n equazioni differenziali del primo
ordine.
Essa genera pertanto in qualche maniera il moto del sistema.
Durante il Xix secolo, e fino ai nostri giorni, gli sforzi
si sono
concentrati soprattutto sulla questione dell'identificazione
dei
problemi dinamici che possono essere effettivamente risolti in
questo
modo, cioè formulati in termini di equazioni differenziali
integrabili che permettano dunque il calcolo delle traiettorie
a
partire dalle 2n variabili canoniche.
In generale si può dire che un sistema integrabile è un
sistema in
cui l'hamiltoniana H[p, q] può essere espressa in termini di
coppie
variabili canoniche molto particolari, in termini di
coordinate
cicliche: le variabili d'azione §v e le variabili angolari ¶a.
Si può citare un esempio semplice, in cui le coordinate
cicliche
descrivono direttamente una situazione fisica invece di essere
il
risultato di una trasformazione complicata delle variabili

67
osservabili: è il problema di un corpo che ruota liberamente
attorno
a un asse, per cui ¶a misura l'angolo di rotazione e §v il
momento
angolare. Poiché l'energia del corpo non dipende dall'angolo
di
rotazione, ¶a non compare nell'hamiltoniana del sistema. E
poiché
l'energia potenziale dipende per definizione unicamente dalle
coordinate q - qui variabili angolari - questo termine è
identicamente nullo.
Allo stesso modo, ogni trasformazione canonica che porta a
coordinate cicliche di tale natura ha per effetto formale
l'annullamento del termine di energia potenziale
dell'hamiltoniana.
Tutta l'energia del sistema è con ciò attribuibile alle
particelle
del sistema prese isolatamente, così come le ha ridefinite la
trasformazione canonica; tali particelle, in questa
descrizione,
possono essere considerate come non-interagenti le une con le
altre
ed evolventi in maniera indipendente. Nello spazio definito
dalle
coordinate cicliche, i moti sono ricondotti a una sorta di
moti
«inerziali» e le interazioni non provocano più accelerazione.
Le n
variabili di azione §v sono mantenute costanti da questa
evoluzione,
mentre le variabili angolari ¶a evolvono come funzioni lineari
del
tempo:¶aªi=¶wªit+¶dªi, ove le ¶wªi sono frequenze
caratteristiche dei
movimenti periodici in termini dei quali il comportamento del
sistema
è stato decomposto e riespresso.
Questo tipo di formulazione fa apparire in modo evidente una
delle
caratteristiche essenziali dei sistemi conservativi descritti
dalla
dinamica lagrangiana o hamiltoniana: la loro memoria del
passato, la
loro completa determinazione mediante le condizioni iniziali.
Si è
visto che le variabili d'azione mediante cui è espressa
l'hamiltoniana sono costanti del moto: esse conservano dunque
i
valori che avevano nello stato iniziale durante tutta
l'evoluzione
del sistema; e inversamente, l'attribuzione di valori alle
variabili
d'azione di un dato istante basta a determinare completamente
l'evoluzione del sistema.
La formulazione hamiltoniana mette in risalto le proprietà
essenziali di tutti i sistemi dinamici integrabili, cioè

68
quelle
comprese nella struttura stessa delle equazioni, nella
sintassi del
linguaggio che si è rivelato adeguato ad esprimerli come
problemi
risolubili.
La proprietà più spettacolare è il determinismo delle
evoluzioni:
in ciascun istante, lo stato di un sistema è interamente
determinato
da quello che era il proprio stato iniziale; il ricorso alle
variabili cicliche, che trasforma l'evoluzione del sistema in
un
insieme di traiettorie indipendenti, fa dunque risaltare il
carattere
essenzialmente statico di questa evoluzione dinamica: la
traiettoria
di ciascun punto indipendente è definita da un invariante, lo
studio
dell'evoluzione delle variabili è ricondotto alla definizione
di
variabili tali da permettere di ricondurre l'evoluzione stessa
a
un'invarianza. In dinamica, fin dal primo istante, «tutto è
determinato». Infine, la reversibilità, vale a dire
l'invarianza
delle equazioni del moto sotto la trasformazione t :::o -t, è
ugualmente una proprietà dinamica fondamentale.
Fisicamente, che cosa può significare in concreto il
rovesciamento
del segno del tempo nelle equazioni dinamiche? Questa
operazione è in
effetti matematicamente equivalente al rovesciamento
istantaneo di
tutte le velocità. Se mediante un'operazione teoricamente
concepibile
(simulabile su di un elaboratore e realizzabile in certi casi
mediante l'inversione istantanea di un campo elettromagnetico)
tutte
le particelle ripartissero un dato istante nella direzione
contraria
a quella da cui provengono senza che cambi il valore assoluto
della
loro velocità (trasformazione v :::o -v), il sistema,
strettamente
parlando, «risalirebbe il tempo» e percorrerebbe in senso
inverso
l'evoluzione che lo ha condotto dallo stato iniziale allo
stato
dell'istante in cui avviene l'inversione, esattamente come un
film
che venga proiettato al contrario. Ognuno ha presente
l'impressione
di assurdità che tale proiezione provoca: fiammiferi
ricostruiti
dalla fiamma, calamai infranti che si ricompongono e in cui

69
rientra
l'inchiostro, ramoscelli che ringiovaniscono e ridiventano
germogli:
il mondo della dinamica è questo mondo assurdo, almeno nel
senso che
non lo esclude e dice possibili tali evoluzioni tanto quanto
quelle
dirette, come se seguissero in maniera deterministica una
situazione
iniziale adeguata, ad esempio quella instaurata
dall'operazione
d'inversione delle velocità.
Una delle conseguenze che risaltano allo stesso modo grazie
a
questo tipo di formalismo è che l'energia è lungi dall'essere
il solo
invariante del movimento dinamico. In effetti in un sistema
integrabile esistono tante costanti del moto quanti sono i
gradi di
libertà. Bisogna allora concludere che l'energia è solo una
costante
al pari di altre? Questa è la domanda che si pone Poincaré in
un
testo (1908) reso celebre dal suo «C'è qualcosa che rimane
costante».
Questo libro termina con una aporia: la sola maniera di fare
della
conservazione dell'energia qualcosa di diverso da una semplice
tautologia - poiché la descrizione dinamica si riconduce
identicamente alla definizione di tante costanti del moto
quanti sono
i gradi di libertà - è di valorizzare il fatto che l'energia è
un
invariante comune a un certo numero di evoluzioni possibili;
metaforicamente, «un limite imposto alla libertà» nel caso in
cui
l'evoluzione del sistema non escluda una certa variabilità.
Ma,
s'affretta ad aggiungere Poincaré, in dinamica non c'è che una
sola
possibilità, e nessuna libertà: sarebbe pertanto necessaria,
per dare
un senso non banale alla conservazione dell'energia,
un'ipotesi
non-determinista, vale a dire un abbandono radicale dei
principi
della dinamica.
Ma ci si può porre la domanda: qual è la ragione delle
perplessità
di Poincaré? Certo, nello sviluppo della dinamica, l'energia
ha avuto
un ruolo importante, ma è questa veramente una ragione perché
sia
così difficile riconoscere che si tratta di un invariante come
gli
altri? In effetti, la domanda di Poincaré trova la sua origine

70
nel
fatto che - parallelamente a questa evoluzione della dinamica
che
tende a sopprimere ogni privilegio all'energia - questo
concetto
prendeva un'importanza fondamentale non soltanto in una
scienza
affine, la termodinamica, fondata sul principio di
conservazione
dell'energia, ma anche in certi sviluppi della dinamica
stessa, come
la teoria ergodica e la meccanica statistica. Questi sviluppi
furono
d'altronde, come si vedrà, originati direttamente dal problema
delle
proprietà fisiche dei sistemi macroscopici, di cui la
termodinamica
aveva fatto vedere la novità essenziale rispetto alle
proprietà dei
sistemi dinamici noti.
La più spettacolare di queste novità è l'irreversibilità di
certe
evoluzioni termodinamiche, in contraddizione diretta con la
reversibilità fondamentale delle equazioni della dinamica.

5. Conservazione
e degradazione dell'energia
Quando si apre un testo di termodinamica s'incontra spesso,
nelle
prime pagine, la descrizione di strane macchine: la
descrizione del
ciclo di Carnot permette d'introdurre i due principi della
termodinamica, la costanza dell'energia e la crescita fino a
un
massimo dell'entropia dei sistemi isolati; in questa occasione
s'impara allora che il massimo di entropia, che corrisponde
allo
stato di equilibrio del sistema, è uno stato in cui l'energia
è
completamente degradata, e non può più fornire alcun lavoro.
Ciò
nonostante, ben presto il testo abbandona le macchine per il
formalismo della termodinamica dell'equilibrio e il secondo
principio
risulta allora la condizione di possibilità degli stati che si
studiano, stati che costituiscono il risultato finale
dell'evoluzione
irreversibile che descrive la crescita dell'energia.
Nella termodinamica stessa, la formulazione
dell'irreversibilità
non è per nulla semplice. La struttura eterogenea di molti
testi, che
spesso suscita la perplessità degli studenti a proposito di
questa
famosa «degradazione dell'energia» e del suo rapporto con il
formalismo che viene insegnato, riflette la natura complicata

71
della
termodinamica, prodotto di tradizioni intellettuali
eterogenee; la
nozione d'irreversibilità si è imposta in fisica, ha preso
senso in
occasioni di problemi di rendimento e di macchine: ha prodotto
da un
lato la tranquilla efficacia del formalismo dell'equilibrio, e
dall'altro una concezione profondamente nuova dei processi
naturali,
che trova la sua espressione radicale nell'idea di morte
termica
dell'universo. All'origine comune di questa doppia storia ci
sono le
macchine termiche e la scoperta che la conservazione
dell'energia non
basta a rendere conto del loro funzionamento.
Di primo acchito può sembrare curioso che Sadi Carnot sia
potuto
arrivare a quella che si considera tradizionalmente la prima
versione
del secondo principio della termodinamica nel 1826, vent'anni
prima
che, in maniera praticamente simultanea, una buona dozzina di
fisici,
ingegneri, fisiologi e medici enunciassero il «primo»
principio, la
conservazione quantitativa dell'energia attraverso la
molteplicità
delle sue trasformazioni. Come mai l'idea di «degradazione»
dell'energia, a cui si associa comunemente il secondo
principio, è
riuscita a precedere l'identificazione dell'energia come
invariante
generale delle trasformazioni fisico-chimiche e anche l'idea
che
esista un qualche rapporto tra la diversità di queste
trasformazioni?
Il fatto è che il «secondo principio», come lo formulò Carnot,
non ha
per nulla bisogno di un primo principio, o della nozione di
energia;
esso si situa all'incrocio di due tradizioni indipendenti che
avevano
tutte e due raggiunto all'epoca un altissimo grado di
sviluppo,
quella della fisica del calore, che descrive le trasformazioni
della
materia provocate dal calore considerato come un fluido
imponderabile
e indistruttibile, e quella della meccanica razionale;
quest'ultima
tradizione s'incarna in modo preciso in una tradizione
familiare: le
domande che Carnot pone a proposito del funzionamento della
macchina

72
a vapore sono una traduzione nel nuovo linguaggio della fisica
del
calore della descrizione teorica che suo padre aveva fatto
delle
macchine meccaniche.
Lazare Carnot, il riorganizzatore delle armate della
Repubblica,
era allo stesso tempo un ingegnere e l'autore di un trattato
sulle
macchine che ebbe all'inizio del Xix secolo una grande
influenza
sulla generazione dei primi testi di meccanica razionale per
gli
allievi delle grandi scuole d'ingegneria apparse a
quell'epoca. Noi
conserviamo di questo trattato soltanto una considerazione
qualitativa generale: affinché una macchina meccanica abbia il
miglior rendimento bisogna che la sua costruzione e il suo
regime di
funzionamento siano tali che gli urti, gli attriti, i
cambiamenti
bruschi di velocità, in breve tutto ciò che proviene dalla
messa in
contatto di corpi con velocità differenti, siano evitati al
massimo.
Se tutte le trasmissioni del moto tra le differenti parti
della
macchina hanno luogo in modo progressivo, senza discontinuità,
il
funzionamento meccanico conserva la forza viva: dopo un ciclo
di
funzionamento, quando la macchina ritorna al suo stato
iniziale dopo
avere restituito al mondo esterno il movimento che ha
ricevuto, ha
trasmesso al mondo una quantità di forza viva pari a quella
che l'ha
messa in moto. Tutti gli attriti, tutti gli urti, tutte le
trasformazioni discontinue determinano una perdita senza
ritorno di
forza viva e un rendimento inferiore a uno.
Lazare Carnot precisò le condizioni ideali di funzionamento
delle
macchine meccaniche. Suo figlio si pose le stesse questioni
per le
nuove macchine, le macchine termiche venute dall'Inghilterra,
il cui
rendimento effettivo era continuamente accresciuto da
progressi
tecnologici accelerati.
Si troverà nell'articolo «Entropia» la risposta che Sadi
Carnot
diede al problema del rendimento ottimale delle macchine
termiche,
insieme con la descrizione del ciclo ideale che egli concepì
per

73
evitare ciò che aveva identificato come fonte di dispersione.
Mentre
suo padre, infatti, aveva concluso che la macchina meccanica
ideale è
tale se elimina tutti i contatti tra corpi con velocità
differente,
egli, per ciò che gli spettava, concludeva che la macchina
termica
ideale deve evitare ogni occasione di contatto diretto tra
corpi a
temperatura differente e ogni flusso di calore che non sia
legato ad
alcun effetto meccanico.
La descrizione teorica di Carnot è basata su due teorie
entrambe
false, quella della conservazione del calore (il «calorico»
che,
passando da una sorgente calda a una fredda, sviluppa una
quantità
determinata di potenza motrice) e quella secondo cui il calore
specifico varia con il volume. Queste due teorie, in modo
notevole ma
affatto caratteristico per il buon numero di relazioni
utilizzate nel
quadro della teoria del calorico, compongono i loro effetti in
maniera tale che la formula del rendimento ideale di Carnot
resistette alla demolizione della teoria del calorico.
La descrizione teorica di Sadi Carnot, come quella di suo
padre,
appartiene alla fisica della reversibilità e della
conservazione tra
causa (caduta del calorico) ed effetto (potenza motrice
rilasciata).
Sadi Carnot, non più di suo padre, non tenta di descrivere il
funzionamento effettivo delle macchine reali; la sua
descrizione si
limita alle situazioni ideali. Sarà necessaria una profonda
trasformazione concettuale della fisica affinché la
conservazione
divenga non più una idealizzazione ma un principio assoluto,
e,
correlativamente, l'irreversibilità divenga un problema per la
fisica.
Questa trasformazione non è stata generata dalla fisica del
rendimento, ma da quella delle conversioni. Non sono i motori,
bensì
altri dispositivi sperimentali, che nei laboratori europei
permetteranno di trovare nuovi «effetti», e la rete genuina
d'interconnessioni che questi effetti determinano tra processi
naturali diversi fino ad allora non connessi.
Si sa che il primo circuito percorso da una corrente
elettrica ebbe
luogo in un organismo biologico: la corrente galvanica
simboleggia
perfettamente l'incredibile abbraccio tra domini disgiunti, la
sconvolgente scoperta dell'unità dei processi naturali, che

74
daranno
al pensiero scientifico del Xix secolo la sua forma. Ma le
date e le
scoperte si accumulano rapidamente: nel 1800, Volta mette a
punto la
prima pila chimica: le reazioni chimiche possono produrre
corrente:
poi c'è l'elettrolisi: la corrente elettrica decompone
l'acqua,
provoca dunque una reazione chimica; ma la corrente provoca
anche la
produzione di luce e calore e, nel 1820, con Oersted, effetti
magnetici; nel 1822 Seebeck mostra che il calore può produrre
corrente e Peltier nel 1834 mostra come raffreddare un corpo
grazie
all'elettricità; infine Faraday, nel 1831, mette in evidenza
la
produzione di corrente indotta da effetti magnetici.
Questa lista di fatti e di date ha lo scopo di fare
intravedere
l'intensità dello sconvolgimento intellettuale determinato
dalla
fisica sperimentale in pochi decenni; nei laboratori si
costituisce
una vera rete ove ciascun fenomeno è allo stesso tempo punto
di
partenza e di arrivo di trasformazioni, senza che nessuno
possa
apparire più fondamentale di altri; nello stesso tempo in cui
si
scopre questa unità fondamentale dei fenomeni, conosciuti fino
a quel
momento separatamente, si instaura la convinzione che «qualche
cosa
si conserva» e che, soggiacente a queste diversità tra loro
connesse,
ci sia una realtà unica e invariante, e questo molto prima che
una
qualunque equivalenza tra causa ed effetto possa essere
stabilita,
molto prima che un campione comune possa permettere una
quantificazione di queste trasformazioni.
Nel 1847 Joule diede un contenuto quantitativo al principio
di
conservazione dell'energia, misurando il lavoro meccanico
necessario
per innalzare di un grado la temperatura di una certa quantità
d'acqua, e ottenendo così un campione per la conversione tra
energia
meccanica e termica. Era così nata la scienza dell'energia,
che si
trasforma qualitativamente, ma si conserva in quantità. La
nozione di
energia costituiva ormai il filo conduttore necessario per
l'esplorazione della trama intricata dei fenomeni chimico-
fisici e

75
biologici.
Fin dalla sua nascita, il principio di conservazione
assunse, per i
suoi creatori, valore di principio assoluto. Così Joule,
certamente
poco sospettabile di essere un visionario, scriveva sul
«Courier» di
Manchester nel maggio del 1847: «In verità i fenomeni
naturali, sia
meccanici, che chimici o vitali, consistono quasi totalmente
in una
conversione continua tra forza di attrazione spaziale, forza
viva e
calore. Pertanto, è così che l'ordine è mantenuto
nell'universo;
nulla viene turbato, nulla viene perso, e l'intero
macchinario, per
quanto complicato possa essere, lavora dolcemente e
armoniosamente. E
sebbene, come nella terribile visione di Ezechiele, "la ruota
può
essere nel mezzo della ruota", e ogni cosa può sembrare
complicata e
coinvolta in un'apparente confusione e intrico di una varietà
quasi
senza fine di cause, effetti, e accomodamenti, purtuttavia
viene
conservata la più perfetta regolarità: il tutto essendo
governato
dalla sovrana volontà di Dio».
Nel contesto della nuova scienza delle conversioni
energetiche, la
teoria di Carnot poneva dei problemi su almeno due piani.
Anzitutto,
sul piano della descrizione della macchina, il piano
tecnologico, il
ciclo di Carnot sembra portare a una creazione di energia
senza
consumo di calore, cioè a un'assurdità. Inoltre l'idea che
tutte le
macchine reali funzionino in perdita, con un bilancio
deficitario,
pone un nuovo problema: la scienza dell'energia, poiché si
occupa di
processi reali e non di idealizzazioni, deve poter descrivere
la
macchina reale, e in che cosa si trasforma l'energia che manca
al
bilancio.
Al primo problema, Clausius rispose nel 1850. La sua
risposta mette
in luce la differenza tra macchina meccanica e macchina
termica.
Mentre la prima trasmette il moto senza subire essa stessa
trasformazioni, la seconda produce moto a partire dal calore.
Il

76
calore le fa subire un cambiamento di stato, un cambiamento
delle sue
proprietà chimico-fisiche, vale a dire, tra le altre, delle
sue
proprietà meccaniche. La macchina termica sfrutta la
dilatazione
meccanica prodotta dal calore, ma affinché il ciclo si chiuda,
e la
macchina possa continuare a funzionare, bisogna che si siano
prodotti
non solo questa «conversione» di calore in lavoro, ma un
secondo
processo che compensi il primo e che riconduca il sistema al
suo
stato chimico-fisico iniziale. La formula del rendimento
ottimale di
Carnot definisce, secondo l'interpretazione di Clausius,
l'equivalenza, dal punto di vista della trasformazione
chimico-fisica
del sistema motore, dei due processi di cui il sistema è sede
in
ciascun ciclo: il processo di conversione e un flusso di
calore verso
la sorgente fredda. Il calore ceduto al sistema dalla sorgente
calda
è dunque utilizzato per i due processi accoppiati e uniti da
una
relazione di equivalenza reversibile: la macchina ideale può
funzionare al contrario, raffreddare la sorgente fredda e
consumare
lavoro.
Si troverà nell'articolo «Entropia» la definizione della
grandezza
entropia introdotta nel 1865 da Clausius, per precisare
l'equivalenza
tra le trasformazioni chimico-fisiche determinate da scambi di
calore. L'introduzione dell'entropia permise a Clausius di
abbandonare il contesto tecnologico del problema del
rendimento per
enunciare un principio generale, il secondo principio della
termodinamica. Le trasformazioni non ideali subite da un
motore,
quelle in cui del calore fluisce verso la sorgente fredda in
quantità
maggiore di quella imposta dalla relazione di compensazione,
appartengono alla classe generale dei «processi irreversibili»
produttori di entropia, che conservano l'energia ma sfuggono
al
bilancio delle conversioni reversibili. L'energia «dissipata»
irreversibilmente in calore non è più disponibile per altre
conversioni e non può più, in particolare, fornire effetti
meccanici
utilizzabili.
I due principi, enunciati da Clausius, il principio di
conservazione dell'energia e quello di crescita dell'entropia,
si

77
presentano come principi universali, valevoli per la totalità
dei
processi naturali. La termodinamica si è in tal modo
emancipata, da
scienza delle macchine è diventata scienza della natura.
Tuttavia,
ciò che essa afferma della natura, cioè che essa non è capace
di
descrivere i processi irreversibili se non tramite il fatto
che essi
fanno crescere l'entropia, altro non è se non l'idea, da
sempre nota,
che nessuna macchina è ideale, che tutti i funzionamenti reali
sono
uniti a perdite irreversibili. Il profondo paradosso è che
l'universalizzazione dei due principi si è fatta in due sensi
opposti: allorché il primo principio attribuisce a tutti i
processi
una proprietà che la scienza del Xviii secolo riconosceva solo
ai
modelli idealizzati, il secondo principio definisce come
universale
la mancanza stessa di idealità, descritta non più come perdita
ma
come dissipazione.
Come spiegare che l'idea del rendimento reale inferiore al
rendimento ideale si sia mutata in un principio universale che
assimila l'universo a una macchina non ideale?
Si può anzitutto notare che, nel momento in cui Clausius
enuncia,
nel 1865, le sue due leggi, egli tiene presenti i lavori del
fisico
William Thomson che, proprio prima di lui, aveva ugualmente
riconciliato Carnot e Joule; in quanto Thomson aveva, quasi
allo
stesso tempo (1852), enunciato la «tendenza universale alla
degradazione dell'energia meccanica» e l'enunciato di Clausius
sembra
avere soprattutto lo scopo di dimostrare che l'entropia
permette di
esprimere con eleganza questa tendenza. Ma il problema è così
riportato allo stesso Thomson, del quale una serie di ragioni
biografiche, tanto scientifiche quanto ideologiche, permette
di
spiegare l'orientamento intellettuale. Tra di esse, se ne
sceglierà
una sola, poiché questa riveste un interesse quasi estetico:
l'importanza fondamentale che Thomson attribuisce alla legge
di
Fourier, la legge di propagazione del calore tra due corpi di
temperatura diversa. Questa legge costituisce la prima
descrizione
matematica di un fenomeno irreversibile che conduce
all'equilibrio
termico, ove tutte le temperature sono uniformi (e l'entropia
massima); ma, all'inizio del Xix secolo, essa aveva avuto per

78
un'altra ragione un'importanza culturale decisiva: si trattava
della
prima descrizione matematica astratta quanto le leggi della
dinamica
e non riconducibile ad esse; la prova di una verità allora
quasi
scandalosa: una teoria poteva essere matematica pur non
essendo
newtoniana. Auguste Comte fondò sulla differenza non sanabile
tra
Newton e Fourier l'idea della divisione tra le scienze,
l'abbandono
del progetto proprio degli illuministi dell'unificazione dei
vari
campi di conoscenza scientifici, autonomi e di ugual valore.
Ma la legge di Fourier, fondamento della tranquilla chiusura
positivista, ispirò a Thomson, in Inghilterra, tutt'un'altra
idea,
punto di partenza per un interrogativo sull'irreversibilità
giunto
fino a noi, e causa dello sconvolgimento di molte
classificazioni e
di profonde divisioni; la legge di Fourier, per Thomson, era
la prova
che può esistere, universale quanto la legge di Newton, una
legge che
descrive le perdite in un motore termico: poiché le perdite
per
conduzione sono determinanti nell'abbassare il rendimento del
ciclo
di Carnot, la legge di Fourier costituisce tal quale una legge
universale di degradazione e dà una formulazione matematica e
riproducibile ai processi in seguito ai quali la
trasformazione tra
calore ed energia meccanica non è mai completamente
reversibile.
Indipendentemente da questa ragione puramente scientifica di
collegarsi all'irreversibilità dei processi di trasformazione,
è
possibile ritrovare nel contesto culturale del Xix secolo
delle
ragioni determinanti non solo per l'interesse di Thomson
stesso, ma
soprattutto per la ripercussione e l'importanza prese dalle
sue
ricerche sul carattere irreversibile delle trasformazioni
della
natura. Questa tendenza alla dissipazione, attribuita non
soltanto
alle macchine create dall'uomo e quindi imperfette, ma alla
natura
stessa, significa che s'introduce in fisica il tempo
orientato, il
divenire, il che significa affermare scandalosamente che fino
a quel
momento la fisica non aveva detto nulla. Si noti che lo

79
scandalo
scoppiava proprio in quell'epoca nella quale si scopriva il
carattere
profondamente storico delle evoluzioni geologiche, biologiche,
umane
e sociali, in quel secolo Xix di cui Boltzmann soleva dire che
era
stato il «secolo dell'evoluzione».
Sebbene privo fisicamente di un senso preciso, poiché la
crescita
irreversibile dell'entropia non è, in modo generale, riferita
alla
descrizione di processi fisici precisi, fino alla creazione
della
«termodinamica dei fenomeni irreversibili», il secondo
principio
costituisce, all'interno della fisica, un segnale, il segnale
della
presenza di un problema ormai al di fuori dei suoi limiti:
l'orientazione intrinseca del tempo nei processi naturali.
Nella
misura in cui la scienza del Xix secolo intende descrivere la
natura
stessa e non dei modelli idealizzati di essa, conservativi e
reversibili, essa non può ignorare tale segnale, rifiutarne il
posto
nel tempo. Il secondo principio indica questo posto, ma non lo
occupa.

6. Dinamica e irreversibilità
La storia della dinamica dopo la formulazione dei principi
della
termodinamica è un esempio tanto più spettacolare del
carattere
fecondo dei problemi generali che si pongono nel punto
d'incontro di
discipline diverse, problemi che tutti i positivismi si
accordano nel
bandire o nel ridurre a problemi terminologici, in quanto la
dinamica
sembrava a molti, dopo il Xviii secolo, una scienza conclusa,
ormai
senza più storia.
Il secondo principio fornisce una descrizione estranea alla
dinamica, fondata su proprietà che la dinamica non sembrava
poter
permettere di attribuire, in particolare sul fatto che ci si
dimentica, in maniera irreversibile, delle condizioni
iniziali. In
effetti il secondo principio permette di definire sia lo stato
di
equilibrio come uno stato con proprietà riproducibili, verso
il quale
un sistema isolato evolve sempre, qualunque sia la definizione
dinamica delle sue condizioni iniziali, sia una funzione che
non può

80
che crescere, o restare costante in condizioni di equilibrio,
ma mai
diminuire. Dare a queste proprietà un'interpretazione dinamica
era
tuttavia necessario, se la dinamica intendeva conservare il
suo
statuto di scienza fondamentale e non essere accantonata al
pari di
quei modelli ideali estremamente semplici che non si possono
applicare alla natura se non in casi particolarissimi, mentre
le
scienze macroscopiche dell'energia avrebbero potuto pretendere
di
descrivere l'insieme delle trasformazioni e dei processi che
costituiscono il mondo naturale. Necessario se la dinamica, la
scienza dei punti materiali che interagiscono, intendeva
reagire alla
conclusione degli energisti: la materia è scomparsa, la natura
è
energia.
Il problema che la dinamica ha potuto risolvere con maggior
successo è il problema della posizione privilegiata
dell'energia e
del principio della sua conservazione in termodinamica, e più
in
particolare della descrizione degli stati di equilibrio
termodinamico. La teoria degli insiemi di Gibbs, teoria
fondamentale
della meccanica statistica, permette in effetti di dare allo
stato di
equilibrio termodinamico un'interpretazione statistica grazie
alla
quale le proprietà macroscopiche del sistema in equilibrio
possono
essere dedotte dalla quantità di energia in esso contenuta.
La teoria degli insiemi di Gibbs si basa sul postulato
secondo cui,
se di un sistema dinamico si conoscono solo alcune proprietà,
insufficienti per definire a un dato istante il suo esatto
stato
dinamico, tutti gli stati dinamici compatibili con proprietà
conosciute debbono considerarsi come aventi la stessa
probabilità di
rappresentare lo stato reale del sistema: questo è allora
determinato
dall'insieme rappresentativo di tutti questi possibili stati
dinamici, vale a dire tramite un insieme di punti dello spazio
delle
fasi (spazio il cui numero di dimensioni è uguale al numero
dei gradi
di libertà del sistema descritto, di modo che ciascuno degli
stati
dinamici di questo sistema è rappresentato da uno e un solo
punto).
La meccanica statistica, invece di studiare la singola
traiettoria di

81
un sistema nello spazio delle fasi, studia l'insieme delle
traiettorie di tutti gli stati compatibili con le proprietà
note del
sistema. Più precisamente, essa studia l'evoluzione della
funzione di
distribuzione ¶r che misura la densità dei punti dell'insieme
rappresentativo in ciascun elemento dello spazio delle fasi.
Siccome
questa evoluzione è determinata dalla traiettoria di ciascuno
dei
punti, e poiché questi ultimi sono sottoposti alle leggi
deterministe
della dinamica, l'equazione di Liouville che dà l'evoluzione
di ¶r
nel corso del tempo, ëid¶rnpdtô-L¶r, è un'equazione della
dinamica,
l'operatore di Liouville L è interamente deducibile dal
formalismo
hamiltoniano, l'evoluzione di ¶r è determinista e reversibile.
Gibbs ha mostrato che, in particolare nei casi di un sistema
isolato (di cui l'insieme rappresentativo contiene solo punti
corrispondenti allo stesso valore dell'energia) e di un
sistema
chiuso in equilibrio termico con un serbatoio esterno, le
proprietà
di equilibrio corrispondono a un sistema rappresentato da una
funzione di distribuzione invariante nel corso del tempo, da
una
distribuzione uniforme dell'insieme rappresentativo su tutti i
punti
dello spazio delle fasi corrispondenti allo stesso valore
dell'energia (rispettivamente le superfici microcanoniche e
canoniche, nei due esempi citati sopra).
Secondo questa interpretazione, quali che siano il valore
iniziale
della sua funzione di distribuzione e la ripartizione iniziale
dei
suoi punti rappresentativi sulla superficie a energia
costante, il
sistema evolve verso una distribuzione nello spazio delle fasi
che
dipende soltanto dall'energia, poiché essa si ripartisce in
maniera
omogenea su tutti i punti della superficie a energia costante.
Inoltre le proprietà macroscopiche, che nel formalismo
statistico
corrispondono alle proprietà medie calcolabili a partire dalla
funzione di distribuzione, dipendono allora unicamente dal
valore
dell'energia che definisce la superficie canonica o
microcanonica.
Ma perché un sistema dovrebbe evolvere in questa maniera?
Perché
una funzione di distribuzione ¶r, corrispondente per esempio a
uno
stato di preparazione particolare del sistema, dovrebbe

82
dimenticare
le proprie condizioni iniziali ed evolvere verso una
distribuzione di
equilibrio ¶rª0? La teoria di Gibbs è incapace di rispondere a
queste
domande se non dando all'evoluzione verso l'equilibrio
un'interpretazione soggettivista: il sistema tende verso una
distribuzione di equilibrio perché, se osservazioni oppure una
preparazione iniziale ci hanno permesso di attribuire un
valore
iniziale particolare alla sua funzione di distribuzione ¶r,
man mano
che queste informazioni perdono la loro pertinenza, la
funzione tende
verso il suo valore di equilibrio. L'evoluzione verso
l'equilibrio
descrive dunque la crescita irreversibile della nostra
ignoranza e
non costituisce una proprietà effettiva del sistema dinamico.
Si potrebbe dire allora che, studiando l'evoluzione della
distribuzione di un sistema dinamico qualunque, si dovrebbe
vedere se
essa tenda o no verso l'equilibrio. Sfortunatamente, per
studiare
l'evoluzione di ¶r bisognerebbe poter studiare la traiettoria
dei
differenti punti dell'insieme rappresentativo: è necessario
dunque
che il sistema in questione sia integrabile.
E' ora tempo di chiedersi quali siano i sistemi integrabili
che
avevano determinato le perplessità di Poincaré, i sistemi il
cui
comportamento può essere effettivamente ricondotto a un
insieme di
costanti di moto. Tale domanda viene generalmente mascherata
dai
manuali di dinamica: essi si dedicano ad analizzare nei
particolari
quei pochi problemi classici integrabili e considerano, più o
meno
esplicitamente, che tutti i problemi dinamici possano essere
posti
sotto la stessa forma di quelli risolubili (sotto forma cioè
di
equazioni differenziali lagrangiane o hamiltoniane), che nulla
di
nuovo può venire dalla soluzione di queste equazioni, e che le
proprietà dei pochi sistemi semplici effettivamente
integrabili si
possono estrapolare ad ogni situazione esprimibile in termini
dinamici. Ora, e lo sapeva Poincaré, il quale diceva che il
vero
problema dinamico comincia là dove i sistemi hanno meno
invarianti
che gradi di libertà (introduzione alle  Méthodes nouvelles de

83
la
mécanique céleste , 1892), a partire dal problema dei tre
corpi in
interazione, si pongono problemi d'integrazione molto
difficili e,
per più di tre corpi, le traiettorie non possono essere
calcolate se
non in via approssimata. Sono allora necessari altri metodi,
che
permettano di esplorare le diverse situazioni dinamiche e di
scoprire
proprietà generali grazie alle quali sia possibile una
classificazione qualitativa dei tipi di comportamento generale

dove non lo sia una descrizione esatta dei comportamenti
particolari.
Il tratto comune ad ogni evoluzione dinamica compresa in una
classificazione del genere è che tutte quante conservano
l'energia:
esse differiscono per il numero d'invarianti che ammettono
oltre
l'energia.
Il primo tipo di comportamento studiato in questo modo è il
comportamento ergodico. Un sistema ergodico non ammette che un
solo
invariante, l'energia. Se si considera il modo in cui tale
sistema
può evolvere nello spazio delle fasi, si deve concludere che
la sua
traiettoria è sottoposta a un solo vincolo: quello di non
abbandonare
mai la superficie microcanonica, la superficie costituita da
tutti i
punti con la stessa energia. Mentre un sistema integrabile è
caratterizzato da una traiettoria limitata a un numero di
punti dello
spazio delle fasi del tutto determinato, ed è dunque
assolutamente
estraneo all'idea di un'equipartizione della sua funzione di
distribuzione sull'insieme della superficie a energia
costante, un
sistema dal comportamento ergodico sembra avvicinarsi ai
presupposti
necessari alla teoria degli insiemi: la traiettoria ergodica
percorre
in maniera casuale la totalità della superficie microcanonica
e si
può dimostrare che tale traiettoria passa prima o poi tanto
vicino
quanto si vuole a ogni punto della superficie microcanonica.
Il punto in comune tra i sistemi integrabili e i sistemi
ergodici è
che la struttura dello spazio delle fasi che essi
presuppongono è
semplice. Quale che sia lo stato iniziale, punto di partenza
della

84
loro traiettoria, questa avrà lo stesso carattere,
perfettamente
prevedibile o perfettamente casuale, a seconda dei casi: ciò
nonostante, grazie al fatto che la traiettoria ergodica assume
come
equiprobabili tutti i punti della superficie microcanonica -
poiché
la traiettoria ergodica si approssima a ciascuno di essi tanto
quanto
si vuole - il comportamento medio di un sistema su di un
periodo di
tempo lungo può essere calcolato sull'insieme dei punti della
superficie microcanonica e fornisce le stesse proprietà di
stazionarietà dello stato di equilibrio secondo la teoria
degli
insiemi. E' questa la ragione dell'interesse che solleva, da
un
secolo a questa parte, la teoria ergodica. Sfortunatamente
essa non
dà una descrizione dell'avvicinamento irreversibile
all'equilibrio:
essa si limita a rendere meno sconcertante il fatto che certi
sistemi
possano essere descritti dagl'insiemi di equilibrio di Gibbs.
D'altro
canto, pare assodato che i sistemi ergodici sono piuttosto
rari. In
generale, i sistemi dinamici non sembrano essere né
integrabili, né
ergodici, ma sembrano corrispondere a una classe intermedia, i
sistemi a stabilità debole.
Nel 1954 Kolmogoroff introdusse questa nuova classe di
sistemi non
integrabili, sistemi la cui traiettoria, contrariamente ai
sistemi
ergodici, non si distribuisce uniformemente sulla superficie
microcanonica e ammette pertanto certi invarianti
supplementari.
Questo lavoro, esteso da Moser e Arnold (teoria Kma), sbocca
ormai in
un rinnovamento di certe concezioni fondamentali della
dinamica: la
fine del postulato di omogeneità delle situazioni dinamiche,
che
permetteva di estrapolare alle traiettorie incognite dei
sistemi non
integrabili le proprietà dei sistemi integrabili: vale a dire,
insomma, la fine dell'idea che la dinamica sia intrinsecamente
semplice e che le proprietà dei sistemi semplici siano
generalizzabili ai sistemi complicati (cioè, in concreto, non
eccezionalmente semplici).
La proprietà nuova dei sistemi né ergodici né integrabili,
studiati
da Kma, è la proprietà di stabilità debole. Un sistema a
stabilità
debole è un sistema per cui stati iniziali vicini quanto si

85
vuole
nello spazio delle fasi sono sempre in grado di determinare
traiettorie che divergono in tempi lunghi, e dunque di
determinare
comportamenti affatto differenti. Si consideri un esempio dei
differenti comportamenti possibili di uno stesso sistema. Un
pendolo
ideale può oscillare intorno alla propria posizione verticale
oppure
può girare attorno al proprio punto di sospensione (movimenti
vibratori o rotatori): in questo caso semplice, le regioni
degli
stati iniziali nello spazio delle fasi corrispondenti ai due
comportamenti sono del tutto differenziate e delimitate, e una
piccola incertezza sulla posizione e sulla velocità iniziale
del
pendolo non impedisce di prevedere in maniera deterministica
il
carattere generale del suo comportamento: tutte le traiettorie
vicine
restano vicine e si assomigliano. Per un sistema a stabilità
debole,
le regioni corrispondenti a famiglie di traiettorie distinte
non sono
separate ma al contrario inestricabilmente intrecciate, tanto
che per
ogni punto appartenente a una traiettoria di tipo dato esiste
sempre,
tanto vicino quanto si vuole, almeno un altro punto
appartenente a
una traiettoria d'altro tipo.
E' noto che la relatività ristretta ebbe come punto di
partenza
un'impossibilità: l'impossibilità per degli esseri materiali
che
comunichino tra di loro con i mezzi noti alla fisica, vale a
dire le
onde elettromagnetiche, di definire simultanei due eventi
lontani; il
carattere finito e invariante della velocità della luce
impedisce
l'esistenza di un punto di osservazione assoluto da cui sia
possibile
stabilire tale simultaneità. In dinamica ci si trova di fronte
a una
situazione simile: si può certo dire che «di per se stesso» un
sistema è sempre in un punto dello spazio delle fasi e in
nessun
altro, e che il tipo di traiettoria da esso seguito è
perfettamente
determinato. Bisogna sottolineare che d'ora in avanti questo
tipo di
traiettoria non può essere studiato, non solo in pratica ma
anche in
linea di principio. Ogni conoscenza, qualunque sia la natura
di colui

86
che conosce, dal momento che conosce «dall'esterno»,
presuppone
un'osservazione, e ogni osservazione, per quanto precisa sia,
possiede un grado  finito di precisione. Nelle situazioni
abituali,
la prevedibilità di un comportamento aumenta con l'aumentare
della
precisione della misura di uno stato iniziale; qui, anche se
la
precisione cresce indefinitamente, l'incertezza rimane tale e
quale:
una misura, se non è di precisione infinita, non potrà mai
distinguere tra due punti infinitamente vicini corrispondenti
a
traiettorie differenti. Un osservatore non potrà mai
individuare
univocamente un punto dello spazio delle fasi e ogni misura
possibile
per un essere di questo mondo definisce dunque come
impossibile una
predizione determinista del comportamento dei sistemi a
stabilità
debole.
Quando una scienza arriva alla conclusione che è impossibile
attribuire un dato insieme di proprietà, in una classe
determinata di
sistemi che essa tratta, perché nessuna situazione
sperimentale
teoricamente concepibile permette di verificarle, è possibile
in
generale concludere che le domande centrate su questo insieme
di
proprietà non sono le domande «buone» da porre a questa classe
di
sistemi, e che, per ciò che concerne tali sistemi, la scienza
in
questione deve rivedere il proprio obiettivo.
A questa conclusione si arriva con i sistemi a stabilità
debole: la
gamma di possibilità, di cui Poincaré aveva detto che il
principio di
conservazione era la limitazione, prende allora un senso ben
preciso,
e ciò senza che debbano essere invocati un indeterminismo
metafisico,
una libertà incomprensibile; basta notare che il determinismo
è
inaccessibile anche all'osservatore demoniaco che la fisica a
volte
ama evocare per manifestare la debolezza dei nostri mezzi di
osservazione e di calcolo. In queste condizioni, la nozione di
traiettoria individuale nello spazio delle fasi, vale a dire
l'oggetto dinamico per eccellenza, perde il suo significato.
Le
previsioni che le misure consentono, la localizzazione di un
sistema

87
in una piccola regione dello spazio delle fasi non possono
produrre
che risultati statistici, ma distribuzione delle probabilità
di tipi
differenti di traiettorie in questa regione, e dunque la
probabilità
di evoluzioni differenti compatibili con la misura. La
dinamica deve
dunque, per ciò che concerne i sistemi a stabilità debole,
vale a
dire in concreto i sistemi dinamici più comuni, cambiare
obiettivo,
studiare non le traiettorie ma le funzioni statistiche di
distribuzione.
Ciò non è, però, obbligatoriamente sinonimo di allargamento
della
dinamica. Le equazioni di evoluzione della meccanica
statistica non
debbono più essere considerate approssimazioni rispetto
all'ideale di
una descrizione in termini di traiettorie individuali; esse
costituiscono in se stesse degli oggetti irriducibili, ma - lo
si è
visto per l'equazione di Liouville - esse sono regolate dalle
medesime leggi reversibili e deterministe della dinamica delle
traiettorie.
Dal punto di vista del secondo principio della
termodinamica, che
creò un secolo fa il problema all'origine di questa
successione di
teorie dinamiche, non si è arrivati a nulla, l'irreversibilità
resta
priva di ogni significato dinamico.
Nel secondo passato, Maxwell e Poincaré si erano resi conto
molto
chiaramente dell'impossibilità in linea di principio che
rivestono i
problemi posti da un'interpretazione dinamica della crescita
dell'entropia, cioè della degradazione dell'energia: è come
cercare,
nota Poincaré, un ragionamento le cui conclusioni
contraddicano le
premesse, quelle premesse costituite dalle leggi reversibili
della
dinamica.
Bisogna dunque arrendersi all'evidenza: fino a che le
premesse
medesime - vale a dire la descrizione dinamica e la sua
incarnazione
in meccanica statistica, l'equazione di Liouville - non
saranno
modificate, l'entropia, come funzione crescente in maniera
monotòna
fino a un massimo, resterà sprovvista di significato dinamico.
L'irreversibilità non può essere dedotta dalla dinamica; essa
deve

88
dunque esservi introdotta, se la dinamica vuole conservare una
certa
pertinenza per quello che concerne i processi costitutivi di
questo
mondo in divenire, la natura.
E' ciò che ha realizzato in questi ultimi anni il gruppo di
meccanica statistica di Bruxelles, con l'introduzione di una
rappresentazione microscopica dell'entropia. Non è possibile
dare qui
i particolari di questa teoria molto recente: basti dire che
essa
introduce a un mondo non-hamiltoniano, un mondo in cui la
dissipazione irreversibile, l'oblio progressivo di certi tipi
d'interazione appartengono alla definizione stessa degli
oggetti. Nel
mondo non-hamiltoniano della dinamica allargata, gli oggetti
pertinenti non sono più le traiettorie degli astri o dei
pendoli
ideali, sono i processi di decomposizione, di collisione, di
assorbimento che definiscono con il proprio carattere
irreversibile
l'interazione delle particelle con il loro ambiente; e la
descrizione
dell'evoluzione dinamica espressa in termini di questi
processi
dissipativi introduce, per una classe determinata di sistemi
rispondenti alla condizione detta di «dissipatività», una
funzione
monotòna crescente le cui proprietà sono quelle che cerchiamo,
le
proprietà dell'entropia.

7. L'energia
in meccanica quantistica
Nello stesso modo in cui l'hamiltoniana, vale a dire
l'energia
espressa in termini di variabili canoniche, può essere
considerata
come la vera causa del movimento dinamico, reversibile e
deterministico, l'operatore hamiltoniano è, in meccanica
quantistica,
fonte di un nuovo tipo di movimento da studiare, l'evoluzione
della
funzione d'onda. In ciascuno dei due domini, il formalismo
hamiltoniano non permette di descrivere che situazioni
idealmente
semplici, molto rare in natura, in cui il divenire è
subordinato a
una concezione statica. La meccanica quantistica, scienza
hamiltoniana, è una scienza dell'essere.
Tuttavia, per ciò che concerne la meccanica quantistica, il
tutto
era cominciato molto lontano dalla dinamica, e infatti il
punto di
partenza più vicino era stato l'irreversibilità. L'evento
unanimemente riconosciuto come fondatore della nuova scienza è

89
in
effetti la scoperta di Planck, nel 1900, del carattere
discontinuo
della radiazione emessa da un corpo nero, o piuttosto della
cavità
con un foro che la fisica considera come avente la stessa
capacità
d'irradiamento di un corpo nero. Ora, sembra che Planck abbia
intrapreso lo studio della radiazione emessa da un corpo nero
- vale
a dire lo studio di un fenomeno d'interazione radiazione-
materia il
cui risultato, singolarmente, non dipende dalla natura chimica
dei
corpi in interazio-ne - per trovare un modello
dell'irreversibilità
che riconciliasse dinamica e termodinamica; egli seguiva in
questo
senso l'esempio di Boltzmann che aveva formulato un modello
microscopico dell'evoluzione irreversibile di un gas
all'interno del
quale si verifichino collisioni, cioè un'interazione materia-
materia.
Planck sperava di giungere a un modello più semplice, e da
questo
punto di vista subì uno scacco, perché, ma non si entrerà nei
particolari di questa vicenda, scoprì di non poter rendere
conto
della variazione della lunghezza d'onda della radiazione
emessa in
funzione della temperatura di emissione, se non ipotizzando
che
l'energia di questa radiazione si distribuisse in quantità
discrete e
non in modo continuo.
Quest'ipotesi fu ripresa e ampliata da Einstein, il quale,
cinque
anni più tardi, non solamente spiegava grazie ad essa nuovi
fenomeni
d'interazione materia-radiazione (effetto fotoelettrico,
assorbimento
ed emissione spontanea e indotta della luce), ma, con grande
imbarazzo di Planck, avanzava la tesi che non solo in queste
interazioni la luce si comporta in maniera discontinua, e che
tutta
l'energia di radiazione è di per sé discontinua: la radiazione
luminosa è un flusso di quanti.
Gli argomenti di Einstein, come quelli di Planck, erano
associati
allo studio delle proprietà macroscopiche in quanto tali
(fenomeni di
emissione, calore specifico), e al tipo di ipotesi statistica
che
permette di spiegare la produzione di questi effetti globali a
partire da una popolazione di eventi. La teoria quantistica,
nella

90
misura in cui non descriveva il comportamento individuale, il
moto di
entità determinate, non aveva fino ad allora niente a che fare
con la
dinamica. La situazione cambiò in maniera drammatica quando il
modello atomico di Bohr, nel 1913, stabilì un legame tra la
struttura
discontinua della luce assorbita ed emessa, vale a dire
l'ipotesi
quantistica, e i dati spettroscopici che caratterizzavano
specificamente ogni molecola chimica, e ne fece la base per
una
descrizione del moto degli elettroni attorno al nucleo
atomico. Il
modello di Bohr non trattava della popolazione delle
particelle
emittenti ed assorbenti, ma prendeva questi dati statistici
come
punto di partenza per una descrizione del comportamento
individuale
dell'atomo, un'ipotesi sul meccanismo dell'evento particolare
costituito da un assorbimento o da una emissione: nel caso
specifico,
un cambiamento di orbita dell'elettrone, con il quanto
assorbito od
emesso che misura la differenza di energia del movimento tra
le due
orbite. Il confronto tra il comportamento dell'elettrone, come
lo
implicano i dati spettroscopici e l'ipotesi quantistica, e la
descrizione elettrodinamica del moto di un corpo carico, era
ormai al
centro di ciò che sarebbe divenuta la  meccanica quantistica .
In realtà, il modello di Bohr implicava ed assumeva
un'assurdità
dal punto di vista dinamico, cioè il comportamento non-
dinamico
dell'elettrone; quest'ultimo, particella carica ruotante
attorno a un
nucleo carico, dovrebbe continuamente emettere radiazione e
perdere
progressivamente la propria energia di modo che, rallentando
progressivamente il proprio moto, finirebbe per cadere sul
nucleo:
secondo la dinamica, l'orbita dell'elettrone non potrebbe
essere
stabile perché non conserva l'energia. Il modello di Bohr
postula la
stazionarietà di quest'orbita, postula che l'elettrone non
emetta,
durante il movimento orbitale, alcuna energia, e che questo
moto,
conservando dunque l'energia, possa mantenersi
indefinitamente.
Poiché l'elettrone nel suo moto stazionario non emette né
assorbe,

91
non produce nulla che si possa misurare,  non interagisce con
il
mondo esterno : non si sa nulla dell'elettrone se non quando
esso
«salta» da un'orbita all'altra, e in quel momento l'energia
misurabile, il quanto emesso o assorbito, è una differenza tra
due
livelli di energia.
L'energia svolge dunque in questo modello un duplice ruolo:
ciascuna orbita elettronica permessa - e ciascuna specie di
molecola
è caratterizzata da un insieme determinato di tali orbite,
identificabile grazie alla vera e propria «firma chimica»
rappresentata dal proprio spettro di emissione e assorbimento
- è
caratterizzata da un livello di energia determinato e
l'invarianza di
tale energia definisce il moto stazionario dell'elettrone; ma
questa
energia non è mai misurata direttamente: in meccanica
quantistica si
può osservare ciò che risulta dalla perturbazione del moto
stazionario, allorché, interagendo con l'atomo s'induce
l'elettrone a
cambiare orbita; a partire dai dati sulle differenti distanze
energetiche tra le orbite, è possibile attribuire a ciascuna
di esse
un'energia determinata. Il rapporto tra l'argomento della
meccanica
quantistica, la descrizione delle orbite, e i dati misurabili,
non è
pertanto del tutto diretto. Il formalismo di Heisenberg, com'è
noto,
si basa sulla discriminazione tra grandezze che la meccanica
quantistica definisce osservabili e grandezze al cui riguardo
non
esiste alcun dato: così, per quanto concerne il «moto»
dell'elettrone
attorno al nucleo, non esiste alcun dato se non il livello di
energia
proprio dell'orbita: il formalismo quantistico deve dunque
escludere
tutte le grandezze teoriche che caratterizzano questo moto
(posizione, velocità dell'elettrone sulla sua orbita) e
limitarsi a
produrre un algoritmo teorico che leghi tra di loro in maniera
coerente i dati osservabili durante l'emissione o
l'assorbimento
della luce da parte di un atomo: le matrici di Heisenberg
costituivano una raccolta dei dati di tal genere resi
disponibili
dalla spettroscopia, associata a una struttura matematica che
permette di manipolarli secondo regole definite.
Heisenberg in tal modo aveva prodotto un formalismo il più
lontano
possibile dalle ambizioni tradizionali della dinamica, che

92
sono di
descrivere il moto in ciascun istante, indipendentemente dal
fatto
che sia osservato o no. Tuttavia, lavori posteriori avrebbero
mostrato che, se la dinamica classica non può pretendere di
descrivere le traiettorie delle particelle quantistiche, essa
ciò
nondimeno costituisce per la meccanica quantistica una
struttura
formale adeguata; e che le matrici a partire da cui Heisenberg
aveva
ottenuto le differenze osservabili di energia possono essere
rimpiazzate e generalizzate in una dinamica hamiltoniana che
descrive
l'evoluzione di grandezze di un tipo nuovo. La funzione
hamiltoniana,
al centro del formalismo hamiltoniano poiché esprime l'energia
totale
del sistema in termini di coppie di variabili canoniche p, q
scelte
per descrivere questo sistema, e determina le equazioni
differenziali
che danno l'evoluzione di queste variabili, resta al centro
del
formalismo quantistico. Tuttavia, l'hamiltoniana quantistica
non è
più una funzione di grandezze che descrivono la traiettoria di
un
oggetto fisico, ma di grandezze di un genere nuovo, battezzate
 operatori : l'hamiltoniana stessa è un operatore, essa non è
osservabile di per sé ma è direttamente connessa alla
grandezza
osservabile per eccellenza in meccanica quantistica:
l'energia.
In meccanica quantistica, ogni grandezza osservabile è ormai
associata a un operatore; esiste per ciascun operatore una
rappresentazione particolare del sistema, un insieme di
autofunzioni
tali che, se l'operatore è applicato a queste funzioni, ogni
applicazione fornisce queste stesse funzioni moltiplicate per
degli
«autovalori», delle costanti, che dànno i valori in
quell'istante
delle grandezze osservabili associate all'operatore. Così, in
particolare, per trovare i livelli di energia di un atomo, si
applica
l'operatore hamiltoniano alle autofunzioni uªn del sistema
Hª[op]uªn=Eªnuªn, in cui Eª1, ..., Eªn sono i differenti
livelli di
energia del sistema e uª1, ..., uªn le autofunzioni
corrispondenti.
Il sistema globale è rappresentato, dopo Schrödinger, da una
funzione
d'onda ¶y che sovrappone le differenti autofunzioni
rappresentative
del sistema, ciascuna pesata con un coefficiente c che misura

93
la
probabilità della misura dell'osservabile corrispondente
all'autofunzione in questione, ¶y=§sªncªnuªn; ¶y permette di
determinare, per ogni linguaggio scelto per descrivere il
sistema,
vale a dire per ogni insieme di autofunzioni fªn, l'insieme
dei
coefficienti cªn della corrispondente sovrapposizione, tali
che
¶y=§sªncªnfªn, e di calcolare così la probabilità dei
differenti
autovalori prodotti dall'applicazione alle fªn di tutti gli
operatori
di cui le fªn sono autofunzioni. L'operatore hamiltoniano
applicato
alla funzione d'onda espressa in termini delle uªn dà
l'energia media
osservabile Hª[op]¶y=-§sªncªneªnuªn.
Nella stessa maniera in cui in dinamica l'hamiltoniana dà il
valore
dell'energia e, nello stesso tempo, determina l'evoluzione del
sistema, in meccanica quantistica l'evoluzione della funzione
d'onda
rappresentativa del sistema ¶y è data dall'equazione di
Schrödinger:
ë¶d¶ynp¶dtô=Hª[op]¶y. L'hamiltoniana determina dunque
l'evoluzione
della funzione d'onda che fornisce, in ciascun istante, la
probabilità dei differenti risultati delle misure che si
possono
effettuare sul sistema.
E' stato messo in luce che risolvere le equazioni
hamiltoniane del
moto in dinamica classica conduce di fatto alla formulazione
di
queste equazioni in termini di variabili canoniche molto
particolari,
poiché l'energia potenziale espressa in queste variabili è
identicamente nulla e tutta l'energia si concentra dunque nel
moto di
punti ridefiniti come senza interazione (in uno «spazio»
estremamente
complicato). Analogamente, quando ¶yp è espressa nel
linguaggio dalle
autofunzioni dell'hamiltoniana (funzioni indicate sopra con
uª1, ...,
uªn), l'evoluzione della funzione d'onda non modifica le
probabilità
di misura dei diversi autovalori dell'hamiltoniana. La
meccanica
quantistica cerca dunque una rappresentazione  stazionaria
del
sistema, tale che i diversi livelli dell'energia appaiano
senza
interazione gli uni con gli altri; secondo questa
rappresentazione

94
(in cui, tecnicamente, l'hamiltoniana è «diagonalizzata»)
l'evoluzione di ¶y è l'evoluzione di una sovrapposizione di
stati
stazionari indipendenti gli uni dagli altri: nulla può, per
definizione, «prodursi».
Il formalismo hamiltoniano, in cui l'hamiltoniana, legata in
maniera privilegiata all'energia, determina e genera
l'evoluzione,
perviene dunque, in dinamica come in meccanica quantistica, a
porre
il problema dell'evoluzione di un sistema di modo che questa
evoluzione sia ricondotta a un'invarianza fondamentale, a
ridefinire
gli oggetti di questa evoluzione (le particelle descritte
dalle
coppie p, q in dinamica, la funzione d'onda in meccanica
quantistica)
in modo che tutte le interazioni che, in altre
rappresentazioni,
sarebbero potute apparire come tendenti a modificare il corso
di
questa evoluzione, siano formalmente soppresse, e appaia
chiaramente
e che l'evoluzione non può produrre nulla di «nuovo». Ciò non
vuol
dire che si sia dimostrato che gli oggetti sono «realmente»
indipendenti e le interazioni illusorie; il formalismo
hamiltoniano,
piuttosto, ritiene tutte le interazioni della  stessa natura
ed
eliminabili mediante una trasformazione di variabili che le
contenga
tutte allo  stesso titolo in una descrizione di oggetti
indipendenti
in termini di evoluzione spontanea.
Il modello di Bohr, che fu il punto di partenza della
meccanica
quantistica, diventa dunque, con le sue orbite stazionarie
sulle
quali, in assenza di perturbazioni, un elettrone si mantiene
indefinitamente, il tipo stesso di descrizione a cui la
meccanica
quantistica mira a ricondurre i fenomeni quantistici.
Ma la meccanica quantistica presenta, in confronto alla
meccanica
classica, questa differenza fondamentale, che l'hamiltoniana
non
permette di descrivere una traiettoria osservabile, ma
l'evoluzione
d'una funzione d'onda che determina la probabilità dei
risultati dei
diversi tipi di misura cui il sistema può essere sottoposto.
Il solo
significato fisico possibile della funzione d'onda proviene
dunque
dal processo di misura, dall'interazione del sistema con un

95
dispositivo sperimentale determinato; ma il processo di misura
stesso, l'evoluzione che subisce il sistema in seguito a
questa
interazione non è e non può essere descritta dalla dinamica
hamiltoniana che regola l'evoluzione della funzione d'onda; è
un
processo essenzialmente irreversibile, un'interazione causa di
processi irreversibili (emissione, assorbimento, collisione,
dissociazione) che non possono essere ricondotti con una
diagonalizzazione a una qualunque evoluzione stazionaria. Il
concetto
fisico di stato stazionario implica dunque per definizione
l'esistenza di processi differenti, non riducibili alla
dinamica
hamiltoniana, ma senza i quali gli stati stazionari non
sarebbero
determinabili. Contrariamente alla dinamica classica, la
meccanica
quantistica non costituisce dunque una struttura chiusa in se
stessa:
essa non può pretendere che tutto ciò che esiste sia in linea
di
principio riconducibile a traiettorie deterministe e
reversibili. Di
fatto, in maniera meno evidente, il problema della misura si
pone
ugualmente in meccanica classica. Con meno evidenza perché la
misura
ideale, in dinamica, è concepita come un'interazione
istantanea e
reversibile: misura delle posizioni e dei momenti con
l'orologio e il
metro campione. Ma non v'è mai una misura senza registrazione,
processo essenzialmente irreversibile. Non vi è mai controllo
senza
osservatore, al quale non è necessario attribuire proprietà
particolari, se non quella comune a tutti gli strumenti di
misura, di
essere termodinamico: di non definirsi semplicemente tramite
l'invarianza dell'energia, ma tramite l'evoluzione
irreversibile
della sua distribuzione.
Nell'ambito di questo articolo, non si può far altro che
segnalare
che il formalismo non-hamiltoniano, cui si è brevemente alluso
alla
fine del paragrafo precedente, è ugualmente pertinente in ciò
che
concerne l'evoluzione della funzione d'onda quantistica, e
che, in
questo ambito, il processo di misura può trovare
un'interpretazione
in termini di evoluzione quantistica irreversibile.

8. Conclusioni
Fino a questo punto, si è dato per scontato che l'idea della

96
degradazione dell'energia, grazie alla quale è stato
introdotto in
fisica il tempo orientato, possa essere accettata senza
specificazione, il solo problema essendo quello di aprire la
dinamica
a questo nuovo concetto. Ci si può tuttavia domandare quale
sia in
effetti la situazione nelle scienze naturali.
Nei laboratori, nei motori, la termodinamica «marcia» senza
problemi; i motori non prendono l'energia termica
dall'esterno: essi
hanno bisogno di una differenza d'energia per funzionare, e il
loro
funzionamento erode irreversibilmente le differenze che lo
producono.
Per contro, in natura, le evoluzioni osservabili sono
costituite da
diversificazioni piuttosto che da una evoluzione verso
l'uniformità e
l'inattività. Certamente, la termodinamica del non-equilibrio
permette di mostrare che la proliferazione naturale,
attraverso il
flusso continuo di energia solare, è non soltanto compatibile
con il
se-condo principio, ma prevedibile grazie ad esso. Ma nella
stessa
misura, a livello cosmologico, da cui dipende il fatto che
l'irradiamento solare sia o no una degradazione irrever-
sibile, il
mondo si trasforma e nul-la indica che lo faccia nella dire-
zione di
una degradazione dell'ener-gia.
Il secondo principio fu enunciato da Thomson e Clausius in
un
contesto cosmico, quello dell'evoluzione verso la morte
termica. Ora,
è probabilmente in questo contesto, dove le forze a lungo
raggio non
sono trascurabili come nei sistemi fisico-chimici, che il
problema
del secondo principio si pone nel modo più oscuro. In realtà,
noi non
conosciamo gli effetti della gravitazione per ciò che riguarda
l'evoluzione termodinamica. E il ruolo dell'energia in quella
scienza
del futuro che costituisce at-tualmente l'astrofisica, è uno
dei
problemi della scienza di domani.
Fine

97