Sei sulla pagina 1di 6

Vittorino Andreoli “Avvenire” 09.04.

06

Natura senza legge?


Dopo aver valutato i limiti del principio di causalità e della dimensione spazio-temporale,
l’attenzione va ad un altro pilastro storico della conoscenza scientifica: il concetto di legge. E lo
scopo è sempre quello di metterne in evidenza la crisi. Si impone un’analisi per vedere quanto il
sapere umano debba fondarsi sulla scienza e debba rifuggire da ogni altra via di conoscenza, perché
se la prima è conclusiva, ciò che ne è al di fuori non può che avere un ruolo gregario

1 Per Kant essendo universali le forme della mente, universale è anche l’ordinamento che ne
deriva, da cui la costanza dei rapporti
2 Diderot si era chiesto se fosse possibile scaldare un forno riempiendolo di palle di neve. È
solo «improbabile» rispondono i moderni
3 Per Mach la scienza non ci conduce ad alcuna reale conoscenza di quelle essenze che si
concepiscono come vere
4 La sola evidenza circa l’esistenza di un mondo esterno, nota ancora Russell, ci è data dallo
stimolo di alcune cellule cerebrali

Dopo aver attentamente valutato i limiti del principio di causalità e della dimensione spazio-
temporale, focalizzeremo ora l’attenzione su un altro pilastro della conoscenza scientifica: il
concetto di legge. L’obiettivo è quello di metterne in evidenza la condizione di crisi in cui
anch’esso oggi si trova. Non perché ciò ci piaccia, ma perché rendersi conto della situazione è
l’unico modo che razionalmente abbiamo per poter poi agire. È del tutto chiaro peraltro che questi
riferimenti: di causalità, legge, spazio, tempo… continuano a figurare presenti non solo nel nostro
linguaggio comune, ma anche in quello scientifico, dove seguitano ad avere un loro significato.
L’effetto serra è causa del riscaldamento della terra e – per esempio – dello scioglimento dei ghiacci
polari; la distruzione delle foreste in Amazzonia è la causa della desertificazione di quella regione
del Brasile e, se nel tempo questo processo non si fermerà, molte popolazioni e specie animali
scompariranno. Così esiste pure una legge secondo la quale in una società che emargina i deboli,
questi saranno sempre più deboli e dimenticati.
Sarà utile ricordare allora che noi stiamo indagando sulla malattia dei princìpi all’interno della
scienza, di un sapere cioè che si era posto come via per conoscere la verità, e dunque per giungere a
conclusioni definitive, senza alcun margine di dubbio. Di conseguenza, ci chiediamo se simili
affermazioni siano o no ancora sostenibili, ed eventualmente quali siano i limiti.
Non ci accontentiamo, nella nostra disanima, di constatazioni che seguono il semplice buon
senso, imponendosi piuttosto un’analisi storica per considerare quanto il sapere umano debba
fondarsi sulla scienza, rifuggendo da ogni altra via di conoscenza.
Se la scienza infatti è conclusiva, ciò che è al di fuori di essa non potrebbe avere che un ruolo
gregario. In questo processo di verifica del sapere, inteso come premessa per giungere ad affermare
o negare i fondamenti, sarà importante poter concludere in modo esatto se la scienza abbia un ruolo
di verità, anzi contenga verità. Che questa idea sia effettivamente esistita, lo abbiamo già rilevato a
partire dal Seicento, essendo poi essa continuata fino alla fine dell’Ottocento, ossia nel periodo
classico, nel quale a valere erano proprio il principio di causalità, la dimensione spazio-temporale e
il concetto di legge: capisaldi che derivavano dall’uso della ragione e dalla lettura del libro della
Natura. È questa la verifica che noi facciamo, e su questa base andiamo a delineare il grado di
dissolvimento che tali affermazioni, un tempo indubitabili, hanno raggiunto dalla fine
dell’Ottocento in poi, un periodo che giunge fino a noi, e che ci trova in balia di princìpi così
precari da poter affermare che il solo principio rilevabile è di non aver princìpi. Bisogna inoltre

1
mettersi, se già non si è, nell’atteggiamento di chi ha intrapreso un viaggio, per cui ogni tappa (ogni
puntata) deve tenere conto della precedente, per trovare il filo che unifica l’intero percorso.

LA LEGGE COME PRINCIPIO COSTITUTIVO.


Il concetto di legge, in natura come nelle scienze, è stato concepito per lo più come una intelaiatura
obbligatoria che regola e contiene i fenomeni, e serve anche a spiegarli. La legge esprime dunque
un ordine che ha caratteri generali e trascende il singolo fenomeno.
Una nozione classica, accettata per secoli, e che inizia ad essere criticata in maniera sostanziale con
Emile Boutroux. Nel suo De la contingence des lois de la nature (1874) infatti si legge: «Non è
esatto… affermare che le leggi reggono [dirigono] i fenomeni. Non sono affatto poste prima delle
cose, ma le suppongono, esprimono soltanto i rapporti che derivano dalla loro natura come si è di
fatto e preferibilmente realizzata» (pp. 135 sg.).
Per tale via si giunge ad una concezione empirica di legge, come di uno strumento di lettura. Ma
con ciò non si sfugge ancora dalla costanza delle leggi di natura, cioè da quel problema della
legalità naturale per la quale tutte le leggi costituiscono – insieme – un principio generale che è noto
come il principio della uniformità della natura. Principio, questo, che ha rappresentato un vero e
proprio "articulum fidei" per i fondatori della scienza moderna: «essendo la natura inesorabile e
immutabile... ella non trasgredisce mai i termini delle leggi impostegli», dice Galileo Galilei
(Lettera a Benedetto Castelli, 21 novembre 1613, e Lettera a Elia Diodati, 15 gennaio 1633), il
quale parla anche degli «obblighi così severi come ogni effetto di natura».
Questa affermazione circa la obbligatorietà, non risultava però affatto obbligata nel pensiero di
David Hume (il Trattato sulla natura umana, è del 1739-40), che partendo dal presupposto
dell’uniformità della natura scopre invece quanto la natura sia arbitraria e giunge ad uno scetticismo
radicale, che estende anche alla logica, chiamata infatti "ragione scettica".
Insomma, le leggi non hanno nulla di obbligato, ma potremmo dire sono piene di eccezioni:
stabilita una regola si può dimostrare quanto essa non lo sia affatto. Ma allora, cosa sono le
leggi di natura?
Per Kant sono proiezioni della mente, la quale impone sugli avvenimenti un principio d’ordine che
le è proprio. Essendo poi universali le forme della mente, universale è anche l’ordinamento che ne
deriva, ed è così risolto il problema della costanza dei rapporti, ossia l’inesorabilità delle leggi di
natura.
Ma non è la natura in sé che noi possiamo affermare immutabile; lo è piuttosto la nostra "mente
legislatrice", la quale impone alla natura i suoi schemi: eguali per tutti e costantemente identici a se
stessi.
Kant, in questa spiegazione, presuppone che ci sia sempre una rigida e invariabile successione tra i
fenomeni, ma non è così. Già nel Settecento, le leggi venivano distinte in due tipi: quelle esatte e
assolute e quelle approssimate. Un esempio della prima categoria era la legge per cui l’intensità
della luce varia in ragione inversa del quadrato delle distanze; un esempio invece di legge
approssimata era quella di Boyle e Mariotte sulla massa e pressione dei gas (il volume di una data
quantità di gas è, a temperatura costante, inversamente proporzionale alla pressione cui il gas è
sottoposto).
Per salvare la inesattezza di alcune leggi, si utilizzò il calcolo delle probabilità, di cui la più antica
applicazione nella "teoria degli errori", con Pierre Simon Laplace e con Carl Friedrich Gauss.
Insomma, si pensò che il caso intervenisse nei fenomeni evidenziando la relatività del concetto di
legge.

LA LEGGE COME PROBABILITÀ.


Ludwig Boltzmann elaborò una vera teoria della probabilità, fondando un metodo nuovo: il metodo
statistico con il quale la regolarità dei fenomeni non esclude eventi eccezionali che possono
contravvenire alle leggi naturali. Questa teoria si rivelò subito feconda in due delle ipotesi
scientifiche più importanti: in campo fisico nella teoria cinetica dei gas, in quello biologico nella

2
teoria del fattore genetico o legge di Mendel. L’interpretazione probabilistica è diventata una
concezione fondamentale anche nel campo della fisica e della microfisica, giungendo a
un’interpretazione meramente probabilistica del secondo principio della termodinamica, o principio
della degradazione dell’energia di Carnot.
Si imponeva cioè una dimensione, quella secondo cui accadesse pure ciò che non solo non è una
regola, ma è addirittura un caso limite, ossia con scarsa o scarsissima probabilità.
Nel Settecento, Denis Diderot si era chiesto se fosse possibile scaldare un forno riempiendolo di
palle di neve e più tardi si domandò se non fosse possibile che l’acqua e il vino si separino
naturalmente, se si potesse ottenere del ghiaccio mettendo una casseruola d’acqua a scaldare sul
fuoco, così che sotto una fiamma viva l’acqua si raffreddi fino a formare il ghiaccio.
Per quanto possa apparire strano, gli scienziati moderni rispondono che effettivamente non vi è
alcuna impossibilità fisica assoluta per questi processi inversi, essendo essi solo estremamente
improbabili: come se tutte le case di Parigi, dice il fisico Marcel Boll, dovessero prender fuoco
isolatamente e accidentalmente nello stesso momento. Simili ipotesi paradossali, benché
infinitamente improbabili, non si possono tuttavia dichiarare impossibili.
Anche il primo principio della termodinamica, quello della conservazione dell’energia, o
dell’equivalenza tra moto e calore, nel quale Wilhelm Ostwald credeva di aver trovato «la roccia
salda in mezzo alla generale rovina delle leggi naturali» fondandovi il suo «monismo energetico»,
appare oggi a molti fisici valido solamente dal punto di vista probabilistico.
Insomma, si giunse all’idea che tutte le leggi della natura siano statistiche e che a esse si deve
applicare quella stessa concezione che la statistica ha usato nello studio degli eventi umani.
Ma una verità statistica non ci porta alla conoscenza del vero, dice Ernst Wagemann, e aggiunge:
«La statistica ci mette spesso davanti allo spettacolo meraviglioso di una concentrazione di processi
che sembra accordare la libertà individuale con la coazione collettiva, per cui gli avvenimenti
individuali risultano da determinazioni proprie, ma la loro riunione a migliaia o a milioni non dà
nessi caotici, bensì figure chiare e precise. Un destino collettivo sembra levarsi al di sopra di quello
individuale: apparentemente incurante delle vie prese dal singolo, esso forma il tutto: come
l’arcobaleno che brilla nella gamma dei suoi sfolgoranti colori ed è composto da miriadi di
goccioline di pioggia» (Narrenspiegel der Statistik, Hamburg 1935, pp. 222 seg.).
Ma allora, se si considerano le leggi di natura come espressioni mediane, si finisce con l’affermare
che mentre il comportamento dei singoli fenomeni non è determinabile, le masse statistiche a partire
da una certa grandezza rivelano una struttura che si ripete in altri complessi statistici. Non visibile
nelle singole unità, né nei piccoli gruppi, la legge dei grandi numeri sembra introdurre il
determinismo causale in una forma assai strana: un determinismo che, attraverso l’apparente libertà
dei singoli, vincola misteriosamente gli insiemi.
È una causalità debole nei confronti dei singoli, che si fa – ma non si sa come – rigida nei confronti
delle masse statistiche. Come si spiega? In questo caso, seguendo James Thomson, si può dire che
ogni legge scientifica «è una politica e non un dogma». Cioè, siano lontani dalla verità intesa come
una conclusione sicura, indubitabile della legge.

SEPARARE IL CONCETTO DI LEGGE DA QUELLO DI CAUSALITÀ.


Ormai è chiaro l’unica possibilità di salvare la questione, prima ancora che la sua soluzione, è
quella di separare il concetto di legge naturale da quello di causalità. Einstein, parlando della
disputa tra deterministi e indeterministi, affermava che entrambi hanno torto: i primi ritenendo che i
fenomeni siano soggetti al principio di causalità, i secondi sostenendo che non siano soggetti ad
alcuna legge. Può essere, dice Einstein, che i fenomeni, pur non essendo sottoposti al principio di
causalità, si conformino ad alcune leggi: causa e legge non devono essere confuse tra loro. La
statistica ricerca unicamente le leggi di probabilità del succedersi dei fenomeni, senza preoccuparsi
affatto di stabilire quali siano le cause che li determinano.
Ma come si può dissociare il concetto di legge da quello di causa?

3
Tenendo presente che la causa è un concetto antropomorfico, che presuppone un perché e che
mira a spiegare i fenomeni: è al "perché" che si deve rinunciare, considerando le leggi come
fatti che si devono solo constatare e non giustificare.
Le leggi dei fatti naturali, dice Giovanni Gentile, «non sono altro che fatti essi stessi»; la legge di
natura è, «e non ci rimane che constatarlo, essendo vano cercarne un perché», che se mai dovrebbe
essere chiesto a Dio; infatti «la legge non può essere pensata, né effettivamente si pensa, separata
dal fatto di cui è legge» (Teoria dello Spirito, pp. 97 e 173).
Se la legge di natura è un fatto, è chiaro ch’essa deve essere constatata e non spiegata. In tal modo
cade una distinzione altrimenti inevitabile tra due generi di princìpi: quelli di cui si può dare una
ragione (come quelli della termodinamica) e quelli che essendo "fatti" si possono solo verificare:
come il principio della direttissima o del percorso più rapido. Parlando di questo principio, Max
Planck osserva: è come se la luce possedesse una certa intelligenza e, «perseguendo il lodevole
intento di giungere nel più breve tempo alla meta prefissatasi, non avesse tempo di provare
realmente le diverse vie possibili, ma dovesse decidersi senz’altro per la via migliore».
Ma non si può seriamente parlare di istinto o di intelligenza della natura (l’antico assioma della
naturae simplicitas), mentre d’altra parte lo stesso Planck riconosce che nella ricerca fisica non si
può sempre seguire la via più semplice, quando talvolta occorre lasciarsi guidare dalla fantasia e
persino che «è spesso indispensabile saper pensare indipendentemente dalla legge causale» (La
conoscenza del mondo fisico, cit., p. 101).
Un altro principio di questo genere è il principio di Pauli o di esclusione, secondo il quale due
individualità costituenti un corpo fisico non possono mai avere la stessa energia e lo stesso stato di
movimento, sicché si può affermare che – nel mondo microscopico come in quello macroscopico –
manca completamente l’identità. In senso più generale, per quanto grande sia il numero degli stessi
oggetti della stessa specie che si possono adunare, non si troveranno mai in realtà oggetti identici. Il
pensiero corre subito al «principio degli indiscernibili» di Leibniz: «Non ci sono due individui
indiscernibili». Raccontava: «un gentiluomo intelligente, amico mio, parlando con me in presenza
di Sua Altezza l’Elettrice nel giardino di Herrenhausen, credeva possibile trovare due foglie intera
mente simili. Sua Altezza lo sfidò a trovarle, ed egli corse a lungo invano per cercarle. Osservando
con il microscopio due gocce d’acqua o di latte, si troverà che sono discernibili» (Polemica con S.
Clarke, 1715-16, Quarto scritto, Réplique au troisième écrit anglois).
È questo il principio in base al quale Charles Robert Richet pensa di poter sostenere che, poiché
l’inconsueto esiste, bisogna ammettere che ogni ipotesi è possibile (articolo in Scientia 1, I, 1934).
E su questo stesso assunto scrittori come il belga M.-C. Schuyten o il francese Jacques Delevsky
(L’inégalité naturelle et la vie sociale, in «Mois», agosto 1938; e poi Nature et historie, in «Revue
de synthèse», VI, 1933) hanno creduto di poter fondare le loro apologie della disuguaglianza
sociale, come se morale sociologica o politica potessero desumere le loro norme da qualche legge
fisica.
Il problema che questi richiami pongono in essere riguarda ancora il fondamento della
scienza su cui si era pensato di poter costruire il grande monumento della verità e delle
certezze del mondo.
Un mondo che diventava comprensibile attraverso princìpi fondanti, e attraverso leggi che non solo
mostravano come si muoveva la macchina ma anche come avrebbe continuato a funzionare.
A partire invece da quel periodo definito ormai come quello della messa in discussione della
scienza, vien da notare che a poco a poco si produce – nel sapere che era stato eretto a fondamento
della stessa civiltà occidentale – una crisi che, a distanza di un secolo, sembra non aver lasciato in
piedi alcuna certezza mentre il mondo procede ormai come se fra un momento e l’altro dovesse o
potesse fermarsi, abbandonando l’uomo senza princìpi ordinatori e senza leggi rassicuranti.

LEGGE E FINE DEL REALISMO.


Ma oltre al concetto di legge, entra in crisi un principio ancora più emblematico, quello del
realismo, ossia il principio per cui esiste una realtà da spiegare. In altre parole, si dubita non più

4
solo delle leggi, ma della condizione previa per cui le leggi esistono. Se infatti il reale non esiste o è
un ignoto, cade il realismo e non ha nemmeno senso ipotizzare delle regole che normino il reale.
Insomma, non solo le leggi non si adattano alla realtà, ma persino il positivismo fisico, con la sua
concezione della scienza quale mera descrizione (e spiegazione, e giustificazione) dei processi cessa
di reggersi.
Ernst Mach ha meglio di ogni altro contribuito a diffondere l’idea che la scienza in tutti i suoi rami,
meccanica compresa, non offre – in ultima istanza – che descrizioni, e non ci conduce ad alcuna
reale conoscenza di quelle essenze che si concepiscono di solito come "vere".
Si afferma così la concezione che se la scienza è utile, è innegabile però che essa è insufficiente. E
ciò perché essa ha a che fare con degli elementi irrazionali che resistono a ogni tentativo di
cancellazione, e che ne costituiscono persino il punto di partenza. Il pensiero scientifico parte
necessariamente da uno irrazionale e conduce a un altro irrazionale: lascia così un inesplicabile che
gli fugge sempre innanzi, trascinando dietro di sé un altro tentativo di spiegazione.
Sono questi i paradossi che Emile Meyerson ha – da par suo – denunciato in Identité et realité
(1908), affermando che non spetta alla scienza giungere a una spiegazione vera delle cose.
Egli sostiene che la conoscenza deve essere ontologica, e che quindi una conoscenza veramente
esplicativa va oltre la spiegazione della scienza. Ciò lo porta a riconoscere la legittimità della
filosofia accanto alla scienza.
E se questo completamento del lavoro di conoscenza non è possibile, allora, come sostengono i
neopositivisti Hans Reichenbach o Moritz Schlick, si deve abbandonare ogni idea di "verità" per
restare su un terreno di rigoroso empirismo. Tuttavia, si deve osservare che il mero fenomenismo
porta direttamente allo scetticismo. Planck nella sua Conoscenza del mondo fisico afferma che
«l’empirismo scettico, a stretto rigore di logica, è inattaccabile nelle sue premesse e nelle sue
conseguenze, ma coltivato in cultura pura conduce inevitabilmente a un vicolo cieco: il solipsismo»
(p. 39).

LA DIMENSIONE DI QUALCOSA CHE NON SIA FISICO.


Insomma, ritorna la dimensione di qualcosa che non sia fisico anche se legato alla materia: il
parallelismo psicofisico di Wilhelm Wundt, l’indistinto psicofisico di Roberto Ardigò.
Soggetto e oggetto sono, per il positivista italiano, riassunti nell’unità dell’esperienza, la quale
oltrepassa il dualismo in un "atto indifferenziato originario". Il punto di partenza della conoscenza è
sempre la sensazione: atto in sé unitario appunto, che si sdoppia in seguito, rispettivamente, nella
forma psichica "autosintesi", e nella forma fisica "eterosintesi": cioè in psiche e materia.
Ma già si avverte che è necessario introdurre una nuova entità: la coscienza, che poi è
presente nella stessa esperienza. La coscienza che, non solo analizza l’esperienza, ma sceglie e
aggiunge, in quanto è attiva.
Ma se tale è, la sensazione non può allora esser presa quale elemento fondamentale. Maurice
Blondel notava: sono ciò che sento nell’atto in cui sento, ma perché io senta occorre che nella
sensazione vi sia altro. Le sue parole: «Sono ciò che sento, sento ciò che è» (L’Action, Paris, 1936-
37, vol. I, pp. 85 seg).
Ce n’è abbastanza per mettere la scienza sotto processo e dichiararla incapace di spiegare il reale, e
dunque di dare risposte ultime e di verità. Pur essendo ancora lontani dalle affermazioni di Karl
Popper sull’aporia dentro la scienza, insita nello stesso suo procedere, per cui ogni conclusione
scientifica è falsificabile in quanto contiene un errore che si può risolvere con un altro esperimento
e in un’altra conclusione, che però conterrà a sua volta un altro errore.
Ritorna alla mente il teorema di Gödel, dimostrare la indimostrabilità nella matematica, che con
Popper si estende a tutta la scienza sperimentale, sempre falsificabile.
Ma se bisogna partire da qualche "inconoscibile", allora è come poggiare un palazzo sull’argilla,
non su salde fondamenta.

5
Non occorre tuttavia una lunga meditazione per accorgersi quanto fragile sia l’autoevidenza e allo
stesso tempo quanto precario sia fondare una posizione forte sul “semplice” problema di cosa sia la
realtà, senza la quale nulla che voglia fissarne leggi e princìpi appare solido e degno di rispetto.

IL MENTALISMO.
Ma se il realismo entra in crisi, si coglie bene che la porta è aperta all’idealismo, anzi all’idealismo
soggettivistico di George Berkeley (mentalism). E qui, certo, siamo lontani dalla scienza, a meno di
non fare una scienza soggettiva, ma allora ci si avvicina allo psicologismo, al sensismo.
Bertrand Russell, in La nostra conoscenza del mondo esterno e i metodi scientifici (1914),
sosteneva che la «cosa» non esiste realmente, bensì è una costruzione logica, così com’è del resto il
«soggetto», finzione logica analoga al «punto» della matematica: entrambi i termini sono annullati
in un «realismo neutro» in cui mente e oggetti sono parte d’una stessa sostanza, la mind-stuff, roba-
mentale.
Charlie D. Broad, fondatore della cosiddetta «project theory», nel libro Lo spirito e il suo posto
nella natura (1925), afferma che l’esistenza di oggetti deve esser ammessa come un atto di fede che
è ragionevole compiere. La maggior permanenza ed evidenza di alcune idee o dati, come l’essere
comune a molti osservatori, come la spazialità in cui i dati ci appaiono, non sono di per sé prove
dell’esistenza di cose esterne, ma rendono la credenza un assai rationabile obsequium, un ossequio
ragionevole.
Ma se questo è il nuovo realismo, si capisce che è assai debole. Quel che ne esce tuttavia è ancora
più debole.
George G. Moore è finito nel positivismo logico. L’affermazione secondo la quale gli oggetti fisici
esistono è vera, dice Moore, ma anziché cercare di stabilire che cosa questi oggetti siano, noi
dobbiamo analizzare il significato della nostra dichiarazione, riferendoci ai dati – esistenti o
possibili – del senso umano.
Lo scopo, insomma, non è di comprendere la natura dell’universo, ma di analizzare e rendere
chiaro e comprensibile il significato delle proposizioni che usiamo: per chiarire cosa
significhino le nostre parole quando sono usate in modo significativo.
Analogamente Ludwig Wittgenstein, prestigioso esponente del Circolo di Vienna (Wiener Schule),
afferma che «lo scopo della filosofia è la chiarificazione logica delle idee».
A questo proposito, C. E. M. Joad riferisce ironicamente del filosofo cinese che, recatosi nel 1930 a
Cambridge per apprendere da Moore la sua filosofia, alla fine osservava di aver imparato ben poco
nei riguardi della natura dell’universo, ma in compenso moltissimo sull’uso corretto della lingua
inglese (op. cit., p. 240).
La sola evidenza circa l’esistenza di un mondo esterno, nota ancora Russell, ci è data da certe
sensazioni che sono il risultato di una corrente nervosa, la quale stimola alcune cellule cerebrali. Le
correnti nervose sono a loro volta provocate da stimoli fisici, ma noi non abbiamo alcuna prova che
gli effetti sulla cellula cerebrale siano uguali o simili agli stimoli originali, poiché «ciò che
possiamo direttamente osservare del mondo fisico accade dentro le nostre teste ed è fatto di eventi
mortali».
Insomma, anche questo realismo disperato rimanda più al mito che alla realtà.

Potrebbero piacerti anche