Sei sulla pagina 1di 55

La Nuova Fisica: L'Asimmetria Onnipresente

di Piero Scaruffi

(Traduzione dall'originale di Ascanio Borga, Maggio 2003)

(Galileo, Newton, Hamilton, Maxwell, Clausius, Carnot, Boltzmann, Poincare', Murray Gell-man, Prigogine,
Einstein, Lorentz, Minkowski, Riemann, Planck, Broglie, Heisenberg, Schroedinger, Born, Casimir, Bohr, Bell,
Bohm, Price, Von Neumann,

Penrose, Lockwood, Deutsch, Hawking, Zurek, Anglin, Dirac, Wigner, Pauli, Weinberg,

Kaluza, Schwarz, Gross, Witten, Montonen, Hooft, Freund, Kaku, Bondi, Davies, Milne, Feynman, Wheeler,
Zeilinger, Schwarzschild, Godel, Kerr, Tipler, Thorne, Gold, Ricci, Weyl, Strominger, Bekenstein, Guth, Linde,
Smolin, Mach)

La Fisica e la Mente

La scienza odierna, in particolare la Teoria della Relativita’ e la Teoria Quantistica, ci offre un mondo che e’ a
malapena quello che conosciamo intuitivamente. La ragione e’ semplicemente: la teoria Quantistica e della
Relativita’ hanno a che fare con i problemi dell’immensamente grande e dell’immensamente piccolo. I nostri
cervelli sono fatti per risolvere un altro tipo di problemi. Sono fatti per avere a che fare con oggetti di media
grandezza, colorati, che si muovono lentamente in un mondo tridimensionale, in un periodo di meno di un
secolo.

La grande maggioranza delle teorie della mente danno per scontato che il mondo sia un mondo newtoniano di
oggetti, tempo continuo, di realta' assoluta e causalita' forzata. Quello che significa e' molto semplice: la
maggior parte delle teorie della mente sono basate su una Fisica che e' stato provato essere sbagliata. La Fisica
di Newton funziona in molti casi, ma oggi sappiamo che non funziona in altri. Non sappiamo se la mente fa
parte dell'insieme dei casi per i quali la Fisica di Newton e' una valida approssimazione della realta', o se la
mente appartiene all'insieme dei casi per i quali la Fisica di Newton fa predizioni errate. Ogni teoria della mente
basata sulla Fisica di Newton e' un azzardo.

Per esempio, agli psicologi spesso piace separare i sensi e le sensazioni basate sul fatto intuitivo che i sensi ci
danno una fotografia della realta', mentre piacere e dolore sono una conseguenza di una interpretazione del
mondo. Quando vedo un oggetto, sto trasferendo un pezzo di realta' cosi' com'e' all'interno della mia mente.
Quando provo piacere, sto interpretando qualcosa e generando una sensazione. Questa separazione ha senso
soltanto se diamo per scontato che gli oggetti esistano. Sfortunatamente, la Fisica Moderna ha cambiato la
nostra percezione della realta'. Cio' che esiste e' un caos di particelle elementari, che i nostri occhi "interpretano"
come oggetto. Una sedia non e' piu' reale di una sensazione di dolore. Sono entrambe create dalla mia mente.
Effettivamente, cio' che esiste veramente sono onde di probabilita', che in qualche modo il nostro cervello riduce
a oggetti.

La Fisica Moderna non e' necessariamente vera (sebbene Newton si sbagli necessariamente su diversi
argomenti, altrimenti Hiroshima sarebbe ancora in piedi). Ma molte teorie della mente si affidano ad una Fisica
che, de facto, o e' quella di Newton o e' una Fisica che non e' stata ancora inventata.

Il Mondo Classico: Utopia

Dal momento che siamo partiti dall'assunzione che la nostra Fisica e' inadeguata a spiegare almeno un fenomeno
naturale, la coscienza, e quindi non puo' essere "corretta" (o, almeno, completa), vale la pena di dare una breve
occhiata a cio' che la Fisica ha da dire circa l'universo abitato dalla nostra mente.

La nostra visione del mondo in cui viviamo ha subito un notevole cambiamento nel corso di questo secolo. La
Teoria Quantistica e la Teoria della Relativita' hanno cambiato radicalmente l'essenza della Fisica, dipingendo di
fronte a noi un quadro completamente differente di come le cose avvengono e perche' avvengono.

In primo luogo ricapitoliamo i concetti chiave della Fisica Classica. Galileo li formulo' nel Sedicesimo secolo.
Prima di tutto, un corpo in moto libero non ha bisogno di nessuna forza per continuare a muoversi. Secondo, se
una forza e' applicata, quello che cambia e' l'accelerazione, non la velocita'(la velocita' cambiera' come
conseguenza della variazione di accelerazione). Terzo, tutti i corpi cadono con la stessa accelerazione. Un
secolo piu' tardi, Newton espresse queste scoperte nell'elegante formalismo del calcolo differenziale e le inseri'
nell'elegante collocazione della geometria Euclidea. Tre leggi fondamentali spiegano tutto della natura (o
almeno tutto cio' che della natura era conosciuto al tempo). La prima legge afferma che l'accelerazione di un
corpo dovuta ad una forza e' proporzionale alla massa "inerziale" del corpo. La seconda afferma che l'attrazione
gravitazionale a cui e' soggetto un corpo e' proporzionale alla massa "gravitazionale". La terza afferma
indirettamente la conservazione dell'energia: ad ogni azione c'e' sempre una reazione identica.

Sono principalmente riformulazioni delle idee di Galileo, ma stabiliscono le esatte relazioni matematiche ed
assegnano valori numerici alle costanti. Si sono prestate a calcoli formali poiche' erano basate sul calcolo
infinitesimale e sulla geometria, entrambi sistemi formali basati sulla deduzione logica esatta. Applicando le
leggi di Newton, si puo' derivare l'equazione dinamica che descrive matematicamente il moto di un sistema: date
allo stesso tempo la posizione e la velocita', le equazioni sono in grado di determinare la posizione e la velocita'
per ogni tempo futuro. Il mondo di Newton era una macchina deterministica, della quale lo stato in ogni istante
era una diretta conseguenza del suo stato ad un istante precedente. Due leggi di conservazione furono
particolarmente efficaci nel vincolare il moto dei sistemi: la conservazione dell’impulso (momentum, o quantita'
di moto, cioe' massa per velocita') e la conservazione dell'energia. Nessun evento fisico puo' alterare il valore
totale dell'energia: l'energia puo' cambiare forma, ma alla fine la sua quantita' sara' sempre la stessa.

Nel Diciannovesimo secolo, il matematico Irlandese William Hamilton, si rese conto di quello che Newton
solamente implicava: cioe' che la velocita', cosi' come la posizione, determinano lo stato di un sistema. Capi'
anche che la quantita' chiave e' l'energia totale del sistema. Combinando queste intuizioni, Hamilton ridefini'
l'equazione della dinamica di Newton con due equazioni che ricavo' da una sola quantita' (la funzione
Hamiltoniana, una misura dell'energia totale del sistema), che rimpiazzavano l'accelerazione (una derivata del
secondo ordine) con la derivata prima della velocita', e che erano simmetriche (dal momento che la velocita' era
stata sostituita dall’impulso). L'idea di fondo era che posizione e velocita' avevano lo stesso ruolo e che quindi
lo stato del sistema poteva essere visto e descritto da sei coordinate, le tre coordinate della posizione piu' le tre
coordinate dell’impulso. In ogni istante si possono calcolare le configurazioni delle sei coordinate e la
successione di queste configurazioni sarebbe la storia del sistema nel mondo. Si puo' quindi visualizzare
l'evoluzione del sistema in uno spazio a sei dimensioni, lo "spazio delle fasi".
Nel Diciannovesimo secolo due fenomeni posero crescenti problemi alla descrizione di Newton: i gas e
l'elettromagnetismo. I gas erano stati studiati come collezioni di particelle, ma, essendo un gas fatto di molte
particelle microscopiche in moto molto veloce ed in continua interazione, questo modello, si rivelo' presto una
grossolana approssimazione. L'approccio classico fu presto abbandonato in favore di un approccio stocastico,
dove quello che conta e' il comportamento medio di una particella e tutte le quantita' che contano (dalla
temperatura al calore) sono quantita' statistiche.

Nel frattempo, si stavano accumulando prove crescenti che i corpi elettrici irraggiavano onde di energia
invisibili attraverso lo spazio, creando mediante cio' i campi elettromagnetici che potevano interagire l'uno con
l'altro, e che la luce non era altro che un caso particolare di campo elettromagnetico. Nel decennio successivo al
1860 il fisico britannico James Maxwell espresse le proprieta' dei campi elettromagnetici con un insieme di
equazioni. Queste equazioni somigliavano alle equazioni di Hamilton per il fatto che avevano a che fare con le
derivate prime delle intensita' elettriche e magnetiche. Data la distribuzione delle cariche elettriche e magnetiche
a un certo tempo, le equazioni di Maxwell potevano determinare la distribuzione in ogni tempo successivo. La
differenza e' che le intensita' elettriche e magnetiche si riferiscono ad onde, mentre posizione e impulso si
riferiscono a particelle. Il numero di coordinate necessarie a determinare un'onda e' infinito, non sei...

Allora, era gia' chiaro che la Scienza si trovava ad affrontare un dilemma, che era destinato a diventare il tema
del resto del secolo: ci sono forze elettromagnetiche che tengono insieme le paricelle in oggetti, e ci sono forze
gravitazionali che tengono insieme gli oggetti nell'universo, e queste due forze sono entrambe forze che
dipendono dall’inverso del quadrato della distanza (l'intensita' della forza e' inversamente proporzionale al
quadrato della distanza), ma le due quantita' su cui operano (carica elettrica e massa) si comportano in modo
completamente differente, conducendo percio' a due descrizioni completamente differenti dell'universo.

Un altro tranello di tutte queste equazioni e che la bella e solenne architettura della Fisica non poteva distinguere
il passato dal futuro, qualcosa che e' ovvio a tutti noi. Tutte le equazioni della fisica erano simmetriche nel
tempo. Non c'e' nulla nelle leggi di Newton, nelle leggi di Hamilton, nelle leggi di Maxwell o perfino in quelle
di Einstein che puo' discriminare il passato dal futuro. La Fisica era reversibile nel tempo, qualcosa che va
contro la nostra percezione dell'assoluto e ahime' irrevocabile scorrere del tempo.

La Rimozione della Coscienza

Nel processo, qualcos'altro era successo, qualcosa di grande importanza, anche se le sue conseguenze non
sarebbero state apprezzate per qualche secolo. Rene' Descartes aveva introdotto il "metodo sperimentale": la
scienza deve essere basata su esperimenti e dimostrazioni. Descartes inizio' a definire il dominio della scienza.
Fece distinzione tra materia e mente, e decise che la scienza doveva occuparsi della materia. Ne naque lo scisma
che avrebbe influenzato lo sviluppo della conoscenza umana per i tre secoli successivi: la scienza e' lo studio
della natura, e la nostra coscienza non appartiene alla natura. Galileo miglioro' il metodo di Descartes
incoraggiando lo studio matematico della natura. Newton si baso' sui principi di Galileo. La Fisica, in altre
parole, fu forzata a ripudiare la coscienza e sviluppo' un sofisticato sistema di costruzione di conoscenza e
verifica che non si interessava, e quindi non si applicava, alla coscienza. Gli scienziati parlarono di "natura"
come se ne facevano parte soltanto oggetti inanimati e privi di coscienza. Non sorprende che finirono per
costruire una scienza che spiega tutti i fenomeni inanimati e privi di coscienza, ma non la coscienza.
Entropia: la maledizione dell'irreversibilita'

Puo' darsi che il singolo cambiamento maggiore nel pensiero scientifico non abbia nulla a che fare con la teoria
della Relativita' e la teoria Quantistica: la scoperta che alcuni processi non sono simmetrici nel tempo. Prima
della scoperta della seconda legge della Termodinamica, tutte le leggi erano simmetriche nel tempo, e i
cambiamenti potevano sempre essere bidirezionali. Ogni formula aveva un segno di uguaglianza che voleva dire
che si potevano scambiare le due parti a piacimento. Si poteva sempre ripercorrere la storia dell'universo al
contrario. L'entropia cambio' tutto questo.

L'entropia fu "scoperta" intorno al 1850 dal fisico tedesco Rudolf Clausius nel processo di revisione delle leggi
proposte dall'ingegnere francese Sadi Carnot, che sarebbero diventate le fondamenta della Termodinamica. La
prima legge della termodinamica e' sostanzialmente la legge di conservazione dell'energia: l'energia non puo'
mai essere creata ne' distrutta, puo' essere soltanto trasformata. La seconda legge dice che ogni trasformazione
ha un costo energetico: questo "prezzo" di trasformazione dell'energia fu chiamato da Clausius "entropia". I
processi naturali generano entropia. L'entropia spiega perche' il calore fluisce spontaneamente dai corpi caldi a
quelli freddi, ma non succede mai il contrario: l'energia puo' essere persa in entropia, non viceversa.

Clausius riassunse la situazione in questo modo: l'energia dell'universo e' costante, l'entropia dell'universo
aumenta.

Negli anni dopo il 1870, il fisico tedesco Ludwig von Boltzmann provo' a dedurre l'entropia dal moto delle
particelle di gas, ovvero da leggi dinamiche che sono reversibili in natura. Sostanzialmente, Boltzmann cerco' di
dimostrare che l'entropia (e di conseguenza l'irreversibilita') e' un'illusione, che la materia al livello
microscopico e' fondamentalmente reversibile. Boltzmann giunse ad una definizione statistica dell'entropia per
caratterizzare il fatto che molti stati microscopici differenti di un sistema risultano lo stesso stato a livello
macroscopico: l'entropia di uno stato macroscopico e' il logaritmo del numero dei suoi stati microscopici. Non e'
molto intuitivo come questa definizione di entropia si lega a quella originale, ma e' cosi'. Sostanzialmente,
l'utilita' dell'entropia e' il fatto di essere la misura del disordine in un sistema.

La seconda legge della Termodinamica e' una disuguaglianza: stabilisce che l'entropia non puo' mai diminuire.
Indirettamente, questa legge dice che i processi di trasformazione non possono ripercorsi all'indietro, non
possono essere "annullati". I giovani possono invecchiare, ma i vecchi non possono ringiovanire. Le costruzioni
non migliorano con gli anni, vanno in rovina. Le uova strapazzate non possono essere ricomposte e le zollette di
zucchero sciolte non possono essere riformate. L'universo deve evolvere verso una situazione di entropia sempre
piu' elevata. Certe cose sono irreversibili.

L'universo nella sua interezza sta procedendo verso il suo ineludibile destino: la "morte termica", cioe' lo stato di
massima entropia, nel quale non e' possibile nessun passaggio di calore, il che significa che la temperatura e'
costante ovunque, ovvero che non e' disponibile energia per produrre altro calore, in altre parole tutta l'energia
dell'universo e' nella forma di calore. (L'unica via d'uscita dalla "morte termica" sarebbe se l'energia
dell'universo fosse infinita).

Gli scienziati erano (e sono tuttora) sconcertati dal fatto che l'irreversibilita' (la legge dell'entropia) era stata
dedotta dalla reversibilita' (praticamente, le leggi di Newton). I fenomeni meccanici tendono ad essere
reversibili , mentre i fenomeni termodinamici tendono ad essere irreversibili nel tempo. Dal momento che un
fenomeno termodinamico e' costituito da molti fenomeni meccanici, il paradosso e' come puo' un processo
irreversibile risultare da molti processi reversibii ? E' strano che l'irreversibilita' possa sorgere dal
comportamento di molecole che, prese individualmente, obbediscono a leggi fisiche che sono reversibili.
Possiamo seguire il moto di ogni singola paricella in un gas, e riportarla indietro. Ma non possiamo riportare
indietro le conseguenze macroscopiche del moto di migliaia di tali particelle in un gas.

Se si filma il comportamento di ogni particella di gas mentre esso si porta da una situazione di non-equilibrio
all'equilibrio, e poi si riguarda il filmato all'indietro, il filmato e' perfettamente coerente con le leggi della
Meccanica. In pratica, tuttavia, i sistemi non si muovono mai spontaneamente dall'equilibrio al non-equilibrio: il
filmato e' perfettamente eseguibile, ma in pratica non si realizza mai.

L'unica ragione che si pote' trovare fu probabilistica, non meccanica: la probabilita' di stati macroscopici a bassa
entropia e' piu' bassa, per definizione, della probabilita' di stato macroscopico ad alta entropia, cosi' l'universo
tende a proseguire verso una maggiore entropia.

E si puo' parafrasare la stessa idea in termini di equilibrio: poiche' gli stati di equilibrio sono stati che
corrispondono al massimo numero di stati microscopici, e' improbabile che un sistema si muova verso uno stato
di non-equilibrio, mentre e' probabile che si muova verso uno stato di equilibrio.

L'inganno e' che Boltzmann fece l'ipotesi che un gas (un insieme discreto di particelle interagenti) puo' essere
considerato un continuo di punti e, soprattutto, che le particelle possono essere considerate indipendenti l'una
dall'altra: se queste arbitrarie assunzioni sono abbandonate, non esiste nessuna dimostrazione rigorosa per
l'irreversibilita' dei processi naturali. Il matematico francese Jules Henri Poincare', per esempio, dimostro' giusto
il contrario: che ogni sistema isolato deve in definitiva ritornare allo stato iniziale. Poincare' dimostro l'eterna
ricorrenza dove la Termodinamica aveva dimostrato l'eterno fato.

L'entropia e' una misura del disordine, e nel disordine si trova informazione (maggiore il numero di stati
microscopici maggiore e' l'informazione, quindi maggiore e' il disordine maggiore e' l'informazione), quindi in
definitiva l'entropia e' una misura di informazione.

In seguito, diversi scienziati interpretarono l'entropia come una misura dell'ignoranza circa lo stato microscopico
del sistema, per esempio come una misura della quantita' di informazione necessaria a specificarlo. Murray
Gell-man ha recentemente riassunto questi argomenti quando ha dato la sua spiegazione per la deriva
dell'universo verso il disordine. La ragione che la natura preferisce il disordine all'ordine e' che ci sono molti piu'
stati di disordine che di ordine, di conseguenza e' piu' probabile che un sistema finisca per trovarsi in uno stato
di disordine. In altre parole, la probabilita' del disordine e' molto piu' alta della probabilita' dell'ordine
spontaneo, ed e' per questo che il disordine si realizza piu' spesso dell'ordine.

Tocco' al fisico belga (ma nato in Russia) e vincitore del premio Nobel Ilya Prigogine, negli anni 1970, fornire
una piu' credibile spiegazione per l'origine dell'irreversibilita'. Egli osservo' dell'asimmetria relativa al tempo in
processi caotici a livello microscopico, che causa entropia a livello macroscopico, raggiungendo l'affascinante
conclusione che l'irreversibilita' ha origine da una casualita' che e' inerente in natura.

Gli stati di equilibrio sono anche stati di minima informazione (sono necessari pochi parametri per identificare
lo stato, ad esempio un valore di temperatura per l'intero gas a temperatura uniforme). L'informazione e'
entropia negativa e questa equivalenza gioca un ruolo chiave nell'applicazione dell'entropia al di la' della Fisica.

Un mondo accelerato

La Scienza e' stata a lungo ossessionata dall'accelerazione. Galileo e Newton passarono alla storia per essere
riusciti ad essere riusciti ad esprimere il semplice concetto di accelerazione. Dopo di loro la Fisica suppose che
un oggetto e' definito dalla sua posizione, dalla sua velocita' (cioe' la rapidita' con la quale cambia la sua
posizione) e la sua accelerazione (cioe' la la rapidita' con la quale cambia la sua velocita'). La domanda e':
perche' fermarsi qui? Perche' non abbiamo bisogno della "rapidita’ con cui un oggetto cambia la sua
accelerazione" e cosi' via? La posizione e' una coordinata spaziale. La velocita' e' la derivata prima rispetto al
tempo di una coordinata spaziale. L'accelerazione e' la derivata seconda rispetto al tempo di una coordinata
spaziale. Perche' abbiamo bisogno soltanto di due ordini di derivate per identificare un oggetto, e non tre o
quattro o ventuno?

Perche' la forza principale con cui dobbiamo fare i conti e' la gravita', ed essa causa soltanto accelerazione. Non
conosciamo nessuna forza che causi un cambiamento di accelerazione, quindi non siamo interessati in ordini
superiori di derivate. Per essere precisi, le forze sono definite come cose che provocano accelerazione, e solo
accelerazione (come nella famosa equazione di Newton "F=ma"). Non abbiamo nemmeno delle parole per
indicare cose che causerebbero una derivata terza rispetto al tempo di una coordinata spaziale.

Di fatto, Newton diede una spiegazione dell'accelerazione introducendo la gravita'. In un certo senso Newton
trovo' piu' che una legge della Fisica, egli spiego' una ossessione millenaria: la ragione per cui il genere umano
e' stato cosi' interessato all'accelerazione e' che c'e' una forza chiamata gravita' che guida l'intero mondo. Se non
esistesse la gravita', probabilmente non ci saremmo mai disturbati a studiarla. I produttori di automobili
direbbero soltanto ai clienti quanto tempo impiega la loro auto a raggiungere questa o quella velocita'.
L'accelerazione non avrebbe neanche un nome.

Relativita': Il Primato della Luce

La Teoria della Relativita' Speciale nacque (nel 1905) dalla convinzione di Einstein che le leggi della natura
devono essere uniformi, sia che descrivano il moto dei corpi o il moto degli elettroni. Quindi le equazioni di
Newton per il moto dei corpi e le equazioni di Maxwell per la dinamica delle onde elettromagnetiche dovevano
essere riunite in un unico insieme di equazioni. Inoltre, dovevano essere le stesse in tutti i sistemi di riferimento
"inerziali", cioe' la cui velocita' relativa e' costante. Galileo mostro' che questo era vero per la meccanica di
Newton, ed Einstein voleva che fosse vero anche per l'elettromagnetismo di Maxwell. Per ottenere cio', si
devono modificare le equazioni di Newton, come il fisico olandese Hendrik Lorentz aveva gia' fatto notare nel
1892. Le implicazioni di questa unificazione sono importanti.

La Relativita' concepisce ogni moto come "relativo" a qualcosa. Il moto assoluto di Newton, come ha piu' volte
fatto notare il fisico moravo Ernst Mach, e' un ossimoro. Il moto e' sempre misurato relativamente a qualcosa.
Nel migliore dei casi, si puo' isolare un sistema di riferimento privilegiato come un meta-sistema di riferimento.
Ma anche questo privilegiato sistema di riferimento (quello "inerziale") e' ancora misurato relativamente a
qualcosa, cioe' le stelle. Non c'e' nessun sistema di riferimento a riposo, non c'e' nessun sistema di riferimento
"assoluto". Mentre questo fu quello che diede alla Relativita' il suo nome, molta altra "relativita'" era nascosta
nella teoria.
Nella Relativita', spazio e tempo sono semplicemente dimensioni differenti dello stesso continuum spazio-
temporale (come affermato nel 1908 dal matematico russo Hermann Minkowski). Einstein mostro' che la
lunghezza di un oggetto e la durata di un evento sono relativi all'osservatore. Questo e' equivalente a calcolare
una traiettoria in uno spazio-tempo quadridimensionale che e' assoluto. Lo spazio-tempo e' lo stesso in ogni
sistema di riferimento e cio' che cambia e' la componente del tempo e spazio che e' visibile dalla tua prospettiva.

Tutte le quantita' sono ridefinite nello spazio-tempo e devono avere quattro dimensioni. Per esempio, l'energia
non e' piu' un valore semplice (mono-dimensionale), e l’impulso non e' piu' una quantita' tridimensionale:
energia e impulso sono una sola quantita' spazio-temporale che ha quattro dimensioni. Quale parte di questa
quantita' e' energia e quale e' l’impulso dipende dall'osservatore: osservatori differenti vedono cose diverse a
seconda del loro stato di moto, perche', a partire dal loro stato di moto, una quantita' quadri-dimensionale viene
divisa in maniere diverse in una componente di energia e in una componente di impulso. Tutte le quantita' sono
scomposte in una componente temporale e una spaziale, ma la maniera in cui avviene cio' dipende dallo stato di
moto dell'osservatore.

Questo fenomeno e' simile a guardare ad una costruzione da una prospettiva piuttosto che da un'altra: quello che
percepiamo come profondita', larghezza o altezza dipende da dove stiamo guardando. Un osservatore situato da
qualche altra parte avra' una diversa prospettiva e misurera' differenti profondita' larghezza e altezza. La stessa
idea si mantiene nello spazio-tempo, eccetto che ora il tempo e' anch'esso una delle quantita' che cambiano con
la "prospettiva", e il moto dell'osservatore (piuttosto che la sua posizione) determina quale sia la "prospettiva".
Questo spiega i fenomeni bizzarri dello spazio e del tempo: all'aumentare della velocita', le lunghezze si
contraggono e il tempo rallenta (il primo a proporre che le lunghezze dovessero contrarsi fu, nel 1889, il fisico
irlandese George Fitzgerald, ma egli pensava ad una contrazione fisica dell'oggetto, e Lorentz lo appoggio'
poiche’ cio' dava alle equazioni di Maxwell una forma particolarmente elegante, a seconda che l'osservatore
fosse a riposo o in moto). Questo fenomeno e' trascurabile a basse velocita', ma diventa molto evidente a
velocita' prossime a quelle della luce.

Un'implicazione ulteriore e' che "adesso" diventa un concetto privo di senso: l'"adesso" di un osservatore non e'
l'"adesso" di un altro osservatore. Due eventi possono essere simultanei per un osservatore, mentre possono
succedere a tempi differenti per un altro osservatore: ancora, e' la loro prospettiva nello spazio-tempo a
determinare cosa vedono.

Perfino il concetto stesso di scorrere del tempo e' opinabile. Sembra esserci uno spazio-tempo assoluto, e il
passato determina il futuro. In effetti, non sembra esserci differenza tra passato e futuro: ancora, e' solo un fatto
di prospettiva.

La massa e l'energia non sono escluse dalla "relativita'". La massa e l'energia di un oggetto aumentano se
l'oggetto aumenta di velocita'. Questo principio viola il tradizionale principio di conservazione, che sosteneva
che nulla puo' essere distrutto o creato, ma Einstein dimostro' che massa ed energia possono trasformarsi l'una
nell'altra in virtu' della sua famosa formula (una particella a riposo ha energia uguale alla sua massa per la
velocita' della luce al quadrato), e un pezzo di materia molto piccolo puo' rilasciare un'enorme quantita' di
energia. Gli scienziati erano gia' familiari con un fenomeno in cui la massa sembrava scomparire e
corrispondentemente l'energia sembrava apparire: la radioattivita', scoperta nel 1896. Ma le conclusioni di
Einstein che tutta la materia e' energia erano lontane dall'essere raggiunte.
La luce ha uno status privilegiato nella Teoria della Relativita'. La ragione e' che la velocita' della luce e' sempre
la stessa, indipendentemente da come la si osservi. Se si corre alla stessa velocita' di un treno, si vede il treno
fermo. Al contrario, se si potesse correre alla velocita' della luce, si vedrebbe ancora la luce muoversi alla
velocita' della luce. La maggior parte delle proprieta' bizzarre della Relativita' sono in effetti conseguenze di
questo postulato. Einstein dovette adottare le trasformazioni di coordinate di Lorentz, che lasciano la velocita'
della luce costante in tutti i sistemi di riferimento, indipendentemente dalla velocita' alla quale essa si muove,
ma per ottenere questo risultato bisogna postulare che i corpi in movimento si contraggono e gli orologi in
movimento rallentano di una quantita' che dipende dalla loro velocita'.

Se tutto questo non sembra realistico, si ricordi che secondo la Fisica tradizionale la bomba sganciata su
Hiroshima avrebbe dovuto semplicemente rimbalzare, mentre secondo la Relativita' di Einstein doveva
esplodere e generare una gran quantita’ di energia. La bomba rimane la prova piu' rimarchevole della Relativita'
di Einstein. Nulla nella Teoria Quantistica puo' eguagliare questo tipo di prova.

La vita su una Linea di Universo

La velocita' della luce e' finita, e uno dei principi fondamentali della Relativita' e' che nulla puo' viaggiare piu'
veloce della luce. Di conseguenza, un oggetto situato in uno specifico punto dello spazio-tempo non sara' mai in
grado di raggiungere aree spazio-temporali dell'universo che richiederebbero di viaggiare piu' veloce della luce.

Il "cono di luce" di un punto dello spazio-tempo e' l'insieme di tutti i punti che possono essere raggiunti da ogni
possibile raggio di luce passante per quel punto. Poiche' la velocita' della luce e' finita, questa regione quadri-
dimensionale ha la forma di un cono (se l'asse del tempo e' perpendicolare agli assi per le tre coordinate
spaziali). Il cono di luce rappresenta il futuro potenziale dell'evento: questi sono tutti i punti che possono essere
raggiunti nel futuro viaggiando alla velocita' della luce o piu' lentamente. Proiettando il cono all'indietro, si
ottiene il cono di luce del passato. Il passato effettivo del punto e' contenuto nel cono di luce del passato e il
futuro effettivo del punto e' contenuto nel cono di luce del futuro. Cio' che e' al di fuori dei due coni non e'
raggiungibile da quel punto. E, viceversa, nessun evento situato fuori dal cono di luce puo' influenzare il futuro
di quel punto. L'"orizzonte degli eventi" di un osservatore e' una superficie spazio-temporale che divide lo
spazio-tempo in regioni che possono comunicare con l'osservatore, e regioni che non possono.

La "linea di universo" e' il cammino spazio-temporale che un oggetto sta effettivamente percorrendo attraverso
lo spazio-tempo. Questa linea e' sempre contenuta all'interno del cono di luce.

Oltre alla tradizionale quantita' di tempo, la Teoria della Relativita' introduce un nuovo tipo di tempo. Il tempo
"proprio" e' la distanza spazio-temporale tra due punti su una linea di universo, poiche' questa distanza risulta
essere il tempo misurato da un osservatore che viaggia lungo la linea di universo.

La Relativita' ha cancellato il concetto di Tempo assoluto, ma nel farlo ha stabilito una forma ancora piu' forte di
determinismo. Sembra come se le nostre vite siano rigidamente determinate e il nostro compito nell'universo sia
semplicemente di viaggiare su una linea di universo. Non c'e' nessuna clausola per il libero arbitrio nella
Relativita'.

Relativita' Generale: la Parola alla Gravita'


Newton ha spiegato come funziona la gravita', ma non che cosa sia.

La Teoria della Relativita' di Einstein e' in definitiva circa la natura della gravitazione, che e' la forza che tiene
insieme l'universo. La Relativita' spiega la gravitazione in termini di spazio-tempo curvo, cioe' in termini di
geometria.

Il principio fondamentale di questa teoria (il "principio di equivalenza") e' in effetti piuttosto semplice: ogni
sistema di riferimento in caduta libera e' equivalente a un sistema di riferimento inerziale. Cio' perche' se sei in
caduta libera, non puoi percepire il tuo stesso peso, cioe' la gravita'(la gravita' e' cancellata in un sistema di
riferimento in caduta libera, cosi' come la velocita' di un oggetto e' cancellata in un sistema di riferimento che si
muove alla stessa velocita'). Le leggi della Relativita' Speciale si applicano ancora.

Il principio di equivalenza di Einstein esprime semplicemente il fatto che la gravitazione e l'accelerazione sono
equivalenti. Se non potete vedere cosa succede, e tutto quello che riuscite a misurare e' l'accelerazione di
9.8m/sec2 di un oggetto che lasciate cadere, non potete decidere se siete fermi e soggetti alla gravita' terrestre o
se state accelerando nello spazio vuoto. Tutto cio' che potete osservare e' una accelerazione di 9.8. Se siete
fermi, questa e' l'accelerazione che vi aspettereste per ogni oggetto che sta cadendo. Se siete in un razzo che sta
accelerando verso l'alto a 9.8, questa e' l'accelerazione che vi aspettereste per ogni oggetto che sta cadendo. A
meno che non riusciate a vederlo, non potete sapere qual'e'. L'effetto e' lo stesso. Di conseguenza, Einstein
concluse che potete trattarli come un unico caso: gravita' e accelerazione sono equivalenti.

Dal momento che la gravitazione causa un moto naturale, l'idea di Einstein fu quella di considerare le cadute
libere come moti naturali, come linee rette nello spazio-tempo. L'unica maniera di ottenere questo era quella di
assumere che l'effetto di un campo gravitazionale e' di produrre una curvatura dello spazio-tempo: la linea retta
diventa una "geodetica", la strada piu' breve che unisce due punti in una superficie curva (se la superficie e'
piatta, allora la geodetica e' una linea retta). I corpi non soggetti ad altre forze oltre al campo gravitazionale si
muovono lungo geodetiche dello spazio-tempo.

La curvatura dello spazio-tempo e' misurata da un "tensore di curvatura" originariamente introdotto nel 1854 dal
matematico tedesco Bernhardt Riemann. La geometria di Riemann comprende la geometria Euclidea classica
come un caso particolare, ma e' molto piu' generale.

Lo spazio-tempo quadridimensionale di Minkowsky e' caratterizzato da una "metrica". Una metrica e' una
matrice 4x4, di cui ogni riga e colonna rappresenta una delle dimensioni. La metrica per lo spazio-tempo di
Minkowsky ha zeri ovunque tranne che sulla diagonale della matrice. La diagonale ha valori 1,1,1, e -1. Questo
vuol dire che il teorema di Pitagora vale ancora, e il tempo e' una dimensione aggiuntiva. Gli zeri nelle altre
posizioni della matrice specificano che lo spazio e' piatto. Quando gli uno e gli zeri cambiano, i loro valori
specificano una curvatura per lo spazio-tempo. La geometria Euclidea vale solo con le metriche degli spazi
piatti. La geometria di Riemann vale con ogni combinazione di valori, cioe' con ogni grado e tipo di curvatura.

Una specifica conseguenza della geometria Riemanniana e' che la "forza" diventa un effetto della geometria
dello spazio. Una "forza" e' semplicemente una manifestazione di una distorsione nella geometria dello spazio.
Dovunque c'e' una distorsione, un oggetto in moto sente una "forza" che influenza il suo moto. La geometria di
Riemann e' basata sulla nozione di "tensore metrico (o di curvatura)", che esprime la curvatura dello spazio. Su
una superficie due-dimensionale ogni punto e' descritto da tre numeri. In un mondo a quattro dimensioni,
servono dieci numeri per ogni punto. Questo e' un tensore metrico. La geometria di Euclide corrisponde a uno
degli infiniti tensori possibili (quello che rappresenta curvatura zero).

Non solo spazio e tempo sono relativi, ma lo spazio-tempo e' curvo.

Per la cronaca, il matematico tedesco David Hilbert trovo' l'equazione del campo prima di Einstein e le espresse
in una formulazione astratta (mentre la vesione di Einstein era basata sui concetti di est-ovest, nord-sud e sopra-
sotto), ma Hilbert umilmente sostenne sempre che quelle erano le equazioni di Einstein, non le sue, intendendo
che Einstein aveva avuto tutte le idee e aveva avuto soltanto bisogno di un piccolo aiuto da un matematico
professionista.

Con le sue equazioni del campo del 1915, Einstein realizzo' la connessione con il mondo fisico: egli mise in
relazione la curvatura dello spazio-tempo causata da un oggetto con l'energia e l’impulso dell'oggetto
(precisamente, il tensore di curvatura al "tensore energia-impulso"). Quindi Einstein introdusse due idee
innovative: la prima e' che noi dovremmo considerare spazio e tempo insieme (tre dimensioni spaziali e una
dimensione temporale), non come separati; la seconda e' che cio' che causa le deformazioni dello spazio-tempo
(cioe' quello che altera la metrica dalla geometria di Euclide) e' la massa. Una massa non causa volontariamente
effetti gravitazionali: una massa prima deforma lo spazio-tempo e quella deformazione influira' sul moto di altri
oggetti che indirettamente sentiranno la "forza gravitazionale" della massa.

Riassumendo: la dinamica della materia e' determinata dalla geometria dello spazio-tempo, e viceversa quella
geometria e' determinata dalla distribuzione di materia. Lo spazio-tempo si comporta come un congegno
intermedio che trasmette l'esistenza di materia ad altra materia.

Incidentalmente, questo implica che la gravitazione influisce anche su oggetti privi di massa. Questo include la
luce stessa: un raggio di luce e' piegato da un campo gravitazionale. I raggi di luce seguono le geodetiche, che
possono essere incurvate da una deformazione spazio-temporale.

La Relativita' Speciale richiese che le leggi della natura fossero le stesse in tutti i sistemi di riferimento inerziali,
il che implicava che esse dovevano essere invarianti rispetto alle trasformazioni di Lorentz. Di conseguenza,
Einstein dovette accettare che gli orologi rallentassero e i corpi si contraessero. Con la Relativita' Generale, egli
volle che le leggi della natura fossero le stesse in tutti i riferimenti, inerziali o no (le sue equazioni del campo
sostanzialmente eliminarono la necessita' di riferimenti inerziali). Questo implica che le leggi della natura
devono essere "covarianti" (sostanzialmente devono avere la stessa forma) rispetto a una generica
trasformazione di coordinate. Questo risulto' implicare una ulteriore erosione del concetto di Tempo: risulto' che
gli orologi rallentavano solo perche' si trovavano nel posto sbagliato, cioe' in un campo gravitazionale.

Mentre apparenti paradossi (come il paradosso dei gemelli) sono stati ampiamente pubblicizzati, la Teoria della
Relativita' e' stata sorprendentemente accurata nelle sue predizioni e finora nessun serio colpo e' stato assestato
alle sue fondamenta. Mentre la gente comune puo' essere riluttante a pensare a spazi curvi e a dilatazioni
temporali, tutti questi fenomeni sono stati rafforzati via via da innumerevoli esperimenti.

Teoria Quantistica: L'Onda


La Teoria Quantistica fu la logica conseguenza di due scoperte. Nel 1900 il fisico tedesco Max Planck risolse il
mistero della radiazione emessa da corpi riscaldati: realizzo' che gli atomi possono emettere energia in quantita'
discrete. La natura sembrava proibire scambi di energia compresi tra questi valori discreti. Nel 1913 il fisico
danese Niels Bohr risolse un altro mistero, la struttura dell'atomo: gli elettroni girano attorno al nucleo e sono
autorizzati ad occupare soltanto alcune orbite. Ancora, la Natura sembrava proibire l'esistenza in mezzo alle
orbite.

L'assunzione fondamentale della Teoria Quantistica e` che ogni campo di forze si manifesta sotto forma di
particelle discrete (o "quanta"). Le forze sono manifestazioni di uno scambio di quantita` discrete di energia. Per
esempio, le onde elettromagnetiche trasportano un'energia che e' un multiplo intero di una costante
fondamentale, la "costante di Planck".

Una implicazione, come proposto dal fisico francese Louis de Broglie nel 1923 (dopo che Einstein aveva fatto la
stessa ipotesi circa la luce), e' che le onde e le particelle sono due aspetti del medesimo fenomeno: ogni
particella si comporta come un'onda, e ogni onda puo' essere associata ad una particella. Si puo' parlare di
energia e massa, di frequenza e di lunghezza d'onda. Le due descrizioni sono equivalenti, o meglio,
complementari.

Il carattere di questa relazione fu definito nel 1925 da Werner Heisenberg in Germania e da Erwin Schroedinger
in Austria. Entrambi trovarono delle equazioni che rimpiazzavano le equazioni della fisica di Newton, ma
entrambe le equazioni avevano spiacevoli conseguenze: le equazioni di Heisenberg implicavano che il risultato
di un esperimento fisico dipende dall'ordine con cui sono eseguiti i calcoli, e le equazioni di Schroedinger
implicavano che ogni particella puo' effettivamente essere considerata soltanto un'onda. Nel 1926 Max Born
capi' le implicazioni del dualismo onda-particella: l'onda associata ad una particella e` un'onda di probabilita`,
allo scopo di spiegare le possibilita' alternative che si aprono per il futuro di una particella. Lo stato di una
particella e` descritto da una "funzione d'onda" che riassume (e sovrappone) tutte le alternative e le loro
probabilita'. La funzione d'onda contiene tutta l'informazione che c'e' circa la particella (o, in generale, circa un
sistema). Contiene le risposte a tutte le domande che possono essere fatte circa la particella.

La ragione per cui e' un'"onda" di probabilita' e non solo un insieme di probabilita' e' che l'equazione trovata da
Schroedinger per descrivere cio' e' l'equazione di un'onda elettromagnetica.

L'equazione di Schroedinger descrive come questa funzione d'onda si evolve nel tempo, ed e' percio'
l'equivalente quantistico delle equazioni di Hamilton. L'equazione di Schroedinger fissa, deterministicamente,
l'evoluzione temporale dallo stato dell'universo. Ma in ogni istante di tempo la funzione d'onda descrive un
insieme di probabilita', non semplicemente una sola attualita'. Lo stato corrente della particella in effetti e'
pensato come una "sovrapposizione" di tutte quelle alternative che sono rese possibili dal suo comportamento
tipo onda. Lo stato corrente di una particella e', percio', un numero di stati: si puo' vedere la particella come in
tutti questi stati contemporaneamente. Questa e' una diretta conseguenza del fatto che una particella non e'
soltanto una particella ma anche un'onda.

Come ha detto Bohr, il moto di particelle segue la legge delle probabilita', ma la stessa probabilita' segue la
legge della causalita'.

Nel 1927 Bohr ha indicato il paradosso fondamentale del dualismo onda-particella: tutto e' sia particella che
onda, ma bisogna scegliere se misurare l'uno o l'altro aspetto della natura, e considerare solo quello. Se si cerca
di mischiare i due aspetti, si cade in contraddizioni.

Entra l'indeterminatezza

Nella Fisica classica, una quantita' (come la posizione o la massa) e' sia un attributo dello stato di un sistema e
sia un osservabile (una quantita' che puo' essere misurata da un osservatore). La Teoria Quantistica fa una netta
distinzione tra stati e osservabili. Se il sistema e' in un dato stato, un osservabile puo' assumere un range di
valori (detti "autovalori"), ognuno con una data probabilita'. L'evoluzione nel tempo di un sistema puo' essere
vista (secondo Heisenberg) come l'effetto dell'evoluzione temporale degli osservabili o (secondo Schroedinger)
dell'evoluzione temporale degli stati.

Un osservatore puo' misurare allo stesso tempo soltanto osservabili che sono compatibili. Se gli osservabili non
sono compatibili, sono in una relazione di mutua indeterminazione: piu' e' accurata la misura di uno, meno
accurata e' la misura dell'altro. Posizione e impulso sono, per esempio, incompatibili. Questa e' una diretta
conseguenza del dualismo onda-particella: soltanto una delle due nature e' "visibile" ogni volta. Si puo' scegliere
quale osservare (se la particella, che ha una posizione, o l'onda, che ha un impulso), ma non si possono
osservare entrambi gli aspetti allo stesso tempo.

Precisamente, il famoso "principio di indeterminatezza" di Heisenberg afferma che c'e' un limite alla precisione
con cui possiamo misurare, allo stesso tempo, l’impulso e la posizione di una particella. Se si misura l’impulso,
allora non si puo' misurare la posizione, e viceversa. Questa e' in effetti una diretta conseguenza delle equazioni
di Einstein che legano lunghezza d'onda e impulso (o la frequenza e l'energia) di un'onda luminosa: se le
coordinate (lunghezza d'onda) e l’impulso sono collegate, non ci sono piu' quantita' indipendenti. Einstein non
credette mai a questo principio, ma ne fu indirettamente lo scopritore.

La funzione d'onda contiene le risposte a tutte le domande che possono essere fatte circa un sistema, ma non a
tutte le domande che possono essere fatte simultaneamente. Se esse sono fatte simultaneamente, le risposte non
saranno precise.

Il grado di indeterminatezza e' proporzionale alla costante di Planck. Questo implica che c'e' un limite a quanto
puo' essere piccolo un sistema fisico, poiche', sotto una quantita' proporzionale alla costante di Planck e
chiamata "lunghezza di Planck", le leggi fisiche dalla Teoria Quantistica cessano di valere tutte insieme. La
scala di Planck (10^-33 cm, cioe' la piu' corta lunghezza possibile, cioe' il piu' corto istante di tempo) e' la scala
alla quale lo spazio-tempo non e' piu' un continuo ma diventa una griglia di eventi separati dalla distanza di
Planck. Cosa succede all'interno di una singola cella della griglia, e' oltre la comprensione della Fisica. Come ha
suggerito il fisico americano John Wheeler negli anni 1950, anche le stesse nozioni di spazio e di tempo non
hanno piu' senso in questo "oceano quantistico".

Planck e Heisenberg dimostrarono che a questa scala, lo spazio vuoto e' in effetti "pieno" di ogni sorta di
misteriosi eventi , e nel 1948 il fisico olandese Hendrick Casimir mostro' persino che questa onnipervasiva
energia del punto zero poteva essere misurata (sicche' e' oggi nota come "forza di Casimir"). Questo fu il
culmine delle eccentricita' della Teoria Quantistica: il vuoto non era vuoto.

Il mondo e la mente
La Teoria della Relativita' e la Teoria Quantistica hanno detto qualcosa di importante sulla mente. Riguardavano
la mente tanto quanto riguardassero la materia, solo che in un modo piu' sottile.

La Teoria della Relativita' non riguardava solo la realta' che era "relativa" a qualcosa. Riguardava
principalmente la realta' oltre la percezione dei nostri sensi.

Il principio sotteso di Einstein e' che noi non sempre vediamo l'universo cosi' com'e'. Il principio sotteso di
Newton e' che noi vediamo l'universo cosi' come'e'. La Fisica di Newton e' un a descrizione di come la nostra
mente percepisce l'universo. Ci sono corpi, c'e' il tempo assoluto, ecc...

La Fisica di Einstein e' un'ipotesi su come l'universo e' realmente, anche se la nostra mente non puo' percepirlo.
La Fisica di Einstein implicava che ci possono essere aspetti dell'universo che la nostra mente non puo'
percepire, e che noi possiamo fare ipotesi soltanto analizzando gli aspetti che possiamo percepire.

La Teoria Quantistica non si occupava solo del fatto che la realta' e' "quantizzata". Era anche sulla realta' oltre la
portata della nostra mente. La singola scoperta piu' disturbante della Teoria Quantistica e' che la realta' come la
conosciamo si manifesta soltanto quando qualcuno la osserva. L'elettrone e' in un certo posto solo quando
qualcuno effettivamente lo guarda, diversamente l'elettrone e', contemporaneamente, in diversi posti.

Possiamo analizzare questa scoperta con due supposizioni:

1. La nostra mente non ha limitazioni. Puo' perfettamente percepire la natura cosi' com'e'. Osserva soltanto un
valore perche' questo e' cio' che la natura fa: la scelta multipla per il valore di una quantita' collassa ad un solo
valore quando la quantita' e' osservata da un osservatore.

2. La nostra mente ha delle limitazioni. Il collasso quantistico da molti valori ad un solo valore e' dovuto ad una
limitazione della nostra mente. La nostra mente non puo' percepire la natura cosi' com'e'. Puo' percepire soltanto
un valore per ogni quantita'.

L'elettrone e' in molti posti, ma la nostra mente non puo' percepire qualcosa che e' in molti posti allo stesso
tempo, quindi "collassa" l'elettrone in un solo specifico posto per volta. Questo e' semplicemente un effetto
dovuto alla limitazione della nostra mente. Siamo forzati a "campionare" la realta' perche' non possiamo trattarla
tutta insieme. Dopo tutto, e' cio' che fanno tutti i nostri sensi. Sono bombardati tutto il tempo con i dati
dell'ambiente, e prendono soltanto alcuni di questi dati. Non percepiamo ogni singolo dettaglio di cio' che
succede intorno a noi, siamo forzati ad essere selettivi. La mente si rivela essere un senso che ha inoltre capacita'
limitata, sebbene la limitazione sia di un tipo differente. Ogni dettaglio della realta' (una posizione, una velocita',
ecc...)"ha" piu' valori. La ragione per cui noi osserviamo soltanto un valore e' che la nostra mente non riesce a
trattare un universo nel quale le quantita' hanno piu' di un valore.

La rivoluzione concettuale causata dalla Teoria Quantistica fu un poco piu' profonda di quella causata dalla
Teoria della Relativita'. Riconciliare Newton ed Einstein e' relativamente facile: la teoria di Newton e'
semplicemente un caso particolare della Teoria di Einstein, quello in cui lo spazio-tempo e' Euclideo.
Riconciliare Newton e la Teoria Quantistica e', d'altro canto, impossibile: la teoria di Newton e' semplicemente
falsa. Sembra funzionare perche' insiste ad assumere che cose come grandi oggetti esistono veramente.
Una teoria della mente che non tiene conto della Relativita' e' una legittima approssimazione, cosi' come una
teoria della Terra che non tiene conto della Relativita' e' una legittima approssimazione. Ma nessuna teoria della
mente puo' ignorare la Teoria Quantistica.

Il Potere delle Costanti

A questo punto possiamo notare che tutti i rivoluzionari e controversi risultati di queste nuove teorie sorsero dai
valori di due costanti. La Meccanica Quantistica fu una diretta conseguenza della costante di Planck: se questa
costante fosse stata zero, non ci sarebbe l'indeterminzatezza. La Teoria della Relativita' fu una diretta
conseguenza della velocita' della luce che era costante in ogni sistema di riferimento: se fla velocita' della luce
fosse stata infinita, non ci sarebbe nessuna dilatazione del tempo e contrazione della lunghezza.

Queste due costanti furono determinate, indirettamente, dallo studio di due fenomeni minori che erano ancora
irrisolti alla fine del secolo: l'etere e la radiazione del corpo nero.

La presenza dell'etere non poteva essere rivelata misurando la velocita' della luce attraverso di esso, cosi'
Einstein assunse che la velocita' della luce e' sempre la stessa.

Il corpo nero non irraggia la luce con tutti i possibili valori di energia ma solo con alcuni valori di energia, che
sono multipli interi di una certa unita' di energia; cosi' Planck assunse che gli scambi di energia devono solo
avvenire in pacchetti discreti.

Queste due costanti universali da sole rivelarono un'intera nuova immagine del nostro universo.

La Realta' Quantistica: Fuzzy o Incompleta ?

Molte interpretazioni incompatibili della Teoria Quantistica furono offerte dall'inizio.

Niels Bohr asseri' che solo i fenomeni (cio' che appare ai nostri sensi, sia un oggetto che la misurazione di uno
strumento) sono reali, nel senso umano della parola: le particelle che non possono essere viste appartengono ad
un differente tipo di realta', che non puo' essere percepita dagli uomini; e la funzione d'onda non e' percio' una
cosa reale. La realta' e' inconoscibile perche' e' intimamente indeterminata, e noi uomini non viviamo in un
mondo di cose indeterminate, viviamo in un mondo di fenomeni (dove "fenomeni" presumibilmente include
anche case ed alberi, l'effetto di questi processi elementari).

Werner Heisenberg, l'uomo che scopri' nel 1925 la prima completa teoria dei quanti, credeva che il mondo "e'"
fatto di onde di possibilita' e non particelle: le particelle non sono reali, ma semplicemente "potenzialita'",
qualcosa di intermedio tra le idee e le attualita'. Il nostro mondo, che chiamiamo "realta', e' una sequenza di
collassi di onde di probabilita'. Il mondo quantistico e il nostro mondo sono collegati dalla "misurazione". La
realta' sorge da discontinuita' quantistiche (o "salti quantistici"): l'evoluzione classica dell'equazione di
Schroedinger descrive delle "tendenze", quindi la discontinuita' quantistica (il collasso della funzione d'onda)
sceglie una di quelle tendenze. Ogni volta che succede cio', la realta' cambia. Di conseguenza la realta' "e'" la
sequenza di tali discontinuita' quantistiche. Quello che cambia il mondo inconoscibile di particelle in
"fenomeni" percepibili dall'uomo e' l'osservazione: nel momento in cui noi osserviamo qualcosa, creiamo un
fenomeno. Come ha detto John Wheeler, "nessun fenomeno e' un fenomeno reale finche' non e' un fenomeno
osservato". In piu', Heisenberg interpreto' questa realta' come "conoscenza": lo stato quantistico e' una
descrizione matematica dello stato della conoscenza dell'osservatore piuttosto che una descrizione dello stato
oggettivo del sistema fisico osservato.

Il fisico britannico Paul Dirac, l'uomo che nel 1928 unifico' la Fisica Quantistica e la Relativita' Speciale nella
Teoria Quantistica dei Campi, fece notare che la Fisica Quantistica riguarda la nostra conoscenza di un sistema.
Non descrive la realta' ma la nostra conoscenza della realta'. Una funzione d'onda rappresenta la nostra
conoscenza di un sistema prima dell’esperimento e la funzione d'onda ridotta la nostra conoscenza dopo la
misurazione.

L'universo indivisibile

Albert Einstein era cosi' scontento del principio di indeterminazione che accetto' la Meccanica Quantistica
soltanto come una descrizione incompleta dell'universo. Pensava che la Meccanica Quantistica avesse trascurato
alcune "variabili nascoste".

Einstein era particolarmente scontento della "non-localita'" della Fisica Quantistica, che pensava costituisse un
paradosso. "Non-localita'" vuol dire "azione a distanza". Nella Fisica Quantistica si puo' provare che, una volta
parte di uno stesso stato, due particelle saranno sempre connesse: una volta misurata la posizione della prima,
istantaneamente determiniamo la posizione dell'altra, anche se, nel frattempo, ha viaggiato fino all'altro capo
dell'universo. Poiche' nessuna informazione puo' viaggiare piu' veloce della luce, e' impossibile per la seconda
particella reagire istantaneamente ad una misurazione che accade cosi' lontana da essa. L'unica possibile
spiegazione di questo "paradosso" era, secondo Einstein, che la seconda particella dovesse avere proprieta' che
non sono descritte dalla Meccanica Quantistica.

Einstein pensava che la Fisica Quantistica fornisse un'immagine fuzzy di una realta' nitida, mentre secondo Bohr
forniva un'immagine completa di una realta' fuzzy.

Che Einstein si sbagliasse fu provato nel 1964 dal fisico irlandese John Bell, il cui teorema sostanzialmente
escluse le "variabili nascoste locali", precisamente del tipo che aveva invocato Einstein. La conclusione di Bell
e' che, al contrario, ci sono obiettive connessioni non-locali nell'universo. In altre parole, due particelle, una
volta che hanno interagito fra di loro, continueranno ad interagire per sempre (le loro funzioni d'onda rimangono
legate per sempre). Einstein credeva nella legge della localita', cioe' che due oggetti possono interagire
solamente se si toccano, o se la loro interazione e' mediata da qualche altro oggetto, ma Bell ha provato che
l'"onda" basta a creare interazione. Due misurazioni possono essere essere istantaneamente in relazione anche se
sono situate in regioni troppo lontane perche' un segnale di luce possa viaggiare dall'una all'altra. La non-
localita' (o inseparabilita'), e' un dato di fatto della natura. Da allora, esperimenti hanno riportato esempi concreti
di non-localita'.

Questo frantumo' un'altra credenza della Fisica classica. Newton credeva che gli oggetti interagiscono attraverso
forze che in qualche modo dovevano trasferirsi da uno all'altro. Una palla di cannone deve viaggiare dal
cannone alle mura prima che le mura esplodano; e niente altro nell'universo e' influenzato. Il sole attrae la terra
in un'orbita, ma non ha nessun effetto sulle altre stelle. Queste sono interazioni "locali". Einstein aggiunse che le
forze possono solo viaggiare alla velocita' della luce. Di conseguenza, l'impatto di una forza o un oggetto e'
ritardato dal tempo che ci vuole alla forza per raggiungere quell'oggetto ad una velocita' che non puo'
oltrepassare quella della luce. "Localita'" divenne una distanza: solamente una certa parte dell'universo che puo'
esercitare una forza su di me, perche solo una certa parte dell'universo puo' inviarmi una forza durante la mia
vita. Se vivo 80 anni, un evento che succede piu' lontano di 80 anni-luce da qui non causera' mai nessun disturbo
alla mia vita. Bell provo' che le cose non stanno cosi', perche' la teoria Quantistica prescrive l'esistenza di una
"forza" non-locale: una volta che due onde hanno interagito, rimangono combinate per sempre.

Si noti che l'interpretazione basata sulla "conoscenza" di Heisenberg non aveva mai avuto problemi con la non-
localita': ovviamente, un cambio nella conosenza dell'osservatore cambia la conoscenza dell'osservatore
riguardo all'intero sistema, non importa quanto sia "esteso" il sistema nello spazio. Per esempio, se ho osservato
le due particelle all'inizio, quando erano nello stesso luogo, e ho notato che una e' nera e l'altra e' bianca, ed in
seguito osservo quella bianca, io "conoscero'" che l'altra e' nera anche se e' distante anni-luce da me.

Interpretazione ontologica

Il fisico americano David Bohm credeva in un "tutto indivisibile" anche prima dell'esperimento di Bell. La sua
idea era che l'intero universo e' connesso in una gigantesca onda.

Una delle conseguenze piu’ dirette della Teoria Quantistica e’ l’indeterminismo: non si puo’ conoscere il valore
della posizione e dell’impulso di una particella

allo stesso tempo. Si conosce soltanto una probabilita’ per ognuno dei possibili valori, e l’intero insieme di
probabilita’ costituisce l’"onda" associata alla particella. Soltanto quando viene osservata la particella, si
realizza un particolare valore; solo allora l’onda di probabilita’ "collassa" in uno specifico valore.

Nel 1952 presento' la sua interpretazione "ontologica" della Teoria Quantistica, che fece quasi risorgere il
determinismo a livello quantistico. L’audace ipotesi di Bohm fu che l’"onda" quantistica e’ un’onda reale,
dovuta ad un potenziale reale.

Bohm ipotizzava che la funzione d’onda non rappresenta soltanto un insieme di probabilita': rappresenta un
campo effettivo. Una particella e’ sempre accompagnata da un tale campo. Questo campo e’ un campo reale e
agisce sulle particelle allo stesso modo di un potenziale classico. (Bohm resuscito’ un’interpretazione della
Teoria Quantistica che de Broglie aveva abbandonato, la teoria di un’onda ordinaria che guida una particella
ordinaria).

La bellezza di questa ipotesi e’ che, con l’introduzione di questo potenziale addizionale, qualcosa di grande
importanza accade alle equazioni della Meccanica Quantistica: posizione e impulso di una particella non sono
piu’ incompatibili, possono essere misurati precisamente allo stesso tempo, e il principio di Heisenberg e’
scavalcato.

Il comportamento della particella nella teoria di Bohm e’ determinato dalla posizione e dall’impulso della
particella, da qualunque forza agente su di essa, e dal potenziale quantistico.

Per Bohm, le particelle esistono effettivamente e sono sempre accompagnate da un campo. Un elettrone non e'
ne’ una particella ne’ un'onda (campo), e' una particella piu' un'onda (che non puo' essere separata). Ma l'onda di
Bohm non e' l'onda di Born: l'onda di Born e' solo una funzione di probabilita' che aiuta a calcolare la posizione
della particella, mentre l'onda di Bohm e' un'onda vera e propria che guida la particella (per questo chiamata
anche "onda-pilota")

Ogni cosa e' sia una particella che un'onda, ed e' sotto l'effetto sia di un potenziale classico sia di un potenziale
quantistico (l'"onda pilota"). Sostanzialmente, la funzione d’onda fornisce un potenziale aggiuntivo che, una
volta inserito nella tradizionale Hamiltoniana della Fisica classica, predice una ben determinata traiettoria per
ogni particella (ma dal momento che la posizione iniziale non puo’ essere conosciuta, non possiamo comunque
predire il percorso di una particella, ma soltanto notare che esiste un ben determinato percorso scelto dalla
natura).

Bohm ha trovto un’interpretazione della Teoria Quantistica in termini di particelle con una posizione ed un
impulso ben definiti. Cio’ che Bohm ha fatto con la sua ipotesi, sostanzialmente, e’ stato aggiungere alcune
"variabili nascoste" alle equazioni, precisamente quello che aveva suggerito Einstein per ripristinare il
determinismo in Fisica.

L’onda pilota

Per spiegare la funzione del potenziale quantistico, Bohm introdusse la nozione di "in-formazione attiva"
(ovvero "dare forma", ad esempio, al movimento della particella). Una particella e’ mossa da qualunque energia
essa abbia (per esempio, perche’ una forza sta agendo su di essa) ma il suo movimento e’ guidato dall’"in-
formazione" nel campo quantistico (nell’"onda pilota").

In Fisica, un potenziale descrive un campo in termini di come, ad ogni punto dello spazio, la particella
localizzata in quel punto sara’ influenzata da quel campo. Nella fisica di Newton l’effetto di un potenziale
classico su una particella e’ proporzonale alla intensita’ del campo.

Bohm penso’ che il suo campo quantistico, in particolare, doveva riflettere qualunque cosa stesse succedendo
nell’ambiente, incluso l’apparato di misura. Quindi, il potenziale quantistico dipende solo dalla forma, e non
dalla intensita’, del campo quantistico. La "forza" del potenziale quantistico non dipende dall’intensita’
dell’onda ma soltanto dalla forma dell’onda. Anche un potenziale molto debole puo’ influenzare la particella.
Anche un evento molto distante puo’ influenzare la particella.

Le interpretazioni precedenti della Teoria Quantistica provavano a riconciliare il tradizionale, classico concetto
di "misurazione" (qualcuno che osserva una particella al microscopio) con un concetto quantistico di "sistema".
Bohm fece a meno della nozione classica di "misurazione": non si puo’ separare lo strumento di misura dalla
quantita’ misurata, poiche’ interagiscono in continuazione. E’ fuorviante chiamare questo atto "misurazione". E’
una interazione, proprio come ogni altra interazione, e, come afferma il principio di Heisenberg, la conseguenza
di questa interazione non e’ affatto una misurazione.

Ordine implicito

Il campo introdotto da Bohm nelle equazioni per aggiustare l’indeterminismo di Heisenberg rappresenta una
realta’ "sub-quantistica".
Il potenziale quantistico di Bohm non agisce all'interno della geometria dello spazio-tempo quadridimensionale,
agisce oltre di esso. In un certo senso, definisce un fondo comune di informazione, una maniera per collegare
insieme ogni cosa , cosi' come i ballerini possono usare la musica per muoversi insieme in armonia.

Bohm penso’ che questo campo doveva fluttuare rapidamente e che cio’ che la Teoria Quantistica osserva e’
semplicemente una media sul tempo (cosi’ come la fisica di Newton legge un valore per quantita’ che sono in
realta’ dovute al moto Browniano di molte particelle). La fisica quantistica ha a che fare con valori medi di una
realta’ sottostante come la fisica di Newton quantistica ha a che fare con valori medi di quantita’
termodinamiche.

A questo livello "sub-quantistico" gli effetti quantistici scompaiono: la posizione e l’impulso di una particella
sono ben determinati. Il mistero del collasso della funzione d’onda, della discontinuita’ nella transizione dal
mondo quantistico al mondo classico, succedono soltanto a livello quantistico, mentre Bohm crede che ci sia un
livello piu’ profondo al qual l’apparente discontinuita’ del collasso scompare.

Dopo tutto, lo studio delle particelle "elementari" ha mostrato che perfino le particelle elementari possono essere
distrutte e create, il che significa che non sono i costituenti ultimi dell’universo, che ci deve essere una realta’
sottostante, o, in termini di Bohm, un "flusso" sottostante. Bohm penso’ che il problema principale risiedeva
nella nozione obsoleta di "ordine".

Cosi’, Bohm fece distinzione tra l'ordine "esplicito" (il mondo degli oggetti-eventi isolati dello spazio-tempo di
cui i nostri sensi fanno esperienza) e l'ordine "implicito" (nel quale tutti gli oggetti-eventi fanno parte di un
tutto).

L’ordine Cartesiano (la "griglia" di eventi spazio-temporali) e’ appropriata per la fisica Newtoniana nella quale
l’universo e’ diviso in oggetti separati, ma inadeguato a riflettere le idiosincrasie della teoria Quantistica e della
Relativita’, e in particolare l’indivisibile interezza dell’universo che Bohm stava mettendo a fuoco.

La soluzione di Bohm era quella di contrastare l’"ordine esplicito" che noi percepiamo e la nostra Fisica
descrive (l’ordine Cartesiano di oggetti-eventi spaziotemporali isolati) con l’"ordine implicito", che e’ uno strato
sottostante, nascosto di relazioni. L’ordine esplicito non e’ altro che una manifestazione dell’ordine implicito.
Spazio e tempo, per esempio, sono "forme" nell’ordine esplicito che derivano dall’ordine implicito.

L’ordine implicito e’ simile all’ordine all’interno di un ologramma: l’ordine implicito di un ologramma da’
origine all’ordine esplicito di un’immagine, ma l’ordine implicto non e’ semplicemente una rappresentazione
uno-ad-uno dell’immagine. In effetti, ogni regione dell’ologramma contiene una rappresentazione dell’intera
immagine. L’ordine implicito e l’ordine esplicito sono fondamentalmente differenti. La differenza principale e’
che nell’ordine esplicito ogni punto e’ separato dagli altri. Nell’ordine implicito l’intero universo e’ "ripiegato"
in ogni cosa, e ogni cosa e’ ripiegata nel tutto. Nell’ordine esplicito le "cose" diventano (relativamente)
indipendenti.

Nell’ordine implicito, tutte le cose-eventi sono parte di un tutto, l’"olomovimento". L’ordine esplicito emerge
dall’olomovimento. L’olomovimento contiene tutti i casi di ordine esplicito come potenzialita’.

Bohm suggeri’ che l’ordine implicito potesse essere definito dal potenziale quantistico, il campo consistente di
un infinito numero di onde pilota. Il sovrapporsi delle onde genera l’ordine esplicito delle particelle e delle
forze, e in definitiva dello spazio e del tempo.

Poiche’ il campo quantistico di Bohm e’ influenzato da tutte le particelle (l’onda-pilota che guida tutte le
particelle e’ influenzata da tutte le particelle), la nonlocalita’ e’ una caratteristica della realta’: una particella
puo’ dipendere fortemente da caratteristiche distanti dell’ambiente.

L’universo di Bohm e’ un tutto indivisibile.

Ogni cosa nell'universo e' combinata con ogni altra cosa, e in definitiva con il tutto. Non ha senso analizzare
particelle di sottoinsiemi del mondo come parti separate ed indipendenti.

Oltre la localita'

L'obiezione di Einstein non mori' li' ed e' ancora molto viva, se non altro, perche' in definitiva puo' essere
interpretata come una obiezione al ruolo che gioca l'osservatore nella Teoria Quantistica.

Il fisico americano Alwin Scott ha recentemente riproposto l'ipotesi di Einstein. Scott sostiene un'interpretazione
della Teoria Quantistica come un'approssimazione di una teoria non-lineare non ancora scoperta. La nuova
teoria deve essere non-lineare perche' questa e' l'unica maniera per rimuovere il principio di indeterminatezza di
Heisenberg, che discende dalla linearita' dell'equazione di Schroedinger.

Ispirato ancora da Einstein, il filosofo australiano Huw Price pensa che la causalita' inversa (il futuro puo'
influenzare il passato), o l'azione anticipata, sia un'opinione legittima. Price crede che le nostre teorie sono
asimmetriche rispetto al tempo perche' noi siamo condizionati da concetti popolari di causalita'. Le teorie fisiche
sono costruite partendo dall'ipotesi che il futuro non possa influenzare il passato, e di conseguenza non
sorprende che esse prescrivano che il futuro non possa influenzare il passato. Se rimuoviamo il nostro
preconcetto riguardo la causalita', allora possiamo riformulare la Fisica Quantistica. Quindi ne risulterebbe che
Einstein aveva ragione con la sua ipotesi delle variabili nascoste, e che la Fisica Quantistica fornisce
un'incompleta descrizione dell'universo. Una Fisica Quantistica completa non assegnera' nessun valore critico
all'osservatore.

Negli anni 1980 il fisico americano John Cramer ha percorso il sentiero opposto con la sua "interpretazione
transazionale" della Teoria Quantistica, che ha come scopo rimandare l'osservatore in laboratorio e rimuoverlo
dal formalismo. Cramer si basa sulla "teoria del ricevitore" di Wheeler e Feynman. Essi descrissero un processo
radioattivo come una "transazione" nella quale l'emittente della radiazione e il ricevente della radiazione si
scambiano onde: l'emittente manda un'onda "ritardata" al ricevente, e simultaneamente il ricevente manda
un'onda "anticipata" all'emittente. Le onde anticipate sono cancellate e quindi non possono essere misurate. Un
osservatore percepisce solamente che un'onda ritardata ha viaggiato dall'emittente al ricevente.

Le onde "anticipate" sono soluzioni di un'equazione d'onda che contiene solo la derivata del secondo ordine. Le
onde anticipate hanno "autovalori" di energia e frequenza negative, e si propagano in direzione temporale
negativa. Le onde anticipate sono sostanzialmente controparti di onde normali (o ritardate) dal tempo invertito.
Sia le onde anticipate che quelle ritardate sono valide soluzioni ortogonali per l'equazione dell'onda
elettromagnetica, ma nell'elettrodinamica convenzionale le soluzioni anticipate sono di solito ignorate come
innaturali, poiche' violano la legge della causalita', e solamente le soluzioni "ritardate" sono mantenute. Wheeler
and Feynman proposero che la simmetria nell'equazione d'onda riflette una proprieta' della natura, che entrambi
i tipi di onde si realizzano effettivamente.

Nella teoria Wheeler-Feynman del ricevitore, ogni processo di emissione produce onde anticipate mediante lo
stesso principio delle ordinarie onde "ritardate".

Cramer ha esteso l'idea e asserisce che ogni evento quantistico e' una "stretta di mano" eseguita mediante uno
scambio di onde anticipate e ritardate. Lo scambio di un quanto di energia da un emittente presente ad un
ricevitore futuro avviene mediante uno scambio di onde anticipate e ritardate. L'emittente manda un'onda di
"offerta" al ricevitore (avanti nel tempo). Il ricevitore allora risponde con un'onda di "conferma" all'emittente
(indietro nel tempo). La transazione e' quindi completata con una "stretta di mano" attraverso lo spazio-tempo,
che conduce ad un trasferimento di energia dall'emittente al ricevitore.

La transazione e' esplicitamente non-locale poiche' il futuro sta influenzando il passato. Il paradosso di Einstein
e' risolto senza ricorrere ad un'interpretazione basata sulla conoscenza.

La discontinuita' del tempo

Uno dei postulati di Newton era che "il tempo scorre uniformemente".

Il piu' grande problema della Teoria Quantistica e' come il mondo osservato (il mondo che conosciamo, fatto di
oggetti ben definiti) emerga dal mondo quantistico (un mondo di semplici possibilita' ed incertezze, grazie al
principio di Heisenberg).

Il matematico ungherese John Von Neumann (lo stesso che invento' il computer) fece una distinzione tra
processi del primo e del secondo tipo che accadono quando si analizza l'evoluzione di un sistema con la Teoria
Quantistica. I processi del primo tipo si verificano in sistemi isolati, sui quali non puo' essere fatta nessuna
misurazione, e ricordano da vicino l'evoluzione classica, deterministica, di un sistema fisico. I processi del
secondo tipo si verificano quando viene fatta una misurazione e sono indeterministici (o almeno probabilistici):
quando un'osservabile e' misurato, lo stato del sistema improvvisamente salta in uno stato imprevedibile (o
"autostato") associato all'autovalore misurato dell'osservabile. Diversamente dalla Fisica classica, nella quale il
nuovo stato puo' essere determinato dallo stato precedente del sistema, la Teoria Quantistica puo' solamente
specificare la probabilita' che ci si muova in uno dei possibili autostati dell'osservabile. In gergo quantistico, una
misurazione causa il "collasso di una funzione d'onda", dopo il quale l'osservabile assume un valore specifico.
Un processo continuo del primo tipo da' origine ad un processo discontinuo del secondo tipo.

I sistemi isolati obbediscono all'equazione di Schroedinger, i sistemi osservati obbediscono ai salti quantistici di
Heisenberg. La Teoria Quantistica quindi implica che qualcosa trasforma un processo del primo tipo in un
processo del secondo tipo quando e' osservato.

Il problema e' che la Teoria Quantistica non stabilisce ne' descrive quando e come cio' succede. Lo scorrere del
tempo e' misteriosamente alterato dalle misurazioni: un sistema evolve in modo "liscio" e deterministico finche'
non e' effettuata una misura, quindi salta piu' o meno casualmente in un autostato dell'osservabile misurato, dal
quale riprende la sua evoluzione liscia fino alla prossima misurazione. Il tempo sembra comportarsi in maniera
goffamente capricciosa.

Come ha spiegato Bohr, una misurazione introduce anche l'irreversibilita' in natura: il collasso non puo' essere
riportato indietro. Una volta misurata una quantita', in quel momento si e' introdotta una discontinuita'
nell'evoluzione della funzione d'onda. Se dopo un po' tornassimo indietro nel tempo, raggiungeremmo lo stesso
tempo dal futuro con una funzione d'onda che potrebbe collassare in ogni maniera permessa, delle quali soltanto
una e' quella che ha originato il futuro da cui proveniamo. E' molto improbabile di ritornare indietro allo stesso
passato.

Il problema della misurazione

Secondo la Teoria Quantistica, il nostro universo ha bisogno di entrambi i tipi di processi. Von Neumann provo'
a capire come essi interagiscono e realizzo' che la risposta e' nella "misurazione" del sistema.

La realta' sembra procedere su due binari paralleli. L'equazione di Schroedinger determina (in maniera
deterministica) l'evoluzione dello stato del sistema, ma quello stato e' un'insieme di possibili stati ognuno con la
propria probabilita' di realizzarsi. Finche' nessuno osserva il sistema, l'equazione di Schroedinger predice le
future probabilita' del sistema. Quindi il principio di Heisenberg causa il "collasso" della funzione d'onda non
appena il sistema e' osservato. Il collasso fa si' che il sistema scelga uno solo dei possibili stati. Una volta che
l'osservatore ha osservato il sistema, solo una parte dell'onda sopravvive e si evolve secondo l'equazione di
Schroedinger. A questo punto l'equazione di Schroedinger puo' calcolare un nuovo insieme di possibili stati. E
cosi' via. I due punti di vista sono entrambi necessari a spiegare l'evoluzione dell'universo. Non sono punti di
vista alternativi sull'universo. Uno e' complementare all'altro.

Si noti che l'osservatore fa di piu' che semplicemente osservare qualcosa: l'osservatore inoltre decide "che cosa"
osservare. Questa decisione ha un effetto sullo stato del sistema , perche' forza il sistema a scegliere tra tutti i
possibili stati. Il ruolo della natura e' veramente solo quello di scegliere uno di questi stati possibili, e la Teoria
Quantistica puo' soltanto presupporre che cio' avviene casualmente.

Von Neumann mise in evidenza che la misurazione di un sistema consiste in un processo di interazioni tra lo
strumento e il sistema, nel quale gli stati dello strumento diventano dipendenti dagli stati del sistema. C'e' una
catena di interazioni che conduce dal sistema alla coscienza dell'osservatore. Per esempio, una parte dello
strumento e' collegata al sistema, un'altra parte dello strumento e' collegata alla parte precedente, e cosi' via fino
a che l'interazione raggiunge l'occhio dell'osservatore, quindi c'e' un'interazione tra occhio e cervello e
finalmente la catena arriva alla coscienza dell'osservatore. Alla fine, gli stati dalla coscienza dell'osservatore
sono resi dipendenti dagli stati del sistema, e l'osservatore "conosce" quale valore ha l'osservabile. Da qualche
parte lungo questo processo e' avvenuto il collasso, altrimenti il risultato finale della catena sarebbe che la
coscienza dell'osservatore esibirebbe lo stesso comportamento probabilistico dell'osservabile: se l'osservatore
legge uno specifico valore sullo strumento, vuol dire che l'onda di possibilita' e' collassata (ha scelto un valore
specifico) in qualche punto tra il sistema e la coscienza dell'osservatore. A quale punto? Cosa esattamente causa
il "collasso"? Lo strumento? La lente? Gli elettroni dentro allo strumento? La retina dell'osservatore? Il sistema
nervoso dell'osservatore? La coscienza dell'osservatore?

Cosa costituisce un valido osservatore? Deve essere grande? Deve essere nel cervello? Deve essere cosciente?
Deve essere un uomo?
Von Neumann mostro' matematicamente che la Teoria Quantistica e' indifferente: non fa nessuna differenza per
le previsioni statistiche della Teoria Quantistica dove cio' sia esattamente avvenuto e che cosa lo abbia causato.
Ma gli esseri umani sono curiosi e vogliono saperlo.

In un certo senso, Von Neumann stava cercando di riconciliare l'"essere oggettivo" e la "conoscenza soggettiva".
Nella Fisica classica sono la stessa cosa, ma nella Fisica Quantistica sono differenti, e non e' completamente
chiaro in che modo siano collegati.

Il cervello come un Dispositivo di Misurazione

La Teoria Quantistica riguarda precisamente onde di possibilita'. Una particella e' descritta da una funzione
d'onda come qualcosa che si trova in diversi posti allo stesso tempo. Quando una particella e' osservata, la sua
funzione d'onda "collassa" con attributi ben definiti, inclusa la posizione occupata, ma tali attributi non possono
essere predetti finche' non collassano effettivamente. In altre parole, l'osservatore puo' soltanto osservare un
sistema quantistico dopo aver interferito con esso.

Von Neumann sottolineo' un'inconsistenza nell'interpretazione standard della Teoria Quantistica: gli oggetti da
osservare sono trattati come oggetti quantistici (o onde), mentre gli oggetti che osservano (gli strumenti) sono
oggetti classici, con una forma, una posizione e nessun'onda. "Cio' che misura" e' un oggetto naturale tanto
quanto "cio' che e' misurato", ma gli garantiamo un'immunita' dalla Teoria Quantistica. Von Neumann si oppose
alla divisione del mondo in due parti che si comportano diversamente. La Teoria Quantistica stabilisce
inequivocabilmente che ogni cosa e' un sistema quantistico, non importa quanto sia grande o piccolo. D'altra
parte, se ogni cosa e' un sistema quantistico regolato da un'onda di possibilita', che cosa la fa collassare? Von
Neumann fu indotto ancora a postulare che qualcosa di "differente" da un sistema quantistico aveva il potere di
causare un simile collasso, e quel qualcosa doveva essere la coscienza umana. Nulla nel mondo e' reale finche'
non e' osservato da una mente, come aveva proposto il filosofo britannico Berkeley secoli prima di Von
Neumann.

Che succederebbe se costruissimo uno strumento che piccolo del sistema che deve essere osservato? Che cosa
sarebbe un sistema quantistico: il piu' piccolo o il piu' grande, cio' che misura o cio' che e' misurato?

Il raggio di incertezza di una particella e' misurato dalla costante di Planck. Poiche' la costante di Planck e'
molto piccola, gli oggetti grandi hanno una posizione ben definita, forma e tutto il resto. Le caratteristiche di
oggetti piccoli come le particelle sono invece molto incerte. Di conseguenza, agli oggetti grandi e' permessa
un'immunita' dalle leggi quantistiche che e' basata soltanto sulla loro dimensione.

La Coscienza crea la realta’

John Wheeler crede che il collasso puo' essere causato da qualunque cosa che (consapevolmente o
inconsapevolmente), fa una "registrazione" dell'osservazione. Un osservatore e' qualunque cosa in Natura che
faccia diventare l'osservazione pubblica e irreversibile. Un osservatore potrebbe essere un cristallo.

Recentemente, Roger Penrose, ispirato dal lavoro iniziato da Frenkel Karolyhazy negli anni 1960, ha proposto la
gravita' per giustificare questa speciale immunita': nel caso di oggetti grandi, la curvatura spazio-temporale
influisce sulla funzione d'onda del sistema, facendola collassare spontaneamente in una delle possibilita'.
Precisamente, Penrose crede che differenti curvature spazio-temporali non possano sovrapporsi, perche' ogni
curvatura implica una metrica e soltanto una metrica puo' essere la metrica dell'universo in un certo punto ad un
certo tempo. Se due sistemi interagiscono, la Natura deve scegliere quale delle due metriche prevale. Di
conseguenza, conclude, l'accoppiamento di un campo con un campo gravitazionale di una certa forza deve
causare il collasso della funzione d'onda del sistema. Questo tipo di auto-collasso e' chiamato riduzione
"oggettiva" per distinguerlo dalla riduzione tradizionale della Teoria Quantistica che e' causata dall'interazione
ambientale (come una misurazione). L'auto-collasso si verifica per tutto, ma la massa del sistema determina
quanto velocemente si verifica: corpi grandi auto-collassano molto velocemente, mentre le particelle elementari
non collassano per milioni o perfino per miliardi di anni. Questo e' perche' il collasso delle funzioni d'onda per
particelle elementari in pratica si verifica solo quando e' causato dall'interazione ambientale.

In pratica, il collasso dell'onda, che e' la maniera fondamentale in cui la Teoria Quantistica puo' collegarsi alle
nostre percezioni, e' ancora un problema complicato, un accidente matematico che non ha ancora una
spiegazione definita.

Non e' chiaro a chiunque se questo "collasso" corrisponda ad un effettivo cambiamento dello stato della
particella, o se rappresenti semplicemente un cambiamento della quantita' di conoscenza da parte
dell'osservatore, o altro. Non e' nemmeno chiaro se l'"osservazione" e' la sola operazione che puo' causare il
collasso. E se deve essere un'osservazione "umana" (ovvero "cosciente"): un gatto fa collassare l'onda di una
particella? Una roccia?

Che attributi deve possedere un oggetto per far collassare un'onda? E' qualcosa che hanno soltanto gli uomini?
In caso contrario, qual e' l'oggetto piu' piccolo che fa collassare un'onda? Puo' un'altra particella far collasare
l'onda di una particella? (Nel quale caso il problema non sussisterebbe, perche' l'onda di ogni particella
collasserebbe per l'effetto delle particelle circostanti).

Che cos'e' l'apparato di misura in Fisica Quantistica? E' la piattaforma che supporta l'esperimento? E' il premere
un bottone? E' una lente nel microscopio? E' il raggio di luce che raggiunge l'occhio dell'osservatore? E' il
processo visuale nella mente?

E' anche un mistero come la Natura conosca quale dei due sistemi e' il sistema di misurazione e quale e' il
sistema misurato: quello che collassa e' quello misurato, ma i due sistemi sono solo sistemi, e non e' chiaro come
la Natura puo' discrimininare il sistema per la misurazione da quello misurato e far collassare soltanto
quest'ultimo.

Se una funzione d'onda collassa (ad esempio una particella assume un valore ben definito) soltanto quando e'
osservata da un essere cosciente, allora la Teoria Quantistica sembra riservare un ruolo privilegiato per la mente:
la mente entra nel mondo attraverso il pertugio del principio di indeterminazione di Heisenberg. La mente
certamente "deve" esistere perche' l'universo esista, altrimenti nessuno sarebbe li' ad osservarlo e quindi il
mondo sarebbe soltanto costituito da possibilita' che non mutano mai in attualita'. La realta' e' semplicemente il
contenuto della nostra cosienza, come ha fatto notare il fisico ungherese Eugene Wigner. Naturalmente, la
mente deve essere quindi un'entita' al di fuori del regno della Teoria Quantistica e della Fisica in generale. La
mente deve essere qualcosa di speciale, che non appartiene veramente a "questo" mondo.
Wigner ha osservato che l'equazione di Schroedinger e' lineare, ma smetterebbe di esserlo se il suo oggetto fosse
proprio la coscienza che fa collassare l'onda. Quindi, l'equazione di Schroedinger risulterebbe in un algoritmo
non-lineare che potrebbe spiegare lo status privilegiato della mente.

Se il collasso accade solo quando e’ osservato da un essere cosciente, se il collasso avviene al confine tra mente
e materia, come crede Wigner, allora l’evoluzione dell’universo e’ cambiata dopo la comparsa degli esseri
umani (non c’era nessun collasso da nessuna parte prima che apparisse la mente).

Per nulla scoraggiato da questa obiezione, il fisico Americano John Archibald Wheeler crede che il nostro e' un
universo "partecipativo", nel quale la coscienza partecipa alla creazione della realta'. L'osservatore e il fenomeno
sono occupati in un atto creativo che produce la realta'. La coscienza non crea la realta' da sola. Il ruolo della
coscienza e' estremamente limitato: non puo' nemmeno scegliere quale delle possibilita' contenute nella funzione
d'onda diventino realta'. Puo' soltanto "provocare" la realta' da molte possibilita'. Quale possibilita' diventi realta'
dipende dalla natura. Nondimeno, Wigner e Wheeler credono che la coscienza sia cruciale nel creare la realta':
per quanto sia limitato il suo contributo, senza di essa non ci sarebbe la realta', soltanto possibilita'. Wheeler ha
perfino speculato che il sorgere della coscienza ha determinato retroattivamente la storia dell'universo perche' ha
collassato la madre di tutte le onde che non erano mai collassate prima, fissando cosi' ogni singolo evento nella
vita precedente dell'universo.

Gli effetti quantistici teorici potrebbero essere considerati trascurabili se influenzassero soltanto le particelle.
Sfortunatamente, Erwin Schroedinger, con il suo famoso esperimento del gatto, stabili' che il principio di
indeterminazione di Heisenberg influenza anche gli oggetti grandi. Sostanzialmente, Schroedinger escogito' una
situazione nella quale un fenomeno quantistico causa la vita o la morte del gatto, ma poiche' i fenomeni
quantistici sono incerti, la vita del gatto e' anch'essa incerta: fino a che noi non guardiamo il gatto, il gatto e' sia
vivo che morto, ma semplicemente un'onda di possibilita' esso stesso. Dal momento che nessun scienziato della
Teoria Quantistica si e' fatto avanti come volontario per prendere il posto del gatto nell'esperimento di
Schroedinger, non sappiamo cosa accada con certezza. (Si puo' accusare i teorici quantistici di essere ciarlatani,
ma non di essere stupidi).

Il Multiverso: la ricerca della Certezza

L'interpretazione tradizionale (o "di Copenaghen") della Meccanica Quantistica sembra essere intrappolata nella
sua fede incrollabile nell'indeterminazione. Altri hanno cercato delle strade per uscire dall'incertezza.

Una possibilita' e' quella di negare del tutto che la funzione d'onda collassi. Invece che ammettere una scelta
casuale di una delle tante possibilita' per il futuro, si possono sottoscrivere tutte le possibilita'
contemporaneamente. In altre parole, la natura probabilistica della Meccanica Quantistica permette all'universo
di dispiegarsi in un numero infinito di modi.

L'interpretazione "multi-universo" di Hugh Everett, originariamente proposta nel 1957, dice sostanzialmente che
se qualcosa puo' fisicamente accadere, accade: in qualche universo. Everett interpreto' le "possibilita'"
quantistiche come attualita'. Una particella "e'" in diversi posti allo stesso tempo: questi posti sono in universi
differenti. La realta' fisica consiste in una collezione di universi: il "multiverso". Noi esistiamo in una copia di
ognun universo e osserviamo tutti i possibili risultati di una situazione. Non e' soltanto l'universo a suddividersi
in molti universi, ma e' anche l'osservatore a suddividersi in molti osservatori. Per una particella non c'e' onda di
possibilita': ogni possibilita' e' un'attualita' in un universo. (Alternativamente, si puo' dire che c'e' un osservatore
per ogni possibile risultato di una misurazione).

Ogni misurazione suddivide l'universo in molti universi (o, come dice Michael Lockwood, ogni misurazione
sudduvide l'osservatore). Le biografie formano una struttura che si ramifica, che dipende da quanto spesso sono
osservate.

Non accade nessun collasso/riduzione. La funzione d'onda si evolve in maniera deterministica, come nella fisica
di Newton.

Naturalmente, l'osservatore perepisce esattamente quello che io sto percependo: un flusso omogeneo di
cambiamenti.

C’e’ un modo alternativo di presentare le idee di Everett. Everett sostanzialmente accetta che l’equazione di
Schroedinger e’ tutto cio’ che c’e’. Il mondo e’ descritto da quella equazione. Dobbiamo prenderlo
letteralmente. La particella e’ in tutti gli stati che l’equazione prescrive. Il trucco e’ che lo stato dell’osservatore
e’ sovrapposto come quello del sistema osservato. Quindi l’osservatore vede tutti i possibili statai del sistema
osservato. In questa maniera il mondo non si divide, ma la mente dell’osservatore si’. Ogni mente osserva solo
uno stato dei molti che sono possibili secondo l’equazione di Schroedinger. Quindi ogni mente percepisce un
mondo separato, che e’ un sottoinsieme del mondo descritto dall’equazione di Schroedinger. In un certo senso,
ogni mente vede il mondo da una prospettiva soggettiva. Lo stato oggettivo del mondo e’ quello descritto
dall’equazione, e corrisponde alla sovrapposizione di tuti gli stati osservati da tutte le menti dell’osservatore.

E il fisico britannico Stephen Hawking sta provando a scrivere la funzione d'onda dell'universo, che
effettivamente descriverebbe un insieme infinito di possibili universi. Sostanzialmente, egli guarda all'universo
come se fosse una grande particella. Cosi' come la funzione d'onda di una particella descrive un insieme infinito
di possibili particelle, la funzione d'onda dell'universo effettivamente descrive un insieme infinito di possibili
universi.

Nel multiverso di Everett, la Teoria Quantistica e' deterministica e il ruolo dell'osservatore e' drasticamente
ridotto (non abbiamo piu' realmente bisogno di un osservatore, poiche' la funzione d'onda collassa in ogni
singolo universo, sebbene in maniere diverse). La Teoria Quantistica sembra maggiormente una teoria classica,
eccetto che per la moltiplicazione degli universi.

Il multiverso immanente

A causa della apparente approssimazione di ogni descrizione quantistica di un fenomeno, anche il fisico
israeliano David Deutsch pensa che il nostro universo forse non puo' costituire l'intera realta', puo' essere solo
una parte di un "multiverso" di universi paralleli. Ma il multiverso di Deutsch non e' semplicemente una
collezione di universi paralleli, con un singolo flusso di tempo. Egli sottolinea la contraddizione di assumere un
tempo esterno, superiore, nel quale scorrono tutti i vari spazi-tempo. Questa sarebbe ancora una visione classica
del mondo. Il multiverso di Deutsch e' invece una collezione di momenti. Non c'e' qualcosa come lo "scorrere
del tempo". Ogni "momento" e' un universo del multiverso. Ogni momento esiste per sempre, non scorre da un
momento precedente ad un momento successivo. Il tempo non scorre perche' il tempo e' semplicemente una
collezione di universi. Noi esistiamo in multiple versioni, in universi chiamati "momenti".
Ogni versione di noi stessi e' indirettamente consapevole delle altre perche' i vari universi sono collegati insieme
dalle stesse leggi fisiche, e la causalita' fornisce un adatto ordinamento. Ma la causalita' non e' deterministica in
maniera classica: e' piu' simile al fare predizioni che a causare. Se analizziamo i pezzi di un puzzle, possiamo
predire dove vanno messi alcuni dei pezzi mancanti. Ma sarebbe fuorviante dire che la nostra analisi del puzzle
ha "causato" che quei pezzi siano dove sono, sebbene sia vero che la loro posizione e' "determinata" dal fatto
che gli altri pezzi sono dove sono.

Inoltre, Deutsch asserisce che la Teoria Quantistica non e' abbastanza per spiegare la realta'. Egli non aderisce
alla tesi filosofica dominante, che capire un sistema e' capire le sue parti e avere una teoria di quel sistema e'
avere un insieme di predizioni del suo comportamento futuro. Deutsch pensa che le predizioni sono
semplicemente gli strumenti per verificare se la teoria e' corretta, ma quello che veramente importa e' la
"spiegazione" che la teoria fornisce. La conoscenza scientifica consiste di spiegazioni, non di fatti o di
predizioni di fatti. E, contrariamente al dominante approccio "riduzionista", una spiegazione che riduce eventi su
grande scala al movimento dei piu' piccoli costituenti della materia non e' una spiegazione. Come dice egli
stesso, perche' c'e' uno specifico atomo di rame sul naso della statua di Churchill? Non perche' le equazioni
dinamiche dell'universo predicono questo e quello, e non a causa della storia di quella particella, ma perche'
Churchill era una persona famosa, e le persone famose sono ricompensate con statue, e le statue sono fatte di
bronzo, e il bronzo e' fatto di rame.

Gli scienziati che aderiscono alla tesi riduzionista credono che le regole che governano le particelle elementari
(la base della gerarchia riduzionista) spiegano ogni cosa ma non ci danno nessun tipo di risposta che noi
chiameremmo "spiegazione".

Cosi' abbiamo bisogno di quattro tipi di scienza per capire la realta': una teoria della materia (teoria quantistica),
una teoria dell'evoluzione, una teoria della conoscenza (epistemologia), e una teoria della computazione. La
teoria combinata fornisce le "spiegazioni" alle quali e' interessato Deutsch.

Einselection: Collasso Darwiniano

Un uomo che ha studiato il problema di come la Fisica Classica emerga dalla Fisica Quantistica (come oggetti
che si comportano in maniera deterministica possano emergere da particelle che si comportano in maniera
probabilistica, come stati coerenti di Meccanica Quantistica diventino classici) e' il polacco Wojciech Zurek.
Egli non crede che la coscienza abbia qualcosa a che fare con questo: e' piuttosto l'ambiente che determina
l'emergenza della realta'.

Dal 1991, sono stati fatti esperimenti per mostrare la progressiva evoluzione di un sistema da un comportamento
quantistico a uno classico. L'obiettivo e' quello di osservare il progressivo collasso della funzione d'onda, la
progressiva scomparsa della stranezza quantistica, e la progressiva emergenza della realta' dalla probabilita'.

Zucker (1984) ha proposto una svolta differente al dibattito sul "collasso dell'onda". Non serve necessariamente
un osservatore. Zucker pensa che l'ambiente distrugga la "coerenza quantistica" (sovrapposizione). L'ambiente
include tutto cio' che possa interagire con il sistema quantistico, da un singolo fotone al microscopio. L'ambiente
causa una "decoerenza" (la scelta di uno o alcune delle possibili conseguenze) e la decoerenza causa la selezione
(o "einselection") di quali possibilita' diventeranno la realta'. Gli stati che si "adattano" meglio risultano essere
gli stati classici. I sistemi collassano a stati classici perche' gli stati classici sono quelli che si "adattano" meglio
all'ambiente.

L'ambiente causa il collasso dell'onda proprio come un osservatore. La decoerenza accade ad ogni sistema che
interagisce con altri sistemi. Gli oggetti grandi sono classici e non oggetti quantistici perche' sono resi
intimamente "decoerenti" dall'essere una collezione di parti intereagenti. Gli oggetti piccoli sono in una certa
misura isolati e quindi mostrano un comportamento quantistico.

In America, James Anglin, uno stretto collaboratore di Zurek, sta studiando l'evoluzione di "sistemi quantistici
aperti" lontani dall'equilibrio, che richiamano gli studi di Prigogine sui sistemi classici aperti.

La linea di ricerca e', indirettamente, stabilire intriganti somiglianze tra l'emergenza dei sistemi classici da
sistemi quantistici e l'emergenza di sistemi viventi da sistemi non-viventi.

Qubits

Negli anni 1990 un'altra interpretazione della meccanica quantistica e’ stata proposta dal fisico austriaco Anton
Zeilinger.

Egli si e’ proposto di trovare un principio fondamentale che spiegherebbe le tre strane caratteristiche del mondo
quantistico:

- quantizzazione (tutte le quantita’ fisiche fondamentali si presentano in pacchetti discreti),

- casualita’ (possiamo solo conoscere la probabilita’ di un evento), e

- interconnessione (ogni cosa e’ connessa, non importa quanto siano lontani gli oggetti).

Egli propose un principio molto semplice: ogni sistema elementare, chiamato "qubit" (ad esempio, lo spin di un
elettrone), porta uno ed un solo bit di informazione; due sistemi trasportano due e soltanto due bit di
informazione; e cosi’ via.

Dopo tutto, le nostre descrizioni fisiche del mondo sono rappresentate da proposizioni, ed ogni proposizione
puo’ essere vera o falsa, ovvero ogni sistema elementare porta uno ed un solo bit di informazione.

Le conseguenze di questo principio sono semplici da derivare:

- Non posso sapere due cose circa un elettrone, ma soltanto una alla volta (indeterminazione), ogni cosa deve
essere quantizzata perche’ l’unita’ di informazione e’ il bit (si’/no, o uno/zero);

- Due sistemi portano esattamente due bit di informazione, il che vuol dire che sono legati per sempre (se uno
cambia, deve cambiare anche l’altro in modo da fornire ancora due bit di informazione).

- L’equazione di Schroedinger puo’ essere derivata come la descrizione del moto in uno spazio di informazioni a
tre dimensioni.
L’interpretazione di Zeilinger e’ quindi che soltanto l’informazione esiste veramente e che la meccanica
quantistica e’ semplicemente la teoria di come l’informazione si comporta in questo mondo.

La Fisica delle Particelle Elementari: Incontri Ravvicinati con la Materia

La Teoria Quantistica ridisegno' l'immagine della natura e diede inizio ad una corsa verso la scoperta dei
costituenti ultimi della materia. Questo programma culmino' nella formulazione delle teorie dell'Elettrodinamica
Quantistica (inventata virtualmente dal fisico britannico Paul Dirac nel 1928 quando pubblico' la sua equazione
per l'elettrone in un campo elettromagnetico, che unifico' la Meccanica Quantistica con la Relativita' Speciale) e
la Cromodinamica Quantistica (virualmente inventata dal fisico americano Murray Gell-Man nel 1963 quando
ipotizzo' la scomposizione del nucleo nei quark).

Segue dall'equazione di Dirac che per ogni particella c'e' una corrispondente anti-particella che ha la stessa
massa e carica elettrica opposta, e, qualitativamente parlando, si comporta come la particella ma muevendosi
all'indietro nello spazio e nel tempo.

Le forze sono mediate da pacchetti discreti di energia, comunemente rappresentati da particelle virtuali o
"quanti". Il quanto del campo elettromagnetico (cioe' di luce) e' il fotone: ogni fenomeno elettromagnetico
comporta uno scambio di un numero di fotoni tra le particelle che ne fanno parte. I fotoni scambiano energia in
unita' della costante di Planck, un valore molto piccolo, ma nondimeno un valore discreto.

Altre forze sono definite da altri quanti: la forza debole dalla particella W, la gravita' dal gravitone e la forza
nucleare dai gluoni.

Le particelle possono, prima di tutto, essere divise secondo un principio originariamente formulato (nel 1925)
dal fisico austriaco Wolfgang Pauli: alcune particelle (i "fermioni", dal nome del fisico italiano Enrico Fermi)
non sono mai nello stesso stato allo stesso tempo, mentre cio' accade per altre particelle (i "bosoni", dal nome
del fisico Indiano Satyendra Bose). Le funzioni d'onda di due fermioni non possono mai sovrapporsi
completamente, mentre possono farlo le funzioni d'onda di due bosoni (i bosoni perdono sostanzialmente
l'identita' e diventano uno).

(Tecnicamente, "bosone" e' il generico nome per una particella con un momento angolare, o spin, di un numero
intero, mentre "fermione" e' il generico nome per una particella con mezza unita' quantistica dispari di spin).

Risulta (non troppo sorprendentemente) che i fermioni (come gli elettroni, i protoni, e i neutroni) costituiscono
la materia dell'universo, mentre i bosoni (fotoni, gravitoni, gluoni) sono le particelle virtuali che incollano
insieme i fermioni. Quindi i bosoni rappresentano le forze che agiscono sui fermioni. Essi sono i quanti di
interazione. Una interazione e' sempre realizzata per mezzo dello scambio di bosoni tra fermioni.

(Esistono paricelle che sono bosoni ma che non rappresentano interazioni, i cosiddetti "mesoni". I mesoni
decadono molto rapidamente. Non e' conosciuto nessun mesone stabile).

Sono state identificate tre forze che agiscono su particelle elementari: la forza elettromagnetica, la forza
"debole" e la forza "forte". Corrispondentemente, ci sono bosoni che sono deboli (le particelle W e Z), forti (i
gluoni) ed elettromagnetici (il fotone).

I fermioni sono stati classificati in diverse maniere. Prima di tutto, il neutrone e il protone (le particelle che
formano i nuclei degli atomi) non sono elementari: sono fatti di 18 quark (6 quark, ognuno con un suo "colore").
Quindi ci sono 12 leptoni: l'elettrone, il muone, il tau, i loro tre neutrini e le loro sei anti-particelle. Un modo
migliore per organizzare i Fermioni e' di dividerli in sei famiglie, ognuna guidata da due leptoni: l'elettrone va
con il neutrino dell'elettrone, il quark su e il quark giu'. Questa famiglia forma la maggior parte della materia che
conosciamo. Un'altra famiglia di fermioni e' guidata dal muone e contiene il suo neutrino e contiene due altri
quark. La terza famiglia contiene la particella tau, il suo neutrino e due altri quark (cima e fondo).

Le particelle fatte di quark sono chiamate "adroni" e comprendono i "barioni" (fatti di tre quark, e quindi
fermioni, come il protone e il neutrone) e "mesoni" (fatti di un quark e un antiquark, e quindi bosoni).

La forza elettromagnetica tra leptoni e' generata dallo scambio virtuale di particelle prive di massa chiamate
"fotoni". La forza debole e' dovuta alle particelle W e Z (ci sono due particelle W). La forza "forte" tra quark
(che crea protoni e neutroni) e' generata dallo scambio virutale di "gluoni". I quark vengono in sei "sapori" e tre
"colori". I gluoni sono sensibili al colore, non al sapore. La forza forte tra protoni e neutroni e' una diretta
conseguenza della forza di colore.

I leptoni non hanno colore, ma hanno sapore (per esempio, l'elettrone e il suo neutrino hanno differenti sapori).
La forza "debole" e' effettivamente la forza di sapore tra leptoni. W+ e W- sono i quanti di questa forza di
sapore.

Questo modello spiega quello che conosciamo della materia. Non spiega perche' ci sono 4 forze, 18 quark, sei
leptoni, ecc... I numeri sembrano essere arbitrari.

In particolare, non spiega perche' le particelle hanno le masse che hanno. Si suppone che un campo (chiamato
campo di Higgs) permei l'universo e la massa di una particella e' supposta essere la misura dell'intensita' della
sua interazione con il campo di Higgs.

Unifcazione: Alla Ricerca della Simmetria

Dal momento che la carica elettrica varia anche col sapore, puo' essere considerata anch'essa una forza di
sapore. Su queste linee, nel 1967 Steven Weinberg e Abdus Salam unificarono la forza debole e la forza
elettromagnetica in un'unica forza di sapore (scoprendo incidentalmente "Dinamica Quantistica dei Sapori",
l'analogo della Cromodinamica"), e scoprirono una terza forza di sapore, mediata dai quanti Z. La forza
unificata quindi ammette quattro quanti: il fotone, il bosone W+, il bosone W- e il bosone Z. Questi quanti si
comportano come i duali dei gluoni: sono sensibili al sapore, non al colore. Tutti i quanti sono descritti dal
cosiddetto "campo di Yang-Mills", che e' una generalizzazione del campo di Maxwell (la teoria di Maxwell
diventa un caso particolare di Dinamica Quantistica dei Sapori: "Elettrodinamica Quantistica").

Quindi, il mondo e' fatto di sei leptoni, sei quark, quattro bosoni per leptone e otto gluoni per quark.

Alternativamente, leptoni e quark possono anche essere combinati in tre famiglie di fermioni: una comprendente
l'elettrone, il suo neutrino e due sapori di quark ("su" e "giu'"); una comprendente il muone, il suo neutrino e due
sapori di quark ("strano" e "incantato"); e una comprendente il tauone, il suo neutrino e due sapori di quark
("cima" e "fondo"). Piu' le tre corrispondenti famiglie di anti-particelle. Otto particelle per famiglia (ogni sapore
di quark conta come tre particelle). Il totale complessivo e' di 48 fermioni. I bosoni sono dodici: otto gluoni, il
fotone e i tre bosoni per l'interazione debole. In tutto sessanta particelle.

La profusione di particelle e' semplicemente comica. La Meccanica Quantistica ha sempre condotto a questa
conseguenza: per spiegare la materia, una moltitudine di entita' finora sconosciute e' prima postulata e quindi
"osservata" (verificata effettivamente essere consistente con la teoria). Altre entita' ancora sono necessarie a
spiegare tutti i fenomeni che succedono in laboratorio. Quando la teoria diventa un'autoparodia, viene proposto
un nuovo schema nel quale queste entita' possono essere scomposte in unita' piu' piccole. Cosi' i fisici sono gia',
silenziosamente, cercando la prova che i leptoni e i quark non sono realmente elementari, ma fatti di un numero
di particelle piu' piccole. E' facile predire che alla fine romperanno il quark e l'elettrone, e che ricominceranno
da capo.

Diverse altre caratteristiche sembrano bizzarre. Per esempio, le tre famiglie di fermioni sono molto simili: che
bisogno ha avuto la Natura per creare tre famiglie quasi identiche di particelle?

Gli spin di queste particelle sono totalmente arbitrari. I fermioni hanno spin 1/2 e i bosoni hanno spin intero.
Perche'?

L'intero insieme di equazioni per queste particelle ha 19 costanti arbitrarie. Perche'?

I gluoni sono fondamentalmente differenti dal fotoni: i fotoni sono intermediari della forza elettromagnetica ma
non portano loro stessi una carica elettrica, mentre i gluoni sono intermediari della forza di colore che portano
loro stessi un colore (e di conseguenza interagiscono tra di loro). Perche'?

Inoltre, poiche' il colore viene in tre varieta', ci sono molti gluoni, mentre c'e' soltanto un fotone. Come risultato,
la forza di colore si comporta in modo fondamentalmente diverso dalla forza elettromagnetica. In particolare, si
estende all'infinito. Questo confina i quark dentro i protoni e neutroni. Perche'?

Inoltre, la simmetria della forza elettrodebole (dove il fotone e i bosoni si trasformano tra di loro) non e' esatta
come nel caso della Relativita' (dove il tempo e le coordinate spaziali si trasformano tra di loro): il fotone e'
privo di massa, mentre i bosoni hanno masse. Solo a temperature estremamente alte la simmetria e' esatta. A
temperature piu' basse succede una rottura spontanea della simmetria.

Questo sembra essere un capriccio generale della natura. A temperature differenti la simmetria si rompe:
ferromagnetismo, liquidi isotropi, la forza elettrodebole... Un cambiamento di temperatura puo' creare nuove
proprieta' per la materia: crea il magnetismo per i metalli, crea l'orientazione per un cristallo, crea la massa per i
bosoni.

Le forze fondamentali mostrano sorprendenti somiglianze quando i loro bosoni sono privi di massa. Le tre
famiglie di particelle, in particolare, acquistano prorpieta' identiche. Questo porta gli scienziati a credere che il
modo "naturale" di esistere per i bosoni in un remoto passato fu l'essere privi di massa. In che modo essi
acquistano la massa che oggi noi osserviamo nel mondo? E perche' hanno tutti masse differenti? Il meccanismo
di Higgs da' una massa a fermioni e bosoni. Naturalmente richiede bosoni per se' stesso, ovvero i bosoni di
Higgs (particelle di spin 0).

Ogni interazione mostra una qualche forma di simmeria, ma sfortunatamente sono tutte differenti, come e'
esemplificato dal fatto che i quark non possono trasformarsi in leptoni. Nel caso della forza debole, le particelle
(cioe' l'elettrone e il suo neutrino) possono essere interscambiate, lasciando invariate le equazioni complessive,
secondo una trasformazione chiamata SU(2), che significa che una particella puo' essere scambiata con un'altra.
Per la forza forte (cioe' i quark) la trasformazione simmetrica e' SU(3), il che significa che le tre particelle
possono essere mescolate intorno. Per la forza elettromagnetica, e' U(1), ovvero solo la componente elettrica e la
componente magnetica del campo possono essere scambiate. Ogni tentativo di trovare una simmetria di
un'ordine superiore risulta nella creazione di nuove particelle. SU(5), per esempio, sancisce l'esistenza di 24
bosoni... ma non permette ai quark e ai leptoni di cambiare l'uno nell'altro (cinque alla volta), tranne che a
temperature terribilmente alte.

Infine, la Teoria Quantistica non incorpora la gravita'. Poiche' la gravita' e' una interazione (sebbene soltanto
visibile tra corpi grandi), essa richiede il suo quanto di interazione, il cosiddetto "gravitone" (un bosone di spin
2). Una volta che la gravita' e' "quantizzata", si puo' calcolare la probabilita' di una particella che interagisce col
campo gravitazionale: il risultato e'... infinito.

La difficolta' di quantizzare la gravita' e' dovuto alla sua natura auto-referenziale (cioe' non lineare): la gravita'
altera la geometria dello spazio-tempo, e per contro l'alterazione influenza il comportamento della gravita'.

Le differenze fondamentali tra la Teoria Quantistica e la Relativita' Generale possono anche essere viste
topologicamente: l'universo della Relativita' e' curvo e continuo; l'universo della Teoria Quantistica e' piatto e
granulare. La Relativita' prescrive che la materia incurva il continuo dello spazio-tempo, che per contro
influenza il moto della materia. La Teoria Quantistica prescrive che la materia interagisce tramite quanti di
energia in uno spazio-tempo piatto (perfino trovare un vocabolario comune e' difficile!). Il ponte tra le due
vedute sarebbe quello di "quantizzare" lo spazio-tempo, l'intermediario relavistico tra materia e materia: allora le
due formulazioni sarebbero identiche. Se la curvatura dello spazio-tempo potesse essere espresso in termini di
quanti di energia, allora le due prescrizioni sarebbero la stessa.

Recentemente, Abhay Ashtekar ha proposto il "loop space model", basato sulla teoria del 1985 di Amitabha
Sen, che divide il tempo e lo spazio in due distinte entita' soggette all'indeterminazione quantistica (analogo
all’impulso e alla posizione). Le soluzioni dalle equazioni di Einstein sarebbero quindi stati quantistici che
assomigliano a degli "anelli".

La verita' e' che la Teoria Quantistica ha raggiunto un'impasse. Sembra che non ci sia modo di modificare la
Relativita' (Generale) in modo da essere compatibile con la Meccanica Quantistica.

La Teoria delle Superstringhe: Dimensioni Superiori

Innumervoli tentativi sono stati fatti per integrare la visione quantistica e relativistica (generale) della realta'.

Queste teorie sono ovviamente molto differenti e la scusa che esse operano a differenti livelli di "granularita'"
della natura (la Teoria Quantistica per il molto piccolo e la Teoria della Relativita’ per il molto grande) non e'
molto credibile.
I fisici hanno cercato una teoria che le spieghi entrambe, una teoria della quale entrambe sarebbero casi
particolari. Sfortunatamente, applicare la Teoria Quantistica alla Teoria della Relativita' e' stato provato essere
irrealistico.

Sono state trovate differenti "metafore" del mondo. La Teoria della Relativita' lega insieme lo spazio-tempo e la
materia. La Teoria Quantistica lega la materia e l'osservatore (un osservatore che e' supposto verificare le
conseguenze di legare insieme la materia e l'osservatore che e' supposto...).

La Relativita’ si focalizza su come la gravita’ di corpi massivi incurvi la struttura del tempo e dello spazio e su
come siano influenzati di conseguenza nel loro moto dalla curvatura dello spazio-tempo. La Teoria Quantistica
si focalizza sulla natura fuzzy nella vita delle particelle elementari.

Se si inserisce semplicemente l'equazione di Schroedinger (come evolve il mondo secondo la Teoria


Quantistica) nell'equazione di Einstein (come evolve il mondo secondo la Teoria della Relativita'), l'equazione
risultante appare essere priva di senso.

Sostanzialmente, non abbiamo una Fisica che sia valida in situazioni in cui sia gli effetti gravitazionali che gli
effetti quantistici siano cruciali, come al centro dei buchi neri o durante i primi momenti del Big Bang.

La Relativita’ Generale spiega il moto. Le equazioni di Einstein sono precise. La Teoria Quantistica spiega che
il moto e’ indefinito. Il principio di indeterminazione e’ fuzzy.

La Relativita’ Generale mostra che il tempo e’ relativo. La teoria Quantistica assume un orologio universale che
segni il ritmo per l’universo. Il "Tempo" appare completamente differente in una teoria e nell’altra, quasi come
se le due teorie usino il termine "tempo" per indicare due cose differenti.

Idem per l’"osservatore": l’osservatore di Einstein e’ parte dell’universo ed infatti e’ influenzato dall’universo,
menre l’osservatore della Teoria Quantistica ha uno status speciale che lo rendono immune dalle leggi
quantistiche (l’universo quantistico e’ diviso in particelle che sono misurate e "osservatori" che fanno le
misurazioni).

Superstringhe

Una strada per unificare la Teoria Quantistica e la Teoria della Relativita' e' quella di partire con la relativita' e
vedere se la Teoria Quantistica puo' essere trovata come un caso speciale delle equazioni di Einstein.

Nel 1919 il fisico tedesco Theodr Kaluza scopri' che sarebbe derivato l'elettromagnetismo se fosse aggiunta una
quinta dimensione al continuum spazio-temporale quadridimensionale di Einstein: riscrivendo le equazioni del
campo di Einstein in cinque dimensioni, Kaluza ottenne una teoria che conteneva sia la Relativita' Generale di
Einstein (cioe' la teoria della gravitazione) e la teoria di Maxwell dell'elettromagnetismo. Kaluza credeva che lo
status privilegiato della luce venisse dal fatto che la luce e' una piegatura della quarta dimensione spaziale.
Piu' tardi, il matematico Oskar Klein spiego' come la quinta dimensione poteva essere arricciata in un anello
delle dimensioni della scala di Planck. L'universo poteva avere cinque dimensioni, eccetto che una non e'
infinita ma e' richiusa in se' stessa. Negli anni 1960, il fisico americano Bryce DeWitt e altri provarono che una
teoria di Kaluza in dimensioni superiori e' ancora piu' intrigante: quando la quinta dimensione e le superiori
sono arricciate, la teoria produce i campi di Yang-Mills richiesti dalla Meccanica Quantistica.

Fu questo approccio che nel 1974 porto' il fisico americano John Schwarz a formulare la Teoria delle
Superstringhe come una teoria di tutte le interazioni. I suoi primi studi furono scaturiti da una formula scoperta
nel 1968 dal fisico italiano Gabriel Veneziano e la sua interpretazione come corda vibrante da parte del fisico
giapponese Yoichiro Nambu. Schwarz si rese rapidamente conto che sia il modello standard delle particelle sia
la Relativita' Generale erano implicate dalla Teoria delle Superstringhe.

La Teoria delle Superstringhe vede le particelle come entita' ad una dimensione (le "stringhe") piuttosto che
punti: minuscoli anelli della grandezza della lunghezza di Planck. Le particelle sono semplicemente risonanze (o
modi di vibrazione) di piccole cordicelle. In altre parole, non ci sono altro che cordicelle vibranti ed ogni
particella e’ dovuta ad un particolare modo di vibrazione della cordicella. Ogni modo di vibrazione ha
un'energia fissata, che significa una massa, carica, e cosi' via. Di conseguenza l'illusione di una particella. Tutta
la materia consiste di queste minuscole corde vibranti. Il punto chiave e’ che uno di questi modi di vibrazione e’
il "gravitone", la particella a cui e’ dovuta la gravita’: la teoria delle Supertringhe e’ una Teoria Quantistica che
predice l’esistenza della gravitazione della Relativita’ Generale.

Il comportamento del nostro universo e' in gran parte definito da tre costanti universali: la velocita' della luce, la
costante di Planck e la costante gravitazionale. La "massa di Planck" e' una combinazione di questi tre numeri
magici ed e' la massa (o l'energia) alla quale gli effetti della superstringa sarebbero visibili. Sfortunatamente, e'
molto piu' alta della massa di qualunqhe particella conosciuta. Tali energie furono disponibili soltanto negli stadi
primordiali dell'universo e per una frazione di secondo. Le particelle che sono state osservate in laboratorio sono
soltanto quelle che richiedono piccole energie. Una piena valutazione della Teoria delle Superstringhe
richiederebbe energie enormi. Sostanzialmente, la Teoria delle Superstringhe e' la prima teoria scientifica che
stabilisce l'impossibilita' pratica di essere verificata sperimentalmente (almeno durante la vita dei suoi
inventori).

Inoltre, le equazioni delle superstringhe producono molte soluzioni approssimate, ognuna che fornisce una lista
di particelle senza massa. Questo puo' essere interpretato come il permettere un certo numero di universi
differenti: il nostro e' una soluzione particolare, e quella soluzione produrra' le particelle alle quali siamo
abituati. Perfino il numero di dimensioni sarebbe un effetto della particolare soluzione.

C'e', potenzialmente, un infinito numero di particelle. Prima che la simmetria si rompa, ogni fermione ha il suo
propio bosone, che ha esattamente la stessa massa. Cosi' si postula un "fotino" per un "fotone" e un "s-elettrone"
per l'elettrone.

Lo spazio-tempo deve avere dieci dimensioni. Sei di esse sono incurvate in minuscoli tubi che sono trascurabili
per la maggior parte degli utilizzi. La materia si origino' quando queste sei dimensioni spaziali collassarono in
superstringhe. In definitiva, le particelle elementari sono uno spazio iper-dimensionale compattificato.

Il sogno di Einstein era quello di spiegare la materia-energia nello stesso modo in cui aveva spiegato la gravita':
come fluttuazioni nella geometria dello spazio-tempo. La variazione "eterotica" della Teoria delle
Superstringhe, avanzata dal fisico americano David Gross e altri negli anni 1980, fa semplicemente questo: le
particelle emergono dalla geometria, cosi' come la gravita' e le altre forze della natura. La stringa eterotica e' una
stringa chiusa che vibra (allo stesso tempo) in senso orario in uno spazio a dieci dimensioni e in senso antiorario
in uno spazio a 26 dimensioni (delle quali 16 dimensioni sono compattificate).

La Teoria della Relativita' Generale di Einstein e' implicata dalla Teoria delle Superstringhe, al punto che una
altro fisico americano, Edward Witten, ha scritto che la Teoria della Relativita' fu scoperta prima per un
semplice caso. Incidentalmente, lo stesso Witten, nel 1985, ha fornito la piu' completa "teoria del campo di
stringhe".

Nel frattempo la Teoria delle Superstringhe e' progredita verso una forma peculiare di dualita'. Nel 1977 un
fisico finlandese e uno britannico, Claus Montonen e David Olive, proposero che potrebbe esistere una Fisica
duale che ha a che vedere con "solitoni" invece che con "particelle". In quella Fisica, monopoli magnetici sono
le unita' elementari, e le particelle emergono da solitoni, nodi in campi che non possono essere allisciati (nella
Fisica convenzionale, monopoli magnetici sono solitoni di particelle). Ogni particella corrisponde a un solitone,
e viceversa. Essi provarono che non importa quale Fisica si sceglie di seguire: tutti i risultati si applicherebbero
automaticamente a quella duale.

In particolare, si puo' pensare che i solitoni siano aggregati di quark (come originariamente fatto nel 1974 dal
fisico olandese Gerard 't Hooft). Allora una teoria di solitoni puo' essere costruita sopra una teoria dei quark, o
una teoria dei quark puo' essere costruita sopra una teoria dei solitoni.

Nel 1996 il fisico americano Andrew Strominger trovo' perfino una connessione tra i buchi neri e le stringhe: se
la massa originale del buco nero fosse fatta di stringhe, la radiazione di Hawking sarebbe assorbirebbe in
definitiva il buco nero e lascerebbe un qualcosa di dimensioni zero, cioe' una particella. Dal momento che una
particella e' in definitiva una stringa, il circolo teoricamente si riassume: i buchi neri che decadono in stringhe e
le stringhe che decadono in buchi neri.

La Teoria delle Superstringhe e' l'unica teoria scientifica di tutti i tempi che richiede che l'universo abbia un
numero specifico di dimensioni: ma perche' dieci?

Fisici come Peter Freund, nato in Romania, e Michio Kaku hanno osservato che le leggi della natura diventano
piu' semplici in dimensioni superiori. Il sistema percettivo degli uomini puo' soltanto afferrare tre dimensioni,
ma a quel livello il mondo risulta terriblmente complicato. Nel momento in cui ci muoviamo in una quarta
dimensione, possiamo unifcare fenomeni che sembravano molto differenti. Continuandoci a muovere verso
dimensioni sempre piu' alte, possiamo unificare ancora piu' teorie. Questo e' precisamente come Einstein
unifico' la Meccanica e l'Elettromagnetismo (introducendo una quarta dimensione), come gli scienziati
quantistici unificarono l'elettromagnetismo con la forza nucleare debole e quella forte e come i fisici delle
particelle stanno ora provando ad unificare queste forze con la gravita'.

Ancora: perche' dieci?

Ci sono altri fenomeni intorno a cio' che dobbiamo ancora scoprire e che, una volta unificati con le teorie
scientifiche esistenti, produrranno dimensioni ancora maggiori? Sono queste dimensioni solo artifici della
Matematica che sono stati impiegati nei calcoli, o sono dimensioni reali che potrebbero essere state accessibili in
tempi precedenti?

E perche' stringhe uni-dimensionali, e non oggetti multi-dimensionali? Paul Dirac, indietro nel 1962, aveva
pensato che l'elettrone potesse essere una bolla, ovvero una membrana richiusa su se' stessa.

Gravita' Quantistica

Anche Penrose e' d'accordo che l'approccio giusto all'integrazione della Teoria Quantistica e la Teoria della
Relativita' non deve preoccuparsi degli effetti della prima sulla seconda ma viceversa.

Penrose (come ogni altro) e' perplesso circa le due differenti, e incompatibili, interpretazioni quantistiche. Una e'
dovuta all'equazione di Schroedinger, che descrive come una funzione d'onda si evolve nel tempo. Questa
interpretazione e' deterministica e fornisce una storia continua del mondo. L'altra e' dovuta al collasso della
funzione d'onda di fronte alla misurazione, che impone di determinare le probabilita' dei possibili risultati dal
modulo quadro delle ampiezze nella funzione d'onda ("riduzione del vettore di stato"). Questa interpretazione e'
probabilistica e fornisce una storia discontinua del mondo, poiche' il sistema salta improvvisamente in un nuovo
stato. Possiamo usare l'equazione di Schroedinger per determinare cosa sta succedendo ad ogni punto nel tempo;
ma, nel momento in cui cerchiamo di misurare effettivamente una quantita', dobbiamo ricorrere alla riduzione
del vettore di stato per conoscere cos'e' successo.

Penrose postula che queste due incompatibili punti di vista devono essere riconciliati ad un livello piu' alto di
astrazione da una nuova teoria , e una tale teoria deve essere basata sulla Teoria della Relativita'. Una tale teoria,
che egli chiama "gravita' quantistica", libererebbe anche la Fisica dei numerosi infiniti che la tormentano.
Dovrebbe essere anche asimmetrica rispetto al tempo, predicendo una direzione privilegiata nel tempo, come fa
la seconda legge della Termodinamica. Infine, per preservare il libero arbitrio, dovrebbe contenere un elemento
non-algoritmico, il che significa che il futuro non sarebbe calcolabile a partire dal presente. Penrose crede
perfino che la Gravita' Quantistica spieghera' la coscienza.

Il Sentiero dell'Asimmetria

In qualche modo l'asimmetria sembra ricoprire un ruolo da protagonista nella storia del nostro universo e della
nostra vita. Gli attuali modelli cosmologici speculano che le quattro forze fondamentali della natura scaturirono
quando la simmetria si ruppe dopo che le altissime temperature incominciarono a raffreddarsi. Oggi, viviamo in
un universo che e' figlio di quella suddivisione improvvisa. Senza questa "simmetria rotta" non ci sarebbe
nessuna forza elettrica e nessuna forza nucleare, e il nostro universo sarebbe vastamente impoverito di fenomeni
naturali.

Gli scienziati hanno anche speculato a lungo sull'asimmetria tra materia e antimateria: se una e' l'immagine
speculare dell'altra e nessun fenomeno fisico mostra una preferenza per l'una o per l'altra, perche' nel nostro
universo i protoni e gli elettroni (la materia) prevalgono enormemente sui positroni e sugli antiprotoni
(l'antimateria)?

La maggior parte delle leggi fisiche possono essere rovesciate nel tempo, almeno sulla carta. Ma per la maggior
parte cio' non succede. Il tempo presenta un'altra asimmetria, la "freccia del tempo" la quale punta sempre nalla
stessa direzione, non importa quello che e' permesso dalla Matematica. L'universo, la storia e la vita procedono
tutti quanti in avanti e mai indietro.

Possibilmente collegata a cio' e' l'altra grande asimmetria: l'entropia. Non si puo' ricomporre un uovo sbattuto.
Una zolletta di zucchero che si dissolve in una tazza di caffe' non puo' essere di nuovo una zolletta di zucchero.
Lasciati a loro stessi, gli edifici collassano, non migliorano. La maggiora parte dei manufatti richiedono una
periodica manutenzione, altrimenti si rovinerebbero. Il disordine e' continuamente accumulato. Alcuni processi
sono irreversibili.

Risulta che l'entropia e' un fattore chiave nel permettere la vita (e, certamente, nel terminarla). Gli organismi
viventi si mantengono lontani dall'equilibrio e l'entropia ricopre un ruolo in cio'.

Inoltre, nel 1848 il biologo francese Louis Pasteur scopri' che gli amminoacidi (che costituiscono le proteine che
costituiscono gli organismi) mostrano un'altra singolare asimmetria: per ogni amminoacido esiste in natura la
sua immagine speculare, ma la vita sulla Terra usa soltanto una forma di amminoacidi (quelli "mancini"). Il
mistero di Pasteur e' ancora irrisolto (Pasteur pensava che in qualche modo cio' "fosse" la definizione di vita).
Piu' tardi, i biologi avrebbero scoperto che i corpi usano soltanto zuccheri "destrorsi", confermando mediante
cio' che l'omochiralita' (la proprieta' di essere o mancini o destrorsi) e' una proprieta' essenziale della vita.

Infine, un'asimmetria si presenta perfino nella sede stessa del pensiero, nel cervello umano. I due emisferi
cerebrali sono piuttosto simmetrici in tutte le specie tranne la nostra. Gli altri mammiferi non mostrano
preferenze nell'afferrare il cibo con l'una o l'altra zampa. Noi si'. La maggior parte di noi sono destrorsi e quelli
che non lo sono, sono mancini. L'asimmetria sembra essere una caratteristica fondamentale del nostro cervello.
L'emisfero sinistro e' principalmente usato per il linguaggio e l'interazione dei due emisferi sembra essere
importante per la coscienza.

Potrebbe risultare di essere una semplice coincidenza, ma le creature maggiormente coscienti del nostro pianeta
hanno anche i cervelli piu' asimmetrici.

Ci fu anche un cervello unificato all'origine del pensiero, la cui simmetria si ruppe in seguito nel sentiero
evoluzionistico?

Un Mondo Fuzzy

La fisica moderna si basa pesantemente sulla Meccanica Quantistica. La Meccanica Quantistica si basa
pesantemente sulla teoria delle probabilita'. All'epoca, accadde semplicemente che la probabilita' si adattava
bene al modello.

La Meccanica Quantistica fu costruita sulla probabilita' perche' la teoria della probabilita' e' quello che era
disponibile a quei tempi. La Meccanica Quantistica fu costruita in quel modo non perche' la Natura e' in quel
modo, ma perche' gli strumenti matematici disponibili all'epoca erano quelli; cosi' come Newton uso' la
geometria di Euclide perche' era quello che la Geometria poteva fornire all'epoca.

Le teorie stocastiche di Boltzmann hanno mostrato che il comportamento dei gas (che sono vasti aggregati di
molecole) puo' essere predetto da una dinamica che ignora il preciso comportamento individuale, e tiene conto
solo del comportamento medio. In retrospetiva l'influenza di Boltzmann sulla Meccanica Quantistica fu enorme.
La sua semplificazionne fu tentatrice: dimenticare l'individuo, e focalizzarsi sulla popolazione.

La Meccanica Quantistica di conseguenza sanci' un approccio tipo "popolazione" alla Natura: prendi molti
elettroni, e alcuni faranno qualche cosa e altri faranno altre cose. Non e' possibile nessuna prescrizione su un
singolo elettrone. I fenomeni quantistici non specificano cosa faccia una singola particella, ma cosa faccia un
insieme di particelle. Di molte particelle che colpiscono un bersaglio, un po' passeranno attraverso, un po'
ritorneranno indietro. E questo puo' essere espresso probabilisticamente.

Oggi, alternative alla probabilita' esistono. In particolare, la Logica Fuzzy puo' rappresentare la probabilita' in
maniera piu' naturale (le cose non sono bianche o nere, ma sia bianche che nere, in una certa misura). La Logica
Fuzzy e' largamente equivalente alla Teoria della Probabilita', ma differisce nel fatto che descrive singoli
individui, non popolazioni.

Sulla carta, la Meccanica Quantistica potrebbe essere riscritta con la Logica Fuzzy (al posto della probabilita')
senza alterare nessuna delle sue conclusioni. Cio' che cambierebbe e' l'interpretazione: invece di una teoria su
"insiemi di individui" (o popolazioni) diventerebbe una teoria su "individui fuzzy". In uno scenario di Logica
Fuzzy, una specifica particella che colpisce una potenziale barriera andrebbe sia attraverso sia tornerebbe
indietro. In una certa misura. Non e' che su una popolazione di individui alcuni fanno questo e alcuni fanno
quello; un individuo specifico fa sia questo che quello. Il mondo si comporterebbe ancora in modo bizzarro, ma
in qualche modo saremmo in grado di fare asserzioni su individui. Comunque, questo approccio permetterebbe
alla Fisica di tornare ad essere una scienza di oggetti individuali, non di popolazioni di oggetti.

Il principio di indeterminazione cambierebbe piuttosto drammaticamente: invece che asserire che non possiamo
osservare tutti i parametri di una particella con certezza assoluta, potrebbe asserire che possiamo osservare tutti i
parametri di una particella con certezza assoluta, ma essendo la certezza non esatta. Quando dico che il mio e'
un buon libro, sono molto sicuro. Non sto essendo esatto (che cosa vuol dire "buono"? Che tipo di buono e'
"buono"? ecc...).

Il fatto che una singola particella puo' essere in stati differenti, mutualmente esclusivi, allo stesso tempo ha
larghe implicazioni sul modo in cui la nostra mente categorizza gli stati "mutualmente esclusivi"; non su cosa la
Natura effettivamente faccia. La Natura non ha mai costretto le cose ad essere piccole o grandi. Lo ha fatto la
nostra mente. Ogni teoria scientifica che sviluppiamo e' innanzitutto un "discorso" sulla Natura; cioe' una
rappresentazione nella nostra mente di cosa la Natura e' e che che cosa fa.

Alcuni dei limiti che vediamo nella Natura (ad esempio, il fatto che qualcosa e' o grande o piccola) sono
limitazioni della nostra mente; e inversamente alcune delle perfezioni che vediamo nella Natura sono perfezioni
della nostra mente (ad esempio, il fatto che c'e' un colore bianco, o che qualcosa e' freddo, o che una pietra e'
tonda, mentre nessun oggetto in Natura e' pienamente bianco, freddo o rotondo). La Logica Fuzzy e'
probabilmente un migliore compromesso tra la nostra mente e la Natura, perche' permette di esprimere il fatto
che le cose sono non semplicemente zero o uno, bianche o nere, calde o fredde, rotonde o quadrate; esse sono
"in mezzo", sia bianche che nere, sia calde che fredde, sia...

Il Tempo: Quando?
Ad un'analisi piu' approfondita, il soggetto principale della Relativita' e della Teoria Quantistica puo' benissimo
essere il Tempo. La maggior parte delle bizzarre implicazioni di queste teorie sono cose che o succedono "nel
tempo" o sono causate dal Tempo.

La Relativita' rese il Tempo una delle tante dimensioni, leggermente differente dalle altre ma sostanzialmente
molto simile alle altre. Questo chiaramente contrasta con la nostra percezione del Tempo come qualcosa che e'
assolutamente distinto dallo spazio. Hawking, per esempio, pensa che originariamente il Tempo era soltanto una
quarta dimensione spaziale, quindi gradualmente cambio' in un differente tipo di dimensione e, nel Big Bang,
divenne il Tempo che oggi conosciamo.

Il matematico Hermann Bondi ha argomentato che i ruoli del Tempo sono assolutamente differenti in un
universo deterministico e in uno non deterministico. Mentre in un universo deterministico, il Tempo e' una mera
coordinata, in un universo caratterizzato dall'indeterminatezza, come quello governato dalla Teoria Quantistica,
lo scorrere del Tempo trasforma probabilita' in attualita', possibilita' in realta'. Se il Tempo non scorresse, non ci
sarebbe nulla. Le cose sarebbero intrappolate nel limbo delle funzioni d'onda.

Il fisico australiano Paul Davies afferma esattamente l'opposto: il Tempo e' piuttosto senza significato nel
contesto del modello quantistico dell'universo, poiche' un generale stato quantistico dell'universo non ha un
tempo ben definito. Con Hawking, il Tempo puo' non essere esistito prima del Big Bang, puo' avere avuto
origine in seguito per puro caso.

Il Tempo: Che Cosa?

Il soggetto del Tempo ha confuso e affascinato i filosofi dall'alba della coscienza. Di che cosa e' fatto il Tempo?
Qual e' la materia del Tempo? Il Tempo e' un'invenzione umana?

Non ci sono dubbi che il Tempo fisico non riflette il Tempo psicologico. Il Tempo, come lo conosciamo, e'
soggettivo e relativo. C'e' un sentimento del passare del tempo che nessuna equazione della Fisica puo'
riprodurre. In qualche modo, l'enigma del tempo ci ricorda l'enigma della coscienza: sappiamo cos'e' possiamo
sentirlo molto chiaramente, ma non possiamo esprimerlo, e non sappiamo da dove venga.

Se pensate che ci sia un tempo assoluto, ripensateci. Si', tutti gli orologi mostrano lo stesso tempo. Ma cosa vi fa
pensare che quello che mostrano e' il Tempo? Come esempio, ritorniamo nell'era in cui gli orologi non erano
stati ancora inventati. Il Tempo era definito dal moto del sole. La gente sapeva che un giorno e' un giorno
perche' il sole ci mette un giorno a girare attorno alla Terra (questo e' quello che pensavano). E un giorno era un
giorno dovunque sulla Terra, perfino tra persone che non avevano mai comunicato tra di loro. E' questo il
Tempo assoluto?

Che succederebbe se il Sole ad un tratto rallentasse? La gente di tutto il pianeta penserebbe ancora che un giorno
e' un giorno. La loro unita' di misura non sarebbe diversa. Starebbero misurando qualcosa di diverso, senza
saperlo. Che succederebbe oggi se un'onda galattica facesse rallentare tutti gli orologi? Penseremmo ugualmente
che dieci secondi sono dieci secondi. Ma i "nuovi" dieci secondi non sarebbero i dieci secondi di prima. Cosi' gli
orologi non misurano il Tempo, misurano soltanto se' stessi. Noi prendiamo un moto che e' sempre lo stesso su
tutto il pianeta e lo usiamo per definire qualcosa che non abbiamo mai realmente trovato in natura: il Tempo.
Come minimo, possiamo dire che la misurazione del Tempo non e' innata: abbiamo bisogno di un orologio per
dire "quanto tempo ci ha messo".

Sfortunatamente, la civilta' umana e' fondata sul Tempo. La Scienza, le Arti e la tecnologia sono basate sul
concetto di Tempo. Cio' che abbiamo sono i due sapori del tempo: il tempo psicologico, che e' una concreta
quantita' che il cervello crea e associa ad ogni memoria; e il tempo fisico, una quantita' astratta che e' usata nelle
formule scientifiche per il proposito di descrivere le proprieta' della materia.

Quest'ultimo fu principalmente un'invenzione di Isaac Newton, che costrui' le sue leggi della natura
sull'assunzione di un tempo assoluto, universale, lineare, e continuo. Il passato e' il passato per tutti, e il futuro e'
il futuro per tutti.

Einstein ha spiegato che il passato di qualcuno puo' essere il presente di qualcun altro o perfino il futuro,
provando mediante cio' che il tempo non e' ne' assoluto ne' universale. Ogni partizione di spazio-tempo in spazio
e tempo e' perfettamente legale. Il solo requisito sulla componente temporale e' che gli eventi possono essere
ordinati nel tempo. Il tempo e' piu' che altro ridotto ad una convenzione per ordinare gli eventi, e un modo di
oridnare e' buono come ogni altro modo.

Nel frattempo, la seconda legge della Termodinamica aveva per la prima volta stabilito formalmente la freccia
del tempo con la quale siamo molto familiari, lo scorrere del tempo dal passato al futuro e non viceversa.

Il Tempo: Dove?

Dopo aver dubitato della stessa essenza del tempo, gli scienziati hanno incominciato a dubitare perfino della sua
esistenza.

I fisici britannici Arthur Milne e Paul Dirac furono due degli scienziati che si sono chiesti se la caratteristica
incerta della Fisica moderna possa essere dovuta al fatto che ci sono sue diversi tipi di tempo e che noi tendiamo
a confonderli. Entrambi sostenevano che il tempo atomico e il tempo astronomico possono essere fuori sincrono.
In altre parole, le velocita' dei pianeti cambiano lentamente per tutto il tempo, in termini di tempo atomico,
sebbene rimangano le stesse in termini di tempo astronomico. Un giorno sulla Terra e' un giorno
indipendentemente dalla velocita' della Terra, ma potrebbe durare sempre di meno secondo un orologio atomico.
In particolare, l'eta' dell'universo potrebbe essere stata molto esagerata perche' e' misurata in tempo astronomico
e i processi astronomici erano enormemente velocizzati nelle fasi iniziali dell'universo.

Per non lasciare nessuna strada non tentata, il fisico americano Richard Feynman argomemto' a favore perfino
del fatto che la materia viaggiasse indietro nel tempo: un elettrone che muta in un positrone (la sua anti-
particella) e' semplicemente un elettrone che torna indietro nel tempo. Il suo insegnante John Wheeler sostenne
perfino che forse tutti gli elettroni sono soltanto un solo elettrone, che salta avanti e indietro nel tempo; e cosi'
tutte le altre particelle. C'e' soltanto un esempio di ogni particella. Questo spiegherebbe perche' tutti gli elettroni
sono identici: sono tutti la stessa particella.

Einstein provo' che il Tempo non e' assoluto e disse qualcosa su come noi facciamo esperienza del tempo in
diverse maniere a seconda di come ci stiamo muovendo. Ma egli a stento spiego' cos'e' il Tempo. E nessun altro
lo ha mai fatto.
Il fisico britannico Julian Barbour crede che il Tempo non esista, e che la maggior parte dei problemi della
Fisica sorgono dal fatto che lo assumiamo esistente. Non abbiamo altra prova del passato se non la nostra
memoria di esso. Non abbiamo altra prova del futuro se non la nostra fiducia in esso. Barbour crede che e' tutto
un'illusione: non c'e' nessun moto e nessun cambiamento. Gli istanti e i periodi non esistono. Cio' che esiste
sono solamente "capsule temporali" che sono contenitori statici di "record" . Questi record ci ingannano
facendoci credere che le cose cambiano e gli eventi succedono. Esiste uno "spazio di configurazione" che
contiene tutti i possibili istanti, tutti i possibili "adesso". Questo e' "Platonia". Facciamo esperienza di un
insieme di questi istanti, cioe' un sottoinsieme di Platonia. Barbour e' ispirato dalla teoria di Leibniz che
l'universo non e' un contenitore di oggetti, ma una collezione di entita' che sono sia spazio che materia.
L'universo non contiene le cose, "e'" le cose.

Barbour non da' una risposta alla parte migliore del puzzle: chi decide quale "sentiero" seguiamo in Platonia?
Chi ordina gli istanti di Platonia? Barbour indica semplicemente la meccanica quantistica, la quale prescrive che
noi dobbiamo trovarci nell'"istante" piu' probabile. Osserviamo uno scorrere ordinato di eventi perche' questo e'
quello per cui siamo stati fatti: per interpretare la sequenza di istanti piu' probabili come uno scorrere ordinato di
eventi.

Barbour offre anche una soluzione per unificare la relativita' e la meccanica quantistica: rimuovere il tempo da
una descrizione quantistica della gravita'. Rimuovere il tempo dalle equazioni. Nella sua opinione, il tempo e'
precisamente la ragione per cui e' risultato cosi' difficile unificare la relativita' e le teorie quantistiche.

Il Tempo: Perche'?

Nella Fisica classica e quantistica, le equazioni sono invarianti rispetto all'inversione del tempo. Il futuro e il
passato sono equivalenti. Il tempo e' solo leggermente differente dallo spazio. Il tempo e' percio' un semplice
parametro geometrico. A causa di questo, la Fisica offre una visione statica dell'universo. La seconda legge della
Termodinamica rese ufficiale cio' che era gia' ovvio: che molti fenomeni non sono reversibili, che il tempo non
e' semplicemente una coordinata nello spazio-tempo.

Negli anni '70 Prigogine mostro' , usando il teorema di Boltzmann e concetti termodinamici, che l'irreversibilita'
e' una manifestazione a livello macroscopico di casualita' a livello microscopico.

Prigogine quindi tento' una formulazione microscopica dell'irreversibilita' delle leggi di natura. Egli associa
l'entropia macroscopica ad un operatore di entropia microscopica. Il tempo diventa esso stesso un operatore, non
piu' un semplice parametro. Una volta che il tempo e l'entropia sono diventati operatori, la Fisica e' stata
rovesciata: invece di avere una teoria base espressa in termini di funzioni d'onda (cioe' di traiettorie individuali),
egli ottiene una teoria base in termini di funzioni di distribuzione (cioe' di gruppi di traiettorie). Lo stesso tempo
dipende dalla distribuzione e quindi diventa esso stesso una quantita' stocastica, come l'entropia, una media su
tempi individuali. Di conseguenza, cosi' come l'entropia non puo' essere riportata indietro, non puo' esserlo il
tempo: non si puo' piu predire il futuro dal passato.

Tradizionalmente, lo spazio fisico e' geometrico, lo spazio biologico (lo spazio nel quale le forme biologiche si
sviluppano) e' funzionale (per esempio, lo spazio fisico e' invariante per rotazioni e traslazioni, lo spazio
biologico non lo e'). Il Tempo di Prigogine mira ad unificare i fenomeni fisici e biologici.
Buchi Neri e Wormholes: Accesso ad Altri Universi e Viaggio nel Tempo

Poco dopo che Einstein pubblico' la sua equazione del campo gravitazionale, il fisico tedesco Karl
Schwarzschild trovo' una soluzione che determina il campo gravitazionale per ogni oggetto, data la sua massa e
la sua grandezza. Questa soluzione va all'infinito per uno specifico rapporto tra massa e volume:
sostanzialmente, se l'oggetto e' abbastanza denso (molta massa in un piccolo volume), l'attrazione gravitazionale
che genera e' infinita. Nulla, nemmeno la luce, puo' sfuggire a questo oggetto, che fu chiamato percio' "buco
nero" (da John Wheeler). E ogni cosa che gli si avvicina e' destinata a caderci, e a rimanere intrappolata per
sempre. Tutta l'informazione circa la materia che e' caduta nel buco nero e' anche persa per sempre: un buco
nero puo' essere stato generato da una qualsiasi configurazione iniziale della materia, ma non c'e' nessun ricordo
di quale sia stata. Ancora peggio, negli anni '70 Stephen Hawking dimostro' che i buchi neri evaporano, quindi
l'informazione non e' soltanto intrappolata nel buco nero, ma scompare veramente per sempre.

La scomparsa di materia, energia e informazione in un buco nero ha reso perplessi i fisici fin dal principio,
poiche' ovviamente viola il piu' forte principio di conservazione su cui si basa la nostra Fisica. Esso inoltre
evidenzia le contraddizioni tra la Teoria Quantistica e la Teoria della Relativita': la prima garantisce che
l'informazione non e' mai persa, la seconda predice che si perderebbe in un buco nero.

Einstein stesso capi' che i buchi neri implicavano l'esistenza di un "ponte" tra il nostro mondo e un universo
speculare che e' nascosto nel buco nero, e nel quale il Tempo scorre al contrario. Fu il matematico austriaco
Kurt Godel, lo stesso individuo che che aveva semplicemente frantumato in un colpo solo l'edificio della
Matematica, che, nel 1949, mostro' come le equazioni di Einstein applicate ad un universo in rotazione
implicavano che lo spazio-tempo si puo' incurvare al punto in cui una particella ritornerebbe in un punto
precedente nel tempo; in altre parole, esistono dei "wormholes" che collegano due diversi punti nel tempo di
uno stesso universo. Negli anni '50, John Wheeler speculo' che due punti nello spazio possono essere connessi
attraverso differenti strade, a causa dell'esistenza dei wormholes spaziali. Tali wormholes potrebbero agire come
scorciatoie, sicche' il viaggio tra due punti puo' accadere perfino piu' veloce della luce.

Il matematico neozelandese Roy Kerr nel 1963 e il fisico americano Frank Tipler bel 1974 trovarono alre
situazioni in cui erano ammissibili i wormholes. Negli Stati Uniti, Kip Thorne perfino progetto' una macchina
del tempo capace di sfruttare questi wormholes temporali. Nel Regno Unito, Stephen Hawking ebbe l'idea di
wormholes che connettono insieme i diversi universi. La funzione d'onda di Hawking permette l'esistenza di un
insieme infinito di universi, alcuni piu' probabili di altri, e wormholes della grandezza della scala di Planck
connettono tutti questi universi paralleli tra di loro.

La Storia dell'Universo

Una delle conseguenze della Relativita' Generale e' che prescrive l'evoluzione dell'universo. Pochi futuri sono
possibili, in base a come certi parametri sono scelti. Questi modelli cosmologici riguardano l'universo come un
sistema con quantita' microscopiche. Dalla scoperta che l'universo si sta espandendo, i modelli piu' popolari
sono stati quelli che predicono l'espansione dello spazio-tempo da una singolarita' iniziale. Poiche' una
singolarita' e' infinitamente piccola, ogni modello cosmologico che vuole partire proprio dall'inizio deve
combinare Relativita' e Fisica Quantistica.
La storia di solito inizia con un universo infinitamente piccolo (Roger Penrose e Stephen Hawking hanno
dimostrato che cio' e' implicato dalla Relativita'), nel quale le fluttuazioni quantistiche del tipo predetto dal
principio di indeterminazione di Heisenberg non sono trascurabili, specialmente quando l'universo era di una
dimensione piu' piccola della lunghezza di Planck.

Le fluttuazioni effettivamente "crearono" l'universo (spazio, tempo e materia) in un "Big Bang". Il tempo
lentamente muto' nello spazio-tempo, dando inizio alle dimensioni spaziali. Lo spazio-tempo incomincio' ad
espandersi, l'espansione che noi ancora osserviamo oggi. In un certo senso, non c’e’ stato nessun inizio
dell'universo: la "nascita" dell'universo e' un'illusione. Non c'e' nessun bisogno di creare l'universo, perche' la
sua creazione e' parte dell'universo stesso. Non c'e' un origine reale. L'universo e' contenuto in se' stesso, e non
ha bisogno di nessuna cosa esterna per essere originato.

Quindi l'universo si espanse. Se la massa dell'universo e' abbastanza grande (e questo e' ancora in discussione,
ma la maggior parte dei cosmologi sembra credere cosi'), quindi ad un certo punto l'espansione avra' un picco e
si rovescera': l'universo iniziera' a contrarsi all'indietro in un altra singolarita' (il "Big Crunch"). A quel punto
vale lo stesso ragionamento iniziale, cioe' e' probabile che si inizi un altro universo. Per esempio, John Wheeler
afferma che l'universo oscilla avanti e indietro tra un Big Bang e un Big Crunch. Ogni volta l'universo riparte
con valori assegnati casualmente alle costanti e alle leggi fisiche.

Sia l'inizio che la fine sono singolarita', il che significa che le leggi della Fisica non valgono piu'. Il nuovo
universo puo' non avere memoria di quello vecchio, eccetto per una maggiore entropia (ipotizzando che almeno
questa legge e' conservata attraverso tutte queste singolarta'), il che implica un ciclo piu' lungo di espansione e
contrazione (secondo i calcoli di Richard Tolman).

Alcuni scienziati credono di poter rimuovere le singolarita'. In particolare, Hawking ha proposto un modello in
cui il Tempo e' illimitato ma finito, e di conseguenza non e'creato nel Big Bang anche se l'universo oggi ha
un'eta'finita. (Secondo Einstein, anche lo spazio e' finito ma illimitato). Nel suo modello, il Tempo emerge
gradualmente dallo spazio e non c'e' nessun primo istante.

Il vero enigma per i cosmologi, comunque, e' quello di trovare la materia mancante: circa l'80% della materia
richiesta perche' l'universo sia quello che sia (tenendo conto della gravita' che tiene unite le galassie e la maniera
in cui sono tenute insieme) non e' mai stata osservata. I Fisici stanno cercando la "materia oscura" che non
interagisce con la materia ordinaria, non emette e non riflette luce. Quale che sia la ragione, l'80% della massa
dell'universo non e' stata ancora trovata.

La Fine dell'Entropia

Pochissime persone sono disposte a prendere la seconda legge della Termodinamica come una legge primitiva
dell'universo. Esplicitamente o implicitamente, non sembriamo contenti di questa legge che stabilisce una
disuguaglianza. In qualche modo deve essere un effetto collaterale di qualche altro fenomeno.

Thomas Gold (tra gli altri) crede che la seconda legge segue la direzione dell'universo: l'entropia aumenta
quando l'universo espande, diminuisce quando l'universo si contrae /o, equivalentemente, quando il Tempo
scorre all'indietro). La seconda legge sarebbe semplicemente un effetto dell'espansione o della contrazione. In
questo caso l'universo potrebbe essere ciclico.
Anche Roger Penrose ha investigato il mistero dell'entropia. Un effetto gravitazionale risulta in due fenomeni
duali: un cambiamento di forma e un cambiamento di volume dello spazio-tempo. Conseguentemente, Penrose
separa il tensore di curvatura in due componenti: il tensore di Ricci (chiamato cosi' dal matematico italiano
Gregorio Ricci che fondo' la teoria dei tensori) e il tensore di Weyl (dal matematico tedesco Hermann Weyl, uno
stretto collaboratore di Einstein). Il tensore di Weyl misura il cambiamento di forma, e, in un certo senso, il
campo gravitazionale, mentre il tensore di Ricci misura il cambiamento di volume, e, in un certo senso, la
densita' della materia. Il tensore di Weyl misura un effetto di "marea" e il tensore di Ricci misura un effetto di
riduzione di volume. Il tensore di Ricci e' zero nello spazio vuoto, e' infinito in una singolarita'. Il tensore di
Weyl e' zero nella singolarita' iniziale del Big Bang, ma e' infinito alla singolarita' finale del Big Crunch.
Penrose ha dimostrato che l'entropia e’ legata al tensore di Weyl, e il tensore di Weyl puo' nascondere la
dubbiosa origine della seconda legge della Termodinamica.

La Resurrezione dell'Informazione

La curvatura in prossimita' di un buco nero e' infinita: tutti gli oggetti sono condannati. C'e' una distanza dal
buco nero che e' l'ultimo punto dove un oggetto puo' ancora sfuggire alla caduta: l'insieme di questi punti
definisce l'orizzonte del buco nero.

Nel 1974 Stephen Hawking scopri' che i buchi neri possono evaporare ed alla fine scomparire. La "radiazione di
Hawking" che rimane ha perso tutta l'informazione circa il buco nero. Questo viola l'ipotesi deterministica
nell'evoluzione dell'universo, cioe', che se noi conosciamo il presente, possiamo in ogni caso ricavare il passato,
perche' l'universo presente contiene tutta l'informazione di come era l'universo passato.

Soltanto due opzioni sono state trovate per permettere la conservazione dell'informazione. La prima e' di
permettere all'informazione di viaggiare piu' veloce della luce. Questo permetterebbe ad essa di sfuggire al buco
nero. Ma cio' violerebbe la legge di causalita' (nulla puo' viaggiare piu' veloce della luce).

La seconda opzione e' che un buco nero che svanisce puo' lasciarsi dietro un residuo della grandezza della
lunghezza di Planck. Andrew Strominger ha argomentato a favore di quest'ultima ipotesi. Questa opzione
richiede un infinito numero di particelle, poiche' ogni buco nero e' differente e decaderebbe in una particella
diversa. Strominger crede che tali particelle sono estreme piegature dello spazio-tempo, "cornucopie", che
possono racchiudere un'enorme quantita' di informazione anche se appaiono molto piccole ad un osservatore
esterno e la loro informazione non e' accessibile.

Dopo tutto, Stephen Hawking e Jacob Bekenstein hanno dimostrato che l'entropia di un buco nero e'
proporzionale alla sua superficie, il che significa che dovrebbe diminuire costantemente durante il collasso del
buco nero, il che vuol dire che l'informazione debba in qualche modo aumentare, e non scomparire...

Inflazione: Prima del Tempo

Che cosa c'era prima che il Big Bang diede origine al nostro universo? Un "principio cosmologico" largamente
accettato richiede che l’universo non abbia centro, non abbia posti speciali. Cio’ vuol dire che il Big Bang non si
e’ verificato in uno specifico punto dell’universo: si e’ verificato ovunque nell’universo, esso era l’universo.
L’universo era un punto ed il Big Bang e’ semplicemente il momento in cui comincio’ ad espandersi. Secondo
la cosmologia standard, il Big Bang si verifica ancora oggi, in ogni singolo punto dell’universo. Mentre
l’universo espande si crea lo spazio. Non c’era "nulla" prima del Big Bang e non c’e’ "nulla" oltre l’universo. Il
Big Bang crea l’universo che e’ tutto cio’ che esiste.

Questo modello "inflazionario" (proposto da Alan Guth nel 1981 e basato sul lavoro di George Gamow, che, a
sua volta, aveva sviluppato un idea del fisico belga Georges Lemaitre) ipotizza che l'universo inizio’ la sua vita
in uno stato tipo-vuoto che conteneva alcuni campi classici omogenei ma nessuna particella (nessuna materia
come la conosciamo). Quindi si espanse esponenzialmente (questa e’ l’"inflazione"), e lo stato tipo-vuoto
decadde nelle particelle.

Il modello di Guth e' basato sull'esistenza di campi scalari. Un campo scalare e' un campo causato da una
quantita' che e' puramente numerica, come la temperatura o le entrate familiari. Il campo gravitazionale e il
campo elettromagnetico, in contrasto, puntano anche in una specifica direzione, e percio' sono campi
"vettoriali". I campi vettoriali sono percepiti perche' esercitano una qualche forza sulle cose che toccano, ma i
campi scalari sono virtualmente invisibili. Nondimeno, i campi scalari ricoprono un ruolo fondamentale, per
esempio, nelle teorie unificate per l'interazione debole, forte ed elettromagnetica. Come tutti i campi, i campi
scalari trasportano energia. Guth ipotizza che nell'eta' inizale dell'universo un campo scalare forni' moltissima
energia allo spazio vuoto. Questa energia produsse l'espansione, che per un certo tempo si verifico' ad una
velocita' costante, causando mediante cio' una crescita esponenziale.

Il modello di Guth risolve un po' di problemi storici della cosmologia: il problema del "monopolo primordiale"
(grandi teorie unificate predicono l'esistenza di monopoli magnetici), il problema della "piattezza" (perche'
l'universo e' cosi' piatto, cioe' perche' la curvatura dello spazio e' cosi' piccola) e il problema dell'"orizzonte"
(come regioni dell'universo sconnesse casualmente possano aver iniziato l'espansione simultaneamente). Non
tiene conto della materia oscura e dell’energia.

Mentre tutti sono d’accordo sul fatto che l’universo si stia espandendo, non tutti sono d’accordo su cosa questo
significhi. Nella ricerca di una spiegazione per la materia oscura e l’energia oscura, il fisico britannico Geoffrey
Burbidge, il fisico americano Fred Hoyle e il fisico indiano Jayant Narlikar hanno sviluppato la "Cosmologia
dello Stato Quasi Stabile" (ripresa nella "Teoria dell’Universo Ciclico" dal fisico americano Paul Steinhardt e
dal fisico britannico Neil Turok), secondo la quale non c’e’ nessun "big bang" con cui cominciare, e non ci sara’
nessun "big crunch" con cui finire. Spazio e tempo esistono da sempre ed esisteranno per sempre. Non c’e’
nessun principio ne’ fine. L’evoluzione dell’universo e’ dovuta ad una serie di "bangs" (espansioni esplosive) e
"crunches" (contrazioni). Il big bang che osserviamo oggi con i piu’ potenti rivelatori di radiazione a microonde
e’ semplicemente una delle tante espansioni che ha fatto seguito ad una delle tante contrazioni. Ogni fase puo’
durare mille miliardi di anni, e quindi essere non percepita dagli strumenti umani. Burbidge dubita dei buchi
neri, dei quasar e della radiazione cosmica.

Selezione Naturale per Universi

Raffinando la visione di Guth, negli anni '80 il fisico russo Andrei Linde propose un modello "inflazionario
caotico". Linde capi' che l'inflazione di Guth doveva riempire l'universo di bolle, ognuna in espansione come un
universo indipendente, con il suo Big Bang e il suo Big Crunch.

Il modello di Linde e' "caotico" perche' assume una distribuzione iniziale caotica del campo scalare: invece di
essere uniforme, il campo scalare originale fluttuava largamente da punto a punto. L'inflazione di conseguenza
incomincio' in posti differenti in tempi differenti e a velocita' differenti.

Le regioni dell'universo che sono isolate da una lunghezza piu' grande dell'inverso della costante di Hubble non
possono essere in relazione con il resto dell'universo. Si espandono indipendentemente. Ognuna di queste
regioni e' un mini-universo separato. In ognuna di queste regioni il campo scalare puo' dare origine a nuovi
mini-universi.

Un mini-universo ne produce molti altri. Non e' piu' necessario assumere che ci sia un "primo" universo.

Ogni mini-universo e' molto omogeneo, ma su una scala molto piu' larga l'universo e' estremamente
disomogeneo. Non e' necessario assumere che l'universo fosse inizialmente omogeneo o che tutte le sue parti
sconnesse casualmente abbiano iniziato la loro espansione simultaneamente.

Una regione dell'universo inflazionario da' origine ad una molitudine di nuove regioni inflazionarie. In regioni
differenti, le proprieta' dello spazio-tempo e delle particelle elementari possono essere assolutamente differenti.
Le leggi naturali possono essere differenti in ogni mini-universo.

L'evoluzione dell'universo come un tutto non ha fine, e puo' non avere alcun inizio.

L'"evoluzione" dei mini-universi ricorda quella di ogni specie animale. Ogni mini-universo porta un certo
numero di mini-universi che sono versioni mutate di esso, dal momento che i loro campi scalari non sono
necessariamente gli stessi. Ogni mini-universo e' differente, e i mini-universi possono essere classificati in una
stretta gerarchia basata sulla relazione genitore-figlio.

Questo meccanismo in un certo senso "riproduce" i mini-universi in un modo simile a come la vita riproduce se'
stessa attraverso un processo di selezione. L'esplosione combinatoria di mini-universi puo' essere vista come
intesa a creare mini-universi che sono sempre migliori nel "sopravvivere".

Ogni mini-universo "eredita" in una certa misura le leggi dal suo mini-universo progenitore, cosi' come gli esseri
viventi ereditano il comportamento in una certa misura attraverso il codice genetico. Un "genoma" e' tramandato
dall'universo genitore all'universo figlio, e questo "genoma" contiene le istruzioni su come le leggi si debbano
applicare. Ogni genoma semplicemente prescrive un pezzo dell'insieme di leggi che governano il
comportamento di un universo. Alcuni sono casuali. Alcuni sono generati dall'"adattamento" all'ambiente di
molti universi coesistenti.

Allo stesso tempo, l'espansione significa che l'informazione e' propagata come in una rete neurale attraverso la
gerarchia di universi in espansione.

Puo' anche darsi che un universo non sia nato semplicemente da un universo genitore, ma da molti universi
genitori. Una regione dell'universo espande a causa dell'effetto di molte altre regioni. Questo e' simile a cio' che
succede nelle reti neurali.

Con un po' di immaginazione, la visione della teoria inflazionaria caotica puo' essere interpretata in questo
modo:
-L'espansione di una nuova regione puo' essere determinata da molte regioni, non da una sola.

-Ogni regione in qualche maniera eredita le sue leggi da queste regioni

-Le leggi di una regione possono cambiare in ogni momento, specialmente all'inizio

-Le leggi determinano quanto successo ha la regione nella sua espansione

-Differenti regioni in espansione con differenti leggi possono comunicare. Probabilmente competeranno per la
sopravvivenza.

-L'adattamento richiede un tributo da parte delle regioni in espansione. Alcune regioni muoiono. Pezzi di regioni
si estinguono.

Ovviamente, questo scenario porta con se' delle forti somiglianze con gli scenari biologici.

Un'altra teoria che presuppone universi in espansione e' quella avanzata nel 1992 dall'astrofisico americano Lee
Smonin. Egli pensa che i buchi neri sono culle per gli universi discendenti. Le costanti e le leggi della Fisica
sono cambiate in maniera casuale nei nuovi universi, cosi' come il genoma di un discendente e' casualmente
mutato. I buchi neri garantiscono la riproduzione e l'ereditarieta'. Gli universi che non danno origine a buchi neri
non possono riprodursi: c'e' quindi una sorta di "selezione naturale" tra gli universi di Smolin. Il delicato
equilibrio delle costanti e delle forze del nostro universo e' il risultato dell'evoluzione.

Loop Quantum Gravity

Lo scopo ultimo della Loop Quantum Gravity (LQG) e’ ancora la "quantizzazione" della relativita’ generale, ma
la maniera con cui approccia il problema e’ molto differente: e’ puramente geometrica.

Nel 1971 Roger Penrose introdusse il concetto di "rete di spin" (derivato dalla "teoria dei nodi" di Louis
Kauffman) nel tentativo di spiegare la struttura dello spazio tridimensionale.

Lee Smolin quindi scopri’ qualcosa che e’ implementato in ogni teoria della "gravita’ quantistica" (in ogni
quantizzazione della gravita’): i volumi delle regioni nello spazio devono trovarsi in unita’ discrete, come
l’energia si trova in quantita’ discrete. Se l’energia si trova in unita’ discrete, allora lo spazio deve trovarsi in
unita’ discrete. Cosi’ come la materia e’ fatta di particelle discrete, lo spazio stesso deve essere fatto di particelle
discrete. Un volume non puo’ essere suddiviso all’infinito: c’e’ un’unita’ elementare di volume.

Questa conclusione e’ stata raggiunta indipendentemente da Jacob Bekenstein (nei suoi studi sulla
termodinamica dei buchi neri).

Lo spazio di cui facciamo esperienza e’ continuo. Le reti di spin, invece, sono discrete. Sono grafi con lati
etichettati da "spin" (che sono in multipli di 0.5) e con tre lati che si incontrano in ogni vertice. Quando queste
reti di spin diventano piu’ larghi e piu’ complessi, "producono" il nostro ordinario, continuo, liscio spazio
tridimensionale. Una rete di spin, quindi, "crea" geometria. Non nel senso che una rete di spin produce una
metrica (essendo la metrica cio’ che definisce la geometria di una regione di spazio) ma nel senso che ogni
vertice di una rete di spin crea il volume di una regione di spazio.

La maniera con cui le reti di spin si combinano per formare lo spazio non e’ chiara, dal momento che non
sembra esserci alcuna "legge naturale" (nessun equivalente della gravitazione o dell’elettromagnetismo) al
lavoro. Le reti di spin si combinano "spontaneamente" per formare lo spazio. La formazione dello spazio ricorda
il processo Darwiniano che crea ordine attraverso la selezione naturale di sistemi che si auto-organizzano. Lo
spazio sembra essere il risultato di processi spontanei di auto-organizzazione a’ la Stuart Kauffman.

Cosi’ le reti di spin risolvono la "gravita’ quantistica" in tre dimensioni. Il problema e’ che la quarta dimensione
("tempo") non e’ presa in considerazione, cioe’ non e’ presa in considerazione la "dinamica" dell’universo.

Nel 2001 il fisico greco Fotini Markopoulou ha mostrato che le reti di spin evolvono nel tempo in passi discreti:
ad ogni passo, il cambiamento di ogni vertice di una rete di spin dipende soltanto dai suoi primi vicini. Questo
ricorda gli automi cellulari di Von Neumann e il pensiero di tipo algoritmico, contrapposto al pensiero
tradizionale della Fisica orientato alle formule.

Cervelli, Vite, Universi

Diamo un'occhiata piu' da vicino alla Vita. Abbiamo gli organismi. Ogni organismo e' definito dal suo genoma.
Il genoma di un organismo non varia durante la sua vita. Il genoma della sua prole varia. La variazione e' il
risultato di un processo casuale. Ogni organismo interagisce con l'ambiente e puo' non sopravvivere a tali
interazioni. Indirettamente, le interazioni con l'ambiente determinano come evolve il genoma dopo molte
generazioni.

Quindi abbiamo le reti neurali. Il comportamento di ogni organismo pensante e' controllato da una rete neurale.
Il principio di una rete neurale e' quello di interagire con l'ambiente, propagare l'informazione ricevuta
dall'ambiente attraverso i suoi neuroni e generare mediante cio' un comportamento. Ogni neurone influenza
molti altri neuroni, e cio' che determina il comportamento sono le connessioni tra i neuroni. Una rete neurale
cambia continuamente durante la vita di un organismo, specialmente proprio all'inizio.

All'interno delle reti reurali si applica anche un processo di selezione. Le connessioni sopravvivono o muoiono a
seconda di quanto sono utili. Le connessioni sono piu' forti o piu' deboli a seconda di quanto sono utili. L'utilita'
e' definita dall'interazione con l'ambiente.

Il genoma e le reti neurali sono sistemi che hanno in comune il principio di propagare all'interno l'informazione
sull'ambiente attraverso un processo di

a) interazione con l'ambiente

b) risposta dell'ambiente

c) selezione

Le reti neurali, gli algoritmi genetici e gli universi inflazionari caotici sembrano obbedire a principi molto simili.
Essi si "espandono" allo scopo di

-Propagare informazione all'interno dell'individuo, cosi' da determinare il comportamento

-Propagare informazione all'interno della popolazione, cosi' da determinare l'evoluzione

La Natura delle Leggi della Natura

Perfino con la sofisticazione della Teoria della Relativita', il nostro universo ci si presenta con uno scomodo
grado di arbitrarieta'.

Cio' che non e' ancora chiaro e' perche' le leggi (ad esempio le equazioni del campo di Einstein) e le costanti (ad
esempio la distanza di Planck) sono quelle che sono. Perche' l'universo e' cosi' com'e'?

Andiamo oltre. Perche' le proprieta' della materia come la carica elettrica e la massa esercitano forze sull'altra
materia? Perche' in assoluto le cose interagiscono?

I modelli cosmologici presumono che le leggi fisiche che conosciamo oggi fossero gia' attive al principio, cioe'
che siano nate con l'universo, e sostanzialmente pre-esistevano. Le leggi della Fisica sono semplicemente
regolarita' che osserviamo nella natura. Ci permettono di spiegare il perche' di cio' che e' successo, e perche' e'
successo nella maniera in cui e' successo. Ci permettono anche di fare previsioni. Tutta la scienza riguarda le
previsioni. Se non potessimo fare delle previsioni, ogni studio della Natura sarebbe piuttosto inutile. Possiamo
costruire ponti e radio perche' possiamo fare predizioni su come le cose funzioneranno.

Tre aspetti delle leggi fondamentali sono particolarmente delicati.

Il primo ha a che fare con la natura delle leggi della Natura. In che misura esse sono assolute? Alcune leggi
possono essere ridotte ad altre leggi. La legge della gravitazione di Newton non e' altro che un caso particolare
di quella di Einstein. Non era propriamente una legge della Natura, era un effetto di una legge della natura che
Newton non conosceva. In questi giorni, stiamo testimoni di una ricerca di una teoria unificata, una teoria che
spighera' tutte le quattro forze conosciute (debole, nucleare, elettrica e gravitazionale) in una megaforza: se il
programma ha successo, noi avremmo provato che queste quattro forze sono effetti, non cause. La seconda
legge della Termodinamica e' una proprio una legge o e' soltanto l'effetto di qualcos'altro?

Dopo tutto, le leggi come le studiamo oggi nei libri di testo sono il prodotto di un processo storico di scoperta
scientifica. Se la storia fosse stata differente (se il progresso avesse seguito un'altra strada) saremmo potuti
giungere ad una descrizione dell'universo basata su leggi differenti, che descriverebbero egualmente bene
(individualmente) tutti i fenomeni di cui siamo a conoscenza.

La seconda questione e' perche' siano leggi matematiche. La Matematica e' un'invenzione umana, ma e'
straordinario di come bene descriva l'universo. In realta', la Matematica e' piu' un processo di scoperta che un
processo di invenzione. Ma, anche cosi', e' una scoperta di fatti che accadono nel regno delle idee matematiche
(i teoremi e simili). E' stupefacente che i fatti che si realizzano in questo regno astratto riflettano cosi' bene i fatti
che succedono nel regno della fisica.
La maggior parte della Matematica che e' impiegata oggi cosi' efficacemente per descrivere i fenomeni fisici fu
fatta decadi e perfino secoli prima dai matematici interessati soltanto a problemi matematici astratti. La regola
non fallisce quasi mai: prima o poi sara' scoperto un fenomeno fisico che si adatta perfettamente ad una teoria
matematica. Sembra che l'universo sia un film straniero, sottotitolato in linguaggio matematico.

Ancora piu' intrigante e' il fatto che il mondo della Matematica e' accessibile dalla mente umana. I nostri corpi
hanno accesso privilegiato allo spazio fisico, le nostre menti hanno accesso privilegito alle note che lo
descrivono. Abbiamo entrambi gli intrattenimenti. Il corpo percepisce la realta' fisica attraverso i sensi, la mente
percepisce la realta' matematica attraverso il ragionamento.

La terza questione e' se siano veramente eterne. Sono state sempre le stesse? Saranno sempre le stesse?

Naturalmente, se la risposta e' negativa, allora non sappiamo nulla.

Sembra piu' probabile che siano parte dell'universo e di conseguenza ebbero inizio precisamente quando ebbe
inizio l'universo. In questo caso di conseguenza sarebbe impossible calcolare un modello di come l'universo sia
nato, poiche' non sappiamo quali leggi (se c'erano) ci fossero prima della nascita dell'universo!

(Non sappiamo neanche con certezza se le leggi della Natura sono le stesse nell'intero universo. Non sappiamo
nemmeno se sono state sempre le stesse o se sono cambiate col tempo).

Argomenti simili si applicano per le "costanti" in Fisica, per i parametri adimensionali che modellano le leggi
della natura, in particolare per la velocita' della luce, la costante di Planck, e la carica dell'elettrone. Perche'
hanno il valore che hanno? Einstein si chiese: Dio ha avuto una scelta quando creo' l'universo? Possono questi
numeri essere differenti, o sono le sole combinazioni che producono un universo stabile? Una famosa formula
ha turbato gli scienziati: il quadrato della carica dell'elettrone diviso la velocita' della luce e la costante di Planck
e' quasi esattamente 1/137. Perche'?

Non abbiamo una scienza delle leggi naturali che studia da dove vengono queste leggi. Si assume che le leggi
trascendano l'universo, che esistano indipendentemente e nonostante l'esistenza dell'universo. Ma questa e' una
conclusione (o, meglio, una premessa) piuttosto arbitraria.

Il Prodigio della Stabilita'

Il caos e' una materia della vita in questo universo. Cio' che sorprende e' che noi non viviamo nel caos. Noi
viviamo nella stabilita' quasi assoluta. Il computer su cui sto scrivendo adesso e' fatto da qualche miliardo di
particelle di tutti i tipi che interagiscono mediante forze meccaniche, gravitazionali, elettriche, magnetiche,
deboli e forti.

Le equazioni per descrivere soltano una minuscola porzione di questo computer richiederebbero tutta la mia
vita. Nondimeno ogni mattina che mi sveglio so esattamente come accendere il mio computer e ogni giorno so
esattamente come farlo funzionare. E la "stabilita'" del mio computer durera' per molto tempo, finche' non si
rompe completamente. Il mio corpo mostra lo stesso tipo di stabilita' (per un po' di decadi, almeno), cosi' tanto
che gli amici mi riconoscono quando mi vedono e ogni anno l'IRS puo' reclamare le mie tasse (nessuna
incertezza quantistica in questo caso).
La stabilita' e' quello che siamo costruiti per mantenere. Ci interessano molto poco i processi interni che portano
alla formazione di una pianta di pomodoro: ci interessano i pomodori. Ci interessano molto poco i processi
microscopici che hanno portato una faccia ad essere cio' che e': ci interessa a che cosa "assomiglia". A questi
livelli la stabilita' e' enorme. Forma, dimensione, posizione sono stabili per un certo numero di giorni, settimane,
mesi, forse anni. Le variazioni sono minime e lente. Piu' ci addentriamo in dettagli di cio' con cui non siamo
stati fatti per avere a che fare, e piu' la materia ci sembra confusa (complessa e caotica), con zilioni e zilioni di
minuscole particelle in moto permanente.

La scienza fu originariamente costruita per spiegare il mondo al livello "naturale". In qualche modo gli
scienziati hanno iniziato a scavare nella struttura della materia e hanno raggiunto livelli sempre piu' bassi. Le
leggi della Fisica diventano sempre piu' complicate, e sempre meno utili per chiunque.

Ancora piu' sorprendente, ogni livello di granularita' (e quindi di complessita') sembra largamente indipendente
dal livello piu' basso e da quello piu' alto. La Sociologia non ha realmente bisogno dell'Anatomia, e l'Anatomia
non ha realmente bisogno della Chimica, e la Chimica non ha realmente bisogno della Teoria Quantistica.

Piu' ci addentriamo nel piccolo e piu' l'universo diventa confuso, incomprensibile, continuamente mutevole,
molto instabile. Siamo cresciuti abituati a pensare che questo e' l'universo reale, perche' la riduzione definitiva e'
la verita' definitiva.

La cosa sorprendente e' che a livelli piu' alti vediamo soltanto stabilita'. Come fa il caos a trasformarsi in
stabilita'? Siamo testimoni di sistemi che possono creare stabilita', ordine e simmetria da un caos immenso.

Una risposta e' che forse e' soltanto una questione di percezione. Il nostro corpo e' stato costruito per percepire le
cose a questo livello, e a questo livello le cose appaiono essere stabili semplicemente perche' i nostri sensi sono
stati costruiti per percepirle stabili. Se i nostri sensi non fossero in grado di mettere ordine nel caos, non
saremmo in grado di operare nel nostro ambiente.

Un'altra risposta, certamente, potrebbe essere che tutti gli altri livelli sono essenzialmente falsi...

Un Universo Auto-organizzante

La proprieta' principale delle reti neurali e' la reazione: esse imparano facendo le cose. La memoria e
l'apprendimento sembrano andare di pari passo. Le reti neurali sono oggetti "auto-organizzanti": la risposta ad
uno stimolo ha effetto, tra le altre cose, sullo stato interno dell'oggetto. Per capire il comportamento di una rete
neurale non si deve analizzare i costituenti di una rete neurale; bisogna soltanto analizzare l'"organizzazione" di
una rete neurale.

La Fisica assume che la materia non ha memoria e che le leggi della Natura non hanno una reazione. La Fisica
assume che tutti gli oggetti nell'universo sono passivi e la risposta ad uno stimolo non ha effetto sullo stato
interno dell'oggetto: gli oggetti sono non-organizzanti, l'opposto di oggetti auto-organizzanti. Per capire il
comportamento di un oggetto fisico, bisogna analizzare i suoi costituenti: l'oggetto e' fatto di molecole, che sono
fatte di atomi, che sono fatti di leptoni e quark, che sono fatti di...
Non c'e' fine a questo tipo di investigazione, come ha dimostrato la storia. Il comportamento della materia elude
ancora i fisici perfino se essi hanno raggiunto un livello di dettaglio che e' milioni di volte piu' fine del livello al
quale operiamo. Non c'e' fine a questo tipo di investigazione, perche' tutto ha costituenti: non c'e' nessuna cosa
come un costituente fondamentale. Proprio come non c'e' nessuna cosa come un istante fondamentale di tempo o
punto dello spazio. Noi saremo sempre in grado di suddividere le cose con un'attrezzatura potente. L'attrezzatura
stessa potrebbe essere cio' che crea i costituenti: gli atomi che furono "visti" con l'attrezzatura non erano
disponibili prima che gli atomi fossero concepiti.

In ogni caso e' l'essenza stessa di una scienza "riduzionista" (orientata ai costituenti ultimi) che richiede che gli
scienziati vadano sempre piu' a fondo nei livelli di dettaglio. Nessuna singola particella, non importa quanto
piccola, spieghera' mai il suo stesso comportamento. Bisogna guardare ai suoi costituenti per capire perche' si
comporta come si comporta. Ma allora bisogna fare lo stesso per ogni nuovo costituente. E cosi' all'infinito.
Nell'ultimo secolo, la Fisica e' rimasta intrappolata in questo circolo senza fine.

Potrebbe la materia in generale essere analizzata nello stesso modo in cui analizziamo le reti neurali? Potrebbe
la materia essere spiegata in termini di sistemi auto-organizzanatisi? Le reti neurali ricordano e imparano. C'e'
prova che altri oggetti fanno lo stesso: un pezzo di carta, se piegato molte volte, "ricordera'" di essere stato
piegato e imparera' a restare piegato. Potremmo rappresentare un pezzo di carta come un sistema auto-
organizzante?

La Natura mostra una "gerarchia" di una sorta di sistemi auto-organizzanti, dal livello atomico al livello
biologico, dal livello cognitivo al livello astronomico. Il "prodotto" di un sistema auto-organizzante (ad
esempio, il genoma) sembra essere un nuovo sistema auto-organizzante (ad esempio, la mente). Possono tutti i
sistemi auto-organizzanti essere dedotti da un tale sistema, la "madre" di tutti i sistemi auto-organizzanti?

Stiamo essendo testimoni di un cambiamento nei ruoli dominanti relativi tra Fisica e Biologia. In primo luogo,
idee delle scienze fisiche furono applicati alla Biologia, allo scopo di rendere la Biologia piu' "scientifica".
Questo ha portato ha quantificare e formalizzare i fenomeni biologici introducendo discussioni sull'energia,
entropia e via dicendo. Lentamente, il dibattito risulto' in un'unificazione della Fisica e della Biologia, piuttosto
che l'acquisizione unidirezionale delle idee della Fisica. I fenomeni biologici semplicemente non si adattano al
rigido modello deterministico della Fisica. Allora divenne progressivamente chiaro che i fenomeni biologici non
possono essere ridotti alla Fisica nella maniera in cui la conosciamo. E ora ci stiamo muovendo a grandi passi
verso l'idea che la Fisica deve essere cambiata per fronteggiare i fenomeni biologici, deve assorbire concetti che
vengono dalla Biologia.

Allo scopo di conciliare i concetti biologici, come la selezione e la reazione, e allo scopo di includere i sistemi
neurali e i sistemi viventi, che evolvono in maniera Darwiniana e il cui comportamento e' descritto da equazioni
non lineari, la Fisica dovra' adottare equazioni non-lineari e possibilmente un approccio orientato agli algoritmi
(piuttosto che alle equazioni).

Quasi tutta la Fisica e' costruita sull'idea che la soluzione ad un problema e' la dimostrazione piu' corta dalle
premesse conosciute. L'uso e l'abuso di logica ha determinato una maniera di pensare la natura che tende a
tracciare le piu' semplici conclusioni dato cio' si conosce (e cio' che non si conosce) circa la situazione. Per
esempio, era "intuitivo" per gli scienziati pensare che il sistema immunitario crea anti-corpi basati sui virus che
stavano attaccando. Questa e' la spiegazione piu' semplice, ed una che ha origine dal pensiero logico: un virus
attacca il corpo, un virus e' ucciso dal corpo; di conseguenza il corpo deve essere capace di costruire un "killer"
per quel virus. Le discipline della vita ci ricordano costantemente di un approccio differente alla spiegazione
scientifica: invece di risolvere un teorema matematico attraverso la logica, la natura sceglie sempre di lasciare
alle cose di risolversi da sole. In un certo senso, le soluzioni sono trovate dai sistemi naturali non per via delle
dimostrazioni piu' corte ma grazie alla ridondanza. Il sistema immunitario crea ogni sorta di anticorpi. Un virus
che sta entrando verra' ingannato nello "scegliere" quello che lo uccide. Non c'e' nessun processore nel sistema
immunitario che possa analizzare il virus entrante, determinare la sua struttura chimica e costruire un contro-
virus, come un matematico potrebbe ipotizzare "intuitivamente". Il sistema immunitario non ha l'abilita' di
"ragionare" circa il virus che sta attaccando. Non sa nemmeno se alcuni virus stanno attaccando o no.
Semplicemente seguita a produrre anticorpi tutto il tempo. Se un virus attacca il corpo, l'eccedenza di anticorpi
si curera' di esso.

Questo rappresenta un fondamentale cambiamento di paradigma nel pensare la Natura. Per molti secoli, gli
uomini hanno assunto implicitamente che l'universo deve comportarsi come una macchina: le azioni seguono
logicamente dalle situazioni, la storia dell'universo non e' altro che una gigantesca dimostrazione matematica. E'
possibile che le leggi su scala piu' ampia della natura somiglino molto poco ad una dimostrazione matematica.
Hanno piu' a che vedere con la casualita' che col determinismo.

La distinzione tra istruzione e selezione e' fondamentale. La Fisica si e' evoluta intorno al concetto di istruzione:
le leggi matematiche istruiscono la materia su come comportarsi. La selezione provoca una diversa
impostazione mentale: le cose succedono, piu' o meno per accidente, ed alcune sono "selezionate" a
sopravvivere. L'universo cosi' com'e' puo' essere il prodotto di una tale selezione, non di una catena logica di
istruzioni.

La Fisica sta vagando alla ricerca di una teoria unificata che spiegherebbe tutte le forze. Quello che sembra piu'
interessante e' un'unificazione delle leggi fisiche e biologiche. Stiamo ora cercando la teoria definitiva della
natura dai quali principi puo' essere spiegato il comportamento di tutti i sistemi (animati e inanimati). Le
particelle, onde e forze sembrano oggetti sempre meno interessanti da studiare. La Fisica e' stata costruita su
"temi" ricorrenti: i pianeti girano attorno al sole, gli elettroni orbitano attorno al nucleo; le masse si attraggono a
vicenda, le particelle cariche si attraggono a vicenda. La Fisica non ha ancora spiegato questi disegni ricorrenti
della Natura. La Biologia sta spiegando i suoi disegno ricorrenti di evoluzione.

Potrebbe stare emergendo un nuovo scenario, uno in cui il mondo e' per la maggior parte nonlineare. Ed in
qualche modo questo implica che il mondo si auto-organizza. I sistemi auto-organizzanti sono sistemi nei quali
strutture molto complesse emergono da regole molto semplici. I sistemi auto-organizzanti sono circa l'origine
della regolarita'. E i sistemi auto-organizzanti non possono essere spiegati analizzando semplicemente i loro
componenti, perche' l'organizzazione prevale: il tutto e' piu' delle sue parti.

L'Universo come il Messaggero

Una proprieta' pervasiva dell'universo e di tutto cio' che esiste e' la comunicazione. Le cose comunicano
continuamente.

Il fisico e filosofo austriaco Ernst Mach, tenuto in gran considerazione da Einstein, aveva una visione
dell'universo che si dimostro' influente su tutta la Fisica del Ventesimo secolo. Newton defini' i sistemi inerziali
i sistemi che non sono soggetti a nessuna forza. Essi si muovono ad una velocita' costante o nulla. I sistemi che
sono accelerati non sono inerziali e, per magia, strane forze (le "forze inerziali") appaiono in essi. Mach capi'
che tutti i sistemi sono soggetti ad interazioni con il resto dell'universo e ridefini' i sistemi inerziali come i
sistemi che non sono accelerati nel riferimento delle stelle fisse (sostanzialmente, nel riferimento del resto
dell'universo). L'inerzia di un corpo e' dovuta alla sua interazione con il resto della materia nell'universo.

Il principio di Mach implica che tutte le cose comunicano con tutte le altre continuamente. Questo universo
sembra essere fondato sui messaggi.

La dinamica dell'universo e' determinata in gran parte dai messaggi che si scambiano tra le sue parti (sia che si
guardi al livello dell'RNA, delle sinapsi o della gravitazione).

Le cose comunicano. E' semplicemente la loro natura quella di comunicare. Di piu': le loro interazioni
determinano che cosa succedera' dopo. Le cose comunicano allo scopo di avvenire. La vita avviene grazie alla
comunicazione. Noi pensiamo grazie alle comunicazioni.

Se tutto e' dovuto dai messaggi, una teoria dell'universo dovrebbe distinguere il messaggio dal messaggero.

I messaggi possono essere studiati definendo i loro "linguaggi". Forse, solo forse, invece delle che sulle scienze
come Fisica e Biologia dovremmo focalizzarci sul "linguaggio" dell'universo.

La Scienza dell'Impossibilita':la Fine dell'Utopia

E' interessante che le tre rivoluzioni scientifiche dell'ultimo secolo sono impegnate nell'introdurre limiti alla
Fisica classica. Newton pensava che i segnali potessero viaggiare a velocita' infinite, che la posizione e
l’impulso potessero essere misurati simultaneamente e che l'energia potesse essere manipolata a piacere. La
Relativita' ci ha detto che nulla puo' viaggiare piu' veloce della velocita' della luce. La Meccanica Quantistica ci
ha detto che non possiamo misurare la posizione e l’impulso simultaneamente. La Termodinamica ci ha detto
che ogni manipolazione dell'energia implica una perdita di ordine. Ci sono limiti nel nostro universo che non
esistevano nell'universo ideale di Newton.

Questi limiti sono tanto arbitrari quanto le leggi e le costanti. Perche' questi e non altri? Possono essere indizi di
un limite piu' generale che costringe il nostro universo? Possono essere semplicemente illusioni, dovute al modo
in cui il nostro universo si sta espandendo?

Allora il mondo di Newton e' stato scosso fino alle sue fondamenta dalla rivoluzione di Darwin. I sistemi
naturali sembrano ora differenti. Non monolitici manufatti della logica, ma effetti collaterali flessibili e
pragmatici del caso. Per coincidenza, mentre la Fisica continuo' ad introdurre limiti, la Biologia ci stava dicendo
semplicemente l'opposto. I sistemi biologici possono fare praticamente tutto, a caso. Quindi l'ambiente opera
una selezione. Siamo stati evangelizzati a credere che nulla e' proibito in Natura, sebbene molto venga
soppresso.

Una volta che tutte questi punti di vista sono riconciliati, l'Utopia di Newton puo' essere rimpiazzata con una
nuova Utopia, con leggi semplici e senza limiti. Ma e' probabile che appaia piuttosto diversa da quella di
Newton.
Verso dove, Albert?

Letture ulteriori:

Ashtekar Abbay: CONCEPTUAL PROBLEMS OF QUANTUM GRAVITY (Birkhauser, 1991)

Barbour Julian: THE END OF TIME (Oxford Univ Press, 2000)

Bohm David: THE UNDIVIDED UNIVERSE (Routledge, 1993)

Bohm David: QUANTUM THEORY (Constable, 1951)

Bohm David: WHOLENESS AND THE IMPLICATE ORDER (Ark Paperbacks, 1988)

Bohr Nils: ATOMIC THEORY AND THE DESCRIPTION OF NATURE (Cambridge University Press, 1934)

Bunge Mario: QUANTUM THEORY AND REALITY (Springer, 1967)

Davies Paul: ABOUT TIME (Touchstone, 1995)

Deutsch David: THE FABRIC OF REALITY (Penguin, 1997)

Ferris Timothy: THE WHOLE SHEBANG (Simon And Schuster, 1997)

Flood Raymond & Lockwood Michael: NATURE OF TIME (Basil Blackwell, 1986)

Gell-Mann Murray: THE QUARK AND THE JAGUAR (W.H.Freeman, 1994)

Greene Brian: THE ELEGANT UNIVERSE (WW Norton, 1999)

Guth Alan: THE INFLATIONARY UNIVERSE (Helix, 199#)

Hawking Stephen: A BRIEF HISTORY OF TIME (Bantam, 1988)

Heisenberg Werner: THE REPRESENTATION OF NATURE IN CONTEMPORARY PHYSICS (Deadalus,


1958)

Hoyle Fred, Burbidge Geoffrey, and Narlikar Jayant: A DIFFERENT APPROACH TO COSMOLOGY
(Cambridge Univ Press, 2000)

Kaku Michio: HYPERSPACE (Oxford University Press, 1994)


Linde Andrei: PARTICLE PHYSICS AND INFLATIONARY COSMOLOGY (Harwood, 1990)

Linde Andrei: INFLATION AND QUANTUM COSMOLOGY (Academic Press, 1990)

Penrose Roger: THE EMPEROR'S NEW MIND (Oxford Univ Press, 1989)

Price Huw: TIME'S ARROW AND ARCHIMEDE'S POINT (Oxford University Press, 1996)

Prigogine Ilya: FROM BEING TO BECOMING (W. H. Freeman, 1980)

Rees Martin: BEFORE THE BEGINNING (Simon And Schuster, 1996)

Scott Alwyn: STAIRWAY TO THE MIND (Copernicus, 1995)

Smolin, Lee: THREE ROADS TO QUANTUM GRAVITY (Weidenfeld and Nicolson, 2000)

Von Neumann John: DIE MATHEMATISCHE GRUNDLAGEN DER QUANTENMECHANIK/


MATHEMATICAL FOUNDATIONS OF QUANTUM MECHANICS (Princeton University Press, 1932)

Weinberg Steven: DREAMS OF A FINAL THEORY (Pantheon, 1993)

Wigner Eugene: SYMMETRIES AND REFLECTIONS (Indiana Univ Press, 1967)