“ANTIGRAVITÀ”
Prefazione…………………………………………………
Appendice………………………………………………….
Bibliografia…………………………………………………
Sitografia……………………………………………………
“È una buona cosa che esista la
gravità, altrimenti gli uccelli morti
seguiterebbero a svolazzare in cielo”
Steven Wright
Fausto Intilla
Cadenazzo, 27 gennaio 2015
Una realtà esotica, ancora inesplorata
1
Se vogliamo unificare le quattro forze della natura, e quindi anche la gravità,
diventa necessario mettere a punto una teoria quantistica della gravitazione,
cioè una descrizione della gravitazione in grado di conciliare la meccanica
quantistica e la relatività generale. La teoria quantistica dei campi, che a
tutt'oggi rappresenta la miglior descrizione possibile del mondo delle particelle
elementari e delle interazioni tra di esse, funziona nella metrica cartesiana e
nello spazio-tempo piatto di Minkowski, tipico della relatività ristretta; invece
la Relatività Generale descrive la gravitazione come una curvatura dello
spazio-tempo e non ammette traiettorie multiple, ciascuna delle quali descritte
da una funzione d'onda e quindi da una determinata probabilità. Il conflitto
appare a prima vista del tutto insanabile. Il modo più semplice per combinare
le due teorie dovrebbe essere quello di trattare semplicemente la gravità come
un altro campo quantistico. L'elettrodinamica quantistica messa a punto da
Richard P. Feynman (1918-1988) descrive tutte le interazioni come uno
scambio di particelle virtuali. Quando due elettroni si avvicinano tra loro, il
primo cede al secondo un fotone, detto "virtuale" perché impossibile da
rilevare. Avendo perso un quanto di quantità di moto, entrambi gli elettroni
modificano la propria traiettoria, cambiando direzione come se si fossero
creare o distruggere queste particelle non è ancora chiara. A
tutt’oggi comunque, nonostante siano stati numerosi i tentativi di
rilevare sperimentalmente tale particella, il gravitone non è mai
stato identificato (per cui risulta assai dubbia anche la sua
esistenza teorica). Tutti i tentativi, di formulare una semplice
teoria della gravità quantistica, sino ad oggi hanno sempre fallito.
Anche se apparentemente sembrerebbe che l’antigravità non
rispetti le leggi della Relatività Generale (RG), molti studi sono
comunque indirizzati verso la ricerca di soluzioni in grado di
produrre effetti di tipo antigravitazionale. Molte teorie formulate
di recente, si sono aggiunte alla RG, estendendone i concetti
fondamentali oppure in alcuni casi, sostituendola radicalmente.
Alcune di queste teorie, presentano soluzioni che consentono
l’esistenza dell’antigravità. Tuttavia, in base all’attuale stato
dell’arte inerente alle odierne conoscenze scientifiche verificate
sperimentalmente, la gran parte della comunità scientifica
considera altamente improbabile l’esistenza dell’antigravità.
La Relatività Generale è ben accetta tra i fisici perché essa è, allo
stato attuale, la teoria con il più alto grado di verifica
sperimentale. Tuttavia, ci sono aspetti della RG che ancora non
onde gravitazionali da una stella che collassa corrisponde a circa l’1% della
sua massa.
3
L’unificazione della forza nucleare forte con la forza elettrodebole, darebbe
luogo alla forza elettronucleare (Teoria della Grande Unificazione). Ad energie
ancora più elevate, è stata teorizzata l’unificazione della forza elettronucleare
con la Gravità (Teoria del Tutto).
l'accelerazione può essere solo negativa, e quindi la gravità solo
attrattiva.
Nella RG invece, siccome la pressione può assumere anche valori
negativi, di conseguenza l’accelerazione può diventare positiva.
In parole povere, nella teoria della RG, se si ha una sufficiente
pressione negativa, la gravità può essere repulsiva4. Se dunque
per antigravità intendiamo una gravità repulsiva, questa è
possibile nella teoria della RG, nonché in varie altre teorie che
tentano di generalizzare la RG. Dunque, il termine antigravità è
anche talvolta usato per descrivere una forza gravitazionale
repulsiva, invece che attrattiva (come nel caso della gravità
ordinaria); e la sua esistenza, basata su alcune soluzioni della RG,
potrebbe derivare da alcune formulazioni estremamente
speculative, che implicano l'uso di concetti esotici quale ad
esempio l'energia negativa o la massa negativa.
Ipotizzando quindi l’esistenza di una “materia esotica”5,
potremmo anche aspettarci che essa abbia un’energia negativa.
4
Le equazioni su cui si basa la Gravità Quantistica a Loop (LQG – Loop
Quantum Gravity) conservano gli aspetti fondamentali della Relatività
Generale, come ad esempio l'invarianza per trasformazioni di coordinate, ma
portano le caratteristiche della meccanica quantistica alle loro estreme
conseguenze, arrivando a quantizzare persino lo spazio e il tempo. Non quindi
la materia, l'energia o i campi, ma la stessa tessitura dello spazio-tempo alla
scala di Planck. Lo spazio-tempo quindi, da continuo si trasforma in una sorta
di reticolo di dimensioni infinitesimali. Il punto di forza della Gravità
Quantistica a Loop consiste nella semplicità con cui descrive fenomeni in cui
la gravità è particolarmente intensa, e la struttura discreta diventa dominante.
Le equazioni differenziali della Relatività Generale si trasformano infatti in
Equazioni alle Differenze Finite, risolubili per mezzo di supercomputer. I
risultati emersi da queste equazioni sono sorprendenti: la gravità è da sempre
considerata una forza attrattiva, ma le equazioni alle differenze finite
suggeriscono invece che nelle condizioni di altissima densità ed energia che
caratterizzano una singolarità, la gravità si trasformi in una forza repulsiva.
5
Il termine “materia esotica” designa tutta la materia che non si comporterebbe
come la materia barionica. La “materia esotica” sarebbe dunque caratterizzata
da una massa negativa. Sino ad oggi, in nessun esperimento è mai stata rilevata
traccia di questo tipo di materia. Essa permetterebbe inoltre, qualora si
riuscisse a dimostrare la sua esistenza per via sperimentale, di “legittimare” e
In fisica, il concetto di energia negativa viene solitamente usato
per spiegare la natura di certi campi (incluso quello gravitazionale
e un determinato numero di effetti di campo quantistico). In teorie
molto più speculative, l’energia negativa è implicata nella
creazione di cunicoli spazio-temporali (ponti di Einstein-Rosen o
più semplicemente wormholes); che permetterebbero i “viaggi nel
tempo”, nonché il sistema di propulsione Warp Drive per viaggi
nello spazio a velocità superluminali (FTL – Faster Than Light).
6
Molti fisici hanno cercato di risolvere il problema con la “quantizzazione”
della gravità, suddividendo il campo gravitazionale in pezzi più piccoli,
proprio come nella meccanica quantistica si “sbriciolano” molte grandezze in
pacchetti discreti, come i livelli di energia delle particelle. Sono stati fatti molti
tentativi per quantizzare la teoria della gravità: le stringhe e la gravità
quantistica a loop sono approcci tra loro alternativi che possono affermare di
aver fatto notevoli progressi. Ma per i fautori dello spazio-tempo super-fluido,
forse non c'è bisogno di quantizzare la gravità: basterebbe infatti quantizzare
soltanto l'oggetto fondamentale che costituisce lo spazio-tempo.
7
L’apparato sperimentale utilizzato, è sostanzialmente un’evoluzione
dell’apparato MAGIA, utilizzato nella misurazione della costante di
gravitazione universale G. In esso, nuvole di atomi di rubidio ultra-freddi (cioè
raffreddati alla temperatura di pochi milionesimi di grado sopra lo zero
assoluto, utilizzando dei raggi laser), vengono lanciate verso l’alto (nel vuoto)
Produrre onde gravitazionali
Energia negativa
9
L'effetto Casimir è stato verificato sperimentalmente nel 1997 da Steven
Lamoreaux, della Washington University di Seattle, e da Umar Mohideen e
Anushree Roy della University of California a Riverside. Nel 2001, un gruppo
formato da Giacomo Bressi, Gianni Carugno, Roberto Onofrio e Giuseppe
Ruoso, all’Università di Padova, sono riusciti a misurare la forza di Casimir
tra due piastre parallele, utilizzando dei microrisonatori.
Esistono alcuni casi in cui l’effetto Casimir può dare origine a
forze repulsive tra oggetti non caricati. Evgeny Lifshitz ha
mostrato (in via teorica) che, in determinate circostanze
(specialmente in quelle dove sono coinvolti dei liquidi), possono
sorgere delle forze repulsive. Questo ha suscitato interesse nelle
applicazioni dell'effetto Casimir, improntate verso lo sviluppo di
dispositivi a levitazione. Una dimostrazione sperimentale della
repulsione basata sull’effetto Casimir (prevista da Lifshitz), è
stata recentemente effettuata da Munday e colleghi. Altri
scienziati hanno anche suggerito l’impiego di opportuni
amplificatori, per ottenere un simile effetto di levitazione; tuttavia
questa rimane un’alternativa piuttosto controversa, poiché i
materiali in questione sembrano violare i vincoli fondamentali di
causalità e l’esigenza dell’equilibrio termodinamico (relazioni di
Kramers-Kronig). La repulsione di Casimir (nonché quella di
Casimir-Polder), può in fatti verificarsi per corpi elettrici
sufficientemente anisotropici.
Poiché l'effetto Casimir mostra che la teoria quantistica permette
che la densità di energia in determinate regioni dello spazio sia
negativa (rispetto all'energia del vuoto ordinario), ed è stato
dimostrato che teoricamente la teoria quantistica permette stati in
cui l'energia può essere arbitrariamente negativa in un dato punto,
molti fisici come Stephen Hawking, Kip Thorne ed altri,
sostengono che tali effetti possano consentire di stabilizzare un
cunicolo spazio-temporale attraversabile. Suggerimenti simili
sono inoltre stati fatti per il “propulsore a curvatura” di Miguel
Alcubierre.
Si ricordi inoltre la possibilità di disporre più fasci di luce laser,
in modo tale da creare un’interferenza quantistica distruttiva, in
grado di sopprimere le fluttuazioni del vuoto. Un tale stato di
vuoto “spremuto”, coinvolge dell’energia negativa. La forma
d’onda ripetitiva della luce, genera infatti delle zone in cui
l’energia positiva e quella negativa, si alternano a vicenda.
Possono esistere persino delle particelle virtuali con energia
negativa, ma solo per un intervallo di tempo infinitamente
piccolo. Questo fenomeno è una parte del meccanismo coinvolto
nella Radiazione di Hawking (grazie al quale si ha
un’evaporazione pressoché istantanea dei mini buchi neri).
Nella teoria quantistica-relativistica di Dirac, sono possibili
transizioni da energia positiva ad energia negativa10. In questo
senso però le particelle dovrebbero “saltare” spontaneamente
sempre a stati ad energia negativa (stati di energia minore e quindi
più stabili). Per risolvere tale incongruenza Dirac ipotizzò che
tutti gli stati ad energia negativa siano già occupati e per il
principio di esclusione di Pauli, non se ne possano aggiungere
altri. Nella “teoria del mare di Dirac” (1930), gli elettroni
(essendo fermioni) soddisfano il principio di Pauli (due elettroni
non possono occupare uno stesso stato). Gli stati ad energia
positiva corrispondono agli elettroni che riesco a rilevare, mentre
gli stati ad energia negativa sono sempre occupati e costituiscono
il vuoto quantistico. Un elettrone però può acquistare energia dai
fotoni circostanti e andare su stati di energia positiva (ad esempio
se applico un campo elettrico o magnetico sufficientemente
forte). Qui Dirac mostrò tutto il suo genio, argomentando che la
stessa cosa poteva accadere agli elettroni con energia negativa che
riempiono il vuoto: un fotone dovrebbe poter sbalzare un
elettrone di energia negativa facendogli raggiungere uno stato di
energia positiva. Il risultato sarebbe un elettrone in più con
energia positiva e uno in meno con energia negativa (un “buco”
nel mare di Dirac). Essendo un elettrone mancante, il “buco” si
comporterebbe come se avesse carica opposta a quella
dell’elettrone, e apparirebbe esattamente come una particella di
carica positiva. Fu dunque questa la previsione di Dirac:
dovrebbero esistere delle particelle identiche agli elettroni, ma di
10
L’equazione di Dirac, che descrive in modo relativisticamente invariante il
moto delle particelle a spin semi-intero (fermioni), nasce come tentativo di
ovviare agli inconvenienti generati dall'equazione di Klein-Gordon. Tale
equazione di Klein-Gordon, infatti, non solo aveva soluzioni ad energia
positiva ma anche soluzioni ad energia negativa; ma soprattutto presentava una
difficoltà nell'interpretazione della funzione d'onda. Tale difficoltà nasceva dal
fatto che la densità di probabilità poteva anche assumere valori negativi o nulli,
ovvero non era definita positiva.
carica elettrica opposta. I positroni, che in seguito Feynman
avrebbe interpretato come elettroni che si muovono a ritroso nel
tempo, furono pensati da Dirac come “buchi” nel vuoto, che
vengono sempre creati in associazione ad elettroni ordinari, in
collisioni di fotoni sufficientemente energetici.
La previsione da parte di Dirac dell’esistenza dell’antimateria fu
uno dei grandi momenti nella storia della fisica. Non solo
condusse da lì a poco alla scoperta sperimentale del positrone, ma
marcò anche l’avvento di un settore completamente nuovo: la
teoria quantistica dei campi. Aprì la porta alla scoperta dei
diagrammi di Feynman ed in seguito all’elaborazione del
Modello Standard. Per dirla con Leonard Susskind: “Dirac non
pensava ad alcun esperimento quando scoprì la notevole
equazione che porta il suo nome e che descrive la meccanica
quantistica dell’elettrone. Pensava a come rendere
matematicamente compatibile con la relatività speciale
l’equazione di Schrödinger, valida in regime non relativistico.
Una volta ottenuta l’equazione di Dirac, la strada era
completamente spianata per l’elaborazione dell’intera
elettrodinamica quantistica. Certo, i teorici si sarebbero
imbattuti nei problemi matematici che furono rattoppati alla
bell’e meglio con la teoria della rinormalizzazione, ma non ci
sarebbe stato alcun ostacolo alla costruzione della moderna
teoria quantistica dei campi. E i fisici si sarebbero ritrovati ad
interrogarsi senza fine sull’enormità dell’energia del vuoto e sul
perché essa non abbia effetti gravitazionali”.
In un articolo del 1937, Majorana riuscì a fornire una descrizione
separata delle particelle dalle antiparticelle nell’ambito di
equazioni a componenti finite. Questa nuova teoria di Majorana è
stata riassorbita ed interpretata dalla letteratura manualistica
come la semplice scoperta di una nuova rappresentazione delle
matrici di Dirac (la cosiddetta “rappresentazione di Majorana”),
ma non è affatto equivalente alla teoria di Dirac; non si tratta
semplicemente della possibile non esistenza di alcuni tipi di
antiparticelle, o di alcune differenti proprietà dei neutrini. Essa è
una soluzione al problema dell’energia, che evita i problemi della
rinormalizzazione legati agli stati ad energia negativa e alla
conseguente concezione del vuoto della teoria in questione.
Il vuoto diventa ancora più complicato quando lo spazio-tempo è
curvato, come nella Relatività Generale. La curvatura infatti
influenza la distribuzione spaziale delle fluttuazioni del campo
quantistico e, come l'accelerazione, può indurre un'energia del
vuoto non nulla. Dal momento che la curvatura può variare da
punto a punto, può variare anche l'energia del vuoto,
mantenendosi positiva in alcuni punti e negativa in altri. Ora, in
qualsiasi teoria coerente, l'energia si deve conservare.
Supponiamo dunque che un aumento della curvatura provochi un
aumento dell'energia del nostro vuoto quantistico. Tale energia
deve pur venire da qualche parte, e quindi la stessa esistenza delle
fluttuazioni del campo quantistico implica che sia necessaria
dell'energia per curvare lo spazio-tempo. Insomma, lo spazio-
tempo si oppone in qualche modo alla curvatura, proprio come
una molla rigida oppone resistenza ad essere allungata. Nel 1967
il famoso fisico russo Andrej Dimitrievic Sacharov (1921–1989),
prima padre della bomba atomica sovietica e poi strenuo
difensore dei diritti umani e Premio Nobel per la Pace, dimostrò
che la gravitazione potrebbe essere un fenomeno puramente
quantistico, derivante dall'energia del vuoto, e che la costante di
Newton o, in modo equivalente, la rigidità 1/G dello spazio-
tempo, è derivabile non solo dall'esperienza, ma anche dai
principi fondamentali della Meccanica Quantistica. Quest'idea
rivoluzionaria incontrò però enormi difficoltà. In primo luogo,
essa richiede che la gravità venga sostituita, come campo
fondamentale, da un "campo di gauge di grande unificazione"11
11
Un campo di gauge è un campo dotato di particolari simmetrie. Le teorie di
gauge, o teorie di scala, sono una classe di teorie di campo basate sull'ipotesi
che alcune simmetrie, cioè trasformazioni che lasciano invariata la lagrangiana
del sistema, siano possibili non solo globalmente, ma anche localmente. Il
concetto alla base delle teorie di gauge è di postulare che le lagrangiane
debbano possedere anche simmetrie locali, cioè che sia possibile effettuare
queste trasformazioni di simmetria solo in una particolare e limitata regione
legato alle particelle elementari note. Si deve introdurre a questo
punto una massa fondamentale per poter ottenere una scala
assoluta di unità; e quindi una costante fondamentale viene
sostituita da un'altra, senza particolari vantaggi.
In secondo luogo, la dipendenza calcolata dell'energia del vuoto
dalla curvatura conduce a una teoria della gravità incredibilmente
più complessa di quella di Einstein. Un vero vuoto è definito
come uno stato di equilibrio termico allo zero assoluto. Nella
gravità quantistica12 un tale vuoto può esistere soltanto se la
12
Quando un effetto quantistico, come la produzione di particelle o l'energia
del vuoto, influenza la curvatura dello spazio-tempo, la curvatura medesima
diventa un oggetto quantistico. Per lunghezze d'onda grandi rispetto alla
lunghezza di Planck, le fluttuazioni quantistiche del campo gravitazionale
quantizzato sono piccole, e possono essere trattate come una debole
perturbazione dei risultati classici. Ma alle lunghezze d'onda e alle energie di
Planck, la situazione si fa decisamente più complicata. Le particelle mediatrici
del campo gravitazionale (i gravitoni), sono così debolmente interagenti con la
materia ordinaria, che perfino un'intera galassia è quasi totalmente trasparente
per essi. I gravitoni interagiscono apprezzabilmente con la materia solo quando
raggiungono le energie di Planck; a tali energie, essi si comportano né più e né
meno come dei nano-buchi neri, e dunque sono in grado di indurre curvature
significative nella geometria dello spazio, e di distorcerla completamente. Da
notare come l'energia trasportata da un gravitone sia in grado di distorcere non
solo la geometria dello spazio tempo (cioè il tensore metrico), ma pure le onde
associate al gravitone stesso. Questa è una conseguenza della non linearità
della teoria di Einstein: quando si sovrappongono due campi gravitazionali, il
campo risultante non è uguale alla somma dei due campi componenti. La teoria
curvatura è indipendente dal tempo. Quando la curvatura dipende
dal tempo, nel vuoto possono apparire spontaneamente delle
particelle dal nulla, con il risultato che non si tratta più di un
vuoto. Il meccanismo di produzione di particelle può essere
spiegato anche in termini di oscillatori armonici: quando cambia
la curvatura dello spazio-tempo, cambiano anche le proprietà
fisiche degli oscillatori del campo. Supponiamo che un oscillatore
si trovi inizialmente nel suo stato fondamentale, soggetto quindi
a oscillazioni di punto zero. Se cambia una delle sue proprietà,
come la massa o la costante elastica della molla, le sue
oscillazioni di punto zero devono a loro volta adattarsi alla
variazione. Dopo l'adattamento c'è una probabilità finita che
l'oscillatore non si trovi più nel suo stato fondamentale, ma in uno
stato eccitato. Il fenomeno è analogo all'aumento di vibrazione
indotto in una corda vibrante di un pianoforte quando aumenta la
sua tensione; l'effetto è chiamato eccitazione parametrica. Nel
campo quantistico, l'analogo dell'eccitazione parametrica è la
produzione di particelle.
La discussione sul vuoto è tuttora al centro degli studi di fisica
teorica, in particolare della teoria quantistica dei campi. Il vuoto
è dunque definito come lo stato del sistema di energia minore. In
realtà tale energia è infinita: la presenza degli infiniti nella teoria
quantistica dei campi ha provocato molte reazioni di dissenso
presso alcuni fisici che la guardano come una teoria provvisoria,
che necessita di essere superata da altre senza infiniti scomodi.
Resta il fatto però che, trattando nei problemi non energie
assolute, ma differenze di energie in cui gli infiniti si elidono ( si
Massa negativa
13
Il tensore-energia-impulso, anche detto tensore-energia-momento, è un
tensore definito nell'ambito della teoria della Relatività Generale. Esso
descrive il flusso di energia e quantità di moto associate ad un campo.
14
La teoria del flogisto sulla combustione dei materiali è una teoria elaborata
nel XVII secolo con l'intento di spiegare i processi di ossidazione e
combustione, successivamente smentita e abbandonata dopo che fu resa
pubblica la legge della conservazione della massa di Antoine Lavoisier. La
teoria in sostanza sostiene che i materiali combustibili e metalli arroventati si
trasformavano in "calci" (oggi diremmo semplicemente che si ossidano)
producendo durante il processo di combustione o di calcinazione, il "flogisto",
un misterioso principio di infiammabilità o principio solforoso. Tale teoria di
un principio di infiammabilità fu elaborata inizialmente dal chimico tedesco
Johann Joachim Becher (1635-1682) e successivamente sviluppata e formulata
dal connazionale Georg Ernst Stahl (1660-1734), grande medico appassionato
di chimica, che nel 1697 la propose nel suo libro Zymotechnia fundamentalis
sive fermentationis theoria generalis (tradotto: Zimotecnia fondamentale
ovvero teoria generale della fermentazione).
chiamate massa: la massa inerziale15, la massa gravitazionale
“attiva”16 e la massa gravitazionale “passiva”17. Il principio di
equivalenza di Einstein, postula che la massa inerziale debba
essere uguale alla massa gravitazionale passiva. La legge della
conservazione della quantità di moto, richiede che la massa
gravitazionale attiva e la massa gravitazionale passiva, siano
identiche. Tutte le prove sperimentali eseguite sino ad oggi,
hanno sempre confermato queste leggi fisiche. In tale contesto, è
dunque importante considerare quali siano le tipologie di massa,
che potrebbero assumere dei valori negativi (ovvero risultare, in
determinate circostanze, delle masse negative). Nella maggior
parte delle analisi matematiche eseguite in seno al concetto di
massa negativa, emerge che il principio di equivalenza e la
conservazione della quantità di moto, continuano ad essere
implicate e dunque tutte e tre le tipologie di massa restano uguali.
Nel suo primo saggio a concorso (premiato nel 1951 dalla Gravity
Research Foundation), Joaquin Mazdak Luttinger considerò la
possibilità di una massa negativa e di come essa si comporterebbe
sotto l’influenza di forze gravitazionali e di altro genere. Nel
15
La massa inerziale “m” di un corpo qualsiasi (nella definizione newtoniana),
viene definita nei Principia come quantità di materia, legandola al principio di
proporzionalità come costante di proporzionalità tra la forza applicata “F” e
l’accelerazione subita “a” (m = F/a).
16
La massa gravitazionale attiva di un corpo, è proporzionale all'intensità del
campo gravitazionale da esso generata. Maggiore è la massa gravitazionale
attiva di un corpo, più intenso è il campo gravitazionale da esso generato, e
quindi la forza esercitata dal campo su un altro corpo; per fare un esempio, il
campo gravitazionale generato dalla Luna è minore (a parità di distanza dal
centro dei due corpi celesti) di quello generato dalla Terra, perché la sua massa
è minore.
17
La massa gravitazionale passiva è una grandezza fisica proporzionale
all'interazione di ciascun corpo con il campo gravitazionale. All'interno dello
stesso campo gravitazionale, un corpo con massa gravitazionale piccola
sperimenta una forza minore di quella di un corpo con massa gravitazionale
grande: la massa gravitazionale è proporzionale al peso, ma mentre
quest'ultimo varia a seconda del campo gravitazionale, la massa resta costante.
L'equivalenza tra la massa gravitazionale attiva e quella passiva è una diretta
conseguenza del terzo principio della dinamica di Newton.
1957, seguendo le teorie di Luttinger, Hermann Bondi propose (in
un articolo che venne pubblicato sulla Reviews of Modern
Physics) l’idea che la massa possa essere sia positiva che
negativa. Egli sottolineò che ciò non comporterebbe alcuna
contraddizione logica, finché tutte e tre le tipologie di massa
rimangono negative; ma che tuttavia, il concetto di massa
negativa, in una sua ipotetica applicazione, darebbe luogo a
qualche forma di moto contro-intuitiva. Ad esempio, un oggetto
con massa inerziale negativa, teoricamente dovrebbe accelerare
nella direzione opposta a quella in cui è stato spinto.
Delle analogie con una simile situazione (contro-intuitiva), si
possono riscontrare nel campo dei metamateriali. Risale infatti al
2012, la teoria che un metamateriale dotato di due stati metastabili
potrebbe manifestare, per un certo intervallo di forze applicate,
una transizione di fase nella quale manifesterebbe una
comprimibilità negativa (una proprietà che fino al 2012, fu
sempre ritenuta impossibile). In parole povere, la proprietà
controintuitiva teorizzata da alcuni ricercatori della Northwestern
University, vuole che se si comprime il suddetto metamateriale
esso si allunghi, mentre se si cerca di tenderlo, esso si accorci!18
18
Questo tipo di risposta (contrazione sotto tensione e allungamento sotto
pressione) si sa che può essere manifestata da alcuni particolari materiali
quando questi vengono sottoposti a una forza che varia molto rapidamente in
modo sinusoidale; ma in realtà, in questo caso ci si trova di fronte solamente a
uno sfasamento temporale tra la forza applicata e la deformazione che ne
consegue. Finora si riteneva infatti che un materiale dotato di una
“comprimibilità negativa” in risposta a una forza costante fosse semplicemente
impossibile: se si prende una bacchetta di qualsiasi materiale normale e si
applica una tensione, il materiale si allunga leggermente, esercitando una forza
di richiamo che bilancia la tensione, così da raggiungere un nuovo stato di
equilibrio. Se applicando la tensione un materiale rispondesse riducendosi, la
tensione aumenterebbe, inducendo il materiale a contrarsi ancora di più, fino
al collasso. Una tensione anche minima porterebbe quindi alla distruzione del
materiale stesso. E lo stesso avverrebbe nel caso di una pressione. Tuttavia,
Nicolaou Zachary e Adilson Motter della Northwestern University hanno
scoperto che un materiale dotato di comprimibilità negativa può esistere,
Sono stati eseguiti diversi altri studi sul concetto di massa
negativa (tra cui anche quello del fisico americano Richard H.
Price, specializzato nella teoria della RG), ma nessuno ha mai
affrontato la questione di quale tipo di energia e quantità di moto
sarebbero necessari per descrivere una massa negativa non-
singolare. Infatti, la soluzione di Schwarzschild per il parametro
della massa negativa, presenta una singolarità nuda in una
posizione spaziale fissa. La domanda che sorge immediatamente
è dunque la seguente: non sarebbe possibile “appianare” tale
singolarità con qualche tipo di densità a massa negativa? Ebbene
la risposta è sì, ma non con l’energia e la quantità di moto che
soddisfano la condizione di energia dominante. Questo perché se
l’energia e la quantità di moto soddisfano la condizione di energia
dominante in uno spazio-tempo asintoticamente piatto, in cui
sarebbe opportuno “appianare” la massa negativa (singolarità)
della soluzione di Schwarzschild, allora tale soluzione deve
soddisfare il teorema di energia positiva (ciò significa che la
massa in questione, secondo il formalismo ADM19, deve essere
positiva; il che ovviamente fa cadere tutto il costrutto di partenza).
Tuttavia, è stato notato da Belletête e Paranjape che, poiché il
teorema di energia positiva non si applica allo spazio-tempo
asintotico di De Sitter, sarebbe effettivamente possibile
“appianare” (con energia e quantità di moto che soddisfino la
condizione di energia dominante), la singolarità che corrisponde
alla soluzione esatta di Schwarzschild-De Sitter, della massa
negativa (che corrisponde all’esatta e singolare soluzione delle
equazioni di Einstein, in cui è inclusa la costante cosmologica).
In un successivo articolo, Mbarek e Paranjape dimostrarono che
quanto meno per un piccolo intervallo di valori, cioè attraverso quella che
rappresenta una transizione di fase.
19
Il formalismo ADM, sviluppato da Arnowitt, Deser e Misner è una
formulazione hamiltoniana della relatività generale. Questa formulazione
gioca un ruolo importante sia nella gravità quantistica, sia nella relatività
numerica.
è infatti possibile ottenere la deformazione desiderata, attraverso
l'introduzione di energia e quantità di moto di un fluido perfetto.
Sebbene non si conosca nessuna particella avente massa negativa,
alcuni fisici (tra cui Hermann Bondi, William B. Bonnor e Robert
L. Forward) sono stati in grado di descrivere, con molti anni
d’anticipo, alcune delle proprietà che tali particelle possono
avere. Supponendo che tutte e tre le tipologie di massa (inerziale,
attiva e passiva) siano equivalenti, le interazioni gravitazionali tra
le masse di segno arbitrario possono essere esplorate, tramite le
equazioni di campo di Einstein; da ciò si evince che:
- Una massa positiva attrae sia altre masse positive, come
pure delle masse negative;
- Una massa negativa respinge sia altre masse negative,
come pure delle masse positive.
Per due masse positive, non cambia nulla e la forza
gravitazionale, presente da ambo le parti, provoca un’attrazione
reciproca. Due masse negative invece, si respingerebbero a causa
delle loro masse inerziali negative. Tuttavia, per segni diversi tra
loro, vi è una forza che respinge la massa positiva dalla massa
negativa, e contemporaneamente, una forza che spinge la massa
negativa verso la massa positiva.
Bondi ha sottolineato che due oggetti di massa uguale ed opposta
(di segno diverso), produrrebbero un’accelerazione costante del
sistema verso l’oggetto di massa positiva; un effetto chiamato
“runaway motion” da Bonnor, il quale ne mise subito in dubbio
l’esistenza affermando che: “Il concetto di auto-accelerazione
[runaway motion] mi pare così assurdo, che preferisco
escluderlo a priori e supporre che la massa inerziale possa essere
o del tutto positiva, oppure completamente negativa”. Una simile
coppia d’oggetti accelererebbe senza limiti (rispettando solo
quello relativistico); tuttavia, la massa totale, l’energia e la
quantità di moto del sistema rimarrebbero nulle. Questo
comportamento è del tutto incompatibile con un approccio dettato
dal buon senso e da quanto ci si aspetterebbe dalla materia
ordinaria (“normale”); tuttavia, è a tutti gli effetti
matematicamente coerente e non introduce alcuna violazione
della conservazione della quantità di moto o dell’energia. Se le
masse risultano uguali in grandezza, ma sono di segno opposto,
allora la quantità di moto del sistema rimane nulla se entrambe
viaggiano assieme ed accelerano insieme (a prescindere dalla loro
velocità). Ulteriori analisi di Forward hanno inoltre dimostrato
che, anche se le due masse di segno opposto non sono uguali, le
leggi di conservazione rimangono inalterate. Ciò è vero anche
quando vengono considerati gli effetti relativistici; a condizione
che la massa inerziale (non quella a riposo!), sia uguale alla massa
gravitazionale.
Questo comportamento può produrre risultati bizzarri: ad
esempio, un gas contenente una miscela di particelle di materia
sia positive che negative, avrà un aumento illimitato di
temperatura della parte contenete le particelle positive. Tuttavia,
la porzione di materia negativa guadagna temperatura negativa
alla stessa velocità, sempre bilanciando il tutto.
Geoffrey A. Landis ha sottolineato altre implicazioni delle analisi
di Forward; una di queste dimostrerebbe che, anche se le
particelle di massa negativa si respingerebbero l’un l’altra a causa
delle forze gravitazionali, la forza elettrostatica sarebbe attrattiva
per cariche dello stesso segno e repulsiva per cariche opposte.
Forward ha utilizzato le proprietà della materia di massa negativa
per creare il concetto di “Diametric Drive”, un progetto per la
realizzazione di un propulsore aerospaziale che funzionerebbe
utilizzando massa negativa (la quale non richiederebbe energia
d’alimentazione, come neppure una massa reattiva per ottenere
arbitrariamente forti accelerazioni). Forward ha persino coniato il
termine “nullificazione” per descrivere cosa accade quando la
materia ordinaria e quella negativa si incontrano: esse
opererebbero, senza riuscirvi, al fine di “nullificare” se stesse
reciprocamente.
Un’interazione tra quantità uguali di materia con massa positiva
(quindi di energia positiva E=mc2) e materia con massa negativa
(di energia negativa –E= -mc2), non rilascerebbe alcuna energia;
ma poiché l’unica configurazione di tali particelle con una
quantità di moto pari a zero (dove entrambe le particelle si
muovono con la stessa velocità nella stessa direzione) non
produce una collisione, tutte queste interazioni lascerebbero un
surplus di quantità di moto, proibito dalla fisica classica. E questo
è uno dei motivi per cui si ritiene che la massa negativa non possa
esistere in modo naturale, nell’Universo.
Nel 1970, Jean-Marie Souriau riuscì a dimostrare, attraverso il
gruppo (completo) di Poincaré della teoria (dinamica) dei gruppi,
che invertendo l’energia di una particella (e quindi la sua massa,
se la particella ne è provvista), si ottiene altresì l’inversione della
sua “freccia del tempo”.
L’Universo, secondo la teoria della Relatività Generale, è da
intendersi come una varietà Riemanniana, associata ad una
soluzione del tensore metrico delle equazioni di campo di
Einstein. In tale quadro di riferimento, il principio di auto-
accelerazione (“runaway motion”), impedisce l’esistenza della
materia negativa. Alcune teorie bimetriche sull’Universo,
rivelano che potrebbero esistere ben due Universi paralleli
(invece di uno), con opposte “frecce del tempo” e collegati tra
loro dal Big Bang (interagendo reciprocamente solo attraverso la
gravitazione). In tale contesto l’Universo viene descritto come un
“collettore” associato a due metriche Riemanniane (una con
materia a massa positiva e l’altra con materia a massa negativa).
Secondo la teoria dei gruppi, la materia di questa “metrica
congiunta”, apparirebbe verso la materia di un’altra metrica,
come se avesse una massa (nonché una freccia del tempo)
opposta. Le metriche accoppiate, hanno le loro geodetiche e sono
soluzioni di due equazioni di campo accoppiate.
L’approssimazione newtoniana, fornisce quindi le seguenti leggi
d’interazione:
- La massa positiva attrae massa positiva;
- La massa negativa attrae massa negativa;
- Massa positiva e massa negativa si respingono a vicenda.
Queste leggi sono diverse da quelle descritte da Bondi e Bonnor,
e risolvono il paradosso dell’auto-accelerazione. La materia
negativa della metrica congiunta (accoppiata), interagendo con la
materia dell’altra metrica attraverso la gravità, potrebbe
rappresentare un candidato alternativo per la spiegazione della
materia oscura, dell’energia oscura, dell’inflazione cosmica e
persino dell’accelerazione dell’Universo.
Nella teoria dell’elettromagnetismo è possibile ricavare la densità
di energia di un campo, dalla legge di Gauss20 (assumendo che la
curvatura del campo sia nulla). Eseguendo lo stesso calcolo
utilizzando la legge di Gauss per la gravità, si ottiene la densità di
energia negativa per un campo gravitazionale. Lo schiacciante
consenso tra i fisici, vuole che l’antimateria abbia massa positiva
e dovrebbe essere influenzata dalla gravità, proprio come la
materia normale. Esperimenti diretti sull'anti-idrogeno neutro,
non hanno rilevato alcuna differenza tra l’interazione
gravitazionale dell’antimateria, e quella relativa alla materia
ordinaria (normale). Gli esperimenti con camere a bolle,
forniscono ulteriori prove sul fatto che le antiparticelle hanno la
stessa massa inerziale delle loro controparti ordinarie (normali).
In questi esperimenti, la camera a bolle viene sottoposta ad un
campo magnetico costante che genera particelle cariche che si
muovono su percorsi elicoidali, aventi raggio e direzione
corrispondenti al rapporto tra carica elettrica e massa inerziale. Si
è osservato che le coppie particella-antiparticella, viaggiano su
percorsi elicoidali con direzioni opposte, ma con raggi identici;
ciò implica che i rapporti differiscono solo nel segno (positivo o
20
Nella teoria dei campi vettoriali il teorema del flusso, anche noto come
teorema di Gauss (o legge di Gauss), afferma che i campi vettoriali radiali
dipendenti dal reciproco del quadrato della distanza dall'origine, hanno flusso
attraverso una qualunque superficie chiusa indipendente dalla posizione
interna delle cariche che lo generano. L'enunciato ha due espressioni, una
integrale e una differenziale, legate tra di loro dal teorema della divergenza.
negativo, per intenderci). In ogni caso ciò non indica se si tratta
della carica oppure della massa inerziale, che viene invertita.
Tuttavia, si è osservato che le coppie particella-antiparticella, si
attraggono elettricamente a vicenda. Questo comportamento
implica che entrambe hanno una massa inerziale positiva e
cariche opposte; se fosse vero il contrario, allora la particella con
massa inerziale positiva, verrebbe respinta dalla sua antiparticella
gemella.
Nel 1928, Paul Dirac, nel suo approccio alla teoria delle particelle
elementari (ora parte integrante del Modello Standard), aveva già
incluso delle soluzioni negative. Il Modello Standard è una
generalizzazione dell’elettrodinamica quantistica (QED), e la
massa negativa è inclusa in tale teoria. Morris, Thorne e Yurtsever
hanno sottolineato che la meccanica quantistica inerente
all’effetto Casimir, potrebbe essere utilizzata per definire una
zona locale di massa negativa dello spazio-tempo. Nei loro
articoli, hanno teoricamente dimostrato che la materia negativa
potrebbe essere utilizzata per stabilizzare dei cunicoli spazio-
temporali. Cramer e colleghi sostengono che tali wormholes
potrebbero essere stati creati nell’Universo primordiale, ed
essersi stabilizzati grazie ad anelli di massa negativa della stringa
cosmica. Stephen Hawking ha dimostrato che l'energia negativa
è una condizione necessaria per la creazione di una curva spazio-
temporale chiusa di tipo tempo21, che origini (prenda forma) dalla
21
In fisica teorica, una curva spazio-temporale chiusa di tipo tempo (in inglese
Closed Timelike Curves, CTC) è una linea di universo chiusa, nella quale un
eventuale oggetto che la percorresse, continuando a viaggiare nel futuro
tornerebbe, sia nello spazio che nel tempo, al punto da cui è cominciata la linea
di universo stessa (tale oggetto tornerebbe dunque, nello stesso luogo e nello
stesso istante di tempo da cui è partito). Esistono metriche, soluzioni delle
equazioni di Einstein della relatività generale, che permettono la presenza di
tali linee. La scoperta di queste soluzioni è dovuta a Kurt Gödel nel 1949. Dopo
aver letto i risultati dell'amico matematico, Einstein confessò che il problema
di uno spazio-tempo che permettesse curve temporali chiuse lo aveva
preoccupato già all'epoca in cui stava elaborando la teoria della relatività
generale, senza peraltro essere riuscito a chiarirlo. Altre soluzioni furono in
manipolazione di campi gravitazionali all’interno di una regione
limitata di spazio; ciò dimostra, ad esempio, che un cilindro di
Tipler finito non può essere utilizzato come macchina del tempo.
Per gli autostati22 dell’energia dell’equazione di Schrödinger23, la
funzione d’onda24 è ondulatoria ovunque l’energia della particella
sia superiore al potenziale locale, ed evanescente (esponenziale)
dove invece risulti essere inferiore. Ingenuamente, si potrebbe
dedurre che l’energia cinetica sia negativa in regioni evanescenti
(per annullare il potenziale locale). Tuttavia, in meccanica
seguito proposte (cilindri rotanti, buchi neri rotanti, wormholes, etc.), ma non
è ancora chiaro se le condizioni imposte siano “fisicamente accettabili”. La
reale esistenza di CTC implicherebbe la possibilità di violazioni del principio
di causalità.
22
In meccanica quantistica gli autostati dell'energia di un sistema sono gli stati
descritti dagli autovettori dell'operatore hamiltoniano, ottenuti mediante
risoluzione dell'equazione di Schrodinger, indipendente dal tempo.
23
In meccanica quantistica l'equazione di Schrödinger è un'equazione
fondamentale che determina l'evoluzione temporale dello stato di un sistema,
ad esempio di una particella, di un atomo o di una molecola. Formulata da
Erwin Schrödinger nel 1926, è una equazione differenziale alle derivate
parziali lineare che ha come incognita la funzione d'onda, introdotta basandosi
sull'ipotesi di de Broglie, secondo la quale anche le particelle che costituiscono
la materia, come l'elettrone, hanno un comportamento ondulatorio. Secondo
l'interpretazione di Copenaghen il modulo quadro della funzione d'onda ha il
significato di probabilità di trovare una particella in una determinata
configurazione. L'equazione di Schrödinger ha avuto un ruolo determinante
nella storia della meccanica quantistica, ad esempio permettendo di
comprendere perché soltanto alcuni valori discreti dell'energia sono ammessi
per l'elettrone nell'atomo di idrogeno.
24
In meccanica quantistica, la funzione d'onda rappresenta uno stato fisico del
sistema quantistico. È una funzione complessa delle coordinate spaziali e del
tempo e il suo significato è quello di un'ampiezza di probabilità (da cui
l'utilizzo dei termini "funzione d'onda" e "ampiezza di probabilità" come
sinonimi, oppure di definizione del primo in funzione del secondo), ovvero il
suo modulo quadro rappresenta la densità di probabilità dello stato sulle
posizioni.
quantistica l’energia cinetica è un operatore, e il suo valore deve
sempre essere positivo.
In base alla seconda legge di Einstein (l’equivalenza di massa-
energia, da cui la formula E=mc2), il contributo di massa alla
massa totale dell’elettrone, dovuto alla nube di fotoni virtuali, è
positivo; per cui, la massa nuda dell’elettrone deve essere
necessariamente inferiore alla massa osservata. Poiché i fotoni
virtuali hanno energie due volte superiori alla massa
dell’elettrone (affinché si possano costituire/generare le coppie
elettrone-positrone, necessarie per il processo di
rinormalizzazione25), la massa nuda dell’elettrone sorgente
dovrebbe essere teoricamente negativa.
La quinta forza
25
Nella teoria quantistica dei campi, nella meccanica statistica e nella teoria
delle strutture geometriche auto-similari, la rinormalizzazione è un insieme di
tecniche per trattare gli infiniti che emergono nel calcolo delle quantità fisiche.
Quando si descrivono lo spazio e il tempo come entità continue, la costruzione
di certe teorie quantistiche e statistiche risulta mal definita. Per trattarle
correttamente è necessario definire con attenzione un opportuno limite
continuo. In questo limite esistono delle relazioni non banali fra i parametri
che descrivono la teoria a grandi scale e distanze rispetto a quelli che
descrivono l'andamento della stessa teoria a piccole distanze. La
rinormalizzazione fu sviluppata per la prima volta per rimuovere gli infiniti
che emergono negli integrali dello sviluppo perturbativo nell'elettrodinamica
quantistica. Inizialmente vista come una procedura sospetta perfino da alcuni
dei suoi ideatori, ad oggi è considerata uno strumento autonomo e
autoconsistente in molti ambiti della fisica e della matematica.
della simmetria CPT, che dimostrava che l’antimateria segue le
stesse leggi fisiche della materia normale (ordinaria); e quindi
essa è da ritenersi costituita da energia positiva, per cui causa e
reagisce alla gravità, come la materia ordinaria.
Durante la maggior parte dell’ultimo quarto del ventesimo secolo,
la comunità scientifica (dei fisici teorici), è stata coinvolta in un
tentativo di elaborare una teoria dei campi unificati; ovvero una
sola teoria che spiegherebbe le quattro forze fondamentali della
natura: la gravità, l’elettromagnetismo, la forza nucleare forte e la
forza nucleare debole. Gli scienziati hanno fatto dei progressi
verso l’unificazione delle tre forze quantistiche, ma ad ogni
tentativo di unificarle tutte e quattro, la gravità è rimasta sempre
la più “dura” e problematica da affrontare (ciò non ha tuttavia
ridotto il numero di nuovi tentativi, da parte dei fisici, di riuscire
ad integrare anch’essa in una teoria del tutto).
Generalmente, queste nuove teorie sono sempre destinate a
“quantificare” la gravità, postulando l’esistenza di una particella:
il gravitone (un’ipotetica particella che trasmetterebbe la forza di
gravità, similmente al modo in cui il fotone trasmette
l’elettromagnetismo). Tuttavia, tutte le teorie in tale direzione
hanno sempre fallito, portando a situazioni molto più complesse
di quelle che i fisici si sarebbero aspettati. Due di queste teorie,
ovvero la supersimmetria e la supergravità (in relazione con la
RG), esigono entrambe l’esistenza di una quinta forza
estremamente debole, trasmessa da una particella: il gravifotone
(fondamentale nella teoria del fisico tedesco Burkhard Heim, che
esporrò tra poche pagine nel sotto-capitolo intitolato : “La teoria
di Heim”). Questa particella (il gravifotone), permetterebbe di
collegare in modo assai organizzato, diversi aspetti trascurati o
non ancora esplorati della teoria quantistica dei campi. Come
risultato concomitante, ognuna di queste teorie non richiede che
l’antimateria sia soggetta a questa quinta forza. Parecchi
esperimenti sono stati condotti negli anni novanta per poter
rilevare questa eventuale quinta forza, ma mai nessuno ha avuto
esiti positivi.
Una risposta dall’antidrogeno
L’ipotesi di Villata
29
L'esperimento di Eötvös fu un famoso esperimento della fisica della fine del
XIX secolo che misurò la correlazione tra massa inerziale e massa
gravitazionale, dimostrandone l'equivalenza con una precisione fino ad allora
impossibile da raggiungere. Nel 1958, L. Schiff sfruttò la teoria quantistica dei
campi per sostenere che l'antigravità sarebbe incoerente con i risultati
dell'esperimento Eötvös. Tuttavia, la tecnica di rinormalizzazione utilizzata per
l'analisi di Schiff, è stata fortemente criticata e il suo lavoro è stato screditato.
30
Il principio di equivalenza debole, asserisce che la massa inerziale, cioè la
proprietà intrinseca del corpo materiale di opporsi alle variazioni di moto, e la
massa gravitazionale, che rappresenta la proprietà di un corpo di essere
sorgente e di subire l'influsso di un campo gravitazionale, sono numericamente
uguali (il rapporto tra le due masse è stato sperimentalmente misurato da
Eötvös, nell'esperimento che porta il suo nome). Anche se il principio in forma
debole è stato sperimentalmente confermato con precisione elevatissima, ciò
non è sufficiente a garantire lo stesso grado di certezza anche alla forma forte,
che deve essere dunque considerata ancora come un postulato.
gravitazionali), si osservano i fotoni attratti dalla materia,
esattamente in accordo con la teoria della relatività generale. È
possibile trovare atomi e nuclei il cui contenuto di particelle
elementari è lo stesso, ma le cui masse sono diverse. Per esempio,
un atomo di elio pesa meno di due atomi di deuterio, a causa della
differente energia che li lega. Si osserva che la costante della forza
gravitazionale è la stessa, fino ai limiti della precisione
sperimentale, per tutti questi diversi materiali, suggerendo che
l'"energia di legame" (la quale, come per il fotone, non fa
distinzione tra materia e antimateria), sperimenta la stessa forza
gravitazionale della materia. Questo concorda di nuovo con la
teoria della relatività generale e difficilmente si riconcilia con
qualsiasi teoria che prevede che materia e antimateria si
respingano.
Nel 1961, Myron Good sosteneva che l'antigravità avrebbe
comportato l'osservazione di una inaccettabile elevata quantità di
violazione CP nella rigenerazione anomala di kaoni31. Nel 1961,
la violazione CP non era ancora stata osservata. Tuttavia, l'ipotesi
di Good viene criticata per essere stata espressa in termini di
potenziali assoluti. Con la riformulazione dell'argomento in
termini di potenziali relativi, Gabriel Chardin trovò che esso si
risolveva in una quantità di rigenerazione di Kaoni in accordo con
l'osservazione. I kaoni neutri, costituiscono l’unica coppia
particella-antiparticella in cui si osserva una violazione della
simmetria CP, ossia una differenza di comportamento fra materia
e antimateria. Dunque la domanda cruciale che occorre porsi è la
seguente: qual è la differenza di accelerazione fra materia ed
antimateria necessaria per spiegare la violazione CP nel sistema
dei kaoni?
Una domanda analoga se l’era posta , nel 1961, Myron Good; ma
poiché all’epoca non si conoscevano né l’asimmetria materia-
antimateria (scoperta nel 1964) , né l’evaporazione dei buchi neri
31
Good sosteneva che l'antigravità è in realtà una spiegazione potenziale della
violazione CP.
(scoperta nel 1974), Good si limitò a riformulare l’ipotesi che il
vuoto non sia instabile. Oggi comunque sappiamo che nel sistema
dei kaoni neutri, l’antigravità è proprio quel che ci vuole per
spiegare l’asimmetria materia-antimateria, poiché introduce quel
piccolo scarto tra le funzioni d’onda del kaone e dell’anti-kaone,
che consentirebbe di simulare la violazione di CP.
Come un fotone gamma adeguato, possa essere convertito in un
elettrone e in un anti-elettrone, secondo la famosa equazione di
Einstein ("produzione di coppia"), è qualcosa che i fisici
osservano ormai di routine. Essi hanno inoltre osservato che
esattamente metà dell'energia ordinaria del fotone appare come
l'elettrone e, a causa della legge di conservazione dell'energia,
l'altra metà dell'energia ordinaria del fotone deve diventare quella
dell'anti-elettrone. Osservazioni analoghe valgono per tutte le
altre particelle dell'antimateria. Questo significa che tutte le
particelle di anti-materia devono essere costituite da energia
ordinaria, implicando fortemente che la loro interazione
gravitazionale debba essere proprio come quella delle particelle
della materia ordinaria. Secondo Gabriel Chardin:
“Se il teorema CPT è valido, la simmetria CP non è altro che
quella T dell’inversione del tempo. Se la materia e l’antimateria
si assomigliano tanto è perché in effetti si tratta della stessa cosa,
salvo che l’antimateria è materia che risale il tempo. Infatti,
nell’equazione di Dirac, cambiare il segno dell’energia significa
cambiare la direzione del tempo, cosicché il positrone appare
appunto come un elettrone che risale il tempo. (…) Si noti anche
che, se il teorema CPT è valido, il diverso comportamento della
materia e dell’antimateria (in violazione di CP) è dovuto alla
freccia del tempo (in violazione di T); e questo è un altro grande
problema irrisolto della fisica. (…) Al di là dei reali progressi
nello studio della violazione della simmetria CP e della simmetria
T, il problema è che, a più di quarant’anni dalla scoperta della
simmetria fra materia e antimateria, o della violazione di CP, non
possiamo ancora sostenere di capire il fenomeno, pur sapendo
che esso può trovar posto nella struttura delle particelle quale
oggi la conosciamo. (…) Nel modo in cui la natura rispetta le
simmetrie C, P e T, pare che l’interazione debole sia l’unica delle
quattro interazioni a violare le trasformazioni C e P, rivelando
che materia e antimateria non rispettano la simmetria specchio
in tutti i fenomeni dove entra in gioco l’interazione debole. Essa
pare anche l’unica ad evidenziare (ma ad un livello più debole e
solo nel caso dei mesoni neutri K e B), la violazione della
simmetria CP; permettendo così una definizione assoluta della
materia rispetto all’antimateria e della simmetria T di inversione
del tempo”.
È remotamente possibile che qualche altro aspetto delle anti-
particelle, oltre al fatto di essere costituite da energia ordinaria,
possa causare loro un comportamento diverso in un campo
gravitazionale ordinario, ma ci sono pochissime candidate per
quello che potrebbe essere quest'altro aspetto delle anti-particelle.
La teoria di Heim
I dispositivi giroscopici
32
Il giroscopio è un dispositivo fisico rotante che, per effetto della legge di
conservazione del momento angolare, tende a mantenere il suo asse di
rotazione orientato in una direzione fissa.
a numerose richieste di brevetto. Mai nessuno di tali dispositivi
comunque, si è dimostrato funzionante in condizioni controllate.
Nel 1974, l’ingegnere elettrico Eric Roberts Laithwaite, fu
invitato dalla Royal Institution33 a tenere un discorso su un
soggetto a sua scelta. Egli decise così di presentare le sue idee, a
proposito dei giroscopi. Nel suo discorso, egli sostenne che i
giroscopi perdono peso quando ruotano e per dimostrarlo, mostrò
che poteva sollevare facilmente un giroscopio rotante montato
all’estremità di un’asta, solo con una mano; e mostrò altresì che
ciò non poteva farlo, quando il giroscopio non ruotava. A quei
tempi, Laithwaite sosteneva che i principi della dinamica (ovvero
le leggi di Newton sul moto dei corpi), non potevano spiegare il
comportamento dei giroscopi e che essi potevano addirittura
essere utilizzati come “mezzi di propulsione a reazione”. I
membri della Royal Institution respinsero le sue idee e il suo
discorso non venne mai pubblicato. Nonostante questo rifiuto e
nonostante il fatto che Laithwaite riconobbe in seguito che i
giroscopi si comportano pienamente in accordo con la meccanica
newtoniana, egli continuò ugualmente a studiare e ad esplorare
sperimentalmente l’effetto giroscopico, senza perdere la
convinzione che tale effetto, poteva essere sfruttato per la
realizzazione di “propulsori a reazione”. Laithwaite istituì così
(insieme a William Dawson) una società che chiamò Gyron Ltd e
nel 1995, inoltrò tre domande di brevetto; due intitolate
semplicemente: “A propulsion System” (una pubblicata sempre
nel 1995 e l’altra pubblicata due anni dopo, nel 1997) e la terza
intitolata “Apparatus for moving a vehicle in a first direction”
(pubblicata solo quattro anni dopo, nel 1999).
33
La Royal Institution of Great Britain (spesso abbreviata come Royal
Institution o RI) è un'organizzazione di educazione scientifica e ricerca con
sede a Londra. Fu fondata nel 1799 dai maggiori scienziati britannici del
tempo, tra cui Henry Cavendish ed il suo primo presidente, George Finch, per
"diffondere la conoscenza e facilitare l'introduzione generale di utili invenzioni
meccaniche e miglioramenti; e per insegnare, tramite corsi di letture filosofiche
ed esperimenti, l'applicazione della scienza alla vita comune."
Fig.2.1. Un’immagine del brevetto di Laithwaite, pubblicato nel 1999
(“Apparatus for moving a vehicle in a first direction”, Patent #
US5860317 A)
34
La molteplicità di spin è il numero di stati degeneri in energia che vengono
a crearsi nelle situazioni in cui un sistema quantistico presenti più valori di
spin. Se abbiamo delle particelle identiche allora non possiamo considerare lo
spin di una singola particella come un buon numero quantico e la
degenerazione di spin dipende dallo spin totale del sistema.
35
L'effetto Barnett consiste nella magnetizzazione di un corpo ferromagnetico
che ruota uniformemente intorno a un asse. Fu scoperto nel 1909 da Samuel
Jackson Barnett. Il suo opposto è l'effetto Einstein-de Haas, in base al quale un
corpo ferromagnetico sospeso, se magnetizzato, inizia a ruotare.
brevetti di Wallace, nessun esperimento controllato che abbia
dato esiti positivi, è mai stato notificato ufficialmente.
= ( )
36
Quirino Majorana (1871 – 1957) è stato un fisico italiano, che con i suoi
esperimenti dette un importante contributo alla nascita e allo sviluppo della
telefonia. Dopo aver conseguito la laurea in ingegneria ottenne quella in fisica.
Alla fisica sperimentale e al suo insegnamento dedicò tutta la vita ottenendo
importanti risultati che sono stati alla base dello sviluppo della telefonia. Iniziò
i suoi esperimenti di fisica fin dal 1894 e quelli sulla radiotelefonia a partire
dal 1902. Nel 1909 vinse il premio Santoro dell'Accademia dei Lincei con il
libro "Ricerche ed esperienze di telefonia elettrica senza filo", pubblicato
l'anno successivo. È stato presidente della Società di Fisica d'Italia, e dal 1904
al 1914 fu direttore dell'istituto Superiore Telegrafico e Telefonico. Nel 1912
inventò la prima valvola ionica a quattro elettrodi che lui chiamò "deviatore
elettronico".
portandolo a 6 x 10-19 m2/kg. Tuttavia, le osservazioni
astronomiche impongono dei limiti molto più stringenti. Sulla
base delle osservazioni lunari disponibili nel 1908, Poincaré
stabilì che il coefficiente di estinzione h, non può essere superiore
a 10-18 m2/kg (successivamente questo limite è stato notevolmente
migliorato).
Eckhardt a sua volta, mostrò che i dati relativi alle osservazioni
lunari, implicano un limite superiore di 10-22 m2/kg; mentre
Williams e colleghi riuscirono a migliorarlo arrivando ad un
valore di h pari a (3 ± 5) x 10-22 m2/kg (si noti che il valore è
minore dell’incertezza). La conseguenza dei risultati poco
accordanti di tali esperimenti (che sono tuttavia in sintonia con le
previsioni della Relatività Generale), è che ogni teoria che
contenga effetti di schermatura gravitazionale (come nel caso
della teoria della gravitazione di Le Sage37), deve ridurre tali
effetti ad un livello non rilevabile.
Molti esperimenti atti a rivelare un’eventuale processo di
schermatura gravitazionale, sono stati condotti agli inizi del
ventesimo secolo da Quirino Majorana. Egli effettuò una lunga
serie di esperimenti (con un grado di sensibilità molto elevato)
sull’ipotetico processo di schermatura gravitazionale, dal 1918 al
37
La teoria della gravitazione di Le Sage è una teoria cinetica della
gravitazione proposta inizialmente da Nicolas Fatio de Duillier nel 1690 ed in
seguito da Georges-Louis Le Sage nel 1748. La teoria proponeva una
spiegazione meccanica della forza gravitazionale di Newton in termini di
flusso di minuscole particelle invisibili che Le Sage chiamava “corpuscoli
degli ultramondi” (ossia che hanno origine in altri mondi). Tali particelle,
secondo Le Sage, erano in grado di impattare con la materia terrestre in tutte
le direzioni. Secondo questo modello, due corpi materiali sarebbero in grado
di proteggersi l’un l’altro solo parzialmente, dallo scontro (o interazione,
diremmo oggi) con tali particelle infinitamente piccole; il che causerebbe un
netto squilibrio nella pressione esercitata dagli impatti delle particelle sui
corpi, i quali a tal punto tenderebbero ad avvicinarsi. Questa spiegazione
meccanica della gravità non è mai stata ampiamente accettata, anche se di tanto
in tanto, fino all’inizio del ventesimo secolo, alcuni fisici la prendevano ancora
in considerazione. A partire dall’inizio del ventesimo secolo, la teoria di Le
Sage venne definitivamente screditata e lasciata nel dimenticatoio.
1922, che non sono mai stati riprodotti (per quanto si sa, almeno
non ufficialmente). Gli esperimenti di Majorana dimostrarono
che il piombo o il mercurio, attorno ad una sfera sospesa di
piombo, agivano come elementi schermanti in grado di diminuire
leggermente l’attrazione gravitazionale della Terra. Dei tentativi
per riprodurre i suoi risultati utilizzando le stesse tecniche e gli
stessi apparati sperimentali, non sono mai stati fatti. Da altri dati
in loro possesso, alcuni ricercatori hanno concluso che, se l’
“assorbimento gravitazionale” esistesse realmente, dovrebbe
essere di almeno cinque ordini di grandezza più piccolo, rispetto
a quello che emerse dagli esperimenti di Majorana. Dal punto di
vista della gran parte della comunità scientifica (ovvero
dell’attuale consensus accademico), la schermatura
gravitazionale non può esistere.
39
Con il termine gravitomagnetismo (a volte definito gravitoelettro-
magnetismo e abbreviato GEM), ci si riferisce ad un insieme di analogie
formali tra le equazioni di campo di Maxwell e un'approssimazione, valida
sotto certe condizioni, delle equazioni di campo di Einstein per la Relatività
Generale. La versione più comune del GEM è valida solo lontano da sorgenti
isolate e per particelle test che si muovono lentamente. Le equazioni vennero
pubblicate per la prima volta nel 1893, cioè prima della Relatività Generale, da
Oliver Heaviside come una teoria separata che espandeva la legge di Newton.
Questa riformulazione approssimata della gravitazione descritta dalla relatività
generale, introduce una "forza apparente" in un sistema di riferimento diverso
da quello di un corpo gravitante che si muove. Per analogia con
l'elettromagnetismo, questa forza apparente è chiamata forza
gravitomagnetica, dal momento che si origina nello stesso modo in cui una
sua teoria prevedeva che, se si potesse allineare un gran numero
di ioni (in un condensato di Bose-Einstein), l’effetto risultante
sarebbe quello di un campo gravitomagnetico molto intenso che
a sua volta darebbe origine ad una grande forza repulsiva. Questo
allineamento potrebbe essere reso possibile, intrappolando gli
ioni superconduttori in una struttura reticolare, attraverso
l’impiego di dischi superconduttori ad alta temperatura40.
Ridefinendo il tutto in altre parole, se un campo magnetico
40
Un superconduttore ad alta temperatura, è un materiale che presenta una
temperatura critica superconduttrice, relativamente elevata (superiore a 30 K)
in confronto ai superconduttori convenzionali. Questo termine definisce in
generale, la famiglia dei materiali di tipo cuprato, dove la superconduttività si
manifesta fino a 138 K. Ma anche altre famiglie di superconduttori, come gli
ossipnictidi (scoperti solo nel 2008), possono rientrare nella categoria dei
superconduttori ad alta temperatura. A tutt’ oggi, nessuna teoria fisica è in
grado di spiegare il “meccanismo” che sta alla base della superconduttività.
(variabile nel tempo), venisse applicato a degli ioni
superconduttori intrappolati in una struttura reticolare, tali ioni
assorbirebbero un’enorme quantità di energia. Confinati nel
reticolo, gli ioni in questione inizierebbero a ruotare velocemente
ed ognuno di essi, produrrebbe un piccolo campo gravitazionale.
Per dirla con le stesse parole della dottoressa Li: “Se Einstein
aveva ragione, la quantità di energia gravitomagnetica prodotta
da un oggetto, è proporzionale alla sua massa e al suo
movimento”.
Per creare dei campi gravitazionali artificiali, Douglas Torr e
Ning Li proposero di porre un contenitore superconduttore in un
campo magnetico per allineare gli ioni (rotanti su se stessi e in
piccoli cerchi) all’interno del materiale superconduttore. La loro
teoria prevedeva l’esistenza della rotazione ionica, in un
superconduttore posto all’interno di un campo magnetico. Per
capire il motivo per cui un disco superconduttore ad alta
temperatura sia fondamentale per la costruzione di una macchina
in grado di produrre un campo di forze, è necessario conoscere
qualcosa a proposito di un insolito stato della materia chiamato:
condensato di Bose-Einstein. Il condensato di Bose-Einstein (in
sigla BEC, dall'inglese Bose–Einstein condensate) è uno stato
della materia, che si ottiene quando si porta un insieme di bosoni
a temperature estremamente vicine allo zero assoluto (0 K,
corrispondente a -273,15 °C). In queste condizioni di grande
raffreddamento, una frazione non trascurabile delle particelle si
porta nello stato quantistico di più bassa energia e gli effetti
quantistici si manifestano su scala macroscopica. Questo stato
della materia venne predetto per la prima volta, sulla base della
meccanica quantistica, da Albert Einstein, che si basò sul lavoro
di Satyendra Nath Bose, nel 1925. Settant’ anni più tardi, il primo
condensato di questo tipo fu prodotto da Eric Cornell e Carl
Wieman nel 1995 al laboratorio NIST-JILA dell'Università del
Colorado, usando un gas di rubidio alla temperatura di 170
nanokelvin (nK). Un condensato di Bose-Einstein è in grado di
“spremere” una quantità molto grande di atomi, in uno spazio
estremamente piccolo. La prima volta che è stato realizzato, si è
riusciti a “stipare” circa 2000 atomi di rubidio, in uno spazio di
soli 20 micron.
Ora, tornando alla teoria di Ning Li, il disco superconduttore ad
alta temperatura permetterebbe di produrre, per ogni atomo, un
effetto gravitazionale di sei ordini di grandezza in più rispetto
all’effetto ordinario (normale). A causa della massa molto piccola
di cui è costituito un atomo, l’accelerazione deve essere
compensata, al fine di ottenere una forza avente una certa
intensità. Gli atomi ruotano molto rapidamente e in un condensato
di Bose-Einstein, un numero sufficientemente elevato di atomi si
uniscono per creare una forza perpendicolare alla loro rotazione.
Ciò produrrebbe un campo di forze simile a quello gravitazionale,
che potrebbe essere controllato in ogni direzione. In un disco
superconduttore ad alta temperatura, il piccolo effetto
gravitazionale di ogni singolo atomo è da moltiplicarsi per i
miliardi di atomi contenuti nel disco. Utilizzando circa un
kilowatt di energia elettrica, il dispositivo creato da Ning Li,
potrebbe potenzialmente produrre un campo di forze in grado di
contrastare la gravità terrestre su un’area di circa 30 cm di
diametro (una zona che si estenderebbe dalla superficie terrestre
fino allo spazio aperto, fuori atmosfera).
Quando uno ione ruota attorno ad un campo magnetico, la sua
massa compie un determinato tragitto a causa del movimento
rotazionale. Tale effetto, in accordo con la teoria della Relatività
Generale di Einstein, produrrebbe un campo gravitomagnetico
(seppur di debole intensità). Gli ioni, ovviamente, hanno una
massa infinitamente più piccola rispetto alla Terra. Ma un’altra
importante differenza con la Terra è che essi ruotano ad una
velocità assai elevata: circa un quadrilione di giri al secondo!
(…rispetto alle 24 ore che il nostro pianeta impiega per compiere
un solo giro su se stesso). Ed è proprio questa velocità
estremamente elevata di rotazione, che va a compensare la massa
estremamente piccola degli ioni. La rotazione degli ioni, crea
dunque un campo gravitoelettrico41, perpendicolare al loro asse di
rotazione. In natura, secondo Ning Li, questo campo
gravitoelettrico rimane inosservato perché gli ioni sono sempre
disposti in modo casuale; il che causa un annullamento reciproco
dei loro piccolissimi campi gravitoelettrici. In un condensato di
Bose-Einstein, in cui tutti gli ioni si comportano come se ne
esistesse soltanto uno, accade invece qualcosa di molto diverso.
Infatti, in un superconduttore ad alta temperatura, in cui gli ioni
si ritrovano tutti allineati da un campo magnetico, i campi
gravitoelettrici generati dagli ioni, dovrebbero anch’essi
allinearsi. Tutti questi effetti, dovrebbero teoricamente rendersi
sempre più evidenti, man mano che si aumentano le dimensioni
del disco superconduttore.
La dottoressa Ning Li, sostenne, a suo tempo, che i risultati
sperimentali da lei ottenuti confermavano le sue teorie.
All’inizio degli anni ’90, le affermazioni di Ning Li sul fatto di
essere riuscita a creare dei dispositivi in grado di contrastare la
forza di gravità, vennero riportate dalla stampa popolare e da
alcune riviste di divulgazione scientifica con un certo entusiasmo.
Tuttavia, nel 1997, Ning Li pubblicò un articolo in cui veniva
descritto un esperimento, dove l’effetto antigravitazionale
riscontrato appariva molto piccolo (se non addirittura inesistente).
Anche se non esistono prove che la AC Gravity LLC abbia
effettuato altri lavori nel corso degli ultimi quindici anni (oltre a
quelli resi pubblici alla fine degli anni ’90), la società creata da
Ning Li per la ricerca nel campo dell’antigravità, figura a
tutt’oggi nella lista delle “attività ancora in vita”. Per quanto
riguarda l’allora collega di Ning Li, Douglas Torr, anche per lui
le ultime notizie risalgono alla fine degli anni ’90. In quegli anni
infatti, alla University of South Carolina, Torr lavorò insieme a
Timir Datta ad un progetto parallelo a quello di Ning Li, per lo
sviluppo di un “generatore di gravità”. Secondo un documento
41
Nella Relatività Generale, la componente gravitoelettrica di un campo
gravitazionale, è analoga alla componente del campo elettrico di un campo
elettromagnetico.
trapelato dall’ Office of Technology Transfer presso la University
of South Carolina e confermato dal giornalista (di Wired) Charles
Platt, nel 1998, il dispositivo in questione sarebbe riuscito a creare
un “fascio di forza” in qualsiasi direzione desiderata e l’università
della South Carolina aveva già pianificato di brevettare tale
invenzione. Da quel giorno, non fu mai più resa pubblica alcuna
informazione inerente a tale progetto di ricerca da parte della
University of South Carolina; e del “generatore di gravità”, non
se ne seppe più nulla.
Dall’elettrogravità all’elettroidrodinamica
42
Il termine "lifter" ("sollevatore") è una descrizione accurata dal momento
che non si tratta di un dispositivo anti-gravità, ma che, esattamente come un
razzo, ottiene portanza dalla forza di reazione derivante dall'accelerazione
verso il basso dell'atmosfera in cui viene posto. Una convinzione diffusa è che
il lifter basi il suo funzionamento su un qualche ignoto fenomeno di interazione
tra la carica elettrica ed il campo gravitazionale oppure che essa sia dovuta in
questi dispositivi è conosciuto (esso rientra nel campo delle leggi
fisiche dell’elettroidrodinamica)43, ma ha dato luogo a diverse
speculazioni; soprattutto da quando è stato annunciato che tali
dispositivi, funzionerebbero anche nel vuoto (ossia in assenza
dell’atmosfera terrestre)44. Dopo il successo che i “lifters” hanno
avuto sul web, è stato pubblicato qualche studio sulla base di
alcune conoscenze sperimentali e teoriche, in cui si è giunti alla
conclusione che il fenomeno esiste realmente e che si basa sul
vento ionico (nonché sull’effetto corona), ma che tuttavia non può
assolutamente manifestarsi in assenza di un atmosfera45 (o
comunque di un gas dielettrico idoneo a tale processo fisico).
Il fenomeno in questione si basa principalmente sull’effetto
corona, che permette la ionizzazione delle molecole d’aria in
prossimità degli spigoli vivi dei lifters. Solitamente vengono
43
L’elettroidrodinamica (in inglese, nell’acronimo EHD), anche conosciuta
come elettrofluidodinamica (EFD) o elettrocinesi, è lo studio della dinamica
dei fluidi elettricamente carichi. L’EHD copre i seguenti tipi di meccanismo di
trasporto di fluidi e particelle: elettroforesi, elettrocinesi, dielettroforesi,
elettro-osmosi ed elettrorotazione. In generale, i fenomeni riguardano la
conversione diretta di energia elettrica in energia cinetica, e viceversa.
44
Sul lavoro di Brown, sono stati condotti diversi studi alla US Air Force da
parte di R. L. Talley nel 1990, dallo scienziato Jonathan Campbell della NASA
in un esperimento del 2003 ed è inoltre stato scritto un articolo scientifico sul
caso da parte di Martin Tajmar nel 2004. In tutti questi studi, si è osservato che
nessuna spinta può verificarsi nel vuoto; occorre sempre la presenza di aria o
di un gas dielettrico idoneo a tale processo fisico.
45
Le caratteristiche dell'aria, specie l'umidità, possono ridurre la spinta del
lifter. La stessa pressione dell'aria costituisce un parametro critico, infatti in
area rarefatta la distribuzione dell'impulso da parte degli ioni in moto tra gli
elettrodi avviene con più difficoltà ed il cammino libero medio superiore
permette alle particelle di raggiungere velocità maggiori, riducendo la quantità
di moto complessiva trasferita.
utilizzati due elettrodi (uno piccolo/filiforme e l’altro
grande/lamellare e liscio), aventi tra loro un’elevata tensione, che
oscilla tra qualche kiloVolt e diversi milioni di Volt. La distanza
più efficace tra i due elettrodi, è ad un gradiente di campo elettrico
di circa 10 kV/cm, che si situa appena al di sotto della tensione di
rottura dell’aria tra due punti, ad un livello di densità di corrente
generalmente indicato con il nome di “condizione di corrente
della corona satura”. Questo stato genera un alto gradiente del
campo elettrico, attorno al piccolo elettrodo positivamente carico.
Attorno a questo elettrodo, si verifica il processo di ionizzazione;
ovvero, gli elettroni vengono rimossi dagli atomi, ritrovandosi
così nell’ambiente circostante (essi vengono letteralmente tirati
fuori, estrapolati, dalla carica dell’elettrodo). Ciò da origine ad
una nuvola di ioni positivi, attirati dall’elettrodo negativo grande,
dove diventano nuovamente neutri. Durante questo processo, si
producono milioni d’impatti tra gli ioni carichi e le molecole
neutre dell’aria nello spazio circostante al lifter, causando un
trasferimento di energia cinetica tra le due particelle, che dà
origine ad una forza direzionale sul sistema di elettrodi. L'effetto
Biefeld-Brown trasforma quindi una differenza di potenziale
elettrico in energia cinetica; per cui ha le caratteristiche di un vero
e proprio effetto elettrocinetico. Questo effetto può essere
utilizzato per la propulsione di lifters, pompe idrauliche e
recentemente anche nei sistemi di raffreddamento
elettroidrodinamici (EHD).
Figura 2.4. Un lifter costruito artigianalmente, che si libra nell’aria.
Propulsori magnetoidrodinamici
46
Il riferimento ovviamente, è ad una scena del film di Robert Zemeckis del
1989, “Ritorno al Futuro (parte II)”, con Michael J. Fox; dove un’ enorme
insegna pubblicizzava l’uscita nei cinema del diciannovesimo episodio della
saga de “Lo Squalo” (in un super 3D) e ad un tratto, da tale insegna, usciva
l’immagine olografica di uno squalo gigantesco che andava ad afferrare tra i
denti il malcapitato Marty McFly (Michael J. Fox).
47
Il meme (dal greco mímēma «imitazione») è un'entità consistente in una
informazione riconoscibile dall'intelletto, relativa alla cultura umana che è
replicabile da una mente. In termini più specifici, un meme sarebbe "un'unità
auto-propagantesi" di evoluzione culturale, analoga a ciò che il gene è per la
genetica; quindi un elemento di una cultura o civiltà trasmesso da mezzi non
genetici, soprattutto per imitazione.
dei portatori di carica elettrica all'interno del fluido stesso. Il
fluido conduttore tipico è generalmente un plasma, cioè un gas di
ioni che si muovono individualmente e collidono fra loro. Gli
studi nel campo della magnetoidrodinamica, in questi ultimi anni
hanno subito un notevole sviluppo grazie all’estendersi dei campi
di applicazione (dalla propulsione dei veicoli spaziali, ai
fenomeni cosmici nell'alta atmosfera; dalla regolazione dei
reattori nucleari, agli studi sulla fusione nucleare).
Uno dei campi d’applicazione più interessanti della MHD, è
indubbiamente quello inerente allo sviluppo di propulsori
spaziali. In genere i propulsori magnetoidrodinamici, vengono
tecnicamente chiamati: acceleratori magnetoidrodinamici (o più
semplicemente, acceleratori MHD). Un acceleratore MHD è
sostanzialmente un convertitore MHD che mette in movimento
un fluido conduttore, grazie a un campo elettrico e ad un campo
magnetico combinati assieme. Il principio di base è uguale a
quello di un motore elettrico. Entrambi infatti possiedono un
induttore48 (elettromagnete) generante un campo magnetico in un
indotto49. Infatti, nel caso di un motore convenzionale, l’indotto è
solido (è una bobina costituita da un avvolgimento di filo
metallico), mentre nel caso di un acceleratore MHD, l’indotto è
fluido (è un liquido conduttore che potrebbe essere dell’acqua
salata, un metallo liquido oppure un gas ionizzato chiamato
plasma). Gli acceleratori MHD non utilizzano delle parti
meccaniche mobili (contrariamente ai motori elettrici
tradizionali); essi convertono direttamente l’energia
elettromagnetica in energia cinetica. In pratica, un fluido viene
messo in movimento in un campo magnetico, che genera a sua
volta una corrente elettrica, raccolta alle estremità degli elettrodi
immersi nel fluido e trasformata in carica.
48
L'induttore è un componente elettrico che genera un campo magnetico al
passaggio di corrente elettrica (continua o alternata od impulsiva).
49
Il rotore (definito anche come indotto nei motori in corrente alternata), in
una macchina avente parti in movimento, è l'insieme delle parti rotanti.
Gli acceleratori MHD progettati per i voli nello spazio, vengono
generalmente chiamati: propulsori elettromagnetici al plasma.
Essi fanno parte di una nuova generazione di propulsori spaziali,
prevista per l'esplorazione spaziale in un futuro non molto
lontano. Ma vediamo più in dettaglio i principi fisici che stanno
alla base di questi acceleratori.
Un gas ionizzato può essere accelerato grazie alle forze di
Lorentz50; ossia grazie ad un’interazione di correnti elettriche, che
prende forma attraverso questo gas, con dei campi magnetici sia
direttamente indotti da queste correnti (self-field accelerators), sia
generate da dei selenoidi51 esterni (applied-field accelerators). I
propulsori equipaggiati con selenoidi, possono anche essere
progettati per funzionare senza scarica elettrica nel gas (e dunque
senza elettrodo), per induzione. In questo caso, è un campo
magnetico rapidamente variabile che induce delle correnti
elettriche nel gas (generando insieme, ossia combinandosi, le
forze di Lorentz). La propulsione elettromagnetica è la sotto-
categoria più evoluta della propulsione elettrica, che ne conta tre:
- La propulsione elettrotermica: queste interazioni
possono servire, in un primo approccio, a comprimere un
arco elettrico di grande intensità in una colonna
50
La forza di Lorentz (o forza elettromagnetica), è la forza che subisce una
particella carica in un campo elettromagnetico. È la principale manifestazione
dell’interazione elettromagnetica. La forza di Lorentz, applicata in diverse
situazioni, provoca l’insieme delle interazioni elettriche e magnetiche
osservate.
51
Un solenoide è una bobina di forma cilindrica formata da una serie di spire
circolari molto vicine fra loro e realizzate con un unico filo di materiale
conduttore. Se la lunghezza dell'avvolgimento di spire è minore di 10 volte il
raggio della singola spira è definito bobina, mentre se la lunghezza
dell'avvolgimento è maggiore di 10 volte il raggio è definito solenoide. Il
solenoide è uno strumento solitamente usato come induttore per lo studio e le
applicazioni dell'elettromagnetismo.
d’idrogeno, al fine di riscaldare questo gas e di espellerlo
(in espansione) attraverso un ugello divergente. In questo
caso si parla di propulsore elettrotermico, solitamente
chiamato Arcjet.
52
La legge di Lenz, formulata dal fisico russo Heinrich Friedrich Emil Lenz
nel 1834, è una conseguenza del terzo principio della dinamica (di azione e
reazione) e della legge di conservazione dell'energia che determina la direzione
della forza elettromotrice risultante dall'induzione elettromagnetica in un
circuito elettrico. La legge stabilisce che la variazione temporale del campo
magnetico genera una forza elettromotrice che contrasta la variazione.
propulsore elettromagnetico ad alta potenza (da qualche
centinaio di kilowatt fino a molti megawatt di energia per
propulsore); sicuramente uno dei più studiati fin dagli
anni ’60 del secolo scorso. Questo propulsore a volte
viene chiamato anche con l’acronimo: LFA (dall’inglese:
Lorentz Force Accelerator), nelle sue versioni più
aggiornate e moderne. I propulsori MPD più performanti
permettono a volte una spinta molto forte (fino a 200 N) e
delle elevate velocità d’espulsione; circa un centinaio di
km al secondo, con un impulso specifico (per peso)
dell’ordine di 10'000 secondi. Questo principio fisico di
propulsione (concettualizzato già nel 1964), di natura
elettromagnetica, utilizza la forza di Lorentz (ossia la
forza elettromagnetica risultante dall’interazione tra una
corrente elettrica e un campo magnetico) per accelerare un
gas ionizzato (chiamato plasma) che fornisce a sua volta
una spinta a reazione.
Un propulsore MPD, è composto da un ugello divergente
munito di elettrodi. Al centro dell’ugello si situa il catodo
sotto forma di un tondino metallico assiale. Sui bordi del
“porta-uovo” è collocato un anodo circolare.
Dell’idrazina, o più frequentemente un gas raro
(generalmente l’Argon o lo Xeno) viene iniettato alla base
dell’asta centrale. Un forte arco elettrico (con un’intensità
di diverse migliaia d’Ampère) viene emesso (generato)
assialmente dal catodo che ionizza il gas (trasformandolo
quindi in plasma). Questa forte corrente elettrica assiale,
induce attorno al plasma un forte campo magnetico
azimutale. La corrente elettrica si espande in seguito
radialmente a forma di corona, verso l’anodo in uscita
dell’ugello; ed è proprio qui che questa corrente radiale,
interagisce con il campo magnetico azimutale, generando
una forza di Lorentz propulsiva (direzionabile secondo
l’asse geometrico del sistema). Il plasma viene accelerato
elettromagneticamente attraverso l’uscita divergente,
generando così una spinta a reazione. Diversamente dalla
propulsione spaziale convenzionale, questa propulsione
non viene generata dalla combustione.
Tuttavia questi propulsori, nonostante le loro prestazioni
siano tutt’altro che irrilevanti, non hanno mai suscitato un
grande interesse da un punto di vista commerciale, a causa
di vari problemi. Uno di questi, è che l’energia richiesta
per delle prestazioni ottimali, è dell’ordine delle centinaia
di kilowatt. Gli attuali sistemi di alimentazione per i
veicoli spaziali destinati a viaggi interplanetari (come ad
esempio i generatori termoelettrici a radioisotopi e i
pannelli solari), non sono infatti in grado di produrre tutta
quell’energia. Una speranza poteva essere riposta nel
Progetto Prometheus della NASA, che aveva lo scopo di
realizzare dei sistemi a propulsione nucleare (per delle
missioni nello spazio di lunga durata), in grado di
generare centinaia di kilowatt di potenza; ma è stato
abbandonato nel 2005 (dopo soli due anni di ricerche).
53
Un plasma si caratterizza per alcune grandezze, fra cui alcune (temperatura
e densità di particelle cariche) sono tipiche di un fluido; altre, come la
lunghezza di Debye e la frequenza di plasma, sono caratteristiche del plasma
come insieme di cariche in movimento. Dato che nella espressione della
lunghezza di Debye compare un rapporto di temperatura e densità, ciò non
magnetici. Lo studio di queste interazioni concerne una branca
della MHD chiamata: “a debole numero di Reynolds
magnetico”54 (meno documentata e fondamentalmente più
complessa della “MHD dei plasmi caldi” a forte numero di
Reynolds magnetico; in opera ad esempio in astrofisica e nei
plasmi termonucleari). Così, un plasma “a due temperature”
(detto anche “plasma bitemperatura”) sotto parametro Hall
elevato (ossia quando il campo magnetico è intenso), in un
convertitore MHD, è la sede del fenomeno dell’instabilità
elettrotermica (difficile da padroneggiare).
La MHD-gas è stata oggetto di ricerche molto importanti nei paesi
industrializzati, a cavallo tra gli anni ’60 e gli anni ’70; ma tali
ricerche, sono state in seguito abbandonate a causa di diversi
ostacoli tecnici non indifferenti. Tra questi vi è appunto
l’instabilità elettrotermica, ma anche ad esempio la massa troppo
elevata degli elettromagneti da installare nei sistemi a propulsione
MHD-gas.
Un generatore MHD è un convertitore MHD che trasforma
l’energia cinetica di un fluido conduttore, direttamente in
elettricità. Il principio di base è fondamentalmente lo stesso di
quello di un qualsiasi generatore elettrico. I due tipi di generatore
utilizzano entrambi un induttore (elettromagnete) generante un
campo magnetico in un indotto (rotore).
Come già detto (ma forse è bene ripeterlo, vista la similitudine tra
i termini: acceleratore MHD, generatore MHD e convertitore
MHD): nel caso di un generatore convenzionale, l’indotto è
solido (è una bobina costituita da un avvolgimento di filo
metallico), mentre nel caso di un generatore MHD, l’indotto è
fluido (è un liquido conduttore che potrebbe essere dell’acqua
54
In magnetoidrodinamica, il numero di Reynolds magnetico può essere
definito, per analogia con il numero di Reynolds in idrodinamica. Esso indica
il rapporto fra i termini di convezione e di diffusione, in un fluido magnetico.
salata, un metallo liquido oppure un gas ionizzato chiamato
plasma). I generatori MHD non utilizzano delle parti meccaniche
mobili (contrariamente ai generatori elettrici tradizionali); essi
convertono direttamente l’energia elettromagnetica in energia
cinetica. In pratica, lo ripetiamo, un fluido viene messo in
movimento in un campo magnetico, che genera a sua volta una
corrente elettrica, raccolta alle estremità degli elettrodi immersi
nel fluido e trasformata in carica.
55
A dire il vero tale velocità (circa 300'000 km/s), non è pienamente
raggiungibile da oggetti dotati di massa; qualunque corpo in movimento infatti,
in base alle leggi della Relatività Ristretta, può toccare velocità vicine a quella
della luce, ma mai raggiungerla pienamente. Massa ed energia cinetica, alla
velocità della luce, raggiungono matematicamente dei valori infiniti (a causa
del fattore di Lorentz); da cui il limite definito appunto dalla velocità dei fotoni
(costituenti fondamentali della luce visibile).
spazio” attorno all’astronave e lasciare che sia questa bolla a
muoversi, in modo analogo ad un’onda che si sposta sulla
superficie del mare. Per un astronauta che si trovasse dentro la
bolla, lo spazio a lui circostante risulterebbe a tutti gli effetti
“fermo”; quindi egli non si sposterebbe in modo “classico” nello
spazio, e soprattutto non violerebbe il limite della velocità della
luce.
Quando la bolla si sposta (nel senso di marcia dell’astronave),
deforma lo spazio che la circonda; lo spazio davanti viene
contratto, mentre quello che sta dietro viene “espanso”. In questo
modo, anche la bolla non viola il limite della velocità della luce,
rispetto allo spazio circostante; però, la somma di tutti questi
effetti, fa sì che per un osservatore che guardi dall’esterno,
l’astronave sembrerebbe viaggiare più veloce della luce. Il
sistema può funzionare, ma finora solo nella teoria. Occorre
qualche scoperta pratica, che confermi la validità dell’ipotesi. Ed
è quello che stanno cercando di fare alla NASA, dove alcuni
scienziati, da pochi anni a questa parte, stanno provando a fare il
massimo possibile con le più recenti tecnologie disponibili;
ovvero, creare microscopiche incurvature nello spazio-tempo,
così piccole da essere al limite del percettibile (con gli attuali
strumenti di misurazione). Non sarà ancora il motore a curvatura
di Star Trek, ma se ci riuscissero, sarebbe il primo passo verso la
realizzazione di un sogno, per ora confinato solo al mondo
fantascienza.
La propulsione a curvatura è stata studiata a fondo all’inizio degli
anni ’90, dal fisico teorico messicano Miguel Alcubierre Moya.
Egli divenne famoso nel 1994, dopo la pubblicazione di un
articolo intitolato: “The Warp Drive: Hyper-fast travel within
general relativity” (tradotto: “Il motore a curvatura: viaggio iper-
veloce all'interno della relatività generale”), apparso sulla rivista
scientifica “Classical and Quantum Gravity” (pubblicata a
Bristol, nel Regno Unito).
Il propulsore di Alcubierre (talvolta definito anche metrica di
Alcubierre, in riferimento al tensore metrico), fa parte di una
teoria speculativa basata su una soluzione delle equazioni di
campo di Einstein (incluse nella RG), secondo la quale un veicolo
spaziale potrebbe raggiungere velocità superluminali (FTL –
Faster Than Light), con la creazione di un campo la cui densità
energetica56 sia più bassa di quella del vuoto (inteso in termini
quantistici); ovvero con la creazione di un campo ad energia
negativa. Invece di superare la velocità della luce all’interno di un
sistema di riferimento locale, un veicolo spaziale, come abbiamo
già detto, si sposterebbe in questo modo nello spazio (ossia
sfruttando questo processo fisico, per ora solo teorico),
contraendo lo spazio dinanzi a sé ed espandendolo nella parte
posteriore. Per cui, in un altro sistema di riferimento (non locale),
la sua velocità di spostamento nello spazio apparirebbe
superluminale (ossia superiore a quella della luce).
Sebbene la metrica proposta da Alcubierre sia matematicamente
valida (poiché coerente con le equazioni di campo di Einstein),
potrebbe tuttavia non essere fisicamente significativa (nel senso
che potrebbe non avere alcun riscontro nel mondo reale e dunque
annullare a priori la possibilità di realizzare concretamente un
simile progetto). Infatti, il propulsore a curvatura proposto da
Alcubierre, implica una densità energetica negativa, che come
abbiamo visto nelle prime pagine di questo libro, rientra nel
dominio della materia esotica. Per cui, se la materia esotica non
esistesse, non sarebbe possibile neppure costruire il dispositivo
progettato da Alcubierre.
Tuttavia, a conclusione del suo articolo originale del 1994,
Alcubierre fa notare che (seguendo la logica di uno studio sui
cunicoli spazio-temporali attraversabili) l’effetto Casimir
potrebbe soddisfare il fabbisogno di energia negativa, richiesto
per il suo dispositivo57. Un altro problema emerge dal fatto che,
56
La densità energetica è la quantità di energia immagazzinata in un dato
sistema o regione dello spazio per unità di volume o per unità di massa, a
seconda del contesto, anche se nel secondo caso si parla più correttamente di
energia specifica.
57
Secondo il fisico Harold G. White (autore di uno studio su un propulsore
spaziale che funzionerebbe sfruttando le fluttuazioni del vuoto quantistico), la
quantità richiesta di energia negativa potrebbe essere inferiore rispetto a quanto
anche se la metrica di Alcubierre è coerente con la RG,
quest’ultima (ossia la relatività generale) non include la
meccanica quantistica; e alcuni fisici sostengono che una teoria
della gravità quantistica (che comprende entrambe le teorie: RG
e MQ), eliminerebbe queste soluzioni (che consentono di
viaggiare a ritroso nel tempo)58 permesse dalla relatività generale.
Per chi ha familiarità con gli effetti della relatività ristretta (come
la contrazione di Lorentz e la dilatazione del tempo), la metrica
di Alcubierre presenta alcuni aspetti apparentemente peculiari. In
particolare, Alcubierre ha dimostrato che un veicolo spaziale che
utilizzi il suo sistema propulsivo a curvatura, viaggia su una
geodetica59 in caduta libera anche durante la fase di accelerazione
della bolla spazio-temporale generata dal propulsore a curvatura
(il suo equipaggio, in fase di accelerazione, si troverebbe in
caduta libera, senza tuttavia provare la classica sensazione di
“forte pressione” dovuta alle forze gravitazionali di
accelerazione). Tuttavia, enormi forze di marea60 sarebbero
58
Il dispositivo di Alcubierre, andrebbe infatti contro il principio conosciuto
come “Congettura di protezione cronologica” (formulata da Stephen
Hawking), che ipotizza che le leggi della fisica siano tali da impedire la nascita
di curve temporali chiuse, almeno su scale che non siano sub-microscopiche.
59
In matematica, e più precisamente in geometria differenziale, una geodetica
è una particolare curva che descrive localmente la traiettoria più breve fra punti
di un particolare spazio. Lo spazio in questione può essere una superficie, una
più generale varietà riemanniana, o un ancor più generale spazio metrico.
60
La forza di marea (in genere usato al plurale, forze di marea o forze mareali,
e anche con l'espressione effetti di marea) è un effetto secondario della forza
di gravità. Quando un oggetto molto grande subisce l'influenza gravitazionale
di un altro, la forza gravitazionale può variare considerevolmente da una parte
all'altra dell'oggetto. Questo tende a distorcerne la forma, senza cambiarne il
volume. Supponendo che l'oggetto fosse inizialmente una sfera, le forze di
presenti in prossimità dei bordi della bolla a causa di una forte
curvatura locale dello spazio-tempo; ma un’adatta
specificazione/definizione della metrica, manterrebbe gli
occupanti del veicolo spaziale molto piccoli, all’interno del
volume occupato dalla loro astronave.
Nella teoria della relatività generale, occorre specificare
inizialmente una distribuzione plausibile di materia ed energia, ed
in seguito trovare la geometria dello spazio-tempo ad essa
associata; ma è anche possibile eseguire le equazioni di campo di
Einstein nell’altra direzione, prima specificando una metrica e poi
trovando il tensore-energia-impulso61 ad essa associato (e questo
è ciò che Alcubierre ha fatto, costruendo la sua metrica).
Questo in pratica significa che la soluzione trovata può violare
varie condizioni di energia, richiedendo inoltre la presenza di
materia esotica.
In un articolo pubblicato nel 2002, il fisico José Natário, sostenne
che i membri dell’equipaggio di un veicolo spaziale con
propulsione a curvatura, non potrebbero controllare, dirigere o
fermare la loro astronave, perché la stessa, non sarebbe in grado
di trasmettere segnali sulla parte anteriore della bolla. Inoltre, in
un articolo un po’ più recente, i fisici Carlos Barceló, Stefano
Finazzi, e Stefano Liberati, hanno utilizzato la teoria quantistica
per dimostrare che il propulsore a curvatura di Alcubierre, non
può raggiungere velocità superluminali (FTL) poiché a tali
velocità, a causa delle alte temperature generate dalla radiazione
di Hawking, qualsiasi cosa all’interno della bolla verrebbe
distrutta (destabilizzando anche la bolla). Nell’articolo si sostiene
inoltre che tali problemi non vi sarebbero, se la velocità della
bolla fosse inferiore a quella della luce (tuttavia, non
61
Il tensore energia impulso, anche detto tensore energia momento, è un
tensore definito nell'ambito della teoria della relatività. Esso descrive il flusso
di energia e quantità di moto associate ad un campo.
mancherebbe ugualmente la necessità della presenza di materia
esotica).
I fisici Brendan McMonigal, Geraint F. Lewis e Philip O'Byrne,
sostengono che quando un veicolo spaziale con propulsione a
curvatura, decelera passando da una velocità superluminale ad
una velocità sub-luminale, le particelle che la sua bolla ha
raccolto durante il viaggio nello spazio, verrebbero rilasciate con
esplosioni energetiche simili a quelle di un boom sonico generato
da un’onda d’urto. Nel caso in cui tali particelle fossero rivolte
nel senso di marcia del veicolo spaziale, esse disporrebbero di
energia a sufficienza per distruggere qualsiasi cosa, di fronte al
veicolo spaziale in questione.
La quantità di energia negativa richiesta per la propulsione a
curvatura di Alcubierre non è ancora nota. Pfenning e Allen
Everett della Tufts University, ritengono che una bolla di
curvatura che viaggi ad una velocità di dieci volte superiore a
quella della luce, dovrebbe avere uno spessore di non più di 10-
32
metri (dunque vicino alla lunghezza limite di Planck, che è di
1,6 x 10-35 metri). Nei calcoli originali di Alcubierre, una bolla
molto grande, in grado di contenere un veicolo spaziale di 200
metri di diametro, richiederebbe una quantità totale di materia
esotica superiore alla massa dell’universo osservabile.
Inoltre, rimane anche il fatto che “spingere/forzare” la materia
esotica fino a farle raggiungere uno spessore di 10-32 metri, risulta
essere fisicamente impossibile. Vincoli simili possono essere
applicati solo al Tubo di Krasnikov.62
62
Il Tubo di Krasnikov è un ipotetico meccanismo per il viaggio nello spazio,
implicante la permanente curvatura dello spazio-tempo dentro i tunnel
superluminali. Serguei Krasnikov (fisico teorico russo), identificò
un'incrinatura critica nel progetto della curvatura dello spazio di Miguel
Alcubierre, per i viaggi spaziali: se la curvatura dello spazio si muove più
veloce della velocità della luce, non può essere controllata dall'interno.
L'analisi di Krasnikov dimostra che a velocità superluminali, l'interno della
bolla viene causalmente isolata tramite la sua superficie dall'esterno. I fotoni
non possono passare dall’interno all’esterno della bolla spazio-temporale.
Chris Van den Broeck, è riuscito a modificare la metrica di
Alcubierre, creando così una versione alternativa del progetto
iniziale, in cui la quantità di materia esotica richiesta è assai
inferiore rispetto a quella prevista da Alcubierre. Tuttavia, questa
versione modificata della metrica, pone la navetta spaziale in uno
spazio-tempo a “collo di bottiglia” il cui diametro, nel punto più
stretto, è di circa 10-32 metri.
La soluzione escogitata da Van Den Broek richiedeva
"solo" alcune masse solari di energia negativa e positiva, a fronte
degli innumerevoli miliardi di masse galattiche usciti dai calcoli
di Pfenning e Ford. Il vistoso calo del fabbisogno energetico era
stato ottenuto da Van Den Broek grazie a una sorta di gioco di
prestigio (teorico), reso possibile dalla relatività generale: il
volume racchiuso da una superficie completamente ripiegata su
63
Si tratta di un sistema che replica, con le necessarie modifiche,
l'interferometro ideato da Albert A. Michelson nel 1880 e usato insieme a
Edward W. Morley nel celebre esperimento per mezzo del quale i due
scienziati intendevano dimostrare l'attrito esercitato dall'etere sulla luce.
L'interferometro di White e Juday è disposto in modo da separare in due
percorsi perpendicolari un raggio prodotto da un laser a elio/neon a 633
nanometri. Su uno dei due bracci è situato un piccolo anello che contiene
quattro condensatori ceramici in titanato di bario, caricati a 23.000 volt.
spazio-temporali prodotte dall’espansione e dalla contrazione
dello spazio-tempo della metrica di Alcubierre. Il lavoro è stato
descritto in un articolo di Harold G. White intitolato: Warp Field
Mechanics 101 e reso pubblico dalla NASA. Alcubierre, tuttavia,
ha espresso il suo scetticismo su tale esperimento, affermando:
“Dal mio punto di vista, non vi è alcun modo di realizzare un
simile dispositivo; almeno non al giorno d’oggi come neppure nei
prossimi secoli a venire. Se ciò accadrà, sarà solo in un futuro
lontano, molto lontano”.
Il quadro teorico per la realizzazione di eventuali esperimenti atti
a rivelare la reale possibilità (odierna o futura) di costruire dei
propulsori a curvatura spazio-temporale, prende forma nel 2003
con il lavoro di Harold G.White ed in seguito con quello di Eric
W. Davis, nel 2006 (quest’ultimo pubblicato dall’American
Institute of Physics – AIP). In tale contesto, sia White che Davis,
analizzano in che modo la materia barionica (almeno da un punto
di vista matematico), potrebbe assumere le caratteristiche
dell’energia oscura. Nei loro studi, essi hanno descritto come una
densità di energia positiva di forma toroidale, possa dare origine
ad una regione di spazio-tempo a pressione negativa e di forma
sferica. Ma la cosa più interessante, è che in questi studi la
necessità di un coinvolgimento della materia esotica, può
tranquillamente essere esclusa.
Le equazioni di campo di Einstein mostrano che, in condizioni
ordinarie, per qualsiasi curvatura significativa dello spazio-tempo
che si volesse ottenere, sono sempre necessarie delle quantità di
energia relativamente elevate. In tale contesto, in cui le nuove
teorie richiedono spesso delle quantità di energia sempre più
basse, i metodi di misurazione disponibili stanno raggiungendo i
limiti di ciò che è tecnicamente possibile. È questo il motivo per
64
Il programma per la realizzazione degli statoreattori a propulsione nucleare,
prese il nome in codice di "Project Pluto" (in italiano, "Progetto Plutone") e fu
avviato nel gennaio del 1957. I lavori di sviluppo furono portati avanti dal
Lawrence Berkeley National Laboratory, che realizzò un paio di prototipi di
statoreattore a propulsione nucleare chiamati Tory. Il primo di essi ricevette il
nome di Tory-IIA, e funzionò per la prima volta il 14 maggio 1961,
raggiungendo il massimo della potenza il 5 ottobre successivo.
di una semplice e comune iniziativa popolare); ma non tutti i
personaggi noti dell’epoca in questione, erano di quell’avviso.
Bolesław Michal Gładych, il leggendario pilota militare polacco
(alleato con le forze aeree di Francia, Polonia, Regno Unito e Stati
Uniti) in servizio durante la seconda guerra mondiale, a quei
tempi affermò:
“Almeno 14 università degli Stati Uniti ed altri centri di ricerca
sono al lavoro per rompere la barriera della gravità; e a
sostenere la ricerca di base con progetti segreti di svariati milioni
di dollari, è la nostra industria aeronautica”.
A quell’epoca, le notizie che arrivavano al grande pubblico sulla
ricerca in seno al controllo della gravità, avevano praticamente
rivelato “giocatori e risorse”; ma rimanevano comunque segrete
le caratteristiche specifiche di tale ricerca, nonché le identità dei
vari organi di coordinamento. Ancora oggi, dopo più di mezzo
secolo dalla prime ricerche scientifiche sul controllo della gravità,
moltissime persone al mondo ritengono che il livello tecnologico
raggiunto nell’ambito dell’aeronautica militare statunitense (dove
in alcuni settori vige ovviamente l’assoluta segretezza), sia
elevatissimo; forse non al punto di riuscire a controllare del tutto
la gravità, ma perlomeno a quello di limitarne gli effetti più
preponderanti.
Recenti analisi storiche hanno attirato l’attenzione di quelle
aziende ed agenzie , che all’epoca parteciparono alla ricerca sul
controllo della gravità in ambito aeronautico. James E. Allen,
consulente alla BAE Systems nonché professore di ingegneria
presso la Kingston University di Londra, parla di questi progetti
di ricerca in un lungo articolo sui nuovi sistemi di propulsione,
apparso sulla rivista “Progress in Aerospace Sciences”. Lo studio
del Dr. David Kaiser (professore associato di Storia della Scienza
al MIT di Cambridge), rivela esplicitamente i contributi elargiti
all’epoca dalla “Gravity Research Foundation”, agli aspetti
pedagogici dell’età d’oro65 della relatività generale. Il Dr. Joshua
Goldberg, della Syracuse University (dello Stato di New York),
ha descritto il supporto fornito a quell’epoca dalla Air Force degli
Stati Uniti, alla ricerca nel campo della relatività generale.
Nicholas Julian Cook, un giornalista inglese specializzato in
reportages nel campo dell’aeronautica militare ed ex direttore
della rivista “Jane's Defence Weekly” (dove vi lavorò per dieci
anni), ha richiamato l’attenzione sui progetti di ricerca inerenti
alla “propulsione antigravitazionale”, attraverso il suo libro:
“The Hunt for Zero Point” e successivi documentari televisivi;
dove egli fa spesso riferimento ai notevoli progressi tecnologici
raggiunti in assoluta segretezza dall’aeronautica militare
statunitense (in una sezione top-secret attiva da oltre
cinquant’anni e addirittura non conosciuta dall’attuale presidente
degli Stati Uniti; come non lo è mai stato per i precedenti, ad
eccezione, si presume, dei presidenti che governarono gli Stati
Uniti dal 1945 al 1974), dopo circa sessant’anni di ricerche; senza
escludere inoltre, la possibilità che una sorta di “propulsore
antigravitazionale” (o comunque in grado di diminuire
notevolmente il peso di un velivolo, attraverso dei processi fisici
ancora poco conosciuti in ambito scientifico ufficiale/civile), sia
già disponibile da circa vent’anni e permetta ad alcuni velivoli
super segreti americani, di spostarsi nell’atmosfera terrestre con
cambiamenti repentini in velocità e direzione, che ricordano
quelli degli UFO. Uno di questi sarebbe il famoso TR-3B (di cui
parlerò tra poco, per concludere con un ultimo tocco di mistero,
questa breve opera sugli aspetti più curiosi e controversi, nonché
ancora poco conosciuti, della forza di gravità ).
Nei primi anni della ricerca sul controllo della gravità, vennero
stilate diverse liste (pubblicate in cinque opere complete) di
istituti di ricerca, siti industriali, uomini politici e dichiarazioni di
eminenti scienziati, tutte ad essa associate. L’Aviation Studies Ltd
65
Con il termine “età d’oro della relatività generale”, in genere si fa riferimento
alla seconda metà del ventesimo secolo (1950 – 2000); ma in special modo agli
anni ’50 e ’60.
di Londra, ha pubblicato un dettagliato rapporto a proposito di tali
attività da parte del “Gravity Research Group”, che fu in seguito
declassificato.
A questo punto, ampliare il discorso sul tema finora trattato,
significherebbe iniziare a parlare di UFO, di ingegneria inversa
su dischi volanti precipitati sul nostro pianeta nel corso degli anni
e recuperati dalle autorità militari dei paesi coinvolti, di alieni, di
testimonianze di noti esponenti della US Air Force, US Navy, US
Army, DIA (Defense Intelligence Agency), CIA e quant’altro
ancora si possa aggiungere per completare il “quadro del
mistero”. Ma non è appunto mia intenzione trasformare questo
volume, in un ennesimo libro sulla questione ufologica; visto che
in commercio, a parer mio, ve ne sono già abbastanza.
Mi concederò dunque solo un piccolo “strappo alla regola”,
chiudendo (come poc’anzi accennato) questo volume, con una
breve parentesi sul “Black Triangle”, più comunemente noto con
il nome di: TR-3B.
66
Edgar Rothschild Fouché, è un ex membro dell’Intelligence dell’Air Force
americana che ha lavorato nell’Area 51. Fouché ha lavorato con diverse
strutture aerospaziali militari e produttori di elettronica negli Stati Uniti. Ha
partecipato alla progettazione, sviluppo, produzione e valutazioni di volo
operativo nei programmi classificati di sviluppo aereo (l’attuale avionica);
inclusi contromisure elettroniche, comunicazioni satellitari, equipaggiamento
di cripto-logica e di sostegno. Durante la sua carriera militare, fu selezionato
nei quadri e in molti programmi di sviluppo dei più recenti cacciabombardieri
dell’Air Force. Altri programmi di ricerca e sviluppo per i quali lavorò dagli
anni ’70, sono ancora classificati Top Secret. Fouché ha ricevuto una
formazione tecnica di oltre 4’000 ore dall’Esercito e dal Governo degli Stati
Uniti, di cui circa la metà in addestramento classificato.
Le navette SR-74 e il TR-3B possono scaricare unità di ricambio
o SRU, carburante, liquidi ed agenti chimici al SON-SIV. Poi, i
sistemi robotizzati del SON-SIV utilizzano queste consegne per
rifornire, calibrare, riparare e rimpiazzare alcuni componenti sui
più recenti satelliti della NSA, la CIA e il NRO (National
Reconnaissance Office), costruiti per orbitare nello spazio.
Riguardo al modello operativo TR-3B, un amico mi disse che non
avrebbe mai dimenticato quando lo vide alla base di Papoose:
era simile ad un velivolo alieno. Del TR-3B, oscuro e triangolare,
non si parlava quasi mai (e semmai solo sottovoce) alla base di
Groom Lake (dove egli lavorava). L’aereo aveva sorvolato il
Groom Lake in silenzio assoluto e si fermò d’incanto sull’Area S-
4. Sorvolò silenziosamente la stessa zona per circa 10 minuti,
prima di adagiarsi dolcemente in verticale sul catrame della
pista. A volte una corona di luci azzurro-argentee brillava
attorno alla circonferenza del massiccio TR-3B. Il modello
operativo è lungo 180 metri.
Il prototipo di 60 metri e il TR-3B operativo lungo 100 metri sono
denominati in codice: ‘Astra’. Il primo volo operativo di
ricognizione tattica del TR-3B avvenne nei primi anni Novanta.
È finanziato e reso operativo dal NRO, la NSA e la CIA. Il
triangolo volante TR-3B non è fantascienza, fu costruito con la
tecnologia disponibile alla metà degli anni ottanta.
Il rivestimento esterno del velivolo TR-3B reagisce alla
stimolazione elettrica dei radar e può modificare il proprio
potere riflettente, l’assorbimento radar ed il colore. Questo strato
polimerico, se usato assieme alle contromisure elettroniche del
TR-3B e l’ECMM, può far sembrare il velivolo come un piccolo
aereo o un cilindro volante, o persino ingannare i ricevitori radar
avversari facendogli rilevare erroneamente una serie di aerei,
nessun aereo o diversi velivoli dislocati in vari parti. Un anello
circolare di accelerazione, riempito di plasma e denominato
MFD (‘Magnetic Field Disruptor’), circonda l’equipaggio sito
nel compartimento rotabile, ed è molto più avanzato rispetto a
qualsiasi tecnologia immaginabile.
I laboratori Sandia e Livermoore svilupparono la
retroingegneria MFD. Il Governo farà di tutto per proteggere
questa tecnologia. Il plasma, basato sul mercurio, è pressurizzato
a 250’000 atmosfere a una temperatura di 150 gradi Kelvin e
accelerato a 50’000 giri al minuto per creare un plasma super
conduttore capace di alterare la gravità. L’MFD genera un
campo magnetico a vortice, che interrompe o neutralizza l’89%
degli effetti della gravità su una massa posta nelle sue vicinanze.
Non fraintendetemi: non è antigravità. L’antigravità produce una
forza propulsiva che può essere usata anche come mezzo di spinta
del velivolo. L’MFD invece crea una "interruzione"
dell’attrazione gravitazionale terrestre sulla massa interna
all’acceleratore circolare. La massa dell’acceleratore circolare
e tutta la massa al suo interno, come la capsula che porta
l’equipaggio, l’avionica, i sistemi MFD, il carburante, i sistemi
di supporto vitale dell’equipaggio e il reattore nucleare sono
ridotti dell’89%. Ciò fa sì che il veicolo diventi estremamente
leggero e in grado di effettuare e manovrare meglio di qualsiasi
altro velivolo, eccetto naturalmente gli UFO, che noi non
abbiamo costruito. Il TR-3B è una piattaforma di ricognizione ad
alta altitudine Stealth, con un tempo indefinito di intervallo. Una
volta giunto velocemente ad alta quota, non ci vuole molta
propulsione per mantenere l’altitudine. A Groom Lake sono corse
voci di un nuovo elemento, capace di catalizzare il plasma. Con
la massa del veicolo ridotto dell’89%, l’aereo può volare a Mach
9, sia in verticale che in orizzontale. Le mie fonti dicono che tale
performance è limitata solo dallo stress che il pilota umano può
sopportare, che in realtà è molto, considerando che, oltre alla
riduzione della massa, anche le pressioni gravitazionali sul pilota
sono ridotte dell’89%. L’equipaggio del TR-3B dovrebbe essere
in grado di elevarsi facilmente, a 40 giri al secondo. La
propulsione del TR-3B è fornita da propulsori multifunzione
montati sul fondo, ad ogni lato della piattaforma triangolare. Il
TR-3 è un veicolo a velocità sub Mach, fino a quando non
raggiunge un’altitudine superiore a 36’000 metri, allora solo Dio
sa quanto può sfrecciare veloce! I tre ugelli multifunzionali,
montati ad ogni lato del velivolo triangolare, usano idrogeno o
metano ed ossigeno come propellente. In un sistema propulsivo
liquido a ossigeno/idrogeno, l’85% della massa propellente è
ossigeno. I missili nucleari termici usano un propellente
all’idrogeno, accresciuto dall’ossigeno per ottenere una
propulsione aggiuntiva. Il reattore riscalda l’idrogeno liquido e
inietta l’ossigeno liquido nell’ugello supersonico, in modo che
l’idrogeno bruci contemporaneamente all’ossigeno liquido nel
postbruciatore. Il sistema propulsivo multifunzione può operare
nell’atmosfera, con la propulsione fornita dal reattore nucleare,
nella stratosfera con la propulsione all’idrogeno e in orbita con
la propulsione combinata idrogeno/ossigeno. I tre ugelli devono
solo spingere l’11 per cento della massa del TR-3B. Si ritiene che
i motori siano costruiti dalla ditta Rockwell.
Dall’evoluzione di materiali inusitati, dall’avionica avanzata e
dai più recenti motori a propulsione nacque l’aereo Stealth.
I progressi tecnologici sono stati ottenuti dalla retroingegneria
derivata da "manufatti alieni", descritti nell’ultimo documento
revisionato del MJ-12 reso pubblico, redatto durante
l’amministrazione Reagan. Molti avvistamenti di UFO
triangolari non sono veicoli alieni, ma TR-3B top secret. La NSA,
il NRO, la CIA e l’USAF ci hanno ingannato con la nomenclatura
aerea. Hanno creato il TR-3, modificato dal TR-3A, dal TR-3B e
il Teir 2, 3 e 4, con i suffissi come ‘Plus’ o ‘Minus’ aggiunti per
confondere ulteriormente il fatto che ognuno di questi nomi
appartiene ad un diverso aereo, e non allo stesso velivolo
aerospaziale. Un TR-3B è diverso dal TR-3A, come lo è la banana
dall’uva. Alcuni di questi aerei hanno un nome ed altri no. Prima
che Jerald morisse, abbiamo conversato a lungo. Era sicuro di
avere la documentazione comprovante l’esistenza del comitato
MJ-12 e l’uso di veicoli alieni schiantati per duplicare la loro
tecnologia. Credo, infine, che lo scomparso colonnello Corso,
che ha reso noto il coinvolgimento del Governo con la tecnologia
aliena, fosse persona onesta e altamente degna di
considerazione”.
Ovviamente, nel racconto riportato poc’anzi, quanto vi sia di
realmente attendibile e quanto invece possa essere considerato
solo il frutto di una fervida immaginazione, è assai difficile
stabilirlo. Riguardo alla pressione estremamente elevata (ben
250'000 atmosfere) citata nel racconto di Edgar Fouché, è
necessario tener presente quanto oggi sia ritenuto possibile nel
campo della fisica sperimentale.
Attualmente, si conoscono due metodi per il raggiungimento di
pressioni estremamente elevate come quella menzionata dal
Fouché; il primo metodo consiste nell’utilizzo di celle ad incudine
di diamante, mentre il secondo, si basa su una tecnica
d’accelerazione laser-plasma (si tratta dunque di due tipologie di
pressione, generate seguendo due diversi principi fisici). Ma
vediamo ora in cosa consiste, nello specifico, il primo metodo.
Una cella ad incudine di diamante (DAC - Diamond Anvil Cell),
è un dispositivo utilizzato in alcuni esperimenti scientifici che
permette la compressione di un piccolissimo campione di
materiale (generalmente dell’ordine di pochi decimi di
millimetro) fino ad una pressione limite di 600 GPa (gigapascals);
che corrispondono a circa 6 milioni di bars / 6 milioni di
atmosfere.
Originariamente ideata per essere usata in apparati sperimentali
in cui era prevista l’osservazione ottica di quanto avveniva nel
campione, è stata successivamente resa polivalente per ogni tipo
di studio in cui il campione sottoposto a pressione è riscaldato e
irraggiato con vari tipi di radiazione elettromagnetica (raggi X o
gamma o infrarossi, luce di sincrotrone ecc.). Si compone di tre
parti distinte:
- una coppia di diamanti tagliati secondo 16 faccette con
tavola molto ampia (ca. 70% del diametro totale) e con
padiglione smussato in modo da creare una controtavola
(culet) orientata parallelamente alla faccia di cubo del
diamante originale;
- una montatura metallica che avvolge i due diamanti
poggiando sulle tavole e che supporta un generatore di
pressione (il braccio di una leva, tre viti calanti, una
membrana spinta da un gas, o altro);
- una guarnizione (gasket) di un metallo facilmente
deformabile che avvolge ad anello le due controtavole
sulle quali si pone il materiale da comprimere e che gli
impedisce di fluirne fuori, impedendo al tempo stesso un
eccessivo avvicinamento dei due diamanti che ne porti
alla rottura.
Il funzionamento della DAC è complesso e delicato, non solo
perché bisogna operare con movimenti di estrema precisione,
essendo l’intero apparato miniaturizzato (i diamanti, in genere,
pesano 0,125÷0,5 carati e la superficie utile delle loro
controtavole è ca. 0,6÷1,2 mm2), ma anche perché ogni DAC è
ottimizzata per ottenere un certo risultato, costituendo quindi – in
pratica – uno strumento a sé stante. Il riscaldamento del campione
è ottenuto mediante laser; il raffreddamento con opportuni
criostati. La misura della pressione è realizzata o in base alla forza
applicata oppure mescolando al campione una polvere di rubino
che, sottoposta a pressione, produce una luce fluorescente di
lunghezza d’onda regolarmente crescente e misurabile. I diamanti
usati per la fabbricazione delle incudini sono di qualità diversa: il
tipo I serve per esperimenti a pressioni relativamente basse in cui
si vogliano effettuare misure ottiche, Raman o di diffrazione dei
raggi X; il tipo IIa serve per esperimenti a pressioni maggiori, fino
a quelle (ca. 100 GPa) che hanno permesso di trasformare
l’idrogeno in solido metallico e di raggiungere condizioni
corrispondenti a quelle del centro della Terra (ca. 360 GPa).
Questo dispositivo si basa su una legge fisica assai semplice:
67
I vapori atomici raffreddati con i laser, possono essere foto-ionizzati per
formare dei plasmi a temperature fino a 1 kelvin. Ciò potrebbe consentire lo
studio di plasmi neutri molto particolari, con proprietà liquide e anche
cristalline. Per un approfondimento, si veda la nota riportata in Appendice.
si basano le lampade a fluorescenza (meglio conosciute come
“tubi al neon”)68, sfrutta proprio i vapori di mercurio, per generare
un plasma. Il funzionamento di una lampada a fluorescenza è
piuttosto semplice: un tubo di vetro, provvisto alle estremità di
due spinotti di metallo che funzionano da elettrodi, viene riempito
di vapore di mercurio. Applicando sugli elettrodi una forte
tensione elettrica di diverse centinaia di volt, il vapore di mercurio
si trasforma in plasma (ovvero in un gas ionizzato).
Analizziamo ora altri elementi del racconto di Edgar Fouché. Egli
parla di un dispositivo denominato “Magnetic Field Disruptor”,
che trae origine proprio dalla configurazione spaziale del plasma
(quasi certamente toroidale, ossia a forma di toro), di cui abbiamo
parlato poc’anzi. Partiamo con il termine “disruptor”, che
possiamo tranquillamente tradurre in italiano con: disruptore.
Ora, è risaputo che in elettrologia, la disrupzione è il fenomeno
per cui in un isolante, in conseguenza di un forte aumento
dell’intensità del campo elettrico, si determina una scarica
elettrica (scarica disruptiva). Restando in tale contesto però, non
è possibile capire in che modo dovrebbe operare un “disruptore
di campo magnetico”. Occorre dunque fare un ulteriore passo
avanti, ed entrare nel campo della fisica nucleare; nello specifico
in quella relativa alle condizioni di equilibrio all’interno di un
Tokamak.
In un dispositivo toroidale per la fusione nucleare (chiamato
comunemente Tokamak), il plasma è confinato all’interno di un
toro e la pressione del plasma varia con la densità (diminuendo,
dai punti più interni a quelli più esterni della sezione del toro).
Ciò da luogo ad una corrente elettrica naturale radiale nel plasma,
verso le pareti esterne. Per creare un sistema stabile di
confinamento, il Tokamak utilizza una combinazione di effetti
dovuti alla presenza dei magneti esterni e alla corrente indotta nel
plasma; che insieme concorrono a creare flussi magnetici
68
È da molto tempo ormai che i cosiddetti “tubi al neon” bianchi non
contengono più neon, ma vapore di mercurio. Il vecchio nome però, è rimasto
di uso comune. Si tratta di un’imprecisione linguistica comunemente accettata.
poloidali e migliorano il confinamento del plasma. La pressione
del plasma esercita una forza verso l’esterno a partire dal raggio
minore e il campo magnetico totale esercita una forza verso
l’interno. Lo sbilanciamento tra queste due forze, è controllato
dalla pressione magnetica del campo magnetico poloidale. Ma
ora arriva la parte più interessante, che ci consentirà di trovare dei
“possibili legami” (o perlomeno qualche piccola analogia) con
quello che Fouché definisce un “disruptore di campo magnetico”
(MFD – “Magnetic Field Dirruptor”).
Le disrupzioni dovute ad una variazione di densità del plasma per
una riduzione di temperatura, provocano un’espansione del
plasma con conseguente variazione dello spazio vuoto tra la
superficie interna del contenitore (vessel) e il plasma. Una
disrupzione consiste in una corrente radiale pulsante,
sufficientemente alta da comportare una perdita completa delle
condizioni di equilibrio. Una disrupzione si verifica quando la
corrente trasversale nella struttura (corrente radiale), aumenta
improvvisamente. Essa può aumentare improvvisamente perché
la tensione interna magnetoidrodinamica (MHD) aumenta a causa
di una ridistribuzione della densità di corrente del plasma; cioè
quando si verifica un cambiamento della densità di corrente
toroidale sul contorno (J), oppure della componente di campo
autoindotto normale al contorno del plasma (B). Le disrupzioni
possono essere controllate, ma se il fenomeno delle disrupzioni
persiste, sino a comportare il processo finale della variazione di
densità del plasma (con conseguente crollo della temperatura),
allora diventa irreversibile e non consente la rigenerazione del
plasma con conseguente perdita della stabilità del fenomeno della
fusione.
A questo punto occorre porsi le seguenti domande:
Il disruptore di campo magnetico di cui parla Fouché, è in qualche
modo legato ad un processo di fusione nucleare (fredda in questo
caso)? Le disrupzioni prodotte da tale disruptore, sono da
relazionarsi direttamente alle condizioni (manipolabili) di
equilibrio/non equilibrio del plasma? Oppure sono direttamente
relazionabili (sempre nell’ipotesi di un processo di fusione
nucleare), alla componente di campo autoindotto normale (B) al
contorno del plasma (magari, senza neppure compromettere la
condizione di equilibrio del plasma)? E se così fosse, in che modo
tutto ciò potrebbe alterare la forza di gravità, sino al punto da “far
perdere” al velivolo in questione (il TR-3B), l’89% della sua
forza-peso? (Fouché parla di un 89% di “perdita della massa” del
velivolo, il che ovviamente non ha alcun senso; visto che la massa
rimane sempre costante, in qualsiasi condizione di gravità.
Ovviamente dunque, è presumibile che il riferimento fosse alla
forza-peso, e non alla massa). Sull’eventualità di una perdita
della forza peso in determinate situazioni sperimentali, si è già
detto abbastanza nel secondo capitolo di questo libro, quando si è
parlato dei dispositivi giroscopici, nonché degli esperimenti di
Quirino Majorana, Eugene Podkletnov e Ning Li.
Per cui a tal proposito, non essendo in possesso di alcun elemento,
prova o teoria fisica in grado di farmi propendere per l’una o
l’altra tesi (del tipo: probabile, poco probabile, improbabile,
impossibile) riguardo ad eventuali processi fisici non ancora noti,
non posso far altro che pronunciare un laconico no-comment.
Ciononostante, resto sempre dell’idea che, per dirla con Michail
Bakunin: “Cercando l'impossibile, l'uomo ha sempre realizzato e
conosciuto il possibile, e coloro che si sono saggiamente limitati
a ciò che sembrava possibile non sono mai avanzati di un sol
passo”.
Figura 2.13. Un’immagine composta da tre fotogrammi, tratti da un
video amatoriale girato a Parigi nel 2011, in cui nel cielo notturno è
ben visibile un velivolo di forma triangolare, che si ritiene possa
essere il fantomatico TR-3B (Astra).
I Superconduttori
I plasmi ultrafreddi
La simmetria CPT
In italiano:
. R.M. WALD, Space, Time, and Gravity: The Theory of the Big
Bang and Black Holes, University of Chicago Press, 2009.
Sitografia
In italiano
www.lescienze.it
www.galileonet.it
www.treccani.it
www.sapere.it
www.media.inaf.it
www.asimmetrie.it
(Rivista dell’Istituto Nazionale di Fisica Nucleare)
http://fox.fi.isc.cnr.it
- Laboratorio Alte Pressioni (MBar).
http://it.wikipedia.org
In inglese
http://en.wikipedia.org
- Flux Pinning;
- Negative energy;
- Anti-gravity;
- Gravitational shielding;
- Eugene Podkletnov;
- Ning Li (physicist);
- Negative mass;
- Gravitational interaction of antimatter;
- Magnetohydrodynamic drive;
- Yamato 1;
- United States gravity control propulsion research;
- Electrogravitics;
- Alcubierre drive;
- Diamond anvil cell;
- Quantum vacuum plasma thruster.
In francese
http://fr.wikipedia.org
- Masse négative ;
- Antigravité ;
- Théorie de Heim ;
- Gravité artificielle ;
- Interaction gravitationnelle de l'antimatière ;
- Supraconducteur à haute température ;
- Triangle noir (ufologie) ;
- Accélérateur MHD ;
- Propulseur magnétoplasmadynamique ;
- Métrique d'Alcubierre.