Sei sulla pagina 1di 139

Fausto Intilla

“ANTIGRAVITÀ”

Dalla gravità repulsiva ai propulsori


a curvatura spazio-temporali

Immagine di copertina ideata dall’autore.


L’autore si dichiara disponibile a regolare eventuali spettanze,
per gli stralci di alcuni articoli (ed immagini) riportati in questo
volume, qualora questi ultimi fossero coperti da copyright.
Indice

Prefazione…………………………………………………

Una realtà esotica, ancora inesplorata……...…………….


- Dalla gravità ordinaria alla gravità repulsiva.……...
- Energia gravitazionale e curvatura dello spazio-tempo...
- Produrre onde gravitazionali…………………………….
- Energia negativa…………………….……………………..
- Massa negativa……………………………………………..
- La quinta forza……………………………………………..
- Una risposta dall’antidrogeno…………………………….
- L’ipotesi di Villata…………………………………………..
- La teoria di Heim……………………………………………

Teorie e applicazioni, tra illusione e realtà………………


- I dispositivi giroscopici………………………………………
- Gli esperimenti di Quirino Majorana..…..………………..
- Gli esperimenti di Eugene Podkletnov…………………….
- Gli esperimenti di Ning Li…………………………………..
- Dall’elettrogravità all’elettroidrodinamica…………….
- Propulsori magnetoidrodinamici…………………………
- Il propulsore a curvatura spazio-temporale……………..

Una lunga storia, di misteri mai svelati………………........


- Gravity Control: La ricerca negli USA (1955-1974)…..
- Il TR-3B (Astra), un mistero ventennale………………….

Appendice………………………………………………….
Bibliografia…………………………………………………
Sitografia……………………………………………………
“È una buona cosa che esista la
gravità, altrimenti gli uccelli morti
seguiterebbero a svolazzare in cielo”
Steven Wright

“La fisica è decisamente


troppo difficile per i fisici”
David Hilbert
Prefazione
Oggigiorno, scrivendo il termine “antigravità”, non si può
tralasciare di metterlo tra virgolette, poiché dopo circa
sessant’anni di studi e ricerche (ufficiali) su quella tanto agognata
e misteriosa forza complementare alla gravità (e soprattutto in
grado di contrastarla), gli indizi a favore di una sua possibile
esistenza, sono ancora assai scarsi (perlomeno nell’ambito della
ricerca accademica ufficiale, dunque civile).
Il termine “antigravità” quindi, in tutti questi anni, non ha mai
potuto assumere una vera e propria connotazione scientifica;
proprio perché risulta assai improbabile che in natura possa
esistere una forza simile (anche se alcune soluzioni della relatività
generale, basate su concetti assai speculativi come massa ed
energia di segno negativo, suggerirebbero la sua esistenza). I
fisici quantistici, dal canto loro, nell’ambito della teoria
quantistica dei campi, hanno postulato l’esistenza dei gravitoni;
un insieme di particelle elementari senza massa, in grado di
mediare la forza di gravità. Tuttavia, la possibilità di creare o
distruggere queste particelle non è ancora chiara. A tutt’oggi
comunque, nonostante siano stati numerosi i tentativi di rilevare
sperimentalmente tale particella, il gravitone non è mai stato
identificato (per cui risulta assai dubbia anche la sua esistenza
teorica). Tutti i tentativi di formulare una semplice teoria della
gravità quantistica, sino ad oggi hanno sempre fallito. Dunque per
ora, senza dei riscontri sperimentali di un certo spessore,
possiamo solo basarci sulle succitate soluzioni speculative della
relatività generale di Einstein (che prevedono l’utilizzo di materia
esotica, quali masse ed energie negative), per supporre non
l’esistenza di una forza complementare alla gravità (l’antigravità,
appunto), bensì l’esistenza di una gravità repulsiva (dunque non
ordinaria; difficilmente riscontrabile in natura e ancor più da
creare artificialmente negli attuali laboratori e centri di ricerche).
Nel breve excursus a carattere divulgativo presentato in questo
volume, si partirà dunque dal concetto di gravità repulsiva, fino
ad arrivare alle teorie più controverse e speculative sulla
possibilità di modificare lo spazio-tempo (per compiere dei viaggi
interstellari a velocità superluminali) con i cosiddetti “propulsori
a curvatura”; passando per l’elettroidrodinamica e la più
complessa e promettente, magnetoidrodinamica (senza tralasciare
tutte quelle teorie ed invenzioni, purtroppo mai risultate
applicabili, brevettate nella seconda metà del secolo scorso).
Verranno inoltre esposti i dettagli tecnici dei tentativi
sperimentali di scoprire un’eventuale “forza antigravitazionale”,
compiuti fino alla fine degli anni ’90 da alcuni scienziati di
diverse nazionalità, nell’ambito dei materiali superconduttori.
Tale excursus si conclude infine con un rapporto sui personaggi,
le società e le industrie aeronautiche (militari e civili) che dal
1955 al 1974, sono state coinvolte nella ricerca incentrata sul
controllo della gravità e sulle sue possibili applicazioni
nell’ambito dell’aeronautica terrestre e spaziale. Non mancherà
inoltre, come dulcis in fundo, proprio nelle ultime pagine di
questo libro, una piccola parentesi su uno degli oggetti più
misteriosi e discussi in ambito ufologico sin dal 1989 (anno in
cui comparve per la prima volta nei cieli del Belgio): il
fantomatico “aereo” di forma triangolare, comunemente noto con
il nome di: TR-3B Astra (che secondo alcune ipotesi emerse in
campo ufologico, sarebbe stato sviluppato verso la fine degli anni
’80 dall’agenzia DARPA del Dipartimento della Difesa degli
Stati Uniti, nell’ambito di uno dei tanti “black projects”
denominato: “Progetto Aurora”). Confido che gli argomenti
trattati in questo libro (breve ma essenziale; una caratteristica che
contraddistingue tutti i miei libri), riescano a suscitare l’interesse
di tutte quelle persone che, consciamente oppure no, seguono
spesso quel famoso consiglio di John Archibald Wheeler: “In
ogni campo trova la cosa più strana, quindi esplorala”.

Fausto Intilla
Cadenazzo, 27 gennaio 2015
Una realtà esotica, ancora inesplorata

“Ci sono i fisici teorici che inventano, deducono, e tirano a


indovinare le nuove leggi, ma non le sperimentano, e ci sono
i fisici sperimentali che fanno gli esperimenti, inventano,
deducono e tirano a indovinare”
Richard Feynman

Dalla gravità ordinaria alla gravità repulsiva


Poco più di tre secoli fa, in un’opera considerata tra le più
importanti della storia della scienza (Philosophiæ Naturalis
Principia Mathematica, 1686), Isaac Newton, basandosi sulle
leggi di Keplero relative al movimento dei pianeti, descrisse la
legge di gravitazione universale, formulò le tre leggi universali
del movimento e gettò le basi della meccanica classica. Per la
prima volta nella storia dunque, si ebbe una descrizione esatta
della gravitazione, su basi matematiche. La gravità di Newton
però, aveva dei limiti; essa infatti era da intendersi come una
“forza esterna” trasmessa mediante particelle od altri elementi
sconosciuti. Tuttavia, all’inizio del ventesimo secolo, il modello
di Newton venne rimpiazzato da una teoria più completa e dunque
assai più complessa, conosciuta con il nome di: Relatività
Generale.
La teoria della Relatività Generale (1916) di Albert Einstein, è
attualmente la teoria più accreditata a descrivere la gravità.
Proposta da Einstein dopo circa un decennio di ricerche che
seguirono la Relatività Speciale (1905), la RG è considerata dai
fisici teorici come la più elegante tra le teorie fisiche, basata
sull'unificazione dei due concetti classici di tempo e spazio in un
unico concetto descritto per via geometrica: lo spazio-tempo
curvo. In RG lo spazio-tempo è curvo a causa della presenza dei
corpi celesti e della loro massa, e più in generale a causa della
presenza delle varie forme di energia, inclusa quella del campo
gravitazionale stesso. In effetti, nella RG la curvatura è
l'espressione diretta del campo gravitazionale: più questo è
intenso e più lo spazio-tempo è curvo. La teoria della relatività
generale è alla base dei moderni modelli cosmologici della
struttura a grande scala dell'Universo e della sua evoluzione.
Le soluzioni geometriche proposte nella teoria della RG,
generano sempre delle forze attrattive, tranne nel caso in cui si è
in presenza di una curvatura iperbolica dello spazio-tempo (dove
la gravità si presenterebbe “invertita”). Questo è sicuramente uno
degli aspetti più controversi della RG, che per molti fisici teorici
è sufficiente a rendere l’antigravità, estremamente improbabile
(se non addirittura impossibile); l’unica eccezione, in cui
potrebbe verificarsi una forza repulsiva alla gravità (l’antigravità,
appunto), viene fatta nel caso in cui determinate circostanze,
vengano create artificialmente. I fisici quantistici, nell’ambito
della teoria quantistica dei campi, hanno postulato l’esistenza dei
gravitoni; un insieme di particelle elementari senza massa, in
grado di mediare la forza di gravità1. Tuttavia, la possibilità di

1
Se vogliamo unificare le quattro forze della natura, e quindi anche la gravità,
diventa necessario mettere a punto una teoria quantistica della gravitazione,
cioè una descrizione della gravitazione in grado di conciliare la meccanica
quantistica e la relatività generale. La teoria quantistica dei campi, che a
tutt'oggi rappresenta la miglior descrizione possibile del mondo delle particelle
elementari e delle interazioni tra di esse, funziona nella metrica cartesiana e
nello spazio-tempo piatto di Minkowski, tipico della relatività ristretta; invece
la Relatività Generale descrive la gravitazione come una curvatura dello
spazio-tempo e non ammette traiettorie multiple, ciascuna delle quali descritte
da una funzione d'onda e quindi da una determinata probabilità. Il conflitto
appare a prima vista del tutto insanabile. Il modo più semplice per combinare
le due teorie dovrebbe essere quello di trattare semplicemente la gravità come
un altro campo quantistico. L'elettrodinamica quantistica messa a punto da
Richard P. Feynman (1918-1988) descrive tutte le interazioni come uno
scambio di particelle virtuali. Quando due elettroni si avvicinano tra loro, il
primo cede al secondo un fotone, detto "virtuale" perché impossibile da
rilevare. Avendo perso un quanto di quantità di moto, entrambi gli elettroni
modificano la propria traiettoria, cambiando direzione come se si fossero
creare o distruggere queste particelle non è ancora chiara. A
tutt’oggi comunque, nonostante siano stati numerosi i tentativi di
rilevare sperimentalmente tale particella, il gravitone non è mai
stato identificato (per cui risulta assai dubbia anche la sua
esistenza teorica). Tutti i tentativi, di formulare una semplice
teoria della gravità quantistica, sino ad oggi hanno sempre fallito.
Anche se apparentemente sembrerebbe che l’antigravità non
rispetti le leggi della Relatività Generale (RG), molti studi sono
comunque indirizzati verso la ricerca di soluzioni in grado di
produrre effetti di tipo antigravitazionale. Molte teorie formulate
di recente, si sono aggiunte alla RG, estendendone i concetti
fondamentali oppure in alcuni casi, sostituendola radicalmente.
Alcune di queste teorie, presentano soluzioni che consentono
l’esistenza dell’antigravità. Tuttavia, in base all’attuale stato
dell’arte inerente alle odierne conoscenze scientifiche verificate
sperimentalmente, la gran parte della comunità scientifica
considera altamente improbabile l’esistenza dell’antigravità.
La Relatività Generale è ben accetta tra i fisici perché essa è, allo
stato attuale, la teoria con il più alto grado di verifica
sperimentale. Tuttavia, ci sono aspetti della RG che ancora non

respinti senza toccarsi. Allo stesso modo, allora, l'interazione gravitazionale


tra due particelle dotate di massa dovrebbe essere mediata da una particella
virtuale chiamata gravitone, di massa nulla e spin 2, in modo da dare vita ad
una forza di raggio infinito ed unicamente attrattiva. Ben presto però ci si
accorse che, se le cose stessero così, il gravitone dovrebbe operare in maniera
simile al fotone. Ma nell'elettrodinamica quantistica i fotoni agiscono
direttamente l'uno sull'altro e sulle particelle cariche, mentre la gravità è
prodotta da qualsiasi forma di energia per via dell'equazione di Einstein
E=mc2; inoltre, tutti i tentativi di fondare una teoria quantistica coerente per la
gravitazione si sono scontrati con il problema della rinormalizzazione: i quanti
di gravità si attrarrebbero reciprocamente e il loro effetto si sommerebbe a tutte
le interazioni, producendo per la forza valori infiniti che non possono essere
rimossi con un artificio matematico, mentre ciò è possibile per le interazioni
elettromagnetiche grazie ad una calibrazione opportuna delle costanti in gioco,
nota come rinormalizzazione. A ciò si aggiunga il fatto che il gravitone
trasporta un'energia piccolissima, e quindi rivelarne gli effetti tramite
esperimenti diretti sarebbe tanto difficile quanto individuare le lievissime
perturbazioni indotte dalle onde gravitazionali.
sono stati verificati. La predizione più elusiva della RG è
l'esistenza delle onde gravitazionali. La loro esistenza è verificata
in modo indiretto, da osservazioni astronomiche, ma saranno i
risultati di nuovi esperimenti (sulla Terra e sui satelliti)
attualmente in corso (e in via di sviluppo) a confermare o smentire
la loro esistenza in modo diretto.
Lo studio delle onde gravitazionali è assai complesso: esse infatti
sono generate non solo dall’accelerazione della massa, ma anche
dalle velocità e dalle variazioni nel tempo delle accelerazioni ed
è inoltre necessario che la loro distribuzione sia asimmetrica. Un
collasso gravitazionale sferico, infatti, non genera onde
gravitazionali, mentre per generare un’onda elettromagnetica è
sufficiente che il prodotto delle cariche per la somma vettoriale
delle accelerazioni sia diverso da zero. In pratica, poi, le onde
gravitazionali sono debolissime e questo implica che è
estremamente difficile rivelarle e studiarle. La potenza (energia
per unità di tempo) di queste onde è infatti inversamente
proporzionale alla quinta potenza della velocità della luce,
pertanto non si può produrle in laboratorio con masse piccole.
L’osservazione della onde gravitazionali deve dunque essere
rivolta ad oggetti cosmici, con strumenti di elevatissima
precisione.2
2
Per poter generare onde gravitazionali le sorgenti potenziali devono avere
momento di quadrupolo di massa variabile nel tempo. Le onde gravitazionali
oscillano con frequenze comprese in un intervallo che va da 10−18 Hz
(background stocastico di onde gravitazionali) a 104 Hz (buchi neri stellari). A
causa della debolezza della radiazione delle sorgenti reali, le onde
gravitazionali non sono finora mai state osservate direttamente. Giove, per
esempio (nonostante sia il pianeta più massivo del Sistema solare), genera onde
gravitazionali in virtù della sua rivoluzione attorno al Sole (con periodo di 12
anni) con una potenza di solo 1 kW e una lunghezza d’onda di 12 anni-luce.
Per la misura diretta delle onde gravitazionali sono oggi attivi vari rilevatori
sulla Terra, che si basano sul principio secondo cui masse adiacenti colpite da
un’onda gravitazionale sono sottoposte ad un’accelerazione relativa. In teoria,
ogni corpo massivo accelerato rappresenta una sorgente di onde gravitazionali.
Tra i processi che potrebbero indicare la presenza di onde gravitazionali
misurabili dalla Terra vi è il moto di sistemi binari, supernovae e stelle di
neutroni. Dalle analisi numeriche si è visto che l’energia irradiata in forma di
Più in generale, per i fisici, un limite fondamentale della RG è
dato dal fatto che rappresenta una teoria “classica”; essa cioè non
tiene conto della natura quantistica che, si ritiene, ogni teoria
debba avere in date circostanze (cioè ad altissime energie).
Inoltre, siccome è stato verificato sperimentalmente che
l'elettromagnetismo e la forza nucleare debole si unificano in
un’unica interazione “elettrodebole” ad energie sufficientemente
elevate (ma comunque raggiungibili con esperimenti sulla Terra),
si pensa che ad energie sempre più alte, prima la forza nucleare
forte e poi la gravità debbano unificarsi con le altre forze
fondamentali, in un’unica interazione omnicomprensiva (la
cosiddetta “Teoria del Tutto”).3 Ad energie sufficientemente alte,
possibili solo in cosmologia e forse in alcuni fenomeni astrofisici,
si ritiene che la RG debba essere soppiantata da una teoria
quantistica della gravità, di cui la RG rappresenta il limite “a
basse energie”. In altre parole, non si tratta tanto di stabilire se la
RG sia “giusta” o “sbagliata”, ma di stabilirne il limite di validità.
A tutt'oggi non è stata formulata nessuna teoria soddisfacente che
dia una descrizione quantistica della gravità. Esistono però molte
teorie gravitazionali che generalizzano o modificano la RG, sia
per considerare eventuali effetti quantistici che per proporre altri
aspetti nascosti della RG (per esempio a grandissime distanze,
come quelle in gioco in cosmologia).
Una caratteristica fondamentale della RG (che la distingue dalla
teoria Newtoniana), è che il campo gravitazionale è generato non
solo dalla densità di massa-energia, ma anche dalla pressione ad
essa associata. La gravità, sia Newtoniana che di Einstein, è
attrattiva se è associata ad una decelerazione, ossia ad
un’accelerazione negativa. Nella teoria Newtoniana,

onde gravitazionali da una stella che collassa corrisponde a circa l’1% della
sua massa.
3
L’unificazione della forza nucleare forte con la forza elettrodebole, darebbe
luogo alla forza elettronucleare (Teoria della Grande Unificazione). Ad energie
ancora più elevate, è stata teorizzata l’unificazione della forza elettronucleare
con la Gravità (Teoria del Tutto).
l'accelerazione può essere solo negativa, e quindi la gravità solo
attrattiva.
Nella RG invece, siccome la pressione può assumere anche valori
negativi, di conseguenza l’accelerazione può diventare positiva.
In parole povere, nella teoria della RG, se si ha una sufficiente
pressione negativa, la gravità può essere repulsiva4. Se dunque
per antigravità intendiamo una gravità repulsiva, questa è
possibile nella teoria della RG, nonché in varie altre teorie che
tentano di generalizzare la RG. Dunque, il termine antigravità è
anche talvolta usato per descrivere una forza gravitazionale
repulsiva, invece che attrattiva (come nel caso della gravità
ordinaria); e la sua esistenza, basata su alcune soluzioni della RG,
potrebbe derivare da alcune formulazioni estremamente
speculative, che implicano l'uso di concetti esotici quale ad
esempio l'energia negativa o la massa negativa.
Ipotizzando quindi l’esistenza di una “materia esotica”5,
potremmo anche aspettarci che essa abbia un’energia negativa.

4
Le equazioni su cui si basa la Gravità Quantistica a Loop (LQG – Loop
Quantum Gravity) conservano gli aspetti fondamentali della Relatività
Generale, come ad esempio l'invarianza per trasformazioni di coordinate, ma
portano le caratteristiche della meccanica quantistica alle loro estreme
conseguenze, arrivando a quantizzare persino lo spazio e il tempo. Non quindi
la materia, l'energia o i campi, ma la stessa tessitura dello spazio-tempo alla
scala di Planck. Lo spazio-tempo quindi, da continuo si trasforma in una sorta
di reticolo di dimensioni infinitesimali. Il punto di forza della Gravità
Quantistica a Loop consiste nella semplicità con cui descrive fenomeni in cui
la gravità è particolarmente intensa, e la struttura discreta diventa dominante.
Le equazioni differenziali della Relatività Generale si trasformano infatti in
Equazioni alle Differenze Finite, risolubili per mezzo di supercomputer. I
risultati emersi da queste equazioni sono sorprendenti: la gravità è da sempre
considerata una forza attrattiva, ma le equazioni alle differenze finite
suggeriscono invece che nelle condizioni di altissima densità ed energia che
caratterizzano una singolarità, la gravità si trasformi in una forza repulsiva.
5
Il termine “materia esotica” designa tutta la materia che non si comporterebbe
come la materia barionica. La “materia esotica” sarebbe dunque caratterizzata
da una massa negativa. Sino ad oggi, in nessun esperimento è mai stata rilevata
traccia di questo tipo di materia. Essa permetterebbe inoltre, qualora si
riuscisse a dimostrare la sua esistenza per via sperimentale, di “legittimare” e
In fisica, il concetto di energia negativa viene solitamente usato
per spiegare la natura di certi campi (incluso quello gravitazionale
e un determinato numero di effetti di campo quantistico). In teorie
molto più speculative, l’energia negativa è implicata nella
creazione di cunicoli spazio-temporali (ponti di Einstein-Rosen o
più semplicemente wormholes); che permetterebbero i “viaggi nel
tempo”, nonché il sistema di propulsione Warp Drive per viaggi
nello spazio a velocità superluminali (FTL – Faster Than Light).

Energia gravitazionale e curvatura dello spazio-tempo

La forza di attrazione gravitazionale tra due oggetti, rappresenta


la quantità di energia gravitazionale nel campo che li attrae l’uno
verso l’altro. Quando tali oggetti sono indefinitamente distanti
l’uno dall’altro (ossia quando la distanza che li separa è molto
grande), l’attrazione gravitazionale e quindi l’energia del campo
in questione, si avvicinano a zero. Nel momento in cui due oggetti
massivi si avvicinano l’uno verso l’altro per effetto della gravità,
il moto accelera causando un aumento dell’energia cinetica
positiva del sistema. Contemporaneamente, attrazione
gravitazionale ed energia aumentano anche in ampiezza. Ma la
legge di conservazione dell’energia prevede che l’energia netta
del sistema non cambi. Questo problema può essere risolto solo
se il cambiamento in energia gravitazionale è negativo,
annullando così il cambiamento positivo in energia cinetica. Dal
momento che l’energia gravitazionale risulta essere sempre più
forte, questa diminuzione può solo significare che è negativa.
Man mano che i due corpi si avvicinano, la forza di gravità si
sposta nella direzione di avvicinamento, compiendo un lavoro
positivo (energia che viene ceduta dal sistema delle due masse in
avvicinamento all'ambiente esterno). Per allontanare le due masse
invece, dobbiamo vincere la forza di attrazione e quindi, compiere
un lavoro negativo; in questo caso, è l'ambiente esterno che

rendere così più attendibili le attuali teorie sui ponti di Einstein-Rosen (i


cosiddetti cunicoli spazio-temporali o wormholes).
fornisce energia al sistema delle due masse che si allontanano. Ma
se la forza di attrazione fra i due corpi diminuisce all'aumentare
della loro distanza, è facile intuire che per non risentire della
reciproca forza di attrazione, devono trovarsi ad una distanza
tanto grande da rendere nulla la forza di attrazione stessa. Si
dimostra matematicamente che questo accade quando la distanza
fra le due masse assume un valore infinito. Per separare
definitivamente le due masse, rendendo nulla la loro forza di
reciproca attrazione, è necessario pertanto, portarle a distanza
infinita. L'energia potenziale gravitazionale diventa sempre più
grande e negativa man mano che le due masse si avvicinano ed è
nulla all'infinito. Il sistema composto dalle due masse cede
energia all'ambiente e pertanto, le due masse, avendo fornito
energia positiva, acquisteranno energia potenziale negativa. La
moderna teoria della gravitazione, basata sulla teoria della
Relatività Generale, interpreta gli effetti della gravitazione come
dovuti alla variazione delle proprietà geometriche dello spazio.
La presenza di una massa altera la metrica dello spazio
circostante; questa alterazione si manifesta, per esempio, con il
fatto che in prossimità di una massa le geodetiche non siano linee
rette. La teoria della relatività generale afferma infatti che lo
spazio-tempo viene più o meno curvato dalla presenza di una
massa; un'altra massa più piccola si muove dunque attorno alla
massa più grande, a causa dell’ effetto di tale curvatura. La ricerca
attuale è concentrata sulla natura dello spazio-tempo alla scala di
Planck. La teoria della gravitazione quantistica a loop (QLG), la
teoria delle stringhe e la termodinamica dei buchi neri predicono
tutte uno spazio-tempo quantizzato. La teoria della gravità a loop
(QLG), propone addirittura predizioni precise circa la geometria
dello spazio-tempo alla scala di Planck.
Una nuova suggestiva teoria, attribuisce addirittura allo spazio-
tempo (il tessuto fondamentale che regge l'universo), le qualità di
un liquido con una viscosità bassissima (cioè di un superfluido).
Se fosse verificata, questa idea consentirebbe di conciliare la
meccanica quantistica con la teoria generale della relatività (un
obiettivo che i fisici teorici inseguono da decenni)6. Inoltre, una
simulazione al computer mostra che il tessuto dello spazio-tempo
potrebbe essere pieno di difetti topologici, formatisi quando
l'universo era ancora giovane. Finora non sono mai stati rilevati,
ma le loro oscillazioni producono onde gravitazionali, che
potrebbero essere osservate grazie a diversi esperimenti .
Nel mese di gennaio di quest’anno (2015), un gruppo di ricerca
del laboratorio LENS dell’Università di Firenze e dell’INFN, ha
determinato, per la prima volta in modo diretto, la curvatura del
campo gravitazionale indotta da una piccola massa, misurando la
caduta nel vuoto di nubi di atomi di rubidio ultra-freddi. In termini
tecnici, i ricercatori hanno misurato per la prima volta la derivata
seconda; cioè la variazione del gradiente del campo
gravitazionale rispetto alla posizione, che corrisponde alla
curvatura (questa quantità fisica è sensibile alla presenza di masse
vicine). Gli scienziati italiani appartenenti a questo gruppo di
ricerca, avendo sviluppato dei nuovi sensori quantistici atomici,
hanno misurato dapprima il valore della costante di gravitazione
universale G con una precisione senza precedenti, e poi verificato
il principio di equivalenza (cioè l’uguaglianza tra la massa
inerziale e la massa gravitazionale); infine hanno rivelato la
curvatura del campo gravitazionale7.

6
Molti fisici hanno cercato di risolvere il problema con la “quantizzazione”
della gravità, suddividendo il campo gravitazionale in pezzi più piccoli,
proprio come nella meccanica quantistica si “sbriciolano” molte grandezze in
pacchetti discreti, come i livelli di energia delle particelle. Sono stati fatti molti
tentativi per quantizzare la teoria della gravità: le stringhe e la gravità
quantistica a loop sono approcci tra loro alternativi che possono affermare di
aver fatto notevoli progressi. Ma per i fautori dello spazio-tempo super-fluido,
forse non c'è bisogno di quantizzare la gravità: basterebbe infatti quantizzare
soltanto l'oggetto fondamentale che costituisce lo spazio-tempo.

7
L’apparato sperimentale utilizzato, è sostanzialmente un’evoluzione
dell’apparato MAGIA, utilizzato nella misurazione della costante di
gravitazione universale G. In esso, nuvole di atomi di rubidio ultra-freddi (cioè
raffreddati alla temperatura di pochi milionesimi di grado sopra lo zero
assoluto, utilizzando dei raggi laser), vengono lanciate verso l’alto (nel vuoto)
Produrre onde gravitazionali

Se la teoria della relatività generale è corretta, come la gran parte


delle comunità dei fisici sostiene, le onde gravitazionali non
possono non esistere e devono poter essere rivelate in modo
diretto, e non solo attraverso effetti secondari che potrebbero
essere attribuiti anche a cause diverse. Queste onde sono
fondamentalmente delle perturbazioni dello spazio-tempo
generate da moti di ordine quadrupolare. Le sorgenti possono
essere varie e ancora non si conoscono in modo preciso (a parte
simulazioni numeriche e poche soluzioni esatte). Inoltre, i diversi
rivelatori utilizzati finora in molti paesi del mondo, necessitano
sempre un’analisi network per poter ricavare completamente le
informazioni sulla sorgente. E come ulteriore aspetto tutt’altro
che incoraggiante, la debolezza del segnale non permette al
giorno d’oggi di poter affermare con certezza, di aver rivelato
un’onda gravitazionale (la potenza di queste onde, ovvero
l’energia per unità di tempo, è infatti inversamente proporzionale
alla quinta potenza della velocità della luce; pertanto non si può
produrle in laboratorio con masse piccole)8.
Concretamente, le onde gravitazionali rappresentano la
propagazione alla velocità della luce di deboli increspature nella

all’interno di una “fontana atomica”. In cima a quest’ultima, è posta una massa


di tungsteno di circa 500 chilogrammi, che ha la funzione di “massa sorgente”
e che produce la curvatura cercata. Grazie alla tecnica d’interferometria
atomica, in modo analogo a quanto si fa con le tecniche interferometriche
ottiche, si può rilevare l’interferenza tra due onde di materia di un atomo,
precedentemente separate tra loro da impulsi laser (la presenza del campo
gravitazionale modifica il segnale di interferenza atomica).
8
Lo studio delle onde gravitazionali è assai complesso: esse infatti sono
generate non solo dall’accelerazione della massa, ma anche dalle velocità e
dalle variazioni nel tempo delle accelerazioni ed è inoltre necessario che la loro
distribuzione sia asimmetrica. Un collasso gravitazionale sferico, infatti, non
genera onde gravitazionali, mentre per generare un’onda elettromagnetica è
sufficiente che il prodotto delle cariche per la somma vettoriale delle
accelerazioni sia diverso da zero.
curvatura nello spazio-tempo. Da un punto di vista più
matematico, però, le onde gravitazionali nascono come soluzioni
delle equazioni di Einstein in campi gravitazionali deboli. In
questo senso la teoria le definisce come “soluzioni delle equazioni
di Einstein”, cioè relative a piccole curvature dello spazio-tempo.
Esse sono da considerarsi come delle piccole perturbazioni che si
allontanano dalla sorgente che li ha prodotti (con la particolarità
di essere di tipo trasverso, poiché producono dei cambiamenti in
direzione perpendicolare a quella in cui si propagano).
In generale, le onde gravitazionali sono caratterizzate da due gradi
di polarizzazione lungo due direzioni poste a 45 gradi l’una
dall’altra. Ognuno dei due induce una forza mareale di tipo
“quadrupolare”; ossia una forza di compressione in una direzione
e una di stiramento in quella ad essa perpendicolare.
Le onde gravitazionali vengono prodotte in continuazione ogni
volta che una massa-energia viene messa in movimento; ma per
poter essere rilevate con gli attuali strumenti di misurazione di cui
disponiamo, esse debbono essere generate da masse enormi, in
grado di raggiungere velocità prossime a quella della luce.
Candidati ideali di questo tipo sono i buchi neri e le stelle di
neutroni, in prossimità dei quali la curvatura dello spazio tempo
raggiunge i più alti valori possibili. La radiazione gravitazionale,
inoltre, è particolarmente intensa quando è emessa da un sistema
binario di stelle di neutroni, o di buchi neri, che muovendosi a
spirale in direzione del comune centro di massa rilasciano enormi
quantità di energia e momento angolare (una quantità che dipende
anche dalla velocità di rotazione).
Quanto sia realmente difficile (se non addirittura impossibile),
riuscire a creare artificialmente, qui sulla Terra, delle onde
gravitazionali rilevabili con strumenti fisici, è deducibile da
queste considerazioni di David Blair e Geoff McNamara
(espresse nel loro libro “Ripples on a cosmic sea”, purtroppo mai
tradotto in italiano):
“Proviamo a valutare la miglior fonte gravitazionale possibile.
Vogliamo prendere due grandi masse congiunte e farle ruotare il
più velocemente possibile. Abbiamo visto, però, che la barra che
le unisce si romperà ad alte velocità; per cui è meglio utilizzare
una massa solida allungata. Cerchiamo di essere ambiziosi ed
utilizziamo 1'000 tonnellate d’acciaio, o meglio ancora un
sottomarino nucleare da 10'000 tonnellate. Se noi montiamo
questo sottomarino su un tavolo girevole e lo ruotiamo fino a
poco meno del suo punto di rottura (facciamo 10 giri al secondo),
quanta energia d’onda gravitazionale produrremmo? È triste
dirlo, ma veramente poca, anzi, pochissima: circa 10-24 Watt. In
termini di paragone, una piccola formica che cammina veloce su
di una parete, utilizza 10-7 Watt di energia, un miliardo di
miliardi di volte più energia di un’onda gravitazionale prodotta
dal nostro sottomarino rotante. E gli sforzi della formica sono 10
miliardi di volte più piccoli di un’automobile familiare di media
cilindrata”.

Energia negativa

L’energia negativa non deve essere confusa con l'antimateria, la


quale ha energia positiva. Quando un elettrone e la sua
antiparticella (il positrone) collidono, vengono annichiliti. Il
prodotto finale è la formazione di raggi gamma che trasportano
energia positiva. Se le antiparticelle fossero composte da energia
negativa, potrebbe risultare un’ energia finale di valore zero. Non
bisogna poi confondere l'energia negativa con quella associata
alla costante cosmologica, postulata nei modelli inflazionistici
dell'universo, che come costante rappresenta pressione negativa
ma energia positiva. Per il Principio di Equivalenza di Einstein,
secondo il quale gravità ed accelerazione sono tra loro
indistinguibili, anche un campo gravitazionale può generare un
vuoto con energia negativa, e questa è una delle stranezze della
gravità quantistica. Un metodo per la produzione di energia
negativa, introduce e implica dei limiti geometrici nello spazio.
Nel 1948 il fisico olandese Hendrik B.G.Casimir (mentre
lavorava al laboratorio di ricerca Philips nei Paesi Bassi), mostrò
che due piastre metalliche parallele e non caricate, alterano la
fluttuazione del vuoto quantistico nello stesso modo in cui si
attraggono l'un l'altra9. La densità di energia fra le due piastre fu
successivamente calcolata come "negativa". In effetti le piastre
riducono le fluttuazioni nello spazio fra esse stesse; questo genera
energia negativa e pressione che spingono le piastre assieme. Più
lo spazio si restringe, più aumenta energia negativa e pressione e
più le piastre si attraggono l'un l'altra. In pratica, mentre
all'esterno delle lamine le interazioni fra le particelle virtuali che
si materializzano nel vuoto possono avvenire senza alcuna
limitazione, tra le due lamine, a causa della loro piccola distanza,
le stesse interazioni avvengono solo se la lunghezza d'onda dei
fotoni virtuali è più piccola della distanza fra le piastre. Ciò
genera una condizione di squilibrio fra il numero di eventi virtuali
con i loro effetti reali che si verificano all'esterno e quello che
nello stesso intervallo di tempo avviene all'interno delle lamine.
La densità di energia decresce avvicinando le lastre. Ad esempio,
nel caso di lamine poste alla distanza di 1 micron (10–6 m), la
forza per unità di superficie che ne risulta è pari a circa 0,0013 N
per metro quadrato.
In un articolo del 2005, Robert Jaffe (un fisico del MIT), propose
un’interpretazione alternativa dell’effetto Casimir, sostenendo
che: “L’effetto Casimir può essere formulato e le forze di Casimir
possono essere calcolate senza riferimenti alle energie di punto
zero. Esistono forze quanto-relativistiche tra le cariche e le
correnti. La forza di Casimir (per unità di area) tra le piastre
parallele svanisce nel momento in cui alfa (la costante di
struttura fine), tende a zero; e il risultato standard (che sembra
essere indipendente da alfa), corrisponde all’avvicinamento di
alfa, ad un limite infinito. (…) La forza di Casimir è
semplicemente la forza (relativistica e a potenziale ritardato) di
Van der Waals, tra le piastre metalliche”.

9
L'effetto Casimir è stato verificato sperimentalmente nel 1997 da Steven
Lamoreaux, della Washington University di Seattle, e da Umar Mohideen e
Anushree Roy della University of California a Riverside. Nel 2001, un gruppo
formato da Giacomo Bressi, Gianni Carugno, Roberto Onofrio e Giuseppe
Ruoso, all’Università di Padova, sono riusciti a misurare la forza di Casimir
tra due piastre parallele, utilizzando dei microrisonatori.
Esistono alcuni casi in cui l’effetto Casimir può dare origine a
forze repulsive tra oggetti non caricati. Evgeny Lifshitz ha
mostrato (in via teorica) che, in determinate circostanze
(specialmente in quelle dove sono coinvolti dei liquidi), possono
sorgere delle forze repulsive. Questo ha suscitato interesse nelle
applicazioni dell'effetto Casimir, improntate verso lo sviluppo di
dispositivi a levitazione. Una dimostrazione sperimentale della
repulsione basata sull’effetto Casimir (prevista da Lifshitz), è
stata recentemente effettuata da Munday e colleghi. Altri
scienziati hanno anche suggerito l’impiego di opportuni
amplificatori, per ottenere un simile effetto di levitazione; tuttavia
questa rimane un’alternativa piuttosto controversa, poiché i
materiali in questione sembrano violare i vincoli fondamentali di
causalità e l’esigenza dell’equilibrio termodinamico (relazioni di
Kramers-Kronig). La repulsione di Casimir (nonché quella di
Casimir-Polder), può in fatti verificarsi per corpi elettrici
sufficientemente anisotropici.
Poiché l'effetto Casimir mostra che la teoria quantistica permette
che la densità di energia in determinate regioni dello spazio sia
negativa (rispetto all'energia del vuoto ordinario), ed è stato
dimostrato che teoricamente la teoria quantistica permette stati in
cui l'energia può essere arbitrariamente negativa in un dato punto,
molti fisici come Stephen Hawking, Kip Thorne ed altri,
sostengono che tali effetti possano consentire di stabilizzare un
cunicolo spazio-temporale attraversabile. Suggerimenti simili
sono inoltre stati fatti per il “propulsore a curvatura” di Miguel
Alcubierre.
Si ricordi inoltre la possibilità di disporre più fasci di luce laser,
in modo tale da creare un’interferenza quantistica distruttiva, in
grado di sopprimere le fluttuazioni del vuoto. Un tale stato di
vuoto “spremuto”, coinvolge dell’energia negativa. La forma
d’onda ripetitiva della luce, genera infatti delle zone in cui
l’energia positiva e quella negativa, si alternano a vicenda.
Possono esistere persino delle particelle virtuali con energia
negativa, ma solo per un intervallo di tempo infinitamente
piccolo. Questo fenomeno è una parte del meccanismo coinvolto
nella Radiazione di Hawking (grazie al quale si ha
un’evaporazione pressoché istantanea dei mini buchi neri).
Nella teoria quantistica-relativistica di Dirac, sono possibili
transizioni da energia positiva ad energia negativa10. In questo
senso però le particelle dovrebbero “saltare” spontaneamente
sempre a stati ad energia negativa (stati di energia minore e quindi
più stabili). Per risolvere tale incongruenza Dirac ipotizzò che
tutti gli stati ad energia negativa siano già occupati e per il
principio di esclusione di Pauli, non se ne possano aggiungere
altri. Nella “teoria del mare di Dirac” (1930), gli elettroni
(essendo fermioni) soddisfano il principio di Pauli (due elettroni
non possono occupare uno stesso stato). Gli stati ad energia
positiva corrispondono agli elettroni che riesco a rilevare, mentre
gli stati ad energia negativa sono sempre occupati e costituiscono
il vuoto quantistico. Un elettrone però può acquistare energia dai
fotoni circostanti e andare su stati di energia positiva (ad esempio
se applico un campo elettrico o magnetico sufficientemente
forte). Qui Dirac mostrò tutto il suo genio, argomentando che la
stessa cosa poteva accadere agli elettroni con energia negativa che
riempiono il vuoto: un fotone dovrebbe poter sbalzare un
elettrone di energia negativa facendogli raggiungere uno stato di
energia positiva. Il risultato sarebbe un elettrone in più con
energia positiva e uno in meno con energia negativa (un “buco”
nel mare di Dirac). Essendo un elettrone mancante, il “buco” si
comporterebbe come se avesse carica opposta a quella
dell’elettrone, e apparirebbe esattamente come una particella di
carica positiva. Fu dunque questa la previsione di Dirac:
dovrebbero esistere delle particelle identiche agli elettroni, ma di

10
L’equazione di Dirac, che descrive in modo relativisticamente invariante il
moto delle particelle a spin semi-intero (fermioni), nasce come tentativo di
ovviare agli inconvenienti generati dall'equazione di Klein-Gordon. Tale
equazione di Klein-Gordon, infatti, non solo aveva soluzioni ad energia
positiva ma anche soluzioni ad energia negativa; ma soprattutto presentava una
difficoltà nell'interpretazione della funzione d'onda. Tale difficoltà nasceva dal
fatto che la densità di probabilità poteva anche assumere valori negativi o nulli,
ovvero non era definita positiva.
carica elettrica opposta. I positroni, che in seguito Feynman
avrebbe interpretato come elettroni che si muovono a ritroso nel
tempo, furono pensati da Dirac come “buchi” nel vuoto, che
vengono sempre creati in associazione ad elettroni ordinari, in
collisioni di fotoni sufficientemente energetici.
La previsione da parte di Dirac dell’esistenza dell’antimateria fu
uno dei grandi momenti nella storia della fisica. Non solo
condusse da lì a poco alla scoperta sperimentale del positrone, ma
marcò anche l’avvento di un settore completamente nuovo: la
teoria quantistica dei campi. Aprì la porta alla scoperta dei
diagrammi di Feynman ed in seguito all’elaborazione del
Modello Standard. Per dirla con Leonard Susskind: “Dirac non
pensava ad alcun esperimento quando scoprì la notevole
equazione che porta il suo nome e che descrive la meccanica
quantistica dell’elettrone. Pensava a come rendere
matematicamente compatibile con la relatività speciale
l’equazione di Schrödinger, valida in regime non relativistico.
Una volta ottenuta l’equazione di Dirac, la strada era
completamente spianata per l’elaborazione dell’intera
elettrodinamica quantistica. Certo, i teorici si sarebbero
imbattuti nei problemi matematici che furono rattoppati alla
bell’e meglio con la teoria della rinormalizzazione, ma non ci
sarebbe stato alcun ostacolo alla costruzione della moderna
teoria quantistica dei campi. E i fisici si sarebbero ritrovati ad
interrogarsi senza fine sull’enormità dell’energia del vuoto e sul
perché essa non abbia effetti gravitazionali”.
In un articolo del 1937, Majorana riuscì a fornire una descrizione
separata delle particelle dalle antiparticelle nell’ambito di
equazioni a componenti finite. Questa nuova teoria di Majorana è
stata riassorbita ed interpretata dalla letteratura manualistica
come la semplice scoperta di una nuova rappresentazione delle
matrici di Dirac (la cosiddetta “rappresentazione di Majorana”),
ma non è affatto equivalente alla teoria di Dirac; non si tratta
semplicemente della possibile non esistenza di alcuni tipi di
antiparticelle, o di alcune differenti proprietà dei neutrini. Essa è
una soluzione al problema dell’energia, che evita i problemi della
rinormalizzazione legati agli stati ad energia negativa e alla
conseguente concezione del vuoto della teoria in questione.
Il vuoto diventa ancora più complicato quando lo spazio-tempo è
curvato, come nella Relatività Generale. La curvatura infatti
influenza la distribuzione spaziale delle fluttuazioni del campo
quantistico e, come l'accelerazione, può indurre un'energia del
vuoto non nulla. Dal momento che la curvatura può variare da
punto a punto, può variare anche l'energia del vuoto,
mantenendosi positiva in alcuni punti e negativa in altri. Ora, in
qualsiasi teoria coerente, l'energia si deve conservare.
Supponiamo dunque che un aumento della curvatura provochi un
aumento dell'energia del nostro vuoto quantistico. Tale energia
deve pur venire da qualche parte, e quindi la stessa esistenza delle
fluttuazioni del campo quantistico implica che sia necessaria
dell'energia per curvare lo spazio-tempo. Insomma, lo spazio-
tempo si oppone in qualche modo alla curvatura, proprio come
una molla rigida oppone resistenza ad essere allungata. Nel 1967
il famoso fisico russo Andrej Dimitrievic Sacharov (1921–1989),
prima padre della bomba atomica sovietica e poi strenuo
difensore dei diritti umani e Premio Nobel per la Pace, dimostrò
che la gravitazione potrebbe essere un fenomeno puramente
quantistico, derivante dall'energia del vuoto, e che la costante di
Newton o, in modo equivalente, la rigidità 1/G dello spazio-
tempo, è derivabile non solo dall'esperienza, ma anche dai
principi fondamentali della Meccanica Quantistica. Quest'idea
rivoluzionaria incontrò però enormi difficoltà. In primo luogo,
essa richiede che la gravità venga sostituita, come campo
fondamentale, da un "campo di gauge di grande unificazione"11

11
Un campo di gauge è un campo dotato di particolari simmetrie. Le teorie di
gauge, o teorie di scala, sono una classe di teorie di campo basate sull'ipotesi
che alcune simmetrie, cioè trasformazioni che lasciano invariata la lagrangiana
del sistema, siano possibili non solo globalmente, ma anche localmente. Il
concetto alla base delle teorie di gauge è di postulare che le lagrangiane
debbano possedere anche simmetrie locali, cioè che sia possibile effettuare
queste trasformazioni di simmetria solo in una particolare e limitata regione
legato alle particelle elementari note. Si deve introdurre a questo
punto una massa fondamentale per poter ottenere una scala
assoluta di unità; e quindi una costante fondamentale viene
sostituita da un'altra, senza particolari vantaggi.
In secondo luogo, la dipendenza calcolata dell'energia del vuoto
dalla curvatura conduce a una teoria della gravità incredibilmente
più complessa di quella di Einstein. Un vero vuoto è definito
come uno stato di equilibrio termico allo zero assoluto. Nella
gravità quantistica12 un tale vuoto può esistere soltanto se la

dello spazio-tempo senza interessare il resto dell'universo. Questo requisito


può essere visto, in senso filosofico, come una versione generalizzata del
principio di equivalenza della relatività generale. L'importanza delle teorie di
gauge per la fisica nasce dall'enorme successo di questo formalismo
matematico nel descrivere, in un solo quadro teorico unificato, le teorie di
campo quantistico dell'elettromagnetismo, dell'interazione nucleare debole e
dell'interazione nucleare forte. Questo quadro teorico, noto come Modello
standard, descrive accuratamente i risultati sperimentali di tre delle quattro
forze fondamentali della natura, ed è una teoria di gauge con gruppo di gauge
SU(3) × SU(2) × U(1). Altre teorie moderne, come la teoria delle stringhe e
certe formulazioni della relatività generale, sono, in un modo o nell'altro, teorie
di gauge.

12
Quando un effetto quantistico, come la produzione di particelle o l'energia
del vuoto, influenza la curvatura dello spazio-tempo, la curvatura medesima
diventa un oggetto quantistico. Per lunghezze d'onda grandi rispetto alla
lunghezza di Planck, le fluttuazioni quantistiche del campo gravitazionale
quantizzato sono piccole, e possono essere trattate come una debole
perturbazione dei risultati classici. Ma alle lunghezze d'onda e alle energie di
Planck, la situazione si fa decisamente più complicata. Le particelle mediatrici
del campo gravitazionale (i gravitoni), sono così debolmente interagenti con la
materia ordinaria, che perfino un'intera galassia è quasi totalmente trasparente
per essi. I gravitoni interagiscono apprezzabilmente con la materia solo quando
raggiungono le energie di Planck; a tali energie, essi si comportano né più e né
meno come dei nano-buchi neri, e dunque sono in grado di indurre curvature
significative nella geometria dello spazio, e di distorcerla completamente. Da
notare come l'energia trasportata da un gravitone sia in grado di distorcere non
solo la geometria dello spazio tempo (cioè il tensore metrico), ma pure le onde
associate al gravitone stesso. Questa è una conseguenza della non linearità
della teoria di Einstein: quando si sovrappongono due campi gravitazionali, il
campo risultante non è uguale alla somma dei due campi componenti. La teoria
curvatura è indipendente dal tempo. Quando la curvatura dipende
dal tempo, nel vuoto possono apparire spontaneamente delle
particelle dal nulla, con il risultato che non si tratta più di un
vuoto. Il meccanismo di produzione di particelle può essere
spiegato anche in termini di oscillatori armonici: quando cambia
la curvatura dello spazio-tempo, cambiano anche le proprietà
fisiche degli oscillatori del campo. Supponiamo che un oscillatore
si trovi inizialmente nel suo stato fondamentale, soggetto quindi
a oscillazioni di punto zero. Se cambia una delle sue proprietà,
come la massa o la costante elastica della molla, le sue
oscillazioni di punto zero devono a loro volta adattarsi alla
variazione. Dopo l'adattamento c'è una probabilità finita che
l'oscillatore non si trovi più nel suo stato fondamentale, ma in uno
stato eccitato. Il fenomeno è analogo all'aumento di vibrazione
indotto in una corda vibrante di un pianoforte quando aumenta la
sua tensione; l'effetto è chiamato eccitazione parametrica. Nel
campo quantistico, l'analogo dell'eccitazione parametrica è la
produzione di particelle.
La discussione sul vuoto è tuttora al centro degli studi di fisica
teorica, in particolare della teoria quantistica dei campi. Il vuoto
è dunque definito come lo stato del sistema di energia minore. In
realtà tale energia è infinita: la presenza degli infiniti nella teoria
quantistica dei campi ha provocato molte reazioni di dissenso
presso alcuni fisici che la guardano come una teoria provvisoria,
che necessita di essere superata da altre senza infiniti scomodi.
Resta il fatto però che, trattando nei problemi non energie
assolute, ma differenze di energie in cui gli infiniti si elidono ( si

della gravità quantistica è perciò fortemente non lineare. Di solito si trattano le


non linearità con un metodo di approssimazioni successive chiamato teoria
delle perturbazioni, basata sul perfezionamento di un'approssimazione iniziale
mediante una serie di correzioni progressivamente più piccole. Nel caso della
gravità quantistica però la teoria delle perturbazioni non è applicabile perché,
ad una scala di energie paragonabili a quelle di Planck i successivi termini della
serie di perturbazioni (cioè le successive correzioni) non sono affatto
trascurabili, e troncare la serie a un numero finito di termini non porta a
un'approssimazione valida, poiché nel quantizzare il campo gravitazionale si
quantizza lo stesso spazio-tempo.
pensi per analogia alla differenza di potenziale che viene definita
univocamente mentre il potenziale assoluto dipende da un
parametro c), è possibile dedurre risultati sensati e le previsioni
teoriche sono in perfetto accordo con l’esperienza. Ad oggi la
teoria fisica corretta per spiegare fenomeni dove entra in gioco il
vuoto è la teoria quantistica dei campi.

Massa negativa

In fisica teorica, la massa negativa è da intendersi come un


concetto ipotetico di materia, la cui massa è di segno opposto
rispetto alla massa della materia ordinaria (ad esempio, una massa
ordinaria di 6 kg, corrisponderebbe, se fosse negativa, a -6 kg).
Questo tipo di materia, se esistesse, violerebbe una o più
condizioni sull’ energia e mostrerebbe alcune proprietà strane
(una di queste ad esempio, potrebbe essere un’eventuale forza
gravitazionale repulsiva). La massa negativa interviene in alcune
teorie speculative sui cunicoli spazio-temporali (wormholes).
Il rappresentate reale più conosciuto e vicino a tale materia
esotica, è una regione a densità di pressione pseudo-negativa,
prodotta dall’effetto Casimir. Anche se la Relatività Generale ben
descrive le leggi del moto per le particelle, sia ad energia positiva
che negativa (dunque di massa negativa), non include le forze
fondamentali diverse dalla gravitazione. Mentre il Modello
Standard, che descrive le particelle elementari, non comprende la
gravitazione, che è ancora intimamente coinvolta nell’origine
della massa e dell’inerzia. Il punto è che un modello teorico
corretto, dovrebbe esplicitamente includere anche la gravità.
Nella Relatività Generale, la massa negativa è generalmente
riferita a qualsiasi regione di spazio in cui, per alcuni osservatori,
la densità della massa viene misurata per rivelarsi negativa. Ciò
potrebbe verificarsi a causa di una regione di spazio in cui la
componente di sollecitazione relativa al tensore- energia-
impulso13 di Einstein, è maggiore in grandezza rispetto alla
densità di massa. Tutte queste sono violazioni di una o di un'altra
variante della condizione di energia positiva, definita nella teoria
della Relatività Generale di Einstein. Tuttavia, la condizione di
energia positiva, non rappresenta una condizione necessaria per
la consistenza matematica della teoria. Infatti, esistono diverse
versioni della condizione di energia positiva (come pure della
condizione di debole energia, di quella di energia dominante,
etc.). Tali “versioni alternative”, sono state dettagliatamente
vagliate e discusse dal matematico Matt Visser, della Victoria
University di Wellington (in Nuova Zelanda).
I primi riferimenti alla massa negativa risalgono agli inizi del
1700, dove attraverso lo studio della teoria del flogisto14, si arrivò
a constatare che i metalli, quando si ossidano, aumentano di peso.
Dal giorno in cui Newton formulò la sua teoria sulla gravitazione,
vennero definite almeno tre quantità concettualmente distinte,

13
Il tensore-energia-impulso, anche detto tensore-energia-momento, è un
tensore definito nell'ambito della teoria della Relatività Generale. Esso
descrive il flusso di energia e quantità di moto associate ad un campo.

14
La teoria del flogisto sulla combustione dei materiali è una teoria elaborata
nel XVII secolo con l'intento di spiegare i processi di ossidazione e
combustione, successivamente smentita e abbandonata dopo che fu resa
pubblica la legge della conservazione della massa di Antoine Lavoisier. La
teoria in sostanza sostiene che i materiali combustibili e metalli arroventati si
trasformavano in "calci" (oggi diremmo semplicemente che si ossidano)
producendo durante il processo di combustione o di calcinazione, il "flogisto",
un misterioso principio di infiammabilità o principio solforoso. Tale teoria di
un principio di infiammabilità fu elaborata inizialmente dal chimico tedesco
Johann Joachim Becher (1635-1682) e successivamente sviluppata e formulata
dal connazionale Georg Ernst Stahl (1660-1734), grande medico appassionato
di chimica, che nel 1697 la propose nel suo libro Zymotechnia fundamentalis
sive fermentationis theoria generalis (tradotto: Zimotecnia fondamentale
ovvero teoria generale della fermentazione).
chiamate massa: la massa inerziale15, la massa gravitazionale
“attiva”16 e la massa gravitazionale “passiva”17. Il principio di
equivalenza di Einstein, postula che la massa inerziale debba
essere uguale alla massa gravitazionale passiva. La legge della
conservazione della quantità di moto, richiede che la massa
gravitazionale attiva e la massa gravitazionale passiva, siano
identiche. Tutte le prove sperimentali eseguite sino ad oggi,
hanno sempre confermato queste leggi fisiche. In tale contesto, è
dunque importante considerare quali siano le tipologie di massa,
che potrebbero assumere dei valori negativi (ovvero risultare, in
determinate circostanze, delle masse negative). Nella maggior
parte delle analisi matematiche eseguite in seno al concetto di
massa negativa, emerge che il principio di equivalenza e la
conservazione della quantità di moto, continuano ad essere
implicate e dunque tutte e tre le tipologie di massa restano uguali.
Nel suo primo saggio a concorso (premiato nel 1951 dalla Gravity
Research Foundation), Joaquin Mazdak Luttinger considerò la
possibilità di una massa negativa e di come essa si comporterebbe
sotto l’influenza di forze gravitazionali e di altro genere. Nel

15
La massa inerziale “m” di un corpo qualsiasi (nella definizione newtoniana),
viene definita nei Principia come quantità di materia, legandola al principio di
proporzionalità come costante di proporzionalità tra la forza applicata “F” e
l’accelerazione subita “a” (m = F/a).
16
La massa gravitazionale attiva di un corpo, è proporzionale all'intensità del
campo gravitazionale da esso generata. Maggiore è la massa gravitazionale
attiva di un corpo, più intenso è il campo gravitazionale da esso generato, e
quindi la forza esercitata dal campo su un altro corpo; per fare un esempio, il
campo gravitazionale generato dalla Luna è minore (a parità di distanza dal
centro dei due corpi celesti) di quello generato dalla Terra, perché la sua massa
è minore.
17
La massa gravitazionale passiva è una grandezza fisica proporzionale
all'interazione di ciascun corpo con il campo gravitazionale. All'interno dello
stesso campo gravitazionale, un corpo con massa gravitazionale piccola
sperimenta una forza minore di quella di un corpo con massa gravitazionale
grande: la massa gravitazionale è proporzionale al peso, ma mentre
quest'ultimo varia a seconda del campo gravitazionale, la massa resta costante.
L'equivalenza tra la massa gravitazionale attiva e quella passiva è una diretta
conseguenza del terzo principio della dinamica di Newton.
1957, seguendo le teorie di Luttinger, Hermann Bondi propose (in
un articolo che venne pubblicato sulla Reviews of Modern
Physics) l’idea che la massa possa essere sia positiva che
negativa. Egli sottolineò che ciò non comporterebbe alcuna
contraddizione logica, finché tutte e tre le tipologie di massa
rimangono negative; ma che tuttavia, il concetto di massa
negativa, in una sua ipotetica applicazione, darebbe luogo a
qualche forma di moto contro-intuitiva. Ad esempio, un oggetto
con massa inerziale negativa, teoricamente dovrebbe accelerare
nella direzione opposta a quella in cui è stato spinto.
Delle analogie con una simile situazione (contro-intuitiva), si
possono riscontrare nel campo dei metamateriali. Risale infatti al
2012, la teoria che un metamateriale dotato di due stati metastabili
potrebbe manifestare, per un certo intervallo di forze applicate,
una transizione di fase nella quale manifesterebbe una
comprimibilità negativa (una proprietà che fino al 2012, fu
sempre ritenuta impossibile). In parole povere, la proprietà
controintuitiva teorizzata da alcuni ricercatori della Northwestern
University, vuole che se si comprime il suddetto metamateriale
esso si allunghi, mentre se si cerca di tenderlo, esso si accorci!18

18
Questo tipo di risposta (contrazione sotto tensione e allungamento sotto
pressione) si sa che può essere manifestata da alcuni particolari materiali
quando questi vengono sottoposti a una forza che varia molto rapidamente in
modo sinusoidale; ma in realtà, in questo caso ci si trova di fronte solamente a
uno sfasamento temporale tra la forza applicata e la deformazione che ne
consegue. Finora si riteneva infatti che un materiale dotato di una
“comprimibilità negativa” in risposta a una forza costante fosse semplicemente
impossibile: se si prende una bacchetta di qualsiasi materiale normale e si
applica una tensione, il materiale si allunga leggermente, esercitando una forza
di richiamo che bilancia la tensione, così da raggiungere un nuovo stato di
equilibrio. Se applicando la tensione un materiale rispondesse riducendosi, la
tensione aumenterebbe, inducendo il materiale a contrarsi ancora di più, fino
al collasso. Una tensione anche minima porterebbe quindi alla distruzione del
materiale stesso. E lo stesso avverrebbe nel caso di una pressione. Tuttavia,
Nicolaou Zachary e Adilson Motter della Northwestern University hanno
scoperto che un materiale dotato di comprimibilità negativa può esistere,
Sono stati eseguiti diversi altri studi sul concetto di massa
negativa (tra cui anche quello del fisico americano Richard H.
Price, specializzato nella teoria della RG), ma nessuno ha mai
affrontato la questione di quale tipo di energia e quantità di moto
sarebbero necessari per descrivere una massa negativa non-
singolare. Infatti, la soluzione di Schwarzschild per il parametro
della massa negativa, presenta una singolarità nuda in una
posizione spaziale fissa. La domanda che sorge immediatamente
è dunque la seguente: non sarebbe possibile “appianare” tale
singolarità con qualche tipo di densità a massa negativa? Ebbene
la risposta è sì, ma non con l’energia e la quantità di moto che
soddisfano la condizione di energia dominante. Questo perché se
l’energia e la quantità di moto soddisfano la condizione di energia
dominante in uno spazio-tempo asintoticamente piatto, in cui
sarebbe opportuno “appianare” la massa negativa (singolarità)
della soluzione di Schwarzschild, allora tale soluzione deve
soddisfare il teorema di energia positiva (ciò significa che la
massa in questione, secondo il formalismo ADM19, deve essere
positiva; il che ovviamente fa cadere tutto il costrutto di partenza).
Tuttavia, è stato notato da Belletête e Paranjape che, poiché il
teorema di energia positiva non si applica allo spazio-tempo
asintotico di De Sitter, sarebbe effettivamente possibile
“appianare” (con energia e quantità di moto che soddisfino la
condizione di energia dominante), la singolarità che corrisponde
alla soluzione esatta di Schwarzschild-De Sitter, della massa
negativa (che corrisponde all’esatta e singolare soluzione delle
equazioni di Einstein, in cui è inclusa la costante cosmologica).
In un successivo articolo, Mbarek e Paranjape dimostrarono che

quanto meno per un piccolo intervallo di valori, cioè attraverso quella che
rappresenta una transizione di fase.
19
Il formalismo ADM, sviluppato da Arnowitt, Deser e Misner è una
formulazione hamiltoniana della relatività generale. Questa formulazione
gioca un ruolo importante sia nella gravità quantistica, sia nella relatività
numerica.
è infatti possibile ottenere la deformazione desiderata, attraverso
l'introduzione di energia e quantità di moto di un fluido perfetto.
Sebbene non si conosca nessuna particella avente massa negativa,
alcuni fisici (tra cui Hermann Bondi, William B. Bonnor e Robert
L. Forward) sono stati in grado di descrivere, con molti anni
d’anticipo, alcune delle proprietà che tali particelle possono
avere. Supponendo che tutte e tre le tipologie di massa (inerziale,
attiva e passiva) siano equivalenti, le interazioni gravitazionali tra
le masse di segno arbitrario possono essere esplorate, tramite le
equazioni di campo di Einstein; da ciò si evince che:
- Una massa positiva attrae sia altre masse positive, come
pure delle masse negative;
- Una massa negativa respinge sia altre masse negative,
come pure delle masse positive.
Per due masse positive, non cambia nulla e la forza
gravitazionale, presente da ambo le parti, provoca un’attrazione
reciproca. Due masse negative invece, si respingerebbero a causa
delle loro masse inerziali negative. Tuttavia, per segni diversi tra
loro, vi è una forza che respinge la massa positiva dalla massa
negativa, e contemporaneamente, una forza che spinge la massa
negativa verso la massa positiva.
Bondi ha sottolineato che due oggetti di massa uguale ed opposta
(di segno diverso), produrrebbero un’accelerazione costante del
sistema verso l’oggetto di massa positiva; un effetto chiamato
“runaway motion” da Bonnor, il quale ne mise subito in dubbio
l’esistenza affermando che: “Il concetto di auto-accelerazione
[runaway motion] mi pare così assurdo, che preferisco
escluderlo a priori e supporre che la massa inerziale possa essere
o del tutto positiva, oppure completamente negativa”. Una simile
coppia d’oggetti accelererebbe senza limiti (rispettando solo
quello relativistico); tuttavia, la massa totale, l’energia e la
quantità di moto del sistema rimarrebbero nulle. Questo
comportamento è del tutto incompatibile con un approccio dettato
dal buon senso e da quanto ci si aspetterebbe dalla materia
ordinaria (“normale”); tuttavia, è a tutti gli effetti
matematicamente coerente e non introduce alcuna violazione
della conservazione della quantità di moto o dell’energia. Se le
masse risultano uguali in grandezza, ma sono di segno opposto,
allora la quantità di moto del sistema rimane nulla se entrambe
viaggiano assieme ed accelerano insieme (a prescindere dalla loro
velocità). Ulteriori analisi di Forward hanno inoltre dimostrato
che, anche se le due masse di segno opposto non sono uguali, le
leggi di conservazione rimangono inalterate. Ciò è vero anche
quando vengono considerati gli effetti relativistici; a condizione
che la massa inerziale (non quella a riposo!), sia uguale alla massa
gravitazionale.
Questo comportamento può produrre risultati bizzarri: ad
esempio, un gas contenente una miscela di particelle di materia
sia positive che negative, avrà un aumento illimitato di
temperatura della parte contenete le particelle positive. Tuttavia,
la porzione di materia negativa guadagna temperatura negativa
alla stessa velocità, sempre bilanciando il tutto.
Geoffrey A. Landis ha sottolineato altre implicazioni delle analisi
di Forward; una di queste dimostrerebbe che, anche se le
particelle di massa negativa si respingerebbero l’un l’altra a causa
delle forze gravitazionali, la forza elettrostatica sarebbe attrattiva
per cariche dello stesso segno e repulsiva per cariche opposte.
Forward ha utilizzato le proprietà della materia di massa negativa
per creare il concetto di “Diametric Drive”, un progetto per la
realizzazione di un propulsore aerospaziale che funzionerebbe
utilizzando massa negativa (la quale non richiederebbe energia
d’alimentazione, come neppure una massa reattiva per ottenere
arbitrariamente forti accelerazioni). Forward ha persino coniato il
termine “nullificazione” per descrivere cosa accade quando la
materia ordinaria e quella negativa si incontrano: esse
opererebbero, senza riuscirvi, al fine di “nullificare” se stesse
reciprocamente.
Un’interazione tra quantità uguali di materia con massa positiva
(quindi di energia positiva E=mc2) e materia con massa negativa
(di energia negativa –E= -mc2), non rilascerebbe alcuna energia;
ma poiché l’unica configurazione di tali particelle con una
quantità di moto pari a zero (dove entrambe le particelle si
muovono con la stessa velocità nella stessa direzione) non
produce una collisione, tutte queste interazioni lascerebbero un
surplus di quantità di moto, proibito dalla fisica classica. E questo
è uno dei motivi per cui si ritiene che la massa negativa non possa
esistere in modo naturale, nell’Universo.
Nel 1970, Jean-Marie Souriau riuscì a dimostrare, attraverso il
gruppo (completo) di Poincaré della teoria (dinamica) dei gruppi,
che invertendo l’energia di una particella (e quindi la sua massa,
se la particella ne è provvista), si ottiene altresì l’inversione della
sua “freccia del tempo”.
L’Universo, secondo la teoria della Relatività Generale, è da
intendersi come una varietà Riemanniana, associata ad una
soluzione del tensore metrico delle equazioni di campo di
Einstein. In tale quadro di riferimento, il principio di auto-
accelerazione (“runaway motion”), impedisce l’esistenza della
materia negativa. Alcune teorie bimetriche sull’Universo,
rivelano che potrebbero esistere ben due Universi paralleli
(invece di uno), con opposte “frecce del tempo” e collegati tra
loro dal Big Bang (interagendo reciprocamente solo attraverso la
gravitazione). In tale contesto l’Universo viene descritto come un
“collettore” associato a due metriche Riemanniane (una con
materia a massa positiva e l’altra con materia a massa negativa).
Secondo la teoria dei gruppi, la materia di questa “metrica
congiunta”, apparirebbe verso la materia di un’altra metrica,
come se avesse una massa (nonché una freccia del tempo)
opposta. Le metriche accoppiate, hanno le loro geodetiche e sono
soluzioni di due equazioni di campo accoppiate.
L’approssimazione newtoniana, fornisce quindi le seguenti leggi
d’interazione:
- La massa positiva attrae massa positiva;
- La massa negativa attrae massa negativa;
- Massa positiva e massa negativa si respingono a vicenda.
Queste leggi sono diverse da quelle descritte da Bondi e Bonnor,
e risolvono il paradosso dell’auto-accelerazione. La materia
negativa della metrica congiunta (accoppiata), interagendo con la
materia dell’altra metrica attraverso la gravità, potrebbe
rappresentare un candidato alternativo per la spiegazione della
materia oscura, dell’energia oscura, dell’inflazione cosmica e
persino dell’accelerazione dell’Universo.
Nella teoria dell’elettromagnetismo è possibile ricavare la densità
di energia di un campo, dalla legge di Gauss20 (assumendo che la
curvatura del campo sia nulla). Eseguendo lo stesso calcolo
utilizzando la legge di Gauss per la gravità, si ottiene la densità di
energia negativa per un campo gravitazionale. Lo schiacciante
consenso tra i fisici, vuole che l’antimateria abbia massa positiva
e dovrebbe essere influenzata dalla gravità, proprio come la
materia normale. Esperimenti diretti sull'anti-idrogeno neutro,
non hanno rilevato alcuna differenza tra l’interazione
gravitazionale dell’antimateria, e quella relativa alla materia
ordinaria (normale). Gli esperimenti con camere a bolle,
forniscono ulteriori prove sul fatto che le antiparticelle hanno la
stessa massa inerziale delle loro controparti ordinarie (normali).
In questi esperimenti, la camera a bolle viene sottoposta ad un
campo magnetico costante che genera particelle cariche che si
muovono su percorsi elicoidali, aventi raggio e direzione
corrispondenti al rapporto tra carica elettrica e massa inerziale. Si
è osservato che le coppie particella-antiparticella, viaggiano su
percorsi elicoidali con direzioni opposte, ma con raggi identici;
ciò implica che i rapporti differiscono solo nel segno (positivo o

20
Nella teoria dei campi vettoriali il teorema del flusso, anche noto come
teorema di Gauss (o legge di Gauss), afferma che i campi vettoriali radiali
dipendenti dal reciproco del quadrato della distanza dall'origine, hanno flusso
attraverso una qualunque superficie chiusa indipendente dalla posizione
interna delle cariche che lo generano. L'enunciato ha due espressioni, una
integrale e una differenziale, legate tra di loro dal teorema della divergenza.
negativo, per intenderci). In ogni caso ciò non indica se si tratta
della carica oppure della massa inerziale, che viene invertita.
Tuttavia, si è osservato che le coppie particella-antiparticella, si
attraggono elettricamente a vicenda. Questo comportamento
implica che entrambe hanno una massa inerziale positiva e
cariche opposte; se fosse vero il contrario, allora la particella con
massa inerziale positiva, verrebbe respinta dalla sua antiparticella
gemella.
Nel 1928, Paul Dirac, nel suo approccio alla teoria delle particelle
elementari (ora parte integrante del Modello Standard), aveva già
incluso delle soluzioni negative. Il Modello Standard è una
generalizzazione dell’elettrodinamica quantistica (QED), e la
massa negativa è inclusa in tale teoria. Morris, Thorne e Yurtsever
hanno sottolineato che la meccanica quantistica inerente
all’effetto Casimir, potrebbe essere utilizzata per definire una
zona locale di massa negativa dello spazio-tempo. Nei loro
articoli, hanno teoricamente dimostrato che la materia negativa
potrebbe essere utilizzata per stabilizzare dei cunicoli spazio-
temporali. Cramer e colleghi sostengono che tali wormholes
potrebbero essere stati creati nell’Universo primordiale, ed
essersi stabilizzati grazie ad anelli di massa negativa della stringa
cosmica. Stephen Hawking ha dimostrato che l'energia negativa
è una condizione necessaria per la creazione di una curva spazio-
temporale chiusa di tipo tempo21, che origini (prenda forma) dalla

21
In fisica teorica, una curva spazio-temporale chiusa di tipo tempo (in inglese
Closed Timelike Curves, CTC) è una linea di universo chiusa, nella quale un
eventuale oggetto che la percorresse, continuando a viaggiare nel futuro
tornerebbe, sia nello spazio che nel tempo, al punto da cui è cominciata la linea
di universo stessa (tale oggetto tornerebbe dunque, nello stesso luogo e nello
stesso istante di tempo da cui è partito). Esistono metriche, soluzioni delle
equazioni di Einstein della relatività generale, che permettono la presenza di
tali linee. La scoperta di queste soluzioni è dovuta a Kurt Gödel nel 1949. Dopo
aver letto i risultati dell'amico matematico, Einstein confessò che il problema
di uno spazio-tempo che permettesse curve temporali chiuse lo aveva
preoccupato già all'epoca in cui stava elaborando la teoria della relatività
generale, senza peraltro essere riuscito a chiarirlo. Altre soluzioni furono in
manipolazione di campi gravitazionali all’interno di una regione
limitata di spazio; ciò dimostra, ad esempio, che un cilindro di
Tipler finito non può essere utilizzato come macchina del tempo.
Per gli autostati22 dell’energia dell’equazione di Schrödinger23, la
funzione d’onda24 è ondulatoria ovunque l’energia della particella
sia superiore al potenziale locale, ed evanescente (esponenziale)
dove invece risulti essere inferiore. Ingenuamente, si potrebbe
dedurre che l’energia cinetica sia negativa in regioni evanescenti
(per annullare il potenziale locale). Tuttavia, in meccanica

seguito proposte (cilindri rotanti, buchi neri rotanti, wormholes, etc.), ma non
è ancora chiaro se le condizioni imposte siano “fisicamente accettabili”. La
reale esistenza di CTC implicherebbe la possibilità di violazioni del principio
di causalità.

22
In meccanica quantistica gli autostati dell'energia di un sistema sono gli stati
descritti dagli autovettori dell'operatore hamiltoniano, ottenuti mediante
risoluzione dell'equazione di Schrodinger, indipendente dal tempo.

23
In meccanica quantistica l'equazione di Schrödinger è un'equazione
fondamentale che determina l'evoluzione temporale dello stato di un sistema,
ad esempio di una particella, di un atomo o di una molecola. Formulata da
Erwin Schrödinger nel 1926, è una equazione differenziale alle derivate
parziali lineare che ha come incognita la funzione d'onda, introdotta basandosi
sull'ipotesi di de Broglie, secondo la quale anche le particelle che costituiscono
la materia, come l'elettrone, hanno un comportamento ondulatorio. Secondo
l'interpretazione di Copenaghen il modulo quadro della funzione d'onda ha il
significato di probabilità di trovare una particella in una determinata
configurazione. L'equazione di Schrödinger ha avuto un ruolo determinante
nella storia della meccanica quantistica, ad esempio permettendo di
comprendere perché soltanto alcuni valori discreti dell'energia sono ammessi
per l'elettrone nell'atomo di idrogeno.

24
In meccanica quantistica, la funzione d'onda rappresenta uno stato fisico del
sistema quantistico. È una funzione complessa delle coordinate spaziali e del
tempo e il suo significato è quello di un'ampiezza di probabilità (da cui
l'utilizzo dei termini "funzione d'onda" e "ampiezza di probabilità" come
sinonimi, oppure di definizione del primo in funzione del secondo), ovvero il
suo modulo quadro rappresenta la densità di probabilità dello stato sulle
posizioni.
quantistica l’energia cinetica è un operatore, e il suo valore deve
sempre essere positivo.
In base alla seconda legge di Einstein (l’equivalenza di massa-
energia, da cui la formula E=mc2), il contributo di massa alla
massa totale dell’elettrone, dovuto alla nube di fotoni virtuali, è
positivo; per cui, la massa nuda dell’elettrone deve essere
necessariamente inferiore alla massa osservata. Poiché i fotoni
virtuali hanno energie due volte superiori alla massa
dell’elettrone (affinché si possano costituire/generare le coppie
elettrone-positrone, necessarie per il processo di
rinormalizzazione25), la massa nuda dell’elettrone sorgente
dovrebbe essere teoricamente negativa.
La quinta forza

La Relatività Generale postula che a qualsiasi forma d’energia,


corrisponda uno spazio-tempo, e che tutto porta ad una geometria
specifica, che causa la gravità. Una domanda, che i fisici si
pongono da lunghissimo tempo, è se le stesse equazioni utilizzate
nell’ambito della RG, siano applicabili anche per l’antimateria.
Questo problema fu ritenuto risolto nel 1957, con lo sviluppo

25
Nella teoria quantistica dei campi, nella meccanica statistica e nella teoria
delle strutture geometriche auto-similari, la rinormalizzazione è un insieme di
tecniche per trattare gli infiniti che emergono nel calcolo delle quantità fisiche.
Quando si descrivono lo spazio e il tempo come entità continue, la costruzione
di certe teorie quantistiche e statistiche risulta mal definita. Per trattarle
correttamente è necessario definire con attenzione un opportuno limite
continuo. In questo limite esistono delle relazioni non banali fra i parametri
che descrivono la teoria a grandi scale e distanze rispetto a quelli che
descrivono l'andamento della stessa teoria a piccole distanze. La
rinormalizzazione fu sviluppata per la prima volta per rimuovere gli infiniti
che emergono negli integrali dello sviluppo perturbativo nell'elettrodinamica
quantistica. Inizialmente vista come una procedura sospetta perfino da alcuni
dei suoi ideatori, ad oggi è considerata uno strumento autonomo e
autoconsistente in molti ambiti della fisica e della matematica.
della simmetria CPT, che dimostrava che l’antimateria segue le
stesse leggi fisiche della materia normale (ordinaria); e quindi
essa è da ritenersi costituita da energia positiva, per cui causa e
reagisce alla gravità, come la materia ordinaria.
Durante la maggior parte dell’ultimo quarto del ventesimo secolo,
la comunità scientifica (dei fisici teorici), è stata coinvolta in un
tentativo di elaborare una teoria dei campi unificati; ovvero una
sola teoria che spiegherebbe le quattro forze fondamentali della
natura: la gravità, l’elettromagnetismo, la forza nucleare forte e la
forza nucleare debole. Gli scienziati hanno fatto dei progressi
verso l’unificazione delle tre forze quantistiche, ma ad ogni
tentativo di unificarle tutte e quattro, la gravità è rimasta sempre
la più “dura” e problematica da affrontare (ciò non ha tuttavia
ridotto il numero di nuovi tentativi, da parte dei fisici, di riuscire
ad integrare anch’essa in una teoria del tutto).
Generalmente, queste nuove teorie sono sempre destinate a
“quantificare” la gravità, postulando l’esistenza di una particella:
il gravitone (un’ipotetica particella che trasmetterebbe la forza di
gravità, similmente al modo in cui il fotone trasmette
l’elettromagnetismo). Tuttavia, tutte le teorie in tale direzione
hanno sempre fallito, portando a situazioni molto più complesse
di quelle che i fisici si sarebbero aspettati. Due di queste teorie,
ovvero la supersimmetria e la supergravità (in relazione con la
RG), esigono entrambe l’esistenza di una quinta forza
estremamente debole, trasmessa da una particella: il gravifotone
(fondamentale nella teoria del fisico tedesco Burkhard Heim, che
esporrò tra poche pagine nel sotto-capitolo intitolato : “La teoria
di Heim”). Questa particella (il gravifotone), permetterebbe di
collegare in modo assai organizzato, diversi aspetti trascurati o
non ancora esplorati della teoria quantistica dei campi. Come
risultato concomitante, ognuna di queste teorie non richiede che
l’antimateria sia soggetta a questa quinta forza. Parecchi
esperimenti sono stati condotti negli anni novanta per poter
rilevare questa eventuale quinta forza, ma mai nessuno ha avuto
esiti positivi.
Una risposta dall’antidrogeno

Nel 2013 al CERN di Ginevra, in un esperimento progettato per


studiare i livelli di energia all’interno dell’antidrogeno26, si cercò
di rilevare anche degli eventuali effetti antigravitazionali. La
collaborazione ALPHA del CERN di Ginevra ha ottenuto per la
prima volta una misurazione diretta dell'effetto della gravità su
atomi di antidrogeno confinati in trappole magnetiche.
Lo studio delle particelle di antimateria è estremamente
complicato, dato che a queste particelle basta entrare in contatto
con la materia ordinaria per annichilirsi e quindi scomparire. Una
delle proprietà più interessanti e sfuggenti di questo ambito di
ricerca riguarda l'interazione fra antimateria e campo
gravitazionale. Numerosi indizi suggeriscono che l'antimateria,
come abbiamo già detto, dovrebbe comportarsi come la materia
ordinaria. Poiché la sperimentazione diretta su singole particelle
di antimateria elettricamente cariche, come positroni (elettroni
con carica positiva) o antiprotoni (protoni con carica negativa) è
estremamente difficile (in quanto allo stato attuale non si è riusciti
a realizzare situazioni sperimentali in cui la presenza di forze
elettriche non influenzi in maniera significativa i risultati27), i
ricercatori hanno rivolto la loro attenzione agli atomi,
elettricamente neutri, di antidrogeno.
Grazie ad una trappola magnetica, i ricercatori della
collaborazione ALPHA hanno sintetizzato 434 atomi di
antidrogeno unendo antiprotoni e positroni. Quando i magneti
26
Nell'antimateria, l'antidrogeno è l'equivalente dell'idrogeno. Dal momento
che il comune atomo di idrogeno è composto da un elettrone e un protone,
l'atomo di antidrogeno è costituito da un positrone e un antiprotone.
27
È difficile osservare direttamente le forze gravitazionali a livello di
particella. A queste piccole distanze, le forze elettriche tendono a sopraffare
l'interazione gravitazionale molto più debole. Inoltre, le antiparticelle devono
essere tenute separate dalle loro equivalenti normali poiché in caso contrario
rapidamente annichilirebbero. Peggio ancora, i metodi di produzione di
antimateria in genere danno risultati molto energetici inadatti per le
osservazioni. Comprensibilmente, questo ha reso difficile misurare
direttamente la reazione gravitazionale dell'antimateria.
della trappola sono spenti, gli antiatomi entrano subito in contatto
con la materia ordinaria che compone le pareti del dispositivo e
quindi si annichilano liberando energia, che segnala il punto e il
momento dell'evento.

Figura 1.1. Schema della "trappola magnetica" dell'esperimento


ALPHA.

In linea di principio, dunque, conoscendo con esattezza posizione


e velocità delle particelle al momento dello spegnimento della
trappola magnetica, risulta possibile definire traiettoria e tempi di
percorrenza degli antiatomi e, quindi, l'effetto della gravità su di
essi. I campi magnetici però non si azzerano istantaneamente, ma
richiedono 30 millisecondi circa, generando un'incertezza che va
a sommarsi a quella relativa alla posizione e alla velocità iniziale
esatta degli antiatomi, che si riflette anche sulle misure ottenute
dai ricercatori al CERN. Per questo solo 23 dei 434 antiatomi
creati dai ricercatori hanno dato risultati utili. Di fatto le
misurazioni hanno permesso di porre alcuni limiti al
comportamento gravitazionale dell'antimateria. In particolare, il
rapporto fra massa inerziale e gravitazionale (che dovrebbe essere
1 se materia e antimateria fossero gravitazionalmente
indistinguibili), non può eccedere 75; ossia la massa
gravitazionale non può essere più di 75 volte maggiore di quella
inerziale (a meno di errori sistematici, nel qual caso il limite
salirebbe a 101). Nel caso (non ancora escluso) che esista
un'antigravità, la massa gravitazionale non può invece essere più
di 65 volte quella inerziale.
Anche se i risultati sembrano ben lontani dall'essere conclusivi,
l'esperimento ha dimostrato la concreta fattibilità di misurazioni
dirette, che potrebbero dare finalmente una chiara risposta al
problema (ma solo quando verrà perfezionato l'apparato
sperimentale, con il ricorso a tecniche di raffreddamento laser
degli antiatomi).

L’ipotesi di Villata

Secondo l’astrofisico italiano Massimo Villata, l’antigravità


potrebbe essere la soluzione all’enigma dell’energia oscura. Egli
sostiene infatti la tesi secondo cui l’interazione tra materia e
antimateria produrrebbe una forza opposta a quella
gravitazionale, facendo a meno dell’energia e della materia
oscura. Mentre sull’altra componente ignota dell’universo, la
materia oscura, le prove indiziarie si stanno accumulando al punto
da convincere diversi scienziati dell’imminente risoluzione del
mistero, sull’energia oscura si continua a non sapere nulla, da
quando, in una storica conferenza del 1998, due gruppi di ricerca
(premiati nel 2011 con il Nobel per la fisica) svelarono che
l’universo stava accelerando la sua espansione sotto l’effetto di
una forza sconosciuta che, a conti fatti, costituisce circa il 75%
dell’universo. Sappiamo che questa forza, battezzata appunto
“energia oscura”, si oppone alla forza gravitazionale che invece
dovrebbe gradualmente rallentare l’espansione dell’universo
iniziata con il Big Bang. Sappiamo inoltre che Albert Einstein,
senza saperlo, l’aveva predetta quasi un secolo fa introducendo
nelle sue equazioni della Relatività Generale (applicata alla
cosmologia), un fattore (definito “lambda”) che controbilanciava
la gravità. Tale fattore lamba, è oggi conosciuto con il nome di:
costante cosmologica.
Massimo Villata, in un suo articolo del 2011 apparso sull’EPL
Journal, sostiene la validità di un modello alternativo all’ipotesi
dell’energia oscura. Secondo questo modello, esisterebbe
davvero una forza repulsiva; ossia una forza antigravitazionale,
nell’universo. Come già detto, sarebbe l’effetto dell’interazione
tra materia e antimateria e permetterebbe di spiegare
l’accelerazione dell’espansione cosmica facendo a meno delle
ipotesi dell’energia e della materia oscura. I primi risultati
dell’esperimento ALPHA del Cern (poc’anzi spiegato),
offrirebbero un primo elemento a favore del suo modello teorico.
In sostanza, l’ipotesi è semplice: mentre l’interazione materia-
materia è di tipo attrattivo, come sappiamo dai tempi di Newton
sino ad oggi, l’interazione gravitazionale tra materia e
antimateria, finora considerata ugualmente attrattiva, potrebbe in
realtà essere di segno opposto, ossia repulsiva.
La maggioranza degli scienziati è convinta che anche
l’antimateria, sottoposta alla gravità, si comporti come la materia,
subendo cioè una forza attrattiva. Anche se un’antiparticella,
come per esempio il positrone (l’opposto dell’elettrone), ha una
carica e uno spin opposti alla sua particella gemella, la massa è
pur sempre la stessa. Una massa negativa, solitamente non viene
mai presa in considerazione. Quindi, poiché l’attrazione
gravitazionale è diretta conseguenza della presenza di una massa,
anche l’antimateria la subirà. E ciò è tutto vero, quando si tratta
di descrivere l’interazione gravitazionale tra due particelle di
materia ordinaria o tra due particelle di antimateria. Ma cosa
succede quando la forza gravitazionale si applica a una particella
di materia e alla sua anti-particella?
Per Villata, quando si applica una trasformazione CPT, ossia la
classica trasformazione di una particella in un’antiparticella
cambiando carica (C), coordinate spaziali (parità, P) e senso della
freccia del tempo (T), le leggi di natura restano valide se la
trasformazione avviene in un campo elettromagnetico, ma non se
ciò avviene in un campo gravitazionale28. In questo caso, viene
28
Se si è quasi certi che il teorema CPT sia valido per le forze
elettromagnetiche, deboli e forti, lo si è molto di meno nel caso della
gravitazione. Nel 2000, il fisico Franz Klinkhamer dell’Università di Karlsruhe
ha anche elaborato un esempio esplicito di violazione della simmetria CPT.
fuori un comportamento diverso: una repulsione, anziché
un’attrazione, di segno opposto rispetto alla forza esercitata dalla
gravità. È come se l’antiparticella avesse, di fatto, una massa
negativa. “Ma questo segno meno (-), assegnato alla massa
gravitazionale nell’equazione, non dev’essere mal interpretato”,
afferma Villata, “poiché tutte le masse sono e restano positive”.
Il segno negativo viene fuori da una serie di trasformazioni CPT
all’interno della teoria della Relatività. Da qui, l’astrofisico
assume (in linea con le ipotesi di altri studiosi della comunità
internazionale), che la stessa Relatività Generale preveda che
l’interazione gravitazionale tra materia e antimateria sia repulsiva
e non attrattiva. Su scala cosmologica, la repulsione
gravitazionale impedirebbe la reciproca annichilazione di
complessi isolati di materia e antimateria. Ciò spiegherebbe i
vuoti su larga scala osservati nella distribuzione di cluster e
supercluster di galassie nell’universo, su scale di decine di
megaparsec. Tali vuoti potrebbero, come hanno sostenuto altri
scienziati, essere stati originati da fluttuazioni negative nella
densità dell’universo primordiale, che avrebbero agito come se
avessero avuto di fatto una massa gravitazionale negativa,
respingendo la materia circostante. Questi nuovi scenari
cosmologici permetterebbero di eliminare la scomoda presenza di
un’energia oscura non identificata, e forse anche della materia
oscura, che, secondo l’attuale modello lambda-CDM,
rappresenterebbero insieme più del 95% del contenuto
dell’Universo. Secondo Villata, i risultati dell’esperimento
ALPHA del Cern, che ha studiato il comportamento
gravitazionale dell’antidrogeno, potrebbero essere consistenti con
la sua teoria.
Quando l'antimateria fu scoperta nel 1932, i fisici si chiedevano
come avrebbe reagito alla gravità. Una prima analisi si veniva a
focalizzare sulla questione se l'antimateria reagisse allo stesso

Questo meccanismo di violazione necessita di un universo “chiuso su se


stesso” secondo una geometria che ricorda le curvature spaziali della
gravitazione.
modo della materia o in senso opposto. I vari problemi teorici che
sorgevano convinsero i fisici che l'antimateria avrebbe reagito
esattamente come la materia ordinaria, deducendo così che una
repulsione gravitazionale tra materia e antimateria non sarebbe
stata plausibile in quanto avrebbe violato l'invarianza CPT e la
conservazione dell'energia, provocando l'instabilità nel vuoto e la
violazione CP. Venne anche teorizzato che sarebbe stata
incoerente con i risultati dell’esperimento di Eötvös29 riguardo al
principio di equivalenza debole30. Molte di queste prime
obiezioni teoriche furono successivamente rovesciate.
Nel 1958, Philip Morrison sosteneva che l'antigravità avrebbe
violato la legge sulla conservazione dell'energia. Tuttavia, più
tardi si scoprì che l'antigravità non viola la seconda legge della
termodinamica.
Se si può inventare una teoria in cui materia e antimateria si
respingono l'un l'altra, che cosa si prevede per le cose che non
sono né materia né antimateria? I fotoni sono le loro stesse
antiparticelle, e sotto tutti gli aspetti si comportano esattamente in
modo simmetrico rispetto alle particelle di materia e di
antimateria. In un gran numero di test di laboratorio e astronomici
(come per lo spostamento verso il rosso gravitazionale e le lenti

29
L'esperimento di Eötvös fu un famoso esperimento della fisica della fine del
XIX secolo che misurò la correlazione tra massa inerziale e massa
gravitazionale, dimostrandone l'equivalenza con una precisione fino ad allora
impossibile da raggiungere. Nel 1958, L. Schiff sfruttò la teoria quantistica dei
campi per sostenere che l'antigravità sarebbe incoerente con i risultati
dell'esperimento Eötvös. Tuttavia, la tecnica di rinormalizzazione utilizzata per
l'analisi di Schiff, è stata fortemente criticata e il suo lavoro è stato screditato.
30
Il principio di equivalenza debole, asserisce che la massa inerziale, cioè la
proprietà intrinseca del corpo materiale di opporsi alle variazioni di moto, e la
massa gravitazionale, che rappresenta la proprietà di un corpo di essere
sorgente e di subire l'influsso di un campo gravitazionale, sono numericamente
uguali (il rapporto tra le due masse è stato sperimentalmente misurato da
Eötvös, nell'esperimento che porta il suo nome). Anche se il principio in forma
debole è stato sperimentalmente confermato con precisione elevatissima, ciò
non è sufficiente a garantire lo stesso grado di certezza anche alla forma forte,
che deve essere dunque considerata ancora come un postulato.
gravitazionali), si osservano i fotoni attratti dalla materia,
esattamente in accordo con la teoria della relatività generale. È
possibile trovare atomi e nuclei il cui contenuto di particelle
elementari è lo stesso, ma le cui masse sono diverse. Per esempio,
un atomo di elio pesa meno di due atomi di deuterio, a causa della
differente energia che li lega. Si osserva che la costante della forza
gravitazionale è la stessa, fino ai limiti della precisione
sperimentale, per tutti questi diversi materiali, suggerendo che
l'"energia di legame" (la quale, come per il fotone, non fa
distinzione tra materia e antimateria), sperimenta la stessa forza
gravitazionale della materia. Questo concorda di nuovo con la
teoria della relatività generale e difficilmente si riconcilia con
qualsiasi teoria che prevede che materia e antimateria si
respingano.
Nel 1961, Myron Good sosteneva che l'antigravità avrebbe
comportato l'osservazione di una inaccettabile elevata quantità di
violazione CP nella rigenerazione anomala di kaoni31. Nel 1961,
la violazione CP non era ancora stata osservata. Tuttavia, l'ipotesi
di Good viene criticata per essere stata espressa in termini di
potenziali assoluti. Con la riformulazione dell'argomento in
termini di potenziali relativi, Gabriel Chardin trovò che esso si
risolveva in una quantità di rigenerazione di Kaoni in accordo con
l'osservazione. I kaoni neutri, costituiscono l’unica coppia
particella-antiparticella in cui si osserva una violazione della
simmetria CP, ossia una differenza di comportamento fra materia
e antimateria. Dunque la domanda cruciale che occorre porsi è la
seguente: qual è la differenza di accelerazione fra materia ed
antimateria necessaria per spiegare la violazione CP nel sistema
dei kaoni?
Una domanda analoga se l’era posta , nel 1961, Myron Good; ma
poiché all’epoca non si conoscevano né l’asimmetria materia-
antimateria (scoperta nel 1964) , né l’evaporazione dei buchi neri

31
Good sosteneva che l'antigravità è in realtà una spiegazione potenziale della
violazione CP.
(scoperta nel 1974), Good si limitò a riformulare l’ipotesi che il
vuoto non sia instabile. Oggi comunque sappiamo che nel sistema
dei kaoni neutri, l’antigravità è proprio quel che ci vuole per
spiegare l’asimmetria materia-antimateria, poiché introduce quel
piccolo scarto tra le funzioni d’onda del kaone e dell’anti-kaone,
che consentirebbe di simulare la violazione di CP.
Come un fotone gamma adeguato, possa essere convertito in un
elettrone e in un anti-elettrone, secondo la famosa equazione di
Einstein ("produzione di coppia"), è qualcosa che i fisici
osservano ormai di routine. Essi hanno inoltre osservato che
esattamente metà dell'energia ordinaria del fotone appare come
l'elettrone e, a causa della legge di conservazione dell'energia,
l'altra metà dell'energia ordinaria del fotone deve diventare quella
dell'anti-elettrone. Osservazioni analoghe valgono per tutte le
altre particelle dell'antimateria. Questo significa che tutte le
particelle di anti-materia devono essere costituite da energia
ordinaria, implicando fortemente che la loro interazione
gravitazionale debba essere proprio come quella delle particelle
della materia ordinaria. Secondo Gabriel Chardin:
“Se il teorema CPT è valido, la simmetria CP non è altro che
quella T dell’inversione del tempo. Se la materia e l’antimateria
si assomigliano tanto è perché in effetti si tratta della stessa cosa,
salvo che l’antimateria è materia che risale il tempo. Infatti,
nell’equazione di Dirac, cambiare il segno dell’energia significa
cambiare la direzione del tempo, cosicché il positrone appare
appunto come un elettrone che risale il tempo. (…) Si noti anche
che, se il teorema CPT è valido, il diverso comportamento della
materia e dell’antimateria (in violazione di CP) è dovuto alla
freccia del tempo (in violazione di T); e questo è un altro grande
problema irrisolto della fisica. (…) Al di là dei reali progressi
nello studio della violazione della simmetria CP e della simmetria
T, il problema è che, a più di quarant’anni dalla scoperta della
simmetria fra materia e antimateria, o della violazione di CP, non
possiamo ancora sostenere di capire il fenomeno, pur sapendo
che esso può trovar posto nella struttura delle particelle quale
oggi la conosciamo. (…) Nel modo in cui la natura rispetta le
simmetrie C, P e T, pare che l’interazione debole sia l’unica delle
quattro interazioni a violare le trasformazioni C e P, rivelando
che materia e antimateria non rispettano la simmetria specchio
in tutti i fenomeni dove entra in gioco l’interazione debole. Essa
pare anche l’unica ad evidenziare (ma ad un livello più debole e
solo nel caso dei mesoni neutri K e B), la violazione della
simmetria CP; permettendo così una definizione assoluta della
materia rispetto all’antimateria e della simmetria T di inversione
del tempo”.
È remotamente possibile che qualche altro aspetto delle anti-
particelle, oltre al fatto di essere costituite da energia ordinaria,
possa causare loro un comportamento diverso in un campo
gravitazionale ordinario, ma ci sono pochissime candidate per
quello che potrebbe essere quest'altro aspetto delle anti-particelle.

La teoria di Heim

La teoria di Burkhard Heim (fisico tedesco nato a Potsdam nel


1925 e morto a Northeim nel 2001), è un modello di “teoria
unificata” delle interazioni fondamentali della natura. La validità
di questa teoria, lasciata nel dimenticatoio per oltre cinquant’anni,
è oggi al centro di un serrato dibattito nella comunità dei fisici.
Nel 2005, la NASA, annunciò addirittura di voler intraprendere
alcuni esperimenti volti a dimostrarne alcuni aspetti.
A tale teoria, hanno contribuito anche i fisici Walter Dröscher e
Jochem Hauser. Questa teoria non è mai stata pubblicata su riviste
scientifiche aventi dei comitati di lettura e non viene neppure
citata in altri lavori del mondo accademico. Essa sembrerebbe
appartenere oggigiorno, al dominio della pseudo-scienza, ma
gode tuttavia di una certa popolarità presso il grande pubblico,
grazie al fatto che non molti anni fa (nel 2005), essa ricevette una
notevole pubblicità con l’annuncio diffuso dalla stampa popolare,
che tale teoria starebbe alla base di un nuovo e rivoluzionario
sistema di propulsione aerospaziale.
I lavori di Heim su tale teoria si sono protratti per un lungo
periodo (dalla metà degli anni ’50 sino agli inizi degli anni ’80,
del secolo scorso). Egli ha dunque potuto rivedere e correggere
più volte i suoi primi lavori, in tale lasso di tempo. Il suo obiettivo
finale era quello di proporre una teoria del tutto, in grado di
unificare la Relatività Generale con la Meccanica Quantistica. I
suoi studi, come già detto, non hanno mai trovato spazio su riviste
scientifiche di dominio accademico; ad eccezione di un articolo
pubblicato nel 1977 sulla rivista Zeitschrift für Naturforschung. Il
resto dei suoi lavori è stato pubblicato in due libri scritti in tedesco
(ma mai tradotti in altre lingue), apparsi negli anni ’80 (assieme a
dei testi complementari, pubblicati in collaborazione con Walter
Dröscher). La teoria di Heim non è mai stata diffusa secondo le
classiche e usuali regole del mondo accademico; come del resto
non è mai stata neppure oggetto di eventuali critiche, da parte
della comunità scientifica (attraverso opportuni articoli su riviste
scientifiche ufficialmente riconosciute dal mondo accademico).
Molti scienziati quindi, non la ritengono una teoria con delle
solide basi scientifiche.
La teoria di Heim, in estrema sintesi, è un tentativo di approccio
geometrico alle interazioni fondamentali della natura, in stretta
analogia (ovvero ad immagine e somiglianza) con la teoria di
Kaluza-Klein. Sviluppata negli anni ’20 del secolo scorso da
Theodor Kaluza e Oskar Klein, tale teoria si proponeva di
unificare la Relatività Generale con l’elettromagnetismo.
I fautori della teoria di Heim (in primis i suoi due ex collaboratori,
ancora in vita, Walter Dröscher e Jochem Hauser), affermano di
basarsi sull’idea (originariamente sviluppata da Kaluza e Klein)
che lo spazio-tempo abbia più di quattro dimensioni, ma che i
fenomeni fisici si possano osservare ed avvertire soltanto in un
“sotto-spazio” limitato a quattro dimensioni. Secondo i
sostenitori della teoria di Heim, nelle dimensioni supplementari
esisterebbero diversi “oggetti fisici” e il loro comportamento, in
tali dimensioni, determinerebbe la loro influenza sulla realtà
fisica “sensibile” a quattro dimensioni.
Il numero di dimensioni extra, nella teoria di Heim, risulta essere
maggiore rispetto al numero di dimensioni “nascoste” (extra)
previste nella teoria di Kaluza-Klein; il che permetterebbe,
secondo i suoi sostenitori, di unificare un maggior numero di
interazioni fondamentali e dunque di prevedere, in ultima analisi,
l’esistenza di nuove particelle elementari rimaste finora
inosservate.
L’elemento portante della teoria di Heim e dunque il più
sottolineato dai suoi fautori, è la previsione di una formula di
massa per le particelle elementari. Tale formula è stata elaborata
in diverse versioni, partendo da quella inizialmente proposta da
Heim nel 1982, arrivando ad una versione da egli stesso rivista e
aggiornata nel 1989 ed infine ad una terza versione presentata nel
1996. Questa formula viene presentata come l’elemento cruciale
e dunque in assoluto il più importante, a sostegno di tutta la teoria
di Heim. Tutte le formule relative al modello di Heim sono ormai
da tempo disponibili in Internet, ma la loro derivazione dalla
formula madre (quella di massa, per le particelle elementari), non
è mai stata resa pubblica (né in tedesco e né tantomeno in inglese).
Nonostante ciò, i fautori della formula di massa, affermano che la
precisione con cui tale formula prevede una serie di masse delle
particelle elementari, sia una prova evidente (a posteriori) della
sua correttezza.
Diversi critici e detrattori della teoria di Heim, sono però giunti
alla seguente conclusione: il fatto che la formula di massa dia dei
risultati così precisi, è dovuto a sua volta al fatto che i valori delle
masse non vengono calcolati dalla teoria di Heim, ma
semplicemente e arbitrariamente utilizzati dalla stessa, per altre
previsioni relative agli stati eccitati delle particelle composte
(mesoni e adroni). I successori di Heim, non avendo realizzato
questo aspetto, avrebbero così utilizzato i risultati di Heim (per
calcolare le masse delle particelle elementari), senza realizzare
che essi non facevano nient’altro che ritrovare i valori di queste
masse, utilizzati (si presume arbitrariamente) da Heim per altri
calcoli. Tale confusione, sembra che origini dal fatto che le masse
delle particelle, non vengano implementate come quelle presenti
nei lavori di Heim, ma approssimate attraverso l’impiego di
differenti formule algebriche, in cui vengono coinvolte varie
costanti matematiche (come pi greco, il numero di Eulero o la
sezione aurea). In ogni caso, le previsioni della teoria di Heim,
riguardano essenzialmente delle particelle identificate (osservate)
prima degli inizi degli anni ’80 (quando Heim stava ancora
lavorando sulla sua teoria). In pratica, questa formula dà
effettivamente delle masse spesso vicine ai limiti attualmente
conosciuti, ma non è in grado di fornire la massa della totalità
delle particelle elementari (e presenta inoltre un elevato numero
di difficoltà).
La formula di Heim, non fornisce le masse individuali dei quarks,
ma unicamente quelle di certi mesoni e barioni di cui si conosceva
l’esistenza, prima del 1982. Ad esempio, essa non fornisce le
masse dei bosoni di gauge W+, W- e Z0, scoperti solo dopo il 1982.
Essa prevede una massa per i neutrini, ma non prevede l’esistenza
del fenomeno di oscillazione dei neutrini, scoperto alla fine degli
anni ’90. Inoltre, tale formula prevede l’esistenza di due nuovi tipi
di neutrino, aventi masse piuttosto deboli (meno di un
elettronvolt). Ma è a tutt’oggi risaputo che, simili particelle, sono
da escludersi; in quanto il modello relativo alla disintegrazione
del bosone Z0, limita a tre, il numero di famiglie di neutrini la cui
massa è inferiore a 45 GeV.
Alcune evidenze cosmologiche, specialmente quella relativa
all’abbondanza di elementi leggeri emessi dalla nucleosintesi
primordiale, invalidano ugualmente l’esistenza di due nuove
famiglie di neutrini leggeri (ovvero di neutrini relativistici, al
momento della nucleosintesi primordiale). La formula di Heim,
si trova inoltre in forte disaccordo con i dati sperimentali
concernenti la durata di vita del neutrone. Essa, per di più, non
prevede l’esistenza del bosone di Higgs (sperimentalmente
confermata dal Cern di Ginevra, nel 2012). Ma non è tutto. Essa
non prevede l’esistenza della supersimmetria, della materia
oscura e neppure dell’energia oscura. In essa, le problematiche
relative alla bariogenesi (un tema ancora poco chiaro in ambito
scientifico, ma attualmente assai dibattuto), non vengono
menzionate. E ancora, la teoria di Heim non contiene alcuna
previsione sui coefficienti della matrice di Cabibbo-Kobayashi-
Maskawa. In generale, la teoria di Heim (essendo stata concepita
parecchi anni fa, ovvero prima delle più importanti evidenze
sperimentali nell’ambito della fisica delle alte energie), non
affronta gli attuali problemi della fisica delle particelle.
Una previsione annunciata dalla teoria di Heim, è la presenza di
una nuova particella, chiamata gravifotone. Questa particella,
secondo Burkhard Heim, sarebbe il vettore di una nuova
interazione fondamentale (in aggiunta all’elettromagnetismo, alla
gravitazione, alla forza nucleare forte e alla forza nucleare
debole), e potrebbe addirittura essere utilizzata per delle
applicazioni nel campo dell’aeronautica spaziale. L’idea,
inizialmente proposta da Heim, fu in seguito ripresa dai suoi
successori, Walter Dröscher e Jochem Hauser. Questi due fisici
tedeschi, hanno sottoposto diversi articoli inerenti alla teoria di
Heim, all’ American Institute of Aeronautics and Astronautics (in
acronimo: AIAA, un associazione che non ha alcun legame con il
mondo accademico). In uno di questi articoli (o forse in più di
uno), i due fisici tedeschi sostengono che il gravifotone, potrebbe
consentire lo sviluppo di un nuovo sistema di propulsione
aerospaziale, creando un campo antigravitazionale. Questo
sistema, secondo i due fisici, è molto semplice: esso consisterebbe
in un anello di materia superconduttrice che verrebbe fatta
ruotare, nonché immersa perpendicolarmente ad un campo
magnetico assiale (creato ad esempio artificialmente da un
selenoide). Sempre secondo i due fisici tedeschi, tale
configurazione eserciterebbe, grazie all’ausilio dei gravifotoni,
un’accelerazione sull’intero dispositivo. Quest’applicazione della
teoria di Heim, non è mai stata pubblicata su alcuna rivista
scientifica di prestigio (o avente comunque un comitato di
lettura); tuttavia, è stata premiata dall’AIAA.
A sostegno della validità della loro teoria innovativa e
rivoluzionaria (nell’ambito dei sistemi di propulsione
aerospaziale), i due fisici tedeschi sottolineano che i lavori di
Martin Tajmar e Clovis Jacinto de Matos, corroborano le loro
previsioni. In questi lavori, si sostiene la messa in evidenza di un
fenomeno previsto dalla Relatività Generale, il
gravitomagnetismo, ma con un’ampiezza fantasticamente più
grande (più di quindici ordini di grandezza) rispetto a quella
prevista nella teoria ufficiale di Einstein; e dunque, di fatto, in
evidente disaccordo con la quasi totalità dei testi ufficiali
accademici riportanti la teoria della Relatività Generale. Questi
lavori sul gravitomagnetismo, eseguiti da Martin Tajmar e Clovis
Jacinto de Matos (come nel caso della teoria di Heim), non sono
mai stati pubblicati su riviste scientifiche aventi un comitato di
lettura; inoltre, nessuna prova concreta permette di affermare che
gli effetti misurati abbiano realmente a che vedere con il
fenomeno del gravitomagnetismo.
L’informazione concernente il premio (dell’AIAA) ricevuto dai
due fisici tedeschi, Dröscher e Hauser, riportata dalla famosa
rivista scientifica New Scientist, ha avuto una certa risonanza a
livello mediatico. Tuttavia, i curatori dell’articolo, dichiararono
esplicitamente di aver presentato un’inchiesta in ambito
accademico, dove la quasi totalità dei fisici interrogati sostenne
di non trovare alcun senso nelle teorie proposte da Dröscher e
Hauser. Uno di questi fisici, dichiarò inoltre che la teoria di Heim,
è “in gran parte incomprensibile” e “difficile da mettere in
relazione con la ricerca attuale nel campo della fisica”.

Teorie e applicazioni, tra illusione e realtà


“Caratteristica di un buon fisico è quella di possedere il ‘fiuto’ per
riconoscere gli esperimenti di cui fidarsi e quelli di cui non fidarsi,
quelli su cui riflettere e quelli da ignorare. Con il progredire della
tecnologia e la ripetizione degli esperimenti, la verità emerge infine
con chiarezza; ma se si cerca di contribuire al progresso della scienza
e si vuole dare la propria impronta alle principali scoperte, bisogna
indovinare prima, e non dopo, di quali esperimenti fidarsi”.
Kip Thorne

I dispositivi giroscopici

Quando vengono agitati, i giroscopi32 producono una forza che


agisce “fuori piano” e all’apparenza (dunque ingenuamente) si
potrebbe credere che si sollevino autonomamente attraverso
l’ausilio di una forza misteriosa, che contrasta la forza di gravità.
Un giroscopio “classico”, è costituito essenzialmente da un rotore
a forma di toroide che ruota intorno al suo asse. Quando il rotore
è in rotazione il suo asse tende a mantenersi parallelo a sé stesso
e ad opporsi ad ogni tentativo di cambiare il suo orientamento.
Questo meccanismo fu inventato nel 1852 dal fisico Jean Bernard
Léon Foucault, nell'ambito dei suoi studi sulla rotazione terrestre.
Se un giroscopio è installato su una sospensione cardanica che
permette alla ruota di orientarsi liberamente nelle tre direzioni
dello spazio, il suo asse si manterrà orientato nella stessa
direzione anche se il supporto cambia orientamento.
Nonostante si conosca ormai da moltissimo tempo, il carattere
illusorio di questa forza apparente (anche con i modelli
newtoniani), essa ha condotto diversi inventori ad esporre
numerose rivendicazioni di dispositivi antigravitazionali, nonché

32
Il giroscopio è un dispositivo fisico rotante che, per effetto della legge di
conservazione del momento angolare, tende a mantenere il suo asse di
rotazione orientato in una direzione fissa.
a numerose richieste di brevetto. Mai nessuno di tali dispositivi
comunque, si è dimostrato funzionante in condizioni controllate.
Nel 1974, l’ingegnere elettrico Eric Roberts Laithwaite, fu
invitato dalla Royal Institution33 a tenere un discorso su un
soggetto a sua scelta. Egli decise così di presentare le sue idee, a
proposito dei giroscopi. Nel suo discorso, egli sostenne che i
giroscopi perdono peso quando ruotano e per dimostrarlo, mostrò
che poteva sollevare facilmente un giroscopio rotante montato
all’estremità di un’asta, solo con una mano; e mostrò altresì che
ciò non poteva farlo, quando il giroscopio non ruotava. A quei
tempi, Laithwaite sosteneva che i principi della dinamica (ovvero
le leggi di Newton sul moto dei corpi), non potevano spiegare il
comportamento dei giroscopi e che essi potevano addirittura
essere utilizzati come “mezzi di propulsione a reazione”. I
membri della Royal Institution respinsero le sue idee e il suo
discorso non venne mai pubblicato. Nonostante questo rifiuto e
nonostante il fatto che Laithwaite riconobbe in seguito che i
giroscopi si comportano pienamente in accordo con la meccanica
newtoniana, egli continuò ugualmente a studiare e ad esplorare
sperimentalmente l’effetto giroscopico, senza perdere la
convinzione che tale effetto, poteva essere sfruttato per la
realizzazione di “propulsori a reazione”. Laithwaite istituì così
(insieme a William Dawson) una società che chiamò Gyron Ltd e
nel 1995, inoltrò tre domande di brevetto; due intitolate
semplicemente: “A propulsion System” (una pubblicata sempre
nel 1995 e l’altra pubblicata due anni dopo, nel 1997) e la terza
intitolata “Apparatus for moving a vehicle in a first direction”
(pubblicata solo quattro anni dopo, nel 1999).

33
La Royal Institution of Great Britain (spesso abbreviata come Royal
Institution o RI) è un'organizzazione di educazione scientifica e ricerca con
sede a Londra. Fu fondata nel 1799 dai maggiori scienziati britannici del
tempo, tra cui Henry Cavendish ed il suo primo presidente, George Finch, per
"diffondere la conoscenza e facilitare l'introduzione generale di utili invenzioni
meccaniche e miglioramenti; e per insegnare, tramite corsi di letture filosofiche
ed esperimenti, l'applicazione della scienza alla vita comune."
Fig.2.1. Un’immagine del brevetto di Laithwaite, pubblicato nel 1999
(“Apparatus for moving a vehicle in a first direction”, Patent #
US5860317 A)

Un'altra tipologia di dispositivi basati sul principio giroscopico,


emerse in una serie di brevetti rilasciati ad Henry Wallace
(l’omonimo di un ex vice presidente americano) tra il 1968 e il
1974. I suoi dispositivi erano costituiti principalmente da dischi
rotanti di ottone (un materiale costituito in gran parte da elementi
con spin totale34 semi intero). Wallace sosteneva che dalla rapida
rotazione di un disco in ottone, lo spin delle particelle nucleari si
allinea, dando così origine ad un campo gravitomagnetico (simile
al campo magnetico creato dall’effetto Barnett35). Sino ad oggi
comunque, utilizzando dei dispositivi costruiti sulla base dei

34
La molteplicità di spin è il numero di stati degeneri in energia che vengono
a crearsi nelle situazioni in cui un sistema quantistico presenti più valori di
spin. Se abbiamo delle particelle identiche allora non possiamo considerare lo
spin di una singola particella come un buon numero quantico e la
degenerazione di spin dipende dallo spin totale del sistema.

35
L'effetto Barnett consiste nella magnetizzazione di un corpo ferromagnetico
che ruota uniformemente intorno a un asse. Fu scoperto nel 1909 da Samuel
Jackson Barnett. Il suo opposto è l'effetto Einstein-de Haas, in base al quale un
corpo ferromagnetico sospeso, se magnetizzato, inizia a ruotare.
brevetti di Wallace, nessun esperimento controllato che abbia
dato esiti positivi, è mai stato notificato ufficialmente.

Fig.2.2. Un’immagine del brevetto di Henry Wallace, pubblicato nel


1971 (“Method and apparatus for generating a secondary
gravitational force field”, Patent # US3626605 A).

Gli esperimenti di Quirino Majorana

Il termine schermatura gravitazionale, si riferisce ad un ipotetico


processo con cui un oggetto qualsiasi, verrebbe “schermato”
dall’influenza di un campo gravitazionale. Un simile processo
fisico, se esistesse realmente, avrebbe l’effetto di ridurre il peso
dell’oggetto in questione. La forma della parte schermata, sarebbe
simile ad un’ombra, se osservata dallo “scudo gravitazionale”. Ad
esempio, la forma della zona schermata sopra ad un ipotetico
“disco metallico” in grado di generare una schermatura (o scudo)
gravitazionale, sarebbe conica. Mentre l'altezza del cono sopra il
disco, varierebbe in funzione dell’altezza del disco, situato sopra
la Terra (ovvero in funzione della distanza tra il suolo terrestre e
il disco in questione). Sino ad oggi comunque, non è mai stata
trovata alcuna evidenza sperimentale che indichi l’esistenza di un
simile effetto (o perlomeno non nell’ambito della ricerca
scientifica ufficiale; ovvero non in quella coperta da segreto
militare).
La schermatura gravitazionale, in ogni caso, è a tutt’oggi
scientificamente considerata come una violazione del principio di
equivalenza e quindi, in netto contrasto sia con la teoria
newtoniana che con la teoria della Relatività Generale.
A partire dal 2008, sino ad oggi nessun esperimento ha avuto
successo nel rilevare dei risultati positivi in merito ad un
eventuale processo di schermatura gravitazionale. Per
quantificare, nell’eventualità di un simile processo, il “livello di
schermatura” a cui tale processo potrebbe portare, il fisico italiano
Quirino Majorana36, circa un secolo fa, propose un coefficiente di
estinzione h, che modifica la legge della forza gravitazionale di
Newton, scrivendo questa celebre equazione:

= ( )

Le migliori misurazioni di laboratorio hanno stabilito un limite


superiore per la schermatura di 4,3 x 10-15 m2/kg. Un’analisi più
recente ha invece stabilito un limite inferiore di 0,6 x 10-15 m2/kg.
La miglior stima, basata su dati più accurati (precisi) inerenti alle
anomalie gravitazionali rilevate durante l’eclisse solare del 1997,
ha fornito un nuovo vincolo sul parametro di schermatura,

36
Quirino Majorana (1871 – 1957) è stato un fisico italiano, che con i suoi
esperimenti dette un importante contributo alla nascita e allo sviluppo della
telefonia. Dopo aver conseguito la laurea in ingegneria ottenne quella in fisica.
Alla fisica sperimentale e al suo insegnamento dedicò tutta la vita ottenendo
importanti risultati che sono stati alla base dello sviluppo della telefonia. Iniziò
i suoi esperimenti di fisica fin dal 1894 e quelli sulla radiotelefonia a partire
dal 1902. Nel 1909 vinse il premio Santoro dell'Accademia dei Lincei con il
libro "Ricerche ed esperienze di telefonia elettrica senza filo", pubblicato
l'anno successivo. È stato presidente della Società di Fisica d'Italia, e dal 1904
al 1914 fu direttore dell'istituto Superiore Telegrafico e Telefonico. Nel 1912
inventò la prima valvola ionica a quattro elettrodi che lui chiamò "deviatore
elettronico".
portandolo a 6 x 10-19 m2/kg. Tuttavia, le osservazioni
astronomiche impongono dei limiti molto più stringenti. Sulla
base delle osservazioni lunari disponibili nel 1908, Poincaré
stabilì che il coefficiente di estinzione h, non può essere superiore
a 10-18 m2/kg (successivamente questo limite è stato notevolmente
migliorato).
Eckhardt a sua volta, mostrò che i dati relativi alle osservazioni
lunari, implicano un limite superiore di 10-22 m2/kg; mentre
Williams e colleghi riuscirono a migliorarlo arrivando ad un
valore di h pari a (3 ± 5) x 10-22 m2/kg (si noti che il valore è
minore dell’incertezza). La conseguenza dei risultati poco
accordanti di tali esperimenti (che sono tuttavia in sintonia con le
previsioni della Relatività Generale), è che ogni teoria che
contenga effetti di schermatura gravitazionale (come nel caso
della teoria della gravitazione di Le Sage37), deve ridurre tali
effetti ad un livello non rilevabile.
Molti esperimenti atti a rivelare un’eventuale processo di
schermatura gravitazionale, sono stati condotti agli inizi del
ventesimo secolo da Quirino Majorana. Egli effettuò una lunga
serie di esperimenti (con un grado di sensibilità molto elevato)
sull’ipotetico processo di schermatura gravitazionale, dal 1918 al

37
La teoria della gravitazione di Le Sage è una teoria cinetica della
gravitazione proposta inizialmente da Nicolas Fatio de Duillier nel 1690 ed in
seguito da Georges-Louis Le Sage nel 1748. La teoria proponeva una
spiegazione meccanica della forza gravitazionale di Newton in termini di
flusso di minuscole particelle invisibili che Le Sage chiamava “corpuscoli
degli ultramondi” (ossia che hanno origine in altri mondi). Tali particelle,
secondo Le Sage, erano in grado di impattare con la materia terrestre in tutte
le direzioni. Secondo questo modello, due corpi materiali sarebbero in grado
di proteggersi l’un l’altro solo parzialmente, dallo scontro (o interazione,
diremmo oggi) con tali particelle infinitamente piccole; il che causerebbe un
netto squilibrio nella pressione esercitata dagli impatti delle particelle sui
corpi, i quali a tal punto tenderebbero ad avvicinarsi. Questa spiegazione
meccanica della gravità non è mai stata ampiamente accettata, anche se di tanto
in tanto, fino all’inizio del ventesimo secolo, alcuni fisici la prendevano ancora
in considerazione. A partire dall’inizio del ventesimo secolo, la teoria di Le
Sage venne definitivamente screditata e lasciata nel dimenticatoio.
1922, che non sono mai stati riprodotti (per quanto si sa, almeno
non ufficialmente). Gli esperimenti di Majorana dimostrarono
che il piombo o il mercurio, attorno ad una sfera sospesa di
piombo, agivano come elementi schermanti in grado di diminuire
leggermente l’attrazione gravitazionale della Terra. Dei tentativi
per riprodurre i suoi risultati utilizzando le stesse tecniche e gli
stessi apparati sperimentali, non sono mai stati fatti. Da altri dati
in loro possesso, alcuni ricercatori hanno concluso che, se l’
“assorbimento gravitazionale” esistesse realmente, dovrebbe
essere di almeno cinque ordini di grandezza più piccolo, rispetto
a quello che emerse dagli esperimenti di Majorana. Dal punto di
vista della gran parte della comunità scientifica (ovvero
dell’attuale consensus accademico), la schermatura
gravitazionale non può esistere.

Gli esperimenti di Eugene Podkletnov

Eugene Podkletnov è un ingegnere ceramico russo (nato nel 1955


e attualmente in vita), conosciuto per le sue dichiarazioni fatte
negli anni ’90 del secolo scorso, in cui egli affermava di essere
riuscito a progettare e costruire dei dispositivi in grado di generare
una certa schermatura gravitazionale, con dei dischi rotanti fatti
di un materiale superconduttore ceramico.
Nel 1996, durante un’intervista telefonica con il giornalista
Charles Platt (della rivista mensile americana Wired), Podkletnov
raccontò che nel 1992, durante un esperimento con un disco
rotante superconduttore, avvenne il seguente fatto: “Qualcuno in
laboratorio stava fumando una pipa, e il fumo della pipa iniziò a
spostarsi sopra il disco superconduttore dando forma ad una
colonna cilindrica. Vedendo ciò, decidemmo di mettere sul disco
un magnete a forma di palla, collegato ad una bilancia. La
bilancia iniziò subito a comportarsi in modo strano. Sostituimmo
il magnete con un blocco di silicio, ma la bilancia continuava a
comportarsi ancora in modo strano. Scoprimmo così che
qualsiasi oggetto venisse posto sopra il disco superconduttore,
perdeva parte del suo peso; ma la cosa più incredibile fu
apprendere che se si faceva ruotare il disco, tale effetto veniva
amplificato”.
Il primo articolo in revisione paritaria (peer-review) di
Podkletnov, su un apparente processo fisico di modificazione
della gravità (pubblicato nel 1992), attirò poca attenzione. Nel
1996, egli sottopose un lungo articolo al comitato di lettura della
nota e prestigiosa rivista scientifica “Journal of Physics D:
Applied Physics”, in cui sosteneva di aver osservato un effetto
maggiore di riduzione del peso (pari al 2%, rispetto allo 0,3% che
riportò nel precedente articolo del 1992). Secondo Charles Platt
(il giornalista di Wired), un membro dello staff editoriale (Ian
Sample), passò l’articolo di Podkletnov a Robert Matthews, il
corrispondente scientifico del Sunday Telegraph (del Regno
Unito). Il primo settembre del 1996, Robert Matthews diede al
suo scoop il seguente titolo: “Scienziati finlandesi sono in
procinto di rivelare i dettagli del primo dispositivo
antigravitazionale al mondo”. Furioso per questa notizia
(pubblicata a sua insaputa), il direttore del laboratorio in cui
Podkletnov lavorava, rilasciò alla stampa una dichiarazione in cui
si accinse a precisare che Podkletnov, non aveva alcun incarico e
nessuna autorizzazione amministrativa per svolgere tali
esperimenti in laboratorio, e di aver dunque agito per conto suo,
incurante delle regole e delle norme previste in ambito lavorativo.
Vourinen, indicato da Podkletnov come coautore dell’articolo,
precisò a sua volta la sua totale estraneità a tutta la faccenda,
essendo del tutto all’insaputa di ciò che Podkletnov stava
realizzando autonomamente, senza il consenso dei suoi superiori.
Dal canto suo, in tale marasma mediatico, Podkletnov si
lamentava per essere stato frainteso, dicendo di non aver mai
affermato di essere riuscito a “bloccare” la gravità, ma solo di
essere riuscito a “ridurne” gli effetti.
Dopo questi eventi, Podkletnov decise di ritirare il suo secondo
articolo (seppure inizialmente, era stato accettato e dunque
ritenuto scientificamente valido e idoneo alla pubblicazione).
Poco tempo dopo (nel 1997), Podkletnov venne espulso dal
laboratorio presso cui lavorava e il suo rapporto di lavoro con la
Tampere University of Technology (in Finlandia), si interruppe.
Rientrato a Mosca, Podkletnov ridusse al minimo i contatti con la
stampa e continuò a vivere cercando di apparire in pubblico il
meno possibile. Sempre durante lo stesso anno (1997), in un’altra
intervista telefonica con Charles Platt, Podkletnov sostenne con
insistenza che i suoi esperimenti sulla schermatura
antigravitazionale, erano stati nel frattempo riprodotti con
successo da altri ricercatori presso le università di Toronto
(Canada) e Sheffield (Regno Unito); ma nessuno, ufficialmente,
si è fatto avanti per riconoscerne i risultati.
Gli esperimenti effettuati all’università di Sheffield, sono noti per
aver riprodotto solo parzialmente, il lavoro di Podkletnov. Tale
replicazione parziale era volta ad osservare eventuali effetti
insoliti che avrebbero potuto palesarsi durante i nuovi
esperimenti; infatti il team di ricercatori incaricato di ripetere gli
esperimenti di Podkletnov, non era adeguatamente attrezzato per
ricostruire un disco superconduttore abbastanza grande, nonché
un dispositivo che ne permettesse la rotazione ad una velocità
sufficientemente elevata. Dal canto suo, Podkletnov affermò
nell’intervista che i ricercatori di Sheffield non hanno rivelato i
risultati dei loro esperimenti, “per non essere criticati dalla
comunità scientifica”. Si vocifera che Podkletnov, nel 2000,
abbia fatto visita al team di ricercatori di Sheffield, consigliando
loro quali condizioni mettere in atto per conseguire gli stessi
risultati a cui lui era giunto molti anni prima (e che loro purtroppo,
non erano ancora riusciti a raggiungere).
In una notizia riportata dalla BBC, venne affermato che i
ricercatori della Boeing, avevano finanziato un progetto chiamato
GRASP (Gravity Research for Advanced Space Propulsion), per
la costruzione di un dispositivo (basato sul principio dei
superconduttori rotanti) in grado di produrre una schermatura
gravitazionale. Ma successivamente, in un articolo riportato dalla
rivista americana Popular Mechanics, si dichiarava che la Boeing
aveva negato i finanziamenti al progetto GRASP, con i soldi
dell’azienda. La Boeing, dal canto suo, si limitò a dichiarare
pubblicamente di non poter fare alcun commento, su ciò che
l’azienda è solita classificare sotto il nome di “Black Projects”.
Ritornando a Podkletnov, nella stessa intervista telefonica con
Charles Platt (quella del 1997), egli affermò inoltre che stava
continuando a lavorare sulla schermatura gravitazionale con dei
nuovi collaboratori in un anonimo “centro di ricerca chimico” di
Mosca, e di avere costruito un nuovo dispositivo; sul cui
funzionamento diede a Platt le seguenti informazioni:
“Normalmente ci sono due sfere, e una scintilla salta tra l’una e
l’altra. Ora immagina che le due sfere siano delle superficie
piane, superconduttrici, ed una di esse sia una bobina o un O-
ring38. In condizioni particolari, applicando dei campi risonanti
e dei rivestimenti superconduttori compositi, possiamo
organizzare la scarica elettrica in modo tale che passi attraverso
il centro dell’elettrodo, accompagnata da fenomeni di
gravitazione; nello specifico avviene presumibilmente una
riflessione delle onde gravitazionali che si diffondono attraverso
le pareti e colpiscono gli oggetti ad esse sottostanti, spingendoli
di conseguenza verso l’alto. Le macchine volanti di seconda
generazione rifletteranno le onde gravitazionali e saranno
piccole, leggere e veloci come gli UFO. Nei nostri esperimenti
siamo già arrivati alla riflessione ad impulso; ora il nostro
obiettivo e di farla funzionare continuamente”.
I risultati raggiunti da Podkletnov, da egli stesso descritti in tale
intervista telefonica, si presume che siano gli stessi riportati da
Platt in un suo articolo apparso nel 2001. Nello stesso anno (3
agosto del 2001, per l’esattezza), fu inoltre pubblicato un articolo
firmato da Podkletnov e da Giovanni Modanese (un fisico italiano
amico di Podkletnov, nonché suo principale difensore; coautore
dell’articolo in questione) intitolato: “Impulse Gravity Generator
Based on Charged Y Ba2Cu3O7-y Superconductor with Composite
Crystal Structure” (l’articolo è disponibile in Internet sul sito
38
Un O-ring è un anello di elastomero, a sezione circolare usato come
guarnizione meccanica o sigillo. Gli O-ring sono progettati per essere inseriti
in appositi alloggiamenti ed essere compressi durante l'assemblaggio di due o
più parti, creando così una guarnizione di tenuta.
della Cornell University Library, al seguente indirizzo:
http://arxiv.org/abs/physics/0108005).
La versione pubblicata (e dunque ufficiale) di tale articolo, non
comprende comunque il concetto di “fascio gravitazionale”;
limitandosi semplicemente a considerare tale “fascio”, come un
campo di forze di origine non elettromagnetica.

Gli esperimenti di Ning Li

Ning Li è una scienziata americana nota per le sue controverse


affermazioni su dei dispositivi in grado di contrastare la forza di
gravità. Dopo aver lavorato come fisico, negli anni ’90, presso il
Center for Space Plasma and Aeronomic Research (alla
University of Alabama di Huntsville), nel 1999 lascia il lavoro
all’università per formare una sua società privata: la AC Gravity
(LLC), e continuare le sue ricerche sull’antigravità.
In una serie di articoli scritti in collaborazione con il suo collega
d’università Douglas Torr (anch’egli fisico), pubblicati tra il 1991
e il 1993, si dichiarava la possibilità di produrre degli effetti
antigravitazionali in modo piuttosto semplice e pratico. In uno di
tali articoli si affermava che un effetto antigravitazionale poteva
essere prodotto con degli ioni rotanti in grado di creare un campo
gravitomagnetico39, perpendicolare ai lori assi di rotazione. La

39
Con il termine gravitomagnetismo (a volte definito gravitoelettro-
magnetismo e abbreviato GEM), ci si riferisce ad un insieme di analogie
formali tra le equazioni di campo di Maxwell e un'approssimazione, valida
sotto certe condizioni, delle equazioni di campo di Einstein per la Relatività
Generale. La versione più comune del GEM è valida solo lontano da sorgenti
isolate e per particelle test che si muovono lentamente. Le equazioni vennero
pubblicate per la prima volta nel 1893, cioè prima della Relatività Generale, da
Oliver Heaviside come una teoria separata che espandeva la legge di Newton.
Questa riformulazione approssimata della gravitazione descritta dalla relatività
generale, introduce una "forza apparente" in un sistema di riferimento diverso
da quello di un corpo gravitante che si muove. Per analogia con
l'elettromagnetismo, questa forza apparente è chiamata forza
gravitomagnetica, dal momento che si origina nello stesso modo in cui una
sua teoria prevedeva che, se si potesse allineare un gran numero
di ioni (in un condensato di Bose-Einstein), l’effetto risultante
sarebbe quello di un campo gravitomagnetico molto intenso che
a sua volta darebbe origine ad una grande forza repulsiva. Questo
allineamento potrebbe essere reso possibile, intrappolando gli
ioni superconduttori in una struttura reticolare, attraverso
l’impiego di dischi superconduttori ad alta temperatura40.
Ridefinendo il tutto in altre parole, se un campo magnetico

carica elettrica in movimento crea un campo magnetico, l'analogo della "forza


apparente" nella relatività speciale. La principale conseguenza della forza
gravitomagnetica, o accelerazione gravitomagnetica, è che un oggetto in
caduta libera vicino a un oggetto massivo rotante ruoterà esso stesso. Questa
previsione, spesso citata impropriamente come effetto gravitomagnetico, è tra
le ultime previsioni basilari della relatività generale ancora non direttamente
verificate. La relatività generale, oltre a spiegare l’attrazione gravitazionale
con la curvatura dello spazio-tempo, prevede anche che un corpo ruotante
come la Terra, proprio in virtù del suo momento angolare, generi una curvatura
dello spazio-tempo in aggiunta a quella dovuta alla sua massa. Come una carica
elettrica in movimento genera un campo magnetico, che a sua volta può
esercitare una coppia torcente su un momento di dipolo magnetico posto nelle
vicinanze, così nella relatività generale una massa in rotazione genera un
potenziale gravitazionale, che si aggiunge alla normale attrazione
gravitazionale che tiene ad esempio la Luna e i satelliti artificiali in orbita
intorno alla Terra. Questo ulteriore potenziale produce una forza torcente,
chiamata gravitomagnetica. Essa può esercitarsi su una massa posta nelle
vicinanze e dotata di momento angolare orbitale (che ruoti come un satellite in
orbita attorno alla Terra) o di momento angolare di spin (cioè rotante attorno
al proprio asse). L'effetto gravitomagnetico della Terra è stato misurato
analizzando i dati dei satelliti Lageos I e II. Il gravitomagnetismo, infatti,
induce una pressione anomala nelle orbite di satelliti rotanti attorno ad un
corpo pure in rotazione.

40
Un superconduttore ad alta temperatura, è un materiale che presenta una
temperatura critica superconduttrice, relativamente elevata (superiore a 30 K)
in confronto ai superconduttori convenzionali. Questo termine definisce in
generale, la famiglia dei materiali di tipo cuprato, dove la superconduttività si
manifesta fino a 138 K. Ma anche altre famiglie di superconduttori, come gli
ossipnictidi (scoperti solo nel 2008), possono rientrare nella categoria dei
superconduttori ad alta temperatura. A tutt’ oggi, nessuna teoria fisica è in
grado di spiegare il “meccanismo” che sta alla base della superconduttività.
(variabile nel tempo), venisse applicato a degli ioni
superconduttori intrappolati in una struttura reticolare, tali ioni
assorbirebbero un’enorme quantità di energia. Confinati nel
reticolo, gli ioni in questione inizierebbero a ruotare velocemente
ed ognuno di essi, produrrebbe un piccolo campo gravitazionale.
Per dirla con le stesse parole della dottoressa Li: “Se Einstein
aveva ragione, la quantità di energia gravitomagnetica prodotta
da un oggetto, è proporzionale alla sua massa e al suo
movimento”.
Per creare dei campi gravitazionali artificiali, Douglas Torr e
Ning Li proposero di porre un contenitore superconduttore in un
campo magnetico per allineare gli ioni (rotanti su se stessi e in
piccoli cerchi) all’interno del materiale superconduttore. La loro
teoria prevedeva l’esistenza della rotazione ionica, in un
superconduttore posto all’interno di un campo magnetico. Per
capire il motivo per cui un disco superconduttore ad alta
temperatura sia fondamentale per la costruzione di una macchina
in grado di produrre un campo di forze, è necessario conoscere
qualcosa a proposito di un insolito stato della materia chiamato:
condensato di Bose-Einstein. Il condensato di Bose-Einstein (in
sigla BEC, dall'inglese Bose–Einstein condensate) è uno stato
della materia, che si ottiene quando si porta un insieme di bosoni
a temperature estremamente vicine allo zero assoluto (0 K,
corrispondente a -273,15 °C). In queste condizioni di grande
raffreddamento, una frazione non trascurabile delle particelle si
porta nello stato quantistico di più bassa energia e gli effetti
quantistici si manifestano su scala macroscopica. Questo stato
della materia venne predetto per la prima volta, sulla base della
meccanica quantistica, da Albert Einstein, che si basò sul lavoro
di Satyendra Nath Bose, nel 1925. Settant’ anni più tardi, il primo
condensato di questo tipo fu prodotto da Eric Cornell e Carl
Wieman nel 1995 al laboratorio NIST-JILA dell'Università del
Colorado, usando un gas di rubidio alla temperatura di 170
nanokelvin (nK). Un condensato di Bose-Einstein è in grado di
“spremere” una quantità molto grande di atomi, in uno spazio
estremamente piccolo. La prima volta che è stato realizzato, si è
riusciti a “stipare” circa 2000 atomi di rubidio, in uno spazio di
soli 20 micron.
Ora, tornando alla teoria di Ning Li, il disco superconduttore ad
alta temperatura permetterebbe di produrre, per ogni atomo, un
effetto gravitazionale di sei ordini di grandezza in più rispetto
all’effetto ordinario (normale). A causa della massa molto piccola
di cui è costituito un atomo, l’accelerazione deve essere
compensata, al fine di ottenere una forza avente una certa
intensità. Gli atomi ruotano molto rapidamente e in un condensato
di Bose-Einstein, un numero sufficientemente elevato di atomi si
uniscono per creare una forza perpendicolare alla loro rotazione.
Ciò produrrebbe un campo di forze simile a quello gravitazionale,
che potrebbe essere controllato in ogni direzione. In un disco
superconduttore ad alta temperatura, il piccolo effetto
gravitazionale di ogni singolo atomo è da moltiplicarsi per i
miliardi di atomi contenuti nel disco. Utilizzando circa un
kilowatt di energia elettrica, il dispositivo creato da Ning Li,
potrebbe potenzialmente produrre un campo di forze in grado di
contrastare la gravità terrestre su un’area di circa 30 cm di
diametro (una zona che si estenderebbe dalla superficie terrestre
fino allo spazio aperto, fuori atmosfera).
Quando uno ione ruota attorno ad un campo magnetico, la sua
massa compie un determinato tragitto a causa del movimento
rotazionale. Tale effetto, in accordo con la teoria della Relatività
Generale di Einstein, produrrebbe un campo gravitomagnetico
(seppur di debole intensità). Gli ioni, ovviamente, hanno una
massa infinitamente più piccola rispetto alla Terra. Ma un’altra
importante differenza con la Terra è che essi ruotano ad una
velocità assai elevata: circa un quadrilione di giri al secondo!
(…rispetto alle 24 ore che il nostro pianeta impiega per compiere
un solo giro su se stesso). Ed è proprio questa velocità
estremamente elevata di rotazione, che va a compensare la massa
estremamente piccola degli ioni. La rotazione degli ioni, crea
dunque un campo gravitoelettrico41, perpendicolare al loro asse di
rotazione. In natura, secondo Ning Li, questo campo
gravitoelettrico rimane inosservato perché gli ioni sono sempre
disposti in modo casuale; il che causa un annullamento reciproco
dei loro piccolissimi campi gravitoelettrici. In un condensato di
Bose-Einstein, in cui tutti gli ioni si comportano come se ne
esistesse soltanto uno, accade invece qualcosa di molto diverso.
Infatti, in un superconduttore ad alta temperatura, in cui gli ioni
si ritrovano tutti allineati da un campo magnetico, i campi
gravitoelettrici generati dagli ioni, dovrebbero anch’essi
allinearsi. Tutti questi effetti, dovrebbero teoricamente rendersi
sempre più evidenti, man mano che si aumentano le dimensioni
del disco superconduttore.
La dottoressa Ning Li, sostenne, a suo tempo, che i risultati
sperimentali da lei ottenuti confermavano le sue teorie.
All’inizio degli anni ’90, le affermazioni di Ning Li sul fatto di
essere riuscita a creare dei dispositivi in grado di contrastare la
forza di gravità, vennero riportate dalla stampa popolare e da
alcune riviste di divulgazione scientifica con un certo entusiasmo.
Tuttavia, nel 1997, Ning Li pubblicò un articolo in cui veniva
descritto un esperimento, dove l’effetto antigravitazionale
riscontrato appariva molto piccolo (se non addirittura inesistente).
Anche se non esistono prove che la AC Gravity LLC abbia
effettuato altri lavori nel corso degli ultimi quindici anni (oltre a
quelli resi pubblici alla fine degli anni ’90), la società creata da
Ning Li per la ricerca nel campo dell’antigravità, figura a
tutt’oggi nella lista delle “attività ancora in vita”. Per quanto
riguarda l’allora collega di Ning Li, Douglas Torr, anche per lui
le ultime notizie risalgono alla fine degli anni ’90. In quegli anni
infatti, alla University of South Carolina, Torr lavorò insieme a
Timir Datta ad un progetto parallelo a quello di Ning Li, per lo
sviluppo di un “generatore di gravità”. Secondo un documento

41
Nella Relatività Generale, la componente gravitoelettrica di un campo
gravitazionale, è analoga alla componente del campo elettrico di un campo
elettromagnetico.
trapelato dall’ Office of Technology Transfer presso la University
of South Carolina e confermato dal giornalista (di Wired) Charles
Platt, nel 1998, il dispositivo in questione sarebbe riuscito a creare
un “fascio di forza” in qualsiasi direzione desiderata e l’università
della South Carolina aveva già pianificato di brevettare tale
invenzione. Da quel giorno, non fu mai più resa pubblica alcuna
informazione inerente a tale progetto di ricerca da parte della
University of South Carolina; e del “generatore di gravità”, non
se ne seppe più nulla.

Dall’elettrogravità all’elettroidrodinamica

L’ipotesi dell’elettrogravità, venne presa in considerazione per la


prima volta da Nikola Tesla (il quale si racconta che abbia
eseguito numerosi esperimenti, atti a dimostrarne l’esistenza). Il
termine comunque, divenne di uso comune solo negli anni ‘50.
Gli effetti dell’elettrogravità, sono stati intensamente ricercati da
scienziati di tutto il mondo (attraverso innumerevoli esperimenti),
già a partire dagli inizi del ventesimo secolo; ma sino ad oggi
comunque, nessuna prova conclusiva della reale esistenza di tale
fenomeno è mai stata trovata.
Con il termine elettrogravità, generalmente si fa riferimento ad un
processo fisico non convenzionale, in grado di generare un campo
antigravitazionale, attraverso l’effetto di un campo elettrico su
una massa. Il termine, negli anni venti del secolo scorso, venne
ripreso dall’inventore americano Thomas Townsend Brown, il
quale spese la maggior parte della sua vita nel tentativo di
sviluppare un sistema propulsivo antigravitazionale. Grazie alla
pubblicità che Brown fece al suo progetto, potenzialmente in
grado di rivoluzionare il mondo dell’ingegneria aerospaziale,
esso negli anni ’50, per un breve periodo, venne studiato da
alcune aziende aerospaziali americane. Oggi comunque è risaputo
che un dispositivo progettato sulla base dell’idea di Brown, non
presenterebbe alcun effetto nel vuoto. Questo poiché l’effetto
osservato da Brown (da egli stesso denominato “effetto Biefeld-
Brown”), non è stato attribuito all’antigravità, bensì ad un
semplice vento di ioni (vento ionico) e all’effetto corona.
L’effetto Biefeld-Brown è una forza che agisce su un
condensatore di tipo “asimmetrico” (costituito da due elettrodi
conduttivi paralleli; uno piccolo e sottile e l’altro grande e
lamellare), nel momento in cui viene sottoposto ad una tensione
elevata (dell’ordine di qualche decina di kV). Tale forza è
generalmente indipendente dal senso di polarizzazione, e agisce
nel senso dell’elettrodo piccolo (filiforme).

Figura 2.3. Elettrodi conduttivi paralleli (piccolo e grande) per


l’effetto Biefeld-Brown.

Scoperto negli anni venti da Thomas Townsend Brown e Paul


Alfred Biefeld, questo effetto è stato oggetto di numerosi brevetti
nel campo della propulsione di macchine e dispositivi volanti. A
livello dilettantistico, sono stati costruiti diversi dispositivi
volanti (con un’alimentazione elettrica esterna) che
sfrutterebbero tale effetto (generalmente noti con il nome di
“lifters”42 o “ionocrafts”). Il principio fisico su cui si basano

42
Il termine "lifter" ("sollevatore") è una descrizione accurata dal momento
che non si tratta di un dispositivo anti-gravità, ma che, esattamente come un
razzo, ottiene portanza dalla forza di reazione derivante dall'accelerazione
verso il basso dell'atmosfera in cui viene posto. Una convinzione diffusa è che
il lifter basi il suo funzionamento su un qualche ignoto fenomeno di interazione
tra la carica elettrica ed il campo gravitazionale oppure che essa sia dovuta in
questi dispositivi è conosciuto (esso rientra nel campo delle leggi
fisiche dell’elettroidrodinamica)43, ma ha dato luogo a diverse
speculazioni; soprattutto da quando è stato annunciato che tali
dispositivi, funzionerebbero anche nel vuoto (ossia in assenza
dell’atmosfera terrestre)44. Dopo il successo che i “lifters” hanno
avuto sul web, è stato pubblicato qualche studio sulla base di
alcune conoscenze sperimentali e teoriche, in cui si è giunti alla
conclusione che il fenomeno esiste realmente e che si basa sul
vento ionico (nonché sull’effetto corona), ma che tuttavia non può
assolutamente manifestarsi in assenza di un atmosfera45 (o
comunque di un gas dielettrico idoneo a tale processo fisico).
Il fenomeno in questione si basa principalmente sull’effetto
corona, che permette la ionizzazione delle molecole d’aria in
prossimità degli spigoli vivi dei lifters. Solitamente vengono

parte all'interazione con la carica elettrica od il campo magnetico terrestre.


Queste convinzioni sono facilmente escluse verificando che la spinta generata
dal dispositivo è indipendente dalla sua orientazione rispetto alla superficie
terrestre.

43
L’elettroidrodinamica (in inglese, nell’acronimo EHD), anche conosciuta
come elettrofluidodinamica (EFD) o elettrocinesi, è lo studio della dinamica
dei fluidi elettricamente carichi. L’EHD copre i seguenti tipi di meccanismo di
trasporto di fluidi e particelle: elettroforesi, elettrocinesi, dielettroforesi,
elettro-osmosi ed elettrorotazione. In generale, i fenomeni riguardano la
conversione diretta di energia elettrica in energia cinetica, e viceversa.

44
Sul lavoro di Brown, sono stati condotti diversi studi alla US Air Force da
parte di R. L. Talley nel 1990, dallo scienziato Jonathan Campbell della NASA
in un esperimento del 2003 ed è inoltre stato scritto un articolo scientifico sul
caso da parte di Martin Tajmar nel 2004. In tutti questi studi, si è osservato che
nessuna spinta può verificarsi nel vuoto; occorre sempre la presenza di aria o
di un gas dielettrico idoneo a tale processo fisico.

45
Le caratteristiche dell'aria, specie l'umidità, possono ridurre la spinta del
lifter. La stessa pressione dell'aria costituisce un parametro critico, infatti in
area rarefatta la distribuzione dell'impulso da parte degli ioni in moto tra gli
elettrodi avviene con più difficoltà ed il cammino libero medio superiore
permette alle particelle di raggiungere velocità maggiori, riducendo la quantità
di moto complessiva trasferita.
utilizzati due elettrodi (uno piccolo/filiforme e l’altro
grande/lamellare e liscio), aventi tra loro un’elevata tensione, che
oscilla tra qualche kiloVolt e diversi milioni di Volt. La distanza
più efficace tra i due elettrodi, è ad un gradiente di campo elettrico
di circa 10 kV/cm, che si situa appena al di sotto della tensione di
rottura dell’aria tra due punti, ad un livello di densità di corrente
generalmente indicato con il nome di “condizione di corrente
della corona satura”. Questo stato genera un alto gradiente del
campo elettrico, attorno al piccolo elettrodo positivamente carico.
Attorno a questo elettrodo, si verifica il processo di ionizzazione;
ovvero, gli elettroni vengono rimossi dagli atomi, ritrovandosi
così nell’ambiente circostante (essi vengono letteralmente tirati
fuori, estrapolati, dalla carica dell’elettrodo). Ciò da origine ad
una nuvola di ioni positivi, attirati dall’elettrodo negativo grande,
dove diventano nuovamente neutri. Durante questo processo, si
producono milioni d’impatti tra gli ioni carichi e le molecole
neutre dell’aria nello spazio circostante al lifter, causando un
trasferimento di energia cinetica tra le due particelle, che dà
origine ad una forza direzionale sul sistema di elettrodi. L'effetto
Biefeld-Brown trasforma quindi una differenza di potenziale
elettrico in energia cinetica; per cui ha le caratteristiche di un vero
e proprio effetto elettrocinetico. Questo effetto può essere
utilizzato per la propulsione di lifters, pompe idrauliche e
recentemente anche nei sistemi di raffreddamento
elettroidrodinamici (EHD).
Figura 2.4. Un lifter costruito artigianalmente, che si libra nell’aria.

La teoria dell’elettrogravità divenne popolare negli anni ’50, con


l’interesse sempre più acceso da parte delle comunità di ufologi,
nel cercare di capire il funzionamento di eventuali dispositivi in
grado di contrastare la forza di gravità (di cui apparentemente
sembrava fossero dotati gli UFO). Per gli ufologi (e non solo per
loro), a quei tempi (ossia negli anni ’50), la teoria e i congegni
ideati da Thomas Townsend Brown, rappresentavano qualcosa di
molto più esotico, di semplici processi fisici che danno luogo ad
effetti elettrocinetici. Ma erano appunto gli anni ’50, ossia
un’epoca in cui praticamente non esisteva ancora nulla, rispetto a
ciò di cui oggi disponiamo in ambito scientifico e tecnologico, ad
uso e consumo di milioni di persone (Internet, cellulari, droni
elettromeccanici, etc.); dove ormai la gente vede le cose più strane
e inconsuete in modo più “superficiale” (dandole per ovvie,
scontate) ed accetta molto più facilmente tutto ciò che la scienza
e la tecnologia moderna sono oggi in grado di offrirci. Quasi più
nulla dunque, oggigiorno, alla gente comune, appare come una
sorta di “stregoneria fantascientifica”. Probabilmente neppure i
bambini, tra qualche anno, passeggiando su una strada pubblica e
vedendosi inghiottire da uno squalo gigante che fuoriesce da uno
schermo46, si spaventeranno più di quel tanto. Nell’era della
generazione digitale (o come si usa dire oggi, dei “nativi
digitali”), ciò che fino a qualche decennio fa poteva apparire
realmente fantascientifico, ora deve apparire del tutto naturale ed
essere assimilato e digerito subito senza neppure aver il tempo di
riflettere su ciò che si sta osservando od utilizzando; ovvero senza
avere la minima conoscenza dei principi di base che regolano e
permettono la realizzazione di determinate applicazioni in ambito
tecnologico, di uso comune. Chi si sofferma troppo a riflettere su
tutto, non è “cool”, non è abbastanza sveglio e intelligente; è solo
un “povero cristo” arrivato chissà come dal passato, che non può
essere in grado di capire fino in fondo ciò che gli sta attorno,
poiché non ricettivo ai memi47 di ultima generazione.

Propulsori magnetoidrodinamici

La magnetoidrodinamica (il cui acronimo dall’inglese è: MHD;


talvolta chiamata anche magnetofluidodinamica) è quella parte
della fisica che studia il movimento di fluidi conduttori
dell'elettricità, in campi magnetici esterni o indotti dal movimento

46
Il riferimento ovviamente, è ad una scena del film di Robert Zemeckis del
1989, “Ritorno al Futuro (parte II)”, con Michael J. Fox; dove un’ enorme
insegna pubblicizzava l’uscita nei cinema del diciannovesimo episodio della
saga de “Lo Squalo” (in un super 3D) e ad un tratto, da tale insegna, usciva
l’immagine olografica di uno squalo gigantesco che andava ad afferrare tra i
denti il malcapitato Marty McFly (Michael J. Fox).

47
Il meme (dal greco mímēma «imitazione») è un'entità consistente in una
informazione riconoscibile dall'intelletto, relativa alla cultura umana che è
replicabile da una mente. In termini più specifici, un meme sarebbe "un'unità
auto-propagantesi" di evoluzione culturale, analoga a ciò che il gene è per la
genetica; quindi un elemento di una cultura o civiltà trasmesso da mezzi non
genetici, soprattutto per imitazione.
dei portatori di carica elettrica all'interno del fluido stesso. Il
fluido conduttore tipico è generalmente un plasma, cioè un gas di
ioni che si muovono individualmente e collidono fra loro. Gli
studi nel campo della magnetoidrodinamica, in questi ultimi anni
hanno subito un notevole sviluppo grazie all’estendersi dei campi
di applicazione (dalla propulsione dei veicoli spaziali, ai
fenomeni cosmici nell'alta atmosfera; dalla regolazione dei
reattori nucleari, agli studi sulla fusione nucleare).
Uno dei campi d’applicazione più interessanti della MHD, è
indubbiamente quello inerente allo sviluppo di propulsori
spaziali. In genere i propulsori magnetoidrodinamici, vengono
tecnicamente chiamati: acceleratori magnetoidrodinamici (o più
semplicemente, acceleratori MHD). Un acceleratore MHD è
sostanzialmente un convertitore MHD che mette in movimento
un fluido conduttore, grazie a un campo elettrico e ad un campo
magnetico combinati assieme. Il principio di base è uguale a
quello di un motore elettrico. Entrambi infatti possiedono un
induttore48 (elettromagnete) generante un campo magnetico in un
indotto49. Infatti, nel caso di un motore convenzionale, l’indotto è
solido (è una bobina costituita da un avvolgimento di filo
metallico), mentre nel caso di un acceleratore MHD, l’indotto è
fluido (è un liquido conduttore che potrebbe essere dell’acqua
salata, un metallo liquido oppure un gas ionizzato chiamato
plasma). Gli acceleratori MHD non utilizzano delle parti
meccaniche mobili (contrariamente ai motori elettrici
tradizionali); essi convertono direttamente l’energia
elettromagnetica in energia cinetica. In pratica, un fluido viene
messo in movimento in un campo magnetico, che genera a sua
volta una corrente elettrica, raccolta alle estremità degli elettrodi
immersi nel fluido e trasformata in carica.

48
L'induttore è un componente elettrico che genera un campo magnetico al
passaggio di corrente elettrica (continua o alternata od impulsiva).

49
Il rotore (definito anche come indotto nei motori in corrente alternata), in
una macchina avente parti in movimento, è l'insieme delle parti rotanti.
Gli acceleratori MHD progettati per i voli nello spazio, vengono
generalmente chiamati: propulsori elettromagnetici al plasma.
Essi fanno parte di una nuova generazione di propulsori spaziali,
prevista per l'esplorazione spaziale in un futuro non molto
lontano. Ma vediamo più in dettaglio i principi fisici che stanno
alla base di questi acceleratori.
Un gas ionizzato può essere accelerato grazie alle forze di
Lorentz50; ossia grazie ad un’interazione di correnti elettriche, che
prende forma attraverso questo gas, con dei campi magnetici sia
direttamente indotti da queste correnti (self-field accelerators), sia
generate da dei selenoidi51 esterni (applied-field accelerators). I
propulsori equipaggiati con selenoidi, possono anche essere
progettati per funzionare senza scarica elettrica nel gas (e dunque
senza elettrodo), per induzione. In questo caso, è un campo
magnetico rapidamente variabile che induce delle correnti
elettriche nel gas (generando insieme, ossia combinandosi, le
forze di Lorentz). La propulsione elettromagnetica è la sotto-
categoria più evoluta della propulsione elettrica, che ne conta tre:
- La propulsione elettrotermica: queste interazioni
possono servire, in un primo approccio, a comprimere un
arco elettrico di grande intensità in una colonna

50
La forza di Lorentz (o forza elettromagnetica), è la forza che subisce una
particella carica in un campo elettromagnetico. È la principale manifestazione
dell’interazione elettromagnetica. La forza di Lorentz, applicata in diverse
situazioni, provoca l’insieme delle interazioni elettriche e magnetiche
osservate.

51
Un solenoide è una bobina di forma cilindrica formata da una serie di spire
circolari molto vicine fra loro e realizzate con un unico filo di materiale
conduttore. Se la lunghezza dell'avvolgimento di spire è minore di 10 volte il
raggio della singola spira è definito bobina, mentre se la lunghezza
dell'avvolgimento è maggiore di 10 volte il raggio è definito solenoide. Il
solenoide è uno strumento solitamente usato come induttore per lo studio e le
applicazioni dell'elettromagnetismo.
d’idrogeno, al fine di riscaldare questo gas e di espellerlo
(in espansione) attraverso un ugello divergente. In questo
caso si parla di propulsore elettrotermico, solitamente
chiamato Arcjet.

- La propulsione ionica elettrostatica: In questo principio


fisico è prevista l’utilizzazione di tali forze per
“costringere” magneticamente un plasma, all’interno di
un involucro dal quale si estraggono solo gli ioni. Questi
ioni vengono quindi accelerati da un campo elettrico e la
loro direzione di diffusione viene controllata
magneticamente. In questo caso avremo un motore ionico
(a forze elettrostatiche) in cui il campo magnetico svolge
un ruolo di contenimento. Questi motori ionici
elettrostatici permettono delle grandi velocità
d’espulsione (in media, 40 Km/s) ma generano delle
deboli spinte (a causa della debole intensità del flusso
ionico) e vengono in genere utilizzati per il controllo fine
dell’orbita dei satelliti e la propulsione di sonde spaziali
progettate per viaggi non troppo lunghi.

- La propulsione plasmica elettromagnetica (o plasmo-


elettromagnetica): in questo principio fisico le forze
possono essere esse stesse di natura propulsiva,
accelerando direttamente il plasma. In questo caso si parla
di propulsori elettromagnetici al plasma.
I seguenti invece, sono i principali motori elettromagnetici al
plasma (per potenza crescente):
- Propulsore al Plasma Pulsato (PPT – Pulsed Plasma
Thruster): questo propulsore utilizza l’energia elettrica
per stimolare un materiale solido ablativo (generalmente
teflon), al fine di ionizzarlo. Questo plasma poco denso
viene in seguito accelerato elettromagneticamente da un
impulso magnetico ultra-breve, generato da un selenoide,
che induce delle correnti elettriche nel plasma (che si
oppone al campo magnetico induttore) al fine di creare
una reciproca repulsione (per induzione) secondo la legge
di Lenz52. La spinta è estremamente corta e debole
(qualche micronewtons); per cui questo tipo di
propulsione in genere viene usata per scopi di puntamento
di precisione o per riassettare/ridefinire una determinata
orbita planetaria.

- Propulsore ad induzione pulsata (PIT - Pulsed Inductive


Thruster): questo propulsore utilizza un selenoide piatto
(generalmente di un metro di diametro) e un iniettore di
gas (a valvola) ultra-rapido, che inietta qualche
milligrammo di propellente in mezzo alla bobina. Un
banco di condensatori si scarica nel selenoide in dieci
microsecondi (sotto i 30 kV), generando nel gas un breve
impulso di campo magnetico assiale ed induttivo, che
ionizza il gas. Il gas viene quindi spinto fuori a causa delle
correnti indotte, secondo la legge di Lenz. Il vantaggio
principale di questo tipo di propulsore a induzione, sta nel
confinamento del plasma, lontano dalle pareti; nonché
nell’assenza di elettrodi e di un arco elettrico, eliminando
così alla radice il problema dell’erosione. Un altro
vantaggio del PIT è la sua polivalenza, che si esprime
nella capacità di funzionare con diversi propellenti (come
l’Argon, l’idrazina, l’ammoniaca, il diossido di Carbonio,
etc.).

- Propulsore magnetoplasmadinamico (MPD -


MagnetoPlasmaDynamic thruster): si tratta di un

52
La legge di Lenz, formulata dal fisico russo Heinrich Friedrich Emil Lenz
nel 1834, è una conseguenza del terzo principio della dinamica (di azione e
reazione) e della legge di conservazione dell'energia che determina la direzione
della forza elettromotrice risultante dall'induzione elettromagnetica in un
circuito elettrico. La legge stabilisce che la variazione temporale del campo
magnetico genera una forza elettromotrice che contrasta la variazione.
propulsore elettromagnetico ad alta potenza (da qualche
centinaio di kilowatt fino a molti megawatt di energia per
propulsore); sicuramente uno dei più studiati fin dagli
anni ’60 del secolo scorso. Questo propulsore a volte
viene chiamato anche con l’acronimo: LFA (dall’inglese:
Lorentz Force Accelerator), nelle sue versioni più
aggiornate e moderne. I propulsori MPD più performanti
permettono a volte una spinta molto forte (fino a 200 N) e
delle elevate velocità d’espulsione; circa un centinaio di
km al secondo, con un impulso specifico (per peso)
dell’ordine di 10'000 secondi. Questo principio fisico di
propulsione (concettualizzato già nel 1964), di natura
elettromagnetica, utilizza la forza di Lorentz (ossia la
forza elettromagnetica risultante dall’interazione tra una
corrente elettrica e un campo magnetico) per accelerare un
gas ionizzato (chiamato plasma) che fornisce a sua volta
una spinta a reazione.
Un propulsore MPD, è composto da un ugello divergente
munito di elettrodi. Al centro dell’ugello si situa il catodo
sotto forma di un tondino metallico assiale. Sui bordi del
“porta-uovo” è collocato un anodo circolare.
Dell’idrazina, o più frequentemente un gas raro
(generalmente l’Argon o lo Xeno) viene iniettato alla base
dell’asta centrale. Un forte arco elettrico (con un’intensità
di diverse migliaia d’Ampère) viene emesso (generato)
assialmente dal catodo che ionizza il gas (trasformandolo
quindi in plasma). Questa forte corrente elettrica assiale,
induce attorno al plasma un forte campo magnetico
azimutale. La corrente elettrica si espande in seguito
radialmente a forma di corona, verso l’anodo in uscita
dell’ugello; ed è proprio qui che questa corrente radiale,
interagisce con il campo magnetico azimutale, generando
una forza di Lorentz propulsiva (direzionabile secondo
l’asse geometrico del sistema). Il plasma viene accelerato
elettromagneticamente attraverso l’uscita divergente,
generando così una spinta a reazione. Diversamente dalla
propulsione spaziale convenzionale, questa propulsione
non viene generata dalla combustione.
Tuttavia questi propulsori, nonostante le loro prestazioni
siano tutt’altro che irrilevanti, non hanno mai suscitato un
grande interesse da un punto di vista commerciale, a causa
di vari problemi. Uno di questi, è che l’energia richiesta
per delle prestazioni ottimali, è dell’ordine delle centinaia
di kilowatt. Gli attuali sistemi di alimentazione per i
veicoli spaziali destinati a viaggi interplanetari (come ad
esempio i generatori termoelettrici a radioisotopi e i
pannelli solari), non sono infatti in grado di produrre tutta
quell’energia. Una speranza poteva essere riposta nel
Progetto Prometheus della NASA, che aveva lo scopo di
realizzare dei sistemi a propulsione nucleare (per delle
missioni nello spazio di lunga durata), in grado di
generare centinaia di kilowatt di potenza; ma è stato
abbandonato nel 2005 (dopo soli due anni di ricerche).

- Propulsore ad induzione per onda magnetica


(PMWAC - Propagating Magnetic Wave Plasma
Accelerator): Questo tipo di propulsore viene talvolta
chiamato anche IPA (Inductive Plasma Accelerator), e
funziona ad induzione per onda magnetica (senza
elettrodo). Diversi selenoidi sono posti in serie uno
affianco all’altro, attorno ad un ugello cilindrico,
all’interno del quale si genera un campo magnetico
assiale. Questo campo magnetico all’inizio è uniforme e
magnetizza il plasma che si ritrova incidentalmente
confinato lontano dalla parete. I selenoidi subiscono in
seguito (individualmente) un’elevazione d’impulso della
corrente elettrica che li avvolge. Questo impulso elettrico
è distribuito in ogni selenoide con la stessa ampiezza ma
in transizione di fase rispetto al selenoide precedente, in
modo tale che un’onda magnetica “peristaltica” inizi a
percorrere l’interno del tubo. Il plasma viene accelerato
lungo quest’onda, guidato dal punto normale d’incidenza
(NIP-wave) delle linee di campo che generano un
aumento localizzato della pressione magnetica, ed espulso
dalle forze di Lorentz (generate dall’interazione del
campo magnetico assiale con le correnti azimutali che
esso induce nel plasma a causa dell’aumento rapido della
sua intensità). Un propulsore ad onda magnetica di cinque
metri di lunghezza ed avente una potenza di 2 MW, porta
un plasma alla velocità di 300 km/s con una spinta
eccezionale di 4'000 N. Una versione di 25 metri e 20
MW, con la stessa spinta, porta ad una velocità record
d’eiezione di 1'000 km/s !

- Propulsore magneto-plasmico a impulso specifico


variabile (VASIMR - Variable specific impulse
magnetoplasma rocket): si tratta di un propulsore spaziale
al plasma, che utilizza dei campi e delle radiazioni
elettromagnetiche variabili (senza elettrodi) per
riscaldare, ionizzare e accelerare un propellente
vaporizzato (idrogeno, argo o elio). VASIMR fornisce
una soluzione versatile, in alternativa ai due sistemi
“specialistici” esistenti rappresentati dai propulsori ad alta
spinta (e a debole impulso specifico) e dai propulsori a
spinta debole (e ad alto impulso specifico); questo grazie
al fatto che esso è in grado di funzionare nelle due
modalità, regolando opportunamente in qualunque
momento, i suoi parametri operativi.
La propulsione magneto-plasmica ad impulso specifico
variabile presenta la particolarità di fare appello ai tre
aspetti della propulsione elettrica: 1. Riscaldamento per
induzione elettromagnetica ed espansione del gas
(propulsione elettrotermica); 2. Ionizzazione e
accelerazione degli ioni del plasma in un campo elettrico
indotto (propulsione ionica); 3. Confinamento del plasma
interno, guida e controllo del getto esterno attraverso un
campo magnetico (propulsione elettromagnetica).
Figura 2.5. Uno schema del propulsore VASIMR

Restando sempre sul tema della magnetoidrodinamica, va anche


ricordato che oltre agli studi sulle sue possibili applicazioni
nell’ambito della propulsione aerospaziale, da moltissimo tempo
si studiano anche le sue possibili applicazioni in ambito
marittimo.
I primi studi sulla propulsione MHD in ambiente oceanico
risalgono alla fine degli anni ’50 negli Stati Uniti. Nel 1958,
l’ingegnere Stewart Way , del dipartimento R&D di
Westinghouse a Pittsburgh, pubblica un primo rapporto ufficiale
sulla questione. Nel 1961, Warren A. Rice deposita il primo
brevetto, parallelamente ai lavori degli americani James B. Friauf
e O.M. Phillips. Un secondo rapporto di Stewart Way venne
pubblicato nel 1964 dall’ASME (American Society of Mechanical
Engineers). Nel 1966, Stewart Way sperimenta con successo il
primo modello (di dimensioni ridotte) di sommergibile a
propulsione MHD (lungo tre metri e pesante 400 kg) munito di
due elettrodi, nella baia di Santa Barbara in California. Le sue
ricerche subirono un arresto durante il decennio successivo, a
causa dell’impossibilità di fabbricare le bobine in grado di
generare dei campi magnetici molto forti, necessari al corretto
rendimento di un propulsore MHD adattabile ad un sommergibile
di grandi dimensioni. I russi tuttavia, proseguirono con le loro
ricerche militari sulla propulsione MHD dei sottomarini, al fine
di renderli silenziosi (onde sfuggire al nemico con più facilità).
Molti anni dopo, grazie ad un certo avanzamento in campo
scientifico e tecnologico, la disponibilità di elettromagneti
superconduttori capaci di produrre dei campi magnetici di grande
potenza (dell’ordine di parecchi Tesla), si rese possibile e negli
Stati Uniti vennero dunque ripresi gli studi sulla propulsione
MHD in ambiente marino. Tali studi, negli USA, vennero rivolti
principalmente verso i sommergibili della US Navy. Negli anni
’90, la University of Pennsylvania condusse degli esperimenti al
Francis Bitter National Magnet Laboratory del MIT di
Cambridge, in un circuito chiuso avente una configurazione
elicoidale, ottenendo delle velocità di flusso di 3,7 metri al
secondo e un rendimento del 10% con un campo magnetico di ben
8 Tesla (circa 180'000 volte più intenso di quello terrestre).
Dal canto suo, sempre in quel periodo fertile di ricerche, la US
Navy non commenta le potenziali applicazioni in ambito militare
a cui i risultati raggiunti in via sperimentale avrebbero potuto
portare; ciononostante riesce a realizzare diversi brevetti aventi
come oggetto in questione, dei sottomarini a propulsione MHD
con caratteristiche tecniche piuttosto avanzate.
Negli anni ’70, anche i giapponesi iniziarono a condurre delle
ricerche scientifico-sperimentali sulla propulsione MHD, ma in
ambito civile. Nel 1976, l’università della marina mercantile di
Kobe, realizza, sotto la direzione del fisico Yoshiro Saji, un primo
modello (seguito tre anni dopo da un secondo di 3,6 metri di
lunghezza e 700 kg di peso), di nave a propulsione MHD. Ma la
prima vera nave giapponese a propulsione MHD, in grado di
utilizzare 12 acceleratori lineari di Faraday, fu varata solo nel
1992 e prese il nome di: Yamato 1.
Figura 2.6. Un’immagine frontale della Yamato 1, esposta al Kobe
Maritime Museum, in Giappone.

Alla fine degli anni ’90, anche la Cina sperimenta un prototipo di


imbarcazione a propulsione MHD: l’HEMS-1 (il sistema
elicoidale di propulsione fu munito di un elettromagnete in grado
di generare cinque Tesla di induzione magnetica) ed intraprende
un partenariato con il Giappone per testare la propulsione MHD
in laboratorio con dei campi magnetici di grande intensità (fino a
15 Tesla!).
In Francia, nel 1976, l’ingegnere Jean-Pierre Petit del CNRS,
realizza (all’Institut de Mécanique des Fluides de Marseille),
intorno ad un profilo cilindrico immerso in un flusso d’acqua
acida in un campo magnetico di 4 Tesla (con forze di Lorentz in
flusso esterno), l’annientamento dell’onda di prua e della
turbolenza di scia. Negli anni ’90, la Marina Nazionale francese
stipulò un contratto con l’università di Grenoble per testare (al
Laboratoire des écoulements géophysiques et industriels) una
vecchia tecnologia sulla propulsione MHD. Jean-Pierre Petit (ora
in pensione), ancora oggi difende la tesi (mai confermata
ufficialmente) secondo la quale il Dipartimento della Difesa
(DoD) degli Stati Uniti (e, in minor misura, anche quello russo)
disporrebbe, sin dalla metà degli anni ’80, di sommergibili e siluri
iperveloci utilizzanti sistemi di propulsione MHD. Sempre il DoD
degli Stati Uniti inoltre, secondo lui, dagli anni ’90 disporrebbe
di droni discoidali ed aerei ipersonici super-segreti, tutti muniti di
sistemi propulsivi MHD di vario genere.
L’azione MHD infatti, è possibile anche nella comune aria che
respiriamo e che avvolge tutto il nostro pianeta; a condizione che
sia resa un conduttore d’elettricità, attraverso un processo di
ionizzazione (con cui ovviamente essa si trasforma in plasma). Le
applicazioni propulsive della MHD in ambiente atmosferico,
mirano a vincere il “muro di calore” a velocità ipersoniche. La
MHD in ambiente atmosferico in genere viene chiamata MHD-
gas, ma talvolta prende anche il nome di magnetoaerodinamica
(MAD); ovviamente si tratta sempre di un particolare dominio
della MHD. La MAD (o MHD-gas) è una scienza al crocevia di
diverse branche della fisica: meccanica dei fluidi, aerodinamica,
elettromagnetismo e fisica del plasma. E al cuore della MAD, sta
proprio la fisica del plasma (in cui l’aria in questo caso è un
isolante). Per applicare delle forze di Lorentz che possano agire
sull’aria, si deve prima rendere quest’aria un conduttore di
elettricità, ionizzandola. Questo processo può essere effettuato in
diversi modi: con delle microonde di 3 GHz, con l’alta tensione
di tipo B (si tratta di un dominio in cui la tensione supera i 50'000
Volt in corrente alternata, oppure i 75'000 Volt in corrente
continua), con fasci di elettroni o laser, ed infine con le radiazioni
ionizzanti. Un gas ionizzato viene chiamato plasma.
Nel caso della ionizzazione dell’aria (un gas composto da più
elementi), questi gas debolmente ionizzati vengono definiti dei
plasmi freddi53 e sono posti in presenza di intensi campi

53
Un plasma si caratterizza per alcune grandezze, fra cui alcune (temperatura
e densità di particelle cariche) sono tipiche di un fluido; altre, come la
lunghezza di Debye e la frequenza di plasma, sono caratteristiche del plasma
come insieme di cariche in movimento. Dato che nella espressione della
lunghezza di Debye compare un rapporto di temperatura e densità, ciò non
magnetici. Lo studio di queste interazioni concerne una branca
della MHD chiamata: “a debole numero di Reynolds
magnetico”54 (meno documentata e fondamentalmente più
complessa della “MHD dei plasmi caldi” a forte numero di
Reynolds magnetico; in opera ad esempio in astrofisica e nei
plasmi termonucleari). Così, un plasma “a due temperature”
(detto anche “plasma bitemperatura”) sotto parametro Hall
elevato (ossia quando il campo magnetico è intenso), in un
convertitore MHD, è la sede del fenomeno dell’instabilità
elettrotermica (difficile da padroneggiare).
La MHD-gas è stata oggetto di ricerche molto importanti nei paesi
industrializzati, a cavallo tra gli anni ’60 e gli anni ’70; ma tali
ricerche, sono state in seguito abbandonate a causa di diversi
ostacoli tecnici non indifferenti. Tra questi vi è appunto
l’instabilità elettrotermica, ma anche ad esempio la massa troppo
elevata degli elettromagneti da installare nei sistemi a propulsione
MHD-gas.
Un generatore MHD è un convertitore MHD che trasforma
l’energia cinetica di un fluido conduttore, direttamente in
elettricità. Il principio di base è fondamentalmente lo stesso di
quello di un qualsiasi generatore elettrico. I due tipi di generatore
utilizzano entrambi un induttore (elettromagnete) generante un
campo magnetico in un indotto (rotore).
Come già detto (ma forse è bene ripeterlo, vista la similitudine tra
i termini: acceleratore MHD, generatore MHD e convertitore
MHD): nel caso di un generatore convenzionale, l’indotto è
solido (è una bobina costituita da un avvolgimento di filo
metallico), mentre nel caso di un generatore MHD, l’indotto è
fluido (è un liquido conduttore che potrebbe essere dell’acqua

impedisce che si possano produrre plasmi a temperatura ambiente: sono i


cosiddetti plasmi freddi, per i quali gli ioni sono effettivamente a temperatura
ambiente, ma gli elettroni hanno una temperatura di qualche elettronvolt.

54
In magnetoidrodinamica, il numero di Reynolds magnetico può essere
definito, per analogia con il numero di Reynolds in idrodinamica. Esso indica
il rapporto fra i termini di convezione e di diffusione, in un fluido magnetico.
salata, un metallo liquido oppure un gas ionizzato chiamato
plasma). I generatori MHD non utilizzano delle parti meccaniche
mobili (contrariamente ai generatori elettrici tradizionali); essi
convertono direttamente l’energia elettromagnetica in energia
cinetica. In pratica, lo ripetiamo, un fluido viene messo in
movimento in un campo magnetico, che genera a sua volta una
corrente elettrica, raccolta alle estremità degli elettrodi immersi
nel fluido e trasformata in carica.

Figura 2.7. Schema di un generatore MHD

Russia e Stati Uniti, dal 1970, dispongono dell’unico generatore


MHD-gas funzionante al mondo; anche se ormai appartenente ad
una “vecchia tecnologia” (…per quanto se ne sappia
ufficialmente). La Russia, oggi è l’unico paese al mondo che
dispone (dal 1971) di un generatore MHD funzionante (U-25), in
grado di produrre con tale sistema, 25 MW di energia. Questo
generatore utilizza delle pareti in ceramica e degli elettrodi in
cromite di lantano, con un plasma composto dal 40% di ossigeno
e per il restante 60% da gas naturale, riscaldato a 2'000 gradi
Celsius e arricchito da una miscela ionizzante a base di potassio
(oppure di cesio o di mercurio).
L’entusiasmo suscitato da questa tecnologia nascente è stato
all’origine, nel corso degli anni ’60, di programmi militari di
ricerca e sviluppo, legati alle possibili applicazioni aerospaziali.
Questi sforzi comunque, rimangono a tutt’oggi, ad un basso
livello di visibilità. Tuttavia, in questi ultimi anni, grazie ai
progressi scientifici e tecnologici compiuti nel campo dei
materiali (nonché alla simulazione numerica dei fenomeni), la
ricerca (legata o meno ai sistemi di propulsione) sulle
applicazioni aerospaziali dei plasmi (di cui la MHD-gas fa parte),
è stata ripresa attivamente in diversi paesi del mondo (tra cui la
Russia, gli Stati Uniti, la Cina, il Giappone, la Germania e la
Francia). L’entusiasmo e l’interesse degli scienziati per questa
branca della fisica, si sono risollevati soprattutto grazie
all’accresciuta potenza di calcolo dei sistemi informatici, che
permettono la realizzazione di modelli assai precisi dei fenomeni
microscopici e macroscopici coinvolti e la disponibilità di
elettromagneti superconduttori sempre più performanti (ovvero
con rendimenti di grado eccellente).

Il propulsore a curvatura spazio-temporale


I propulsori a curvatura spazio-temporale (o più semplicemente
detti: motori a curvatura), li abbiamo visti nei telefilm di Star
Trek, e permettevano alle astronavi di viaggiare tra le stelle. Nella
realtà sappiamo che la massima velocità possibile è quella della
luce55, un limite che rende i viaggi interstellari solo un sogno; a
meno che non si scopra qualcosa di nuovo, come la possibilità di
creare cunicoli spazio-temporali. Esiste però da tempo una teoria,
che suggerisce un’ulteriore soluzione. Tutto parte da una
considerazione: è vero che nulla può viaggiare più veloce della
luce, tuttavia nulla vieta che “una parte di spazio” possa viaggiare
più veloce della luce. In teoria, basterebbe creare una “bolla di

55
A dire il vero tale velocità (circa 300'000 km/s), non è pienamente
raggiungibile da oggetti dotati di massa; qualunque corpo in movimento infatti,
in base alle leggi della Relatività Ristretta, può toccare velocità vicine a quella
della luce, ma mai raggiungerla pienamente. Massa ed energia cinetica, alla
velocità della luce, raggiungono matematicamente dei valori infiniti (a causa
del fattore di Lorentz); da cui il limite definito appunto dalla velocità dei fotoni
(costituenti fondamentali della luce visibile).
spazio” attorno all’astronave e lasciare che sia questa bolla a
muoversi, in modo analogo ad un’onda che si sposta sulla
superficie del mare. Per un astronauta che si trovasse dentro la
bolla, lo spazio a lui circostante risulterebbe a tutti gli effetti
“fermo”; quindi egli non si sposterebbe in modo “classico” nello
spazio, e soprattutto non violerebbe il limite della velocità della
luce.
Quando la bolla si sposta (nel senso di marcia dell’astronave),
deforma lo spazio che la circonda; lo spazio davanti viene
contratto, mentre quello che sta dietro viene “espanso”. In questo
modo, anche la bolla non viola il limite della velocità della luce,
rispetto allo spazio circostante; però, la somma di tutti questi
effetti, fa sì che per un osservatore che guardi dall’esterno,
l’astronave sembrerebbe viaggiare più veloce della luce. Il
sistema può funzionare, ma finora solo nella teoria. Occorre
qualche scoperta pratica, che confermi la validità dell’ipotesi. Ed
è quello che stanno cercando di fare alla NASA, dove alcuni
scienziati, da pochi anni a questa parte, stanno provando a fare il
massimo possibile con le più recenti tecnologie disponibili;
ovvero, creare microscopiche incurvature nello spazio-tempo,
così piccole da essere al limite del percettibile (con gli attuali
strumenti di misurazione). Non sarà ancora il motore a curvatura
di Star Trek, ma se ci riuscissero, sarebbe il primo passo verso la
realizzazione di un sogno, per ora confinato solo al mondo
fantascienza.
La propulsione a curvatura è stata studiata a fondo all’inizio degli
anni ’90, dal fisico teorico messicano Miguel Alcubierre Moya.
Egli divenne famoso nel 1994, dopo la pubblicazione di un
articolo intitolato: “The Warp Drive: Hyper-fast travel within
general relativity” (tradotto: “Il motore a curvatura: viaggio iper-
veloce all'interno della relatività generale”), apparso sulla rivista
scientifica “Classical and Quantum Gravity” (pubblicata a
Bristol, nel Regno Unito).
Il propulsore di Alcubierre (talvolta definito anche metrica di
Alcubierre, in riferimento al tensore metrico), fa parte di una
teoria speculativa basata su una soluzione delle equazioni di
campo di Einstein (incluse nella RG), secondo la quale un veicolo
spaziale potrebbe raggiungere velocità superluminali (FTL –
Faster Than Light), con la creazione di un campo la cui densità
energetica56 sia più bassa di quella del vuoto (inteso in termini
quantistici); ovvero con la creazione di un campo ad energia
negativa. Invece di superare la velocità della luce all’interno di un
sistema di riferimento locale, un veicolo spaziale, come abbiamo
già detto, si sposterebbe in questo modo nello spazio (ossia
sfruttando questo processo fisico, per ora solo teorico),
contraendo lo spazio dinanzi a sé ed espandendolo nella parte
posteriore. Per cui, in un altro sistema di riferimento (non locale),
la sua velocità di spostamento nello spazio apparirebbe
superluminale (ossia superiore a quella della luce).
Sebbene la metrica proposta da Alcubierre sia matematicamente
valida (poiché coerente con le equazioni di campo di Einstein),
potrebbe tuttavia non essere fisicamente significativa (nel senso
che potrebbe non avere alcun riscontro nel mondo reale e dunque
annullare a priori la possibilità di realizzare concretamente un
simile progetto). Infatti, il propulsore a curvatura proposto da
Alcubierre, implica una densità energetica negativa, che come
abbiamo visto nelle prime pagine di questo libro, rientra nel
dominio della materia esotica. Per cui, se la materia esotica non
esistesse, non sarebbe possibile neppure costruire il dispositivo
progettato da Alcubierre.
Tuttavia, a conclusione del suo articolo originale del 1994,
Alcubierre fa notare che (seguendo la logica di uno studio sui
cunicoli spazio-temporali attraversabili) l’effetto Casimir
potrebbe soddisfare il fabbisogno di energia negativa, richiesto
per il suo dispositivo57. Un altro problema emerge dal fatto che,

56
La densità energetica è la quantità di energia immagazzinata in un dato
sistema o regione dello spazio per unità di volume o per unità di massa, a
seconda del contesto, anche se nel secondo caso si parla più correttamente di
energia specifica.
57
Secondo il fisico Harold G. White (autore di uno studio su un propulsore
spaziale che funzionerebbe sfruttando le fluttuazioni del vuoto quantistico), la
quantità richiesta di energia negativa potrebbe essere inferiore rispetto a quanto
anche se la metrica di Alcubierre è coerente con la RG,
quest’ultima (ossia la relatività generale) non include la
meccanica quantistica; e alcuni fisici sostengono che una teoria
della gravità quantistica (che comprende entrambe le teorie: RG
e MQ), eliminerebbe queste soluzioni (che consentono di
viaggiare a ritroso nel tempo)58 permesse dalla relatività generale.
Per chi ha familiarità con gli effetti della relatività ristretta (come
la contrazione di Lorentz e la dilatazione del tempo), la metrica
di Alcubierre presenta alcuni aspetti apparentemente peculiari. In
particolare, Alcubierre ha dimostrato che un veicolo spaziale che
utilizzi il suo sistema propulsivo a curvatura, viaggia su una
geodetica59 in caduta libera anche durante la fase di accelerazione
della bolla spazio-temporale generata dal propulsore a curvatura
(il suo equipaggio, in fase di accelerazione, si troverebbe in
caduta libera, senza tuttavia provare la classica sensazione di
“forte pressione” dovuta alle forze gravitazionali di
accelerazione). Tuttavia, enormi forze di marea60 sarebbero

previsto dai calcoli di Alcubierre, se la bolla di curvatura fosse di forma


anulare. Il che ovviamente, non può non portarci col pensiero, alla classica
forma discoidale con cui solitamente appaiono gli UFO e dunque, di
conseguenza, ad un’eventuale correlazione con la teoria sulla propulsione a
curvatura spaziale.

58
Il dispositivo di Alcubierre, andrebbe infatti contro il principio conosciuto
come “Congettura di protezione cronologica” (formulata da Stephen
Hawking), che ipotizza che le leggi della fisica siano tali da impedire la nascita
di curve temporali chiuse, almeno su scale che non siano sub-microscopiche.

59
In matematica, e più precisamente in geometria differenziale, una geodetica
è una particolare curva che descrive localmente la traiettoria più breve fra punti
di un particolare spazio. Lo spazio in questione può essere una superficie, una
più generale varietà riemanniana, o un ancor più generale spazio metrico.
60
La forza di marea (in genere usato al plurale, forze di marea o forze mareali,
e anche con l'espressione effetti di marea) è un effetto secondario della forza
di gravità. Quando un oggetto molto grande subisce l'influenza gravitazionale
di un altro, la forza gravitazionale può variare considerevolmente da una parte
all'altra dell'oggetto. Questo tende a distorcerne la forma, senza cambiarne il
volume. Supponendo che l'oggetto fosse inizialmente una sfera, le forze di
presenti in prossimità dei bordi della bolla a causa di una forte
curvatura locale dello spazio-tempo; ma un’adatta
specificazione/definizione della metrica, manterrebbe gli
occupanti del veicolo spaziale molto piccoli, all’interno del
volume occupato dalla loro astronave.
Nella teoria della relatività generale, occorre specificare
inizialmente una distribuzione plausibile di materia ed energia, ed
in seguito trovare la geometria dello spazio-tempo ad essa
associata; ma è anche possibile eseguire le equazioni di campo di
Einstein nell’altra direzione, prima specificando una metrica e poi
trovando il tensore-energia-impulso61 ad essa associato (e questo
è ciò che Alcubierre ha fatto, costruendo la sua metrica).
Questo in pratica significa che la soluzione trovata può violare
varie condizioni di energia, richiedendo inoltre la presenza di
materia esotica.
In un articolo pubblicato nel 2002, il fisico José Natário, sostenne
che i membri dell’equipaggio di un veicolo spaziale con
propulsione a curvatura, non potrebbero controllare, dirigere o
fermare la loro astronave, perché la stessa, non sarebbe in grado
di trasmettere segnali sulla parte anteriore della bolla. Inoltre, in
un articolo un po’ più recente, i fisici Carlos Barceló, Stefano
Finazzi, e Stefano Liberati, hanno utilizzato la teoria quantistica
per dimostrare che il propulsore a curvatura di Alcubierre, non
può raggiungere velocità superluminali (FTL) poiché a tali
velocità, a causa delle alte temperature generate dalla radiazione
di Hawking, qualsiasi cosa all’interno della bolla verrebbe
distrutta (destabilizzando anche la bolla). Nell’articolo si sostiene
inoltre che tali problemi non vi sarebbero, se la velocità della
bolla fosse inferiore a quella della luce (tuttavia, non

marea tenderanno a distorcerlo in un ellissoide, con l'asse maggiore allineato


verso il corpo che produce la forza di gravità.

61
Il tensore energia impulso, anche detto tensore energia momento, è un
tensore definito nell'ambito della teoria della relatività. Esso descrive il flusso
di energia e quantità di moto associate ad un campo.
mancherebbe ugualmente la necessità della presenza di materia
esotica).
I fisici Brendan McMonigal, Geraint F. Lewis e Philip O'Byrne,
sostengono che quando un veicolo spaziale con propulsione a
curvatura, decelera passando da una velocità superluminale ad
una velocità sub-luminale, le particelle che la sua bolla ha
raccolto durante il viaggio nello spazio, verrebbero rilasciate con
esplosioni energetiche simili a quelle di un boom sonico generato
da un’onda d’urto. Nel caso in cui tali particelle fossero rivolte
nel senso di marcia del veicolo spaziale, esse disporrebbero di
energia a sufficienza per distruggere qualsiasi cosa, di fronte al
veicolo spaziale in questione.
La quantità di energia negativa richiesta per la propulsione a
curvatura di Alcubierre non è ancora nota. Pfenning e Allen
Everett della Tufts University, ritengono che una bolla di
curvatura che viaggi ad una velocità di dieci volte superiore a
quella della luce, dovrebbe avere uno spessore di non più di 10-
32
metri (dunque vicino alla lunghezza limite di Planck, che è di
1,6 x 10-35 metri). Nei calcoli originali di Alcubierre, una bolla
molto grande, in grado di contenere un veicolo spaziale di 200
metri di diametro, richiederebbe una quantità totale di materia
esotica superiore alla massa dell’universo osservabile.
Inoltre, rimane anche il fatto che “spingere/forzare” la materia
esotica fino a farle raggiungere uno spessore di 10-32 metri, risulta
essere fisicamente impossibile. Vincoli simili possono essere
applicati solo al Tubo di Krasnikov.62

62
Il Tubo di Krasnikov è un ipotetico meccanismo per il viaggio nello spazio,
implicante la permanente curvatura dello spazio-tempo dentro i tunnel
superluminali. Serguei Krasnikov (fisico teorico russo), identificò
un'incrinatura critica nel progetto della curvatura dello spazio di Miguel
Alcubierre, per i viaggi spaziali: se la curvatura dello spazio si muove più
veloce della velocità della luce, non può essere controllata dall'interno.
L'analisi di Krasnikov dimostra che a velocità superluminali, l'interno della
bolla viene causalmente isolata tramite la sua superficie dall'esterno. I fotoni
non possono passare dall’interno all’esterno della bolla spazio-temporale.
Chris Van den Broeck, è riuscito a modificare la metrica di
Alcubierre, creando così una versione alternativa del progetto
iniziale, in cui la quantità di materia esotica richiesta è assai
inferiore rispetto a quella prevista da Alcubierre. Tuttavia, questa
versione modificata della metrica, pone la navetta spaziale in uno
spazio-tempo a “collo di bottiglia” il cui diametro, nel punto più
stretto, è di circa 10-32 metri.
La soluzione escogitata da Van Den Broek richiedeva
"solo" alcune masse solari di energia negativa e positiva, a fronte
degli innumerevoli miliardi di masse galattiche usciti dai calcoli
di Pfenning e Ford. Il vistoso calo del fabbisogno energetico era
stato ottenuto da Van Den Broek grazie a una sorta di gioco di
prestigio (teorico), reso possibile dalla relatività generale: il
volume racchiuso da una superficie completamente ripiegata su

Perciò, non ci sarebbe modo di controllare l'arresto, la partenza e la guida del


veicolo spaziale, nella curvatura dello spazio-tempo. L'alternativa proposta da
Krasnikov, è di creare una curvatura dello spazio dietro la navetta spaziale,
quando essa viaggia vicino alla velocità della luce verso qualche sistema
stellare distante e poi usare il "tubo" così creato per il viaggio di ritorno. Questa
distorsione dello spazio ha una proprietà interessante per il viaggio di ritorno:
essa riporta indietro il viaggiatore subito dopo la sua partenza, a prescindere
da quanto lontano egli vada. In effetti il tubo di Krasnikov, connettendo il
tempo di partenza della navetta con il tempo del suo arrivo, è un tunnel
attraverso il tempo. All'interno lo spazio-tempo del tubo è piatto, ma i limiti
del cammino della luce attraverso lo spazio-tempo, vengono allargati in modo
da permettere il viaggio superluminale in una sola direzione (per esempio
indietro, al punto di partenza sulla Terra). Krasnikov sostiene che gli aspetti
della macchina del tempo (come la metrica), non possano violare la legge di
causalità, perché tutti i punti lungo il viaggio di andata e ritorno della navetta
spaziale, hanno sempre un ordinato intervallo di separazione del tempo. Ciò
significa, ad esempio, che un raggio di luce spedito lungo un tubo di
Krasnikov, non può essere utilizzato per segnalare l'anteriorità nel tempo. Un
solo tubo di Krasnikov, al presente, può essere visto senza presentare alcun
problema con la legge di causalità. Tuttavia, Allen E. Everett e Thomas A.
Roman della Tufts University, sostengono che due tubi di Krasnikovs, andando
in direzioni opposte, possano creare cicli di tempo non ammissibili e violazioni
della legge di causalità.
se stessa a causa della curvatura dello spazio può essere
enormemente maggiore del volume racchiuso dalla medesima
superficie nello spazio piatto. In altre parole, il volume di una
sfera, in uno spazio curvo ripiegato su se stesso, può sopravanzare
di molto il classico 4/3πr3.

Figura 2.8. Rappresentazione schematica dell'artificio


escogitato da Van Den Broek: racchiudere oggetti macroscopici
all'interno di una bolla di curvatura sub-microscopica (Fonte:
arXiv:gr-qc/0207057).
Van Den Broek calcolò, pertanto, che in linea teorica era possibile
inserire una "tasca" di circa 100 metri di raggio, contenente la
nave spaziale e i suoi occupanti, all'interno di una bolla di
curvatura con raggio pari approssimativamente ad appena 3 x 10-
15
metri (3 milionesimi di miliardesimo di metro): meno della
lunghezza d'onda della luce visibile e non molto lontano
dalla lunghezza di Planck, 1,62 x 10-35 metri, la minima
dimensione fisicamente significativa.
Purtroppo, a parte il fatto che non disponiamo neppure di quelle
poche masse solari di energia richieste per creare una bolla poco
più grande della lunghezza di Planck, il metodo pensato da Van
Den Broek soffre dello stesso problema della bolla originale di
Alcubierre: la totale impossibilità, per gli occupanti della "tasca",
di comunicare con l'esterno e, dunque, di attivare o disattivare il
motore a curvatura o, semplicemente, di vedere dove si sta
andando.
I calcoli del fisico Allen Everett mostrano che le bolle spazio-
temporali potrebbero essere utilizzate per creare delle “curve
spazio-temporali chiuse di tipo tempo” (in inglese Closed
Timelike Curves, CTC), previste dalla relatività generale. Ciò
significa dunque che in teoria queste bolle, possono essere
utilizzate per dei viaggi all’indietro nel tempo.
Nonostante le leggi fondamentali della fisica, permettano
l’esistenza (o la creazione artificiale) di “curve spazio-temporali
chiuse di tipo tempo”, la “congettura di protezione cronologica”
di Hawking ipotizza che in tutti i casi in cui la teoria classica della
relatività generale le consenta, gli effetti quantistici
interverrebbero per eliminare questa possibilità (rendendo così
impossibile l’esistenza o la creazione artificiale di queste
“anomalie” spazio-temporali). Tuttavia, in risposta alle critiche
sollevate dai sostenitori della congettura di protezione
cronologica di Hawking, Miguel Alcubierre sottolinea che:
“La congettura non è mai stata dimostrata (ed infatti se lo fosse
non sarebbe più una congettura), ma ci sono buoni argomenti a
suo favore, basati sulla teoria quantistica dei campi. La
congettura di Hawking non vieta i viaggi superluminali (FTL);
essa afferma soltanto che, se un metodo per viaggiare più veloce
della luce esistesse realmente, e si cercasse di usarlo per
costruire una macchina del tempo, qualcosa andrebbe storto:
l’energia accumulata esploderebbe, oppure creerebbe un buco
nero”.
Nel 2012, un laboratorio della NASA annunciò di aver costruito
un interferometro (denominato: “White–Juday warp-field
interferometer”)63 che avrebbe dovuto rilevare le distorsioni

63
Si tratta di un sistema che replica, con le necessarie modifiche,
l'interferometro ideato da Albert A. Michelson nel 1880 e usato insieme a
Edward W. Morley nel celebre esperimento per mezzo del quale i due
scienziati intendevano dimostrare l'attrito esercitato dall'etere sulla luce.
L'interferometro di White e Juday è disposto in modo da separare in due
percorsi perpendicolari un raggio prodotto da un laser a elio/neon a 633
nanometri. Su uno dei due bracci è situato un piccolo anello che contiene
quattro condensatori ceramici in titanato di bario, caricati a 23.000 volt.
spazio-temporali prodotte dall’espansione e dalla contrazione
dello spazio-tempo della metrica di Alcubierre. Il lavoro è stato
descritto in un articolo di Harold G. White intitolato: Warp Field
Mechanics 101 e reso pubblico dalla NASA. Alcubierre, tuttavia,
ha espresso il suo scetticismo su tale esperimento, affermando:
“Dal mio punto di vista, non vi è alcun modo di realizzare un
simile dispositivo; almeno non al giorno d’oggi come neppure nei
prossimi secoli a venire. Se ciò accadrà, sarà solo in un futuro
lontano, molto lontano”.
Il quadro teorico per la realizzazione di eventuali esperimenti atti
a rivelare la reale possibilità (odierna o futura) di costruire dei
propulsori a curvatura spazio-temporale, prende forma nel 2003
con il lavoro di Harold G.White ed in seguito con quello di Eric
W. Davis, nel 2006 (quest’ultimo pubblicato dall’American
Institute of Physics – AIP). In tale contesto, sia White che Davis,
analizzano in che modo la materia barionica (almeno da un punto
di vista matematico), potrebbe assumere le caratteristiche
dell’energia oscura. Nei loro studi, essi hanno descritto come una
densità di energia positiva di forma toroidale, possa dare origine
ad una regione di spazio-tempo a pressione negativa e di forma
sferica. Ma la cosa più interessante, è che in questi studi la
necessità di un coinvolgimento della materia esotica, può
tranquillamente essere esclusa.
Le equazioni di campo di Einstein mostrano che, in condizioni
ordinarie, per qualsiasi curvatura significativa dello spazio-tempo
che si volesse ottenere, sono sempre necessarie delle quantità di
energia relativamente elevate. In tale contesto, in cui le nuove
teorie richiedono spesso delle quantità di energia sempre più
basse, i metodi di misurazione disponibili stanno raggiungendo i
limiti di ciò che è tecnicamente possibile. È questo il motivo per

L'anello è il bersaglio nel quale dovrebbe verificarsi, in una regione sferica


ampia circa 1 centimetro, l'attesa deformazione spaziotemporale. In presenza
di una deformazione, la figura d'interferenza d'onda generata
dall'interferometro apparirà modificata. Il sistema, a detta di White, ha
sensibilità sufficiente per registrare perturbazioni dell'ordine di 1 parte su 10
milioni.
cui i risultati degli esperimenti più recenti, appaiono spesso
piuttosto inconcludenti (e resteranno sempre tali, fino a quando le
tecniche di misurazione non saranno ulteriormente raffinate e
dunque molto più sensibili di quelle attualmente disponibili).
Il “White–Juday warp-field interferometer experiment”
(progettato sulla base delle teorie di Harold G.White ed Eric
W.Davis e condotto da Harold G.White e Richard Juday), è
l’unico esperimento che sia stato finora condotto per rivelare la
reale possibilità (odierna o futura) di costruire dei propulsori a
curvatura spazio-temporale. Tuttavia, in una conferenza del 2013,
White ha annunciato che i primi risultati sperimentali di questo
esperimento, sono da ritenersi inconcludenti. Inoltre, in
un'intervista apparsa sul noto mensile Popular Science nel mese
di aprile del 2013, White si è rifiutato di rispondere alle richieste
di chiarimento del giornalista, che domandava in che modo
questo esperimento fosse collegato alla produzione di energia
negativa, necessaria per il funzionamento del motore a curvatura.
Lo scienziato ha addotto come giustificazione un accordo di
riservatezza firmato con la NASA.
Figura 2.9. Un’immagine del “White–Juday warp-field
interferometer” (fonte: http://ntrs.nasa.gov)

Ma come si suol dire, “non è tutto oro ciò che luccica”; ed in


questo contesto, è proprio il caso di farlo notare. Accurate
ricerche infatti, condotte da diversi studiosi (tra i quali Lawrence
Ford e Thomas Roman), hanno dimostrato che esistono dei
vincoli ineliminabili, che impediscono di produrre e concentrare
liberamente energia negativa in un qualsivoglia punto dello
spazio per un tempo indeterminato. Chiamati disuguaglianze
quantistiche, questi vincoli sull'uso dell'energia negativa, la cui
forma ricorda il principio di indeterminazione di Heisenberg,
sembrano una protezione naturale a difesa del secondo principio
della termodinamica: l'entropia, cioè la misura del disordine, che
in un sistema isolato può solo aumentare e non diminuire. Più
nello specifico, sussistono i seguenti vincoli, descritti
efficacemente da Roman e Ford in un articolo pubblicato su
Scientific American nel mese di gennaio del 2000:
“Un raggio di energia negativa non può essere arbitrariamente
intenso per un tempo arbitrariamente lungo. La grandezza
concessa all'energia negativa è correlata in misura inversa alla
sua estensione temporale o spaziale. Un impulso intenso di
energia negativa può durare per un tempo breve; un impulso
debole può durare più a lungo. Inoltre, un impulso iniziale di
energia negativa deve essere seguito da un impulso maggiore di
energia positiva. Maggiore è la grandezza dell'energia negativa,
più ravvicinata deve essere la sua controparte positiva. Queste
restrizioni sono indipendenti dal modo in cui l'energia negativa è
prodotta. Si può pensare all'energia negativa come a un prestito.
Proprio come un debito è denaro negativo che deve essere
ripagato, l'energia negativa è un deficit energetico.(…) L'impulso
positivo che segue necessariamente un impulso negativo iniziale
deve fare più che compensare semplicemente l'impulso negativo:
deve sovracompensarlo. L'ammontare della sovracompensazione
cresce con l'intervallo temporale tra gli impulsi. Di conseguenza,
gli impulsi negativo e positivo non possono essere impartiti in
modo che si cancellino l'un l'altro. L'energia positiva deve
sempre dominare: un effetto noto come interesse quantistico. Se
paragoniamo l'energia negativa a un prestito, allora il prestito
deve essere ripagato con gli interessi. Più lunga è la durata del
prestito o maggiore il suo ammontare, più grande è l'interesse.
Per di più, maggiore è il prestito, più piccola è la sua durata
massima. La Natura è un banchiere astuto e reclama sempre il
pagamento dei debiti”.
Figura 2.10. Lo schema illustra i vincoli tra energia negativa ed energia
positiva nelle disuguaglianze quantistiche: un impulso potente di
energia negativa deve essere breve (a), mentre uno debole può durare
più a lungo (b). In ogni caso, un impulso di energia negativa deve essere
sempre seguito da un maggiore impulso di energia positiva, in virtù di
un fenomeno noto come interesse quantistico. Quanto più il pagamento
del debito energetico è distanziato nel tempo tanto maggiore è
l'interesse (c). (Fonte: Le Scienze 379, Aprile 2000)
Insomma, i vincoli quantistici sul "prestito" energetico sono tali
per cui non è possibile separare efficacemente l'energia negativa,
richiesta per il funzionamento del motore a curvatura, dalla
correlata e maggiore quantità di energia positiva, inevitabilmente
liberata dall'impiego di una qualsivoglia quantità di energia
negativa.
Per usare l'energia negativa e soddisfare al contempo i vincoli
imposti dalle disuguaglianze quantistiche, occorrerebbe creare
strutture limitate a dimensioni submicroscopiche (per esempio
della grandezza di un protone o di un elettrone). Se invece si
volesse realizzare una struttura macroscopica, come il motore a
curvatura proposto in origine da Alcubierre, allora l'energia
negativa dovrebbe essere confinata in una banda incredibilmente
sottile, con uno spessore appena maggiore della lunghezza di
Planck. Entrambe le opzioni impongono sfide ingegneristiche che
vanno ben al di là di qualsiasi tecnologia oggi disponibile.
Deformare lo spazio-tempo nel modo richiesto per il viaggio a
velocità superluminale, richiede non solo la produzione di
immense quantità di energia negativa, ma anche la capacità di
concentrare quell'energia in punti (o bande) di dimensioni
prossime al limite assoluto della lunghezza di Planck.
Per questa e per molte altre ragioni, tra cui l'impossibilità di
governare la nave spaziale e i danni incalcolabili che produrrebbe
sullo scafo l'impatto anche con semplici grani di polvere
interstellare, il viaggio a velocità superluminale rimane per il
momento solo una bella aspirazione e il motore a curvatura, un
interessante esercizio di fisica teorica. Del resto, lo stesso
Alcubierre ha riconosciuto, in un'intervista telefonica rilasciata a
Popular Science, che non esiste modo di aggirare gli ostacoli che
impediscono la realizzazione del suo motore a curvatura,
affermando che: “Si tratta di una bella idea. Mi piace perché l'ho
scritta io stesso. Ma ha una serie di limitazioni, di cui mi sono
reso conto nel corso degli anni, e non vedo come possano essere
superate”.
Figura 2.11. Le disuguaglianze quantistiche impediscono di separare
l'energia negativa da quella positiva e di tenerla confinata per un uso
successivo. I tre diagrammi illustrano il fallimento di un ipotetico
dispositivo per intrappolare gli impulsi di energia negativa: la sola
chiusura dell'otturatore provocherebbe un impulso di energia positiva
tale da annullare l'impulso di energia negativa appena entrato nella
macchina.(Fonte: Le Scienze 379, Aprile 2000)
Una lunga storia, di misteri mai svelati

“Un giorno l'uomo connetterà il suo apparato con


i moti originari dell'universo e le vere forze che
spingono i pianeti sulle loro orbite e li fanno
ruotare, spingeranno i suoi macchinari”.
Nikola Tesla

Gravity Control: La ricerca negli USA (1955 – 1974)

Negli Stati Uniti, l’interesse per la ricerca nel campo della


propulsione aerospaziale a mezzo di dispositivi in grado di
controllare la gravità, si è accentuato durante i primi anni ’50 del
secolo scorso. A quell’epoca, sulle riviste scientifiche popolari
venivano usati termini come “elettro-gravità (eGrav)”, “controllo
gravitazionale”, “propulsione gravitazionale”, “anti-gravità”,
“anti-gravitazione”, e via dicendo.
L’obbiettivo principale che si voleva al più presto raggiungere
(tra l’altro assai pubblicizzato), era la scoperta di nuove leggi
della fisica e il conseguente sviluppo di nuove tecnologie per la
manipolazione della gravità nell’ambito della propulsione
aeronautica terreste (o addirittura spaziale). Molti programmi
sono stati infatti finanziati per tale ricerca, nel periodo che va dal
1955 al 1974. In quel periodo, i nomi di molti fisici specializzati
nella teoria della relatività generale, figurarono sui documenti
relativi alla ricerca nel campo della propulsione
“antigravitazionale”.
Nella seconda metà degli anni ’50, molti quotidiani importanti,
nonché molte riviste scientifiche accademiche e popolari,
iniziarono a riportare articoli in cui si parlava dell’esistenza di un
settore di ricerca sul controllo della gravità in ambito aeronautico
(dunque sui “propulsori antigravitazionali”). Ad esempio,
nell’aprile del 1957, un articolo sulla rivista “Journal of the
British Interplanetary Society”, riportava il seguente titolo:
“Electro-gravitics: What it is – or might be” (tradotto:
“Elettrogravità: che cos’è – o potrebbe essere?”). In tale articolo
l’autore, A.V. Cleaver, si pose le seguenti domande:
“Quali sono i fatti, fino ad oggi conosciuti, nella misura in cui
sono noti al grande pubblico? Bè, sembrerebbe che le cose stiano
messe così: gli americani hanno deciso di esaminare il vecchio
sogno fantascientifico del controllo della gravità, per indagare,
a livello teorico e possibilmente anche pratico, la natura
fondamentale dei campi gravitazionali e i loro rapporti con
l’elettromagnetismo. In relazione a ciò, qualcuno, sconosciuto a
chi scrive, ha deciso di chiamare tutto questo studio con il nome
altisonante di: Elettrogravità. Ma a me sconosciuto è anche il
nome dell’agenzia o persona che ha deciso di incoraggiare,
stimolare e sponsorizzare questo sforzo. Tuttavia, che tale sforzo
sia in corso non v’è alcun dubbio e sicuramente, è ben accetto e
sostenuto da tutti”.
Il programma di ricerca nel campo dei “propulsori
antigravitazionali”, non venne comunque messo in evidenza da
chi dall’alto, gestiva praticamente tutto; per cui, non si vide alcun
tipo di “artefatto tecnologico” in relazione a tale ricerca
(contrariamente a quanto accadde invece durante il Progetto
Plutone64, partito anch’esso verso la fine degli anni ‘50). I reperti
che attestano i primi impegni nel trovare materiali e metodi per
manipolare la gravità, sono costituiti dai monumenti
commemorativi della “Gravity Research Foundation”
(un’organizzazione fondata nel 1948 dall’uomo d’affari Roger
Babson, per la ricerca nel campo della “schermatura
gravitazionale”). Apparentemente, i tentativi iniziali in tale
direzione, avrebbero potuto disporre di ben poche risorse (tipiche

64
Il programma per la realizzazione degli statoreattori a propulsione nucleare,
prese il nome in codice di "Project Pluto" (in italiano, "Progetto Plutone") e fu
avviato nel gennaio del 1957. I lavori di sviluppo furono portati avanti dal
Lawrence Berkeley National Laboratory, che realizzò un paio di prototipi di
statoreattore a propulsione nucleare chiamati Tory. Il primo di essi ricevette il
nome di Tory-IIA, e funzionò per la prima volta il 14 maggio 1961,
raggiungendo il massimo della potenza il 5 ottobre successivo.
di una semplice e comune iniziativa popolare); ma non tutti i
personaggi noti dell’epoca in questione, erano di quell’avviso.
Bolesław Michal Gładych, il leggendario pilota militare polacco
(alleato con le forze aeree di Francia, Polonia, Regno Unito e Stati
Uniti) in servizio durante la seconda guerra mondiale, a quei
tempi affermò:
“Almeno 14 università degli Stati Uniti ed altri centri di ricerca
sono al lavoro per rompere la barriera della gravità; e a
sostenere la ricerca di base con progetti segreti di svariati milioni
di dollari, è la nostra industria aeronautica”.
A quell’epoca, le notizie che arrivavano al grande pubblico sulla
ricerca in seno al controllo della gravità, avevano praticamente
rivelato “giocatori e risorse”; ma rimanevano comunque segrete
le caratteristiche specifiche di tale ricerca, nonché le identità dei
vari organi di coordinamento. Ancora oggi, dopo più di mezzo
secolo dalla prime ricerche scientifiche sul controllo della gravità,
moltissime persone al mondo ritengono che il livello tecnologico
raggiunto nell’ambito dell’aeronautica militare statunitense (dove
in alcuni settori vige ovviamente l’assoluta segretezza), sia
elevatissimo; forse non al punto di riuscire a controllare del tutto
la gravità, ma perlomeno a quello di limitarne gli effetti più
preponderanti.
Recenti analisi storiche hanno attirato l’attenzione di quelle
aziende ed agenzie , che all’epoca parteciparono alla ricerca sul
controllo della gravità in ambito aeronautico. James E. Allen,
consulente alla BAE Systems nonché professore di ingegneria
presso la Kingston University di Londra, parla di questi progetti
di ricerca in un lungo articolo sui nuovi sistemi di propulsione,
apparso sulla rivista “Progress in Aerospace Sciences”. Lo studio
del Dr. David Kaiser (professore associato di Storia della Scienza
al MIT di Cambridge), rivela esplicitamente i contributi elargiti
all’epoca dalla “Gravity Research Foundation”, agli aspetti
pedagogici dell’età d’oro65 della relatività generale. Il Dr. Joshua
Goldberg, della Syracuse University (dello Stato di New York),
ha descritto il supporto fornito a quell’epoca dalla Air Force degli
Stati Uniti, alla ricerca nel campo della relatività generale.
Nicholas Julian Cook, un giornalista inglese specializzato in
reportages nel campo dell’aeronautica militare ed ex direttore
della rivista “Jane's Defence Weekly” (dove vi lavorò per dieci
anni), ha richiamato l’attenzione sui progetti di ricerca inerenti
alla “propulsione antigravitazionale”, attraverso il suo libro:
“The Hunt for Zero Point” e successivi documentari televisivi;
dove egli fa spesso riferimento ai notevoli progressi tecnologici
raggiunti in assoluta segretezza dall’aeronautica militare
statunitense (in una sezione top-secret attiva da oltre
cinquant’anni e addirittura non conosciuta dall’attuale presidente
degli Stati Uniti; come non lo è mai stato per i precedenti, ad
eccezione, si presume, dei presidenti che governarono gli Stati
Uniti dal 1945 al 1974), dopo circa sessant’anni di ricerche; senza
escludere inoltre, la possibilità che una sorta di “propulsore
antigravitazionale” (o comunque in grado di diminuire
notevolmente il peso di un velivolo, attraverso dei processi fisici
ancora poco conosciuti in ambito scientifico ufficiale/civile), sia
già disponibile da circa vent’anni e permetta ad alcuni velivoli
super segreti americani, di spostarsi nell’atmosfera terrestre con
cambiamenti repentini in velocità e direzione, che ricordano
quelli degli UFO. Uno di questi sarebbe il famoso TR-3B (di cui
parlerò tra poco, per concludere con un ultimo tocco di mistero,
questa breve opera sugli aspetti più curiosi e controversi, nonché
ancora poco conosciuti, della forza di gravità ).
Nei primi anni della ricerca sul controllo della gravità, vennero
stilate diverse liste (pubblicate in cinque opere complete) di
istituti di ricerca, siti industriali, uomini politici e dichiarazioni di
eminenti scienziati, tutte ad essa associate. L’Aviation Studies Ltd

65
Con il termine “età d’oro della relatività generale”, in genere si fa riferimento
alla seconda metà del ventesimo secolo (1950 – 2000); ma in special modo agli
anni ’50 e ’60.
di Londra, ha pubblicato un dettagliato rapporto a proposito di tali
attività da parte del “Gravity Research Group”, che fu in seguito
declassificato.
A questo punto, ampliare il discorso sul tema finora trattato,
significherebbe iniziare a parlare di UFO, di ingegneria inversa
su dischi volanti precipitati sul nostro pianeta nel corso degli anni
e recuperati dalle autorità militari dei paesi coinvolti, di alieni, di
testimonianze di noti esponenti della US Air Force, US Navy, US
Army, DIA (Defense Intelligence Agency), CIA e quant’altro
ancora si possa aggiungere per completare il “quadro del
mistero”. Ma non è appunto mia intenzione trasformare questo
volume, in un ennesimo libro sulla questione ufologica; visto che
in commercio, a parer mio, ve ne sono già abbastanza.
Mi concederò dunque solo un piccolo “strappo alla regola”,
chiudendo (come poc’anzi accennato) questo volume, con una
breve parentesi sul “Black Triangle”, più comunemente noto con
il nome di: TR-3B.

Il TR-3B (Astra), un mistero ventennale

Il 29 novembre del 1989, iniziò in Belgio una serie di


avvistamenti di UFO triangolari, che terminò sei mesi più tardi,
nell’aprile del 1990. In quel frangente, il Belgio fu dunque teatro
di una serie di avvistamenti inquietanti, confermati dai vertici
dell'esercito. Il picco si registrò in una sola notte, quella del 30
marzo 1990, quando anomale luci disposte a triangolo vennero
viste e fotografate da migliaia di cittadini. Si alzarono in volo
anche i caccia militari: i piloti raccontarono che quelle “sfere
luminose” (ovvero le luci poste agli angoli degli UFO di forma
triangolare; le cui sagome, nel cielo notturno, erano difficili da
distinguere) avevano delle accelerazioni e dei cambiamenti in
direzione, impensabili per un normale velivolo. L'Aeronautica
militare belga, fu costretta ad ammettere di non essere in grado di
identificare la natura, l'origine e le intenzioni di quel misterioso
fenomeno.
Col passare degli anni, gli avvistamenti di UFO di forma
triangolare, divennero sempre più frequenti; non solo nei cieli
europei, bensì in quelli di tutto il mondo. Oggi, in ambito
ufologico, si ritiene che la maggior parte degli avvistamenti di
UFO di forma triangolare, sia riconducibile ad uno specifico
velivolo di manifattura terrestre, classificato come: TR-3B Astra
(e appartenente dunque alla lunga lista dei “black projects”
dell’aeronautica militare statunitense).
Le informazioni che riporterò da questo momento in avanti, non
hanno alcun riscontro con quanto è oggi appurato e riconosciuto
in ambito scientifico e tecnologico (ovvero nell’ambito della
ricerca accademica ufficiale); si tratta dunque di mere
speculazioni di carattere non propriamente scientifico, riportate
su numerosi siti web di indirizzo ufologico, che ho raccolto e
condensato qui di seguito. In molti siti web in cui viene trattato
l’argomento TR-3B, viene riportato il racconto di Edgar
Fouché66; un ex militare americano esperto di avionica, che nel
suo libro “Alien Rapture: The Chosen”, a proposito del
fantomatico TR-3B, afferma quanto segue (ciò che esporrò qui di
seguito, sarà dunque scritto in corsivo e virgolettato; ma la cosa
più importante, è che dovrà assolutamente essere “preso con le
pinze”):
“Corrono voci che abbiamo piazzato due nuovi aerei in orbita
permanente. Uno di questi è lo ‘Space Orbital Nuclear-Service
Intercept Vehicle’ (SON-SIV). Il suo nome in codice è ‘Locust’.

66
Edgar Rothschild Fouché, è un ex membro dell’Intelligence dell’Air Force
americana che ha lavorato nell’Area 51. Fouché ha lavorato con diverse
strutture aerospaziali militari e produttori di elettronica negli Stati Uniti. Ha
partecipato alla progettazione, sviluppo, produzione e valutazioni di volo
operativo nei programmi classificati di sviluppo aereo (l’attuale avionica);
inclusi contromisure elettroniche, comunicazioni satellitari, equipaggiamento
di cripto-logica e di sostegno. Durante la sua carriera militare, fu selezionato
nei quadri e in molti programmi di sviluppo dei più recenti cacciabombardieri
dell’Air Force. Altri programmi di ricerca e sviluppo per i quali lavorò dagli
anni ’70, sono ancora classificati Top Secret. Fouché ha ricevuto una
formazione tecnica di oltre 4’000 ore dall’Esercito e dal Governo degli Stati
Uniti, di cui circa la metà in addestramento classificato.
Le navette SR-74 e il TR-3B possono scaricare unità di ricambio
o SRU, carburante, liquidi ed agenti chimici al SON-SIV. Poi, i
sistemi robotizzati del SON-SIV utilizzano queste consegne per
rifornire, calibrare, riparare e rimpiazzare alcuni componenti sui
più recenti satelliti della NSA, la CIA e il NRO (National
Reconnaissance Office), costruiti per orbitare nello spazio.
Riguardo al modello operativo TR-3B, un amico mi disse che non
avrebbe mai dimenticato quando lo vide alla base di Papoose:
era simile ad un velivolo alieno. Del TR-3B, oscuro e triangolare,
non si parlava quasi mai (e semmai solo sottovoce) alla base di
Groom Lake (dove egli lavorava). L’aereo aveva sorvolato il
Groom Lake in silenzio assoluto e si fermò d’incanto sull’Area S-
4. Sorvolò silenziosamente la stessa zona per circa 10 minuti,
prima di adagiarsi dolcemente in verticale sul catrame della
pista. A volte una corona di luci azzurro-argentee brillava
attorno alla circonferenza del massiccio TR-3B. Il modello
operativo è lungo 180 metri.
Il prototipo di 60 metri e il TR-3B operativo lungo 100 metri sono
denominati in codice: ‘Astra’. Il primo volo operativo di
ricognizione tattica del TR-3B avvenne nei primi anni Novanta.
È finanziato e reso operativo dal NRO, la NSA e la CIA. Il
triangolo volante TR-3B non è fantascienza, fu costruito con la
tecnologia disponibile alla metà degli anni ottanta.
Il rivestimento esterno del velivolo TR-3B reagisce alla
stimolazione elettrica dei radar e può modificare il proprio
potere riflettente, l’assorbimento radar ed il colore. Questo strato
polimerico, se usato assieme alle contromisure elettroniche del
TR-3B e l’ECMM, può far sembrare il velivolo come un piccolo
aereo o un cilindro volante, o persino ingannare i ricevitori radar
avversari facendogli rilevare erroneamente una serie di aerei,
nessun aereo o diversi velivoli dislocati in vari parti. Un anello
circolare di accelerazione, riempito di plasma e denominato
MFD (‘Magnetic Field Disruptor’), circonda l’equipaggio sito
nel compartimento rotabile, ed è molto più avanzato rispetto a
qualsiasi tecnologia immaginabile.
I laboratori Sandia e Livermoore svilupparono la
retroingegneria MFD. Il Governo farà di tutto per proteggere
questa tecnologia. Il plasma, basato sul mercurio, è pressurizzato
a 250’000 atmosfere a una temperatura di 150 gradi Kelvin e
accelerato a 50’000 giri al minuto per creare un plasma super
conduttore capace di alterare la gravità. L’MFD genera un
campo magnetico a vortice, che interrompe o neutralizza l’89%
degli effetti della gravità su una massa posta nelle sue vicinanze.
Non fraintendetemi: non è antigravità. L’antigravità produce una
forza propulsiva che può essere usata anche come mezzo di spinta
del velivolo. L’MFD invece crea una "interruzione"
dell’attrazione gravitazionale terrestre sulla massa interna
all’acceleratore circolare. La massa dell’acceleratore circolare
e tutta la massa al suo interno, come la capsula che porta
l’equipaggio, l’avionica, i sistemi MFD, il carburante, i sistemi
di supporto vitale dell’equipaggio e il reattore nucleare sono
ridotti dell’89%. Ciò fa sì che il veicolo diventi estremamente
leggero e in grado di effettuare e manovrare meglio di qualsiasi
altro velivolo, eccetto naturalmente gli UFO, che noi non
abbiamo costruito. Il TR-3B è una piattaforma di ricognizione ad
alta altitudine Stealth, con un tempo indefinito di intervallo. Una
volta giunto velocemente ad alta quota, non ci vuole molta
propulsione per mantenere l’altitudine. A Groom Lake sono corse
voci di un nuovo elemento, capace di catalizzare il plasma. Con
la massa del veicolo ridotto dell’89%, l’aereo può volare a Mach
9, sia in verticale che in orizzontale. Le mie fonti dicono che tale
performance è limitata solo dallo stress che il pilota umano può
sopportare, che in realtà è molto, considerando che, oltre alla
riduzione della massa, anche le pressioni gravitazionali sul pilota
sono ridotte dell’89%. L’equipaggio del TR-3B dovrebbe essere
in grado di elevarsi facilmente, a 40 giri al secondo. La
propulsione del TR-3B è fornita da propulsori multifunzione
montati sul fondo, ad ogni lato della piattaforma triangolare. Il
TR-3 è un veicolo a velocità sub Mach, fino a quando non
raggiunge un’altitudine superiore a 36’000 metri, allora solo Dio
sa quanto può sfrecciare veloce! I tre ugelli multifunzionali,
montati ad ogni lato del velivolo triangolare, usano idrogeno o
metano ed ossigeno come propellente. In un sistema propulsivo
liquido a ossigeno/idrogeno, l’85% della massa propellente è
ossigeno. I missili nucleari termici usano un propellente
all’idrogeno, accresciuto dall’ossigeno per ottenere una
propulsione aggiuntiva. Il reattore riscalda l’idrogeno liquido e
inietta l’ossigeno liquido nell’ugello supersonico, in modo che
l’idrogeno bruci contemporaneamente all’ossigeno liquido nel
postbruciatore. Il sistema propulsivo multifunzione può operare
nell’atmosfera, con la propulsione fornita dal reattore nucleare,
nella stratosfera con la propulsione all’idrogeno e in orbita con
la propulsione combinata idrogeno/ossigeno. I tre ugelli devono
solo spingere l’11 per cento della massa del TR-3B. Si ritiene che
i motori siano costruiti dalla ditta Rockwell.
Dall’evoluzione di materiali inusitati, dall’avionica avanzata e
dai più recenti motori a propulsione nacque l’aereo Stealth.
I progressi tecnologici sono stati ottenuti dalla retroingegneria
derivata da "manufatti alieni", descritti nell’ultimo documento
revisionato del MJ-12 reso pubblico, redatto durante
l’amministrazione Reagan. Molti avvistamenti di UFO
triangolari non sono veicoli alieni, ma TR-3B top secret. La NSA,
il NRO, la CIA e l’USAF ci hanno ingannato con la nomenclatura
aerea. Hanno creato il TR-3, modificato dal TR-3A, dal TR-3B e
il Teir 2, 3 e 4, con i suffissi come ‘Plus’ o ‘Minus’ aggiunti per
confondere ulteriormente il fatto che ognuno di questi nomi
appartiene ad un diverso aereo, e non allo stesso velivolo
aerospaziale. Un TR-3B è diverso dal TR-3A, come lo è la banana
dall’uva. Alcuni di questi aerei hanno un nome ed altri no. Prima
che Jerald morisse, abbiamo conversato a lungo. Era sicuro di
avere la documentazione comprovante l’esistenza del comitato
MJ-12 e l’uso di veicoli alieni schiantati per duplicare la loro
tecnologia. Credo, infine, che lo scomparso colonnello Corso,
che ha reso noto il coinvolgimento del Governo con la tecnologia
aliena, fosse persona onesta e altamente degna di
considerazione”.
Ovviamente, nel racconto riportato poc’anzi, quanto vi sia di
realmente attendibile e quanto invece possa essere considerato
solo il frutto di una fervida immaginazione, è assai difficile
stabilirlo. Riguardo alla pressione estremamente elevata (ben
250'000 atmosfere) citata nel racconto di Edgar Fouché, è
necessario tener presente quanto oggi sia ritenuto possibile nel
campo della fisica sperimentale.
Attualmente, si conoscono due metodi per il raggiungimento di
pressioni estremamente elevate come quella menzionata dal
Fouché; il primo metodo consiste nell’utilizzo di celle ad incudine
di diamante, mentre il secondo, si basa su una tecnica
d’accelerazione laser-plasma (si tratta dunque di due tipologie di
pressione, generate seguendo due diversi principi fisici). Ma
vediamo ora in cosa consiste, nello specifico, il primo metodo.
Una cella ad incudine di diamante (DAC - Diamond Anvil Cell),
è un dispositivo utilizzato in alcuni esperimenti scientifici che
permette la compressione di un piccolissimo campione di
materiale (generalmente dell’ordine di pochi decimi di
millimetro) fino ad una pressione limite di 600 GPa (gigapascals);
che corrispondono a circa 6 milioni di bars / 6 milioni di
atmosfere.
Originariamente ideata per essere usata in apparati sperimentali
in cui era prevista l’osservazione ottica di quanto avveniva nel
campione, è stata successivamente resa polivalente per ogni tipo
di studio in cui il campione sottoposto a pressione è riscaldato e
irraggiato con vari tipi di radiazione elettromagnetica (raggi X o
gamma o infrarossi, luce di sincrotrone ecc.). Si compone di tre
parti distinte:
- una coppia di diamanti tagliati secondo 16 faccette con
tavola molto ampia (ca. 70% del diametro totale) e con
padiglione smussato in modo da creare una controtavola
(culet) orientata parallelamente alla faccia di cubo del
diamante originale;
- una montatura metallica che avvolge i due diamanti
poggiando sulle tavole e che supporta un generatore di
pressione (il braccio di una leva, tre viti calanti, una
membrana spinta da un gas, o altro);
- una guarnizione (gasket) di un metallo facilmente
deformabile che avvolge ad anello le due controtavole
sulle quali si pone il materiale da comprimere e che gli
impedisce di fluirne fuori, impedendo al tempo stesso un
eccessivo avvicinamento dei due diamanti che ne porti
alla rottura.
Il funzionamento della DAC è complesso e delicato, non solo
perché bisogna operare con movimenti di estrema precisione,
essendo l’intero apparato miniaturizzato (i diamanti, in genere,
pesano 0,125÷0,5 carati e la superficie utile delle loro
controtavole è ca. 0,6÷1,2 mm2), ma anche perché ogni DAC è
ottimizzata per ottenere un certo risultato, costituendo quindi – in
pratica – uno strumento a sé stante. Il riscaldamento del campione
è ottenuto mediante laser; il raffreddamento con opportuni
criostati. La misura della pressione è realizzata o in base alla forza
applicata oppure mescolando al campione una polvere di rubino
che, sottoposta a pressione, produce una luce fluorescente di
lunghezza d’onda regolarmente crescente e misurabile. I diamanti
usati per la fabbricazione delle incudini sono di qualità diversa: il
tipo I serve per esperimenti a pressioni relativamente basse in cui
si vogliano effettuare misure ottiche, Raman o di diffrazione dei
raggi X; il tipo IIa serve per esperimenti a pressioni maggiori, fino
a quelle (ca. 100 GPa) che hanno permesso di trasformare
l’idrogeno in solido metallico e di raggiungere condizioni
corrispondenti a quelle del centro della Terra (ca. 360 GPa).
Questo dispositivo si basa su una legge fisica assai semplice:

Dove p è la pressione risultante, F è la forza applicata sul


materiale utilizzato nel dispositivo, e A è la superficie del
materiale sul quale viene applicata la forza F.
Risulta dunque evidente che con un valore di A estremamente
piccolo, è possibile ottenere una pressione piuttosto elevata,
anche con dei valori di F non molto grandi. Viceversa, con un
valore di A piuttosto grande, la forza F necessaria per raggiungere
delle pressioni molto elevate, deve a sua volta essere molto
intensa.

Figura 2.12. Schema di una cella ad incudine di diamante.

Chiusa la parentesi sulle celle ad incudine di diamante, vediamo


ora in cosa consiste, nello specifico, una tecnica d’accelerazione
laser-plasma (e in che modo dunque, possa generare delle
pressioni di radiazione estremamente elevate). In primo luogo, la
luce emessa da un laser può essere focalizzata su di un’area di
dimensioni prossime alla lunghezza d'onda (micrometri) della
luce stessa; in secondo luogo, la tecnologia attuale consente di
concentrare quantità "ordinarie" di energia (decine di Joule) in
tempi dell’ordine dei femtosecondi (10-15 secondi). Mettendo
insieme questi numeri si vede come sia possibile arrivare ad
intensità di irraggiamento dell'ordine di 1023 W/cm2 (per
confronto, l'intensità della luce solare sulla superficie della Terra
è di appena 0,1 W/cm2). Tali impulsi super-intensi aprono la via
a regimi di interazione laser-materia che vanno oltre l'ambito
tradizionale della fisica della materia, dell'ottica e dell'elettronica
quantistica; essi permettono lo studio di fenomeni fondamentali e
di applicazioni scientifiche finora appannaggio esclusivo della
fisica nucleare e delle particelle elementari.
Al crescere dell'intensità “I” dell'impulso laser, l'interazione
laser-materia entra in regimi ancora largamente inesplorati. Per
valori di “I” superiori a 1016 W/cm2, il campo elettrico dell'onda
elettromagnetica diviene maggiore del campo che tiene legato
l'elettrone nell'atomo di idrogeno e l'impulso laser è in grado di
produrre una ionizzazione istantanea della materia portandola ad
uno stato di plasma. Se l’intensità supera i 1018 W/cm2, la velocità
di oscillazione degli elettroni nel campo elettromagnetico,
diviene prossima alla velocità della luce (c).
Altra quantità che caratterizza l'interazione super-intensa è la
pressione di radiazione (P = I/c), che può assumere valori sin oltre
i 1016 N/m2 (centinaia di miliardi di atmosfere); valori raggiunti
in natura solo all’interno delle stelle. In tali regimi la pressione di
radiazione domina largamente l'idrodinamica del plasma
prodotto, imprimendo alla materia accelerazioni estreme,
dell'ordine di quelle ottenibili in prossimità di stelle pulsar.
Inoltre, poiché la forza media dell'impulso laser agisce
effettivamente sugli elettroni, quantità macroscopiche di questi
ultimi possono essere separate spazialmente dagli ioni generando
intensi campi elettrostatici.
Per questi sistemi laser, l'interazione è ulteriormente
caratterizzata dalla brevità dell'impulso laser, corrispondente in
pratica a pochi cicli di oscillazione del campo elettromagnetico.
In tale situazione l'impulso laser è assimilabile ad un "proiettile"
avente altissima densità di energia elettromagnetica. Questa
durata ultra-breve consente di realizzare un efficiente
trasferimento di energia dall'impulso al plasma, e ha un ruolo
fondamentale per diverse applicazioni, quali ad esempio la
generazione di "onde di scia" per l'accelerazione di elettroni, o la
produzione di impulsi di raggi X o gamma di durata ancora
minore, cioè nel regime degli attosecondi (10-18 s) o zeptosecondi
(10-21 s).
Il meccanismo proposto da Tajima e Dawson (nel loro lavoro
pionieristico del 1979), per eccitare le onde di plasma con impulsi
laser, si basa sulla forza ponderomotrice (ovvero la forza
associata alla pressione di radiazione) esercitata da intensi
impulsi laser che si propagano nel plasma, ed è analogo a quello
che genera un’onda sulla scia di un motoscafo che si muova sulla
superficie del mare in condizioni di perfetta bonaccia. Proprio a
causa dell’azione delle forze ponderomotrici ad esso associate,
l'impulso laser crea al suo passaggio una diminuzione locale della
densità di elettroni. Se l’estensione dell’impulso è circa uguale a
metà della lunghezza d’onda di plasma, allora si genera dietro di
esso un’onda elettronica di grande ampiezza. Per il meccanismo
mediante il quale l’onda di plasma viene creata, la sua velocità di
fase risulta essere uguale alla velocità di gruppo dell’impulso
laser nel plasma, ovvero prossima alla velocità della luce nel
vuoto, condizione necessaria ad accelerare elettroni (o altre
particelle) ad energie ultra-relativistiche. In regimi tipici la durata
dell’impulso è dell’ordine di una decina di femtosecondi, cui
corrispondono densità del plasma di circa 1018 elettroni per cm3.
Ma è bene ricordare comunque, che i laser possono essere
utilizzati anche in altri contesti sperimentali; dove ugualmente,
sono in grado di generare delle pressioni estremamente elevate.
Risale infatti all’estate scorsa (luglio 2014) la notizia che al
National Ignition Facility (negli Stati Uniti), grazie a 176 laser,
un campione di carbonio è stato compresso fino alla pressione di
cinque terapascal e ha raggiunto una densità quasi quattro volte
più grande di quella del diamante. In questo esperimento, 176
laser sono stati concentrati in un punto per produrre onde di
pressione estremamente intense in un bersaglio di carbonio di un
millimetro di diametro, raggiungendo picchi di pressione di 5
terapascal e densità 3,7 volte più elevate di quelle del diamante.
A questo punto, sappiamo che in linea di principio, la possibilità
fisica di raggiungere delle pressioni estremamente elevate,
sussiste realmente; rimane tuttavia da capire in che modo, nel
racconto di Fouché sulle caratteristiche tecniche del TR-3B, un
plasma confinato in una struttura di cui non è nota la
configurazione geometrica spaziale (ma visto che il Fouché parla
di “anello circolare di accelerazione”, molto probabilmente è
toroidale) e presumibilmente di dimensioni tutt’altro che ridotte
(il che ovviamente, in tale contesto, non è un aspetto positivo;
pensiamo ai concetti di forza e superficie, nel calcolo delle
pressioni), possa essere compresso fino a 250'000 atmosfere
rimanendo ad una temperatura di soli 150 gradi kelvin (che
corrispondono a -123,15 gradi Celsius). Ebbene a mio parere,
anche se potrà sembrare incredibile, la possibilità di realizzare
una simile condizione fisica, non è da scartarsi a priori; ma
occorrerebbero delle ricerche sperimentali e degli studi orientati
principalmente sul comportamento dei plasmi ultra-freddi67
(ultracold plasmas), a condizioni di pressione molto elevata.
Studi che ovviamente non sono escludersi, in un prossimo futuro.
Nel racconto di Edgar Fouché, si fa riferimento inoltre al fatto che
il plasma del TR-3B sia “basato sul mercurio”; ebbene anche in
questo caso, è possibile trovare un riscontro in ambito scientifico,
supponendo che il riferimento sia ad un plasma generato dai
vapori di mercurio. Basta ricordare che il principio fisico su cui

67
I vapori atomici raffreddati con i laser, possono essere foto-ionizzati per
formare dei plasmi a temperature fino a 1 kelvin. Ciò potrebbe consentire lo
studio di plasmi neutri molto particolari, con proprietà liquide e anche
cristalline. Per un approfondimento, si veda la nota riportata in Appendice.
si basano le lampade a fluorescenza (meglio conosciute come
“tubi al neon”)68, sfrutta proprio i vapori di mercurio, per generare
un plasma. Il funzionamento di una lampada a fluorescenza è
piuttosto semplice: un tubo di vetro, provvisto alle estremità di
due spinotti di metallo che funzionano da elettrodi, viene riempito
di vapore di mercurio. Applicando sugli elettrodi una forte
tensione elettrica di diverse centinaia di volt, il vapore di mercurio
si trasforma in plasma (ovvero in un gas ionizzato).
Analizziamo ora altri elementi del racconto di Edgar Fouché. Egli
parla di un dispositivo denominato “Magnetic Field Disruptor”,
che trae origine proprio dalla configurazione spaziale del plasma
(quasi certamente toroidale, ossia a forma di toro), di cui abbiamo
parlato poc’anzi. Partiamo con il termine “disruptor”, che
possiamo tranquillamente tradurre in italiano con: disruptore.
Ora, è risaputo che in elettrologia, la disrupzione è il fenomeno
per cui in un isolante, in conseguenza di un forte aumento
dell’intensità del campo elettrico, si determina una scarica
elettrica (scarica disruptiva). Restando in tale contesto però, non
è possibile capire in che modo dovrebbe operare un “disruptore
di campo magnetico”. Occorre dunque fare un ulteriore passo
avanti, ed entrare nel campo della fisica nucleare; nello specifico
in quella relativa alle condizioni di equilibrio all’interno di un
Tokamak.
In un dispositivo toroidale per la fusione nucleare (chiamato
comunemente Tokamak), il plasma è confinato all’interno di un
toro e la pressione del plasma varia con la densità (diminuendo,
dai punti più interni a quelli più esterni della sezione del toro).
Ciò da luogo ad una corrente elettrica naturale radiale nel plasma,
verso le pareti esterne. Per creare un sistema stabile di
confinamento, il Tokamak utilizza una combinazione di effetti
dovuti alla presenza dei magneti esterni e alla corrente indotta nel
plasma; che insieme concorrono a creare flussi magnetici

68
È da molto tempo ormai che i cosiddetti “tubi al neon” bianchi non
contengono più neon, ma vapore di mercurio. Il vecchio nome però, è rimasto
di uso comune. Si tratta di un’imprecisione linguistica comunemente accettata.
poloidali e migliorano il confinamento del plasma. La pressione
del plasma esercita una forza verso l’esterno a partire dal raggio
minore e il campo magnetico totale esercita una forza verso
l’interno. Lo sbilanciamento tra queste due forze, è controllato
dalla pressione magnetica del campo magnetico poloidale. Ma
ora arriva la parte più interessante, che ci consentirà di trovare dei
“possibili legami” (o perlomeno qualche piccola analogia) con
quello che Fouché definisce un “disruptore di campo magnetico”
(MFD – “Magnetic Field Dirruptor”).
Le disrupzioni dovute ad una variazione di densità del plasma per
una riduzione di temperatura, provocano un’espansione del
plasma con conseguente variazione dello spazio vuoto tra la
superficie interna del contenitore (vessel) e il plasma. Una
disrupzione consiste in una corrente radiale pulsante,
sufficientemente alta da comportare una perdita completa delle
condizioni di equilibrio. Una disrupzione si verifica quando la
corrente trasversale nella struttura (corrente radiale), aumenta
improvvisamente. Essa può aumentare improvvisamente perché
la tensione interna magnetoidrodinamica (MHD) aumenta a causa
di una ridistribuzione della densità di corrente del plasma; cioè
quando si verifica un cambiamento della densità di corrente
toroidale sul contorno (J), oppure della componente di campo
autoindotto normale al contorno del plasma (B). Le disrupzioni
possono essere controllate, ma se il fenomeno delle disrupzioni
persiste, sino a comportare il processo finale della variazione di
densità del plasma (con conseguente crollo della temperatura),
allora diventa irreversibile e non consente la rigenerazione del
plasma con conseguente perdita della stabilità del fenomeno della
fusione.
A questo punto occorre porsi le seguenti domande:
Il disruptore di campo magnetico di cui parla Fouché, è in qualche
modo legato ad un processo di fusione nucleare (fredda in questo
caso)? Le disrupzioni prodotte da tale disruptore, sono da
relazionarsi direttamente alle condizioni (manipolabili) di
equilibrio/non equilibrio del plasma? Oppure sono direttamente
relazionabili (sempre nell’ipotesi di un processo di fusione
nucleare), alla componente di campo autoindotto normale (B) al
contorno del plasma (magari, senza neppure compromettere la
condizione di equilibrio del plasma)? E se così fosse, in che modo
tutto ciò potrebbe alterare la forza di gravità, sino al punto da “far
perdere” al velivolo in questione (il TR-3B), l’89% della sua
forza-peso? (Fouché parla di un 89% di “perdita della massa” del
velivolo, il che ovviamente non ha alcun senso; visto che la massa
rimane sempre costante, in qualsiasi condizione di gravità.
Ovviamente dunque, è presumibile che il riferimento fosse alla
forza-peso, e non alla massa). Sull’eventualità di una perdita
della forza peso in determinate situazioni sperimentali, si è già
detto abbastanza nel secondo capitolo di questo libro, quando si è
parlato dei dispositivi giroscopici, nonché degli esperimenti di
Quirino Majorana, Eugene Podkletnov e Ning Li.
Per cui a tal proposito, non essendo in possesso di alcun elemento,
prova o teoria fisica in grado di farmi propendere per l’una o
l’altra tesi (del tipo: probabile, poco probabile, improbabile,
impossibile) riguardo ad eventuali processi fisici non ancora noti,
non posso far altro che pronunciare un laconico no-comment.
Ciononostante, resto sempre dell’idea che, per dirla con Michail
Bakunin: “Cercando l'impossibile, l'uomo ha sempre realizzato e
conosciuto il possibile, e coloro che si sono saggiamente limitati
a ciò che sembrava possibile non sono mai avanzati di un sol
passo”.
Figura 2.13. Un’immagine composta da tre fotogrammi, tratti da un
video amatoriale girato a Parigi nel 2011, in cui nel cielo notturno è
ben visibile un velivolo di forma triangolare, che si ritiene possa
essere il fantomatico TR-3B (Astra).

Figura 2.14. Una foto scattata in Afghanistan, in una zona di


combattimento, dove è ben visibile un velivolo di forma triangolare
(presumibilmente, sempre lo stesso TR-3B).
Appendice

I Superconduttori

I superconduttori sono particolari materiali che, se raffreddati fino


a temperature molto basse, e comunque al di sotto di una
temperatura Tc, detta temperatura critica e caratteristica di ogni
materiale, vedono bruscamente annullarsi la loro resistività
elettrica. Il fenomeno, scoperto nel 1911 da H. Kamerlingh Onnes
consiste in un brusco abbassamento della resistività di alcuni
materiali (ad es. titanio, vanadio, niobio, stagno, niobio-
alluminio, niobio-stagno, ecc.), detti perciò superconduttori, che
ha luogo a temperature vicine allo zero assoluto. Una corrente
elettrica immessa in una spira superconduttrice scorre
praticamente all’infinito e senza produrre calore. Un
superconduttore può trasportare grandi quantità di corrente
elettrica senza dissipare energia sotto forma di calore e una
corrente elettrica immessa in un anello superconduttore può
circolare per molti anni senza alcuna misurabile
dissipazione. Alla base di questo straordinario fenomeno vi è un
processo quantistico che consente agli elettroni che trasportano la
corrente di muoversi tutti insieme (a coppie elettrone-elettrone: le
coppie di Cooper) come se fossero un’ unica “macroentità”. Ogni
coppia di Cooper può essere trattata come una singola particella
con massa e carica pari al doppio di quella di un elettrone. La
superconduttività fu scoperta da H.K. Onnes nel mercurio nel
1911. Solo nel 1957 J. Bardeen, L.N. Cooper e J.R. Schrieffer
riuscirono a formulare una teoria microscopica della
superconduttività, basata sulla meccanica quantistica. Secondo
tale teoria il moto di un elettrone di conduzione distorce
leggermente il reticolo cristallino, facendo avvicinare gli ioni
positivi più vicini al suo passaggio. Questa “sovradensità” di ioni
positivi causa l’ attrazione di un altro elettrone, ed il risultato netto
è una forza attrattiva tra elettroni. Il suo effetto è la creazione di
coppie di elettroni debolmente legati che si muovono insieme
senza scambiare energia col reticolo. Un grande impulso allo
studio della superconduttività è stato dato dalla scoperta dei
superconduttori ad alta temperatura critica dovuta a J.G. Bednorz
e K.A. Muller dei laboratori IBM di Zurigo nel 1986. I due
ricercatori rilevarono superconduttività a 35° K in una ceramica
di lantanio, bario, rame e ossigeno. Un grande entusiasmo fu
suscitato nel 1987, dalla realizzazione di una ceramica a base di
ittrio in grado di supercondurre a 90 °K. A tali temperature
diviene possibile usare come refrigerante l’azoto liquido (punto
di liquefazione a 77° K), invece del più costoso elio. Attualmente
la più alta temperatura critica, 133° K, è stata raggiunta da un
materiale ceramico a base di mercurio. Un’altra particolarità dei
materiali superconduttori è il cosiddetto effetto Meissner,
scoperto nel 1933 da K. W. Meissner e R. Ochsenfeld. Un
qualunque conduttore che immerso in un campo magnetico
esterno non induce cambiamenti nel campo magnetico stesso e si
oppone alla crescita del campo nel suo interno, è detto
diamagnetico. Quando poniamo un superconduttore sotto TC
entro un campo magnetico, esso si comporta proprio da
diamagnetico. Infatti, in un sottile strato interno, ma prossimo alla
superficie, si generano “ supercorrenti” che schermano il campo
magnetico e gli impediscono di penetrare. Questa capacità si
mantiene fino a un certo campo magnetico critico BC, oltre il
quale il superconduttore perde in ogni caso le sue due proprietà
fondamentali: resistenza nulla e diamagnetismo perfetto. Per tutti
i superconduttori esiste una regione di temperature critiche
e campi magnetici critici all’interno della quale vi è l’effetto
superconduttore. Questo fenomeno per cui il superconduttore
espelle il campo magnetico, va sotto il nome di effetto Meissner
(vedi figura sottostante):
Figura 3.1. Schema dell’effetto Meissner

Un interessante esperimento che sfrutta le caratteristiche dei


superconduttori è quello della levitazione magnetica: ponendo un
magnete sul materiale superconduttore alla temperatura ambiente
(circa 300° K) e versando azoto liquido in modo da portare i
materiali alla temperatura di 77° K, il magnete si solleva dal
superconduttore e rimane sospeso in una posizione di equilibrio
stabile. Al di sotto della temperatura critica, nel superconduttore
nascono delle correnti circolari locali (vortici) con conseguenti
campi magnetici che sollevano il magnete ponendolo in equilibrio
stabile al di sopra del superconduttore (come si può vedere
nell’immagine sottostante):

Figura 3.2. Un esperimento di levitazione magnetica.


Le ricerche sulla superconduttività portarono ad una
classificazione dei materiali superconduttori in due tipi, quelli di
tipo 1 e quelli di tipo 2. I superconduttori di tipo 1 tendono ad
essere superconduttori in condizioni di bassa temperatura e
debole campo magnetico. Se il campo raggiunge l’intensità
critica, che dipende dal materiale, esso entra nel materiale
distruggendo lo stato di superconduzione. I superconduttori di
tipo 2 sono molto più utili: essi rimangono nello stato di
superconduzione anche dopo la penetrazione del campo
magnetico. I superconduttori di tipo 2 possono sopportare campi
molto forti e quindi trasportare correnti più intense. Le classi di
superconduttori di tipo 1 e di tipo 2 si possono distinguere
facendo riferimento a due importanti caratteristiche: la lunghezza
di coerenza e la lunghezza di penetrazione. La lunghezza di
coerenza è la separazione spaziale degli elettroni all’interno di
una coppia di Cooper (cioè le dimensioni medie della coppia). Nei
superconduttori convenzionali, la lunghezza di coerenza può
andare da alcune decine ad alcune centinaia di nanometri. La
lunghezza di penetrazione è relativa all’effetto Meissner: le
correnti indotte che creano il campo magnetico che si oppone a
quello esterno applicato cancellandolo dall’intero materiale,
decadono esponenzialmente in intensità all’aumentare della
distanza dalla superficie del superconduttore; la distanza lungo la
quale avviene questo decadimento è proprio la lunghezza di
penetrazione. Nei superconduttori convenzionali essa può andare
da alcune decine ad alcune centinaia di nanometri. I
superconduttori di tipo 1 sono basso fondenti e fisicamente teneri.
In questi materiali la lunghezza di coerenza è maggiore della
profondità di penetrazione, di conseguenza questi materiali
tendono ad essere superconduttori in condizioni di bassa
temperatura e debole campo magnetico. Se il campo raggiunge
l’intensità critica, entra nel materiale distruggendo lo stato di
superconduzione. Il mercurio, che è stato il primo metallo
superconduttore scoperto, è un esempio di superconduttore del
primo tipo (la sua temperatura critica è di 4,2° K).
Dato che nei superconduttori di tipo 1, la superconduzione
scompare in assenza di campi abbastanza modesti, questi
materiali presentano uno scarso interesse dal punto di vista
tecnologico. I superconduttori di tipo 2, sono invece
tecnologicamente molto più utili. La profondità di penetrazione
di questi materiali è minore della lunghezza di coerenza e pertanto
essi rimangono allo stato di superconduzione anche dopo la
penetrazione del campo magnetico. I superconduttori di tipo 2
possono sopportare campi molto forti e quindi trasportare correnti
più intense. Tutti i superconduttori di interesse tecnologico sono
di questo tipo. Negli anni ’50 Aleksej A. Abrisokov pubblicò la
teoria di base sul comportamento di un superconduttore
convenzionale di tipo 2 in presenza di campo magnetico; in cui
dimostrò che il comportamento magnetico di un superconduttore
di tipo 2 al di sotto della temperatura critica, dipende
dall’intensità del campo applicato e dalla temperatura. Tale
fenomeno dimostra che un superconduttore convenzionale ha tre
stati magnetici distinti. Il primo è lo stato di Meissner, cioè lo
stato in cui il materiale espelle totalmente il flusso magnetico
applicato. Questo stato esiste fino a che non si supera un certo
campo, detto campo critico inferiore. A questo punto il campo
magnetico può ancora penetrare nel superconduttore, ma non
completamente e uniformemente. La penetrazione nel materiale
avviene per mezzo di tubi di flusso che formano intrusioni
tubolari del campione applicato. La meccanica quantistica dei
superconduttori richiede che ogni tubo di flusso porti la stessa
quantità di flusso magnetico (quanto di flusso). Il terzo stato si
raggiunge se il campo magnetico arriva a un secondo e più alto
campo critico. Al di sopra di questo valore lo stato
superconduttivo viene totalmente distrutto. Con l’avvento di
materiali superconduttori ad alta temperatura le applicazioni si
sono moltiplicate. Si possono costruire filtri elettronici senza
perdite, quindi con molti più stadi e maggiore efficienza per
selezionare le frequenze desiderate. Si possono costruire motori
con avvolgimenti superconduttori molto più compatti e più
efficienti. L’applicazione più futuristica dei superconduttori è
costituita dalla realizzazione del supercomputer; in grado di
raggiungere una velocità di elaborazione, 1000 volte superiore a
quella del computer più veloce realizzato fino ad oggi
(mantenendo dimensioni e consumi molto ridotti rispetto a un
computer equivalente realizzato con l’attuale tecnologia basata
sui semiconduttori). Nel supercomputer, i superconduttori
funzionerebbero da interruttori logici inserendoli in giunzioni
Josephson: si tratta, sostanzialmente, di due superconduttori
separati da un sottile strato isolante; al di sotto della loro TC,
quando il primo è attraversato da una corrente elettrica inferiore
a un certo valore critico IC , questa passa anche nel secondo,
ignorando completamente lo strato isolante. Modulando la
corrente che passa nel primo, si possono avere frequenze di
switching superiori a 1012 Hz.
Nei superconduttori l’elettricità fluisce senza che venga opposta
resistenza, in quanto gli elettroni che trasportano la corrente
elettrica si muovono tutti insieme in modo coerente, come se
fossero un’unica gigantesca particella.
Verso la fine del 2011, proprio nel centenario della scoperta della
superconduttività, alcuni ricercatori dell'Università del
Massachusetts ad Amherst e del Royal Institute of Technology
svedese, hanno pubblicato una serie di tre articoli apparsi sulla
rivista Physical Review B, in cui viene descritta una teoria
coerente della superconduttività "multibanda"; ovvero un terzo
tipo di superconduttività (chiamata di tipo 1.5), che si affianca
alle note forme di superconduttività di tipo 1 e 2.
Tutti i materiali superconduttori scoperti negli ultimi
cinquant'anni, possono essere classificati in queste due tipologie
(1 e 2). Successivamente, studiando le basi teoriche dei materiali
superconduttori, Egor Babaev aveva previsto che in alcuni
materiali, gli elettroni superconduttori potrebbero essere suddivisi
in due tipi di "sotto-popolazioni" in competizione; una in cui essi
si comportano come gli elettroni nel materiale di tipo 1, e l'altra
in cui si comportano come gli elettroni in un materiale di tipo 2.
L'obiezione sollevata dagli scettici era che fondamentalmente
esiste un solo tipo di elettroni, e che era difficile che nei
superconduttori potessero esistere popolazioni di elettroni dai
comportamenti radicalmente diversi.
Ciononostante Babaev, col tempo, è riuscito a sviluppare la teoria
per spiegare come i materiali reali possano effettivamente dar
luogo a una superconduttività di tipo 1.5, tenendo conto delle
interazioni alle micro-scale. Parallelamente, Johan Carlström,
Julien Garaud e collaboratori, sono riusciti a sviluppare, grazie
all'impiego massiccio di un supercomputer, un modello numerico
del comportamento degli elettroni superconduttori; scoprendo
che in determinate condizioni, si possono descrivere nuove forze
addizionali tra i vortici, che possono dare ai cluster di vortici una
struttura molto complessa. Secondo i ricercatori, ciò offre anche
la possibilità di creare materiali superconduttori multibanda; essi
ritengono, anzi, che alcuni dei materiali di recente scoperta
possano già appartenere al tipo 1.5.

I plasmi ultrafreddi

I vapori atomici raffreddati con i laser, possono essere foto-


ionizzati per formare dei plasmi a temperature fino a 1 kelvin. Ciò
potrebbe consentire lo studio di plasmi neutri molto particolari,
con proprietà liquide e anche cristalline.
Il plasma, il più comune stato della materia nell’universo, copre
un’incredibile range di parametri, da una densità di 103 cm-3 e
temperature di poche centinaia di kelvin nell’aurora della
ionosfera terrestre, fino ad una densità di 1027 cm-3 e una
temperatura di 107 kelvin, nel nucleo del Sole. Con gli strumenti
di fisica atomica e le tecniche di raffreddamento laser, oggi è
possibile creare plasmi neutri, a temperature fino a 1 kelvin
(dunque molto basse; 1°K corrisponde a -272,15° C). Poter
disporre di questo tipo di plasmi in un laboratorio, può aiutarci a
comprendere meglio gli interni dei grandi pianeti e delle nane
bianche, nonché a sondare nuovi stati della materia ed effetti non
ordinari liquido-cristallini, nei cosiddetti plasmi fortemente
accoppiati. I plasmi ultrafreddi sono stati creati in diversi sistemi
atomici; inclusi Xeno, Rubidio, Cesio, Stronzio, e Calcio
(essenzialmente qualsiasi atomo che può essere facilmente
raffreddato con un laser e che abbia una conveniente lunghezza
d’onda laser per la fotoionizzazione. Mentre molti esperimenti
con i plasmi convenzionali (caldi) tendono a richiedere grandi
impianti, gli esperimenti con plasmi ultrafreddi assomigliano
molto di più a quelli di fisica atomica (fisica “da tavolo” con una
piccola camera a vuoto e vari strumenti laser); ed infatti vengono
quasi sempre condotti da gruppi di ricerca specializzati in fisica
atomica.
A causa della natura piuttosto delicata di questi plasmi (essi
esistono a bassa temperatura e contengono solo ioni; inoltre gli
esperimenti con questi plasmi debbono essere eseguiti con
camere a vuoto), la maggior parte delle sonde utilizzate nella
fisica dei plasmi tradizionali (caldi), risultano essere troppo
invasive (ad esempio, degli elettrodi posti al centro del plasma;
con i plasmi ultrafreddi, questa strategia è troppo invasiva e non
va bene). I ricercatori nel campo dei plasmi ultrafreddi, misurano
gli elettroni o gli ioni che fuggono dal plasma (spontaneamente o
in modo indotto), oppure utilizzano la spettroscopia laser e
tecniche di imaging, per gli ioni con transizioni otticamente
convenienti.

La simmetria CPT

In fisica le leggi della natura obbediscono a una simmetria


fondamentale chiamata CPT (dove le tre lettere stanno per carica,
parità e tempo). Secondo questa teoria, che è alla base della fisica
delle particelle, se tutta la materia dell’universo fosse rimpiazzata
da antimateria, se destra e sinistra si invertissero come quando si
guarda in uno specchio e se il tempo viaggiasse al contrario, dal
futuro verso il passato, l’“antiuniverso” che si otterrebbe sarebbe
uguale a quello in cui viviamo – e dunque da esso indistinguibile.
La simmetria CPT (o teorema CPT), è una proposizione
fondamentale della teoria quantistica dei campi, secondo la quale
tutte le leggi di natura sono invarianti rispetto all’applicazione
combinata di coniugazione di carica C (ogni carica q è trasformata
nel suo opposto −q), inversione del tempo T (t è trasformato in
−t) e parità (il vettore x∈ℝ3 è trasformato in −x). Tale
combinazione è per l’appunto rappresentata dall’operatore
unitario CPT. Una conseguenza del teorema CPT è l’uguaglianza
delle masse e delle vite medie di una qualunque particella e della
sua corrispondente antiparticella. Fino alla scoperta della
violazione della conservazione della parità (1957), era diffusa la
convinzione della conservazione di ciascuna delle tre simmetrie
separatamente. Successivamente, tale convinzione fu sostituita da
quella dell’invarianza per CP e T. Tuttavia, nel 1964 una
violazione della conservazione di CP fu osservata nel
decadimento di mesoni K neutri, che per il teorema CPT stesso
implica una parallela violazione della simmetria per inversione
del tempo. Nell’approccio assiomatico alla teoria dei campi
introdotto da Arthur Wightman il teorema CPT è una rigorosa
proposizione matematica deducibile a partire da ipotesi generali
e plausibili quali causalità, località e invarianza di Lorentz.
Oggi sappiamo che nel mondo microscopico, avvengono processi
che violano l'invarianza per inversione temporale. Lo ha
dimostrato una misurazione diretta sul decadimento dei mesoni B
condotta presso l'esperimento BaBar (nel novembre del 2012), i
cui risultati implicano che anche nel mondo dei quanti lo scorrere
del tempo è unidirezionale (ovvero segue la cosiddetta freccia del
tempo, come avviene nei sistemi macroscopici). Infatti, i nuovi
risultati dell'esperimento BaBar sul decadimento dei mesoni beta,
presso lo SLAC della Stanford University, mostrano che il
processo ha anch'esso una ben definita "freccia del tempo",
ovvero: non è invariante per l'applicazione della trasformazione
T. La violazione della simmetria è inequivocabile (la sua
misurazione è statisticamente significativa ed è coerente con le
osservazioni indirette). Inoltre è diretta, non viene cioè dedotta da
misurazioni che riguardano altri tipi di simmetrie. Questo
risultato è l'ultimo di una lunga serie. La questione della
violazione delle simmetrie infatti è di fondamentale importanza
in fisica, perché intrinsecamente legata alle leggi di
conservazione di alcune grandezze, come dimostrato dai famosi
teoremi di Emmy Noether nel 1915.
Nella seconda metà del Novecento, una parte importante della
ricerca in fisica delle particelle ha riguardato la verifica di queste
leggi di simmetria per le diverse forze fondamentali. È ben noto
per esempio che le interazioni forti e quella elettromagnetica
rimangono invariate quando osservate allo specchio, e quindi
sono invarianti rispetto all'inversione di parità. La stessa cosa non
vale però per le interazioni deboli, per le quali nel 1957 è stata
dimostrata la violazione della P. In alcuni casi, il mondo delle
particelle non rispetta neppure la combinazione di due inversioni:
solo dieci anni dopo, una ricerca ha dimostrato che in alcuni
decadimenti dei mesoni K, le interazioni elettrodeboli violano la
simmetria di CP, che combina la parità e la coniugazione di carica
(tutte le particelle sono commutate in antiparticelle e il sistema è
visto allo specchio). Andando ancora oltre, si arriva alla
trasformazione CPT, che coniuga la CP con l'inversione
temporale T. In questo caso la natura appare più rispettosa: la
simmetria rispetto alle tre inversioni insieme è ritenuta una
caratteristica intrinseca della realtà, e quindi inviolabile. Questa
nozione è il contenuto del teorema CPT, che viene in aiuto quando
si vuole verificare l'invarianza per inversione temporale, in cui la
misurazione diretta è estremamente difficoltosa, perché richiede
un esperimento con il tempo che scorre a ritroso e con lo stato
iniziale scambiato con quello finale. Il ragionamento è il
seguente: poiché la simmetria CPT è inviolabile, la violazione di
CP implica una concomitante violazione di T che la compensi.
Proprio questo approccio è stato seguito nell'esperimento
CPLEAR presso il CERN di Ginevra, il primo che ha permesso
di evidenziare una violazione di T nel decadimento dei kaoni
neutri. Il risultato è stato però criticato proprio per l'impossibilità
di distinguere la violazione di T rispetto alla violazione di CP.
La collaborazione BaBar, superando le difficoltà sperimentali e
concettuali di una simile operazione, è riuscita ad osservare
un'esplicita violazione di T nel decadimento dei mesoni B.
L'esperimento, condotto presso lo Stanford Linear Accelerator
Center (SLAC) in California, ha permesso di rilevare, tra miliardi
di collisioni di particelle, alcuni decadimenti che avvengono
preferibilmente in una delle due modalità permesse. Secondo
quanto riferito nell'articolo di resoconto dell’esperimento BaBar,
il livello di accuratezza è estremamente elevato. Pur essendo in
qualche modo attesa, la violazione di T che è stata dimostrata non
mancherà di avere profonde implicazioni per i fondamenti
concettuali della fisica. Se infatti la "freccia del tempo"
individuabile con gli effetti termodinamici è da ricondurre a
effetti collettivi, in cui sono implicate un gran numero di
particelle ed è quindi un concetto statistico, quella che riguarda
una singola particella colloca lo scorrere "unidirezionale" del
tempo in una dimensione ancora più fondamentale, alla fonte
stessa (per così dire), della realtà fisica.
Ma non è tutto.
Circa un mese dopo l’esperimento BaBar, nel mese di dicembre
del 2012, l’osservazione di tre lampi di raggi gamma, condotta
con la sonda spaziale giapponese Ikaros, ha confermato con
grande accuratezza la validità della simmetria CPT. L'analisi dei
dati registrati dalla sonda, non ha rilevato alcuna traccia di
rotazione della polarizzazione della luce (fenomeno che si
dovrebbe osservare invece, se la simmetria fosse violata).
Secondo la teoria, la violazione della simmetria CPT su scale
microscopiche avrebbe come effetto, la rotazione della
polarizzazione della radiazione proveniente da oggetti celesti
distanti, durante il tragitto. L’esperimento non ha mostrato alcuna
rotazione, con un’accuratezza di una parte su dieci milioni. Il
risultato porta a una limitazione ancora più stringente sulla
violazione della simmetria CPT, che risulta confermata con
un’accuratezza di una parte su un milione di miliardi (con un
miglioramento di ben otto ordini di grandezza rispetto ai limiti
precedenti). Questo risultato pone un limite fondamentale alla
gravità quantistica, che cercando di riconciliare la teoria della
relatività generale di Einstein con la meccanica quantistica,
prevede proprio la violazione di CPT alle scale dimensionali più
piccole.
Bibliografia

In italiano:

. K. THORNE, Buchi neri e salti temporali: L’eredità di Einstein,


Castelvecchi, 2013.

. G. CHARDIN, L’antimateria: La materia che risale il tempo,


Bollati & Boringhieri, 2009.

. F. Close, Antimateria, Einaudi, 2010.

. L. SUSSKIND, Il paesaggio cosmico - Dalla teoria delle


stringhe al megaverso, Adelphi, 2007.

. F. CLOSE, L’enigma dell’infinito - Alla ricerca del vero


universo, Einaudi, 2013.

. L. SMOLIN, L’universo senza stringhe – Fortuna di una teoria


e turbamenti della scienza, Einaudi, 2007.
In inglese:

. G. FRASER, Antimatter: The Ultimate Mirror, Cambridge


University Press, 2002.

. N. YVIND ; G. OYVIND, Lecture Notes on the General Theory


of Relativity: From Newton S Attractive Gravity to the Repulsive
Gravity of Vacuum Energy, Springer, 2010.

. R.M. SANTILLI, Isodual Theory of Antimatter: With


Applications to Antigravity, Grand Unification and Cosmology,
Springer, 2006.

. P.A. LAVIOLETTE, Secrets of Antigravity Propulsion: Tesla,


UFOs, and Classified Aerospace Technology, Bear & Company,
2008.

. D.BLAIR ; G.McNAMARA, Ripples on a cosmic sea: The


Search for Gravitational Waves, Addison-Wesley, 1998.

. L. NOTTALE, Scale Relativity and Fractal Space-Time: A New


Approach to Unifying Relativity and Quantum Mechanics,
Imperial College Press, 2011.

. R.C. TOLMAN, Relativity, Thermodynamics and Cosmology,


Dover Publications, 2011.

. M. SACHS, General Relativity and Matter: A Spinor Field


Theory from Fermis to Light-Years, Springer, 2010.

. D.G.B. EDELEN ; A.G. WILSON, Relativity and the Question


of Discretization in Astronomy, Springer, 2012.

M.H. SOFFEL, Relativity in Astrometry, Celestial Mechanics and


Geodesy, Springer, 2011.
. M. ALCUBIERRE, Introduction to 3 + 1 Numerical Relativity,
Oxford University Press, 2012.

. R.M. WALD, Space, Time, and Gravity: The Theory of the Big
Bang and Black Holes, University of Chicago Press, 2009.

. J. GABRIEL, Quantum Physics of Time Travel: Relativity,


Space Time, Black Holes, Worm Holes, Retro-Causality,
Paradoxes, Cosmology Science Publishers, 2014.

. G. GOLL, Unconventional Superconductors: Experimental


Investigation of the Order-Parameter Symmetry, Springer, 2010.

. F.J. OWENS, The New Superconductors, Springer, 2013.

. B.R. LEHNDORFF, High-Tc Superconductors for Magnet and


Energy Technology: Fundamental Aspects, Springer, 2010.

. A. EVERETT ; T. ROMAN, Time Travel and Warp Drives: A


Scientific Guide to Shortcuts Through Time and Space,
University of Chicago Press, 2011.
. H.S. KRAGH ; J. OVERDUIN, The Weight of the Vacuum: A
Scientific History of Dark Energy, Springer, 2014.

. V.I. FEDOROV ; V.E. GOLANT, RF Plasma Heating in


Toroidal Fusion Devices, Springer, 2012.

. J.E. DRUMMOND, Plasma Physics, Dover Publications, 2013.

. R. COHN, Plasma Stealth, VSD, 2013.

. A. LICHNEROWICZ, Magnetohydrodynamics: Waves and


Shock Waves in Curved Space-Time, Springer, 2010.
. I.M. KIRKO, Magnetohydrodynamics of Liquid Metals,
Springer, 2013.

. G.W. SUTTON ; A. SHERMAN, Engineering


Magnetohydrodynamics, Dover Publications, 2006.
. Y. TRAKHININ, Stability of Strong Discontinuities in
Magnetohydrodynamics and Electrohydrodynamics, Nova
Science Publishers Inc, 2003.

. H. KIKUCHI, Electrohydrodynamics in Dusty and Dirty


Plasmas: Gravito-Electrodynamics and Ehd, Springer, 2010.

. M.S. PRASAD, Electrohydrodynamic Rayleigh-Taylor


Instability, Scholars' Press, 2013.
. J.T. MENDON ; H. TER AS ; H.TERCAS, Physics of Ultra-
Cold Matter: Atomic Clouds, Bose-Einstein Condensates and
Rydberg Plasmas, Springer, 2012.

. E. JENNINGS, Simulations of Dark Energy Cosmologies,


Springer, 2012.

. D. CHAPPLE, Particle Physics, Dark Matter and Dark Energy,


Abramis, 2011.

. J. PEARSON, Generalized Perturbations in Modified Gravity


and Dark Energy, Springer, 2013.

. H. MASSEY, Negative ions, Cambridge University Press, 2011.

. L. SMOLIN, Three Roads to Quantum Gravity, Basic Books


(AZ), 2002.
. N.J. JACKSON, Black Project, America Star Books, 2012.
. S.G. RUBIN ; K.A. BRONNIKOV, Black Holes, Cosmology
and Extra Dimensions, World Scientific Publishing Company,
2012.
. M. VISSER, Lorentzian Wormholes: From Einstein to Hawking,
American Institute of Physics, 1996.

. E. RODRIGO, The Physics of Stargates: Parallel Universes,


Time Travel, and the Enigma of Wormhole Physics, Eridanus
Press, 2010.

. R. HAMMOND, The Unknown Universe: The Origin of the


Universe, Quantum Gravity, Wormholes, and Other Things
Science Still Can't Explain, New Page Books, 2008.

Sitografia

In italiano
www.lescienze.it

- Se mi tendi mi accorcio, se mi comprimi mi allungo, 28


maggio 2012;
- Arriva dal CERN la prima bilancia per l’antimateria, 1
maggio 2013;
- Il propulsore a curvatura, da Star Trek alla NASA, 1
maggio 2014;
- Un superconduttore infrange il record di alta
temperatura, 25 febbraio 2012;
- Laser per comprimere la materia, 3 settembre 2001;
- Quando la materia è più densa del diamante, 17 luglio
2014;
- Previsioni per l’idrogeno solido metallico, 13 aprile 2002;
- Dal cosmo profondo un limite alla violazione di CPT, 13
dicembre 2012;
- La freccia del tempo nel mondo dei quanti, 23 novembre
2012.

www.galileonet.it

- Confermata la simmetria dell’antiprotone, 4 agosto 2011;


- I conti tornano, 25 novembre 2008.

www.treccani.it

- Teorema CPT, Enciclopedia della Scienza e della Tecnica


(2008);
- Gravitomagnetismo, Enciclopedie online;
- Magnetofluidodinamica, Enciclopedie online;
- Disrupzione, Vocabolario online.

www.sapere.it

- Magnetofluidodinamica, Enciclopedia (Scienza > Fisica >


Elettricità e magnetismo > Magnetofluidodinamica).

www.media.inaf.it

- Antigravità vs. Energia Oscura, 13 maggio 2013.

www.asimmetrie.it
(Rivista dell’Istituto Nazionale di Fisica Nucleare)

- Trascinati dalla gravità;


- Onde di spazio-tempo.

http://fox.fi.isc.cnr.it
- Laboratorio Alte Pressioni (MBar).

http://it.wikipedia.org

- Interazione gravitazionale dell’antimateria;


- Anti-idrogeno;
- Propulsore magnetoplasmodinamico.

In inglese

http://en.wikipedia.org

- Flux Pinning;
- Negative energy;
- Anti-gravity;
- Gravitational shielding;
- Eugene Podkletnov;
- Ning Li (physicist);
- Negative mass;
- Gravitational interaction of antimatter;
- Magnetohydrodynamic drive;
- Yamato 1;
- United States gravity control propulsion research;
- Electrogravitics;
- Alcubierre drive;
- Diamond anvil cell;
- Quantum vacuum plasma thruster.

In francese

http://fr.wikipedia.org

- Masse négative ;
- Antigravité ;
- Théorie de Heim ;
- Gravité artificielle ;
- Interaction gravitationnelle de l'antimatière ;
- Supraconducteur à haute température ;
- Triangle noir (ufologie) ;
- Accélérateur MHD ;
- Propulseur magnétoplasmadynamique ;
- Métrique d'Alcubierre.

Potrebbero piacerti anche