Sei sulla pagina 1di 197

1

Il principio di Precauzione

I COSTI DELLA NON-SCIENZA


Associazione Galileo 2001,
Il Principio di Precauzione: i costi della non-scienza
© 2004 21mo SECOLO s.a.s. di Roberto Irsuti e C.
Via Piacenza 24, 20135 Milano
Tel. 02-5456061, Fax 02-54100453
www.21mosecolo.it
info@21mosecolo.it
Tutti i diritti riservati
ISBN: 88-87731-23-

Grafica: Claudio Rossi


In copertina: xxxx.
ASSOCIAZIONE GALILEO 2001
per la libertà e dignità della scienza

IL PRINCIPIO DI PRECAUZIONE

I COSTI DELLA
NON-SCIENZA

21mo SECOLO
5

INDICE

Presentazione VII

Manifesto IX

Organi Costituzionali dell’Associazione Galileo 2001 XIII

Introduzione del Prof. Giorgio Salvini 1

Roberto De Mattei
Indirizzo di saluto 5

Renato Angelo Ricci


Perché Galileo 2001 11

Umberto Veronesi
Un’alleanza per la scienza 21

Franco Battaglia
Il Principio di Precauzione: precauzione o rischio? 27

Carlo Bernardini
Radici filosofiche e utilizzazione sociale del Principio
di Precauzione 65

Tullio Regge
Il Principio di Precauzione: un trucco verbale 71

Umberto Tirelli
Il Principio di Precauzione e la salute 75

Francesco Sala
Piante GM: una grande opportunità per l’agricoltura italiana 81
6 I costi della non-scienza

Ingo Potrykus
Green biotechnology could save millions of lives, but it cannot
because of anti-scientific, extreme-precautionary regulation
Le biotecnologie in agricoltura potrebbero salvare milioni di vite,
ma normative anti-scientifiche ed eccessivamente precauzionali
lo impediscono 89

Paolo Sequi
Il Principio di Precauzione e le problematiche ambientali
relative al suolo 111

Paolo Vecchia
Il Principio di Precauzione per i campi elettromagnetici:
giustificazione ed efficacia 141

Luciano Caglioti
Il paradosso dei rifiuti 155

Cesare Marchetti
Prospettive dell’economia a idrogeno 161

Giovanni Vittorio Pallottino


Sfogliando i libri di testo di scienza per la scuola 171

Ernesto Pedrocchi
Il Principio di Precauzione 177

Silvano Fuso
Principio di Precauzione e pseudoscienze 181

Ringraziamenti 189
7

GALILEO 2001
PER LA LIBERTÀ E LA DIGNITÀ DELLA SCIENZA

MANIFESTO

U
n fantasma si aggira da tempo nel Paese, un fantasma che
sparge allarmi ed evoca catastrofi, terrorizza le persone, addi-
ta la scienza e la tecnologia astrattamente intese come nemi-
che dell’uomo e della natura e induce ad atteggiamenti antiscientifici
facendo leva su ingiustificate paure che oscurano le vie della ragione.
Questo fantasma si chiama oscurantismo. Si manifesta in varie for-
me, tra cui le più pericolose per contenuto regressivo ed irrazionale
sono il fondamentalismo ambientalista e l’opposizione al progresso
tecnico-scientifico. Ambedue influenzano l’opinione pubblica e la po-
litica attraverso una comunicazione subdola: l’invocazione ingiustifi-
cata del Principio di Precauzione nell’applicare nuove conoscenze e
tecnologie diviene una copertura per lanciare anatemi contro il pro-
gresso, profetizzare catastrofi, demonizzare la scienza.
Non si tratta, quindi, di una giustificabile preoccupazione per le ri-
percussioni indesiderate di uno sviluppo industriale ed economico
non sempre controllato, ma di un vero e proprio attacco contro il pro-
gresso. L’arroganza e la demagogia che lo caratterizzano non solo umi-
liano la ricerca scientifica – attribuendole significati pericolosi ed im-
ponendole vincoli aprioristici ed arbitrari – ma calpestano il patrimo-
nio di conoscenze che le comunità scientifiche vanno accumulando e
verificando, senza pretese dogmatiche, con la consapevolezza di offri-
re ragionevoli certezze basate su dati statisticamente affidabili e speri-
mentalmente controllabili.
Il fatto che le conoscenze scientifiche, per la natura stessa del me-
todo di indagine e di verifica dei risultati, si accreditino con spazi di
dubbio, sempre riducibili ma mai eliminabili, costituisce l’antidoto
principale – che è proprio dell’attività scientifica – verso ogni forma di
8 I costi della non-scienza

dogmatismo, scientismo, intolleranza e illiberalità; ma non puó giusti-


ficare il considerare tali conoscenze opinabili o, peggio, inattendibili.
La voce della scienza è certamente più affidabile e anche umana-
mente – oltre che intellettualmente – più consapevole delle voci in-
controllate e dogmatiche che, fuori di ogni rilevanza scientifica, pre-
tendono di affermare “verità” basate sull’emotività irrazionale tipica
delle culture oscurantiste.
Da questa cultura regressiva nascono, ad esempio:
• l’attribuzione quasi esclusivamente alle attività antropiche di effet-
ti, pur preoccupanti data la posta in gioco, quali i cambiamenti cli-
matici che da milioni di anni sono caratteristici del pianeta Terra,
mentre il problema della loro origine è tuttora aperto;
• le limitazioni alla ricerca biotecnologica che impediscono ai nostri
ricercatori di cooperare al raggiungimento di conquiste scientifiche
che potrebbero, tra l’altro, combattere gravi patologie e contribui-
re ad alleviare i problemi di alimentazione dell’umanità;
• la ricerca e l’esaltazione acritica di pratiche mediche miracolistiche
che sono ritenute affidabili solo perché “alternative” alla medicina
scientifica;
• il terrorismo sui rischi sanitari dei campi elettromagnetici, che vuo-
le imporre limiti precauzionali ingiustificati, enormemente piú bas-
si di quelli accreditati dalla comunità scientifica internazionale e
adottati in tutti i paesi industriali;
• il permanere di una condizione di emergenza nel trattamento e nel-
lo smaltimento dei rifiuti di ogni tipo, condizione che è figlia del ri-
fiuto aprioristico di soluzioni tecnologiche adottate da decenni in
tutti i paesi industriali avanzati;
• la sistematica opposizione ad ogni tentativo di dotare il Paese di in-
frastrutture vitali per la continuità dello sviluppo e per il migliora-
mento della qualità della vita della popolazione;
• la preclusione dogmatica dell’energia nucleare, che penalizza il
Paese non solo sul piano economico e dello sviluppo, ma anche nel
raggiungimento di obiettivi di razionalizzazione e compatibilità
ambientale nel sistema energetico.
Il clima di oscurantismo in atto rischia di contribuire all’allontana-
mento dei giovani dai corsi di studio a indirizzo scientifico, ormai con-
notati di significati antiumanitari e antiambientali, alimentando un
Galileo 2001 9

processo che rischia di prefigurare un futuro di dipendenza anche cul-


turale, oltre che economica, del Paese.
La scienza non produce miracoli e non è, di per sè, foriera di cata-
strofi. Da sempre essa è parte integrante e trainante dell’evoluzione
della società umana, motore primario di progresso sociale, economico,
sanitario e ambientale.
Sulla base di questa consapevolezza, scienziati, ricercatori, tecnici
di ogni estrazione culturale e di ogni credo, estranei ad ogni interesse
industriale e consci del fatto che l’impegno scientifico non deve
confondersi con le pur legittime convinzioni di ordine ideologico, po-
litico e religioso, si levano a contrastare questa opera di disinformazio-
ne e di arretramento culturale, rivendicando il valore della scienza co-
me fonte primaria delle conoscenze funzionali al progresso civile, sen-
za distorsioni e filtri inaccettabili.
Ci costituiamo nel movimento Galileo 2001 per la libertà e la di-
gnità della Scienza, aperti alle adesioni più qualificate, sincere e disin-
teressate.
Chiediamo alle associazioni scientifiche e culturali di impegnarsi
disinteressatamente, assieme alle istituzioni, in una indifferibile batta-
glia per un’informazione competente e deontologicamente corretta.
Ci rivolgiamo alla società civile, agli operatori dell’informazione
più attenti e ai rappresentanti politici più avveduti perché sappiano
raccogliere questo messaggio e ci aiutino a superare le barriere del
fondamentalismo e della disinformazione.
Vogliamo che il nuovo secolo sia anche per il nostro Paese – che ha
dato i natali a Galileo, Volta, Marconi e Fermi – quello della verità
scientifica e della ragione, tanto più consapevoli quanto più basate sul-
le conoscenze e sul sapere. Esse forse non saranno sufficienti, ma sono
certamente necessarie.

Membri Fondatori:
Franco Battaglia, Università di Roma Tre
Carlo Bernardini, Università di Roma La Sapienza
Tullio Regge, Premio Einstein per la Fisica
Renato Angelo Ricci, Presidente onorario Società Italiana di Fisica; già
Presidente Società Europea di Fisica
10 I costi della non-scienza

Giorgio Salvini, Accademico dei Lincei, già Ministro della Ricerca


Scientifica
Gian Tommaso Scarascia Mugnozza, Professore emerito, Università
della Tuscia; Accademia Nazionale delle Scienze
Ugo Spezia, Segretario Generale Centro Internazionale per la
Documentazione e l’Informazione Scientifica (CIDIS)
Umberto Tirelli, Direttore Divisione Oncologia Medica, Istituto
Nazionale Tumori di Aviano

Membri del Comitato Promotore:


Franco Bassani, Presidente Società Italiana di Fisica
Argeo Benco, già Presidente Associazione Italiana di Radioprotezione
Paolo Blasi, già Rettore Università di Firenze
Edoardo Boncinelli, Istituto San Raffaele, Milano
Luciano Caglioti, Università di Roma La Sapienza
Cinzia Caporale, Università di Siena
Giovanni Carboni, Università di Roma Tor Vergata
Francesco Cognetti, Presidente Associazione Italiana di Oncologia
Medica
Guido Fano, Università di Bologna
Gianni Fochi, Scuola Normale Superiore di Pisa, Università di Pisa
Andrea Frova, Università di Roma La Sapienza
Silvio Garattini, Istituto Mario Negri, Milano
Roberto Irsuti, Direttore 21mo Secolo, Milano
Silvio Monfardini, Direttore Divisione Oncologia Medica, Ospedale
Universitario di Padova
Giovanni Vittorio Pallottino, Università di Roma La Sapienza
Franco Panizon, Professore emerito, Università di Trieste
Ernesto Pedrocchi, Politecnico di Milano
Carlo A. Pelanda, Condirettore Globis, University of Georgia, USA
Carlo Salvetti, Vice-Presidente Associazione Italiana Nucleare
Paolo Sequi, Presidente della Società Italiana per la Scienza del Suolo
Angelo Spena, Università di Verona
Paolo Vecchia, Dirigente di Ricerca, Istituto Superiore di Sanità
Giancarlo Vecchio, Università di Napoli, Presidente Società Italiana di
Cancerologia
Igino Zavatti, Coordinatore Associazione Nuova Civiltà delle Macchine
11

Consiglio Direttivo

RICCI Prof. Renato Angelo Presidente


SALVINI Prof. Giorgio Presidente Onorario
VERONESI Prof. Umberto Presidente Onorario
BATTAGLIA Prof. Franco Vice Presidente Vicario
BERNARDINI Prof. Carlo Vice Presidente
REGGE Prof. Tullio Vice Presidente
TIRELLI Prof. Umberto Vice Presidente

Consiglieri

CAGLIOTI Prof. Luciano


CAPORALE Prof.ssa Cinzia
PALLOTTINO Prof. Giovanni Vittorio
SALA Prof. Francesco Giuseppe
SALVETTI Prof. Carlo
SCARASCIA MUGNOZZA Prof. Gian Tommaso
SEQUI Prof. Paolo
SPEZIA Ing. Ugo
TRENTA Prof. Giorgio Nazzareno
VECCHIA Prof. Paolo

Collegio Sindacale

ROMITI Dr. Bruno Presidente


CARBONI Prof. Giovanni Sindaco Effettivo
COGNETTI Prof. Francesco Sindaco Effettivo
BRESSANI Prof. Tullio Sindaco Supplente
FANO Prof. Guido Sindaco Supplente

Segretario Generale

ROSATI Sig.ra Angela


13

INTRODUZIONE

Giorgio Salvini 1
Presidente Onorario Galileo 2001

L’
Associazione Galileo 2001 ha molto appropriatamente scelto il
tema del Principio di Precauzione per presentarsi per la prima
volta all’attenzione del pubblico, degli organi d’informazione e
dei responsabili politici. Il titolo più preciso del volume – che racco-
glie le relazioni presentate al I Convegno Nazionale dell’Associazione,
tenutosi a Roma il 19 febbraio 2004, ospitato nella sede del Consiglio
Nazionale delle Ricerche – che è anche quello del convegno stesso, è
Il Principio di Precauzione: i costi della non-scienza.
Il volume comincia con le prolusioni del presidente, Renato Ange-
lo Ricci e di Umberto Veronesi, che assieme a me ricopre la carica di
presidente onorario dell’associazione. Ricci, che è stato per 17 anni
presidente – ora onorario – della Società Italiana di Fisica. Ricci, che
durante la sua carriera di fisico non ha mai trascurato un ininterrotto
impegno civico di partecipazione alla vita del nostro paese, ci spiega le
motivazioni della nascita dell’Associazione. Un’alleanza per la scienza,
la chiama Umberto Veronesi, una figura ben nota al grande pubblico
e che, per l’impegno profuso nella lotta contro uno dei più terribili
mali che affliggono l’umanità e per la sua carica di umanità è nel cuore
di tutti gli italiani.
Le relazioni vere e proprie sul tema cominciano con quella di Fran-
co Battaglia, cui va il riconoscimento di aver voluto che quello del
Principio di Precauzione fosse il tema della conferenza. Battaglia, dopo
averci reso partecipe degli eventi personali che lo hanno convinto ad
impegnarsi ad affermare le finalità di Galileo 2001, discute con dovi-
zia di particolari i limiti e, soprattutto, i rischi del Principio di Precau-

1 Ex Ministro alla Ricerca Scientifica


14 I costi della non-scienza

zione. Più disincantati – a tratti divertenti, ma non per questo meno


efficaci – sono le relazioni di Carlo Bernardini e di Tullio Regge, due
pilastri della fisica italiana d’oggi. Le implicazioni dell’applicazione
letterale del Principio di Precauzione alla medicina sono invece consi-
derate da Umberto Tirelli, direttore di una divisione di oncologia al
Centro Tumori di Aviano.
Il resto del volume contiene trattazioni dettagliate su specifici
esempi. Francesco Sala, direttore degli Orti Botanici dell’Università di
Milano, avverte come l’applicazione del Principio di Precauzione per
limitare l’uso dell’ingegneria genetica in agricoltura può rivelarsi un
vero suicidio in ordine alla salvaguardia dei nostri prodotti tipici. Una
limitazione che, invece – avverte Ingo Potrykus, professore emerito di
Biologia vegetale all’Università di Zurigo – diventa quasi omicidio:
centinaia di migliaia di bambini poveri del mondo muoiono o diventa-
no ciechi per carenza di vitamina A, essendo questa assente nel loro
quasi unico cibo, il riso. Di cui ne esiste una varietà, geneticamente
modificata, ricca di beta-carotene, precursore metabolico della vitami-
na A.
Le distorsioni dell’applicazione del Principio di Precauzione alla pre-
venzione dell’inquinamento dei suoli sono ben illustrate da Paolo Se-
qui, direttore dell’Istituto Nazionale di Nutrizione delle Piante. Paolo
Vecchia, uno dei maggiori esperti italiani degli effetti sanitari dei campi
elettromagnetici, e da poco nominato presidente dell’ICNIRP (la Com-
missione internazionale per la protezione dalle radiazioni non-ioniz-
zanti), invece, ben ci spiega come sia priva di fondamento la preoccu-
pazione eccessiva, recentemente nata in Italia, in ordine ai rischi deri-
vanti dall’esposizione a quei campi. Ci ricorda Paolo Vecchia come
ogni spesa eseguita per proteggerci da quei campi, senza salvare nessu-
no da nessun rischio, sottrae di fatto risorse pubbliche da emergenze
reali e accertate.
In nome del Principio di Precauzione molte realtà locali del nostro
paese rifiutano quel che altrove è la norma: la messa in opera di ince-
neritori per i rifiuti. Il risultato paradossale – il paese esporta rifiuti –
diventa inquietante, visto che il “prodotto” esportato abbisogna della
scorta militare: del paradosso dei rifiuti ci rende partecipe Luciano
Caglioti.
L’ultima relazione è di Cesare Marchetti, che ci parla di economia a
Introduzione 15

idrogeno. L’idrogeno è il nuovo sex symbol energetico. Difficile dire se


esso sarà mai il protagonista dell’economia del futuro. In ogni caso,
avverte Marchetti, le dimensioni dei volumi energetici richiedono la
fonte nucleare per la produzione dell’idrogeno di cui il mondo avreb-
be bisogno. Al momento, il Principio di Precauzione frena, nell’opinio-
ne pubblica, lo sviluppo di quella fonte. In Italia, più che un freno vi è
stato un abbandono. Ma non una rinuncia: il 18% dell’energia elettri-
ca che consumiamo la importiamo dalle fonti nucleari d’oltralpe.
Ce n’è quanto basta per riflettere.
16 I costi della non-scienza
17

INDIRIZZO DI SALUTO

Roberto De Mattei
Sub-Commissario CNR

Signore e Signori,

porto con piacere il saluto del Consiglio Nazionale delle Ricerche e


mio personale al convegno sul Principio di Precauzione che si apre og-
gi, per iniziativa dell’Associazione Galileo 2001, nelle sale del CNR.
Il vostro convegno contribuirà certamente a far maggior luce su un
“principio” che resta ancora avvolto da un velo di mistero per l’ambi-
guità che lo contraddistingue e che ne rende estremamente difficile
una definizione. Più che di principio giuridico, si dovrebbe parlare, a
mio avviso, di un generico “approccio”, che si situa in un incerta zona
di confine tra la scienza, il diritto, la politica e l’etica.
La prima e la più nota esplicitazione del principio di precauzione,
quella della Conferenza di Rio del 1992, recita all’articolo 15, che «in
caso di rischi di danni gravi o irreversibili, l’assenza di certezze scienti-
fiche non deve servire come pretesto per rinviare l’adozione di misure
efficaci volte a prevenire il degrado dell’ambiente»: una affermazione
che sembra implicare, sicut litterae sonant, un trasferimento di diritti
dall’uomo, che è il soggetto giuridico per eccellenza, all’ambiente, en-
tità indefinibile a cui riesce ben difficile attribuire personalità giuridica.
Le successive formulazioni del Principio di Precauzione, che ne
hanno fatto un cardine della politica ambientale in Europa – come
quelle dei trattati di Maastricht e di Amsterdam, la Comunicazione
della Commissione del 2 febbraio 2000, la direttiva comunitaria del 17
aprile 2001 e le sentenze della Corte Europea di giustizia – hanno af-
fiancato all’ambiente l’uomo come possibile soggetto a rischio, affer-
mando la necessità di «tutelare preventivamente, accanto all’ambien-
te, la salute umana».
Questo secondo tipo di formulazione può sembrare giudiziosa e
come tale viene percepita dall’opinione pubblica, che vede nell’idea di
18 I costi della non-scienza

“precauzione” uno strumento di difesa di fronte allo sviluppo vertigi-


noso delle nuove tecnologie e alla loro diffusione.
Tuttavia, anche l’espressione più mitigata del principio di precau-
zione pone molti problemi.
Va ricordato, innanzitutto, che il Principio di Precauzione non deve
essere equiparato al principio di prevenzione. Quest’ultimo prevede
l’utilizzo di mezzi finalizzati alla rimozione di un rischio scientifica-
mente accertato e dimostrabile, mentre il Principio di Precauzione ha
lo scopo di fornire elementi per un intervento di base quando la scien-
za non è in grado di dare risposte certe su rischi inaccettabili per la
collettività.
Il Principio di Precauzione scatta cioè, tutte le volte che ci si trova
in presenza di una situazione di incertezza scientifica, fa dell’incertez-
za scientifica il suo presupposto. Ma proprio la premessa del Principio
di Precauzione (l’assenza di certezza scientifica), come è stato notato,
può essere usata come un grimaldello per tutto e il contrario di tutto.
La certezza scientifica è sempre assente, per la natura stessa della ri-
cerca. Uno scienziato non potrà mai dirsi sicuro che una sostanza non
abbia alcun effetto negativo, perché, per fare una simile affermazione,
dovrebbe aver testato tutti i possibili effetti negativi, il che è pratica-
mente e logicamente impossibile 1.
Non a torto, il prof. Franco Battaglia afferma che «il Principio di
Precauzione si sostituisce arbitrariamente ad un’analisi e gestione dei
rischi effettuata in modo scientifico» e «dà l’occasione per sostituire il
dubbio presente in ogni affermazione scientifica con arbitrarie certez-
ze» 2. Battaglia aggiunge che «il rischio del principio di precauzione è
che quello spazio di dubbio lasciato dalla scienza potrebbe venir riem-
pito da affermazioni arbitrarie che, dando voce solo ai singoli risultati
della scienza che tornano di volta in volta comodi, consente ad alcuni
la razionalizzazione dei loro interessi di parte in aperto contrasto con
gli interessi della collettività e con l’analisi critica della totalità delle
acquisizioni scientifiche» 3. Fondato, sull’enfatizzazione del rischio, il

1
Steven Milloy, Science without Sense, Cato Institute, Washington, DC, 1996
2
Franco Battaglia, Elettrosmog, un’emergenza creata ad arte, Leonardo Facco
Editore, 2002, p. 109
3 Franco Battaglia, loc. cit. p. 109
Indirizzo di saluto 19

Principio di Precauzione corre a sua volta un grave rischio: quello di ri-


dursi a semplice “precauzione mediatica” da parte di chi teme di assu-
mersi delle responsabilità davanti alle preoccupazioni della comunità
politica che rappresenta.
Il rischio è, cioè, che il Principio di Precauzione finisca con l’essere
uno strumento di interessi politici, guidato dai media, piuttosto che
una garanzia della salute dei cittadini.
Sul piano giuridico, l’elemento costitutivo del Principio di Precau-
zione è l’inversione di un principio fondamentale del diritto occiden-
tale: il principio dell’onere della prova. Il Principio di Precauzione af-
ferma infatti che l’uomo è responsabile non solo di ciò che sa, o do-
vrebbe sapere, ma anche di ciò che ignora o su cui dubita: diversa-
mente da quanto avviene in base al principio “chi inquina paga”, nel
Principio di Precauzione la dimostrazione di un rapporto causale tra
l’attività umana e il danno ambientale non spetta ex post ai danneggia-
ti, ma ex ante ai produttori dell’ipotetico danno 4.
Il concetto che emerge è quello di una giustificazione previa, che
dovrà costituire il culmine di un procedimento a carico del produtto-
re 5. Significativa appare a questo proposito la definizione di Jean Ma-
lafosse: “Il Principio di Precauzione si traduce nell’inversione dell’onere
della prova con lo scopo della tutela dell’ambiente” 6.
Si potrebbe obiettare che il principio dell’onere della prova rap-
presenta un cardine del diritto privato, ma non si applica in maniera
altrettanto chiara ed automatica al diritto pubblico, in cui l’interesse
della collettività deve prevalere su quello del singolo. Ma se il soggetto
tutelato deve essere prima dell’ambiente l’uomo, anche sotto questo
aspetto, il Principio di Precauzione non risolve, ma anzi apre il delicato
problema del rapporto, non solo economico, tra costi e benefici. In
una situazione di incertezza scientifica infatti l’approccio cautelare
non apporta necessariamente un beneficio al soggetto che vuole tute-

4 Alexandre Kiss-Dinah Shelton, Traitè de Droit Eeuropéen de l’Environment,

Frison Roche, Paris 1995, p. 42.


5 Cathèrine Giraud, Le Droit et le principe de précaution: leçons d’Australie,

“Revuè Juridique de l’Environnement”, p. 33.


6 Jean Malafosse, La Semaine Juridique-Edition Génerale n. 52 (1998), pp.

2273-2276.
20 I costi della non-scienza

lare. In assenza di certezze scientifiche, chi può dire infatti se una


azione innovativa comporti per l’uomo maggiori rischi o benefici?
Il Principio di Precauzione quindi a dispetto del suo nome, può ri-
velarsi estremamente rischioso, come è emerso dall’incidente aereo di
Linate dell’ottobre 2001, che si sarebbe potuto evitare se si fosse in-
stallato un adeguato radar. In nome della tutela da inquinamento elet-
tromagnetico, grazie alle norme volute sulla base del Principio di Pre-
cauzione, l’installazione di quel radar subì 10 mesi di ulteriore ritardo,
e molte vite sono andate perdute.
In realtà, la storia del progresso umano è inseparabile dall’idea di
rischio. D’altra parte se il Principio di Precauzione fosse condotto alla
sua ultima coerenza giuridica dovrebbe condurre a una forma di
“proibizionismo” assoluto, vietando non solo l’uso degli alcolici e dei
tabacchi e limitando drasticamente quello delle automobili, ma ogni
innovazione e scoperta scientifica che, in quanto nuova, comporta
sempre, per definizione, un margine di incertezza e di rischio. Permet-
tetemi di aggiungere che questo proibizionismo non ha nulla a che fa-
re con quello della morale tradizionale. Nel suo rapporto con la scien-
za, l’etica non nega il progresso, ma solo un suo sviluppo disordinato,
mentre l’idea di precauzione, assunta a nuovo principio etico-giuridi-
co implica la negazione dell’idea stessa di ogni progresso e rischia di
trasformarsi dunque in principio di regressione dell’umanità.
Su questi temi io sono intervenuto da umanista voi parlerete con
ben maggior competenza da scienziati. Vi formulo i miei più sinceri
auguri di buon lavoro.
21

PERCHÉ GALILEO 2001

Renato Angelo Ricci


Presidente dell’Associazione Galileo 2001

E
sattamente un anno fa – il 19 febbraio 2003 – si è costituita la
nostra Associazione. Per questo, il 19 febbraio sarà d’ora in
poi la data del nostro Convegno Nazionale. Ma Galileo 2001
era già un movimento nato due anni prima, il 17 luglio 2001, a seguito
di una serie di iniziative che si proponevano di dare corpo ad una esi-
genza ormai esplicita di buona parte della comunità scientifica nazio-
nale: affermare la necessità del valore primario della scienza, in parti-
colare nelle questioni ambientali.
Oggi l’ufficio o compito di occuparsi delle sorti del pianeta, della
salvaguardia dell’ambiente naturale, dell’habitat umano, della salute,
viene svolto da molti – panel internazionali, agenzie, commissioni, asso-
ciazioni varie, organizzazioni più o meno volontarie – e si rifà non solo
e non tanto a vocazione o idealità, ma ormai – il che potrebbe essere in-
teso come dovere sociale e assenso politico necessario – a impegno so-
cio-economico che dovrebbe avere un solido supporto tecnico-scientifico.
Tuttavia, mentre il dato socio-politico e la sua estrapolazione eco-
nomica e perfino finanziaria (il business ecologico) è più che acquisito,
tanto da esser divenuto – negli ultimi decenni – patrimonio della bu-
rocrazia di potere, oltre che strumento di condizionamento pubblico,
il dato tecnico-scientifico, indispensabile per comprendere e governare
il problema è lungi dall’essere adeguatamente assicurato.
Ne consegue che la consapevolezza sociale e la responsabilità poli-
tica non sempre si trovano nella condizione o nella capacità cognitiva
di seguire, approfondire ed accettare l’evoluzione scientifica e le sue
ricadute tecnologiche, e di appropriarsi di una cultura adeguata e dif-
fusa, necessaria alla definizione di posizioni e decisioni conseguenti e
basate su conoscenze affidabili.
22 I costi della non-scienza

Nella difficile fase decisionale, al fine di affrontare un problema


d’interesse per la salvaguardia dell’ambiente e della salute e che vede i
responsabili politici coinvolti in prima persona, occorre tener presen-
te, per ogni singolo problema, quali siano i fattori dominanti e con-
centrare su di essi l’attenzione se non si vuole correre il rischio di im-
piegare risorse, a volte anche ingenti, senza ottenere giovamenti ap-
prezzabili. In altri termini, il contributo scientifico alla valutazione dei
problemi ambientali impone un approccio quantitativo che è condizio-
ne almeno necessaria per la corretta interpretazione dei criteri precau-
zionali e della loro collocazione in termini della cosiddetta sostenibi-
lità dello sviluppo della civiltà umana.
Pertanto, chiave di volta di questo processo – che, per essere vir-
tuoso, deve liberarsi da condizionamenti ideologici – è l’informazione.
Da tempo ormai si pone la questione dell’informazione scientifica
ai fini di una cultura adatta all’attuale evoluzione della società, in par-
ticolare nei paesi industrialmente avanzati.
Assumono particolare rilievo le conoscenze scientifiche che si con-
frontano con posizioni ambientaliste che, anche se dettate apparente-
mente da preoccupazioni legittime per il rispetto della natura e la sal-
vaguardia della salute umana, si contraddistinguono per la carenza di
fondamenti scientifici accertati e per il loro dogmatismo fondamenta-
lista, foriero di allarmismi infondati.
Casi esemplari sono la demonizzazione dell’energia nucleare,
l’ostracismo alle ricerche biotecnologiche e ai procedimenti tecnolo-
gici avanzati in tema di smaltimento dei rifiuti, il problema dei resi-
dui radioattivi, il problema dell’uranio impoverito, il catastrofismo
correlato ai cambiamenti climatici imputati all’effetto serra di origine
antropica e, infine, il cosiddetto elettrosmog o inquinamento elettro-
magnetico.
È un paradosso della società moderna – e in particolare nel nostro
paese – che, mentre da una parte gli aspetti scientifici e tecnologici di-
ventano sempre più importanti per il nostro modo di vivere, dall’altra
l’educazione scientifica del pubblico in generale continua a ridursi.
Questo si traduce in un allontanamento dalla concezione scientifi-
ca di ogni valutazione che abbia a che fare con problemi socio-econo-
mici e – ciò che è ancora più grave – con decisioni politiche riguar-
danti lo sviluppo culturale, l’ambiente e la salute, con in più l’aggra-
Introduzione 23

vante culturale di considerare, quasi preliminarmente, ogni azione


umana non solo criticabile ma addirittura pericolosa.
Per questo deve essere respinta un’impostazione ideologica che
metta l’uomo sul banco degli accusati (e quali sarebbero gli accusatori
degni di un tribunale totalitario?) con paradossale atteggiamento ma-
sochista, e ponga la natura su un piedestallo come un totem immaco-
lato ed immutabile.
Due sono i motivi di preoccupazione al riguardo: l’irrazionalità
delle posizioni di un ambientalismo radicale che fa leva sull’emotività
delle popolazioni senza alcun serio riscontro scientifico, da una parte,
e una informazione, da parte dei mass-media, che privilegia il catastro-
fismo e la notizia spettacolare spesso deformata, se non addirittura fal-
sa, dall’altra.
Questi fantasmi che si aggirano fra la gente, portatori di un oscu-
rantismo antiscientifico che imputa alla scienza catastrofi immaginarie
pretendendone d’altra parte interventi e miracoli impossibili (quasi a
titolo espiatorio) rischiano di abbassare il livello culturale e la capacità
critica dell’opinione pubblica nonché la consapevolezza degli ammini-
stratori pubblici.
Vi sono ormai numerosi esempi non solo di disinformazione ma an-
che e soprattutto di ingannevole diffusione di pseudo conoscenze e di
dati incerti e inaffidabili che, lungi dal portare un doveroso contributo
alle conoscenze necessarie alle valutazioni sociali e utili alle decisioni
politiche, distorcono i messaggi e confondono l’opinione pubblica.
Un caso significativo, che del resto ha costituito il motivo di par-
tenza delle iniziative che hanno spinto alcuni di noi alla costituzione
del Movimento Galileo 2001, è stato e rimane quello del cosiddetto
elettrosmog. Questo problema, che dovrebbe semmai riferirsi come ri-
schio sanitario da campi elettromagnetici è esemplare per il battage ca-
tastrofista di buona parte degli organi di comunicazione e l’inquina-
mento – qui è il caso di dirlo – culturale e sociale che ha prodotto e
tuttora sta producendo. Ciò ha costretto buona parte della comunità
scientifica a prendere posizione nel corso della passata legislatura e ad
inviare un appello al Presidente della Repubblica al riguardo.
Cito un passo significativo:
«Recentemente in Italia, nell’incuranza dell’analisi critica di tutte le
risultanze scientifiche effettuate da molteplici organismi scientifici in-
24 I costi della non-scienza

dipendenti e ufficialmente riconosciuti, per affrontare il cosiddetto in-


quinamento elettromagnetico si sono predisposti atti e normative che,
dal punto di vista della rilevanza sanitaria, sono destituiti di ogni fon-
damento scientifico».
Un altro esempio illuminante è quello delle posizioni acritiche e
demagogiche riguardanti la ricerca e l’utilizzazione degli OGM (orga-
nismi geneticamente modificati), in particolare nel campo agroalimen-
tare. Anche in questo caso, nel 2001 si assistette alla clamorosa prote-
sta dei mille scienziati (i premi Nobel Renato Dulbecco e Rita Levi
Montalcini in testa, ma anche Edoardo Boncinelli, Silvio Garattini,
Tullio Regge, Angelo Spena, fin oltre 1.500, in verità) contro un vero e
proprio atteggiamento oscurantista dell’allora Ministero delle Politi-
che Agricole (ministro in carica Pecoraro Scanio) nei riguardi della ri-
cerca scientifica sugli OGM.
Non ci soddisfò allora il modo in cui tale manifestazione fu ricon-
dotta a più miti consigli né, del resto, ci soddisfa oggi una politica mi-
nisteriale che non sembra accogliere né comprendere il vero significa-
to culturale e sociale delle ricerche in campo biotecnologico. E ci
preoccupano iniziative demagogiche di certi governi regionali che,
sulla scia dei messaggi di un certo fondamentalismo ambientalista
miope e oscurantista, assumono posizioni e sollecitano timori popolari
ingiustificati e, a volte, purtroppo, incontrollabili.
Il modo stesso in cui sono considerati altri problemi, quali lo svi-
luppo tecnico-economico, la questione energetica e lo smaltimento dei
rifiuti, in particolare quelli tossici e radioattivi, e la difficoltà nel trat-
tarli e nell’avviarli a soluzione, rendono queste preoccupazioni ancora
più pesanti se si pensa che, all’origine di tali difficoltà, vi è essenzial-
mente una carenza di considerazione delle analisi e delle conoscenze
scientifiche.
Mi piace qui sottolineare alcune indicazioni che, nel 2001, allora
come Commissario Straordinario dell’ANPA (Agenzia Nazionale per
la Protezione dell’Ambiente – oggi APAT) segnalai per affrontare al
meglio i problemi ambientali in sede istituzionale:
«• considerare essenziali, e quindi promuovere, il patrimonio di
conoscenze e competenze tecnico-scientifiche esistente all’interno del-
le Istituzioni e collegarle maggiormente con il sistema informativo;
• privilegiare scientificamente ed operativamente la qualità della
Perché Galileo 2001 25

raccolta, dell’analisi e della diffusione dei dati e delle conoscenze am-


bientali con riferimento all’approccio quantitativo».

Occorre far rilevare come questo approccio quantitativo abbia va-


lore non dogmatico, ma anche che l’oggettività scientifica, entro i suoi
limiti operativi, è comunque la più affidabile.
Sono la portata e il significato dell’indagine scientifica che devono
essere meglio conosciuti. Per questo noi dicevamo e diciamo:
«Il fatto che le conoscenze scientifiche, per la natura stessa del me-
todo d’indagine e di verifica dei risultati, si accreditino con spazi di
dubbio sempre riducibili ma mai eliminabili, costituisce l’antidoto
principale verso ogni forma di dogmatismo, scientismo, intolleranza e
illiberalità, ma non può giustificare il considerare tali conoscenze opi-
nabili e, peggio, inattendibili.
La voce della scienza è certamente più affidabile e anche umana-
mente – oltre che intellettualmente – più consapevole delle voci in-
controllate e dogmatiche che, fuori di ogni rilevanza scientifica, pre-
tendono di affermare verità basate sull’emotività irrazionale tipica del-
le culture oscurantiste».
È in effetti fuorviante la pretesa di richiamarsi alle incertezze scien-
tifiche da cui deriverebbero le contraddizioni nell’informazione e le
confusioni nell’interpretazione, di nuovo per difetto di conoscenza
della metodologia scientifica. Sarebbe interessante ricordare osserva-
zioni, opinioni ed illazioni che da tempo si sono manifestate e si mani-
festano confondendo i problemi sotto analisi e i dati sotto verifica con
affermazioni intempestive e non dotate della sufficiente cautela in tema
di acquisizione.
È curioso – val la pena di notare – come il Principio di Precauzione
che viene invocato ad ogni pie’ sospinto qualunque sia la portata di un
eventuale segnale di attenzione – anche in contrasto con chiare indica-
zioni tecnico-scientifiche, ambientali e sanitarie – non viene adottato
per evitare allarmismi ingiustificati (a proposito: che ne è del reato di
procurato allarme?), sostituendoli con raccomandazioni più serene ed
anche – pure questo è un dovere – con segnali più rassicuranti.
Un caso tipico, oltre a quelli già citati, è quello dei cambiamenti cli-
matici, che non possono essere delegati soltanto all’invenzione di mo-
delli sempre più sofisticati, assumendo come ipotesi – sia pure neces-
26 I costi della non-scienza

sarie, ma non sufficienti, parziali e riduttive – quali l’effetto serra di


origine antropica, e richiedono una valutazione più approfondita di ri-
cerche e dati osservazionali e storico-geofisici, in termini scientifica-
mente affidabili.
E qui occorre un riferimento esplicito: sulla base del Principio di
Precauzione e partendo da considerazioni eccessivamente allarmistiche
relative all’eccesso di contributi antropici alla emissione di gas-serra, si
è costruito il paradosso del Protocollo di Kyoto che, da una parte, san-
cisce le restrizioni atte a ridurre tali emissioni (al 95% di quelle del
1990 entro il 2012),1 dall’altra non affronta quantitativamente l’effetto
di tali interventi (non più dello 0,05 per mille sul contenuto totale di
CO2 in atmosfera) di fronte ai costi (notevoli, per non dire enormi)
dell’operazione.
Interviene qui pertanto un confronto emblematico tra un criterio
puramente politico quale il Principio di Precauzione e uno scientifica-
mente e socialmente più accettabile quale il rapporto rischi/benefici.
In effetti, i 3 concetti fondanti della cultura ambientale corrente
sono: lo sviluppo sostenibile, il Principio di Precauzione e il rapporto ri-
schi/benefici.
Val la pena di ricordare come il primo (dizione classica: lo sviluppo
è sostenibile se soddisfa i bisogni del presente senza compromettere le
possibilità delle future generazioni di soddisfare i propri) sia un criterio
originariamente economico in cui ci si pone il problema del futuro
(occhio al futuro), tanto è vero che il termine “sostenibile”, che deriva
dalla traduzione del testo inglese “sustainable”, è in realtà associato
all’originaria espressione in francese “developpement durable” (svilup-
po durevole).
Le due espressioni non pongono soltanto una questione nominali-
stica, ma hanno finito per assumere significati concettuali diversi o
complementari in cui la questione ambientale diventa un elemento in-
dispensabile (sostenibilità), oppure integrata nel progresso socio-eco-
nomico (durata).

1 Trascurando il fatto che già oggi, per esempio in Europa, si è in largo ecces-

so rispetto all’obbiettivo proposto di una riduzione globale del 6%; in Italia, di


fronte a un eccesso attuale del 4,4%, la riduzione prevista del 6,5% diventerebbe
quindi dell’11%.
Perché Galileo 2001 27

Da ciò, le interpretazioni estremistiche (ambientalismo radicale) e


quelle razionali (compatibilità funzionale al progresso).
La prima accentua i limiti e i freni del concetto di precauzione, la
seconda tende a privilegiare – ed è questo il nostro punto di vista – il
rapporto rischi/benefici.
È in effetti il secondo criterio, cioè il Principio di Precauzione (og-
getto del nostro dibattito) a costituire gli elementi di maggiore ambi-
guità. L’enunciato standard adottato, ad esempio, dal trattato di Maa-
stricht (U.E. 1992) non è diretto ma circonvoluto (e quindi è tutt’altro
che un criterio scientifico) e sostiene che: Al fine di proteggere l’am-
biente, il P.d.P. deve essere largamente applicato dagli Stati a seconda
delle loro possibilità. Quando vi siano pericoli (minacce) di danni seri e
irreversibili (ecco quindi la definizione più o meno chiara) la mancan-
za di certezza scientifica piena non dovrà essere usata come una ragione
per posporre misure economicamente efficaci per prevenire il degrado
ambientale.
Che sia un criterio ambiguo, o per lo meno tortuoso, è dimostrato
da termini quali la «certezza scientifica piena (sic!)» e concetti quali
«non posporre per prevenire». Lascio ai colleghi, in particolare a Tul-
lio Regge, l’illustrazione dei trucchi verbali che ammantano tale Prin-
cipio nelle innumerevoli enunciazioni. Mi basterà qui accennare al ri-
piego cui lo stesso trattato della U.E. ricorre con il paragrafo 3, ove
cerca di correre ai ripari affermando che «nel preparare la sua politica
ambientale la Comunità dovrà tener conto dei dati scientifici e tecnici
disponibili così come dei benefici potenziali e dei costi, sia delle azioni
(prese) che della mancanza di azioni».
Se dovessimo applicare tale raccomandazione al Protocollo di Kyo-
to, per esempio, dovremmo dar ragione agli Stati Uniti e alla Russia
che non hanno ratificato e non ratificheranno tale trattato.
E siamo, ovviamente, al rapporto costi/benefici (intendendo costi
in senso lato, economici, sociali, ambientali, sanitari o anche di vite
umane). Questo stesso criterio, come ho già accennato, è non solo il
più ragionevole e comprensibile (si definisce da solo), ma effettiva-
mente l’unico praticabile, anche in termini quantitativi e quindi
scientificamente e socialmente più accettabile. Per dirla con l’amico
Franco Battaglia, esso precede o contiene il principio di priorità, che
specifica e quantifica gli interventi correnti con una valutazione con-
28 I costi della non-scienza

creta delle conseguenze delle nostre azioni in senso sia negativo che
positivo.
Una volta introdotto, il criterio del rapporto rischi/benefici diviene
uno strumento, se concepito in termini integrati (economia, salute,
ambiente, scientificità), più adeguato per gestire i veri problemi e le
possibili emergenze.
Può essere interessante far notare come tale concetto sia collegato
ad una evoluzione socio-politica che, partendo da posizioni concettua-
li esagerate in un senso (minimizzazione dei rischi ed enfatizzazione
dei benefici) abbia via via portato ad una esagerazione opposta (enfa-
tizzazione dei rischi e minimizzazione dei benefici). Il tutto certamen-
te legato a valutazioni spesso troppo qualitative. È la scienza che ha
dato e può dare un inestimabile contributo (perché misurabile e quan-
titativo) al bilanciamento corretto dei due termini-confronto.
In effetti, si consideri come ci si rapporta rispetto ad ogni processo
evolutivo (dinamica della società).2 Un cambiamento può rendere il
mondo o più sicuro o più pericoloso. Bisogna prendere in considerazio-
ne entrambi i casi.
In un mondo perfetto si potrebbe sempre distinguere fra i due casi
in modo schematico (si/no). Nel mondo reale ciò non è possibile, e si
presentano due tipi di errori.
L’errore di primo tipo può enunciarsi così:
Un cambiamento, in realtà pericoloso, viene ritenuto invece tale da
rendere il mondo più sicuro (esempi tipici: l’uso dell’amianto e del ta-
lidomide).
L’errore di secondo tipo è così esprimibile:
Un cambiamento che migliora la sicurezza (sostanzialmente benefi-
co) viene invece considerato pericoloso (esempi: beta bloccanti, DDT,
OGM). È chiaro che il concetto di cambiamento qui va inteso in sen-
so lato relativo all’utilizzazione di strumenti, di tecnologie, di approcci
innovativi, etc.
La sfida intellettuale, ma anche socio-politica, è trovare il giusto
punto di equilibrio, ed è evidente che il parametro di misura è il rap-
porto rischio/beneficio. Da una parte vi è il pericolo di correre troppo

2
Queste considerazioni sono riprese da Statistica e teorie della decisione di
Fred Smith (Competitive Enterprise Institure, Conferenza ALEPS, Parigi, 2000).
Perché Galileo 2001 29

(futuribilità, innovazione esasperata), dall’altra quella di star fermi


(immobilismo tecnologico).
A questi due estremi corrispondono le due concezioni limite sopra
accennate: da un lato un mondo sotto-cautelato (processi di industria-
lizzazione forzata, ad esempio) dall’altro un mondo sopra-cautelato
(principio di precauzione esasperato). Cum granu salis verrebbe da di-
re e forse, o senza forse, la scienza ha da dire la sua.
La scienza non è foriera di catastrofi né dispensatrice di miracoli.
Malgrado sia un messaggio difficile da far passare – a causa dell’edu-
cazione e dell’informazione comune – occorre ribadire l’informazione
corretta sulla metodologia scientifica che procede fra dubbi e verifi-
che e che su questa base dà ragionevoli certezze e non si affida a dog-
mi di sorta.
La chiave di volta – ripeto – è l’informazione scientifica, un’infor-
mazione serena ed obiettiva, che deve costruire un doveroso riferi-
mento per gli addetti alla comunicazione da una parte e, dall’altra, un
impegno delle comunità scientifiche per evitarne la distorsione e l’uso
strumentale interessato.
31

UN’ALLEANZA PER LA SCIENZA

Umberto Veronesi 1
Presidente Onorario dell’Associazione Galileo 2001

R
ingrazio gli organizzatori per questo invito. Sono stato tra i pri-
mi sostenitori di questo Movimento, quindi mi fa piacere vede-
re come stia crescendo e stia avendo anche il successo di pub-
blico che si merita.
Partendo proprio dall’osservazione del distacco che si è creato tra
il mondo della scienza e la società, un distacco non nuovo, accentuato
dal fatto che la scienza di oggi ha assunto un’evoluzione vigorosa, gra-
zie al fatto che sono entrate nel mondo scientifico nuove aree di svi-
luppo, quali: l’informatica, le biotecnologie, le telecomunicazioni, che
non esistevano fino a pochi decenni fa e che hanno dato un’accelera-
zione notevole. Come sempre, quando si va molto velocemente c’è
una reazione che è proporzionale e contraria alla velocità dell’evolu-
zione.
D’altro canto, questa dissociazione non è nuova se pensiamo
all’enunciazione della teoria eliocentrica di Copernico che è del 1543.
Se andiamo a guardare la storia del secolo successivo, il cittadino eu-
ropeo ha incominciato a pensare che forse Copernico aveva ragione
solo verso la fine del ’600, quindi un secolo e mezzo dopo. C’è sempre
un lungo periodo di riflessione – chiamiamolo così – prima di accetta-
re le grandi novità.
D’altra parte la storia della scienza è stata una storia a singhiozzo.
Abbiamo avuto periodi di grandi accelerazioni e di battute d’arresto,
se pensate che nella Mesopotamia di 4000 anni fa nel giro di cento an-
ni è stato scoperto l’aratro, l’irrigazione, l’astronomia, la scuola, buona
parte del linguaggio; per poi avere un lungo periodo di silenzio fino al

1 Ex Ministro alla Salute


32 I costi della non-scienza

quarto/quinto secolo avanti Cristo, quando in Grecia Talete, Zenone,


Empedocle, Pitagora, per non parlare di Aristotele e di Platone, han-
no di nuovo messo le basi per il pensiero logico e per la razionalità del
pensiero scientifico. Poi di nuovo silenzio, fino a quando Ibn Rushd e
Ibn Sina hanno ripreso e riscoperto il pensiero greco, per poi arrivare
all’Umanesimo e al Rinascimento e all’avvio, con l’Illuminismo, del
pensiero scientifico moderno di cui oggi vediamo i frutti.
Una storia difficile, influenzata dai fattori che hanno sempre condi-
zionato, e che anche oggi condizionano, lo sviluppo scientifico, e cioè il
potere politico da una parte, e il potere religioso e i movimenti di opi-
nione da un’altra. Molto è stato già detto sul potere politico e sulle sue
influenze sulla scienza. Per molti secoli nel mondo dell’assolutismo lo
scienziato è stato visto con sospetto, perché chi è ricco di conoscenza
ha un potere che può essere minaccioso. Lo scienziato è ancor oggi vi-
sto con diffidenza e il mondo della scienza è fortemente condizionato
dal pensiero politico. Certamente non c’è molto amore per la scienza in
gran parte degli uomini politici. Per di più oggi si è sovrapposto un fe-
nomeno contingente: che lo sviluppo scientifico e la ricerca di oggi so-
no sempre più costosi e richiedono sempre più finanziamenti. Finan-
ziamenti che non possono che essere prevalentemente pubblici. Per
questo vengono premiate quelle ricerche promettenti risultati a breve
termine che sono quelli, dal politico stesso, in qualche maniera fruibili.
Questo porta ad uno spostamento dell’impegno finanziario a favore
della ricerca applicata penalizzando fortemente la ricerca di base, pro-
blema che abbiamo davanti a noi quotidianamente: tutti sappiamo che
senza una forte ricerca di base la ricerca applicata si impoverirà. Ecco
che, soprattutto in un mondo in cui il ricambio dei governi è abbastan-
za rapido, il pensiero di chi regge le sorti del Paese è quello di avere ri-
sultati a breve termine, e questo non può che venire dalla ricerca appli-
cata. La ricerca pura è una ricerca che richiede una cultura strategica
che spesso manca nel mondo politico di oggi.
Per quanto riguarda il potere religioso, sappiamo che c’è una base
logica per il dissidio tra il mondo della scienza ed il mondo della reli-
gione. Il mondo della scienza si sviluppa all’interno di un orizzonte ra-
zionale ed il mondo della religione si sviluppa all’interno di un oriz-
zonte di fede, metafisico. Non è quindi facile conciliare i due elemen-
ti. Non voglio dare giudizi storici, ma basta ricordarsi che Socrate do-
Un’alleanza per la scienza 33

vette bere la cicuta per aver affermato di non credere negli dei
dell’Olimpo. E poi il nostro sodalizio si chiama “Galileo” e questo già
ci ricorda come Galileo Galilei abbia rappresentato la grande dimo-
strazione della difficoltà della scienza a svilupparsi all’interno di un
mondo pervaso dalla fede. Ci sono state delle eccezioni certamente:
Gregor Mendel, un monaco all’interno di un convento, ha scoperto le
basi della genetica, e Copernico stesso era un religioso, era un canoni-
co, aveva preso i voti. Infatti, io mi sorprendo sempre come abbia po-
tuto (in quel periodo, la metà del ’500) aver scritto un libro così forte,
così violento nei riguardi anche delle concezioni bibliche del mondo,
il famoso volume De Revolutionibus orbium coelestium e che fu posto
sul suo letto di morte due giorni prima che concludesse la sua esisten-
za. Mi chiedo come abbia potuto avere questo coraggio: un libro che
ha lasciato in eredità un rivolgimento delle idee, che doveva avere in-
fluenze enormi sulla visione del ruolo dell’uomo nell’universo, giacché
da quel momento l’uomo doveva smettere di credersi al centro
dell’universo. Quindi un capovolgimento anche filosofico di grandi
proporzioni. Se ci pensiamo bene, Copernico ha potuto fare questo
perché l’Europa era scossa da una fortissima incertezza a livello teolo-
gico dovuta allo scisma luterano di pochi anni prima.
Se guardiamo in questi giorni la legge sulla fecondazione assistita,
vediamo che è fortemente influenzata da pensieri che non sono razio-
nali, che non sono pensieri di scienza ma sono pensieri di fede e quin-
di dobbiamo renderci conto che ancora oggi siamo in questo dibatti-
to, forse meno violento (non ci porterà certo a guerre di religione), ma
dobbiamo rendercene conto e prenderne atto, e naturalmente agire
con la nostra solita fermezza. Lasciando libero ad ognuno il proprio
pensiero, la propria fede, ma pensando che in un mondo che è sempre
più pluralistico, sempre più policonfessionale, una religione non deve
avere il sopravvento sulle altre o su chi non ha il bisogno della fede.
Il terzo problema che è venuto fuori e da cui voglio prendere spun-
to dopo le bellissime parole del nostro presidente, è quello della rea-
zione popolare da cui è nato proprio il PdP, perché è un principio
ideologico e politico, non certo un principio scientifico. La precauzio-
ne non è quantificabile, è un atteggiamento dell’uomo come la pru-
denza, come il coraggio o come la voglia di conoscere. Sono tutti at-
teggiamenti naturali che si sono sviluppati nei millenni e quindi niente
34 I costi della non-scienza

hanno a che vedere con l’indagine e la riflessione scientifica. Per secoli


la scienza è stata un fenomeno elitario ristretto a pochissime persone,
fino a quando nel ’600 (e poi nel ’700 con l’Encyclopedie di D’Alam-
bert e di Diderot) ha incominciato a conquistare al mondo della scien-
za la classe borghese, conquista che poi è stata tra le premesse della ri-
voluzione francese. Successivamente, questa divulgazione della scien-
za si è estesa in maniera così considerevole che oggi la scienza è alla
portata di tutti grazie ai mezzi di comunicazione di massa, alla stampa,
alla televisione e alla radio e ad internet.
Questo va benissimo sotto certi aspetti: non possiamo che essere
lieti che la scienza penetri nel pensiero della popolazione. Ma, pur-
troppo, gli strumenti di informazione non sono certamente alla ricerca
della verità, sono alla ricerca di sensazionalismo, di vendere i giornali
o di avere più audience, e quindi questo inevitabilmente porta ad una
distorsione dell’informazione. Questo diverso modo di comunicare la
scienza a sua volta può essere strumentalizzato. I giornali possono es-
sere influenzati da pensieri ideologici o da movimenti politici o da
movimenti popolari o dal bisogno di creare un livello di sottocultura
nella popolazione, perché la popolazione meno colta è più facilmente
manovrabile, e l’abbiamo visto nel PdP come negli OGM. Come si fa
a non reagire al fatto che in questo decennio vengono messi a fuoco
alcuni ettari di mais perché contengono lo 0,5 per mille di mais modi-
ficato, quando tutto il mondo sa che il mais geneticamente modificato
è chiaramente migliore del mais naturale? Il presidente del Comitato
Nazionale Biosicurezza e Biotecnologia, Leonardo Santi, ha parlato
del caso Di Bella come di un caso sintomatico. Io ho vissuto il caso
della mucca pazza, altrettanto sintomatico: un allarmismo assoluta-
mente ingiustificabile. Oggi la popolazione è persa, non sa cosa pensa-
re degli embrioni soprannumerari, della fecondazione assistita, del di-
ritto a non farsi curare, del diritto o del dovere alle cure, del consenso
informato, degli OGM o dell’utero in affitto o della clonazione tera-
peutica, o della futura clonazione dell’uomo, che arriverà prima o poi.
Hanno clonato una pecora, poi un cavallo, poi un asino e quindi arri-
verà un giorno in cui troveremo una donna che ci dirà: «questo bam-
bino l’ho clonato da me stessa». Ormai siamo alle soglie di questi av-
venimenti e quindi è proprio su questa base che noi tempo fa avevamo
detto: «guardate che le potenzialità delle biotecnologie come quelle
Un’alleanza per la scienza 35

dell’informatica, come quelle delle telecomunicazioni sono esplosive e


siamo solo all’inizio. Siamo solo ai primi vagiti di una scienza che ha
possibilità enormi». Questo ci impone il dovere di sederci intorno ad
un tavolo e di pensare che l’Europa crei una “camera alta” che non sia
politica, che sia l’insieme di uomini di scienza ma anche di filosofi, di
teologi, che discutano e che comincino a disegnare la società del futu-
ro, perché certamente questa rivoluzione scientifica, deve continuare
ad avere una funzione civilizzatrice, ma ci porrà davanti a temi certa-
mente difficili. I limiti che devono essere posti non devono essere det-
tati dalla paura, perché la paura è sempre una cattiva consigliera.
Per concludere, ripeto sempre che il nostro più grande nemico è
l’ignoranza. A mio parere occorre una grande umiltà per non schierar-
si senza approfondimenti perché l’ignoranza non dà nessun diritto né
a credere né a non credere, e l’etica deve avere una funzione di guida
e non di freno allo sviluppo del pensiero scientifico.
37

IL PRINCIPIO DI PRECAUZIONE:
PRECAUZIONE O RISCHIO?

Franco Battaglia
Università di Roma Tre

Sommario

S
osterremo qui l’opportunità, se non la necessità, di sopprimere
il Principio di Precauzione (PdP). Il PdP è, innanzitutto, mal po-
sto: la certezza scientifica è sempre assente. Poi, esso è ambiguo,
visto che può essere invocato sia per intraprendere un’azione che la
sua opposta. Infine, il PdP è, a dispetto del suo nome, rischiosissimo,
come numerosi esempi testimoniano. Con le facili critiche cui l’enun-
ciato si espone, chiamarlo “principio” è quanto meno azzardato.
Quindi, l’enunciato del PdP non ha nulla che gli consente di fregiarsi
dell’appellativo di “principio”, e non ha nulla a che vedere con la
“precauzione”. Termino con un appello alle società scientifiche affin-
ché riflettano sull’opportunità di promuovere, presso i livelli istituzio-
nali, azioni atte alla soppressione del PdP ed, eventualmente, se pro-
prio si sentisse il bisogno di un principio guida, di sostituirlo col Prin-
cipio di Priorità, che viene enunciato.

Breve storia della nascita di Galileo 2001

In considerazione del fatto che questa relazione è presentata in oc-


casione del I congresso nazionale dell’associazione Galileo 2001 –
l’evento con cui l’associazione stessa si presenta al pubblico – mi fa
piacere far precedere la relazione vera e propria dal racconto di come
l’associazione nacque.
Tutto cominciò nel 1999 – mia figlia Cleis andava ancora alla scuo-
la materna – quando mia moglie mi chiese se ci saremmo dovuti
preoccupare dell’elettrosmog. Se ne sentiva parlare, quasi tutti i gior-
38 I costi della non-scienza

ni, in tutti i canali radiotelevisivi, nazionali e locali, e se ne leggeva in


tutta la carta stampata, quotidiana, settimanale e mensile: centinaia di
bambini in Italia, si diceva e scriveva, avevano contratto la leucemia a
causa dell’inquinamento elettromagnetico. A difenderci da questa
nuova peste – venivamo nel contempo informati – ci avrebbe pensato
il Ministero dell’Ambiente, per diretto e personale interesse (un inte-
resse indubbiamente molto personale, vedremo) del ministro di allora,
Willer Bordon e del suo sottosegretario Valerio Calzolaio, approntan-
do leggi severissime che, con la modica spesa di centomila miliardi di
vecchie lire, avrebbero salvato i nostri bambini.
Per rispondere alla preoccupata domanda di mia moglie, consultai
i rapporti, contenenti l’analisi critica della totalità delle risultanze
scientifiche, rilasciati dalle più accreditate istituzioni: Associazione
americana di fisica (APS), Organizzazione mondiale della sanità
(OMS), Agenzia internazionale per la ricerca sul cancro (IARC),
Commissione internazionale per la protezione dalle radiazioni non-io-
nizzanti (ICNIRP), Associazione americana di medicina, l’americano
Istituto nazionale di cancerologia (NCI). Dopo un paio d’ore di lettu-
ra, ebbi la risposta per mia moglie: l’elettrosmog non esiste.
Avevo passato anni della mia vita ad eseguire, nell’isolamento del
mio studio, calcoli quantomeccanici su sistemi molecolari che, tutto
sommato, interessavano me e altri quattro gatti al mondo. La sorte mi
aveva offerto l’opportunità di rendermi utile, e così decisi di telefona-
re alla redazione di quello che ritenevo fosse il più rispettabile quoti-
diano italiano, chiedendo di parlare con un capo-redattore.
– Mi chiamo Franco Battaglia – esordii – e sono docente al Dipar-
timento di Fisica dell’Università di Roma Tre: v’interessa un articolo
sull’elettrosmog?
– E come no, professore, è l’argomento del giorno! Ma, mi racco-
mando, non sia troppo tecnico. Sa… i nostri lettori… Piuttosto, cosa
vorrebbe scrivere?
– Beh, scriverei, e motiverei, che l’elettrosmog non esiste.
– Allora no, non c’interessa.
– Ma come… le leucemie… i bambini… la gente terrorizzata…
Riprovai con altri quotidiani. Niente da fare: lo schema della con-
versazione fu lo stesso. Finché Il Giornale di Cervi e Belpietro si mo-
strò interessato, e accettò l’articolo «Elettrosmog: tanti allarmismi per
Il principio di precauzione: precauzione o rischio? 39

nulla» 1. Iniziò così una collaborazione, e altri articoli seguirono: «Da


Copernico al biotech, la guerra alla scienza», «L’auspicabile ritorno al
nucleare», «La bufala dell’effetto serra», «Bugie sugli OGM», «L’ec-
cessiva paura alle radiazioni» 2.
Gli articoli dovettero solleticare l’attenzione di Maurizio Belpietro,
che incaricò una delle sue penne più brillanti d’intervistarmi. Giancarlo
Perna produsse un’intervista che uscì a piena pagina, con tanto di mia
foto 3. Succo dell’intervista: in tutto quello che avevo scritto nei miei
precedenti articoli non v’era una parola di mio, essendomi io limitato a
riportare la voce della comunità scientifica accreditata. A tamburo bat-
tente, il ministro verde Gianni Mattioli telefonò al Giornale chiedendo
un’intervista anche per lui: di nuovo, piena pagina con tanto di foto del
ministro 4. Succo dell’intervista a Mattioli: Battaglia è un asino. Perna –
che dev’essere uno spirito scientifico – aveva bisogno di un terzo parere,
e andò da Tullio Regge: per la terza volta, piena pagina con foto (di
Regge) 5. Il verdetto del premio Einstein per la fisica ed ex europarla-
mentare del Pci non fu salomonico: il somaro è Gianni Mattioli 6.
Tutta questa pubblicità mi portò all’attenzione di Renato Angelo
Ricci, presidente per 17 anni (ora onorario) della Società Italiana di

1 Il Giornale, 27.9.2000.
2 Si veda Il Giornale, alle date: 18.7.2000, 4.9.2000, 15.9.2000, 27.9.2000.
3 G. Perna, «Il catastrofismo è un’arma elettorale», Il Giornale, 22.10.2000.
4 G. Perna, «Il ministro va alla guerra contro il Prof. Battaglia», Il Giornale,

31.10.2000.
5 G. Perna, «L’astrofisico assolve l’ammazza-ecologisti», Il Giornale,

12.11.2000.
6 Inutile specificarlo, Regge – da gentiluomo qual è – non apostrofò così Mat-

tioli, ma certamente lo sconfessò su ogni tema affrontato nelle interviste di Perna.


Anche se – mi ha raccontato più di un collega – corre il pettegolezzo che Mattioli
sia stato così apostrofato in pubblico da Edoardo Amaldi, a proposito delle stra-
vaganti idee che lo stesso Mattioli andava diffondendo in tema di energia nuclea-
re. Non so se il pettegolezzo sia fondato, però sono incline a ritenerlo plausibile.
Il mio parere personale è che Amaldi – altrimenti fiore all’occhiello della fisica
italiana – quella volta non azzeccò proprio la valutazione su quel suo studente,
come inconfutabilmente i fatti dimostrano: il primo, deve aver serbato nel cuore,
sino all’ultimo giorno della sua vita, l’amarezza di aver assistito allo smantella-
mento della fisica e dell’ingegneria nucleare in Italia; il secondo ha saputo brucia-
re in modo folgorante tutte le tappe della carriera politica, così inconfutabilmen-
te dimostrando d’essere tutto fuorché un asino.
40 I costi della non-scienza

Fisica. Ricci volle conoscermi e, al nostro primo incontro, dopo aver-


mi informato che per vent’anni egli aveva cercato di smascherare le
numerose bugie ambientaliste, osservò che – a quello scopo – bisogna-
va unire le forze della comunità scientifica sensibili alle bugie degli
ambientalisti e compiere una qualche azione significativa. Decidemmo
di inviare al Presidente Ciampi una lettera aperta, nella quale gli apri-
vamo gli occhi sulla bugia di tutte le bugie: l’elettrosmog. La firmam-
mo in cinque ma, una volta diffusa, fu sottoscritta da centinaia di fisi-
ci, biologi, oncologi, pediatri e radioprotezionisti 7.
Un giorno ci trovavamo – Ricci, l’ingegnere nucleare Ugo Spezia,
l’oncologo Umberto Tirelli e io – ad attendere una giornalista della
Rai che voleva intervistarci sull’elettrosmog. Eravamo in una saletta
dell’ospedale S. Raffaele di Roma. Durante l’attesa, Ugo Spezia disse
che avremmo dovuto costituire un Movimento, Renato Ricci aggiunse
che l’avremmo potuto chiamare Movimento Galileo, che Umberto Ti-
relli corresse in Galileo 2001. Io, che sono un inguaribile individuali-
sta e non provo alcun entusiasmo per le azioni “collettive”, credo mu-
gugnai disinteresse o, forse, contrarietà. Comunque, sulla mia isolata
apatia prevalse l’entusiasmo degli altri tre: nacque così il Movimento
Galileo 2001.
Bisogna anche sapere che Renato Angelo Ricci gode – presso qual-
cuna delle persone a lui amiche – dell’appellativo di uomo bionico 8. Se
lo merita: il giorno dopo quel meeting al S. Raffaele, Ricci trasmise a
noi altri tre il testo del Manifesto del Movimento Galileo 2001, per
eventuali correzioni o aggiunte. Non ne fu necessaria alcuna: il testo
fu distribuito, così come partorito da Ricci la notte precedente, a tutti
i sottoscrittori dell’appello a Ciampi sull’elettrosmog, i quali rinnova-
rono quella sottoscrizione. Da parte sua, il presidente Ciampi ci parte-
cipò della sua simpatia decidendo di mettere il neonato Movimento
Galileo 2001 sotto le ali protettive del Suo alto patronato. Rivelando,
il nostro stimato Presidente della Repubblica, una tanto gradevole
quanto inattesa vena rivoluzionaria.

7Per il testo della lettera a Ciampi e l’elenco dei firmatari, si consulti il sito
dell’associazione: www.galileo2001.it
8 Comunicazione personale della signora Angela Rosati (ora Segretario Gene-

rale dell’Associazione).
Il principio di precauzione: precauzione o rischio? 41

La stessa vena, però, mancava proprio ai fondatori del Movimento.


Infatti, quando alcune vicende parallele portarono alcuni di noi a rico-
prire l’incarico di membri del comitato scientifico dell’Agenzia nazio-
nale protezione ambiente (ANPA), di cui Ricci era appena stato nomi-
nato Commissario governativo, pensammo bene che quelle questioni
ambientali che ci stavano a cuore avremmo potuto riportarle entro i
binari delle conoscenze scientifiche accreditate attraverso la via “isti-
tuzionale”. Il Movimento Galileo 2001 subì un periodo di sosta, ma
all’ANPA il comitato scientifico – da me coordinato – si mise al lavoro
per produrre rapporti (ne produsse nove) su quei temi che erano stati
oggetto dei miei primi articoli sul Giornale. Nel comitato scientifico
dell’ANPA c’erano, tra gli altri, Paolo Vecchia (che ora è presidente
dell’ICNIRP), Franco Panizon (professore emerito di clinica pediatri-
ca all’Università di Trieste), Francesco Sala (Direttore degli Orti bota-
nici dell’Università di Milano), Argeo Benco (ex presidente dell’Asso-
ciazione italiana di radioprotezione). C’erano, insomma, sui temi di
cui il comitato si sarebbe dovuto occupare, elementi tra i migliori rap-
presentanti della comunità scientifica italiana. I rapporti di quel comi-
tato sono oggi leggibili sia dal sito del Ministero dell’Ambiente che da
quello dell’Associazione Galileo 2001, www.galileo2001.it.
L’associazione nacque quando – concluso il periodo di commissa-
riamento dell’ANPA e quindi esauriti i doveri istituzionali di alcuni di
noi (tra cui, soprattutto, quelli di Ricci, che del Movimento Galileo
2001 era la forza trainante) – ci si rese conto che molto lavoro sarebbe
stato ancora da fare in ordine alla diffusione della corretta informazio-
ne scientifica su questioni in cui i movimenti ambientalisti e le loro
bugie l’avevano fatta da padroni. E così, ripresa l’iniziativa da dove
era stata lasciata durante la parentesi all’ANPA, il 19 febbraio 2003 ci
si ritrovò di nuovo tutti 9, e di fronte al notaio si diede vita all’Associa-
zione Galileo 2001, per la libertà e dignità della scienza.

9 In ordine alfabetico: Franco Battaglia, Argeo Benco, Carlo Bernardini, Tul-

lio Bressani, Luciano Caglioti, Cinzia Caporale, Giovanni Carboni, Francesco


Cognetti, Guido Fano, Rodolfo Federico, Gianni Fochi, Gianvittorio Pallottino,
Tullio Regge, Renato Angelo Ricci, Angela Rosati, Francesco Sala, Carlo Salvetti,
Giorgio Salvini, Tommaso Scarascia Mugnozza, Paolo Sequi, Ugo Spezia, Um-
berto Tirelli, Giorgio Trenta, Paolo Vecchia, Umberto Veronesi.
42 I costi della non-scienza

Il primo importante impegno dell’associazione è stato l’organizza-


zione del convegno nazionale annuale. Il tema del convegno – il Prin-
cipio di Precauzione – nasce dalla seguente considerazione. Numerose
azioni che alcuni vorrebbero intraprendere (o hanno intrapreso) in
nome della protezione dell’ambiente, non avrebbero alcuna giustifica-
zione essendo fondate su falsità scientifiche, cioè su bugie. Per attuare
quelle azioni sarebbe stata necessaria una giustificazione giuridica cui
appigliarsi, ed è stata trovata, appunto – penso io – nel Principio di
Precauzione.

Enunciato del principio

Recentemente abbiamo avuto modo di sentire invocato il Principio


di Precauzione (PdP) a sostegno di scelte politiche su questioni di pro-
tezione della salute o dell’ambiente. Penso che il principio andrebbe
al più presto soppresso per le ragioni che ora esporrò. Sia ben chiaro:
la precauzione è una cosa tanto sacrosanta quanto difficilmente conte-
stabile, e senz’altro da prendere in ogni attività umana. Ma il PdP, ten-
tativo di dare forma giuridica all’azione della precauzione, sembra es-
sersi rivelato un fallimento, non solo inutile ma anche, come vedremo,
dannoso. Il PdP può enunciarsi come formulato nell’articolo 15 della
Dichiarazione di Rio del 1992:
«Where there are threats of serious or irreversible damage, lack of
full scientific certainty shall not be used as a reason for postponing
cost-effective measures to prevent environmental degradation».
Mi si consenta di tradurlo così 10:
«Ove vi siano minacce di danno serio o irreversibile, l’assenza di
piena certezza scientifica non deve servire come pretesto per posporre
l’adozione di misure, efficaci rispetto ai costi, volte a prevenire il de-
grado ambientale».

Il principio di precauzione è malposto ed ambiguo

Solo a chi non ha un’educazione scientifica può passare inosserva-


to il fatto che esso è malposto: la piena certezza scientifica è sempre as-

10 F. Battaglia, Le Scienze 394, 110 (2001).


Il principio di precauzione: precauzione o rischio? 43

sente. Certamente non è passato inosservato alla Commissione del-


l’UE, che però, anziché rifiutare il principio, ha tentato, un po’ arram-
picandosi sugli specchi e aggiungendo problemi anziché risolverne, di
giustificarlo e di stabilirne i limiti d’applicabilità. In ogni caso, secon-
do il rapporto della commissione dell’UE, una condizione necessaria
(ma non sufficiente!) per invocare (non per applicare!) il principio, è
che i rischi siano stati individuati: non è sufficiente ipotizzarli 11.
Come detto, la «piena certezza scientifica» è sempre assente, giac-
ché il dubbio è nella natura stessa della Scienza. Il rischio del PdP è
che quello spazio di dubbio lasciato dalla Scienza potrebbe essere
riempito da affermazioni arbitrarie che, dando voce solo ai singoli ri-
sultati scientifici che tornano di volta in volta comodi, consentano ad
alcuni la razionalizzazione dei loro interessi di parte in aperto contra-
sto con quelli della collettività e con l’analisi critica della totalità delle
acquisizioni scientifiche. E il passo da affermazione arbitraria a (finta)
certezza è breve.
Il Pdp, inoltre, è ambiguo: esso può essere invocato sia per adottare
una certa misura, sia per adottare la misura opposta. Un esempio chia-
rirà la situazione che potrebbe prospettarsi. La scienza ci dà la piena
certezza che un’infezione evolva spontaneamente verso la guarigione?
No, quindi, in nome del PdP, decidiamo di somministrare la penicilli-
na. Ma la scienza ci dà la piena certezza che la penicillina non provo-
chi uno shock anafilattico, e finanche la morte? No, quindi, sempre in
nome del PdP, ci asteniamo dal somministrare l’antibiotico.

Il principio di precauzione è rischiosissimo

Il più grave difetto del PdP, però, è che esso è rischiosissimo, il che
suonerebbe alquanto ironico se non fosse tremendamente tragico. An-
cora una volta, alcuni esempi chiariranno i termini della questione.

a) Nella bibbia ambientalista, la Primavera silenziosa di Rachael


Carson, scritta poco meno di 50 anni fa, il DDT veniva bollato come
«elisir della morte». A Ceylon, nel 1948, si avevano 2 milioni di casi di
malaria, che si ridussero a 31 casi nel 1962 grazie al DDT. Dopo la sua

11 http://europa.eu.int/comm/dgs/health_consumer/library/pub/pub07en.pdf.
44 I costi della non-scienza

abolizione, in nome, potremmo dire, di un PdP ante litteram, la mala-


ria ha ripreso a colpire milioni di persone.

b) Alla fine degli anni Settanta fu modificato in Inghilterra il me-


todo di lavorazione delle carcasse di ovini (per ottenere un integratore
alimentare proteico): mentre il procedimento precedente distruggeva
il prione (l’agente del morbo della mucca pazza), quello nuovo non
era in grado di farlo. Di per sé, l’uso di scarti di macelleria per pro-
durre mangime arricchito di proteine non ha nulla di grave 12 (certa-
mente, però, per precauzione, non si sarebbero dovute usare carcasse
di bestie malate). Per eliminare l’acqua e il grasso, gli scarti venivano
ridotti in polpa, riscaldati a 130°C sotto pressione e trattati con uno
dei tanti solventi organici adatto a sciogliere i grassi. La migliore scelta
non poteva che cadere sul diclorometano. Si sarebbe prodotto grasso
e mangime d’ottima qualità. E non contaminato dal prione infettivo,
che veniva distrutto dal procedimento. Sennonché i soliti ambientali-
sti avviarono una lotta al diclorometano, fondandosi su due argomen-
tazioni. La prima, alquanto cervellotica, sosteneva che siccome i cloro-
fluorocarburi (CFC) – che contengono atomi di cloro legati ad un ato-
mo di carbonio – distruggono l’ozono, lo stesso forse avrebbe fatto il
diclorometano (anch’esso contenente due atomi di cloro legati ad un
carbonio). La seconda argomentazione si faceva forte di una singola
pubblicazione scientifica che riportava l’aumento d’incidenza di can-
cro su topi esposti a diclorometano (topi che, peraltro, erano stati ge-
neticamente modificati in modo da essere particolarmente predisposti
a contrarre tumori). Le imprese britanniche vennero indotte ad ab-
bandonare il diclorometano e ad adottare un procedimento che, senza
far uso di solventi, trattava a soli 80°C le carcasse e poi le pressava.
Con quel procedimento il prione rimase inalterato, e si trasmise così
dal mangime alle vacche. Oggi sappiamo – magra consolazione – che

12 Qualcuno ha detto che la causa del caso della mucca pazza andava ricercata

nel fatto che erbivori erano stati forzati a diventare carnivori. Come osservato,
l’uso di quelle farine come integratore alimentare è perfettamente legittimo. D’al-
tra parte, alcuni anni fa fu necessario sterminare tutti i visoni di diversi alleva-
menti nel Wisconsin che avevano contratto quel morbo per essere stati nutriti
con farine animali infette: ma i visoni sono carnivori.
Il principio di precauzione: precauzione o rischio? 45

il diclorometano non è cancerogeno, e per azione della luce e dell’os-


sigeno si ossida decomponendosi rapidamente senza nuocere all’ozo-
no. Non è lontano dal vero sostenere che il caso mucca pazza è nato,
ancora una volta, da un uso inappropriato di un PdP ante litteram.

c) Come tutti sappiamo, la clorazione delle acque è forse il meto-


do più efficace di purificazione dell’acqua potabile: basta una piccola
concentrazione di ipoclorito per mantenere l’acqua libera da germi
patogeni pericolosi per la nostra salute. Forse l’acqua clorata non è il
massimo del gradimento, ma dobbiamo scegliere: il sapore cristallino
o l’assenza di pericolosi germi. Sempre grazie al solito articolo scienti-
fico che ipotizzava la rischiosità della clorazione delle acque in quanto
avrebbe potuto, presumibilmente, trasformare i residui organici pre-
senti nell’acqua in composti organoclorurati che, sempre presumibil-
mente, avrebbero potuto favorire l’insorgere di tumori, alla fine degli
anni Ottanta fu dichiarata la guerra al procedimento di clorazione del-
le acque. Nonostante la IARC (Agenzia Internazionale per la Ricerca
sul Cancro) e l’OMS (Organizzazione Mondiale della Sanità) avessero
pubblicato, nel 1991, un rapporto che affermava che non vi erano
prove tali da destare allarme e che, comunque, il rischio ipotetico an-
dava confrontato con quello certo che verrebbe dal bere acqua non
clorata, il governo peruviano, in quello stesso anno e in nome di un
PdP ante litteram, decise di interrompere la clorazione dell’acqua po-
tabile. Ne conseguì un’epidemia di colera che colpì, nei successivi 5
anni, un milione di persone, uccidendone diecimila.

d) Il PdP fu invocato nel momento in cui si chiesero le moratorie


sulle pallottole all’uranio impoverito. Per non far nascere lo scandalo,
bastava osservare che l’uranio subisce il decadimento con emissione di
particelle alfa (che sono fermate da un semplice foglio di carta), ha un
tempo di dimezzamento di 4,5 miliardi d’anni, è stato inserito dalla
IARC, rispetto al suo eventuale potere cancerogeno, nella stessa classe
ove vi è il tè, ed è naturalmente presente nella crosta terrestre con una
concentrazione di 1-10 mg/Kg (ad esempio, la Lombardia è una zona
ricca d’uranio e nei primi venti centimetri di crosta terrestre, intorno a
Milano, e per un’estensione pari a quella del Kosovo, la quantità
d’uranio è 10.000 volte superiore a quella sparata con i proiettili). For-
46 I costi della non-scienza

se la moratoria andrebbe fatta sulle guerre: ancora una volta, il PdP


sposta l’attenzione da un problema reale verso uno finto.

e) Il PdP viene invocato per giustificare l’abbandono del nuclea-


re come fonte energetica. In realtà, questo abbandono viene motivato,
oltre che con la necessità di evitare potenziali rischi da incidenti e da
contaminazione radioattiva, con altre tre scuse: l’energia nucleare sa-
rebbe costosa, non esiste soluzione al problema dei rifiuti radioattivi,
il mondo la sta progressivamente abbandonando. A noi interessano gli
aspetti del rischio, visto che di PdP si sta trattando. Tuttavia, un breve
commento sulle altre tre scuse non ce lo risparmiamo.
Ad esempio, si deve notare che l’energia elettrica in Francia (ove,
per l’80%, si produce con le 60 centrali nucleari lì attive) costa meno
della metà che in Italia. E anche a noi, quella che importiamo da fonte
nucleare da Francia, Svizzera e Slovenia, costa di meno di quella che
noi stessi produciamo in altri modi.
Non esiste alcuna attività umana che si prenda cura dei propri ri-
fiuti con la stessa sicurezza e professionalità dell’attività nucleare. A
questo proposito, rimando al libro di Piero Risoluti – uno dei massimi
esperti italiani nella gestione dei rifiuti radioattivi – che, con linguag-
gio semplice ma preciso, ci apre gli occhi su quest’ennesima bugia am-
bientalista 13: la realizzazione di un sito appropriato non è un’opzione,
ma un dovere civico verso noi stessi e verso le generazioni future. La
nota protesta occorsa nel 2003 a Scanzano Jonico in occasione del ten-
tativo da parte dell’attuale governo di realizzare un deposito unico na-
zionale per i rifiuti radioattivi, è stata un mirabile esempio di effetto
placebo all’incontrario: la gente di Scanzano Jonico ha protestato sen-
za rendersi conto, con la mancata realizzazione di quel deposito, di
stare a perdere l’occasione di veder realizzato in quel luogo un impor-
tante centro tecnologico e di ricerca 14 e di diventare così la comunità
meglio radioprotetta del Paese 15.

13 Piero Risoluti, I rifiuti nucleari: sfida tecnologica o politica? (con prefazione

di Tullio Regge), Armando editore, Roma 2003.


14 Perché questo è, un deposito di rifiuti radioattivi, e non “una discarica” co-

me viene spacciato.
15 Anche se le quantità di rifiuti radioattivi italiani non giustificherebbero,

forse, la realizzazione sotterranea del deposito, le recenti raccomandazioni inter-


Il principio di precauzione: precauzione o rischio? 47

Non è vero che il mondo sta abbandonando il nucleare. Lo decise


la Svezia nel 1980 quando aveva 12 centrali attive: oggi le centrali atti-
ve in Svezia sono 11, gli svedesi stanno ancora pagando le conseguen-
ze di quell’unica centrale chiusa e, comunque, la metà dell’energia
elettrica consumata in Svezia è da fonte nucleare.
Lo decise il governo tedesco diversi anni fa – quando le centrali
nucleari erano 19 – per accontentare i Verdi, senza i quali non avreb-
be potuto governare: oggi le centrali nucleari tedesche attive sono an-
cora 19. Tutte decisioni, quindi, rimaste lettera morta. Nel mondo,
piuttosto, vi sono attualmente una quarantina di centrali in costruzio-
ne, di cui due in Ucraina (la patria di Chernobyl), ove la metà
dell’energia elettrica continua ad essere da fonte nucleare. Le centrali
nucleari si fermarono veramente solo in Italia. Ma il Paese – contraria-
mente a quel che si dice – non ha “rinunciato” al nucleare: non pote-
vano esserci referendum “contro” il nucleare (lo vieta la nostra Costi-
tuzione).
Ed infatti, in conseguenza dei noti referendum, venne deciso non
l’abbandono ma una moratoria di 5 anni, e in qualunque momento si
potrebbe riprendere ad utilizzare questa fonte che, lontano dall’avervi
rinunciato, è diventata per noi una nuova forma d’importazione (il
17% dell’energia elettrica che consumiamo la importiamo dalle cen-
trali nucleari d’oltralpe): l’Italia ha rinunciato, semmai, alle ricadute
economiche, tecnologiche e occupazionali del nucleare 16.
Ma veniamo ai millantati rischi. Essi sarebbero di due tipi: la con-
taminazione radioattiva dell’ambiente e la possibilità di incidenti del
tipo di quello di Chernobyl.
Tutti noi siamo esposti alla radiazione naturale. La dose media an-
nua che ciascuno di noi assorbe dalle fonti naturali è di circa 2,2 milli-
Sievert (mSv). Le attività umane aumentano quella dose di circa il
20%, di cui oltre il 90% è dovuto alla diagnostica medica (tutti noi
subiamo, prima o poi, una radiografia). Comunque, esistono diverse
aree della Terra (in Brasile, in India) ove vi sono popolazioni esposte a

nazionali – conseguenti ai fatti dell’11 settembre – caldeggiano questa soluzione.


Inoltre, non è escluso – anzi, chi scrive nutre pochi dubbi in proposito – che in
Italia vi sia un ripensamento sul nucleare, ed avere già un sito geologico per i ri-
fiuti sarebbe più che auspicabile.
16 U. Spezia (a cura di), Energia nucleare, 21mo Secolo, Milano 1998.
48 I costi della non-scienza

dosi annue di anche 100 mSv, senza che si siano riscontrate in esse
maggiori incidenze di alcun tipo di malattia correlabile alle radiazioni.
Allora, le centinaia di test nucleari che le ragioni militari hanno pur-
troppo voluto, hanno influito pressoché zero sulla dose media di ra-
dioattività, e così sarebbe anche se tutta la radioattività da tutte le cen-
trali nucleari esistenti, per un’ipotetica serie d’incidenti, andasse a
contaminare l’ambiente. In definitiva, il rischio di contaminazione ra-
dioattiva dall’uso del nucleare è semplicemente inesistente 17.
Rimane il rischio di incidente. Effettivamente, questo esiste (ma
qual è l’attività umana che ne è esente?), come gli incidenti di Three-
Mile Island (1979) e di Chernobyl (1986) dimostrano. Il primo non ha
avuto effetti sanitari di nessuna natura. Il secondo è stato l’incidente
più grave mai occorso in 50 anni di uso civile del nucleare. Esso, però,
lungi dal dimostrare che il nucleare è pericoloso, ne testimonia, piut-
tosto, la sicurezza. L’UNSCEAR (la Commissione Onu sugli effetti
delle radiazioni atomiche) ha prodotto inequivocabili rapporti sugli
effetti, a 15 anni di distanza, dell’incidente di Chernobyl.
Ebbene, il verdetto è il seguente. Il giorno dell’incidente morirono
3 lavoratori della centrale (2 sotto le macerie dell’esplosione e uno
d’infarto). Nel mese successivo furono ricoverati in ospedale 237 – tra
lavoratori alla centrale e soccorritori – per dosi eccessive di radiazio-
ne; di essi 28 morirono nei successivi tre mesi. Dei rimanenti 209, ne
sono morti, a oggi, altri 14 (di cui uno in un incidente automobilisti-
co): gli altri 195, di quei 237 ricoverati per dosi eccessive di radiazio-
ne, sono ancora vivi. L’unico effetto sanitario statisticamente anomalo
e, quindi, attribuibile alla contaminazione radioattiva conseguente
all’incidente, è stato un enorme aumento nell’incidenza dei tumori alla
tiroide in individui che nel 1986 erano bambini: sono stati riportati, si-
no ad oggi, quasi 2000 casi. Di questi, 3 hanno degenerato sino al de-
cesso del malato. In conclusione, all’incidente di Chernobyl, il più
grave incidente dell’uso civile del nucleare, non sono attribuibili, sino
ad oggi, più di 48 morti: 31 (3+28) immediati, gli altri 17 (14+3)
nell’arco di 15 anni. Secondo il rapporto dell’UNSCEAR, nessun altro
disordine sanitario attribuibile alle radiazioni, diverso da quell’abnor-
me aumento di casi di tumore alla tiroide, è stato subito dalle popola-

17 Z. Jaworowski, Radiation risk and ethics, in: Physics Today 52, 24 (1999).
Il principio di precauzione: precauzione o rischio? 49

zioni vicine alla centrale. Se a questi 48 si aggiungono gli altri casi di


decesso a causa dell’attività nucleare per usi civili negli ultimi 50 anni
nel mondo, si perviene ad un totale di circa 100 morti. Il numero è de-
precabile quanto si vuole, ma l’attività di produzione energetica coi
combustibili fossili ha comportato, in soli 15 anni, 10.000 decessi per
incidenti 18. Ecco perché, dicevo prima, l’incidente di Chernobyl – coi
suoi 48 morti il più grave mai avvenuto – del nucleare ne dimostra
non la pericolosità ma, semmai, l’affidabilità.

f) Il PdP è stato invocato per bandire i prodotti agricoli genetica-


mente modificati. Senza che ci si rendesse conto che ogni eventuale ri-
schio non è nella tecnica in sé, ma va individuato caso per caso. Ingo
Potrykus, professore emerito di Botanica all’università di Zurigo, ha
inventato il golden rice, un riso che, mediante l’inserimento di tre geni
nel suo patrimonio genetico, diventa ricco di beta-carotene, la mole-
cola precursore della vitamina A. Milioni di persone nel mondo, a
causa delle condizioni di povertà, si alimentano quasi esclusivamente
di riso che, però, è un alimento totalmente privo di quell’importante
vitamina. La cui carenza destina alla cecità, quando non alla morte,
quei milioni che di essa soffrono. Per tutto ciò va ringraziato il PdP,
che è tuttora invocato per non immettere nel mercato il riso dorato
del prof. Potrykus.

g) Curiosamente, il PdP non viene invocato per bandire dal mer-


cato i prodotti biologici. Anzi, viene invocato per vieppiù diffonderli.
Eppure, essi sono i peggiori in commercio, dal punto di vista della si-
curezza alimentare. Vediamo perché. Bruce Ames, tossicologo di fama
mondiale, direttore del centro di salute ambientale a Berkeley e mem-
bro dell’Accademia nazionale americana delle scienze, è stato l’inven-
tore di un test – che da lui prende il nome – per individuare la presen-
za di sostanze mutagene. Ebbene, il test di Ames ha provato che il
50% delle sostanze di sintesi è cancerogeno, nel senso che su circa 500
sostanze sintetiche esaminate e somministrate a cavie con la massima
dose tollerabile, circa la metà è risultata positiva al test. Sennonché, lo
stesso test, eseguito con sostanze naturalmente presenti nei prodotti

18 U. Spezia (a cura di), loc. cit. (1998).


50 I costi della non-scienza

alimentari che comunemente ingeriamo, ha rivelato che anche tra que-


ste sostanze il 50% è cancerogeno. In ordine alfabetico, dall’aglio e
dall’albicocca, passando per la lattuga e il mais, sino alla soia e all’uva,
sono centinaia i prodotti che contengono altrettanti cancerogeni natu-
rali. Quindi, “naturale” non è meglio di “sintetico”. Ma qual è la per-
centuale relativa di cancerogeni naturali e di cancerogeni di sintesi che
tutti noi abitualmente ingeriamo? La risposta ce la conferma lo stesso
Ames: il 99,99% delle sostanze potenzialmente tossiche che ingeriamo
è già naturalmente presente nel cibo, e solo lo 0,01% è di provenienza
sintetica. Ho precisato “potenzialmente” perché la tossicità di una so-
stanza è stata determinata somministrandola a cavie in dosi vicine a
quella massima tollerabile (oltre la quale le povere bestie morirebbero
avvelenate). In pratica, di quelle sostanze ne ingeriamo dosi migliaia o
anche milioni di volte inferiori di quelle che sono risultate dannose ai
topi. E quelle naturali sono centomila volte più abbondanti di quelle
che rimangono nei cibi trattati con i fitofarmaci di sintesi.
Ma le piante non possono fare a meno di fitofarmaci 19. Se non
glieli somministra l’uomo in quantità controllate, la pianta se lo pro-
duce da sé il proprio fitofarmaco naturale e, a questo scopo, non usa
certo riguardi verso chi poi se la mangerà 20. È il caso di una varietà di
sedano biologico che induceva eczemi alla pelle dei coltivatori e dei
commercianti che lo maneggiavano in gran quantità: il sedano, per di-
fendersi da insetti parassiti, aveva decuplicato la produzione di psola-
reni, molecole con azione irritante; e anche cancerogena, visto che si
legano irreversibilmente al Dna, favorendo le mutazioni. Ed è il caso
di una patata biologica, rapidamente tolta dal mercato: per analoghe
ragioni, aveva più che decuplicato la produzione di solanina, risultan-
do, anche se cotta, tossica ai bambini delle scuole le cui mense erano
rifornite con cibo biologico 21. Ed è il caso dell’abnorme aumento di

19Paolo Sequi, Il racket ambientale, 21mo Secolo, Milano 1997.


20G. Fochi, Il segreto della chimica, Longanesi editore, 2001.
21 Meno danno ha fatto il caso, occorso nel settembre del 2002, nella mensa

della scuola elementare Mario Galli di Sesto S. Giovanni: i bambini si sono ritro-
vati a masticare, assieme al riso, anche vermicelli, con quei chicchi mimetizzati.
La ditta fornitrice si difese precisando che la presenza di quei vermi era dovuta al
fatto che il riso impiegato era, appunto, rigorosamente biologico.
Il principio di precauzione: precauzione o rischio? 51

aflatossine – pericolosi cancerogeni – riscontrato in varietà agricole


non trattate con fungicidi.
La tecnica di produzione biologica prevede anche che si usino ri-
medi omeopatici in caso di malattie. Chiunque sappia cos’è il numero
di Avogadro, sa anche che i prodotti omeopatici non possono avere al-
cun effetto (diverso, eventualmente, da quello placebo) 22. La ragione è
molto semplice.
La natura molecolare della materia vieta la possibilità di preparare
soluzioni aventi concentrazioni arbitrariamente piccole di soluti: me-
diante il procedimento delle diluizioni successive con le quali si pre-
parano i prodotti omeopatici, già in una soluzione acquosa omeopati-
ca classificata rispetto alla diluizione come CH12 non vi è neanche
una molecola di soluto, e ogni procedura di diluizione successiva è
priva d’ogni senso scientifico, essendo essa equivalente a diluire acqua
con acqua. Sennonché, le tipiche soluzioni omeopatiche hanno dilui-
zioni classificate come CH60, CH100 o anche CH200: senza timore di
essere smentiti esse non sono altro che, appunto, acqua pura (a parte
eventuali eccipienti). Allora – ci sarebbe da chiedersi – che garanzie si
hanno sulla fettina biologica ottenuta da un manzo che, eventualmen-
te ammalatosi, sia stato curato con i prodotti omeopatici, come la pra-
tica biologica prescrive?
In conclusione: le tracce di fitofarmaci normalmente presenti nei
prodotti tradizionali non aggiungono nulla alle sostanze potenzial-
mente tossiche e naturalmente presenti in quei prodotti. Le varietà
biologiche, invece, rischiano di contenere quantità abnormi di tossine
naturali, sia perché la pianta se le produce da sé, sia perché eventuali
malattie non sono trattate con metodi scientificamente codificati. Qui
si vede tutta l’ambiguità del PdP, che viene invocato non per bandire i
prodotti biologici, ma, addirittura per promuoverli.

22 Si potrebbe essere tentati di sostenere: tutto sommato, se il paziente sta


“meglio”, foss’anche solo in conseguenza dell’effetto placebo, perché non dare al-
la pratica omeopatica la stessa dignità delle pratiche che godono del sostegno
della scienza? La tentazione è allettante, ma bisogna essere consapevoli che que-
sta posizione comporterebbe che bisognerebbe dare così pari dignità anche a tut-
te quelle cure del cancro che si sono rivelate inefficaci, e anche alle pratiche
astrologiche e cartomantiche, dovesse chi a esse si rivolge riconoscerne gli effetti
benefici (e come non potrebbe, visto che, appunto, vi si rivolge?).
52 I costi della non-scienza

h) Un altro caso – forse il più clamoroso – d’invocazione del PdP,


a sproposito e con conseguenti danni, è quello in ordine al problema
del cosiddetto elettrosmog 23.
Riguardo ai campi elettromagnetici, bisogna distinguere quelli a ra-
diofrequenza da quelli a frequenza industriale. Per i primi, ogni studio
epidemiologico (di cui uno su 420.000 danesi) ha concluso che il fat-
tore di rischio degli esposti rispetto ai non esposti è addirittura mino-
re di 1: solo un’analisi affrettata farebbe concludere che quei campi
sono benefici; ma nessuna analisi ponderata potrebbe far concludere
che essi sono dannosi! Quindi, per i campi a radiofrequenza non vi
sono le condizioni non solo per applicare, ma neanche per invocare il
PdP: semplicemente non sono stati individuati rischi.
Sennonché: (i) Le norme protezionistiche italiane, uniche al mon-
do, volute in nome del PdP, han fatto sì che dei sei anni di ritardo
subìto dall’installazione del radar di Linate, dieci mesi sono da adde-
bitare proprio a quelle norme (bisognava verificare che il radar fosse
compatibile con le leggi italiane volute in nome del PdP). (ii) Queste
leggi – che i radioprotezionisti italiani, subendone l’umiliazione, han-
no sentito definire “stupide” da colleghi stranieri in sede di convegni
internazionali 24 – prevedono campi particolarmente bassi in prossi-
mità di strutture considerate a rischio (scuole, ospedali): furono 19 i
morti nell’incendio, occorso alla fine del 2001, nella struttura per disa-
bili vicino a Salerno, ove gli infermieri non poterono chiamare soccor-
so con i loro cellulari a causa dell’assenza di sufficiente campo. (iii).
Nel luglio del 2002, al largo della spiaggia di Pesaro, morirono anne-

23F. Battaglia, Elettrosmog: un’emergenza creata ad arte (con prefazione di


Umberto Veronesi), Leonardo Facco Editore, Treviglio 2002.
24 Ecco come recita il parere della Commissione internazionale nominata

dall’attuale governo col compito di esprimere parere sulla normativa italiana in


tema di protezione dai campi elettromagnetici: «I decreti italiani non riportano
giustificazioni scientifiche, per cui le basi su cui sono stati fissati i limiti di esposi-
zione sono puramente arbitrarie. Pertanto, il livello di protezione sanitaria forni-
to da tali limiti è del tutto sconosciuto. E se il livello di tutela sanitaria è ignoto,
l’enorme costo supplementare che l’attuazione di tale legge comporterebbe po-
trebbe, benissimo, non recare alcun beneficio alla salute. Emerge così che tale
legge è intrinsecamente incoerente e scientificamente debole. Alla luce delle
informazioni scientifiche correnti, essa non fornisce alcuna tutela aggiuntiva alla
popolazione italiana».
Il principio di precauzione: precauzione o rischio? 53

gati un bimbo e la sua maestra di un centro estivo: chi stava sulla


spiaggia non riuscì a chiamare soccorso col cellulare per debolezza di
campo elettromagnetico, tenuto basso a causa delle leggi italiane volu-
te in nome del PdP. Chi ha voluto quelle norme deve essere considera-
to corresponsabile morale dell’incidente aereo accaduto nell’ottobre
2001 a Linate, di quei 19 disabili morti nell’incendio nel salernitano, e
dei 2 poveretti annegati vicino a Pesaro.
Riguardo ai campi a frequenza industriale, la situazione è la se-
guente: l’unico individuato (non accertato!) è il rischio raddoppiato di
leucemie puerili per esposizioni a campi magnetici superiori a mezzo
microtesla. L’uomo della strada si allarma nel sentire che il rischio è
raddoppiato. Per fargli apprezzare il reale significato di questa affer-
mazione, forse basterebbe ricordargli che anche chi compra due bi-
glietti della lotteria ha una probabilità doppia di vincere rispetto a chi
compra un solo biglietto.
La IARC apprezza questi fatti, tant’è che ha inserito la componen-
te magnetica dei campi a frequenza industriale nella terza classe ri-
spetto a eventuali effetti cancerogeni, assieme al caffè e alle verdure
sottaceto, e ha inserito la componente elettrica nella quarta classe, as-
sieme al tè (il fumo, la pillola anticoncezionale, le radiazioni solari so-
no nella prima classe). Anche l’OMS apprezza quei fatti, e suggerisce
che si adotti per il campo magnetico a frequenza industriale il valore
protezionistico raccomandato dall’ICNIRP, che è 100 microtesla. Un
valore, avverte l’OMS, che garantisce sicurezza se non superato, ma
che non implica necessariamente rischio se viene superato. In pratica,
però, nessuno è mai esposto a campi superiori ad un microtesla.

In ogni caso, ammesso che si possa effettivamente azzerare il nu-


mero d’esposti a campi superiori a mezzo microtesla, quanti bambini
si “salverebbero” dall’ipotetica leucemia? Il conto è presto fatto. Ogni
anno, in Italia, contraggono la leucemia circa 400 bambini, mentre la
popolazione esposta a campi superiori a mezzo microtesla è pari allo
0,3% 25. Impostando l’equazione

400 = 0.997 y + 2 · 0.003 y

25 G. Carboni, comunicazione privata.


54 I costi della non-scienza

(ove il fattore 2 tiene conto del rischio raddoppiato degli esposti), ri-
solvendo per y e sostituendo, si ottiene (approssimando a valori interi)
400 = 398 + 2: di quei 400 bimbi, 398 hanno contratto la leucemia per
ragioni diverse dai campi elettromagnetici.
E gli altri due? Si può dire che la leucemia di 2 bimbi è statistica-
mente addebitabile ai campi? No! Lo si potrebbe dire solo se i campi
fossero un rischio, cioè se la IARC li avesse inseriti nella classe prima
anziché terza. Ma anche quando si volessero interrare i cavi degli elet-
trodotti ed operare tutte le bonifiche che purtroppo molte regioni ita-
liane (Emilia Romagna in testa) stanno effettuando, si eliminerebbero
questi due ipotetici casi? No, perché a venti metri da un elettrodotto il
campo magnetico è comparabile a quello presente comunque in ogni
casa a causa degli impianti domestici.
Invocare il PdP per eliminare una causa presunta di leucemia evi-
tando così, al più, un caso aggiuntivo, è scientificamente ingiustificato
e, direi, immorale nei confronti di quei 400 bambini che hanno con-
tratto il male per cause certamente diverse dall’esposizione ai campi
elettromagnetici. L’unico effetto della legislazione (voluta in nome del
PdP) contro l’inesistente elettrosmog è quello di arricchire tutte quel-
le aziende, più o meno private, incaricate di misurare i campi elettro-
magnetici in giro nelle città (misurazioni peraltro non necessarie, visto
che le equazioni della fisica ci danno i valori dei campi una volta note
le sorgenti), e tutte quelle incaricate di mettere a norma i vari impian-
ti. Un affare – è stato stimato dall’ANPA in un rapporto che venne te-
nuto nascosto sinché l’Agenzia venne commissariata e Renato Ricci,
nominato commissario, lo fece pubblicare – di 30 miliardi di euro 26.
E questo è l’unico dato che possa fornire giustificazione razionale alla
pervicacia – altrimenti inspiegabile – con la quale l’ex ministro Willer
Bordon (Margherita) e il suo vice, Valerio Calzolaio (Ds), insistevano
per l’approvazione dei loro decreti.
Val la pena citare l’editoriale del New England Journal of Medicine
che nel 1997 pubblicò un resoconto di un’esaustiva ricerca del Natio-
nal Cancer Institute americano sui legami (esclusi da quella ricerca) tra
esposizione ai campi elettromagnetici a frequenza industriale e leuce-

26 Valutazione tecnico-economica degli interventi di risanamento ambientale

delle linee elettriche del sistema nazionale, Anpa, Rapporto 3/2001.


Il principio di precauzione: precauzione o rischio? 55

mie puerili: «È triste che centinaia di milioni di dollari siano andati di-
spersi in studi privi della benché minima promessa di evitare la trage-
dia del cancro nei bambini. L’abbondanza di studi inconcludenti e
inattendibili ha generato ingiustificate preoccupazioni e paure. Diciot-
to anni di ricerca 27 hanno prodotto considerevole paranoia, senza ag-
giungere la benché minima conoscenza, e senza alcun guadagno in
prevenzione. È tempo di interrompere la dispersione delle nostre ri-
sorse, che dovrebbero invece essere dirette verso quella ricerca in gra-
do di offrire promesse, scientificamente fondate, della scoperta delle
vere cause biologiche dello sviluppo dei cloni leucemici che tanto mi-
nacciano la vita di alcuni bambini».

Il documento dell’UE

Abbiamo già citato il documento del 2 febbraio 2000 con cui la


Commissione dell’UE stabilisce le condizioni d’applicabilità del
PdP 28. Abbiamo anche manifestato forti perplessità sull’intero docu-
mento assieme al parere dell’opportunità di respingere tout court il
principio. Non vogliamo analizzare quel documento nei dettagli: per i
nostri scopi, basti sapere che in esso, a dimostrazione dell’opportunità
di avere un PdP, si adducono due esempi che, secondo il documento
della Commissione, sarebbero due casi di uso con successo del PdP
stesso. I due esempi (gli unici addotti) sono il bando planetario dei
clorofluorocarburi (CFC) e il protocollo di Kyoto. Sennonché, pro-
prio questi due esempi dimostrano, ancora una volta, quanto inappro-
priato sia l’uso del PdP.

a. Il bando dei CFC 29


Un trattato del 1987 ha bandito dal mondo intero, grazie a una del-
le tante oziose battaglie ambientaliste e in nome, ancora una volta, di
un PdP ante litteram, l’uso dei CFC, usati come refrigeranti e che, se

27 Risale al 1979 il primo articolo in cui s’ipotizzò la possibilità di legame tra

esposizione ai campi elettromagnetici a frequenza industriale e leucemia puerile.


Quell’ipotesi poi non resse ad ogni successiva indagine.
28 http://europa.eu.int/comm/dgs/health_consumer/library/pub/pub07_en.pdf.
29 R. Ehrlich, Sun exposure is beneficial, in: Nine crazy ideas in Science, Ch. 4,

Princeton University Press, 2001.


56 I costi della non-scienza

dispersi nell’ambiente, partecipano a reazioni chimiche che contribui-


scono a diminuire l’ozono alle alte quote. L’ozono assorbe, alle alte
quote, parte della radiazione solare, svolgendo un’azione protettiva da
essa. Il sole, infatti, è un agente cancerogeno, nel senso che l’esposizio-
ne ad esso aumenta il rischio di melanoma alla pelle, un tumore di cui
rimangono vittime, solo in Italia, oltre un migliaio di persone all’anno.
Quindi, la motivazione del bando dei CFC va ricercata nel fatto che
con essi nell’ambiente saremmo tutti più esposti alle radiazioni ultra-
violette del sole e quindi a maggior rischio di melanoma alla pelle.
Va ora detto che alcuni agenti dannosi manifestano il fenomeno
dell’ormesi, secondo cui o una bassa esposizione all’agente è addirittu-
ra protettiva rispetto al danno che l’agente causa a dosi più elevate o,
semplicemente, l’agente è responsabile di effetti sia dannosi che bene-
fici e, in quest’ultimo caso, solo un’analisi accurata del rapporto dan-
no/beneficio può dare informazioni sull’opportunità di esporsi ad es-
so. Sono forti i sospetti che l’esposizione al sole abbia entrambi i tipi
di effetto ormetico.
Riguardo al primo tipo, sembra che l’esposizione eccessiva e inter-
mittente, soprattutto se accompagnata da scottature, aumenti il ri-
schio di melanoma, mentre un’esposizione protetta, anche se conti-
nua, riduca invece quel rischio.
Riguardo al secondo tipo di ormesi, sono svariati i benefìci accerta-
ti dell’esposizione al sole, il più significativo dei quali sembra essere la
riduzione del rischio di malattie coronariche, che sono la forma più
comune di malattie cardiache. Ad esempio, è stato trovato che l’inci-
denza delle malattie coronariche aumenta con la latitudine (con la
quale decresce anche l’esposizione al sole).
Naturalmente, questa semplice associazione non è sufficiente a sta-
bilire l’effetto ormetico: è necessario individuare un meccanismo. Il
più accreditato nasce dalla constatazione che sia la vitamina D (la cui
produzione è indotta dalla radiazione solare) sia il colesterolo (respon-
sabile di aumento di rischi di malattie coronariche), hanno uno stesso
precursore (la molecola di squalene), per cui ove maggiore è la pre-
senza di vitamina D minore dovrebbe essere quella di colesterolo, e vi-
ceversa. Effettivamente, è stato trovato che la concentrazione di vita-
mina D è inferiore al normale tra le vittime di attacchi cardiaci, e che
la concentrazione media di colesterolo aumenta in popolazioni delle
Il principio di precauzione: precauzione o rischio? 57

alte latitudini aumentando nei mesi invernali. Ed è stato anche trovato


che l’incidenza di mortalità da malattie coronariche aumenta tra le
persone che nella loro vita si sono meno esposte al sole.
Ancora una volta, tutte queste associazioni e correlazioni non devo-
no indurre a conclusioni affrettate: bisogna anche escludere svariati
fattori confondenti. Ad esempio, ci si potrebbe chiedere se per caso
non sia la temperatura, piuttosto che l’esposizione al sole, il fattore che
protegge dalle malattie coronariche. Sennonché non è stato osservato
alcun aumento nell’incidenza di queste malattie con l’aumento di altez-
za dal livello del mare, né è stato osservato alcun aumento nel passare
da una realtà “più calda” come quella di Los Angeles a una “più fred-
da” come quella di New York. Anche se altri fattori confondenti, come
la dieta, sono stati considerati, la scienza, con tutta la sua doverosa cau-
tela, ritiene plausibile l’idea che l’esposizione al sole sia un agente signi-
ficativamente protettivo rispetto alle malattie coronariche.
Plausibile, ma non convincente. Tuttavia ci si può legittimamente
porre una domanda. Premesso che l’incidenza di mortalità da malattie
coronariche è 100 volte maggiore di quella da melanoma alla pelle, an-
che assumendo un raddoppio di rischio di melanoma a causa della dimi-
nuzione di ozono, basterebbe solo l’1% di corrispondente diminuzione
di rischio di mortalità per malattie coronariche per chiedersi se non sia il
caso di rivedere la decisione del 1987 che bandiva i CFC. La domanda è
ovviamente accademica, perché gli ambientalisti – come in altri casi – fa-
rebbero tanto chiasso da renderla politicamente improponibile, ancor-
ché dovesse rivelarsi saggia. Rimane sempre la domanda se non sia stata
quanto meno affrettata quella decisione del 1987 e se non sia il caso, per
eventuali decisioni future di analoga natura, di ignorare ogni affermazio-
ne emotiva delle associazioni ambientaliste, il cui sole brilla soprattutto
per analfabetismo scientifico, e di rimettersi, più che al PdP, all’analisi,
scientificamente condotta, del rapporto rischi/benefici.

b. Il protocollo di Kyoto 30
Secondo un recente rapporto dell’IPCC (Comitato intergovernati-
vo sui cambiamenti climatici) – un organismo internazionale che com-

30 R. Ehrlich, Should you worry about global warming?, in: Eight preposterous

propositions, Ch. 6, Princeton University Press, 2003.


58 I costi della non-scienza

prende scienziati da 100 paesi – «il riscaldamento globale previsto per


il prossimo secolo potrebbe risultare senza precedenti negli ultimi
10.000 anni». Ma, secondo Richard Lindzen, uno degli estensori di
quel rapporto e membro dell’Accademia Nazionale delle Scienze ame-
ricana, «la possibilità di un eccezionale riscaldamento globale, anche
se non escludibile, è priva di basi scientifiche».
Il riscaldamento globale viene ritenuto essere la conseguenza di va-
ri fattori tra cui anche un incremento della concentrazione atmosferica
di gas-serra (soprattutto CO2 e, in misura molto minore, metano e al-
tri gas-serra). Siccome nell’ultimo secolo sono progressivamente au-
mentati sia l’uso mondiale dei combustibili fossili sia le concentrazioni
atmosferiche di CO2, si potrebbe pensare che, assumendo che questi
aumenti continuino senza sosta, il raggiungimento di livelli pericolosi
sia solo questione di tempo, e che più aspettiamo più difficile potreb-
be essere affrontare il problema.
Il sillogismo logico, secondo alcuni, sarebbe allora il seguente: (1) i
gas-serra stanno aumentando senza sosta, (2) ogni cosa che aumenta
senza sosta raggiunge prima o poi livelli catastrofici, (3) la catastrofe
non può evitarsi se non si blocca quell’aumento. Ma, piaccia o no, le
cose non sono così semplici. Ad esempio, le previsioni del futuro ri-
scaldamento globale assumono che la crescita di popolazione s’inter-
romperà in alcuni decenni: se così non fosse, avremmo ben altro – pri-
ma ancora del riscaldamento globale – di cui preoccuparci. E, d’altra
parte, dovesse la popolazione mondiale stabilizzarsi, il timore dell’au-
mento senza sosta dei gas-serra non sarebbe più giustificato.
Secondo altri, invece: non vi è alcuna evidenza che il riscaldamento
sia reale; ammesso che lo sia, esso è minimo e non vi è alcuna evidenza
che sia stato indotto dalle attività umane; e, infine, esso potrebbe esse-
re addirittura benefico.
Naturalmente, finché nessuna delle due parti comprende solo iso-
lati casi di dissenzienti (e non è questo il caso), non ha importanza sa-
pere quale pensiero ha il maggior numero di sostenitori: i risultati del-
la scienza non si acquisiscono a maggioranza. Seguiamo allora Robert
Ehrlich, e poniamoci le seguenti quattro domande: Il riscaldamento
globale è reale? Qualora lo fosse, la causa dominante è d’origine an-
tropica? Qualora anche questo fosse il caso, quale aumento di tempe-
ratura media globale potremmo realisticamente attenderci fra, ponia-
Il principio di precauzione: precauzione o rischio? 59

mo, 100 anni? L’aumento realisticamente prevedibile in caso di contri-


buto antropogenico determinante, apporterà, globalmente, danni o
benefìci?

Il riscaldamento globale è reale?


Anche se misure dirette in grado di fornire informazioni sulle tem-
perature medie globali sono state effettuate solo recentemente, vari
dati indiretti (in particolare le concentrazioni relative di 16O e 18O nel-
le “carote” di ghiaccio estratte in Groenlandia) ci permettono di con-
cludere che attualmente la Terra si trova tra due ere glaciali (che av-
vengono ogni 100.000 anni circa). Durante l’ultima era glaciale le tem-
perature erano 10 gradi più fredde di ora e, probabilmente, il pianeta
è più caldo adesso che non in ogni altro periodo degli ultimi 1000 an-
ni; un riscaldamento, quello di questo millennio, che è avvenuto gra-
dualmente per ragioni certamente indipendenti dalle attività umane.
Il problema che nasce è se per caso queste ultime abbiano o no, sul
riscaldamento globale, un’influenza significativa sovrapposta alle cau-
se naturali. A questo scopo, è necessario limitarsi a osservare le varia-
zioni negli ultimi 150 anni, cioè dall’avvento dell’industrializzazione.
Ebbene, vi è concordanza nella comunità scientifica che le misurazio-
ni di temperatura effettuate da stazioni sulla Terra rivelano valori che
negli ultimi 150 anni sono aumentati di circa mezzo grado. I maggiori
aumenti si sono registrati nei periodi 1910-1945 e 1975-2000. Però –
va detto – nel periodo 1945-1975 si è osservato non un aumento ma
una diminuzione di temperatura.
Se però ci si chiede se queste misurazioni corrispondano alla tem-
peratura media globale, ci si imbatte in una prima seria difficoltà: non
vi è garanzia che l’aumento osservato non sia da attribuire al fatto che
nell’intorno delle stazioni di misura si sviluppava, nei decenni, un’ur-
banizzazione, e che è ad essa che dovrebbe quell’aumento attribuirsi.
L’assenza di quella garanzia nasce anche dal fatto che i tentativi di ag-
giustare i dati in modo tale da tenere conto di questo “effetto da urba-
nizzazione” – mediante soppressione dei dati più recenti dalle stazioni
“incerte” – aumenta sgradevolmente l’incertezza sull’analisi finale, vi-
sto che è proprio nei tempi più recenti che si ha bisogno di dati ab-
bondanti e accurati. Per farla breve: potrebbe benissimo essere che il
riscaldamento osservato successivamente al 1975 (circa 0,15 gradi per
60 I costi della non-scienza

decennio) sia da attribuirsi totalmente all’effetto dell’urbanizzazione


attorno alle stazioni di misura.
Nel periodo successivo al 1975 si ha però disponibilità di dati sa-
tellitari. I satelliti non registrano la temperatura della Terra, ma quella
dell’atmosfera, misurando la quantità di radiazione a microonde emes-
sa dalle molecole che costituiscono l’aria sino a circa 8 km di distanza
dalla Terra. Le misure satellitari sono ovviamente più attendibili, sia
perché i satelliti riescono a campionare contemporaneamente una
porzione di globo più ampia, sia perché esse non sono viziate dall’ef-
fetto di urbanizzazione. Ebbene, il risultato è che le misure satellitari
non registrano l’aumento di temperatura registrato dalle misure sulla
Terra. Un risultato, questo, che trova conforto nelle misure effettuate,
sin dal 1960, dai palloni aerostatici, dai quali, pure, non si registra al-
cun aumento di temperatura.

Qual è il contributo d’origine antropica


al presunto riscaldamento globale?
Stabilite le incertezze su cui si fonda l’esistenza stessa del riscalda-
mento globale, passiamo a valutarne, nell’ipotesi che esso sia reale, il
contributo antropogenico 31. Indubbiamente, i gas-serra (innanzi tutto
acqua, e poi anidride carbonica) tengono la Terra calda: senza di essi,
avremmo 33 gradi di meno. Ma l’anidride carbonica (il secondo com-
ponente naturale, dopo il vapore acqueo, responsabile dell’effetto ser-
ra “naturale”) è anche immessa nell’atmosfera dall’uomo ogni volta
che si bruciano combustibili fossili. Effettivamente, si osserva che, nel
tempo, le concentrazioni atmosferiche di CO2 e le temperature hanno
seguito un comportamento parallelo: a diminuzioni o aumenti delle
prime corrispondono diminuzioni o aumenti delle seconde. È però
importante essere consapevoli del fatto che comportamenti paralleli di
questo tipo non implicano necessariamente una relazione di causa-ef-
fetto; e, dovesse essa esserci, non rivelano qual è la causa e quale l’ef-
fetto. In particolare, sembra che gli aumenti di temperatura alla fine
delle ultime tre ere glaciali abbiano preceduto (e non seguito) corri-
spondenti aumenti di concentrazione di CO2. Purtroppo, le incertezze

31 Comitato scientifico ANPA, «Sul contributo antropogenico ai cambiamenti

climatici», in: Scienza e ambiente, vol. 2, cap. 4, ANPA, Roma 2002.


Il principio di precauzione: precauzione o rischio? 61

di questo dato non permettono di assumerlo per assodato e definitivo.


In ogni caso, non vi è dubbio che la Terra potrebbe riscaldarsi per al-
tre ragioni – l’attività solare, ad esempio – che disturbino il bilancio
tra la radiazione proveniente dal Sole e quella che la Terra rispedisce
indietro nello spazio.
Alcuni, infatti, ritengono che le variazioni di temperatura registrate
negli ultimi 150 anni siano da attribuire esclusivamente a variazioni
dell’attività solare. In particolare, il numero delle macchie solari (os-
servabili facilmente con un modesto telescopio) è stato accuratamente
registrato negli ultimi 400 anni (e segue un ben noto ciclo con periodo
di 11 anni). Ed effettivamente, esattamente come avveniva tra concen-
trazione di CO2 e temperatura della Terra, si è osservato che, nel tem-
po, l’attività solare e le temperature hanno seguito un comportamento
parallelo, come mostra la figura se-
guente, nella quale si riportano, in
funzione del tempo (dal 1860 al
1990), due curve: quella grigia rap-
presenta la lunghezza dei cicli di at-
tività solare (indicata lungo l’asse
verticale sinistro), quella nera rap-
presenta le variazioni di temperatu-
ra globale media (indicate lungo
l’asse verticale destro) 32.

Solo che, in questo caso – dovesse esserci una relazione di causa-


effetto – non ci sarebbero dubbi sull’attribuzione della causa e dell’ef-
fetto. Va però detto che il tentativo di valutare, dagli aumenti osservati
di attività solare, la consistenza degli aumenti di temperatura attesi, ha
portato alla conclusione che questi sono inferiori agli aumenti di tem-
peratura osservati. Allora, vi è, forse, ancora spazio per attribuire
all’uomo almeno una parte dell’aumento di temperatura osservato
(ammesso che esso sia reale). Per cercare di togliersi il dubbio non c’è
altro da fare che affidarsi a modelli matematici e tentare di simulare la
realtà al calcolatore.

32 E. Friis-Christensen and K. Lassen, Science 254, 698 (1991).


62 I costi della non-scienza

Questi modelli sono, essenzialmente, dello stesso tipo di quelli che


si usano per fare le previsioni meteorologiche. Ecco in breve come
funzionano.
(1) La superficie della Terra è suddivisa in cellette bidimensionali
da una griglia tracciata lungo i meridiani e i paralleli, e l’atmosfera so-
pra ogni celletta è quindi suddivisa in strati: l’intera atmosfera è così
ripartita in tante “scatole”.
(2) Entro ognuna di esse si fissano, ad un particolare istante di
tempo, i valori delle grandezze fisiche significative (temperatura, pres-
sione, umidità, velocità e direzione del vento, etc.).
(3) Si usano le equazioni del modello per far evolvere nel tempo la
situazione iniziale, calcolando i valori futuri delle grandezze fisiche si-
gnificative in ogni “scatola”.
L’attendibilità di un modello dipende dalla sua capacità di predi-
re… il passato: si parte dalle condizioni iniziali, poniamo, nel 1860; si
usa il modello per riprodurre le condizioni presenti; se queste non so-
no riprodotte, si modificano le condizioni iniziali e i parametri del
modello sino a che non si ottengono da esso previsioni in accordo col
futuro (rispetto al 1860) che conosciamo già (cioè sino ad oggi). Que-
sto modo di procedere è senz’altro il migliore possibile, viste le enor-
mi difficoltà del problema; ma non bisogna dimenticare che variando
a piacimento un gran numero di parametri si è in grado di riprodurre
qualunque cosa si voglia: la verità è che un modello costruito su un
numero sufficiente di parametri è in grado di riprodurre tutto e il con-
trario di tutto da qualunque insieme di dati.
Ad ogni modo, l’IPCC, in un rapporto firmato da 515 (sic!) autori,
osserva che i modelli matematici riprodurrebbero l’attuale riscalda-
mento globale solo a patto che siano incluse le emissioni antropogeni-
che di gas-serra, e pertanto conclude che «tenendo conto dei pro e dei
contro dei fatti, sembra che vi sia una ben distinguibile influenza uma-
na sui cambiamenti climatici». Alcuni ritengono la conclusione azzar-
data. Innanzitutto, a causa dei limiti già detti inerenti a modelli che
contengono un gran numero di parametri. In secondo luogo, perché i
modelli considerati dall’IPCC falliscono quando s’includono in essi i
contributi provenienti dagli aerosol, che sono particelle – principal-
mente di solfati – che si formano dalle emissioni vulcaniche e antropo-
geniche: includendo gli aerosol, le temperature calcolate dai modelli
Il principio di precauzione: precauzione o rischio? 63

sono inferiori a quelle osservate. Infine, perché modelli diversi danno


risultati molto diversi tra loro, a causa della difficoltà connessa alla
trattazione delle masse di nuvole; per appropriatamente includerle nei
modelli, bisognerebbe dividere l’atmosfera in “scatole” molto più pic-
cole, e quindi molto più numerose, fatto che renderebbe però imprati-
cabili i già complessi calcoli.

Quali temperature potremmo attenderci fra 100 anni?


Se si assumono attendibili le misure satellitari e se ne compie
un’estrapolazione da qui a 100 anni, per allora la temperatura media
globale sarà aumentata di mezzo grado, con un’incertezza di 1,5 gradi.
Se invece – come fa l’IPCC – si assumono fedeli le misure dalle stazio-
ni a Terra e si attribuisce esclusivamente all’uomo la causa del riscal-
damento globale, le previsioni da qui a 100 anni dipendono da molte-
plici considerazioni (economiche, politiche, tecnologiche, etc.) sullo
sviluppo dell’umanità; e che si riflettono, alla fine, sulla reale consi-
stenza futura di emissioni di gas-serra.
Ebbene, l’IPCC, assumendo fedeli le temperature registrate sulla
Terra e attribuendo all’uomo la principale responsabilità del riscalda-
mento, esamina 40 possibili scenari, prende nota dei due scenari che
prevedono l’aumento minore e l’aumento maggiore di temperatura, e
conclude che per il 2100 ci si deve attendere un aumento di tempera-
tura compreso fra 1,4 e 5,8 gradi. Curiosamente, l’IPCC non riporta
né l’incertezza di ciascun valore di temperatura previsto da ciascuno
degli scenari, né la probabilità che questi scenari hanno di realizzarsi.
Ad esempio, gli scenari che prospettano i maggiori aumenti di tempe-
ratura sono quelli che assumono che tutti i paesi in via di sviluppo
avranno nel frattempo raggiunto standard di vita uguali a quelli dei
paesi industrializzati. Un’assunzione, questa, che, anche se desiderabi-
le col cuore, sembra francamente lontana da ogni oggettiva realtà del-
le cose.
Anche se noi che scriviamo possiamo prenderci la libertà di essere
così “politicamente poco corretti”, l’IPCC, un organismo intergover-
nativo comprendente rappresentanze da un centinaio di paesi, molti
dei quali in via di sviluppo, non può evidentemente prendersi quella
stessa libertà. Certamente non sino al punto da escludere dai propri
rapporti quei fantasiosi scenari. Se si fa questa “scrematura” (ed è sta-
64 I costi della non-scienza

ta fatta in studi indipendenti) 33 l’aumento massimo di temperatura da


attendersi per il 2100 (nell’ipotesi che siano le attività umane le re-
sponsabili principali del presunto global warming) non è superiore a 3
gradi. Se invece il contributo antropogenico fosse irrisorio, dai dati di-
sponibili sull’attività solare possiamo attenderci, fra 100 anni, variazio-
ni di temperatura comprese fra -1,0 e 2,0 gradi.

Un eventuale riscaldamento globale, che sia di realistica entità, sarebbe


dannoso o benefico per l’umanità?
Innanzi tutto, è chiaro che – a meno di credere che la temperatura
oggi sia esattamente la migliore concepibile – è ragionevole pensare
che il mondo potrebbe trarre benefìci da modeste variazioni di tempe-
ratura. Bisogna stabilire se questi benefìci verrebbero da una modesta
diminuzione o da un modesto riscaldamento.

a) L’incidenza di mortalità è certamente correlata alle temperatu-


re: sia il caldo che il freddo estremo favoriscono i decessi, ma è stato
dimostrato che condizioni di freddo estremo hanno un’incidenza dop-
pia di quelle di caldo estremo. Inoltre, se si tiene conto del fatto che
un eventuale global warming comporterà maggiori aumenti di tempe-
ratura nelle stagioni fredde che non in quelle calde, si può concludere
che, rispetto alla mortalità umana, un modesto global warming avreb-
be effetti benèfici.

b) Gli scenari dell’IPCC prevedono, per il 2100, un innalzamento


dei mari compreso fra 9 e 90 centimetri. Ma bisogna osservare due
fatti. Innanzi tutto, il mondo riesce benissimo ad affrontare questo
problema, come testimonia l’Olanda, col suo imponente sistema di di-
ghe che la difende dal mare. Naturalmente, si potrebbe obiettare che
un paese come il Bangladesh, la cui popolazione vive, per il 25%, in
zone costiere a circa un metro sul livello del mare, potrebbe non esse-
re in grado, per la sua povertà, di prendere le adeguate misure protet-
tive. Non bisogna tuttavia dimenticare che i “peggiori” scenari previ-
sti dall’IPCC (in questo caso, l’innalzamento dei mari di 90 centime-
tri) assumono che i paesi poveri abbiano raggiunto lo stesso benessere

33 T.M.L. Wigley and S.C.B. Raper, Science 293, 451 (2001).


Il principio di precauzione: precauzione o rischio? 65

economico dei paesi ricchi, per cui, in quel caso, come oggi l’Olanda,
anche il Bangladesh saprebbe come affrontare il problema.
In secondo luogo, va precisato che il livello del mare sta aumentan-
do da millenni. Da quando la Terra è uscita dall’ultima glaciazione, il
livello del mare è aumentato di ben 100 metri, per due cause principa-
li: la fusione dei ghiacciai e la dilatazione termica delle acque. La pri-
ma, è un evento in corso a partire dalla fine dell’ultima era glaciale, e
non ha avuto alcuna accelerazione nell’ultimo secolo. Anzi, non è
escluso che un clima più caldo possa interromperla, in conseguenza di
aumentate precipitazioni, che ai poli si depositerebbero come neve.

c) I benefici sull’agricoltura da un modesto global warming sono


indubbi. Anzi, in questo caso l’aumento di temperatura è sinergico
con l’aumento di concentrazione di CO2: nelle serre tecnologicamente
più avanzate si pompa, appunto, CO2 per ottenere rendimenti più alti.

In conclusione, nell’ipotesi che effettivamente l’uomo contribuisca


significativamente al riscaldamento globale, non c’è da attenderselo,
realisticamente, superiore a 2-3 gradi da qui al 2100. Ma, in questo ca-
so, esso avrebbe, nel complesso, effetti benefici per l’umanità. Natu-
ralmente, sarebbe insensato che l’umanità si sforzi di raggiungere arti-
ficialmente la temperatura che si ritenga essere la migliore possibile.
Ma, allo stesso modo, dovremmo convenire che sarebbe parimenti in-
sensato ogni sforzo, per di più in nome del PdP, per evitare di rag-
giungere quella condizione ideale.
Un’ultima osservazione va fatta, in ordine al presunto eccezionale
ed eccezionalmente rapido cambiamento climatico di cui saremmo te-
stimoni: d’eccezionale non c’è né l’attuale presunto cambiamento cli-
matico né la sua rapidità 34. Un fatto è certo: il clima del pianeta può
radicalmente cambiare, come le ere glaciali inconfutabilmente attesta-
no. Cinquant’anni fa, quando ancora si riteneva che ciò potesse avve-
nire solo con tempi dell’ordine delle decine di migliaia d’anni, ci si è
confrontati con l’evidenza che seri cambiamenti climatici avvennero
anche nell’arco di pochi millenni; ridotti a pochi secoli dai risultati
delle ricerche nei successivi 20 anni, e ulteriormente ridotti ad un solo

34 S. Weart, Physics Today 56, 30 (2003).


66 I costi della non-scienza

secolo dai resoconti scientifici degli anni Settanta e Ottanta. Oggi, la


scienza sa che cambiamenti climatici, nel passato, sono avvenuti anche
nell’arco di pochi decenni.
Nel 1955, datazioni al 14C effettuate su reperti scandinavi rivelaro-
no che il passaggio, circa 12000 anni fa, da clima caldo a clima freddo,
avvenne durante un millennio. Un periodo che fu definito “rapido”,
vista l’universale convinzione che tali cambiamenti potevano avvenire
solo in tempi di decine di migliaia d’anni. Conferme vennero da altre
ricerche: ad esempio, quella dell’anno successivo che accertò che l’ul-
tima era glaciale finì col “rapido” aumento di un grado per millennio
della temperatura globale media; e quella di 4 anni dopo, secondo cui
vi furono nel passato, e nell’arco di un solo millennio, aumenti di tem-
peratura anche di 10 gradi. E altre ancora, finché nel 1972 il climato-
logo Murray Mitchell ammetteva che le evidenze degli ultimi 20 anni
forzavano a sostituire la vecchia visione di un grande, ritmico ciclo
con quella di una successione rapida e irregolare di periodi glaciali e
interglaciali all’interno di un millennio.
Anche se, allora, il timore dominante era la possibilità che la fine
del secolo avrebbe potuto segnare l’inizio di un periodo glaciale con
evoluzione rapida (cioè in pochi secoli) verso condizioni “fredde” ca-
tastrofiche per l’umanità) non mancava, tuttavia, chi avvertiva del pe-
ricolo opposto: il riscaldamento globale a causa delle emissioni uma-
ne. In quello stesso 1972, infatti, il climatologo M. Budyko dichiarava
che alla velocità con cui l’uomo immetteva CO2 nell’atmosfera, i
ghiacciai ai poli si sarebbero completamente sciolti entro il 2050. In-
somma, ancora 30 anni fa gli scienziati non si erano messi d’accordo
se un’eventuale minaccia proveniva dal troppo freddo o dal troppo
caldo.
Mentre erano concordi su una cosa, che di troppo era certamente:
la loro ignoranza. E invocarono – giustamente – maggiori risorse. Gra-
zie alle quali andarono in Groenlandia ove, dopo 10 anni di tenace la-
voro, estrassero, dalle profondità fino ad oltre 2 km, “carote” di
ghiaccio di 10 cm di diametro. Dalle analisi dell’abbondanza relativa
degli isotopi dell’ossigeno nei diversi strati di ghiaccio (il più profon-
do dei quali conserva le informazioni sulle temperature di 14mila anni
fa) si ebbe la conferma che drammatiche diminuzioni di temperatura
erano avvenute in pochi secoli.
Il principio di precauzione: precauzione o rischio? 67

Ma fu solo una decina d’anni fa – nel 1993 – che gli scienziati rima-
sero, è il caso di dire, di ghiaccio: quando scoprirono, da nuovi caro-
taggi, che la Groenlandia aveva subito aumenti di anche 7 gradi
nell’arco di soli 50 anni; e, a volte, con drastiche oscillazioni anche di
soli 5 anni!
Anche se «questi rapidissimi cambiamenti del passato non hanno
ancora una spiegazione», come dichiara un recente rapporto dell’Ac-
cademia Nazionale delle Scienze americana, la scienza ha accettato
l’idea di un sistema climatico la cui variabilità naturale si può manife-
stare anche nell’arco di pochi decenni. Non c’è nessuna ragione – di là
da quella che ci rassicura psicologicamente – per ritenere che essi non
debbano manifestarsi oggi. Vi sono invece tutte le ragioni per ritenere
che quella secondo cui l’uomo avrebbe influenzato i cambiamenti cli-
matici sia un’idea – come tutte quelle dei Verdi, ad essere franchi –
priva di fondamento; e per ritenere, semmai, che sono i cambiamenti
climatici ad aver influenzato l’uomo e il percorso della civiltà.
Una cosa senz’altro certa è la circostanza secondo cui i vincoli del
protocollo di Kyoto (ridurre del 5%, rispetto a quelle del 1990, le
emissioni di gas serra da parte dei paesi industrializzati) avrebbero ef-
fetto identicamente nullo sul clima: nell’atmosfera vi sono 3000 miliar-
di di tonnellate di CO2, l’uomo ne immette, ogni anno, 6 miliardi di
tonnellate, di cui 3 provengono dai paesi industrializzati, pertanto il
protocollo di Kyoto equivarrebbe a immettere nell’atmosfera 5,85 mi-
liardi di tonnellate di CO2 anziché 6 miliardi. Un primo passo, dicono
gli ambientalisti; ma anche montare su uno sgabello è un primo passo
per raggiungere la Luna! (Né, d’altra parte, veniamo informati di quali
sarebbero gli altri passi) 35. Insomma, la temuta temperatura che l’uma-
nità potrebbe dover sopportare nel 2100, se si applicasse il protocollo

35 Tanto più che, curiosamente (o schizofreneticamente, direbbe qualcuno)


viene respinta la possibilità di servirsi dell’unica fonte energetica – quella nuclea-
re – che, veramente competitiva coi combustibili fossili, permetterebbe, se mas-
sicciamente impiegata, di raggiungere gli obbiettivi non di uno ma di diversi
“protocolli di Kyoto”: la Francia, ad esempio, raggiunge già quegli obbiettivi e la
Svezia è addirittura in credito rispetto alle emissioni di gas-serra. Per converso, la
Danimarca, il paese al mondo che più investe sulle energie rinnovabili (principal-
mente nell’eolico), deve ridurre le proprie emissioni di gas-serra di un buon 21%
per allinearsi coi vincoli di Kyoto.
68 I costi della non-scienza

di Kyoto verrebbe ritardata al 2101! Sennonché, gli sforzi economici


conseguenti al rendere operativo quel protocollo sarebbero disastrosi:
nel caso dell’Italia, quel disastro – è stato valutato – comporterebbe,
tra le altre cose, la perdita di decine di migliaia (51.000 nel 2010, sino a
277.000 nel 2025) di posti di lavoro per ridotta produttività 36.
Quindi, come si vede, gli unici due casi che, secondo il rapporto
della Commissione dell’UE, “dimostrerebbero” la valenza positiva del
PdP, dimostrano invece esattamente il contrario. Alla fine, non sem-
bra sia possibile citare alcun caso – neanche uno – in cui l’applicazio-
ne del PdP abbia scongiurato un danno, ridotto un rischio, o apporta-
to benefici.
Qualcuno pensa di poter addurre casi in cui il PdP non sarebbe
stato applicato; ove invece, se lo fosse stato, si sarebbero potuti evitare
dei danni. Tipicamente, si cita il caso dell’amianto, e si usa dire: se
questo materiale fosse stato bandito da subito, non ci sarebbero stati
gli spiacevoli casi di asbestosi verificatisi tra i lavoratori a esso esposti.
La verità è un’altra. Innanzitutto, quando circa un secolo fa si comin-
ciò ad usare l’amianto, nessuno poteva sospettare nulla. I primi so-
spetti vennero alcuni decenni dopo, perché questi sono i tempi tra
esposizione all’amianto e manifestazioni patologiche. In ogni caso,
quando quei sospetti vennero, la scienza non rimase con le mani in
mano, ma studiò il caso; e nel 1954 decretò con certezza la pericolo-
sità di quel materiale. Che venne messo al bando, per lo meno in Ita-
lia, ben 40 anni dopo! Quindi, non ci fu nessun PdP che non venne
applicato. Quella che non venne applicata fu l’elementare precauzione
su una sostanza di cui si era riconosciuta, alla fine, la pericolosità: an-
cora una volta, fu il legislatore, cioè la politica, il soggetto inadem-
piente e sordo alla voce della comunità scientifica.

Conclusioni

Concludo con una riflessione e una proposta. Innanzitutto, biso-


gnerebbe ricordare che l’analisi e la gestione del rischio può procedere

36 M. Thorning, The impact of Eu climate-change policy on economic competiti-

veness, Atti della conferenza Dall’effetto serra al dirigismo ecologico, Istituto Bru-
no Leoni, Milano 29 novembre 2003.
Il principio di precauzione: precauzione o rischio? 69

seguendo il metodo scientifico, e avvalendosi di commissioni di organi-


smi che siano scientificamente accreditati, ufficialmente riconosciuti e
indipendenti da eventuali interessi economici attinenti al problema in
questione. Non vi sarebbe nessuna necessità di invocare un principio
ad hoc, soprattutto se esso intenda scavalcare ogni analisi e gestione del
rischio fatta col metodo scientifico e sostituire i detti organismi coi re-
sponsabili politici. Costoro, piuttosto, sulle questioni indagabili scienti-
ficamente hanno il dovere di adeguarsi ai risultati di quelle indagini:
potrebbero essere, come visto, inestimabili i danni conseguenti a com-
portamenti non conformi alle indicazioni dell’indagine scientifica, ma-
gari nell’ottica dell’affermazione di un generico, acritico e a priori “pri-
mato della politica”. Il rifiuto del “primato della politica” su quelle
scelte che possono essere guidate dall’indagine scientifica è un dovere
che ognuno, soprattutto se scienziato, deve esercitare: la scienza, infat-
ti, per sua stessa natura, rifiuta l’autorità, qualunque autorità diversa da
quella che i fatti e la Natura impongono.
Se proprio si sentisse la necessità di un principio guida, forse può
essere elemento di riflessione la seguente riformulazione, da me pro-
posta, del PdP (da confrontarsi con quella data all’inizio):
«Ove vi siano minacce scientificamente accertate di danno serio o
irreversibile, i responsabili politici hanno l’obbligo di non posporre
misure – anche non a costo zero ma purché efficaci – volte a prevenire
il temuto degrado ambientale».
Lo chiamerei, questo, “principio di (tripla) priorità”: (i) priorità
dell’analisi scientifica rispetto alle preoccupazioni emotive (e ciò signi-
fica adottare una scala di priorità che tenga conto del rapporto
costi/benefici); (ii) priorità della ragione scientifica rispetto a quella
politica; (iii) priorità della salvaguardia ambientale rispetto all’onere
economico.
In definitiva, il vero rischio del PdP è che tramite esso le conoscen-
ze della fisica, chimica, biologia, medicina – della scienza in genere,
insomma – vadano riscritte nelle aule dei parlamenti, prima, e dei tri-
bunali, poi. Ebbene, possiamo dire che l’associazione Galileo 2001 si
propone di impedire che ciò avvenga.
71

RADICI FILOSOFICHE E UTILIZZAZIONE SOCIALE


DEL PRINCIPIO DI PRECAUZIONE

Carlo Bernardini
Università di Roma La Sapienza

U
no dei motivi per cui anche persone colte e non particolar-
mente credule fanno i rituali scongiuri suggeriti da molte delle
superstizioni classiche (soprattutto in occasione dell’incontro
di speciali individui detti o presunti “jettatori”) è quello determinato
dalla “prudenza in condizioni di ignoranza”: non è detto che il perico-
lo sia reale ma, dal momento che lo scongiuro è a buon mercato e alla
portata di tutti, meglio praticarlo per prudenza. Pare che un illustre di-
fensore di questo punto di vista fosse addirittura Benedetto Croce (la
frase che gli è attribuita, esattamente, suona così: «Non è vero, ma
prendo le mie precauzioni», a quanto dichiara Massimo Polidoro del
CICAP); e non si può negare che questo semplice ragionamento di
cautela in favore degli scongiuri abbia la sua rilevanza. Sulla scorta di
questo ormai antico esempio, possiamo allora dire che il Principio di
Precauzione ha una sua solida base crociana, compatibile con le filoso-
fie idealiste e dunque, più che mai, con quelle antiscientifiche che an-
cora tanto spazio hanno nel pensiero contemporaneo. Non annovererei
tra i precursori del Principio di Precauzione, invece, l’ex presidente del-
la repubblica Giovanni Leone, grande esperto praticante di scongiuri:
Leone ci credeva e la sua non era precauzione ma convinzione, ovvero
elemento costitutivo di una tradizione culturale. Informazioni più este-
se si possono ottenere sul sito http://www.cicap.org.
Proprio in ragione di questa matrice più colta, devo riconoscere
che i miei colleghi e io stesso commettiamo abitualmente un grave er-
rore, che è quello di perdere le staffe di fronte a princìpi e convinzio-
ni che ai più, invece, appaiono come dotate di un fondamento; ovve-
ro, che ai più appaiono addirittura come proposizioni di senso comu-
ne, elementarmente inconfutabili. Effettivamente, in questo come in
72 I costi della non-scienza

altri casi che implicano “credenze”, ci troviamo di fronte a una affer-


mazione vagamente antinomica, che meriterebbe almeno una tesi di
laurea. La formulo così: «Non è possibile dimostrare razionalmente
la non-esistenza di qualcosa che non esiste». L’affermazione si aggra-
va tramutandola perentoriamente in: «Non può esistere la dimostra-
zione razionale della non-esistenza di qualcosa che non esiste». Un
bel rompicapo, dovuto a un concetto di quelli che Ludovico Geymo-
nat chiamava “predicabili”, cioè appartenenti alla «classe che contie-
ne se stessa come elemento» (per esempio, il concetto di astratto è
predicabile, essendo esso stesso astratto; il concetto di virtuoso è, in-
vece, impredicabile). In realtà, uno dei motivi per cui non ci cimen-
tiamo razionalmente con i fenomeni di credulità e bruciamo le tappe
dando in escandescenze apodittiche è che non sopportiamo che alcu-
ni nostri colleghi furbacchioni rivestano la filosofia della «prudenza
in presunte condizioni di ignoranza» di argomentazioni che appaiono
scientifiche solo perché espresse da sedicenti scienziati, ma hanno in
realtà finalità di altra natura: politiche, in genere, cioè, di consenso e
di affermazione di un potere. Questa sì che è una importante scoper-
ta fatta da alcune frange dell’ambiente scientifico: l’uso ideologico
della scienza, una opportunità sino a poco fa forse impensabile. La
scoperta, a prima vista di altra natura, mutatis mutandis è simile a
quella di chi capisce che una applicazione tecnologica può far guada-
gnare molti soldi.
Dunque, vi invito a riflettere sulla nostra abitudine di minacciare
con anatemi i nostri colleghi disponibili all’uso psicopolitico della cre-
dulità. In realtà, faremmo meglio a cercare di travolgerli con usi in
qualche modo “vantaggiosi” della credulità. Questo non è banale:
promesse sui benefici futuri della ricerca non fanno più alcuna presa
sull’opinione pubblica e sono banalmente confutabili perfino da gior-
nalisti avveduti. No, bisogna usare in modo positivo proprio quella
paura che rende efficace il Principio di Precauzione; ma salvaguardan-
do la nostra rispettabilità e credibilità. Vi faccio un esempio, che mi fu
suggerito da una vicenda reale. Anni fa, una notissima astronoma ita-
liana fu consultata da alcuni sindacalisti di Pordenone che avevano
appreso da un ufficiale americano che il rilevamento della radioattività
nelle cantine di Aviano e dintorni adibite a bettole aveva dato valori
molto alti. I sindacalisti chiesero se questo era attribuibile alla presen-
Radici filosofiche e utilizzazione sociale del PdP 73

za delle numerose testate nucleari nella base. L’onesta astronoma ri-


spose: «Non me ne intendo, perciò non posso escludere». Il giorno
dopo, il quotidiano locale uscì con un titolone: «La nota professoressa
XY dichiara che molto probabilmente…». Successe il finimondo. Mi
telefonarono e mi sforzai invano di spiegare che no, non poteva esse-
re; le cantine hanno sempre attività naturale più elevata a causa del ra-
don proveniente dal sottosuolo; inoltre, è inverosimile che le radiazio-
ni del materiale fissile di un ordigno nucleare superino l’involucro del-
le bombe. Fui sospettato di connivenza con i militari. Allora svegliai,
di notte, i dirigenti di quel tempo dell’ENEA: Umberto Colombo
(Presidente), Giovanni Naschi (Divisione Sicurezza e Protezione) e
Fabio Pistella (Direttore Generale). Avevo consultato, per tranquillità,
l’amica e collega Silvana Ricci Piermattei, esperta di radon, che aveva
confermato la mia banale conclusione. Tuttavia, sapevo che una di-
chiarazione autorevole e responsabile valeva di più dei nostri pareri.
Perciò, insistetti: «Fate qualcosa, fate un comunicato ufficiale del-
l’ENEA». Mi dissero che era una questione delicata. Insomma, sem-
brava che temessero di giocarsi il posto. Il clima era simile a quello
che abbiamo vissuto con Scanzano Jonico. Però, a me venne, qualche
tempo dopo, un’idea.
La frase magica, l’abracadabra, è: «Non posso escludere». Qualun-
que scienziato, se non sa niente di qualcosa, copre così la sua ignoran-
za. Non dice “non so” ma dice che “non può escludere”: anche questa
è precauzione, a suo modo. Fateci caso: i giornalisti adorano consulta-
re i premi Nobel, specie i nazionali. Un premio Nobel è il moderno
oracolo e deve salvaguardare la propria attendibilità, che non è tanto
quella legata a una sua competenza specialistica quanto quella associa-
ta a una presunta capacità di ragionare in modo originale. Difficile,
perciò, che escluda una eventualità minimamente possibile di cui in
realtà non sa nulla: se può, copre la sua ignoranza con un espediente
retorico ambiguo. Ma allora – e questa è l’idea che mi venne mentre
pensavo con rancore che avrei raccontato la pavidità del vertice
ENEA sul radon ad Aviano in ogni occasione che mi si offrisse – ve-
diamo cosa si può fare di buono con un autorevole “non posso esclu-
dere”. Immaginate, per esempio, che una équipe di luminari della me-
dicina si risolva a dichiarare in un importante canale televisivo e in fa-
scia oraria di massimo ascolto, magari sapientemente sollecitata da
74 I costi della non-scienza

giornalisti che hanno studiato queste tecniche: «Non possiamo esclu-


dere che la lunga permanenza al volante di un’auto nel traffico cittadi-
no produca un sensibile calo delle prestazioni sessuali, oltre a favorire
l’obesità e alcuni specifici disturbi neurologici». Ebbene, sarei pronto
a scommettere che il traffico cittadino si ridurrebbe di punto in bian-
co di non meno del 30%, per ridursi poi ulteriormente nei giorni suc-
cessivi grazie ad una campagna giornalistica ben congegnata. Padro-
nissimi, i luminari, di dichiarare che non sono sicurissimi, che la loro
affermazione è solo precauzionale… Ma, ci pensate? Ridurre il traffi-
co con il Principio di Precauzione: un risultato socialmente straordina-
rio! Lascio perdere la possibilità che il programma TV sia sponsoriz-
zato da una fabbrica di biciclette, o pattini, o monopattini: di queste
opportunità venali noi scienziati non ci occupiamo.
Molti altri risultati potrebbero essere così ottenuti. Certo, le fabbri-
che di auto correrebbero ai ripari. Allora, pensiamone altre. Si apri-
rebbe un ventaglio enorme di possibilità. «Non si può escludere che
buttare rifiuti di ogni genere per strada o nei luoghi pubblici o nelle
campagne produca nuovi microorganismi in grado di determinare
nuove e gravi malattie infantili». «Non si può escludere che il piercing
sia la causa di particolari tumori»; «Non si può escludere che… (in-
ventate voi qualcosa che vi dà fastidio e mettetela fuori gioco con una
precauzione mirata)». Insomma, anziché proibire o imporre come un
qualsiasi tiranno, fate apparire la norma come una saggia precauzione:
proibizioni e imposizioni sono cause di conflitti, meglio accontentarsi
di realizzarle “come misure precauzionali”. È anche assai più demo-
cratico: ciascuno è libero di decidere se cautelarsi, “chi non lo fa, su’
danno”. Non chiediamo più di così: vogliamo forse metterci al livello
di chi vuole proibire normativamente gli OGM, o gli anticoncezionali,
o le linee elettriche, o le centrali nucleari? Se non imbocchiamo questa
strada, illustri colleghi, perderemo in qualunque faccia a faccia contro
chi, della scienza, diffida e invita a diffidare per principio. Riconoscia-
mo dunque che «c’è del metodo in quella – che a noi appare – follia»,
e allora usiamo il metodo.
A me piacerebbe addirittura approfittare dell’opportunità, ma mi
sembra rischioso. Forse, non si possono proporre cose come «il politi-
co X mi sembra pericolosamente antipatico e non posso escludere che
lo sia veramente: per precauzione, non votatelo più». Non è certo un
Radici filosofiche e utilizzazione sociale del PdP 75

caso, comunque, che i colleghi che hanno fatto fortune mondane con
l’ambientalismo oltranzista siano animati da una vena di moralismo
mistico che ha contagiato particolarmente la sinistra estrema, gli ex
sessantottini e altri eterni tormentati dalla razionalità. Tra gli ambien-
talisti, ci sono due tipi di “caratteristi” che si danno manforte, ciascu-
no dalla propria parte: i guru e gli attivisti. Usando la nomenclatura
dei fisici, i guru sarebbero un po’ l’equivalente dei “teorici”, gli attivi-
sti sarebbero l’equivalente degli “sperimentali”. I guru parlano in un
linguaggio canonico intriso di diffidenza verso categorie classiche co-
me la “scienza ufficiale”, il “progresso”, la stessa “razionalità” o il
“metodo”; sono al confine della New Age, si riferiscono almeno a
George Bateson, amavano Barry Commoner e oggi Jeremy Rifkin, e
così via. Gli attivisti pescano “evidenze” con le metodologie più de-
precabili: certificazioni di medici privati, testimonianze di gente co-
mune (su epidemie infantili o su vitelli a due teste, peraltro mai esibiti
in televisione, con la fame di mostri che c’è). Le dichiarazioni di indi-
vidui isterici resi insonni dalle onde elettromagnetiche sono pregnanti
e spettacolari. Ma soprattutto, a parte la descrizione fenomenologica
di presunti immani danni ambientali imputabili alla spregiudicatezza
della scienza ufficiale accoppiata ad interessi economici mondiali, il
cavallo di Troia del Principio di Precauzione sono gli argomenti inquie-
tanti, atti a produrre disagio. Per esempio: interrogare la pubblica opi-
nione sulla liceità dell’uso di un farmaco che guarisce il raffreddore
ma è letale in un caso su un milione. Se prendete un milione di perso-
ne e chiedete se assumerebbero quel farmaco, scoprirete che ciascuno
pensa di essere il caso eccezionale; a nulla varrà far notare che il ri-
schio di incidenti d’auto o di caduta massi o di folgorazione è ben più
grande. L’accidente è accidente e pertanto accettato, la letalità ecce-
zionale di un farmaco è un attentato deliberato della scienza.
Colleghi, cambiamo metodo di gioco. Nell’affrontare la pubblica
opinione, cominciamo a “non poter escludere” che se si vuole vivere a
rischio zero oggi, domani moriremo di freddo e di fame. Siate raziona-
li con giudizio, armatevi di capacità di comunicazione. Per quanto mi
riguarda, mi limito a proporre con forza una riforma didattica che ci
riguarda da vicino. Le scienze, così come sono insegnate, appaiono
stupidamente deterministiche (cioè “risolutive”). Nessuno di noi,
però, s’azzarderebbe a valutare più che una probabilità che accada ciò
76 I costi della non-scienza

che tentiamo di prevedere. Ma la gente vuole certezze e noi sbagliamo


a cercare di darle o di aggirare la domanda per non darle.
Dedichiamoci all’insegnamento sistematico, sin dalle scuole dell’in-
fanzia, del concetto di probabilità. Ricordatevi che il Principio di Pre-
cauzione ha la forza del determinismo: non fare, è l’unica cosa propo-
nibile che appaia ingannevolmente certa. Ma le conseguenze del non
fare sono valutabili soltanto probabilisticamente: è qui che i guru im-
brogliano, perché spacciano per salvezza certa l’esito del non fare.
Vanno confutati su questo piano.
Coraggio.
77

IL PRINCIPIO DI PRECAUZIONE:
UN TRUCCO VERBALE

Tullio Regge
Premio Einstein per la Fisica

L’
abbreviazione PdP è considerata blasfema e vilipendio da noti
oppositori; ho già ricevuto in proposito infuocate lettere di
protesta. La vicenda del PdP è ormai vecchia di anni e temo
che sia l’inizio, l’equivalente del decalogo – se volete – di una nuova
religione basata sulla mistica ambientalista.
Quando ero deputato al Parlamento Europeo, durante una conver-
sazione fuori seduta con alcuni colleghi, fui interrotto da un Verde
con l’annuncio che era stato scoperto un gigantesco deposito di ura-
nio in Canada. Il Verde ha subito aggiunto, con un sorriso e una striz-
zatina d’occhio, che il deposito era situato sotto un lago, chiaro mes-
saggio della natura che non voleva fosse sfruttato. La natura, vista dal
collega, mi apparve come divinità che legiferava e diceva “voglio o
non voglio”: ho visto sul nascere il sorgere di una nuova religione. Ho
risposto al collega che non si poteva parimenti tirare l’acqua su dai
pozzi perché era sotto terra, e questi se ne andò via infuriato.
Lo straordinario sviluppo scientifico e tecnologico del XX secolo
scatena ondate mistiche che prendono di mira di volta in volta il nu-
cleare, gli OGM, interventi – anche a scopo di cura – sul genoma
umano e, infine, il cosiddetto elettrosmog. La caratteristica saliente di
queste proteste a livello popolare è l’uso di tesi aberranti, scarso o nul-
lo ricorso ad una seria analisi dei fatti, sviluppi legislativi onerosi e la
creazione di strutture burocratiche di regola tanto dispendiose quanto
dannose. La prima formulazione della legge sull’elettrosmog, opera
dell’allora ministro Bordon, avrebbe contemplato in Italia investimen-
ti e spese correttive del tutto inutili, dell’ordine di circa 3-4 “Parma-
lat”. La cifra è stata poi ridotta e credo che oggi sia aggiri sul mezzo
“Parmalat”. Si tratta pur sempre di soldi buttati via. Le indagini epi-
78 I costi della non-scienza

demiologiche svolte in tempi recenti indicano che l’impatto dell’elet-


trosmog sulla salute è minimo – se non assente – e del tutto trascura-
bile rispetto all’impatto del fumo e in ogni caso ben controllato dalle
norme della OMS adottate da ben 40 paesi di tutto il mondo. Abbia-
mo fermato le centrali elettronucleari, impresa folle e costosissima, pa-
ghiamo gli stipendi al personale senza produrre elettricità e senza al-
cun miglioramento nelle condizioni di sicurezza. Le proteste ambien-
taliste contro i depositi di scorie non hanno migliorato le condizioni di
sicurezza, semmai le hanno peggiorate. Le proteste hanno bloccato
con estrema efficienza per decenni la sistemazione delle scorie in un
sito ad alta sicurezza e hanno avuto come unico risultato quello di au-
mentare la tensione e il terrore del nucleare. E, naturalmente, quello
di guadagnare voti dallo stato di massimo pericolo.
Fra l’altro, non esiste un unico PdP, un anno fa ne esistevano ben
quattordici versioni in continua evoluzione darwiniana. D’altra parte,
il testo del PdP è irrelevante e non viene quasi mai citato. Conta esclu-
sivamente l’uso a scopo demagogico. Mi ricordo a questo proposito
una puntata di Excalibur 1 a cui ha partecipato anche il nostro Ricci, in
cui in fase di chiusura ben due ambientalisti hanno usato verbatim la
stessa formula «questo non si può fare per via del Principio di Precau-
zione».
Il PdP è in pratica uno scongiuro: basta il titolo. Il testo è irrilevan-
te e non vale la pena di discuterlo. La pretesa di regolare il futuro
dell’ambiente e dell’umanità anche solo per pochi decenni è assurda
ed arrogante. La natura è un ecosistema estremamente complesso che
l’uomo può seguire solamente in minima parte. Il PdP di Rio, il primo
della serie, richiedeva l’assoluta sicurezza, una pretesa assurda. Se pre-
so alla lettera, la nostra riunione di oggi non poteva aver luogo, non
dovremmo viaggiare in auto e neppure su di un treno. Il PdP è in
realtà concepito come principio per bloccare le iniziative ideologica-
mente sgradite. Quasi tutte le versioni considerano l’impatto di singoli
ritrovati tecnici, farmaco o pesticida o antenna radar che siano, e tra-
scurano le interazioni. La natura è un sistema complesso in cui posso-
no interagire anche centinaia di fattori diversi, ed è molto difficile pre-
dire il risultato finale a lungo termine. A distanza di anni un interven-

1 Trasmissione televisiva di Rai Due condotta da Antonio Socci.


Il principio di precauzione: un trucco verbale 79

to può rivelarsi benefico o dannoso. Il tentativo di adattare il PdP a si-


tuazioni di estrema complessità non è realistico. Siamo condannati alla
navigazione a vista, forse potremo evitare gravi incidenti a breve ter-
mine, forse 10 anni, ma certamente non 50 anni. L’andare oltre è vel-
leitario e anche costoso; è destino dell’uomo applicare la propria intel-
ligenza.
L’altro punto di cui si è parlato è il ruolo e i limiti della ricerca
scientifica. Non sono religioso, ma ricordo molto bene i tempi del li-
ceo e il mio professore di religione, persona di cui ho un caro ricordo.
Don Carena ricordava che errare humanum est e su questo punto cre-
do che siamo tutti d’accordo, però aggiungeva anche perseverare dia-
bolicum, ed io ho sempre apprezzato questa aggiunta.
Signori, virtù della scienza non è l’infallibilità bensì quella di non
perseverare nell’errore, l’errore è inevitabile ed ha anche una funzione
creativa, a volte apre le porte a nuove scoperte. Le irregolarità nel mo-
to del pianeta Mercurio all’inizio apparvero come una violazione ine-
splicabile della legge di Newton, ma in realtà furono punto di svolta
di enorme importanza che ci ha condotti alla relatività generale. Quin-
di, tutto questo significa che dobbiamo imparare dall’errore, ammet-
tere che l’errore fa parte della ricerca e darci da fare.
Vorrei infine occuparmi di un tema molto attuale. La manipolazio-
ne del genoma di esseri viventi è tema scottante che solleva problemi
etici che agitano la nostra società. Non manca chi vorrebbe porre fine
alla ricerca ed a qualsiasi manipolazione del genoma, foss’anche a sco-
po curativo. La mia opinione è che se la natura commette errori, causa
di gravi malattie e di inaudite sofferenze, abbiamo tutto il diritto e il
dovere di intervenire.
Noto purtroppo una chiara assenza di pietà umana in molti critici
della ricerca scientifica. Ricordo un collega del Parlamento Europeo a
cui avevo riferito il caso di una bambina affetta da immunodeficienza
congenita e curata al S. Raffaele con un intervento sul genoma, il pri-
mo caso trattato in Europa. I ricercatori hanno modificato il midollo
osseo della bambina che ha finalmente ottenuto un suo sistema immu-
nitario e, a quanto mi hanno riferito, frequenta oggi regolarmente la
scuola. Ottenni una reazione gelida, il collega furioso replicò che «non
si sa cosa possa fare all’ambiente», una delle tante frasi fatte che ven-
gono ripetute fino alla nausea.
80 I costi della non-scienza

Rivolgo a questo proposito un caldo invito ai colleghi, vorrei che


qualcuno incaricasse uno studente volonteroso che raccolga e analizzi
le frasi ossessive e ripetitive che caratterizzano le polemiche ambienta-
liste. Quella da me citata è ben nota. Un’altra litania recita «tutti i bre-
vetti degli OGM sono nelle mani delle multinazionali». La ripetizione
ossessiva di slogan sarebbe ridicola se non fosse vergognosa. Nel caso
da me citato l’intervento ha posto fine alle sofferenze di una bambina
che soffriva di una malattia molto grave, condannata altrimenti a tra-
scorrere tutta la sua vita in una bolla di plastica. Tutto questo mi ricor-
da una frase di Mencken che definiva il puritano come «un signore
che soffre intensamente al pensiero che qualcuno da qualche parte nel
mondo sia felice».
Signori, i puritani sono ancora fra di noi.
81

IL PRINCIPIO DI PRECAUZIONE E LA SALUTE

Umberto Tirelli
Direttore Dipartimento di Oncologia Medica
Istituto Nazionale Tumori di Aviano

S
econdo la definizione che la Commissione Europea ha dato nel
1998, «il Principio di Precauzione (PdP) è un approccio alla ge-
stione del rischio che si applica in circostanze di incertezza
scientifica e che riflette l’esigenza di intraprendere delle azioni a fron-
te di un rischio potenzialmente serio senza attendere i risultati della ri-
cerca scientifica». Ma, come è stato osservato più volte durante il cor-
so di questa conferenza, la certezza scientifica è sempre assente. La
scienza, a differenza delle parascienze, della cartomanzia e dell’astro-
logia, non offre certezze. Il rischio del PdP è che quello spazio di dub-
bio lasciato dalla scienza venga riempito da affermazioni arbitrarie,
dando voce solo alle emozioni della gente o comunque a persone non
competenti che vogliono sfruttare questi sentimenti, consentendo una
strumentalizzazione in aperto contrasto con gli interessi della colletti-
vità e con l’analisi critica delle acquisizioni scientifiche.
Il PdP è perciò impossibile da applicarsi per la salute, perché fa
appello alla incertezza scientifica, ma l’incertezza è intrinseca alla
scienza. Il PdP non è un criterio scientifico, ma è un atteggiamento so-
cio-politico, che non ha niente a che fare con la scienza. Invece del
PdP, è la prevenzione dai rischi accertati sulla base dei dati scientifici
che dovrebbe essere la guida dei nostri comportamenti. Per esempio,
gli incidenti stradali sono la prima causa di morte nei giovani, ed è co-
me se un aereo cadesse in ogni week-end non soltanto in Italia, ma in
ogni singolo paese occidentale. La prevenzione si basa sulla riduzione
della velocità mentre si guida, sul bandire alcool e qualsiasi droga al
conducente, sull’impiego della cintura di sicurezza, sul non utilizzo
del telefonino alla guida. Mentre questa è prevenzione, il PdP applica-
to all’utilizzo della macchina prescriverebbe che non si andasse in
macchina per non rischiare incidenti stradali o comunque l’inquina-
82 I costi della non-scienza

mento atmosferico urbano, che dipende all’80%, nel suo complesso,


dall’utilizzo delle macchine.
Ma ecco un esempio di come l’invocazione del PdP sia stata scon-
fessata da un organismo internazionale come l’OMS. Un rapporto
dell’OMS del marzo 2000 recita: «Le condizioni di applicabilità del
Principio di Precauzione espresse dalla Commissione dell’UE non sus-
sistono né per i campi a frequenza industriale né per quelli a radiofre-
quenze». Stranamente, il rapporto dell’OMS non viene mai menziona-
to quando si cita il PdP a questo proposito.
Secondo la Commissione Europea (2000), «il ricorso al PdP pre-
suppone l’identificazione di effetti potenzialmente negativi che deri-
vino da un fenomeno, da un prodotto o da una procedura, nonché
una valutazione scientifica del rischio». Quindi perché venga invoca-
to il PdP è necessario che sia stata chiaramente identificata la sua na-
tura di potenziale danno alla salute, anche se con incertezze sull’en-
tità dei rischi ipotizzati e sull’effettivo nesso causale. Questo chiari-
mento della Commissione Europea risolve solo parzialmente il pro-
blema. Infatti, la letteratura epidemiologica abbonda di studi che se-
gnalano associazioni statistiche tutte da verificare sul piano eziologi-
co; la letteratura medica riporta innumerevoli case reports interpreta-
bili come primo segnale di un problema sanitario, ma che potrebbe
poi rivelarsi infondato.
Il PdP crea quindi una situazione di conflitto con il metodo scien-
tifico che può essere superata solo rispondendo a due domande:
• Quale grado di evidenza scientifica è necessario perché un ri-
schio sanitario o ambientale possa dirsi “identificato”?
E, di converso,
• Quanta mancanza di evidenza scientifica è necessaria perché
un agente, un fenomeno o un’attività umana possano essere conside-
rati “innocui”?
Le due domande sono solo apparentemente speculari. Mentre in-
fatti solidi studi positivi, nel senso che indicano un effetto, possono
fornire la “prova di pericolosità”, nessuno studio negativo, per quanto
ampio e solido può fornire la “prova di innocuità”.
Significativo in proposito è il fatto che la classificazione dell’Agen-
zia Internazionale sulla Ricerca sul Cancro (IARC) prevede, ad un
estremo, la categoria delle sostanze “cancerogene”, ma all’altro estre-
Il principio di precauzione e la salute 83

mo non va oltre la definizione di “probabilmente non cancerogene”.


La parola “innocuo” dovrebbe quindi a rigore scomparire dal dizio-
nario scientifico; il problema che si pone è stabilire quanta evidenza
scientifica negativa (nel senso sopraindicato) deve accumularsi perché
qualche cosa corrisponda a ciò che, nel parlare e nel sentire comune,
viene considerato come “innocuo”. La risposta non è univoca perché
è soggettivo non solo il concetto di innocuità, ma anche la percezione
dei rischi, influenzata spesso più da fattori psicologici che dalle cono-
scenze scientificamente oggettive. Tutto ciò rende inutilmente difficile
la gestione di molti problemi sanitari, di potenziali farmaci e di farma-
ci già in commercio. O del problema dei campi elettromagnetici sopra
accennato.
E ancora: il richiamo alla responsabilità professionale degli addetti
ai lavori è pressante nell’impianto normativo in vigore nell’Unione
Europea: esso sottintende l’ipotesi che le moderne tecnologie biologi-
che siano potenzialmente pericolose e che sia quindi necessario otte-
nere un progressivo consenso sociale sulle loro utilizzazioni produtti-
ve in ambito sanitario, agricolo ed industriale.
Per quanto riguarda la salute in generale, se tenessimo conto del
PdP, che viene spesso portato come paladino della difesa della salute e
dell’ambiente, come ci dovremmo comportare con l’inquinamento
prodotto dalle macchine e dal riscaldamento che notoriamente può
portare a malattie respiratorie ed oncologiche? Chiedere la rottama-
zione delle auto e vivere al freddo?
La scienza non risolve ovviamente i problemi della salute, ma se ci
sono dei problemi correlati alla salute sia per quanto riguarda i nuovi
farmaci che altri problemi generali, il metodo scientifico offre le rispo-
ste più attendibili perché l’indagine e la verifica dei risultati poggia sul
rigore critico della comunità scientifica e certamente non sulle emo-
zioni della gente o sui preconcetti o peggio ancora sulle idee politiche.
Pertanto al PdP, che non è un criterio scientifico, va senz’altro sosti-
tuito il metodo scientifico. Esso si basa sui seguenti passaggi:

ANALISI PRELIMINARE: Domande alle quali dare una risposta.


Per esempio: Qual è la causa dell’AIDS?
TEORIA: Sulla base delle conoscenze disponibili viene formulata
una teoria: l’AIDS è una malattia infettiva che dipende da un virus.
84 I costi della non-scienza

IPOTESI SPERIMENTALE: 1) Se l’AIDS dipende da un virus


dobbiamo trovare un virus nel paziente; 2) Il virus isolato dovrebbe
provocare in un modello sperimentale di laboratorio danni simili a
quelli della malattia.
SPERIMENTAZIONE: Analizzando il sangue dei pazienti si trova
sempre il virus HIV e questo conferma la solidità della teoria virale.
CONFERMA E RIPRODUCIBILITÀ DEI DATI: Pubblicati que-
sti dati su riviste scientifiche autorevoli, questi dati devono essere con-
fermati. Se non venissero confermati si ritorna alle fasi precedenti.
L’HAART ha rivoluzionato la storia naturale dell’HIV/AIDS, tra-
sformandola da una malattia evolutiva e spesso mortale in pochi anni a
malattia cronica sostanzialmente gestibile, con una riduzione significa-
tiva del passaggio da HIV ad AIDS e di mortalità in pazienti con
AIDS. L’HAART è stato uno dei più grandi progressi medici del secolo
scorso in campo farmacologico. L’AIDS è stato descritto per la prima
volta nel 1981, vi è stata la scoperta del virus che lo causa nel 1983, so-
no stati disponibili un test del sangue nel 1985 e, dopo pochi anni, una
terapia in grado di rendere spesso cronica questa infezione, che prima
era mortale in tutti i casi. E pensare che c’è chi dice che l’HIV non è la
causa dell’AIDS, come ad esempio il presidente del Sud Africa che si
basa su affermazioni screditate dello scienziato Duesberg. Nel frattem-
po vi è chi si lamenta perché i farmaci anti-HIV non vengono resi di-
sponibili al Sud Africa.
Di fronte ad una sopravvivenza sostanzialmente migliorata in poco
tempo per merito dell’HAART, non sarebbe stato accettabile pensare
agli eventuali effetti secondari tossici a medio e lungo termine causati
dai farmaci dell’HAART. Cosa avrebbero potuto dire i pazienti con
HIV/AIDS se qualcuno avesse proposto di attendere 5-10 anni per
valutare gli eventuali effetti collaterali dell’HAART (che poi si sono
effettivamente riscontrati, per esempio lipodistrofia ed altri, come
d’altra parte succede quasi sempre con una terapia cronica)?
Altre circostanze nelle quali il PdP dovrebbe essere sostituito dal-
l’applicazione del metodo scientifico sono il cosiddetto elettrosmog,
l’agricoltura che usa OGM e quella biologica, l’energia nucleare e
l’uranio impoverito.
Come detto in precedenza, la scienza non risolve ovviamente i pro-
blemi della salute, ma se ci sono dei problemi correlati alla salute sia
Il principio di precauzione e la salute 85

per quanto riguarda i nuovi farmaci che altri problemi generali, è il


metodo scientifico che offre le risposte più attendibili. Pertanto, il
PdP va senz’altro sostituito dal metodo scientifico e comunque da
quanto le Agenzie nazionali ed internazionali preposte, costituite da
ricercatori esperti nell’argomento, e che si basano su quanto gli scien-
ziati hanno riportato sull’argomento, possano enunciare.
Infine va ribadito che tutti noi quando riportiamo dei dati scientifi-
ci, dovremmo sempre ricordare di citare le Agenzie nazionali ed inter-
nazionali che riportano quanto stiamo dicendo, oppure ricerche pub-
blicate sulle riviste più autorevoli e che sono confermate da altri. Se
così non fosse, il nostro discorso dovrebbe essere sempre molto cauto
e comunque mai definitivo.
87

PIANTE GM:
UNA GRANDE OPPORTUNITÀ PER
L’AGRICOLTURA ITALIANA

Francesco Sala
Università di Milano

«I
o mangio cibi naturali perché sono sicuri»: due errori in una
frase. Primo errore: tutte le piante coltivate dall’uomo per
produrre cibo, mangimi per animali e prodotti di interesse
industriale, non sono “naturali”. Il pomodoro, il frumento, il riso, il
mais sono il risultato di incroci, mutazioni e selezioni operate negli ul-
timi millenni e, soprattutto, nel secolo appena concluso.
Secondo errore: la correlazione “cibo naturale/assenza di rischi” è
scientificamente infondata. La maggior parte delle piante produce ve-
leni, tossine e sostanze cancerogene. Ciò ha un significato biologico ed
evolutivo: la pianta produce questi composti per difendersi dai suoi
parassiti (insetti, funghi, virus, animali che se ne cibano).
L’uomo, ha selezionato piante che, apparentemente, non gli sono
tossiche o ha imparato a renderle commestibili. Oggi la scienza ci aiu-
ta in questa selezione; ad esempio, si è di recente scoperto che le gio-
vani piantine di basilico usate per il “pesto genovese” contengono me-
til-eugenolo, una sostanza che può provocare tumori. Ma la scienza ha
anche chiarito che la concentrazione di questa sostanza scende al di
sotto del livello di guardia nelle foglie di piante adulte: basta prepara-
re il pesto con piante più alte di 10 centimetri. Un altro esempio del
fatto che i rischi accompagnino anche l’alimentazione, sia tradizionale
sia biologica: nel novembre 2003 la Regione Lombardia dovette ordi-
nare la distruzione del 20% del latte ivi prodotto perché contaminato
da aflatossine. Si tratta di molecole che causano diverse gravi patolo-
gie, tra cui anche tumori.1 Il fatto è stato circoscritto alla Lombardia
perché questa è stata l’unica regione che abbia effettuato appropriati

1 Turner et al., Mutation Research 443, p. 81-93 (1999).


88 I costi della non-scienza

controlli, ma non vi è ragione di escludere che anche il resto dell’Italia


sia a rischio. Perché le aflatossine nel latte? Perché un componente
importante della dieta degli animali da latte è il mais. Su quest’ultimo
spesso cresce un fungo parassita che produce micotossine, tra cui le
aflatossine stesse. Queste, assorbite dall’animale, vengono accumulate
nel latte.

Tabella 1.
Alcuni rischi della agricoltura tradizionale e di quella biologica

Per la salute umana:

1. Sostanze tossiche o tumorigene nella pianta (es.: basilico giovane


contiene metileugenolo, un cancerogeno)
2. Sostanze allergeniche (es.: 15 allergeni nel Kiwi)
3. Residui di composti chimici usati come fitofamaci in agricoltura
(fertilizzanti, diserbanti, insetticidi, fungicidi)
4. Presenza di tossine fungine nei prodotti agricoli (aflatossine, fumo-
sine, ocratossine).

Per l’ambiente:

1. Diffusione di polline (es.: pioppo coltivato che, con il suo polline,


riduce la biodiversità del pioppo naturale)
2. Colonizzazione di ecosistemi (es.: robinia, Ailantus, un melo infe-
stante nel Parco del Ticino)
3. Impoverimento dei suoli
4. Eutrofizzazione delle acque
5. Inquinamento delle falde acquifere (es.: atrazina nelle risaie degli
anni Sessanta-Settanta).

È dimostrato che il rischio aflatossine è molto più alto nelle coltiva-


zioni biologiche ove il controllo del fungo è più problematico rispetto
al mais tradizionale e, soprattutto al mais-Bt, una pianta transgenica
che ha acquisito un gene che conferisce resistenza alla piralide, un in-
Piante GM: una grande opportunità … 89

setto parassita. Ma cosa c’entra l’insetto con i funghi che producono


aflatossine? I dati sperimentali mostrano che un mais che cresca sano,
perché non attaccato dalla piralide, il suo principale parassita nei no-
stri campi, riesce a resistere meglio alle infezioni fungine. In esso le
aflatossine risultano dunque assenti o ridotte a tracce. L’agricoltura,
ed i suoi prodotti, non sono dunque esenti da rischi. Alcuni di questi
sono riassunti in Tabella 1.
Eppure oggi il Principio di Precauzione viene invocato solo quando
si tratti di piante transgeniche (conosciute anche come piante geneti-
camente modificate, o piante GM). Quante volte nei dibattiti pubblici
mi sono sentito chiedere: «Lei, come scienziato, ci può dare la sicurez-
za che le piante GM siano assolutamente esenti da rischi, sia presenti
che futuri? Se la scienza non ci dà questa certezza, meglio il non-fa-
re!». La mia risposta è sempre stata articolata su due punti fondamen-
tali: il primo è che la scienza, in qualsiasi settore, non dà mai sicurezze
assolute. Con i suoi metodi di indagine, sempre più sofisticati, può da-
re altissime garanzie, ma mai la sicurezza assoluta. Il secondo concer-
ne il fatto che, in tutte le attività umane, la sicurezza è sempre un con-
cetto relativo: in ogni specifica situazione essa è correlata con il livello
di tolleranza del rischio che si accetta in confronto con i benefici che
derivano dall’attività stessa.
Il rischio zero non esiste in alcuna attività umana. Di fronte alle
innovazioni tecnologiche, ed in ogni attività quotidiana, noi eseguia-
mo, anche inconsciamente, un’analisi dei rischi e dei benefici; ed
agiamo di conseguenza. Ma questo non sempre segue regole raziona-
li. La decisione è soggettiva. L’irrazionalità e la paura viscerale del
nuovo giocano ruoli spesso rilevanti. Consideriamo rischi accettabili
quelli legati alla motorizzazione anche se ogni anno, solo in Italia,
questa uccide 6.000 persone, ne rende disabili altre 200.000, inquina
le città, danneggia l’ambiente ed il patrimonio artistico. L’accettiamo
perché, comunque, pensiamo che i benefici dell’usare l’auto siano
superiori ai rischi. Ma, allo stesso tempo, ci spaventa la notizia che
un vaccino, come il Sabin, che pur previene la poliomielite, causi la
malattia in un vaccinato ogni 2 milioni. La maggioranza degli italiani
si dichiara poi contraria ai cibi GM anche se questi, dopo dieci anni
d’uso in molti paesi del mondo non hanno mai scatenato nemmeno
un raffreddore.
90 I costi della non-scienza

Eppure oggi, nel nostro Paese, e solo nel caso delle piante GM, il
Principio di Precauzione è stato trasformato in Principio di Blocco.
Gruppi di opinione (e di interesse economico ed anche politico) han-
no condotto una ben orchestrata campagna contro le biotecnologie
vegetali, ingigantendone alcuni rischi, quelli comuni alle pratiche agri-
cole in genere, ed inventandone altri. Di conseguenza, alcune Regioni
si sono dichiarate GM-free; e il Governo, delle piante GM, ha bloc-
cato sia l’uso sia la ricerca.
A nulla vale la considerazione che miliardi di persone nel mondo
producono e usano piante GM. E ciò dopo che i loro governi hanno
condotto approfondite analisi dei rischi; la ricerca ha dimostrato che
non vi è stato un solo caso riconosciuto di tossicità per l’uomo, di in-
duzione di allergenicità, di danni ambientali, di flusso genico, di atten-
tato alla biodiversità. Tutte le accuse mosse alle piante GM fanno dun-
que parte del “potrebbe”, del “non è da escludere che”, non dello
“scientificamente dimostrato”.
I controlli preventivi hanno dunque funzionato! Le piante GM
«Sono più sicure di quelle tradizionali perché accuratamente control-
late»; questa è la conclusione cui è giunto Philippe Busquin, il Com-
missario Europeo per la Ricerca Scientifica nella prefazione del libro,
edito dalla Comunità Europea, dal titolo EC-sponsored Research on
Safety of Genetically Modified Organisms. Busquin è pienamente au-
torizzato a fare questa affermazione, in quanto basata su di una ricerca
condotta per 15 anni in 400 istituti di ricerca europei con una spesa di
70 milioni di euro.
Eppure, ancora oggi nel nostro Paese si pretende che le piante GM
siano bloccate sino a che non avremo la sicurezza assoluta dell’assenza
di rischi attuali e futuri. Rischi esisteranno sempre in agricoltura (sia
biologica, sia tradizionale, sia GM) come in tutte le altre attività uma-
ne. Compito della scienza non può essere che quello di verificare, caso
per caso, il livello di rischio ed offrire alla società parametri per le de-
cisioni sulla accettabilità di ogni nuova varietà vegetale proposta per
l’uso agricolo. E ciò nonostante che le leggi oggi vigenti stabiliscano
che una nuova varietà debba essere approfonditamente controllata
per eventuali rischi per la salute umana e per l’ambiente nel caso in
cui questa sia classificata come GM. I controlli devono essere effettua-
ti prima di ricevere la licenza di uso agricolo. Non è così per le piante
Piante GM: una grande opportunità … 91

migliorate geneticamente per incrocio o per mutagenesi con radiazio-


ni o con composti chimici mutageni. Queste ricevono sempre il per-
messo di coltivazione se solo dimostrano di essere una nuova varietà,
non una copia di una varietà già esistente. Eventuali rischi saranno ve-
rificati a posteriori sulla salute dei consumatori o sull’ambiente ove sa-
ranno coltivate!
Eppure le precauzioni prese nel caso delle piante GM non sono ri-
tenute sufficienti. Si è instaurata una spirale perversa: se le piante GM
sono controllate è perché sono pericolose. Questa è il messaggio che
arriva all’opinione pubblica. Ma se sono pericolose, è auspicabile che
vi siano ulteriori controlli e restrizioni. E così l’autorità politica va in-
contro alla domanda del pubblico ed introduce ulteriori controlli e re-
strizioni. Ma allora sono davvero molto pericolose! E ciò porta alla ri-
chiesta di ulteriori controlli: si è creato il mostro, anzi, il cibo di
Frankestein! Al contrario, il prodotto agricolo tradizionale non è con-
trollato. Il messaggio per l’opinione pubblica è che questo non abbia
rischi. Non parliamo del cibo biologico, oggi vicino alla santificazione:
è il cibo bucolico dei nostri nonni! Sapori meravigliosi e assenza di ri-
schio, almeno nell’immaginario creato da una interessata e ben orche-
strata campagna pubblicitaria. Interessata perché la principale caratte-
ristica del prodotto biologico è il “maggior valore aggiunto”; in parole
povere, il maggior guadagno da parte del produttore e del venditore.
La domanda è: è sensato proporre che si valuti il rapporto
rischi/benefici delle piante GM e che le si blocchino se sarà evidenzia-
to un rapporto inaccettabile, ma le si accettino quando i rischi risulti-
no ridotti ed i benefici notevoli? La logica impone che il rapporto ri-
schi/benefici sia valutato caso per caso, in quanto dipenderà sia dalla
specie di pianta, sia dal gene integrato, sia anche dal sito geografico
ove si intende coltivare la pianta. Ma qual è il livello di rischio accetta-
bile? Non è difficile stabilirne il valore soglia. La regola potrebbe esse-
re: si confronti, sempre caso per caso, il rapporto rischi/benefici offer-
to oggi da una specifica coltivazione (ad esempio mais) con quella resa
possibile dalla disponibilità della stessa pianta migliorata per inseri-
mento di uno specifico gene (ad esempio, mais-Bt, che resiste agli at-
tacchi della piralide senza necessità di insetticidi).
Sarebbe auspicabile che procedure di valutazione analoghe venis-
sero adottate anche nel caso delle piante non-GM (incluse quelle usa-
92 I costi della non-scienza

te nella cosiddetta agricoltura biologica). Ma forse oggi è sperare trop-


po nel nostro paese! Oggi è anche troppo proporre che il nostro paese
riprenda gli studi sui rischi e sui benefici delle piante GM: semplice-
mente, è oggi proibito produrre le piante GM su cui fare tali studi.
«Ma il messaggio basato sulla sola scienza non sembra far presa»,
questa è l’opinione espressa anche dal commissario U.E. per la salute
e la protezione dei consumatori, David Byrne, che, affrontando in un
recente Convegno il tema piante GM dal punto di vista del contrasto
tra paura irrazionale e giusta preoccupazione, ha rilevato che «il fumo
uccide, ma molti continuano a fumare, mentre le stesse persone non
vogliono mangiare un biscotto GM, anche se tutte le prove scientifi-
che relative agli alimenti GM dicono che sono sicuri almeno quanto
gli alimenti tradizionali».
Perché siamo arrivati a tanto? Probabilmente perché una ben orga-
nizzata campagna condotta sui mass media, ed in tutte le possibili oc-
casioni mediatiche, ha ormai snaturato il senso del Principio di Precau-
zione. Questo, che avrebbe dovuto essere il principio logico su cui ba-
sare tutte le decisioni riguardanti i nuovi sviluppi tecnologici, è dive-
nuto, per la sua aleatorietà, un mezzo per difendere posizioni integra-
liste contro sviluppi tecnologici indesiderati.
Inoltre, non è facilmente percepito dal cittadino il fatto che spesso,
nelle attività umane, il non-fare può avere conseguenze più gravi del
fare. Si prendano gli esempi del passato: chi autorizzerebbe oggi, in
base all’estrema cautela che si pretende per le piante GM, la speri-
mentazione dei vaccini contro le malattie infettive: l’iniezione di batte-
ri o virus patogeni ancora vivi per stimolare la risposta immunitaria sa-
rebbe considerata pura follia! Chi autorizzerebbe oggi, in base alla
stessa cautela, l’introduzione nella dieta europea, dalle Americhe, di
un cibo esotico quale la patata, che contiene solanina, una sostanza
tossica che inattiviamo con la cottura? Eppure abbiamo appena intro-
dotto un nuovo cibo esotico, il kiwi, con le sue 15 proteine allergeni-
che: ma non è GM!
In definitiva, ciò che è realisticamente possibile chiedere alle piante
GM non è l’eliminazione totale dei rischi, ma la riduzione del loro li-
vello già accettato nell’agricoltura attuale e l’aumento dei benefici.
Questo è quello che si deve chiedere allo scienziato, non una impossi-
bile sicurezza assoluta.
Piante GM: una grande opportunità … 93

L’attuale uso restrittivo del Principio di Precauzione sta portando


l’agricoltura italiana alla morte e quella europea alla perdita di compe-
titività con le agricolture americana, asiatica ed africana. Senza inno-
vazione tecnologica, stiamo assistendo ad un invecchiamento delle no-
stre varietà coltivate, all’aumento dei costi dei prodotti agricoli, all’au-
mento dei rischi alimentari correlati con la presenza di livelli preoccu-
panti di micotossine e batteri patogeni nei cibi tradizionali e, soprat-
tutto, nei cibi biologici.
95

GREEN BIOTECHNOLOGY COULD SAVE MILLIONS


OF LIVES – BUT IT CANNOT BECAUSE OF ANTI-
SCIENTIFIC, EXTREME-PRECAUTIONARY
REGULATION

Ingo Potrykus
Professor emeritus in Plant Sciences, ETH Zürich, Switzerland

Biofortification can complement traditional interventions against


malnutrition

I
n developing countries 500,000 per year become blind and up to
6,000 per day die from vitamin A-malnutrition. And this is
despite enormous efforts from public and philanthropic
institutions to reduce this medical problem with the help of
traditional interventions such as supplementation, fortification,
encouragement for diet diversification, etc. This heavy toll poor
people in developing countries are paying to vitamin A-malnutrition
will continue year by year, if we do not find a way to complement
traditional interventions by sustainable and unconventional ones. One
of those could be based on nutritional improvement of basic staple
crops via “bio-fortification” – genetic improvement with regards to
micronutrients and vitamins. Plant breeding and genetic engineering
offer two complementing approaches.
The major micronutrient deficiencies concern iron, zinc, and
vitamin A. Vitamin A-deficiency is wide-spread amongst rice-
depending poor because rice does not contain any pro-vitamin A
(Plants do not produce vitamin A but pro-vitamin A (carotenoids),
which our body converts into vitamin A). Dependence on rice as the
predominant food source, therefore, necessarily leads to vitamin A-
deficiency if poverty prevents a diversified diet, most severely
affecting children and pregnant women. The medical consequences
for the vitamin A-deficient 400 million rice-consuming poor are
severe: impaired vision – in the extreme case irreversible blindness –
impaired epithelial integrity against infections, reduced immune
96 I costi della non-scienza

response, heamopoieses, skelettal growth, etc. Rice containing pro-


vitamin A could substantially reduce the problem, but “bio-
fortification” of rice for pro-vitamin A is not possible without genetic
engineering. The transgenic concept, therefore, was based on the idea
to introduce all genes necessary to activate the biochemical pathway
leading to synthesis and accumulation of pro-vitamin A in the
endosperm (the starch storage tissue of the seed).

The scientific breakthrough with pro-vitamin A

Golden Rice contains the genes necessary to activate the


biochemical pathway for pro-vitamin A. This pathway is activated
exclusively in the endosperm. The intensity of the “golden colour”
represents the concentration of pro-vitamin A. There are different
lines with different concentrations. We aim at concentrations, where a
daily diet of 200g of rice will provide enough pro-vitamin A to
substantially reduce vitamin A deficiency. The concentration required
for this purpose can only be determined, when data from bio-
availability studies are available. Experiments on these lines are in
progress, but will take until end of 2005. So far we are working with
lines in which -theoretically – the concentration is high enough for
our goal.

The novel trait has been transferred into several Indica rice
varieties – especially IR 64, the most popular rice variety of Southeast
Asia – and “regulatory clean” events have been selected to facilitate
the processing through the deregulatory process. [Ye, X., Al-Babili,
S., Klöti, A., Zhang, J., Lucca, P., Beyer, P., Potrykus, I. (2000),
«Engineering provitamin A (β-carotene) biosynthetic pathway into
(carotenoid-free) rice endosperm», Science 287, 303-305. Beyer P, Al-
Babili S, Ye X, Lucca P, Schaub P, Welsch R, Potrykus I (2002),
«Golden Rice, introducing the β-carotene biosynthetic pathway into
rice endosperm by genetic engineering to defeat vitamin-A
deficiency», J. Nutrition 132, 506S-510S. Tran Thi Cuc Hoa, Salim
AlBabili, Patrick Schaub, Ingo Potrykus, and Peter Beyer (2003),
«Golden Indica and Japonica rice lines amenable to deregulation»,
Plant Physiology 133, 161-169].
Green biotechnology could save millions of lives… 97

Golden Rice will be made freely available in a humanitarian project

Golden Rice will be made available to developing countries in the


framework of a “Humanitarian Golden Rice Project”. This was from
the beginning a public research project, designed to reduce
malnutrition in developing countries. Thanks to strong support from
the private sector and donations of “free licences for humanitarian
use” for intellectual property rights involved in the basic technology,
the hurdle of extended IPR linked to the technology used in the
scientific project could be overcome. This enables us to collaborate
with public rice research institutions in developing countries on the
basis of “freedom-to-operate” towards the development of locally
adapted Golden Rice varieties. Once Golden Rice varieties have
passed the national bio-safety procedures, it will be made available to
subsistence farmers free of charge and limitations. It will become their
property and they can – year after year – use part of their harvest for
the next sowing (without paying anything to anybody). The farmers
will use their traditional farming systems and they will not require any
additional agronomic inputs. Therefore, there will be no “new
dependencies” from anyone. And there is no conceivable risk to any
environment which would justify not to grow Golden Rice in the field
for breeding and up-scaling reasons. This progress since the scientific
breakthrough in 1999 was possible thanks to a novel type of “public-
private-partnership”. Thanks to an agreement with Syngenta and
other agbiotech industries, the use of Golden Rice is free of licenses
for “humanitarian use”, defined as “income from Golden Rice per
year and farmer below $ 10.000 “Commercial use”, however, (above $
10.000 per year) requires a license from Syngenta. Humanitarian use
is based on (license-free) sublicenses from the Humanitarian Golden
Rice Board to public rice research institutions. This sublicense
agreement ensures that the material is handled according to
established GMO rules and regulations, and that the target
population – subsistence farmer and urban poor -receive the material
without any additional cost for the trait.
98 I costi della non-scienza

Locally adapted varieties are being developed in national institutions


in the framework of a Humanitarian Golden Rice Network
under the guidance of a Humanitarian Golden Rice Board

Development of locally adapted Golden Rice varieties as well as


application to national bio-regulatory authorities for field testing and
deregulation is in the hands of national and international public rice
research institutions. To date this “Humanitarian Golden Rice
Network” includes 16 such institutions in Bangladesh, China, India,
Indonesia, South Africa, The Philippines, and Vietnam. The network is
under the strategic guidance of the Humanitarian Golden Rice Board,
and under the management of a network coordinator with office at the
International Rice Research Institute (IRRI), Philippines. The
Humanitarian Board has, so far, no legal status and benefits from the
expertise of international authorities such as Dr. Gurdev Khush, retired
from IRRI (rice breeding), Prof. Robert Russell, Laboratory for Human
Nutrition, Tufts University Boston (vitamin A-malnutrition), Dr.
Howarth Bouis, International Food Policy Research Institute (IFPRI)
Washington (bio-fortification), Dr. Gary Toenniessen, The Rockefeller
Foundation New York (food security in developing countries), Dr.
Robert Bertram, USAid Washington (development in Third World
agriculture), Dr. Adrian Dubock, Syngenta (product development and
intellectual property rights), Dr. Ren Wang / Dr. William Padolina IRRI
(international cooperation in rice research), Professor Peter Beyer (co-
inventor) university of Freiburg (scientific progress underlying bio-
fortification in pro-vitamin A and other micronutrients), Dr. Katharina
Jenny, Swiss Development Cooperation Bern (technology transfer and
trans-sectorial issues), and Professor Ingo Potrykus (co-inventor),
retired from ETH Zuerich, chairman (public relations and information).

Biofortified seeds have an unmet potential for sustained solutions

Bio-fortification (complementation for missing micro-nutrients with


the help of genetic complementation) of the basic staple crops for poor
populations in developing countries is, most probably, the most
sustainable and cost-effective approach to reduction in micro-nutrient
malnutrition. (For more information on the concept of bio-fortification
Green biotechnology could save millions of lives… 99

and a recent challenge program of the CGIAR see homepage


www.harvestplus.org). Golden Rice represents the first example of bio-
fortification achieved via genetic engineering. Research investment for
this trait (bio-fortification for pro-vitamin A) was relatively modest ($
2,4 million over 9 years) and financed from funds for basic research.
Product development, however, from this scientific brake-through
is time consuming and requires additional funding, but again one-time
only for each event. Expenses are increasing really dramatically when
working through the bio-safety assessments required for deregulation.
But again this is a one-time investment. As soon as a novel biofortified
variety is deregulated and can be handed out to the farmer, the system
demonstrates its unique potential, because from this point on, the
technology is built into each and every seed and does not require any
additional investment, for an unlimited period of time. Just consider
the potential of a single Golden Rice seed: Put into soil it will grow to a
plant which produces, at least, 1 000 seeds; a repitition will yield at
least 1 000 000 seeds; next generation produces already 1 000 000 000
seeds and in the fourth generation we arrive at 1 000 000 000 000
seeds. These are 20 000 metric tons of rice and it takes only two years
to produce them. From these 20 000 tons of rice 100’ 000 poor can
survive for one year, and if they use Golden Rice they have an
automatic vitamin A supplementation reducing their vitamin A-
malnutrition, and this protection is cost-free and sustainable. All a
farmer needs to benefit from the technology is one seed! There is no
additional input required compared to “normal rice”. And for urban
poor there is no premium on vitamin A-rice. There are enough seeds
to be handed out to many farmers, but this can not be done, because
Golden Rice is a “GMO” (genetically modified organism) and those
are highly regulated. And the Humanitarian Golden Rice Board has
decided to follow the established rules and regulations.

Extreme precautionary regulation, however, prevents use so far and


ignores the potential benefits

Considering the history of Golden Rice (the technology is often


considered risky because it is so fast!) it took 10 years (from 1980 to
1990) to develop the necessary technology of placing genes into rice. It
100 I costi della non-scienza

took further 9 years (from 1990 to 1999) to introduce the genes


required to establish the biochemical pathway leading to pro-vitamin
A in the seed. And it took further 5 years (from 1999 to 2004) to
develop a Golden Rice “product” and carry it across a series of GMO-
specific hurdles such as IPRs. And it will take, probably, at least 5
more years to advance the first Golden Rice product through the
deregulatory procedure: Therefore, it took 30 years if we include
technology development, and it took still 20 years for the single
specific case. Considering that Golden Rice could substantially reduce
blindness (500 000 per year) and death (2-3 million per year) 20 years
are a very long time period, and I do not think that anyone should
complain that this was “to fast”! If it were possible to shorten the time
from science to the deregulated product, we could prevent blindness
for hundreds of thousands of children! However, the next 5 years will
have to be spent on the required “bio-safety assessments” to guarantee
that there is no putative harm from Golden Rice for the environment
and the consumer. Nothing speaks against a cautious approach, but
present regulatory praxis follows an extreme interpretation of the
“precautionary principle” with the understanding that not even the
slightest hypothetical risks can be accepted or left untested, and at the
same time all putative benefits are totally ignored. Looking at Golden
Rice and the problem of environmental risk assessment discloses how
irrational the present system operates : The author has, over the last
four years, not found any ecologist, including those from the
“professional GMO-opposition”, who could construct a half-way
realistic hypothetical risk from Golden Rice to any agronomic or wild
environment. This is not surprising because the entire biology of the
system – low amounts of additional b-carotene in the endosperm in
plants which are loaded with b-carotene in every organ except for the
root – does not provide for any selective advantage in any
environment, and therefore can not pose any substantial risk. Despite
this fact Golden Rice is still awaiting the first permission for the first
small-scale field release, in which environmental risks have to be
studied experimentally! So far to the “risk” side of the equation. And
the “benefit”? Golden Rice could prevent blindness and death of
hundreds of thousands of children but can not do so, so far, because
risk assessment notoriously is ignoring a risk-benefit analysis!
Green biotechnology could save millions of lives… 101

Present Deregulation is extremely demanding on time and financial


resources

What then is required for the deregulatory procedure? First of all,


it is advisable to focus on one carefully selected transgenic event,
which is as “regulatory clean” as possible – that is, it must not include
characters which are a priori unpopular with regulatory authorities,
such as “multiple integrations”, “rearrangements”, “read-through
across T-DNA borders”, “microbial origins of replication”, “ballast
DNA”, etc. This requires the production of many hundreds of similar
transgenic events with the same DNA construct. This construct itself
must have been assembled taking into account the requirements of
the regulatory authorities in the later deregulation process. Only when
working on the basis of a “regulatory clean construct” and with
“regulatory clean transformation technology” there is a chance to
survive the deregulation. Such a carefully selected event can then be
used to start the series of bio-safety assessment experiments
traditionally expected to prove or disprove any putative bio-safety
hazard. (It is a waste of time to enter the process with material which
is not “regulatory clean” at the onset). The consequence of this
approach is, that nearly 99% of transgenic events, and often those
with the highest levels of expression, have to be discarded. Already
this first step of mass production of many hundreds of similar events
and subsequent destruction of most is beyond the scope of any public
research institution, not only in developing but also in developed
countries. No funding agency would be willing to finance this step.
This is, however, the first prerequisite for entering the deregulation
procedure with some chance for success.
Once the right material is ready, bio-safety assessment can start.
There are “event-independent” studies which refer to the introduced
genes and their function in general, and which are valid for all events
produced with these genes. “Exposure evaluation” for the novel trait,
(e.g., pro-vitamin A in rice) studies the intended use and bio-
availability. This study alone takes about 3 years, because the material
has to be produced in specific plant growth chambers due to the lack
of permission for field release (see above!). “Protein production and
equivalence” analyses the proteins through which the genes fulfil their
102 I costi della non-scienza

function. For this purpose the proteins have to be isolated from the
plant, biochemically characterized, and their function confirmed.
Lack of homology to toxins and allergens, rapid degradation in
gastric/intestinal studies, heat lability, acute toxicity in rodent feeding,
screening for further putative allergens and toxins are assumed to
ensure that no unintended toxin or allergen will be consumed with
Golden Rice. This seems reasonable if we ignore that most people
have eaten these genes and gene-products throughout his/her life
from other food sources. To study, as has been proposed, whether
Daffodil toxins have been introduced into Golden Rice (one gene is
from Daffodil and it is not advisable to consume Daffodil )
demonstrates how far an assessment can be from science: what has
been transferred is one defined piece of DNA with no relation
whatsoever to any toxin or allergen!). These studies take at least 2
years of intensive work in a well equipped biochemistry laboratory.
What has been described, so far, was only an introduction; the real
work comes with the “event-dependent” studies: “Molecular
characterization and genetic stability” (single copy effect; marker gene
at same locus; simple integration; Mendelian inheritance over at least
three generations; no potential gene disruption; no unknown open
reading frames; no DNA transfer beyond borders; no antibiotic
resistance gene or origin of replication; insert limited to the minimum
necessary; insert plus flanking regions sequenced; phenotypic
evidence and biochemical evidence for stability over three
generations). “Expression profiling” (Gene expression levels at key
growth stages; evidence for seed-specific expression); “Phenotype
analysis” (Field performance, typical agronomic traits, yield compared
to isogenic lines; pest and disease status same as origin).
“Compositional analysis” (Data from two seasons times six locations
times three replications on proximates, macro- and micro-nutrients,
anti-nutrients, toxins, allergens; data generated on modified and
isogenic background). “Environmental risk assessment”. This requires
4-5 years of an entire research team.
Green biotechnology could save millions of lives… 103

No public scientist or institution can afford such a deregulation


procedure

It is rather obvious, that no scientist nor scientific institution in the


public domain has the potential, or funding, or motivation to perform
such bio-safety experiments. It is, therefore, no surprise, that virtually
all transgenic events, so far, taken through the deregulatory procedure
are (directly or indirectly) from the private sector and carry the
potential for substantial financial reward. Humanitarian projects to
the benefit of the poor obviously do not fall into this category,
although the benefit would apply to many millions. There is a lot of
good intention world wide in the public sector to exploit the potential
of green biotechnology for the benefit of the poor in developing
countries. If our society, however, continues with the present
“extreme precautionary” approach to bio-safety assessment, it is
absolutely unrealistic to invest any further funds into public research
for this purpose. Of course, there would be interesting scientific
progress, but there will be no product, and especially no product
passing through regulation. And, consequently, all this work will have
no practical output and nobody in the target population would have
any benefit.

Extreme precautionary regulation is there for a number of reasons,


but none of those is justified

Why then do we have this GMO-regulation? First of all, there are


historic reasons. At the beginning of GMO-technology development
it was sensible to be careful (“precautionary”) and the scientists
themselves – at that time working not with plants but with human-
pathogenic micro-organisms – established regulations based on the
notion that the consequence of the technology could lead to
“unpredictable genome alterations”. Experience, after more than 20
years with transgenic plants and their practical application on 50
million hectares farmland as well as from many hundreds of “bio-
safety” experiments in which bio-safety questions in context with
transgenic plants have been carefully studied, led to numerous
original publications and reports from academic institutions which all
104 I costi della non-scienza

come to the conclusion, that there is no specific risk associated with


the technology, which would exceed risks inherent anyhow to
traditional plant breeding or natural evolution. (For a discussion on
the moral imperative of the use of genetically modified crops in
developing countries please see Nuffield Council On Bioethics, Follow-
up discussion paper January 2004, www.nuffieldbioethics.org).
Why then do we maintain GMO regulation and even extend it to
ever more extreme precautionary regulation? The answer to this
question often follows the notion that we have to do so to built trust in
the technology for its acceptance by the consumer. Experience with
this strategy over the last 10 years, however, demonstrates clearly that
this approach did not work in Europe and many developing countries,
and this is not surprising. How should a “normal” citizen understand
that his/her government is regulating a technology in an extreme
restrictive manner, if this technology is without specific risks. Every
unbiased citizen will, of course, assume that his/her government is
taking rational decisions and the technology must be as dangerous as
the regulation implies. Consequently, maintenance of extreme
precautionary regulation builds mistrust instead of trust. Why then do
we not at least clear regulation from all scientifically unjustified and
opportunistic ballast to build a rational regulatory procedure? It seems
that not many institutions have an interest or the political power to do
so. If we consider the potential GMO technology has with regards to
food security in developing countries than numerous international
organizations should have an interest, but neither FAO, nor WHO or
UNIDO will have the courage and power to do so. What prize is our
society paying for this opportunistic attitude towards an established
“extreme precautionary regulatory” system, in function world-wide?
Very clearly: GMO-technology will not reduce hunger and malnutrition,
and will not protect the environment in developing countries. The use of
the technology will be restricted to “luxury projects”, with safe
financial returns, of the private sector and in developed countries.
There will, of course, be some spin-offs from these projects into
developing countries, and these may even carry some benefits for the
poor – such as “insect-resistant cotton”, but there will be no product
development focussing on urgent and specific needs of the poor in
developing countries, such as “food security”!
Green biotechnology could save millions of lives… 105

Justification for extreme precautionary regulation ignores the basic


genetic facts of traditional crop varieties

GMO technology has the potential to support and to complement


traditional plant breeding. In the context of the discussion on GMO-
regulation, which is justified with the argument that genetic
engineering leads to “unpredictable genome alterations” it may be
helpful to remember a few basic facts concerning all our plant-based
food which is derived from crop plant varieties, which, without any
exception, have been developed through traditional plant breeding.

Traditional Plant breeding leads to totally unpredictable and most


severe alterations of the genome

Plant breeding is using the technique of “crossing followed by


selection” to combine traits of agronomic and nutritional interest and
to exclude undesired traits. Starting material for this procedure are
“landraces” of crop plants, originally identified and selected by
indigenous farmers. Landraces differ from each other in traits because
they differ in “mutations”. Mutations are “unpredictable genome
alterations.” In the course of traditional breeding the technology adds
un-deliberately and automatically further (in parts very dramatic)
“unpredictable genome alterations such as “recombinations”,
“translocations”, “deletions”, “inversions”, etc. These
“unpredictable” and “most severe” genome alterations are
accumulated at every breeding step and each new traditionally bred
variety is thus based on, and characterized by an increasing array of
such genome alterations. With the progress of the breeding process
varieties are combined with varieties, often with related wild relatives
of the crop plants, often further altered in their genome by induced
mutations. All our modern crop varieties – from which we derive our
food – have a long history and are composed of numerous previous
varieties and there is not the slightest doubt possible, that all our
traditionally bred crop varieties are most extensively “genetically
modified” by hundreds if not thousands of “unpredictable genome
alterations”. This is, of course, also true for those varieties used by
organic farmers. We just do not call them “GMO’s”!
106 I costi della non-scienza

Every traditionally bred modern crop variety is most intensively


“genetically modified”

All this is exemplified in the “breeding tree” leading to IR64, the


most popular Indica rice variety, developed at the International Rice
Research Institute, Philippines and grown all over Southeast Asia.
The pictures shows graphically how intensively the original rice
genome (represented by blue boxes) has been “genetically modified”
by “mutations” (yellow bars), “recombinations” (red bars),
“translocations” (blue bars) and “deletions” (light-blue bars) to finally
arrive at the genome of IR64. Neither this variety, nor anyone of those
who have been channelled into the breeding tree have ever
experienced any “bio-safety assessment” and billions of consumers in
developing countries have consumed IR64 (as all the other rice or
crop varieties) and survived on this and the preceding varieties
without any harm, and there was no unpredictable harm to the
environment as well. And this holds true for all the other varieties in
all the other crops – despite of all the “most dramatic and
unpredictable alterations to the genome”! Actually, nobody could
survive without eating food from “genetically modified” crops.

“Genetically engineered” varieties differ from the “genetically


modified” ones in small, precise, similar, and well studied
alterations

For Golden Rice we have taken this variety IR64 and added two
precisely defined genes into the 50 000 gene-genome of rice, using a
technology which is by orders of magnitude more precise than
traditional breeding, to provide pro-vitamin A in the seed to reduce
vitamin A-malnutrition. This is now an example of a “genetically
engineered” variety – a “GMO” – and such a plant is now falling
under “extreme precautionary” regulations despite the fact, that the
engineering step is, in comparison to the history of IR64 extremely
small, perfectly predictable, most detailed studied and without any
greater risk to the consumer or the environment. The reader is invited
to find the difference between IR64 and Golden IR64 in the picture
above!
Green biotechnology could save millions of lives… 107

There is no scientific justification to treat “genetically engineered”


crops different from “genetically modified” ones

Our experience with traditionally developed crop varieties tells us


very clearly that “unpredictable genome alterations” are not an
argument for extreme regulation. Why are they now, and beyond any
logic, the key argument for extreme regulation of “genetically
engineered” plants? The argument that genes may come from
different organisms and would never have found their way into a
GMO can not be accepted as well. We all know that genes are
connected by a continuum in evolution and are closely related and the
“crossing barrier” between species is a mechanism to advance
evolution within a species, but not to prevent introduction of genes.
Why are GMO’s singled out from the normal breeding tree and
treated according to the established rules and regulations of an
extreme precautionary principle, thus preventing their sensible use to
the benefit of the poor. This, to the authors understanding, is against
any logic and takes us back into the historical time period of “Middle
Ages” and before the “Age of Enlightenment”. As this attitude is
singling out “green biotechnology” from nearly all other modern
technologies, it seems obvious, that there is a deliberate campaign
with a hidden political agenda.

Extreme precautionary regulation without risk-benefit analysis is


immoral and highly destructive

What are the consequences of the extreme precautionary regulation


of green biotechnology for public research towards food security in
developing countries? There are numerous scientists and institutions in
developing countries who have the capacity, motivation, and often
even funding to work towards scientific progress in the areas of pest-,
disease-, drought-, heat-, cold-, saline-, heavy metal resistance with the
potential to rescue harvests and to expand agricultural productivity to
hostile environments; to improve photosynthetic efficiency and to
enhance the exploitation of natural resources to increase productivity;
to enhance nutritional content to reduce malnutrition with regards to
micro-nutrients such as vitamin A etc. Very few of those, however,
108 I costi della non-scienza

have the financial and mental capacity to transform a scientific success


into an applicable “product”, which is the first prerequisite for benefit
of the poor from a scientific advance. Probably no scientist nor
institution in the public domain, however, have the resources,
experience, and determination to carry a single GMO product across
the hurdles of to days extreme precautionary regulatory procedures.
Regulatory authorities in developing countries are less experienced,
more insecure, and therefore, more stringent than their colleagues in
developed countries. Even with support from the experienced private
sector deregulation of a novel GMO product has become a gigantic
task. It is, therefore, very obvious that, if we continue with the present
regulatory standards, the potential of green biotechnology will not
reach the poor.

In the 19th century a cultural taboo let to the tragic death of an 18


year old princess

In the 21st century ignorance of our society leads to avoidable misery


and death of millions
“Genetically engineered” plants are not unusual plants, filled with
mysterious dangers for the consumer and the environment. Europe
can be proud of its cultural heritage of the “Age of Enlightenment”
and should rather listen to the advice of science than that of “witch
hunters”. It is Europe’s responsibility to help developing countries to
harness the potential of green biotechnology, however the European
attitude badly affects the attitude in developing countries. Europe can
afford such an attitude because it can buy whatever it wants on the
world market. However, for developing countries this attitude leads to
unnecessary death and misery of many millions. With citations from
the follow-up discussion paper of the Nuffield Council on Bioethics
2004: “The European Union is ignoring a “moral imperative” to
promote genetically modified crops for their great potential for
helping the developing world.” “We beleive EU regulators have not
paid enough attention to the impact of EU regulations on agriculture
in developing countries.” Our societies have wasted too much time in
phase of “risk-obsession”. Stop following the “wrong prophets”!
109

LE BIOTECNOLOGIE IN AGRICOLTURA
POTREBBERO SALVARE MILIONI DI VITE, MA
NORMATIVE ANTI-SCIENTIFICHE ED
ECCESSIVAMENTE PRECAUZIONALI LO
IMPEDISCONO1

Ingo Potrykus
Professor emeritus in Plant Sciences, ETH Zuerich, Switzerland

Il bio-arricchimento può aiutare gli interventi tradizionali


contro la denutrizione

N
ei paesi in via di sviluppo 500.000 persone ogni anno diven-
tano cieche e fino a 6.000 ogni giorno muoiono a causa di ca-
renza di vitamina A. Questo, nonostante gli enormi sforzi
delle istituzioni pubbliche e filantropiche per ridurre questo problema
medico con l’ausilio dei metodi tradizionali quali arricchimento, forti-
ficazione e incoraggiamenti alla diversificazione della dieta, etc. Que-
sto prezzo elevatissimo che i poveri dei paesi in via di sviluppo stanno
pagando alla “carenza di vitamina A” continuerà anno dopo anno se
non troveremo un modo per affiancare gli interventi tradizionali con
altri non convenzionali e sostenibili. Uno di questi potrebbe essere ba-
sato sul miglioramento nutrizionale delle colture di sussistenza attra-
verso il “bio-arricchimento”, il miglioramento genetico del contenuto
di micronutrienti e vitamine. Il miglioramento genetico vegetale e l’in-
gegneria genetica offrono due approcci complementari.
Le principali carenze di micronutrienti riguardano il ferro, lo zin-
co e la vitamina A. La carenza di vitamina A è largamente diffusa tra
quei poveri che hanno come alimento di base il riso, in quanto il riso
non contiene pro-vitamina A (le piante non producono vitamina A,
ma pro-vitamina A (carotenoidi), che il nostro corpo converte in vita-
mina A). La dipendenza dal riso come prevalente fonte di cibo, per-
tanto, porta necessariamente a carenza di vitamina A, se la povertà è

1 Traduzione curata da Davide Ederle


110 I costi della non-scienza

tale da non consentire diversificazioni della dieta, colpendo soprattut-


to bambini e donne in gravidanza. Le conseguenze a livello medico
per i 400 milioni di consumatori di riso, carente di vitamina A, sono
gravi: indebolimento della vista, nei casi più estremi cecità irreversibi-
le, deterioramento dell’integrità epiteliale contro infezioni, riduzione
delle difese immunitarie, dell’emopoiesi e della crescita delle ossa, etc.
Un riso contenente la pro-vitamina A potrebbe ridurre notevolmente
il problema, ma il “bio-arricchimento” del riso per la pro-vitamina A
non è possibile senza l’utilizzo dell’ingegneria genetica. L’approccio
transgenico, quindi, è stato basato sull’idea di introdurre tutti i geni
necessari ad attivare la via metabolica di sintesi ed accumulo di pro-
vitamina A nell’endosperma (il tessuto di immagazzinamento del-
l’amido nel seme).

La scoperta scientifica per la pro-vitamina A

Il Golden Rice contiene i geni necessari per attivare la via metaboli-


ca per la sintesi di pro-vitamina A. Questa via è attivata solo nell’en-
dosperma. L’intensità della “colorazione dorata” indica la concentra-
zione di pro-vitamina A (Figura 1). Esistono diverse linee vegetali con
diverse concentrazioni. Noi puntiamo a concentrazioni per le quali
una assunzione giornaliera di 200 grammi di riso fornisca abbastanza
pro-vitamina A da ridurre notevolmente la carenza vitaminica. La
concentrazione richiesta a tale scopo potrà essere determinata solo
quando saranno disponibili i dati degli studi sulla biodisponibilità. Gli
esperimenti su queste linee sono in corso, ma bisognerà aspettare fino
alla fine del 2005. Per ora stiamo lavorando con linee vegetali in cui,
teoricamente, le concentrazioni soddisfano i nostri obiettivi.

Il nuovo carattere è stato inserito in diverse varietà di riso Indica –


in particolare IR 64, la varietà di riso più comune nel sudest asiatico –
e sono stati selezionati eventi che sono stati ritenuti “in regola con la
normativa” per facilitare il processo di autorizzazione. [Ye, X., Al-Ba-
bili, S., Klöti, A., Zhang, J., Lucca, P., Beyer, P., Potrykus, I. (2000),
«Engineering provitamin A (β-carotene) biosynthetic pathway into
(carotenoid-free) rice endosperm», Science 287, 303-305. Beyer P, Al-
Babili S, Ye X, Lucca P, Schaub P, Welsch R, Potrykus I (2002), «Gol-
Le biotecnologie in agricoltura potrebbero salvare … 111

den Rice, introducing the β-carotene biosynthetic pathway into rice


endosperm by genetic engineering to defeat vitamin-A deficiency», J.
Nutrition 132, 506S-510S. Tran Thi Cuc Hoa, Salim AlBabili, Patrick
Schaub, Ingo Potrykus, and Peter Beyer (2003), «Golden Indica and
Japonica rice lines amenable to deregulation», Plant Physiology 133,
161-169].

Il Golden Rice sarà reso disponibile gratuitamente in un progetto


umanitario

Il Golden Rice verrà messo a disposizione dei paesi in via di svilup-


po all’interno del “Progetto Umanitario Golden Rice”, che fin dall’ini-
zio è stato un progetto di ricerca pubblico pensato per ridurre la mal-
nutrizione dei paesi in via di sviluppo. Grazie al forte sostegno del set-
tore privato e alle donazioni di “brevetti a titolo gratuito per scopi
umanitari” sulle tecnologie di base, si sono superati gli ostacoli legati
alla proprietà intellettuale relativa alla tecnologia usata in questo pro-
getto. Questo ci consente di collaborare con i centri di ricerca pubbli-
ci dei paesi in via di sviluppo sul riso sulla base di una “libertà di ope-
rare” per sviluppare varietà di riso adatte alle condizioni locali. Quan-
do il Golden Rice avrà superato le procedure di biosicurezza nazionali,
verrà reso disponibile a chi fa agricoltura di sussistenza gratuitamente
e senza alcuna limitazione. Diventerà di loro proprietà ed essi potran-
no, anno dopo anno, usare parte del raccolto per la semina successiva
(senza pagare niente a nessuno). Gli agricoltori useranno le loro tradi-
zionali tecniche agricole e non avranno bisogno di alcun nuovo input
agronomico. Non ci sarà quindi alcuna “nuova dipendenza” da nessu-
no. E non è concepibile alcun rischio a qualunque ambiente che giu-
stifichi la scelta di non coltivare il Golden Rice in campo aperto per la
selezione o la riproduzione. Questo sviluppo, dalla scoperta del 1999,
è stato possibile grazie ad un nuovo tipo di collaborazione tra pubbli-
co e privato. Grazie ad un accordo con Syngenta ed altre industrie
biotech, l’uso del Golden Rice è libero da brevetti per “uso umanita-
rio”, inteso come “un reddito da Golden Rice per anno e per agricol-
tore inferiore ai $ 10.000”. L’uso commerciale, invece, (sopra i 10.000
dollari per anno) richiede una licenza di Syngenta. L’uso a scopi uma-
nitari è basato su una “sottolicenza” (senza royalties) della Commis-
112 I costi della non-scienza

sione Umanitaria Golden Rice agli istituti pubblici di ricerca sul riso.
Questo accordo assicura che il materiale sia stato trattato secondo le
leggi ed i regolamenti stabiliti per gli OGM, e che la popolazione per
cui è stato pensato, agricoltori di sussistenza e poveri, riceva il mate-
riale senza alcun costo aggiuntivo per questo carattere.

Varietà adatte alle condizioni locali sono state sviluppate da istituti


nazionali all’interno del Network Umanitario Golden Rice sotto
la guida della Commissione Umanitaria Golden Rice

Lo sviluppo di varietà di Golden Rice adattate alle condizioni loca-


li, così come la richiesta alle autorità nazionali per le sperimentazioni
in campo e l’autorizzazione, sono nelle mani degli istituti di ricerca
pubblici sul riso nazionali ed internazionali. Ad oggi il “Network
Umanitario Golden Rice” comprende 16 istituzioni in Bangladesh, Ci-
na, India, Indonesia, Sud Africa, Filippine, e Vietnam. Il network è
sotto la guida strategica della Commissione Umanitaria Golden Rice, e
la gestione è affidata ad un coordinatore che ha base presso l’Interna-
tional Rice Research Institute (IRRI), nelle Filippine. La Commissione
Umanitaria, per ora, non ha validità legale e beneficia della competen-
za di autorità internazionali quali Dr. Gurdev Khush, in pensione
dall’IRRI (miglioramento genetico del riso), Robert Russell, Laborato-
rio di Nutrizione Umana, Tufts University Boston (malnutrizione lega-
ta alla vitamina A), Dr. Howarth Bouis, International Food Policy Re-
search Institute (IFPRI) Washington (bio-arricchimento), Dr. Gary
Toenniessen, The Rockefeller Foundation, New York (sicurezza ali-
mentare nei paesi in via di sviluppo), Dr. Robert Bertram, USAid Wa-
shington (sviluppo dell’agricoltura nel terzo mondo), Dr. Adrian Du-
bock, Syngenta (sviluppo del prodotto e diritti di proprietà intellet-
tuale), Dr. Ren Wang/Dr. William Padolina IRRI (cooperazione inter-
nazionale di ricerca sul riso), Professor Peter Beyer (co-inventore)
University of Freiburg (progresso scientifico, in particolare bioarric-
chimento in pro-vitamina A ed altri micronutrienti), Dr. Katharina
Jenny, Swiss Development Cooperation Bern (trasferimento tecnologi-
co e questioni trans-settoriali), e Professor Ingo Potrykus (co-invento-
re), presidente in pensione dell’ETH di Zurigo (relazioni pubbliche e
informazioni).
Le biotecnologie in agricoltura potrebbero salvare … 113

I semi bio-arricchiti hanno potenzialità ineguagliabili per ottenere


soluzioni durevoli

Il bio-arricchimento (aggiunta di micronutrienti carenti attraverso


la genetica) delle coltivazioni più utilizzate dalla popolazione povera
nei paesi in via di sviluppo è, molto probabilmente, l’approccio più
sostenibile ed economicamente vantaggioso per la riduzione della
malnutrizione da micronutrienti. (Per maggiori informazioni sul con-
cetto di bio-arricchimento e su un recente programma del CGIAR si
visiti il sito www.harvestplus.org). Il Golden Rice rappresenta il primo
esempio di bio-arricchimento ottenuto attraverso l’ingegneria geneti-
ca. L’investimento per la ricerca su questo carattere (bio-arricchimen-
to in pro-vitamina A) è stato relativamente modesto (2,4 milioni di
dollari in 9 anni) e finanziato con fondi per la ricerca di base.
Lo sviluppo del prodotto, tuttavia, dal momento della scoperta
scientifica richiede molto tempo e ulteriori fondi, ma comunque è un
investimento che va fatto una sola volta per evento. Le spese stanno
drammaticamente aumentando da quando lavoriamo sulla valutazione
della biosicurezza, richiesta per il processo di autorizzazione, ma an-
che in questo caso è un investimento che va fatto una sola volta. Ap-
pena una nuova varietà bio-arricchita viene autorizzata e può essere
consegnata all’agricoltore, il sistema mostra come il suo potenziale sia
unico, poiché da questo punto in poi la tecnologia è racchiusa in cia-
scun seme e non richiede nessun ulteriore investimento per un perio-
do di tempo illimitato. Considerate il potenziale di un singolo seme di
Golden Rice. Messo in campo diventerà una pianta che produce, al-
meno 1000 semi. Ripetendo l’operazione si otterranno 1.000.000 semi;
la generazione successiva produrrà già 1.000.000.000 semi e con la
quarta generazione si arriverà a 1.000.000.000.000. Questo significa
20.000 tonnellate di riso in soli due anni. Con 20.000 tonnellate di riso
possono sopravvivere per un anno 100.000 poveri, e se si usa Golden
Rice essi avranno un supplemento di vitamina A in grado di ridurre la
loro malnutrizione, e questa protezione è gratuita e sostenibile. Un
agricoltore per trarre beneficio dalla tecnologia ha bisogno solo di un
seme! Nessun input addizionale rispetto al “riso normale”. Per la po-
polazione povera che vive nelle città inoltre non c’è alcuna maggiora-
zione di prezzo per l’acquisto del Golden Rice (Figura 2).
114 I costi della non-scienza

Sono disponibili semi a sufficienza per molti agricoltori, ma questo


non può essere fatto perché il Golden Rice è un “OGM” (organismo
geneticamente modificato), e quindi strettamente regolamentato. E la
Commissione Umanitaria per il Golden Rice ha deciso di sottostare al-
le leggi ed ai regolamenti in vigore.

Normative eccessivamente precauzionali, comunque, ne hanno


impedito l’uso e ignorano i potenziali benefici

Considerando la storia del Golden Rice (la tecnologia è spesso con-


siderata rischiosa perchè avanza molto velocemente!), ci sono voluti
10 anni (dal 1980 al 1990) per sviluppare la tecnologia necessaria per
introdurre geni nel riso. Ci sono voluti altri 9 anni (dal 1990 al 1999)
per inserire i geni della via metabolica che porta alla produzione di
pro-vitamina A nel seme. E altri 5 anni (dal 1999 al 2004) per svilup-
pare il “prodotto” Golden Rice e superare quella serie di ostacoli spe-
cifici per gli OGM, come i diritti di proprietà intelletuale. Probabil-
mente ci vorranno almeno altri 5 anni prima che il primo prodotto
Golden Rice venga approvato. Ci sono voluti quindi 30 anni, com-
prendendo i tempi di sviluppo della tecnologia, 20 per un singolo caso
specifico. Tenendo presente che il Golden Rice può ridurre notevol-
mente la cecità (500.000 casi all’anno) e i decessi (2-3 milioni all’an-
no), ci si rende conto che 20 anni sono un lungo periodo di tempo, e
credo che nessuno possa lamentarsi della rapidità! Se fosse stato pos-
sibile abbreviare il periodo di tempo tra la fine della fase scientifica e
l’approvazione del prodotto, centinaia di migliaia di bambini sarebbe-
ro stati salvati dalla cecità! Comunque, i prossimi 5 anni dovranno es-
sere spesi per la valutazione della biosicurezza, al fine di garantire che
il Golden Rice non presenti rischi per l’ambiente ed i consumatori.
Nessuno intende parlar male di un approccio cauto, ma la normativa
vigente ha fatto sua una interpretazione radicale del principio di pre-
cauzione, tale per cui neanche il più piccolo rischio può essere accet-
tato o non testato, e allo stesso tempo tutti i possibili benefici vengono
ignorati. Considerando il caso del Golden Rice e tutto il problema del-
la valutazione dei rischi ambientali, si rivela l’irrazionalità dell’attuale
sistema: l’autore del presente intervento, negli ultimi quattro anni,
non ha trovato nessun ecologista, incluso quelli che fanno dell’opposi-
Le biotecnologie in agricoltura potrebbero salvare … 115

zione agli OGM una professione, che abbia potuto costruire un’ipote-
si di rischio agronomico o ambientale per il Golden Rice. Questo non
stupisce poichè l’intera biologia del sistema, piccole quantità addizio-
nali di beta-carotene nell’endosperma di piante che lo contengono in
tutti gli organi tranne che nelle radici, non fornisce nessun vantaggio
selettivo, in nessuna condizione, e quindi non apporta alcun rischio
sostanziale. Nonostante ciò il Golden Rice è ancora in attesa del primo
permesso riguardante il primo rilascio su piccola scala, in cui i rischi
ambientali dovranno essere studiati sperimentalmente! Fin qui i ri-
schi, e i benefici? Il Golden Rice potrebbe evitare la cecità e la morte
di centinaia di migliaia di bambini, ma non lo può fare perchè la valu-
tazione del rischio, come è noto, non tiene conto di un’analisi rischi-
benefici!

L’attuale sistema di autorizzazione richiede molto tempo e molte


risorse finanziarie

Cos’è dunque richiesto per l’approvazione? Innanzitutto, è consi-


gliabile focalizzarsi attentamente su di un unico evento transgenico se-
lezionato, che deve essere il più “a posto” possibile secondo la norma-
tiva, il che significa che non deve includere caratteristiche che sono a
priori poco popolari tra gli organismi di controllo come “integrazioni
multiple”, “riarrangiamenti”, “read-through attorno al T-DNA”, “ori-
gini di replicazione microbiche”, “ballast DNA”, etc. Questo richiede
la produzione di diverse centinaia di eventi transgenici simili, con lo
stesso costrutto di DNA. Il costrutto stesso deve essere costruito con-
siderando le richieste degli organismi che nelle fasi successive di ap-
provazione lo valuteranno. Solo lavorando con un “costrutto a posto”
da un punto di vista normativo si ha una probabilità di sopravvivere al
processo di approvazione. Un evento selezionato con tale accuratezza
può essere usato per iniziare la serie di esperimenti per la valutazione
della bio-sicurezza che in genere ci si aspetta provino o escludano
ogni putativo rischio legato alla biosicurezza. (È una perdita di tempo
iniziare il processo con materiale che non sia “a posto” fin dall’inizio).
La conseguenza di questo approccio è che circa il 99% degli eventi
transgenici, e spesso quelli con i più alti livelli di espressione, devono
essere scartati. Già questo primo passaggio di produzione di un gran
116 I costi della non-scienza

numero di eventi simili e la seguente distruzione della maggior parte


di essi, è ben oltre lo scopo di ogni centro di ricerca pubblico, non so-
lo nei paesi in via di sviluppo, ma anche in quelli sviluppati. Nessuna
agenzia finanzierebbe questo passaggio. Questo comunque è il primo
prerequisito per entrare nella procedura di autorizzazione con qual-
che possibilità di successo.
Una volta che il materiale “buono” è pronto, può iniziare la valuta-
zione della biosicurezza. Ci sono degli studi che sono “indipendenti
dall’evento transgenico scelto” che sono centrati sui geni introdotti e
sulla loro funzione in generale, e quindi validi per ciascun evento pro-
dotto con quei geni. La “valutazione dell’esposizione” per il nuovo ca-
rattere (come la pro-vitamina A nel caso del riso) studia l’utilizzo ipo-
tizzato e la biodisponibilità. Ci vogliono 3 anni solo per questo studio,
perché il materiale deve essere prodotto in speciali camere di crescita,
a causa della mancanza del permesso di coltivazione in campo (vedi
sopra!). Le analisi di “produzione della proteina ed equivalenza” ana-
lizzano le proteine attraverso cui i geni svolgono la loro funzione. A
questo scopo le proteine devono essere isolate dalla pianta, vengono
caratterizzate biochimicamente e ne viene confermata la funzione. Per
essere sicuri che nessuna tossina o allergene siano ingeriti con il riso,
vengono effettuati studi su: omologia con tossine o allergeni, degrada-
zione nel tratto gastro-intestinale, labilità al calore, tossicità acuta su
roditori, ed uno studio per ulteriori possibili allergeni e tossine. Que-
sto sembra ragionevole solo se si ignora che la maggior parte delle
persone ha già ingerito in vita sua questi geni o i loro prodotti attra-
verso altre fonti alimentari. La richiesta di studiare, come è stato pro-
posto, se fosse stata introdotta nel Golden Rice anche qualche tossina
della Giunchiglia (un gene viene dalla Giunchiglia e non è consigliabi-
le mangiare Giunchiglie) dimostra quanto la procedura di valutazione
sia lontana dalla scienza: ciò che è stato trasferito è un determinato
tratto di DNA che non ha alcuna relazione con tossine o allergeni!
Questo studio ha richiesto 2 anni di intenso lavoro in un laboratorio
biochimico ben attrezzato. Ciò che è stato fin qui descritto è solo l’ini-
zio: il vero lavoro comincia con gli studi “evento-dipendenti”: “carat-
terizzazione molecolare e stabilità genetica” (effetto del gene a singola
copia; del marker genico nello stesso locus; l’integrazione semplice;
l’eredità mendeliana per almeno tre generazioni; nessun richio di rot-
Le biotecnologie in agricoltura potrebbero salvare … 117

tura del gene; nessuna open reading frame sconosciuta; nessun trasferi-
mento di DNA oltre i bordi del T-DNA; nessun gene di resistenza agli
antibiotici o origine di replicazione; inserto limitato al minimo neces-
sario; sequenza dell’inserto più le sequenze fiancheggianti; evidenza
fenotipica e biochimica di stabilità su 3 generazioni). “Profilo di
espressione” (livelli di espressione genica agli stadi chiave dello svilup-
po; evidenza di espressione seme-specifica); “Analisi fenotipica” (pre-
stazioni in campo, tratti agronomici tipici, resa rispetto alle linee iso-
geniche; resistenza ai parassiti e alle malattie comparabile a quelle ini-
ziali); “Analisi composizionale” (dati su 2 stagioni per 6 località ripe-
tute 3 volte, macro e micronutrienti, anti-nutrizionali, tossine, allerge-
ni; con dati generati rispetto alle linee modificate e isogeniche); “Valu-
tazione del rischio ambientale”. Questo da solo richiede 4-5 anni di
un intero gruppo di ricerca (Figura 3).

Nessun istituto pubblico può affrontare una tale procedura di


approvazione

È abbastanza ovvio che nessuno scienziato né istituto scientifico


pubblico ha il potenziale, o i finanziamenti, o le motivazioni per svol-
gere tali esperimenti sulla biosicurezza. Non deve quindi sorprendere
il fatto che praticamente tutti gli eventi transgenici sottoposti alla tra-
fila di approvazione provengano (direttamente o indirettamente) dal
settore privato e abbiano il potenziale per un significativo ritorno eco-
nomico. I progetti umanitari a beneficio della popolazione povera ov-
viamente non rientrano in questa categoria, pur avendo effetti benefici
su milioni di persone. C’è molta buona volontà nel mondo, all’interno
del settore pubblico, a far fruttare il potenziale delle biotecnologie
“verdi” a beneficio dei poveri nei paesi in via di sviluppo. Se però la
nostra società continua a portare avanti questo approccio estrema-
mente precauzionale è assolutamente irrealistico investire ulteriori
fondi pubblici a questo scopo. Naturalmente, ci saranno interessanti
progressi scientifici, ma nessun prodotto, e in particolare nessun pro-
dotto autorizzato; e, di conseguenza, tutto questo lavoro non avrebbe
applicazioni pratiche e nessuna delle persone per cui sono stati pensa-
ti ne avrà beneficio.
118 I costi della non-scienza

Una normativa estremamente precauzionale c’è per molte ragioni,


ma nessuna di queste è giustificabile

Perché allora abbiamo questa normativa sugli OGM? Innanzitutto


abbiamo motivazioni storiche. All’inizio dello sviluppo della tecnologia
OGM era ragionevole essere cauti (precauzionali) e gli stessi scienziati,
che in quel momento non lavoravano con piante bensì con microrgani-
smi patogeni per gli esseri umani, stabilirono delle normative basate
sull’idea che la conseguenza della tecnologia potesse portare a “impre-
vedibili alterazioni del genoma”. L’esperienza, dopo più di 20 anni di la-
voro su piante transgeniche e sul loro utilizzo su 50 milioni di ettari, co-
sì come le diverse centinaia di esperimenti in cui si è studiata con molta
attenzione la biosicurezza delle piante transgeniche portando a numero-
se pubblicazioni e resoconti di istituti accademici, conducono alla con-
clusione che non c’è alcun rischio particolare associato alla tecnologia
oltre a quelli che si possono verificare con il miglioramento genetico tra-
dizionale o l’evoluzione naturale (per una discussione sugli imperativi
morali dell’uso di colture geneticamente modificate nei paesi in via di
sviluppo si veda Nuffield Council On Bioethics, follow-up discussion pa-
per January 2004, nel sito Internet www.nuffieldbioethics.org).
Perché quindi si mantiene una tale normativa e, anzi, si tende a far-
la diventare sempre più precauzionale? La risposta a questa domanda
spesso prende le mosse dall’idea che questo serve per creare fiducia
nella tecnologia e renderla accettabile al consumatore. L’esperienza
degli ultimi 10 anni, in ogni caso, dimostra chiaramente che questo
approccio non ha funzionato in Europa e in molti paesi in via di svi-
luppo, e questo non stupisce. Un cittadino “qualunque” come do-
vrebbe interpretare il fatto che il suo governo sta regolamentando una
tecnologia in modo estremamente restrittivo, se questa tecnologia non
presenta rischi particolari? Ogni cittadino obiettivo, naturalmente,
penserà che il suo governo sta prendendo delle decisioni ragionevoli,
e che la tecnologia è tanto più regolamentata quanto più pericolosa. Il
mantenimento di normative eccessivamente precauzionali, di conse-
guenza, porta a sfiducia invece che fiducia. Perché quindi non si crea
una normativa libera da qualsiasi zavorra scientificamente non giustifi-
cabile e non si mette a punto una procedura di approvazione raziona-
le? Sembra che poche istituzioni abbiano l’interesse o il potere politi-
Le biotecnologie in agricoltura potrebbero salvare … 119

co di farlo. Se consideriamo il potenziale della tecnologia OGM in te-


ma di sicurezza alimentare2 nei paesi in via di sviluppo, allora risulta
chiaro che molte organizzazioni internazionali dovrebbero essere inte-
ressate in tal senso, ma né FAO, né WHO, né UNIDO hanno il co-
raggio e il potere di farlo. Che prezzo sta pagando la nostra società a
causa di un atteggiamento opportunistico nei confronti di un radicato
“sistema normativo estremamente precauzionale”, che opera su scala
mondiale? Detto molto chiaramente: la tecnologia OGM a queste con-
dizioni non potrà contribuire a ridurre la fame nel mondo né la malnu-
trizione, e non potrà proteggere l’ambiente nei paesi in via di sviluppo.
L’uso di tale tecnologia sarà ristretto a “progetti di lusso”, con sicuri
ritorni economici del settore privato nei paesi sviluppati. Ci saranno
certamente dei risultati ottenuti da questi progetti anche verso i paesi
in via di sviluppo, e potranno portare anche qualche beneficio ai po-
veri, come il “cotone resistente agli insetti”, ma non ci sarà alcun svi-
luppo di prodotti focalizzati sulle urgenti necessità dei poveri nei pae-
si in via di sviluppo, come ad esempio la “sicurezza alimentare”!

La giustificazione di una normativa estremamente precauzionale non


tiene conto delle basilari conoscenze genetiche che abbiamo
delle varietà tradizionali

La tecnologia OGM ha il potenziale per sostenere e integrare il mi-


glioramento genetico tradizionale. Nel contesto di una discussione
sulla normativa OGM, che si basa sull’idea che l’ingegneria genetica
possa portare a “imprevedibili alterazioni del genoma”, sarebbe utile
ricordare qualche dato di base riguardo tutti i nostri alimenti di deri-
vazione vegetale, che provengono da varietà sviluppate, senza alcuna
eccezione, grazie al miglioramento genetico tradizionale.

Il miglioramento genetico tradizionale porta a alterazioni del genoma


drammatiche e totalmente imprevedibili

Il miglioramento genetico utilizza la tecnica “incrocio-selezione”


per combinare caratteri di interesse agronomico e nutrizionale ed

2 Intesa in termini di security (disponibilità) e non di safety (salubrità)


120 I costi della non-scienza

escludere i caratteri indesiderati. Il materiale di partenza per questo


processo sono “varietà locali” delle piante coltivate, originalmente se-
lezionate dai contadini locali. Le varietà locali differiscono tra loro per
alcune caratteristiche dovute a “mutazione”. Le mutazioni sono “im-
prevedibili alterazioni del genoma”. Pertanto, nel corso del migliora-
mento genetico tradizionale la tecnologia involontariamente e automa-
ticamente favorisce (in alcuni casi anche molto grandi) “alterazioni im-
prevedibili del genoma” quali “ricombianazioni”, “traslocazioni”, “de-
lezioni”, “inversioni”, etc. Queste “imprevedibili” e “importanti” alte-
razioni del genoma vengono accumulate ad ogni passaggio di selezione
e ciascuna nuova varietà tradizionale è quindi basata su, e caratterizza-
ta da, una crescente serie di tali alterazioni del genoma. Con l’avanza-
mento del processo di selezione le varietà vengono combinate con al-
tre varietà, a volte anche con parenti selvatici delle piante coltivate; a
volte invece il loro genoma viene alterato inducendo mutazioni. Tutte
le nostre varietà moderne, dalle quali deriva il nostro cibo, hanno un
lunga storia e sono derivate da numerose altre varietà precedenti e non
c’è il minimo dubbio che tutte le nostre varietà migliorate con metodi
tradizionali siano estensivamente “modificate geneticamente” da centi-
naia se non migliaia di “imprevedibili alterazioni genomiche”. Questo,
naturalmente, è vero anche per le varietà utilizzate dagli agricoltori
biologici. Solo che noi non le chiamiamo “OGM”! (Figura 4)

Ogni moderna varietà ottenuta con metodi tradizionali è


profondamente “modificata geneticamente”

Un esempio di tutto ciò lo troviamo nella storia del miglioramento


genetico che ha condotto all’IR64, la varietà di riso Indica più diffusa,
sviluppata dall’Istituto Internazionale per la Ricerca sul Riso delle Fi-
lippine e coltivata un po’ ovunque nel sudest asiatico. La figura mo-
stra graficamente quanto profondamente il genoma originale del riso
(rappresentato dal box blu) sia stato “modificato geneticamente” da
“mutazioni” (barre gialle), “ricombinazioni” (rosse), “traslocazioni”
(blu-scuro) e delezioni (azzurre) per arrivare infine al genoma del-
l’IR64 (Figura 5).
Né questa varietà né nessun’altra di quelle che sono state utilizzate
nel corso della selezione hanno subito alcun tipo di “valutazione di
Le biotecnologie in agricoltura potrebbero salvare … 121

biosicurezza” e miliardi di consumatori nei paesi in via di sviluppo si


sono alimentati con IR64 (così come tutte le altre varietà di riso o di
altre colture) e sono sopravvissuti a questo e alle precedenti varietà
senza alcun danno, e tantomeno vi è stato alcun imprevisto danno
all’ambiente. Questo è vero anche per tutte le altre varietà di tutte le
altre piante coltivate, nonostante tutte le “profonde ed imprevedibili
alterazioni del genoma”! In verità, nessuno può sopravvivere senza
mangiare cibo derivato da piante “geneticamente modificate”.

Varietà “geneticamente ingegnerizzate” differiscono da quelle


“geneticamente modificate” per piccole, precise, similari e ben
studiate modificazioni

Per il Golden Rice noi abbiamo adottato la varietà IR64 aggiungen-


dole 2 geni ben definiti all’interno dei 50.000 contenuti nel genoma del
riso, utilizzando una tecnologia che è alcuni ordini di grandezza più
precisa di quella del miglioramento genetico tradizionale, per far pro-
durre pro-vitamina A nei semi e per ridurre la carenza di vitamina A.
Questo è un esempio di varietà “geneticamente ingegnerizzata”, un
“OGM”, e questa pianta oggi rientra all’interno di una normativa
“estremamente precauzionale”, nonostante il fatto che il passaggio
“ingegneristico” sia, rispetto alla storia dell’IR64, estremamente ridot-
to, perfettamente prevedibile, studiato con maggior dettaglio e senza
rischi superiori per l’uomo e per l’ambiente. Invito il lettore, nella fi-
gura 6, a trovare la differenza tra l’IR64 e il Golden IR64!

Non vi è alcuna giustificazione scientifica per trattare le piante


“geneticamente ingegnerizzate” in modo diverso da quelle
“geneticamente modificate”

La nostra esperienza con le varietà sviluppate con metodi tradizio-


nali ci dice molto chiaramente che le “imprevedibili alterazioni del ge-
noma” non sono un argomento per richiedere una regolamentazione
estrema. Perché allora, contro ogni logica, questo è l’argomento chia-
ve per giustificare la normativa sulle piante “geneticamente ingegne-
rizzate”? Analogamente, l’argomentazione che i geni vengono da or-
ganismi diversi e che non avrebbero mai potuto arrivare da soli in un
122 I costi della non-scienza

OGM dovrebbe essere rigettata. Tutti noi sappiamo che i geni sono
collegati da un continuum all’interno dell’evoluzione e sono fortemen-
te correlati tra loro e che la “barriera di fertilità” tra le specie è un
meccanismo per promuovere l’evoluzione all’interno della specie, ma
questa non impedisce l’introduzione di singoli geni. Perché gli OGM
dovrebbero uscire dalla normale procedura di breeding ed essere trat-
tati secondo norme e regole stabilite secondo un rigidissimo Principio
di Precauzione, impedendo così un loro uso sensato a favore dei pove-
ri? Questo, per gli autori, è contro ogni logica e ci riporta al Medioe-
vo, prima dell’Illuminismo. Dato che questo comportamento sta iso-
lando le “biotecnologie verdi” praticamente da tutte le altre moderne
tecnologie, pare evidente che è in atto una campagna organizzata che
nasconde in realtà obiettivi politici.

Una regolamentazione estremamente precauzionale senza un’analisi


rischi/benefici è immorale e altamente distruttiva

Quali sono le conseguenze, di una normativa estremamente pre-


cauzionale sulle “biotecnologie verdi”, per la ricerca pubblica sulla si-
curezza alimentare nei paesi in via di sviluppo? Ci sono numerosi
scienziati ed istituzioni nei paesi in via di sviluppo che hanno la capa-
cità, la motivazione e spesso anche i fondi per lavorare per l’avanza-
mento scientifico nei settori della resistenza delle piante ai parassiti,
alle malattie, alla siccità, al calore, al freddo, alla salinità, ai metalli pe-
santi, con il potenziale di salvare i raccolti e di espandere la produtti-
vità agricola agli ambienti poco adatti; di aumentare l’efficienza foto-
sintetica e di accrescere lo sfruttamento delle risorse naturali per au-
mentare la produttività; di accrescere il contenuto nutrizionale per ri-
durre la malnutrizione per i micronutrienti come la vitamina A, etc.
Molto pochi, però, hanno la capacità finanziaria e mentale per trasfor-
mare un successo scientifico in un “prodotto” utilizzabile, che è il pre-
requisito per consentire ai poveri di beneficiare di un avanzamento
scientifico. Probabilmente nessuno scienziato o istituzione pubblica,
in ogni caso, ha le risorse, l’esperienza e la determinazione per tra-
ghettare un singolo prodotto OGM attraverso gli ostacoli delle attuali
procedure autorizzative estremamente precauzionali. Le Autorità di
controllo dei paesi in via di sviluppo hanno meno esperienza, sono più
Le biotecnologie in agricoltura potrebbero salvare … 123

insicure e quindi più rigorose delle loro controparti nei paesi svilup-
pati. Anche con l’aiuto di uno specifico settore privato l’autorizzazio-
ne di un nuovo prodotto OGM è diventato un compito spaventoso. È
quindi ovvio che, se si continuerà con gli attuali standard normativi, le
potenzialità delle biotecnologie verdi non raggiungeranno i poveri.

Nel XIX secolo un tabù culturale portò alla tragica morte di una
principessa di 18 anni (Figura 7)

Nel XXI secolo l’ignoranza della nostra società porta ad una


ovviabile miseria e alla morte per milioni di persone

Le piante “geneticamente ingegnerizzate” non sono piante inusua-


li, piene di misteriosi pericoli per i consumatori e l’ambiente. L’Euro-
pa può essere orgogliosa della sua eredità culturale illuminista e do-
vrebbe ascoltare i consigli della scienza piuttosto che quelli dei “cac-
ciatori di streghe”. È una responsabilità dell’Europa aiutare i paesi in
via di sviluppo ad esplorare il potenziale delle biotecnologie verdi, in-
vece il suo comportamento influenza negativamente il comportamento
dei paesi in via di sviluppo. L’Europa può permettersi questo compor-
tamento dato che può comprare ciò che preferisce sul mercato mon-
diale. Però, per i paesi in via di sviluppo, questo comportamento è
fonte di morte e miseria non necessaria per molti milioni di persone.
Citando il documento del 2004 del Nuffield Council sulla Bioetica:
«L’Unione Europea sta ignorando l’“imperativo morale” di promuo-
vere le piante geneticamente modificate per il loro grande potenziale
di aiutare i paesi in via di sviluppo».
Noi crediamo che i legislatori dell’Unione Europea non abbiamo
prestato sufficiente attenzione all’impatto che la normativa dell’Unio-
ne Europea ha sull’agricoltura dei paesi in via di sviluppo. Le nostre
società hanno sprecato troppo tempo in questa fase di “ossessione del
rischio”. Smettiamola di seguire i “cattivi profeti”!
125

IL PRINCIPIO DI PRECAUZIONE E LE
PROBLEMATICHE AMBIENTALI RELATIVE AL
SUOLO

Paolo Sequi e Fabio Tittarelli


Istituto Sperimentale per la Nutrizione delle Piante – Roma

Introduzione

I
l ricorso ad un generico Principio di Precauzione (o principio pre-
cauzionale) è stato previsto, durante gli ultimi anni, da numerosi
trattati internazionali, ma si è imposto all’attenzione dell’opinione
pubblica nel 1992. La formulazione più largamente conosciuta ed ac-
cettata del Principio di Precauzione è quella riportata nel Principio 15
della Dichiarazione Finale della Conferenza delle Nazioni Unite
sull’Ambiente e sullo Sviluppo che si è tenuta a Rio de Janeiro (UN-
CED, 1992), la quale stabilisce che: «Al fine di proteggere l’ambiente,
l’approccio precauzionale sarà ampiamente applicato dagli Stati secon-
do le rispettive capacità. Laddove ci siano minacce di danni seri o irre-
versibili, la mancanza di piene certezze scientifiche non potrà costituire
un motivo per ritardare l’adozione di misure, efficaci in termini di co-
sti, volte a prevenire il degrado ambientale». Da allora, il Principio di
Precauzione è stato introdotto in numerose convenzioni e trattati inter-
nazionali, incluso, tra gli altri, il Trattato di Maastricht sull’Unione Eu-
ropea (EU, 1992), svolgendo un ruolo sempre più importante nello svi-
luppo delle politiche ambientali. Allo stesso tempo, il problema relati-
vo a quando e come utilizzare il Principio di Precauzione ha dato origi-
ne a numerosi dibattiti a causa della percezione che in alcuni casi si sia
fatto ricorso ad un approccio semplificato o arbitrario. Negli ultimi an-
ni l’adozione di decisioni accettate e l’uso di argomentazioni non scien-
tifiche, come conseguenza di interpretazioni spesso fuorvianti, ha por-
tato a lunghe discussioni sul Principio di Precauzione ed ha allarmato la
comunità scientifica. Ciò si è verificato anche per tutte le discipline
scientifiche riconducibili alla scienza del suolo. In particolare, i ricerca-
126 I costi della non-scienza

tori impegnati in tali settori scientifici che per le loro competenze sono
stati coinvolti, a livello sia nazionale che internazionale, in gruppi di la-
voro e commissioni sulle principali problematiche ambientali e sanita-
rie che hanno recentemente spaventato l’opinione pubblica (il riscalda-
mento globale del pianeta, il rilascio di organismi geneticamente modi-
ficati, la TSE/BSE,1 i POP,2 etc.), hanno molto spesso rilevato un uso
improprio del Principio di Precauzione.
La mancanza di dati, l’enorme varietà di suoli e di condizioni pe-
doclimatiche rendono praticamente impossibile il raggiungimento di
una condizione di “piena certezza scientifica” nella determinazione
del rischio associato a queste problematiche, creando il presupposto
per il ricorso ad un vago Principio di Precauzione. La comunità scienti-
fica ha, pertanto, cominciato a chiedere ed a lavorare per definire una
metodologia applicativa del Principio di Precauzione, che di per sé non
viene rifiutato da tutti, ma di cui viene messo in discussione l’uso stru-
mentale per prendere delle decisioni arbitrarie.
L’obiettivo di questo lavoro è di presentare un’analisi critica della
definizione di Principio di Precauzione e delle linee guida per ridurre il
rischio di una sua applicazione arbitraria ai problemi del suolo, come
nodo degli equilibri ambientali. Inoltre, lo scopo del presente studio è
quello di sottolineare il ruolo che i ricercatori che si occupano di que-
sta disciplina potrebbero svolgere nella valutazione del rischio, nella
gestione delle problematiche sanitarie ed ambientali che coinvolgono
il comparto suolo e nell’individuazione degli abusi che si possono
commettere nel ricorso al Principio di Precauzione, trascurando magari
altri problemi che vengono invece sfiorati.

Incertezza scientifica e principio di precauzione

Come sopra evidenziato, il Principio di Precauzione costituisce uno


strumento molto potente nelle mani dei politici, in quanto è previsto in
molti trattati e convenzioni delle Nazioni Unite. Tuttavia un suo uso
improprio potrebbe provocare una serie di effetti negativi sulla società

1 Encefalopatia Spongiforme Trasmissibile/Encefalopatia Spongiforme Bovi-


na.
2 Persistent Organic Pollutant.
Il PdP e le problematiche ambientali relative al suolo 127

nel suo complesso. L’origine della controversia fra la comunità scienti-


fica ed i proponenti del Principio di Precauzione, in risposta ad una
condizione di incertezza scientifica rispetto ad una specifica relazione
pericolo-danno, è probabilmente semantica e sostanziale allo stesso
tempo. Da una parte, sappiamo che la conoscenza scientifica può esse-
re suscettibile di essere fraintesa, anche quando non è neanche parzial-
mente erronea. In ogni campo della scienza, infatti, non esiste la certez-
za che nuove argomentazioni e/o nuovi risultati sperimentali non pos-
sano in un futuro anche vicino sostituire alcune delle acquisizioni
scientifiche precedenti. È nella stessa natura degli esperimenti scientifi-
ci lasciare uno spazio al dubbio. Ciò potrebbe portare ad ulteriori veri-
fiche ed eventualmente alla correzione e/o sostituzione anche di cono-
scenze di carattere generale ampiamente accettate. D’altra parte, ed in
contrasto con il significato ed i limiti della conoscenza scientifica, c’è il
significato della parola “principio”: un enunciato al quale si attribuisce
validità universale in un determinato settore. Così, il Principio di Pre-
cauzione potrebbe essere interpretato o come una mera applicazione
del comune buon senso oppure come una legge di base, volta ad evita-
re la più remota possibilità di danno ogni qualvolta si proponga una
nuova relazione pericolo-danno (Rogers, 2001). Secondo quest’ultima
interpretazione, il Principio di Precauzione potrebbe impedire la mag-
gior parte delle attività delle nostre moderne società. Il problema fon-
damentale è pertanto il possibile uso distorto del Principio di Precauzio-
ne ed un argomento critico è quello relativo alla definizione delle con-
dizioni entro le quali applicarlo. Logicamente, per quanto riportato so-
pra, il Principio di Precauzione non può essere invocato ogni volta che
si presenti una condizione di incertezza scientifica, in quanto sussiste
sempre un grado di incertezza. Per questo motivo il riferimento alla
“mancanza di piena certezza scientifica” della maggior parte delle Con-
venzioni e dei trattati internazionali è fuorviante e inaccettabile.
Un altro aspetto altrettanto importante e mai sufficientemente con-
siderato è che ogni normativa provoca conseguenze anche di notevole
portata dal punto di vista economico. Ogni provvedimento legislativo
in campo igienico-sanitario e ambientale può mettere in moto o incre-
mentare l’attività di industrie e di imprese produttive e di servizi. L’in-
certezza scientifica può quindi essere utilizzata come motore dell’eco-
nomia o per lo meno di qualche settore economico, magari avvantag-
128 I costi della non-scienza

giandolo rispetto ad altri. La legislazione in campo igienico-sanitario è


relativamente più cauta, così come quella collegata nel settore dell’ali-
mentazione umana ed animale. Quella in campo ambientale lo è mol-
to meno, dato che gli equilibri ambientali di carattere generale sono
molto complessi e meno intuitivi ed è facile perseguire uno scopo di
risanamento di un ecosistema senza adombrare alcune controindica-
zioni e provocare effetti negativi, anche inconsapevolmente, che pos-
sono provocare danni molto più gravi degli effetti positivi che ci si
propone di conseguire.
Se si considera che gli obiettivi di miglioramento igienico-sanitario e
ambientale trovano di per sé non solo spinte favorevoli nelle industrie
e imprese interessate, ma anche un consenso quasi automatico nei de-
cisori politici, nei mezzi di comunicazione di massa e nella popolazione
in genere, si può capire che questo aspetto è tutt’altro che secondario.
E se può apparire quasi occasionale il dover portare all’attenzione della
pubblica opinione la considerazione che alcuni farmaci possono essere
dannosi per la salute pubblica è assai difficile convincere la stessa opi-
nione e, a ritroso, tutta la catena dei soggetti interessati fino ai decisori
politici, che le iniziative prese allo scopo di prevenire un qualche fatto
negativo di carattere ambientale possono essere in realtà foriere di svi-
luppi estremamente pericolosi se non catastrofici. Il suolo, come si ve-
drà, è al centro di questi errori legislativi che ne mettono in forse la fer-
tilità e le funzioni, anche perché la sua più importante funzione natura-
le, quella di autodepurazione e di nodo degli equilibri biologici, può
contrastare con gli specifici interessi di potenti gruppi economici.
C’è da mettere in rilievo l’importante contributo al dibattito sul-
l’interpretazione del Principio di Precauzione e sui criteri generali per
la sua applicazione venuto recentemente dalla Commissione delle Co-
munità Europee (2000), che ha sottolineato la necessità di considerar-
lo all’interno di un approccio strutturato all’analisi del rischio e, in
particolare, alla gestione del rischio.

La Commissione delle Comunità Europee ed il Principio di


Precauzione

Le principali finalità del documento prodotto dalla Commissione


delle Comunità Europee sono quelle di stabilire un punto di vista co-
Il PdP e le problematiche ambientali relative al suolo 129

mune sui fattori che fanno scattare il ricorso al Principio di Precauzio-


ne e sul suo ruolo nel processo decisionale. Inoltre, il documento si
pone la finalità di stabilire delle linee guida, basate su dei principi coe-
renti, per l’applicazione del principio stesso.
Per quanto riguarda il ricorso al Principio di Precauzione, esso deve
presupporre l’esistenza delle seguenti condizioni:
• l’identificazione di effetti potenzialmente negativi che risultano da
un fenomeno, un prodotto od una procedura;
• una valutazione scientifica del rischio che la situazione in esame, per
l’insufficienza dei dati, il loro carattere non concludente o la loro
imprecisione, non consente di determinare con sufficiente certezza.
Pertanto, l’identificazione di azioni appropriate e/o di misure basa-
te sul Principio di Precauzione dovrebbe sempre partire da una valuta-
zione scientifica dei dati disponibili e, ogni qualvolta risulti necessario,
da un esame completo delle prove, delle lacune nella conoscenza di un
determinato fenomeno e del livello di incertezza scientifica ad esso as-
sociato. Una volta che è stata effettuata la valutazione scientifica, essa
può fornire le basi per invocare l’applicazione del Principio di Precau-
zione. Applicazione comunque che non può essere acritica, ma deve
essere subordinata al rispetto di cinque principi generali, che devono
del resto essere osservati in tutte le misure di gestione di un rischio.
I cinque principi generali costituiscono vere e proprie linee guida e
sono i seguenti:
• la proporzionalità,
• la non-discriminazione,
• la coerenza,
• l’esame dei vantaggi e delle conseguenze negative derivanti
dall’azione o dalla inazione,
• l’esame dell’evoluzione scientifica.
Proporzionalità – Secondo questo principio, le misure non posso-
no essere sproporzionate al livello desiderato di protezione. Inoltre,
non devono mirare al raggiungimento di un “rischio zero”, un livello
di rischio che può richiedere uno sforzo teoricamente infinito, concet-
tualmente e scientificamente non concepibile. Il pieno rispetto di que-
sto principio non consente, soprattutto nel caso dell’applicazione del
Principio di Precauzione, il bando totale di un prodotto o di una tecno-
logia poiché una tale scelta non potrebbe essere considerata una ri-
130 I costi della non-scienza

sposta proporzionale ad un rischio potenziale, ossia non misurabile.


Non-discriminazione – Il principio di non-discriminazione si rife-
risce alla necessità di trattare situazioni paragonabili nello stesso mo-
do, a meno che non sussistano delle condizioni obiettive che impon-
gono un comportamento differente. Tutti i provvedimenti decisi invo-
cando il Principio di Precauzione non dovrebbero mai applicare misu-
re diverse che sarebbero adottate in modo arbitrario sulla base, ad
esempio, non solo del campo ambientale considerato ma anche
dell’origine geografica o della natura della produzione.
Coerenza – Il principio di coerenza stabilisce che le misure do-
vrebbero essere coerenti con quelle già prese in circostanze simili e/o
adottando approcci simili. In altre parole, se l’assenza di sufficienti
dati scientifici rende impossibile la valutazione del livello di rischio, le
misure precauzionali adottate dovrebbero essere comparabili con
quelle precedentemente prese in situazioni analoghe nelle quali i dati
scientifici sono disponibili.
Esame dei vantaggi e delle conseguenze negative derivanti dal-
l’azione o dall’inazione – Ogni misura adottata dovrebbe essere esa-
minata in termini di benefici e costi dell’azione e dell’inazione. Pertan-
to, ogni qualvolta sia fattibile ed appropriato, dovrebbe essere effet-
tuata l’analisi economica dei costi e dei benefici, anche se, in alcune
circostanze, i responsabili delle amministrazioni preposte possono es-
sere guidati da considerazioni non economiche.
Esame dell’evoluzione scientifica – Questo principio generale do-
vrebbe essere applicato in ogni provvedimento legislativo, ma diviene
ancora più importante quando si tratta di provvedimenti per i quali si
è ricorso al Principio di Precauzione. Le misure adottate devono essere
mantenute finché i dati scientifici rimangono insufficienti, imprecisi o
non conclusivi e finché il rischio viene considerato troppo alto per po-
ter essere sostenuto dalla società. Comunque, l’acquisizione di nuovi
dati scientifici potrebbero rendere possibile il processo di valutazione
del rischio e consentire la modifica oppure l’eliminazione di misure
precauzionali.
Le cinque linee guida riportate sopra rappresentano un contributo
importante ed influente al dibattito esistente sul Principio di Precau-
zione per un suo uso politicamente trasparente. In effetti, come si è
già sopra sottolineato, con queste linee guida la Commissione ha sta-
Il PdP e le problematiche ambientali relative al suolo 131

bilito che anche le misure che risultano dal ricorso al Principio di Pre-
cauzione devono conformarsi ai principi generali applicabili alle misu-
re di gestione del rischio. Inoltre, viene sottolineato il carattere provvi-
sorio delle misure basate sul Principio di Precauzione, mentre viene en-
fatizzata la necessità di un’attenta raccolta ed analisi dei dati scientifici
disponibili (Foster et al., 2000). In ogni caso, nonostante gli aspetti
positivi riportati sopra, mancano ancora delle linee guida chiare per
definire il peso delle prove necessarie per far scattare il Principio di
Precauzione e per decidere quali misure dovrebbero essere applicate
in ogni data circostanza. A tale proposito, un lavoro particolarmente
interessante sulla valutazione e la gestione del rischio è quello scritto
da Renn e Klinke (1999). Tale studio fornisce un importante contribu-
to alle problematiche che riguardano la classificazione del rischio e le
strategie per una sua razionale gestione. Nelle pagine seguenti saranno
trattati i principali aspetti della classificazione e gestione del rischio,
ma si consiglia vivamente, per un’esauriente dissertazione sull’argo-
mento, il lavoro menzionato precedentemente e quello di Stirling
(1999).
Si può sottolineare intanto che, come si era osservato, molti prov-
vedimenti legislativi vengono proposti ed emanati nell’interesse di-
chiarato della salute pubblica e della protezione dell’ambiente. Già
solo una tale dichiarazione di intenti giustifica la loro adozione agli
occhi della popolazione e dei decisori politici. Se tuttavia si esaminano
le categorie di rischio (processi di degradazione) che si pongono se-
condo l’OCSE nei confronti dell’ecosistema suolo, che abbiamo defi-
nito il nodo degli equilibri ambientali, possiamo osservare che su
quattordici categorie di rischio 3 la legislazione attuale italiana e comu-
nitaria ha cercato di prenderne in considerazione in maniera organica
soprattutto due, quelle elencate nella tabella 1 ai numeri 10 e 13, e che
solo recentemente essa sta cercando di normare le emissioni di cui al
punto 14. Per di più, preoccupandosi delle sostanze tossiche, essa ha
teso al raggiungimento di un teorico livello zero, contravvenendo a
quanto viene stabilito dal principio di proporzionalità. Occupandosi

3 Alle quattordici categorie di rischio ne abbiamo aggiunta una quindicesima

che può apparire paradossale, a quasi due secoli dalla nascita di Justus von Lie-
big, e dalla scienza della fertilizzazione: su di essa si ritornerà.
132 I costi della non-scienza

delle sostanze tossiche, spesso, le norme hanno riguardato ammen-


danti organici o fanghi che potevano essere dirottati ed alimentare le
discariche o altri sistemi di smaltimento, favorendo pertanto interessi
diversi da quelli ambientali. Per di più anche occupandosi di liscivia-
zione (n. 13) e di volatilizzazione (n. 14), la legislazione risulta avere a
cuore più la salute di comparti ambientali acqua e aria che le buone
condizioni della fertilità, della produttività e della salute del suolo,
contravvenendo anche alle linee guida della non-discriminazione e
della coerenza. Le linee guida che chiedono di esaminare i vantaggi e
le conseguenze negative dell’azione e della non azione, oltre che di te-
ner conto dell’evoluzione scientifica, appaiono totalmente disattese.
Quel che risulta più grave, comunque, è che nel caso della prote-
zione del suolo dai processi di degradazione, si hanno carenze proprio
nella legislazione ordinaria. Ma torniamo all’applicazione del Principio
di Precauzione.

Valutazione e classificazione del rischio

Secondo Renn e Klinke (1999), i principali criteri per la valutazio-


ne del rischio sono i seguenti:
Gravità del danno: dimensione potenziale delle conseguenze nega-
tive determinate dal fattore di rischio (azione dell’uomo od anche
eventi naturali);
Probabilità che si verifichi il danno: dato che dipende dalle infor-
mazioni sulla frequenza del danno, pur nell’incertezza sul momento
esatto in cui si può verificare;
Certezza della stima: grado di affidabilità associato alla stima della
gravità del danno e della probabilità con cui esso si verifica, ossia pro-
babilità di collegamento causa-effetto;
Ubiquità: dispersione geografica del potenziale danno;
Persistenza: estensione temporale dei danni potenziali;
Reversibilità: possibilità di ripristinare la situazione nello stato pre-
cedente rispetto a quello determinato dal danno;
Effetto ritardato: periodo di latenza che può intercorrere fra il mo-
mento iniziale in cui si verifica un evento ed il momento in cui si ma-
nifesta il reale impatto del danno;
Potenziale di mobilitazione: violazione potenziale di interessi e di
Il PdP e le problematiche ambientali relative al suolo 133

valori di individui e/o gruppi sociali che generano conflitti e reazioni


da parte di individui e gruppi che sentono di sopportare il peso delle
conseguenze del rischio.
Prendendo in considerazione principalmente gravità del danno e
probabilità che il danno si verifichi, come criteri di base per cominciare
un processo razionale di valutazione del rischio, si possono distingue-
re tre principali livelli di rischio:
• la categoria normale,
• la categoria intermedia,
• la categoria intollerabile.
I rischi che appartengono alla categoria normale sono caratterizzati
da un buon grado di certezza statistica ed in prima approssimazione, se
i processi vengono contrastati in una fase non avanzata, da un basso
potenziale catastrofico, oltre che da un basso grado di persistenza e di
ubiquità e da un elevato grado di reversibilità. A causa della loro bassa
complessità, lo strumento principale di valutazione per i rischi che
rientrano nella cosiddetta categoria normale è l’analisi rischio-beneficio.
I rischi che rientrano nelle categorie intermedia ed intollerabile cau-
sano maggiori problemi. In questi casi, la certezza della stima è conte-
stata, il potenziale effetto catastrofico può essere elevato e non sono
disponibili sufficienti conoscenze circa la distribuzione delle conse-
guenze. In questi casi il rapporto rischio-beneficio è inadeguato in
quanto non è possibile escludere conseguenze negative molto gravi e,
pertanto, prevalgono le strategie precauzionali di controllo del rischio
(ad esempio nuove strategie di contenimento del danno e di elusione
del rischio).
L’uso degli otto criteri sopra riportati porterebbe all’identificazione
di un numero enorme di tipologie di rischio, che non sarebbe utile per
realizzare una classificazione del rischio gestibile. Così, diversi rischi
sono raggruppati secondo uno o più criteri per i quali raggiungono i
valori estremi del loro intervallo di variazione. Questa classificazione
porta a classi di rischio che sono state identificate con nomi prove-
nienti dalla mitologia greco-romana (Tabella 2). Sei delle sette classi
sono state proposte da Stirling (1999) e vengono qui adottate con
qualche piccola modifica. Ad esse ne abbiamo aggiunta una settima,
denominata Prometeo.
134 I costi della non-scienza

Diversi sono i rischi tecnologici che appartengono a ciascuna delle


categorie di rischio individuate e gli esempi riportati di seguito non
possono essere considerati esaustivi. Fra gli altri, alcuni dei rischi elen-
cati sono associati a dissesti ambientali ed a potenziali danni all’ecosi-
stema del suolo. È questo un campo di interesse specifico dei ricerca-
tori delle diverse discipline afferenti alla scienza del suolo il cui coin-
volgimento, nella stima del rischio e nella gestione delle nuove tecno-
logie che hanno un impatto su tale comparto, sta aumentando anno
dopo anno.
Classe di rischio Ciclopi
I Ciclopi erano giganti con un occhio solo. La mancanza di un oc-
chio simboleggia una visione parziale della realtà; ciò, applicato al ri-
schio, riguarda quelle fonti di rischio delle quali è possibile stimare la
probabilità che si verifichi un evento oppure la gravità del danno de-
terminato da tale evento, mentre l’altra componente rimane incerta. I
rischi che appartengono alla classe Ciclopi sono quelli la cui estensio-
ne del danno può essere estremamente elevata, a livello di cataclismi,
ma stimata solo a posteriori, mentre rimane incerto il livello di proba-
bilità su dove e soprattutto su quando il danno si verificherà. Di solito
eventi naturali quali i terremoti, le alluvioni e le eruzioni vulcaniche
appartengono a questa categoria di rischio.
Classe di rischio Cassandra
Cassandra, profetessa dei troiani, predisse la vittoria dei greci, ma
non fu presa seriamente in considerazione da parte dei suoi concitta-
dini. In questa classe sono raggruppati tutti i rischi che possono pro-
vocare danni, dei quali sono ben noti sia la gravità sia la probabilità
che si verifichino. Inoltre, tipica di questa classe di rischio è la lun-
ghezza del periodo di tempo che intercorre tra l’evento iniziale ed il
momento in cui il danno si manifesta sull’ecosistema. Un esempio di
questa classe di rischio sono i cambiamenti climatici, alcuni dei quali
sono attualmente considerati di possibile origine antropica (un classi-
co esempio e l’emissione di clorofluorocarburi).
Classe di rischio Damocle
Secondo la mitologia, Damocle fu invitato dal suo re ad un ban-
chetto, ma il suo posto a tavola era proprio sotto ad una spada appesa
Il PdP e le problematiche ambientali relative al suolo 135

al soffitto con un filo molto sottile. Il rischio simboleggiato dalla spa-


da di Damocle riguarda la possibilità che un evento fatale per Damo-
cle possa verificarsi in qualunque momento, anche se con una proba-
bilità molto bassa. Pertanto, questa classe di rischio è relativa a fonti
di rischio che sono caratterizzate da un potenziale di danno molto ele-
vato, ma con una probabilità che si verifichi molto bassa. Tecnologie
come gli impianti chimici di grandi dimensioni e le dighe appartengo-
no a questa classe di rischio.
Classe di rischio Prometeo
Fu lo stesso Prometeo, secondo alcuni autori greci, a modellare gli
uomini impastandoli dalla terra ed a favorirli in ogni modo nei primi
stadi della loro storia. Il più importante dono fatto agli uomini fu il
fuoco, che era appannaggio degli Dei e che fu loro rubato per consen-
tire una prima forma di civiltà: per questo motivo Prometeo fu con-
dannato da Giove ad un atroce supplizio. Il fuoco è ancora motivo di
altri rischi nella nostra storia di tutti i giorni e gli incendi provocano
danni potenzialmente anche molto gravi, pur se in teoria prevedibili;
essi obbligano tutte le comunità umane a mantenere agenti specializ-
zati per la vigilanza, la prevenzione ed il contenimento dei danni.
Questa classe di rischio simboleggia ogni avanzamento nella ricerca
scientifica e tecnologica, che deve prevedere tipicamente un apporto
attivo di difesa corale da parte delle comunità umane, accanto alla ca-
ratteristica, altrettanto tipicamente da essa posseduta, dell’assoluta ir-
rinunciabilità. Dal fuoco mitologico di Prometeo, gli esempi possono
ricomprendere le odierne esperienze spaziali, oltre, come si è detto, a
molte ricerche di interesse strategico.
Classe di rischio Pizia
In caso di incertezza, gli antichi greci si rivolgevano agli oracoli. Pi-
zia, una delle più famose profetesse dell’antichità, era solita fare delle
profezie ambigue su gravi pericoli la cui ubicazione geografica, gravità
del danno e probabilità che si verificasse rimanevano sostanzialmente
incerte o per lo meno da interpretare caso per caso. È possibile che,
nonostante nel suo tempio di Delfi potesse contare sulla protezione
diretta di Apollo, essa temesse di essere perseguita nel caso di vaticini
troppo chiari, così come parecchi secoli più tardi successe a Nostrada-
mus. Le possibili conseguenze dell’impiego di colture geneticamente
136 I costi della non-scienza

modificate senza opportune precauzioni, la diffusione della TSE/BSE


e talora gli stessi rischi associati agli interventi dell’uomo sugli ecosi-
stemi appartengono a questa classe di rischio.
Classe di rischio Pandora
Pandora ricevette da Giove un vaso contenente tutti i mali. Se essi
fossero rimasti all’interno del vaso non si sarebbe verificato nessun
danno, ma una volta che Pandora aprì il vaso tutti i mali furono rila-
sciati e si diffusero in maniera persistente in tutto il mondo. Questa
classe di rischio è caratterizzata da incertezza in termini di gravità del
danno e possibilità che si verifichi e da un elevato grado di persistenza
degli effetti determinati dall’accadimento dell’evento temuto. La pro-
duzione e l’uso di sostanze potenzialmente inquinanti di natura orga-
nica ad alta persistenza può essere considerata un esempio tipico di
questa categoria di rischio.
Classe di rischio Medusa
Medusa era una delle tre terrificanti Gorgoni la cui apparizione
trasformava gli astanti in pietra. Alcune delle nuove tecnologie sem-
brano provocare effetti egualmente spaventosi sull’uomo moderno il
quale respinge queste innovazioni, nonostante il fatto che esse difficil-
mente possano essere considerate pericolose sulla base della docu-
mentazione scientifica disponibile. La caratteristica di questa catego-
ria di rischio è che le fonti di rischio sono rifiutate in modo irrazionale
dalla popolazione (alto grado di potenziale di mobilitazione). Gli
esperti nella stima dei rischi collocano di solito questi rischi nell’area
normale ed il solo modo per combattere la paura che generano è di
migliorare la comunicazione al pubblico con efficaci argomentazioni
scientifiche. I campi elettromagnetici sono considerati un esempio ti-
pico di questa tipologia di rischio.

Differenti strategie per differenti classi di rischio

Lo scopo principale di questa classificazione è di fornire uno stru-


mento a chi gestisce il rischio per la definizione di specifiche strategie
di intervento per ogni classe di rischio. Una volta che i criteri che ca-
ratterizzano i diversi rischi sono conosciuti, è possibile individuare le
strategie appropriate per spostare i rischi dalla categoria intermedia a
Il PdP e le problematiche ambientali relative al suolo 137

quella normale dove possono essere gestiti mediante misure basate su


dati scientifici. Sulla base di quanto stabilito sopra, solo i rischi ricon-
ducibili alle categorie Pizia e Cassandra richiedono necessariamente
strategie precauzionali. Investimenti in ricerca di base, sussidi allo svi-
luppo di sistemi di produzione alternativi, trasferimenti di tecnologia,
aggiornamenti e divieti rigidi, se necessario, sono alcuni degli stru-
menti precauzionali disponibili.
I rischi che appartengono alle categorie Damocle, Ciclopi e Prome-
teo necessitano di una combinazione di strategie precauzionali e basa-
te su dati scientifici. Misure adeguate a queste tipologie di rischio pos-
sono essere considerate le misure tecniche volte a ridurre i potenziali
danni ed a calcolare la probabilità che l’evento si verifichi nei casi di
elevata incertezza, così come il monitoraggio nazionale ed internazio-
nale e l’applicazione, se necessario, di divieti molto rigidi.
I rischi Cassandra e Medusa rappresentano le classi di rischio che,
per ragioni diverse, possono essere gestite mediante strategie di comu-
nicazione. In particolare, i rischi Cassandra, essendo caratterizzati da
un lungo periodo di tempo che intercorre fra l’evento iniziale ed il
momento in cui si verifica il danno, necessitano di un’educazione am-
bientale, un codice di comportamento e la costruzione di una consa-
pevolezza sociale per quanto riguarda i pericoli che si manifestano nel
tempo. D’altra parte, la classe Medusa rappresenta rischi dei quali la
certezza della stima è considerata soddisfacente. Il principale criterio
che caratterizza questa tipologia di rischio è il potenziale di mobilita-
zione. Le persone comuni sono spaventate da queste fonti di rischio e
rifiutano di accettare, irrazionalmente, la tecnologia che è causa della
loro paura. Gli strumenti volti ad aumentare la fiducia e la confidenza
con una nuova tecnologia ed a sostenere la ricerca di base per miglio-
rare ulteriormente la certezza della stima, sono tutti atti ad informare
la popolazione della reale dimensione del danno e della reale probabi-
lità che esso si verifichi.

L’applicazione del principio di precauzione alle problematiche


ambientali del comparto suolo

Secondo quanto riportato nella Comunicazione della Commissione


sul Principio di Precauzione (2000) e nei lavori di Renn e Klinke
138 I costi della non-scienza

(1999), Stirling (1999) e Rip (1999), l’invocazione del Principio di Pre-


cauzione non è una questione riconducibile semplicemente all’applica-
zione del comune buon senso. Inoltre, nessuna decisione arbitraria
può essere presa, per nessuna problematica di carattere ambientale
e/o sanitaria, invocando un vago Principio di Precauzione, in quanto la
sua applicazione deve essere conforme con i cinque principi generali a
cui si fa di solito riferimento nelle misure di gestione del rischio. Que-
ste considerazioni dovrebbero essere riprese dai ricercatori delle
scienze del suolo ogniqualvolta si invochi l’applicazione del Principio
di Precauzione alle problematiche sanitarie ed ambientali di tale com-
parto. La classificazione di rischio proposta da Renn e Klinke (1999)
non è certamente né completa né esauriente di tutte le tipologie di ri-
schio, ma può rappresentare, per i ricercatori, un importante approc-
cio di stima del rischio e uno strumento d’individuazione delle più ap-
propriate strategie e degli strumenti volti alla riduzione dell’incertezza
relativa alla probabilità che si verifichi un danno ed alla gravità del
danno stesso. Un altro aspetto, di non secondaria importanza per i ri-
cercatori delle scienze del suolo, riguarda l’assunzione di responsabi-
lità su qualunque tematica che riguarda la gestione del suolo. Solo i ri-
cercatori impegnati nello studio delle scienze del suolo possono racco-
gliere le informazioni che riguardano gli otto principali criteri di valu-
tazione del rischio e solo attraverso la loro esperienza possono elabo-
rare uno “stato dell’arte” della conoscenza del rischio.
In linea di principio, per i rischi che rientrano nella categoria nor-
male di cui si è precedentemente parlato non dovrebbe essere applica-
ta che una legislazione ordinaria, nel senso che non occorre il ricorso
al Principio di Precauzione. Molto spesso si tratta infatti di processi la
cui direzione è nota e può essere indirizzata in senso favorevole o sfa-
vorevole mediante l’adozione di pratiche opportune. Negli altri casi
invece, quelli delle categorie intermedia e intollerabile, un andamento
negativo potrebbe provocare impatti catastrofici, ed è questo il motivo
per il quale diviene indispensabile e giustificato il ricorso al Principio
di Precauzione.
Se torniamo ai processi di degradazione del suolo illustrati prece-
dentemente nella Tabella 1, possiamo considerare che in condizioni
attribuibili ad una categoria normale l’adozione di corrette pratiche
agricole può essere sufficiente a limitare o a controllare completamen-
Il PdP e le problematiche ambientali relative al suolo 139

te i rischi. È ovvio pertanto che sarebbe sufficiente una legislazione


ordinaria che tenesse nella dovuta considerazione la necessità di privi-
legiare un’attività multifunzionale dell’agricoltura per evitare l’instau-
rarsi di condizioni drammatiche per l’ambiente, quali sono quelle rap-
presentate nella colonna di destra della stessa Tabella 1.
In realtà, la società d’oggi si trova a dovere fronteggiare in via or-
mai ordinaria cataclismi e situazioni catastrofiche che dipendono
dall’ignoranza, dalla cattiva considerazione o dall’esclusione delle fun-
zioni dell’ecosistema suolo negli approcci seguiti per la protezione
dell’ambiente. L’esclusione del suolo nasconde a volte gli interessi di
soggetti coinvolti in colossali giri d’affari, ma a volte rivela solo igno-
ranza degli aspetti tecnici del problema. Alcuni casi particolarmente
preoccupanti di comportamenti pericolosi delle società d’oggi, perico-
losi al punto da provocare disfunzioni strutturali, sono riportati nella
Tabella 3.
Le diverse normative che riguardano direttamente od indiretta-
mente il suolo sono sempre state pubblicate partendo dall’assunto che
tutte le sostanze o gli elementi introdotti nell’ambiente dall’uomo fos-
sero pericolose, indipendentemente dalle loro concentrazioni. D’altra
parte le sostanze di origine naturale non sono mai state oggetto di li-
mitazioni come se la loro “naturalità”, secondo alcuni, contenesse au-
tomaticamente la caratteristica di innocuità. Ad esempio, il suolo non
è mai stato considerato sufficientemente nella legislazione relativa alla
qualità delle acque, tanto che la stessa gloriosa Legge Merli (319/76)
non ha preso in considerazione il sodio fra gli elementi per i quali era
necessario porre un limite: come possibile conseguenza, un’acqua irri-
gua diveniva un potenziale strumento di sterilità dei suoli. Ma neppu-
re i più recenti provvedimenti legislativi europei, come la Decisione n.
2455/2000/CE del Parlamento Europeo e del Consiglio, pubblicata
sulla G.U. L 331 del 15 dicembre 2001,4 annoverano sostanze perico-
lose per il suolo e la sua funzionalità fra quelle di interesse prioritario
per le acque: vi si legge l’alachor, l’atrazina, l’esaclorobenzene, il ni-
chel e il cloroformio, ma non c’è traccia di cloruro sodico e di sodio.

4 Con candore inappellabile la Decisione ci spiega una volta di più, fin dalla

terza “considerazione” delle premesse, che per le sostanze sintetiche antropoge-


niche le concentrazioni devono essere vicine allo zero.
140 I costi della non-scienza

Raro è anche che si parli di sodio e di cloruro sodico, nonostante le


catastrofi storiche che hanno determinato la caduta della civiltà Assi-
ro-Babilonese in tempi remoti e vanno provocando la sterilizzazione
di molte vaste superfici di suoli anche in epoca moderna. Si tiene con-
to di acque, insomma, ma non del loro utilizzo. I collassi strutturali
possono essere provocati da alte percentuali di sodio nel complesso di
scambio, ma anche dalla degradazione del carbonio organico, che può
contribuire almeno in ambiente mediterraneo ad un apporto di ani-
dride carbonica in atmosfera di un ordine di grandezza pari, se non
superiore, a quello apportato dalle combustioni dei fossili. L’ultimo
caso da considerare, anch’esso potenzialmente catastrofico, è quello
dell’immissione senza ritorno nelle acque di elementi nutritivi prove-
nienti dallo sfruttamento di rocce e minerali: trasformate in fertiliz-
zanti, essi entrano nella catena suolo-pianta-uomo e animale, ma pos-
sono non fare più ritorno alla loro destinazione naturale, il suolo,
quando si impedisce per legge la riutilizzazione come fertilizzante del
pozzo nero e di altri effluenti. I cicli degli elementi nutritivi, in altre
parole, sono così spezzati (Sequi, 1990).
Sembra pertanto che le leggi non considerino a sufficienza il suolo,
indipendentemente dal ricorso al Principio di Precauzione. Ma se si
collocano i vari eventi pericolosi nelle varie categorie di rischio fin qui
considerate si possono avere diverse sorprese (Tabella 4). Gli eventi
catastrofici che interessano direttamente il suolo (frane e collassi strut-
turali da alluvioni, desertificazione, acidificazione e sommersione, per-
dita del patrimonio degli elementi nutritivi) devono essere considerati
nelle classi dove la gravità del rischio è più elevata, mentre gli eventi
che si originano nel suolo, ma che possono colpire altri ecosistemi,
fanno parte delle classi di rischio la cui gravità è incerta o bassa e al-
trettanto bassa la probabilità: si tenga conto, per esempio, che i limiti
al contenuto di erbicidi nelle acque potabili sono dettati dal concetto
che essi devono essere prossimi alla soglia della rilevabilità analitica.
Tali limiti sembrano indotti da un generico Principio di Precauzione
che dovrebbe riguardare considerazioni igienico-sanitarie ma che più
spesso sembra nascondere ragioni puramente commerciali, quali l’av-
vicendamento di nuove generazioni di erbicidi efficaci a concentrazio-
ni molto più basse. Si tratta di rischi per i quali i mezzi di comunica-
zione di massa hanno promosso un alto potenziale di mobilitazione, e
Il PdP e le problematiche ambientali relative al suolo 141

che dovrebbero essere ridimensionati con un’opportuna campagna di


educazione pubblica. Sembra insomma che la legislazione vigente ten-
da a proteggere più gli ecosistemi facili e visibili di quelli strutturali e
complessi. Questa tendenza appare ancora più accentuata se si consi-
dera che i comportamenti antropici che colpiscono gravemente l’inte-
grità del suolo e la sua funzionalità sono favoriti dalla legislazione vi-
gente. Sarebbe tempo che gli scienziati del comparto cercassero di ri-
prendere in mano la situazione, in quanto ogni comportamento passi-
vo, in queste circostanze, dovrà essere ritenuto colpevole.
Un esempio finale di uso distorto del Principio di Precauzione per
affrontare delle problematiche di origine ambientale e sanitaria del
comparto suolo e dell’importanza del ruolo degli scienziati di tale
comparto per una classificazione razionale del rischio e per l’identifi-
cazione di adeguate strategie e misure per la relativa gestione di tali
rischi, è la fissazione dei contenuti massimi di metalli pesanti nei fer-
tilizzanti da somministrare ai suoli agricoli. Naturalmente, poiché tale
problema è estremamente complesso ed ogni elemento meriterebbe
una dissertazione esauriente a parte, si riportano di seguito solo alcu-
ni principali aspetti critici e paradossali, che riguardano il contesto
europeo.

Tenori massimi consentiti di metalli pesanti nei fertilizzanti organici

In conseguenza del crescente interesse per le problematiche am-


bientali relative alla gestione dei rifiuti, molti convegni si sono tenuti,
su tali argomenti, a livello nazionale ed europeo negli ultimi anni. Uno
degli aspetti di maggiore preoccupazione e dibattito fra i funzionari
del Ministero dell’Ambiente, del Ministero dell’Agricoltura, delle or-
ganizzazioni professionali e delle associazioni di consumatori che par-
tecipano a questi convegni è stato la qualità ambientale dei fertilizzan-
ti organici in generale, e specificamente dei fanghi degli impianti di
depurazione e del compost prodotto mediante trattamenti biologici di
rifiuti biodegradabili. Nello specifico, è stata spesso oggetto di discus-
sione la fissazione dei contenuti massimi di metalli pesanti nel prodot-
to finale. Sfortunatamente, non sempre sono state considerate per
ogni singolo elemento le proprietà fisico-chimiche, le concentrazioni
naturalmente presenti nei singoli comparti ambientali, il loro ruolo, se
142 I costi della non-scienza

esiste, nel metabolismo delle piante e degli animali, i meccanismi di


asportazione e regolazione, il potenziale accumulo, la competizione
con altri elementi, le concentrazioni per le quali si evidenziano sintomi
di carenza e di tossicità per le diverse specie nella catena alimentare.
Al contrario, frequentemente, la discussione è stata guidata dal riferi-
mento ad un vago concetto di precauzione se non proprio dall’invoca-
zione del Principio di Precauzione, assumendo, non dichiaratamente,
che, quando si tratta di metalli pesanti, i valori migliori sono i più bas-
si. Più che Principio di Precauzione si potrebbe parlare in questi casi di
precauzione senza principio, come si legge nella bella introduzione al
libro di A. Meldolesi sugli OGM. Già diversi secoli or sono, ci ricor-
dano Nicolini e D’Agnolo (2001), Paracelso aveva affermato che «ogni
sostanza è un veleno, ma è il dosaggio che la vuole velenosa».
L’applicazione fuorviante del concetto di precauzione ha determi-
nato anno dopo anno la perdita di un approccio scientifico al proble-
ma e la proposta di livello massimo ammissibile di contaminanti in
compost indipendentemente dalle considerazioni tecniche e scientifi-
che di base. Inoltre, la mancanza di un approccio strutturato alla ge-
stione del rischio ha portato a conclusioni contraddittorie e, talvolta,
paradossali.
Nonostante ed indipendentemente dall’instancabile lavoro dei sin-
goli funzionari della DG Ambiente della Commissione Europea, il cui
scopo finale è di fornire l’Unione Europea di una direttiva sulla ge-
stione dei rifiuti, l’Allegato III della seconda bozza del documento di
lavoro Trattamento biologico dei rifiuti biodegradabili rappresenta un
classico esempio di quanto riportato sopra. Per quanto riguarda il
contenuto di metalli pesanti di compost o del residuo solido della dige-
stione anaerobica di classe 1, le concentrazioni massime proposte so-
no quelle riportate in tabella 5, nella quale viene riportata per con-
fronto la concentrazione ammessa dall’U.S. Environmental Protection
Agency per i biosolidi che possono essere somministrati al suolo.
Alcune considerazioni sono necessarie specialmente se focalizzia-
mo l’attenzione su rame, cromo e piombo. Gli scienziati che svolgono
un’attività di ricerca nelle discipline scientifiche riconducibili alla
branca delle scienze del suolo (chimici agrari, biologi, agronomi, fisio-
logi vegetali, etc.) sanno, che fra i metalli presenti sulla crosta terre-
stre, molti sono essenziali per la vita. Gli organismi viventi necessitano
Il PdP e le problematiche ambientali relative al suolo 143

di un rifornimento costante di questi elementi, per evitare fenomeni di


carenza, in quanto sono deputati a svolgere importanti funzioni biolo-
giche. Altri metalli, di cui non è stata mai scoperta una funzione vitale
in nessun organismo vivente, sono chiamati elementi non-essenziali.
Mentre quantitativi eccessivi di elementi essenziali possono essere
causa di un potenziale danno agli organismi viventi, anche piccole
quantità di elementi non-essenziali possono essere pericolose per gli
stessi organismi viventi.
Il rame ed il cromo sono elementi essenziali, mentre il piombo è un
elemento non-essenziale. Anche se questa semplice considerazione
dovrebbe essere sufficiente per differenziare la concentrazione massi-
ma ammissibile per il rame ed il cromo da una parte e per il piombo
dall’altra, gli esaurienti lavori di Landner e Lindestrom (1999) ed il
volume edito da Canali et al. (1997), per il rame ed il cromo rispettiva-
mente, forniscono le informazioni scientifiche ed il database necessari
per operare una gestione razionale del rischio. In effetti è stato osser-
vato che il rame, oltre ad essere un elemento essenziale, ha un’elevata
efficacia come promotore della crescita nei maiali tanto che, per que-
sto motivo, tradizionalmente si sono aggiunte elevate dosi di rame (fi-
no a 200 mg Cu per kg di mangime) ai mangimi utilizzati per l’alimen-
tazione dei suini, per aumentarne le prestazioni produttive (Landner e
Lindestrom, 1999). Inoltre, il Gruppo di Lavoro sul rame dell’IPCS
(International Program on Chemical Safety) ha stabilito che, special-
mente in Europa ed in America, c’è un maggiore rischio per la salute a
causa di una carenza che per un’assunzione eccessiva di rame (1996).
Simili conclusioni possono essere tratte per il cromo. Nel 1959
Schwartz e Mertz dimostrarono che il cromo era un elemento fonda-
mentale nella costituzione del GTF (Glucose Tolerance Factor) che re-
gola l’assunzione ed il metabolismo degli zuccheri. Successivamente è
stato dimostrato che il GTF è indispensabile per il normale metaboli-
smo degli zuccheri, dei lipidi e delle proteine in gatti, conigli, polli,
maiali, vitelli ed anche nell’uomo (Anderson, 1988). Quando il cromo
viene somministrato ad animali allevati per la produzione di carne,
può cambiare la composizione della carcassa. Esperimenti realizzati
da Page et al. (1993) sui maiali hanno dimostrato che era evidenziabile
un aumento della massa muscolare e una riduzione dello spessore del
grasso sottocutaneo. Negli esseri umani, d’altra parte, il cromo addi-
144 I costi della non-scienza

zionato in forma organica alla dieta, sembra aumentare lo sviluppo dei


muscoli scheletrici (Evans and Pouchink, 1993). Infine, Anderson
(1987) ha stimato che nel 90% dei casi, a seguito del consumo di pro-
dotti raffinati, un adulto americano ha una dieta che copre solo il 40-
60% del reale fabbisogno di cromo.
Pertanto, per quanto sopra riportato, sia per il rame che per il cro-
mo, mentre le istituzioni nazionali ed internazionali che si occupano
di agricoltura ed ambiente definiscono la concentrazione massima di
elementi essenziali (rame e cromo) nei compost allo stesso livello di
quello imposto per gli elementi non essenziali (piombo), le industrie
farmaceutiche invadono il mercato con prodotti da banco (integratori
minerali) che contengono, fra gli altri elementi, appunto proprio il ra-
me ed il cromo. I moderni sistemi di produzione agricola ed i processi
di raffinazione e trasformazione dei prodotti alimentari sono conside-
rati responsabili per il basso contenuto in elementi essenziali delle no-
stre diete e, per tale motivo, gli integratori minerali sono raccomanda-
ti specialmente in soggetti sottoposti a fatica fisica ed a stress come nel
caso degli atleti e delle donne in stato di gravidanza. Infine, specifici
prodotti da banco a base di cromo vengono pubblicizzati e venduti
per aumentare l’efficienza del metabolismo degli zuccheri e dei lipidi
a supporto di diete a basso contenuto di calorie messe a punto per il
trattamento dell’obesità.
Pertanto, secondo quanto riportato dalla letteratura scientifica
sull’argomento, sembra ragionevole affermare che il rischio associato
all’uso in agricoltura di compost che contenga un quantitativo di rame
e cromo moderatamente superiore ai 100 mg per kg di sostanza secca
appartenga alla categoria di rischio Medusa che è caratterizzata da un
basso potenziale di danno, da una bassa probabilità che tale danno si
verifichi e da un alto potenziale di mobilitazione. La gente comune è
spaventata dai “metalli pesanti” in generale e li rifiuta nel loro insieme
senza distinguere fra elementi essenziali e non essenziali. Non c’è al-
cun bisogno di invocare misure precauzionali per trattare con questa
classe di rischio, mentre sembrano degli strumenti più appropriati
quelli volti ad aumentare la confidenza della popolazione con queste
problematiche attraverso la costituzione di istituzioni indipendenti
per l’informazione e di controllo internazionale e mediante il migliora-
mento del livello di certezza della stima. Tutti gli scienziati impegnati
Il PdP e le problematiche ambientali relative al suolo 145

in attività di ricerca attinenti il suolo svolgono un ruolo fondamentale


in ciascuna delle misure menzionate sopra.
Un caso a parte è quello che riguarda il cadmio. In effetti, l’appli-
cazione del Principio di Precauzione è invocato con maggiore enfasi
quando si tratta di elementi non essenziali come nel caso del cadmio.
Anche se il cadmio come elemento non essenziale è più tossico del ra-
me e del cromo, il rischio associato all’uso del compost con diversi li-
velli di cadmio potrebbe essere valutato con un’analisi rischio-benefi-
cio in quanto è caratterizzato da un basso impatto di danno potenzia-
le, da un basso valore per il criterio che riguarda l’ubiquità delle con-
seguenze del rischio e potrebbe, pertanto, essere oggetto di una sem-
plice routine di gestione del rischio. Ciononostante, anche se il Princi-
pio di Precauzione fosse applicato, sarebbe regolato dall’osservazione
dei cinque principi riportati sopra e messi a punto per evitare qualun-
que tentativo di un suo uso arbitrario. In particolare, il principio di
coerenza è di specifico interesse in questo caso. Recentemente è stato
pubblicato il Regolamento della Commissione (EC) N. 466/2001
dell’8 marzo 2001 che definisce il contenuto massimo di certi conta-
minanti negli alimenti. Il contenuto massimo di cadmio (Cd) consenti-
to nella frutta e negli ortaggi (codice di prodotto 3.2.11) è di 0,05 mg
per kg di peso fresco. Tenendo presente che il contenuto di sostanza
secca di una bacca di pomodoro, come esempio di ortaggio, è pari a
circa il 5%, ne consegue che il massimo contenuto di Cd consentito è
pari a 1 mg per kg di sostanza secca. Questo valore è più alto del 50%
rispetto al contenuto massimo di Cd consentito nel compost/digestato
di classe 1 (tabella 2). Il paradosso è di consentire, negli alimenti, un
livello di contaminanti che è maggiore di quello permesso per i compo-
st da utilizzare come ammendanti su suoli agricoli. Logicamente, se la
bacca di pomodoro venisse compostata il suo contenuto di Cd sareb-
be sottoposto ad un processo di concentrazione che porterebbe il li-
vello di questo metallo pesante, nel compost finale, ad un valore com-
preso fra 2,5-3,0 mg per kg di sostanza secca. Poiché il principio di
coerenza stabilisce che ogni misura debba essere coerente con misure
già prese in simili circostanze e/o adottando approcci simili, la defini-
zione dei limiti in Cd per i compost così come viene riportato nell’Al-
legato III della seconda bozza del documento di lavoro Trattamento
biologico dei rifiuti biodegradabili (2001) dovrebbe essere respinto in
146 I costi della non-scienza

quanto arbitrario. In effetti, sarebbe veramente irrazionale se un or-


taggio idoneo per l’alimentazione umana non potesse essere utilizzato
come matrice organica per la produzione di compost.

Conclusioni

Il Principio di Precauzione è previsto da molti trattati e Convenzio-


ni delle Nazioni Unite, ma la sua applicazione è respinta dalla comu-
nità scientifica che lo identifica come uno strumento atto a prendere
delle decisioni arbitrarie. La forte richiesta di una metodologia per
l’applicazione del Principio di Precauzione ha portato la Commissione
Europea a stabilire delle linee guida, per una sua applicazione, basate
su dei principi coerenti. Anche se molto deve essere ancora fatto per
ridurre l’uso improprio e/o l’interpretazione errata del Principio di
Precauzione, nel documento della Commissione viene enfatizzato il
ruolo degli scienziati nella valutazione e gestione del rischio. Per
quanto riguarda le problematiche ambientali legate al comparto suolo,
i ricercatori svolgono un ruolo fondamentale nel valutare se e quando
il Principio di Precauzione possa essere invocato e, nel caso in cui ciò si
verificasse, per ridurre il livello di arbitrarietà determinato da una sua
applicazione.

Bibliografia

Anderson R A (1987) Chromium. In Trace elements in human and animal


nutrition. W Mertz (Ed.) (5th Ed.) pp.225-244. Academic Press, Inc. San
Diego-CA.
Anderson R. A. (1988) Chromium. In Trace minerals in foods. Ed. K. Smith
pp. 237-247. Marcel Dekker Inc., New York, U.S.A.
ARPA Piemonte (2001). Relazione sullo Stato dell’Ambiente.
Canali S. Tittarelli F. and Sequi P. (Editors) (1997). Chromium environmen-
tal issues. Franco Angeli, Milano, Italy, 295 pp.
Commission of the European Communities (2000) Communication from the
Commission on the precautionary principle. Brussels, 02.02.2000 COM
(2000) 1.
EU (1992) Treaty on European Union (the Maastricht Treaty), 17 february
1992, Office for Official Publications of the European Communities,
Luxenbourg.
Il PdP e le problematiche ambientali relative al suolo 147

Evans G.W. and Pouchink D.J. (1993) Composition and biological activity of
chromium-pipidine-carbonilate complexes. J. Inorg. Biochem. 49, 117-
187.
Foster K.R., Vecchia P., Repacholi M.H. (2000) Science and the precautio-
nary principle. Science 288: 979-981.
IPCS (1996) Environmental Health Criteria for Copper. Draft Report
(IPCS/-EHC 96.28.
Landner L. & Lindestrom L. (1999) Copper in society and in the environ-
ment. An account of the facts on fluxes, amounts and the effects of cop-
per in Sweden. 2nd revised edition, Landner L. and Lindestrom L., Swe-
dish Environmental Research Group (MFG).
Meldolesi A. (2001). Organismi geneticamente modificati: storia di un dibat-
tito truccato. Giulio Einaudi Ed., Torino.
Nicolini L. & D’Agnolo G. (2001). Il dibattito sulle piante modificate geneti-
camente: legislazione e valutazione di rischio. Analysis, (3), 26-39.
Page T G, Souther L L, Ward T L e Thompson D L (1993) Effect of chro-
mium picolinate on growth and serum and carcass traits of growing-fini-
shing pigs J Anim Sci 71, 656-662.
Renn O. and Klinke A. (1999) Risk evaluation and Risk Management for In-
stitutional and Regulatory Policy. Final Report (ESTO project Technolo-
gical Risk and the Management of Uncertainty), pp 1-37.
Rip A. (1999) Contributions from social studies of science and constructive
technology assessment. Scoping paper (ESTO project Technological Risk
and the Management of Uncertainty, pp 1-36.
Rogers M.D. (2001) Scientific and technological uncertainty, the precautio-
nary principle, scenarios and risk management. Journal of Risk Research
4 (1), pp 1-15.
Schwarz K e Mertz W (1959) Chromium (III) and the glucose tolerance fac-
tor. Arch.Biochem Biophys 85, 292-295.
Sequi P. (1990). Il ruolo dell’agricoltura nel ciclo degli elementi nutritivi. Al-
ma mater studiorum, III (2), 155-190.
Stirling A. (1999) On science and precaution in the management of technolo-
gical risk. An ESTO Project Report prepared for European Commission
– JRC Institute Prospective Technological Studies, Seville, edited by Eu-
ropean Commission Joint Research Centre EUR 19056 EN.
UNCED (1992) Principle 15, final declaration of the UN conference on En-
vironment and Development. Rio de Janeiro.
148 I costi della non-scienza

Tabella 1 – Principali processi di degradazione del suolo e possibili


conseguenze estreme
N. Processo* Danno grave o catastrofico
1 Erosione Frane, alluvioni
2 Alterazione da scorrimento Grave erosione superficiale,
superficiale delle acque indisponibilità di acque per la vegetazione,
condizioni favorevoli per le alluvioni
3 Desertificazione Inabitabilità da temperature troppo alte
o basse (ghiacci)
4 Salinizzazione Inabitabilità da deserti salati
5 Sodicizzazione Dispersione colloidi e collasso strutturale
(cfr. 7)
6 Perdita di sostanza organica Perdita di buone proprietà fisiche
(ritenzione idrica, lavorabilità, collasso
strutturale – cfr. 7)
7 Degradazione struttura da Collasso strutturale
frammentazione degli
aggregati o dispersione delle
argille in essi contenute
8 Compattamento della superficie Formazione di strati superficiali
da calpestio animale improduttivi (cfr. 9)
9 Formazione di croste Formazione di strati improduttivi da
superficiali o profonde (“pan”) migrazione argille, indurimento carbonati,
lavorazioni, ecc.
10 Accumulo di sostanze tossiche Sterilità e possibile pericolosità per
(ivi inclusi i metalli pesanti) vegetazione e catene alimentari
11 Acidificazione Accumuli di sostanze acidificanti da parte
di coperture vegetali che si autodistruggono
(foreste di conifere che si trasformano in
torbiere)
12 Sommersione Torbificazione con emissione di metano e
solfuri
13 Perdite di elementi nutritivi e di Perdita del patrimonio di elementi nutritivi
altre sostanze per lisciviazione e di altre sostanze in genere
14 Perdite di elementi nutritivi e di Perdita della dotazione azotata
altre sostanze per volatilizzazione
15 Perdite di elementi nutritivi per Perdita del patrimonio di elementi nutritivi
mancata restituzione essenziali per la vegetazione, con innesto del
processo miniere-mare
* da OCSE, modificato.
Il PdP e le problematiche ambientali relative al suolo 149

Tabella 2 – Tassonomia schematica delle classi di rischio (da Stirling,


1999, modificata)
Nome Probabilità Gravità Altro Esempi
del danno
CICLOPI Certa: meno Alta Effetto Terremoti,
certo dove, potenzialmente alluvioni,
incerto il ritardato – eruzioni
quando persistente vulcaniche
CASSANDRA Non sempre Alta Effetto Cambiamenti
certa ritardato climatici di
origine antropica
DAMOCLE Molto bassa Alta Impianti chimici,
dighe
PROMETEO Relativamente Potenzialmente Irrinunciabilità Novità
bassa anche alta scientifiche e
tecnologiche
PIZIA Incerta Incerta BSE, OGM
PANDORA Non sempre Incerta Alta Inquinanti
certa persistenza organici
persistenti
(POPs)
MEDUSA Bassa Bassa Alta Campi
mobilitazione elettromagnetici
150 I costi della non-scienza

Tabella 3 – Comportamenti antropici anomali nella società di oggi


che possano rendere catastrofica la situazione per il comparto
suolo
Processo* Causa
1 (2) Alluvioni e frane In montagna: cattivo uso del suolo per sfruttamento
irrazionale della vocazionalità o per mancanza di
operatori sul territorio.
In pianura: consumo di suolo, con concentrazione e
impatto delle acque su superfici sempre minori.
A livello di bacino: captazione delle acque sempre più a
monte, con diminuzione dei tempi di corrivazione
4-5 (3) Desertificazione Salinità delle acque e presenza incontrollata di sodio e
altri elementi potenzialmente fitotossici (es. boro)
5-6 (7) Collassi strutturali e Degradazione della sostanza organica presente nel suolo
aumento delle concentrazioni e mancata considerazione degli indirizzi colturali
di CO2 nell’aria atmosferica appropriati
15 Inquinamento delle acque Cicli nutritivi spezzati per mancata restituzione al suolo
(es. costrizione al reintegro con i fertilizzanti dei fosfati
asportati dal suolo, che seguono perciò un cammino
anomalo dalle miniere ai mari via piante-animali)

* I numeri si riferiscono a quelli individuati nella tab. 1.


Il PdP e le problematiche ambientali relative al suolo 151

Tabella 4 – Classi di rischio di eventi relativi al suolo e pericolosi, o


ritenuti tali.
I numeri fra parentesi si riferiscono ai processi elencati in tabella 1

Eventi che interessano Comportamenti antropici


direttamente il suolo che colpiscono il suolo

CICLOPI Frane (1.2) Cattivo uso del suolo (1,2)


Collassi strutturali Consumo di suolo (1,2)
(5,6,7,8,9) Diminuzione tempi di
corrivazione (1,2)
CASSANDRA Desertificazione Degradazione sostanza
organica (6)
Cattiva qualità acque
(Na C1, ecc.)
DAMOCLE Acidificazione e Cicli spezzati (15)
sommersione (11, 12) Biodiversità microbica (6,10 ...)
Perdita del patrimonio di
elementi nutritivi (15)

PROMETEO Uso di piante


geneticamente modificate
PIZIA Accumulo metalli pesanti
da fertilizzazione (10)
PANDORA Deterioram. qualità atmo-
sfera (N2O,CH4) (14)
deterioram. qualità acque (13)
MEDUSA Perdita di potabilità delle
acque (13)
Deterioram. qualità atmosfera
(NH3) (14)

EVENTI CHE DAL SUOLO POSSONO COLPIRE ALTRI ECOSISTEMI


152 I costi della non-scienza

Tabella 5: Massima concentrazione di metalli nel compost/residuo


solido della digestione anaerobica di classe 1 (proposta a livello
di Commissione Europea) e nei biosolidi secondo la
Environmental Protection Agency degli Stati Uniti d’America*.
Parametro Compost/residuo U.S. EPA
anaerobico di classe 1*
Cd (mg kg-1 s.s.) 0,7 85
Cr (mg kg-1 s.s.) 100** nessun limite***
Cu (mg kg-1 s.s.) 100 4300
Hg (mg kg-1 s.s.) 0,5 57
Ni (mg kg-1 s.s.) 50 420
Pb (mg kg-1 s.s.) 100 840
Zn (mg kg-1 s.s.) 200 7200

* Si tratta in ambedue i casi di materiali che possono essere utilizzati secondo


criteri di buona pratica agricola senza ulteriori restrizioni
** Anche per il Cr(III)
*** Neppure per il Cr(VI)
153

IL PRINCIPIO DI PRECAUZIONE PER I CAMPI


ELETTROMAGNETICI:
GIUSTIFICAZIONE ED EFFICACIA

Paolo Vecchia
Istituto Superiore di Sanità, Roma
Presidente ICNIRP

P
er pochi agenti, sostanze o tecnologie il Principio di Precauzio-
ne viene invocato tanto frequentemente e con tanta insistenza
quanto per i campi elettromagnetici. Ma l’adozione di questo
principio è realmente giustificata? E le misure che in nome del princi-
pio vengono proposte (o quelle che, in particolare in Italia, sono già
state adottate) sono realmente efficaci?
Alla prima domanda sono in molti, nella comunità scientifica, ad
aver risposto in modo negativo. Particolarmente significativa ed espli-
cita è la posizione dell’Organizzazione Mondiale della Sanità (OMS),
secondo la quale «una politica cautelativa per i campi elettromagnetici
dovrebbe essere adottata solo con grande attenzione e consapevolez-
za. I requisiti per tale politica […] non sembrano soddisfatti né nel ca-
so dei campi elettromagnetici a frequenza industriale, né in quello dei
campi a radiofrequenza» [1].
Per comprendere le motivazioni di questo giudizio, occorre riflet-
tere su quando, e come, il Principio di Precauzione debba essere appli-
cato. A questo scopo, sono particolarmente utili due documenti ema-
nati dalla Commissione Europea (CE) [2-3], ai quali l’OMS fa esplici-
to riferimento.
Un primo criterio, che la Commissione considera come una vera e
propria condizione pregiudiziale, stabilisce che affinché il Principio di
Precauzione venga invocato, prima ancora che applicato, un rischio
potenzialmente grave sia stato identificato e scientificamente valutato.
Nei casi in cui questa condizione sia verificata, e si decida quindi di
adottare delle misure precauzionali, gli ulteriori criteri stabiliscono
che le misure stesse siano proporzionate ai rischi che si intende preve-
nire, coerenti con altre misure già adottate in casi analoghi, non discri-
154 I costi della non-scienza

minatorie nella loro applicazione, basate su un’analisi di costi e bene-


fici, e a carattere temporaneo.
I campi magnetici a bassa frequenza, che sono generati dalle linee
elettriche ad alta tensione ma anche dai normali circuiti domestici e da
qualunque dispositivo a funzionamento elettrico, sono stati recente-
mente classificati dall’Agenzia Internazionale per la Ricerca sul Can-
cro (IARC) come «forse cancerogeni per l’uomo» (gruppo 2B della
classificazione IARC) [4] sulla base di alcune osservazioni epidemio-
logiche di aumenti dell’incidenza di leucemia. La presenza di altri stu-
di con risultati opposti, le indicazioni pressoché unanimemente nega-
tive di effetti cancerogeni negli animali da esperimento, la mancanza
di dati a supporto da parte degli studi biologici in vivo e l’impossibi-
lità fino ad oggi di individuare un plausibile meccanismo di interazio-
ne giustifica il fatto che i campi magnetici non siano stati classificati
come certamente cancerogeni (gruppo 1) o come probabilmente can-
cerogeni (gruppo 2A). Comunque, per questo tipo di campi un ri-
schio sanitario, indubbiamene grave nella sua natura, è stato chiara-
mente identificato.
Per quanto riguarda invece i campi elettromagnetici ad alta fre-
quenza (o a radiofrequenza, nella terminologia tecnica), come quelli
propri dei sistemi di telecomunicazione, un altro documento del-
l’OMS sottolinea che «una rassegna della letteratura ha concluso che
non esiste nessuna chiara evidenza che l’esposizione a campi a radio-
frequenza abbrevi la durata della vita umana, né che induca o favori-
sca il cancro» [5].
Riassumendo, il Principio di Precauzione può quindi essere invocato
per i campi magnetici a frequenza industriale, ma non per i campi
elettromagnetici ad alta frequenza. Ma quali misure potrebbero essere
adottate nel primo caso?
Una normativa proposta qualche anno fa in Italia prevedeva un li-
mite cautelativo di esposizione ai campi magnetici pari a 0,5 µT (mi-
crotesla), nonché interventi sugli elettrodotti esistenti per ricondurre
le esposizioni all’interno di abitazioni, scuole, ospedali ed altri siti
“sensibili” al di sotto di tale valore. Secondo stime sull’entità della po-
polazione esposta effettuate dall’Istituto Superiore di Sanità [6], tali
misure avrebbero comportato per il paese, nell’ipotesi che i campi ma-
gnetici siano effettivamente cancerogeni, la prevenzione di un nuovo
Il PdP per i campi elettromagnetici … 155

caso incidente di leucemia infantile ogni due anni e di un caso di mor-


te ogni cinque anni circa. A queste azioni corrispondevano costi, sti-
mati all’epoca in lire, di oltre 40.000 miliardi [7]. Considerata la vita
media degli impianti, ciò equivale ad un costo dell’ordine di 2-3 mi-
liardi di euro per vita umana ipoteticamente salvata, un valore da molti
giudicato inaccettabile per la società, o quanto meno sproporzionato a
quanto si è disposti a spendere per altri rischi meglio accertati e più
gravi. Tra i sostenitori di questa tesi figurava il ministro della Sanità
che si oppose all’approvazione della norma a cui si è sopra accennato.
Il ricorso al Principio di Precauzione, almeno così come definito e
raccomandato dalla Commissione Europea, è dunque ingiustificato.
Ciò nonostante, in Italia esso è ancora continuamente invocato ed in
suo nome sono state adottate tutta una serie di misure, che vanno
dall’emanazione di norme di protezione particolarmente restrittive a
prescrizioni per l’allontanamento di antenne e linee elettriche dalle
abitazioni, se non al loro smantellamento. Tutte queste misure hanno
dei costi, sia in termini strettamente economici, sia di sviluppo tecno-
logico e di qualità del servizio, che dovrebbero essere largamente
compensati dal beneficio sanitario. Ma questo beneficio esiste davve-
ro? Siamo cioè certi che le misure cautelative comportino, a prescin-
dere da ogni altra considerazione, un beneficio per la salute? Una se-
rie di esempi sembra dimostrare il contrario.
In vari casi è stato proposto, o imposto, lo spostamento di un trat-
to di elettrodotto per allontanarlo da qualche abitazione o altro luogo
“sensibile” dove si riteneva che i livelli di esposizione fossero inaccet-
tabili. Per valutare razionalmente l’efficacia di tale operazione occorre
tenere presente che gli eventuali effetti a lungo termine di campi ma-
gnetici sono di natura stocastica e che in assenza di qualunque indica-
zione sui sottostanti meccanismi di azione è corretto (e prudenziale)
assumere che l’entità degli effetti sia legata a quella dell’esposizione,
riducendosi a zero soltanto quando l’esposizione si riduce a zero. L’al-
lontanamento di una linea elettrica da alcuni edifici provoca inevita-
bilmente l’avvicinamento ad altri dal lato opposto. In un paese densa-
mente popolato come l’Italia questo effetto dovrebbe essere significa-
tivo e non si può escludere che il numero di abitazioni che verrebbero
avvicinate alla linea sia molto maggiore di quelle che se ne allontana-
no. Non è quindi scontato a priori che, in termini di esposizione col-
156 I costi della non-scienza

lettiva, la soluzione finale sia migliore di quella di partenza, anche nel


caso in cui le distanze in gioco fossero molto diverse.
Ancora più eclatante è il caso delle stazioni radio base per telefonia
cellulare. In nome del Principio di Precauzione, molte amministrazioni
hanno imposto l’allontanamento delle antenne dai centri abitati. Que-
sta soluzione in genere aumenta l’intensità media del campo elettroma-
gnetico, che nell’abitato deve comunque mantenersi a un livello suffi-
ciente per il servizio, mentre è molto più alta in prossimità dell’antenna
che deve necessariamente emettere una potenza maggiore.
Ma l’effetto più vistoso è quello che si manifesta sui telefonini. Que-
sti sono dotati di un dispositivo, detto controllo adattativo della poten-
za, che consente di ridurre la potenza emessa dall’antenna al minimo
necessario per una buona comunicazione con la stazione radio base. Il
potenziale di riduzione è molto elevato: il livello di potenza più basso
previsto dallo standard GSM è infatti circa 1000 volte inferiore al valo-
re massimo. Un funzionamento del telefono a bassa potenza avrebbe
dei vantaggi per l’autonomia della batteria (è questa la ragione princi-
pale per cui il dispositivo è stato realizzato), ma anche per l’esposizione
dell’utente perché a ogni riduzione della potenza emessa corrisponde
una riduzione proporzionale dell’energia elettromagnetica assorbita
nella testa. Per comprendere appieno quest’ultimo vantaggio occorre
tenere presente che l’esposizione dovuta ai telefonini è di ordini di
grandezza (tipicamente 100-1000 volte) maggiore di quella dovuta a
una stazione radio base, anche nelle situazioni più sfavorevoli.
Naturalmente, perché si abbia una buona comunicazione – e quin-
di un’apprezzabile riduzione della potenza – occorre che la stazione
radio base sia vicina all’utente, il più possibile libera da ostacoli e di-
sponibile per il servizio (in caso contrario, il collegamento viene stabi-
lito con un’altra antenna, che può essere anche molto più lontana e
schermata da edifici e altre bariere). Misure come l’allontanamento
delle antenne, o la riduzione del loro numero, adottate al fine di dimi-
nuire precauzionalmente di una piccola frazione percentuale i livelli di
“inquinamento” ambientale, non solo non raggiungono questo obiet-
tivo, ma aumentano drasticamente quelle esposizioni che, già in par-
tenza, sono le più elevate. È significativo che, a fronte di un potenziale
di riduzione quale quello già citato, in Italia i telefoni cellulari funzio-
nino, in media, a potenze superiori al 50% della massima [8].
Il PdP per i campi elettromagnetici … 157

Un aspetto peculiare delle politiche cautelative è la speciale atten-


zione per i siti “sensibili”, primi tra tutti scuole e ospedali, motivata
più dalle reazioni emotive dei cittadini che da una reale consapevolez-
za dei problemi e da adeguate valutazioni tecnico-scientifiche. Il pro-
blema non è soltanto italiano, anche se nel nostro paese si presenta in
modo assai più evidente che altrove. Un rapporto parlamentare fran-
cese cita «ciò che è avvenuto a Marsiglia: una scuola, che aveva otte-
nuto lo smantellamento di un’antenna installata sul tetto del suo edifi-
cio, ha constatato che il livello di radiazioni nel cortile era aumentato
in seguito a questa esposizione. In effetti, le reti di telefonia mobile ag-
giustano la potenza emessa dalle stazioni radio base in modo da assi-
curare una buona copertura del territorio. Eliminando l’emittente si-
tuata sulla scuola, si era provocato l’aumento delle antenne vicine. Ciò
nonostante, residenti ed associazioni continuano a reclamare l’allonta-
namento o lo smantellamento delle stazioni radio base» [9].
In realtà, scuole, asili nido e altri luoghi deputati all’infanzia costi-
tuiscono nel nostro paese un tabù, e la proibizione di installare anten-
ne nelle loro vicinanze costituisce un dogma. Lo stesso vale per ospe-
dali e case di cura, dove abbondano proibizioni e restrizioni per tutto
ciò che riguarda, ad esempio, la telefonia mobile. Non è raro incontra-
re segnali di divieto dell’uso del telefono cellulare in ambienti come
corsie, sale di aspetto, sale gessi o locali di fisioterapia, quando il di-
vieto non sia addirittura esteso all’intero complesso ospedaliero. Per
quanto riguarda le stazioni radio base, la loro installazione all’interno
di una struttura sanitaria o nelle sue immediate vicinanze è probabil-
mente inconcepibile per il cittadino comune e di fatto vietata da molte
amministrazioni.
L’uso dei telefoni cellulari in ospedale presenta invece notevoli
vantaggi, sia per i pazienti in termini di conforto psicologico, sia per i
medici in termini di reperibilità e di rapido scambio di informazioni.
È significativo che dagli stessi medici giungano, anche attraverso rivi-
ste autorevoli, appelli per agevolarlo [10]. Per contro, i problemi che i
telefoni pongono sono limitati, ben compresi e, come tali, del tutto
prevenibili con azioni adeguate.
I segnali emessi da un telefono cellulare possono interferire con ap-
parati elettromedicali, introducendo segnali spuri in strumenti diagno-
stici come elettrocardiografi ed elettroencefalografi, o causando mal-
158 I costi della non-scienza

funzionamenti di vario genere. Per prevenire questi effetti e garantire


la cosiddetta compatibilità elettromagnetica esistono però delle norme
tecniche, che stabiliscono dei livelli minimi di campo elettrico o ma-
gnetico ai quali i dispositivi elettromedicali devono essere immuni. Al-
le frequenze proprie della telefonia cellulare questo livello, in termini
di campo elettrico, è di 3 V/m (volt al metro), un valore che il campo
prodotto da un telefonino che funzioni al massimo della potenza può
superare entro un raggio di circa 3 metri [11]. Sarebbe quindi suffi-
ciente raccomandare questa distanza di sicurezza per prevenire qua-
lunque inconveniente; per maggior sicurezza, e per semplicità di ap-
plicazione, si potrebbe comunque proibire l’uso dei telefoni cellulari
in ambienti ben precisi come sale operatorie, di rianimazione e di te-
rapia intensiva, o vicino ad apparecchiature particolari. Raccomanda-
zioni in questo senso vengono sia dagli esperti tecnici [12], sia dalla
comunità protezionistica [13]. Le stesse fonti fanno anche notare che,
come già discusso in queste note, la potenza emessa dal telefono, e
conseguentemente la probabilità e la gravità delle interferenze, è tanto
più bassa quanto più la stazione radio base è vicina; pertanto non solo
non si proibisce, ma addirittura si raccomanda l’installazione di anten-
ne all’interno degli ospedali, una prassi effettivamente diffusa in molti
paesi diversi dal nostro.
Le misure pratiche adottate a titolo precauzionale possono quindi,
in molte circostanze, aggravare oggettivamente la situazione, aumen-
tando i livelli di esposizione e conseguentemente i rischi, sia quelli
ipotetici di effetti diretti sulla salute, sia quelli reali di effetti indiretti
connessi a malfunzionamenti degli apparati medicali. Ma le implica-
zioni di una politica ispirata al Principio di Precauzione vanno molto al
di là dell’efficacia delle misure di riduzione del presunto inquinamen-
to ed interessano la salute umana sotto altri profili.
A questo proposito, è opportuno chiedersi se la domanda di politi-
che cautelative sia motivata da rischi che sono stati effettivamente in-
dicati dalla ricerca scientifica o, piuttosto, dalla percezione che degli
stessi rischi i cittadini maturano per effetto delle informazioni che ri-
cevono. La già citata OMS raccomanda infatti di adottare misure di-
verse nei due casi: nei confronti di effetti sulla salute che siano stati
accertati e scientificamente valutati è opportuno agire con norme
coercitive (come l’imposizione di limiti di esposizione), mentre per
Il PdP per i campi elettromagnetici … 159

fronteggiare le preoccupazioni del pubblico si può considerare, accan-


to ad una corretta informazione, anche l’opportunità di misure di pre-
cauzione su base volontaria. Siccome gli obiettivi sono diversi, anche
l’efficacia delle misure adottate deve essere valutata in modo diverso:
nel primo caso si deve considerare quanto esse possano ridurre i casi
sanitari documentati, nel secondo quanto possano ridurre le preoccu-
pazioni dei cittadini e le tensioni sociali.
Si possono esaminare in quest’ottica le recenti normative italiane
che prevedono, come è noto, sia limiti di esposizione inferiori a quelli
accettati internazionalmente (chiamati valori di attenzione), sia la mi-
nimizzazione delle esposizioni mediante il perseguimento di obiettivi
di qualità. Appaiono significative in proposito le considerazioni di un
comitato internazionale di esperti, incaricato dal governo italiano di
esprimere un giudizio sulle nostre normative nazionali [14].
Per quanto riguarda i valori di attenzione il comitato rileva che «la
scelta di limiti di esposizione impossibili da giustificare, sia scientifica-
mente, sia logicamente, ha già creato una certa sfiducia nella scienza, e
nelle autorità». In questa critica concorda con l’OMS, la quale fa no-
tare che «un requisito di principio è che [le politiche cautelative] sia-
no adottate solo a condizione che valutazioni di rischio e limiti di
esposizione fondati su basi scientifiche non siano minati dall’adozione
di approcci cautelativi arbitrari. Ciò si verificherebbe, ad esempio, se i
valori limite venissero abbassati fino a livelli tali da non avere alcuna
relazione con i rischi accertati, o se fossero modificati in modo impro-
prio ed arbitrario per tener conto delle incertezze scientifiche».
La “minimizzazione” corrisponde invece al criterio di ridurre le
esposizioni causate da una determinata tecnologia al livello minimo
compatibile con la qualità del servizio. Questo livello minimo corri-
sponde, nella legge quadro italiana per la protezione dai campi elettro-
magnetici, all’obiettivo di qualità. Prescindendo dalle difficoltà e dalle
possibili arbitrarietà nella valutazione della bontà del servizio, anche
questo criterio non può essere sostenuto senza solide conoscenze e giu-
stificazioni. Il comitato internazionale nota in proposito che «in assen-
za di un criterio costo-beneficio e di una spiegazione delle considera-
zioni di ordine sociale e politico, minimizzare l’esposizione non ha sen-
so, poiché se ulteriori riduzioni sono (quasi) sempre possibili, esse
però, verosimilmente, avranno effetti nulli o discutibili per la salute».
160 I costi della non-scienza

Anche la qualità del servizio ha comunque una sua importanza non


solo dal punto di vista pratico – come è ovvio – ma anche da quello
sanitario. Negli Stati Uniti si stima che se il telefono cellulare venisse
usato solo per il 10% delle chiamate di emergenza e il suo uso ridu-
cesse solo del 10% i tempi di intervento, si salverebbero nel paese cir-
ca 100 vite umane all’anno [15]. Una rete telefonica in cui le antenne
fossero ridotte al minimo o posizionate in modo non ottimale, even-
tualmente per motivi precauzionali, causerebbe inevitabilmente man-
cati collegamenti e cadute di linea. Non sono disponibili dati su questi
disservizi in Italia (anche per comprensibili ragioni commerciali), ma
non è irragionevole ipotizzare un numero significativo di mancati o ri-
tardati interventi di emergenza. Alcuni casi, particolarmente dramma-
tici, sono stati peraltro riportati anche dai mezzi di informazione.
Tornando alle valutazioni del comitato internazionale, quest’ultimo
ritiene che “l’adozione di limiti di esposizione ai campi elettromagne-
tici restrittivi ed arbitrari da parte di singoli paesi tende ad accrescere
la preoccupazione del pubblico, piuttosto che a ridurre le perplessità
e le controversie”. Questa osservazione è fondamentale, e può essere
estesa dalle norme di legge alle azioni cautelative in genere: qualunque
misura adottata in nome del Principio di Precauzione, anche se a costo
zero o minimo, viene facilmente interpretata dal pubblico come la
prova dell’effettiva esistenza di un rischio. Una prova spesso più con-
vincente di qualunque dato scientifico.
Esemplare in questo senso è l’esperienza della Francia. Un rappor-
to dell’Agenzia Francese per la Sicurezza Sanitaria Ambientale [16]
discute ampiamente, in relazione alla presenza di stazioni radio base,
il caso dei siti “sensibili”, come scuole, ospedali e asili nido. Per que-
sti, un precedente documento aveva raccomandato che, nel caso di di-
stanze dall’antenna inferiori a 100 metri, il fascio di irradiazione non
investisse direttamente gli edifici. Una raccomandazione molto più
blanda delle prescrizioni italiane, ma che aveva comunque «come
principale obiettivo di cercare di attenuare alcune apprensioni del
pubblico, che tuttora permangono senza giustificazione sanitaria». A
distanza di soli due anni, l’AFSSE, mentre ribadisce che «non sembra-
vano esistere giustificazioni sanitarie per questa specificità dei siti sen-
sibili, essendo la sensibilità legata alla percezione del rischio e non a
un rischio sanitario identificato» constata che «la raccomandazione
Il PdP per i campi elettromagnetici … 161

del rapporto del 2001, che mirava a rassicurare, ha sortito l’effetto op-
posto. Il gruppo di esperti non sostiene quindi più la necessità di que-
sta nozione di sito sensibile in relazione alle stazioni radio base. Que-
sta conclusione si applica in modo particolare alle scuole, per le quali
la percezione del rischio è stata la più acuta».
Le politiche precauzionali possono quindi facilmente far aumenta-
re la percezione dei rischi, che a sua volta dà luogo ad una richiesta di
maggior precauzione innescando così un circolo vizioso. In ogni caso,
le preoccupazioni e le tensioni sociali che vengono a crearsi o ad esa-
sperarsi costituiscono un danno oggettivo per la salute, intesa nel suo
significato più ampio. La salute viene infatti definita dall’OMS come
«uno stato di completo benessere fisico, mentale e sociale e non sem-
plicemente l’assenza di malattie o infermità» [17]. Qualunque politica
sanitaria, comprese quelle ispirate alla precauzione, deve prestare
uguale attenzione a tutte e tre queste componenti.
In conclusione, il Principio di Precauzione sembra valere più come
una linea di indirizzo che come uno strumento operativo. Di fronte
agli sviluppi tecnologici e agli interrogativi che questi pongono è
senz’altro opportuno agire, per i campi elettromagnetici come per
qualunque altro agente, all’interno di un quadro di cautela, in cui tutti
gli elementi scientifici e sociali siano tenuti in conto. La precauzione è
però giustificata e doverosa nei limiti in cui contribuisce ad un’effetti-
va riduzione dei rischi e ad un’effettiva tutela della salute. L’esperienza
dimostra che presunte misure precauzionali adottate senza adeguate
basi scientifiche e competenze tecniche accrescono invece le preoccu-
pazioni dei cittadini e possono talvolta addirittura aumentare, anziché
diminuire, le esposizioni.

Riferimenti
[1] OMS (2000). Campi elettromagnetici e salute pubblica – Politiche caute-
lative. Promemoria Marzo 2000. www.who.int/docstore/peh-emf
/publications/facts_press/ifact/cautionary-FS-italian.htm
[2] European Commission – DG XXIV (1998). Guidelines on the applica-
tion of the precautionary principle. HB/hb d (98). 17/10/1998.
[3] Commissione Europea (2000) Comunicazione della Commissione sul
Principio di Precauzione COM(2000) 1 02/02/2000
www.europa.eu.int/comm/dgs/health_consumer/library/pub/pub07_it.pdf
162 I costi della non-scienza

[4] I criteri di classificazione dell’Agenzia Internazionale per la Ricerca sul


Cancro, così come l’elenco completo degli agenti classificati, sono di-
sponibili sul sito della IARC: www.iarc.fr
[5] OMS (1998). Campi elettromagnetici e salute pubblica. Effetti sanitari
dei campi a radiofrequenza. Promemoria n. 183
www.who.int/docstore/peh-emf/publications/facts_press//ifact/
it_183.html
[6] Petrini C., Polichetti A., Vecchia P., Lagorio S. (2001). Assessment of
exposure to 50 Hz magnetic fields from power lines in Italy. In: Procee-
dings of the 5th International Congress of the European Bioelectroma-
gnetics Association (EBEA). Helsinki, 6-8 September 2001, pp. 139-141.
[7] Curcuruto S., Elia L., Franchi A., Andreuccetti D., Vecchia P., Martuz-
zi M., D’Amore M. (2001). Valutazione tecnico-economica degli inter-
venti di risanamento ambientale delle linee elettriche del sistema nazio-
nale. Rapporto 3/2001. ANPA, Roma
[8] Ardoino L., Barbieri E., Vecchia P. (In press). Determinants of exposu-
re to electromagnetic fields from mobile phones. Radiation Protection
Dosimetry.
[9] Lorrain J.J., Raoul D. (2002). Rapport sur l’incidence éventuelle de la
téléphonie mobile sur la santé. Assemblée National N. 346; Sénat N. 52.
www.senat.fr/rap/r02-052/r02-052.html
[10] Myerson S.G., Mitchell A.R.J. (2003). Mobile phones in hospitals. Are
not as hazardous as believed and should be allowed at least in non-cli-
nical areas. British Medical Journal 326:460-461 (Editorial).
[11] Sykes S. (Ed.) (1996). Electromagnetic compatibility for medical devices.
Association for the Advancement of Medical Instrumentation (AAMI).
Arlington, VA.
[12] Morrisey J.J., Swicord M., Balzano Q. (2002). Characterization of elec-
tromagnetic interference of medical devices in the hospital due to cell
phones. Health Physics 82:45-51.
[13] Hietanen M., Sibakov V., Hällfors S., von Nandelstadh P. (2000). Safe
use of mobile phones in hospitals. Health Physics 79 (Supplement
2):S77-S84.
[14] ANPA (2002). Dichiarazione del Comitato internazionale di valutazione
per l’indagine sui rischi sanitari dell’esposizione ai campi elettrici, magne-
tici ed elettromagnetici (CEM). Agenzia Nazionale per la Protezione
dell’Ambiente, Roma.
[15] Dati comunicati nel corso della “Conference on mobile communications:
Health, environment and society” organizzata da Commissione Europea,
GSM Europe e MMF. Bruxelles, 20-21 gennaio 2004.
Il PdP per i campi elettromagnetici … 163

[16] AFSSE (2003). Téléphonie mobile et santé. Rapport à l’Agence Française


de Securité Sanitaire Environmentale. 21/03/2003.
www.afsse.fr/documents/AFSSE_TM_experts.pdf
[17] Dallo Statuto dell’Organizzazione Mondiale della Sanità. www.who.int
165

IL PARADOSSO DEI RIFIUTI


Luciano Caglioti
Università di Roma La Sapienza

D
evo confessare di avere sempre avuto un atteggiamento otti-
mista nei confronti del nostro paese, che ritengo sia uno dei
paesi più vivaci in assoluto e che certamente ha un pregio
preciso: una persona si sveglia la mattina e sa che prima di sera avrà
imparato qualcosa di particolare, di strano, ma, in genere, intelligente.
Un giorno, ero rientrato in casa alle 20:30 e non mi era ancora
successo nulla di interessante sotto il profilo sopra accennato. Ma, ac-
cendendo il televisore, al telegiornale vidi quello che ritengo il massi-
mo. Il massimo era costituito da una notizia, illustrata da un filmato,
in cui si vedeva un treno che partendo dalla Campania andava in Ger-
mania carico di rifiuti. E fin qui non si era ancora raggiunto il massi-
mo. Che invece si raggiunse nel commento del cronista, che diceva:
«scortato dalle forze dell’ordine». Allora, l’idea che un treno carico di
rifiuti urbani parta dalla Campania per andare in Germania scortato
dalla polizia, a guisa di film di 007 con l’oro di Fort Knox, raggiunge
quasi il massimo tra le cose da imparare che l’Italia quotidianamente
ci propina. Riavutomi dall’ammirato stupore mi sono detto: qui c’è
qualche cosa di fantastico e qui c’è quello che si chiama il “paradosso
dei rifiuti” cioè un sistema così ingarbugliato, così pazzesco, che meri-
ta qualche considerazione.
Io credo che alla base del fenomeno dei rifiuti – che è un fenome-
no di accettazione sociale, di pressioni e di malavita – ci sia una pec-
ca del sistema-Italia. Lessi una volta sul giornale una frase di Nenni
che mi sono ritagliato e che considero bellissima (cito a memoria):
«se io dovessi dire, dopo tanti anni di militanza socialista, quello che
più rimpiango, è l’aver negletto e trascurato delle cose che si poteva-
no fare – di modeste dimensioni ma utili – nell’attesa di qualcosa di
166 I costi della non-scienza

bellissimo, formidabile, ma impossibile». È questo il massimalismo.


In Italia o si fa qualcosa di perfetto o non si fa nulla: la centrale è
perfetta o non si costruisce, l’inceneritore o è perfetto o non si in-
stalla e questo è un qualcosa che fa da trampolino per tutto quello
che è l’ambientalismo.
Io ho lavorato per un certo periodo come collaboratore dell’ENEL,
dove cercavamo di salvare il salvabile dalle numerose accuse che que-
st’ente riceveva per quanto riguardava i progetti di nuove centrali.
Qual era il punto? Si era scatenato il massimalismo che consisteva in
questo: siccome non si riesce a costruire una centrale nuova e perfetta
si lasciano in funzione delle centrali che, essendo state costruite 30 an-
ni prima, inevitabilmente non possono fruire di tanti accorgimenti tec-
nologici di cautela. Qualcosa d’analogo avviene per i farmaci. Le nor-
mative sulla registrazione dei farmaci consentono di approvare solo
medicamenti “perfetti”. Il che significa che se una ditta mette a punto
un analgesico migliore di quelli in commercio ma non perfetto, non
riesce a smerciarlo e così si rinuncia a priori ad un progresso parziale
nel nome, nell’attesa, nell’ansia, di chissà mai cosa. Questa mentalità,
credo, è veramente alla base di un combinato disposto di ignoranza,
debolezza del governo (quale esso sia) e di malavita, e quindi un mi-
scuglio dirompente.
È chiaro che l’esempio del treno – e, soprattutto, della scorta – la-
sciano pensare che c’è qualcosa che non va. E ricordo di aver letto
sul Corriere della Sera – era il 1995 o il 1996 – che una procura aveva
incriminato, per associazione a delinquere di stampo mafioso, un
gruppo di persone che avevano incitato gli ecologisti a bloccare un
inceneritore. Evidentemente in certi casi c’è una serie di interessi per
cui arrivare ad un controllo sereno e serio è certamente una impresa
improba.
Dove andava questo treno? Andava in Germania perché lì ci sono
degli inceneritori efficienti, mentre in Italia questi inceneritori ci sono
fino ad un certo punto ed alcune volte non ci sono proprio.
Vediamo le dimensioni del problema. Grazie alla documentazione
fornitami cortesemente dal Prof. Liuzzo, risultano: 30 milioni di rifiuti
urbani prodotti in un anno, 450 chili a persona, 2.300 kcal di potere
combustibile, quindi una metà o un quarto rispetto all’olio combusti-
bile. Qualcosa che si potrebbe certamente utilizzare purché si accetti
Il paradosso dei rifiuti 167

l’incenerimento. In Europa, il 25% dei rifiuti viene bruciato ed utiliz-


zato per la produzione di energia elettrica e di calore, con un ciclo
combinato da sfruttare come riscaldamento domestico. In Italia, solo
l’8% viene bruciato (soprattutto nelle regioni del Nord), il 72% va in
discarica, il 10% va a formare del combustibile da rifiuti, che qualche
volta viene utilizzato e qualche altra no.
Produrre energia elettrica attraverso un incenerimento significa an-
che avere un guadagno ambientale, in quanto gli inceneritori sono più
controllati delle centrali e quella frazione di energia elettrica che si
produce bruciando rifiuti, la si produce con degli accorgimenti am-
bientali migliori di quelli (peraltro già ottimi), delle normali centrali
elettriche. Per cui bruciando i rifiuti si ha addirittura un vantaggio.
Qui scatta l’altro fenomeno della serie “occhio non vede cuore non
duole”, perché quando si trascura completamente il problema e si af-
fida la gestione dei rifiuti ad un sistema in rilevante parte clandestino,
è evidente che i gestori non prenderanno tutti gli accorgimenti, però
l’importante è che qualcuno se ne occupi.
Vediamo se siamo noi che siamo più bravi degli altri in quanto riu-
sciamo a mandarli via, sia pure a pagamento, in Germania o sono gli
altri che sono dei suicidi ad accettarli. Zurigo, Vienna, Londra, Parigi
e Francoforte hanno, in piena città, degli inceneritori da 1.000 a 1.500
tonnellate al giorno di capacità, mentre New York ha una centrale nu-
cleare a circa 20 km dalla città. Cosa significa questo? Vuol dire che la
gente si rende conto che se vuoi fare un appartamento devi costruire
un gabinetto e uno scarico e quindi c’è una parte che potrebbe essere
fastidiosa ma della quale ci si deve occupare.
Questa mattina qualcuno ha detto: mai prendere in assoluto un
problema ma cercare di inquadrarlo nel relativo, cioè nel contesto di
cose simili tra le quali questo problema si verifica. Bene, prendiamo
gli inceneritori che hanno un impatto ambientale minimo: rispetto
all’inquinamento, stare un mese sotto un inceneritore corrisponde a
stare un quarto d’ora in Via del Tritone a Roma. Per coloro che ama-
no la campagna, un taglia-erba a due tempi equivale a 156 automobili;
i 4 inceneritori della Regione Lazio sono equivalenti – rispetto all’ossi-
do di carbonio – a 9 ciclomotori; rispetto ai composti organici volatili
e incombusti equivalgono a 3 motorini. Nel 1977, un anno dopo Seve-
so, nell’inceneritore di Amsterdam qualcuno ebbe la ventura di trova-
168 I costi della non-scienza

re della diossina, e allora ci fu un inasprimento per la diossina, che di-


venne di colpo il punto di massima osservazione e di massimo timore.
Ricordo che col prof. Righi, andammo in un deposito di alternatori
dell’ENEL chiuso e inarrivabile, ove il problema era se l’olio conte-
nesse o meno più di 10-14 (numeri pazzeschi) di furani o diossine, e se
si doveva considerare “rifiuto pericoloso” solo l’olio o tutto l’impian-
to, compreso l’alternatore. Nel qual caso la quantità di “rifiuto perico-
loso” ovviamente cresceva: soldi persi, dedicati a problemi insignifi-
canti, rispetto a quello dei rifiuti veri in giro in piena estate.
Tre inceneritori sono pari ad un’automobile come emissione, l’in-
ceneritore emette l’1,3% rispetto alla dieta quotidiana di ognuno di
noi. Come stare un minuto davanti ad un barbecue o fumare una siga-
retta. Eppure, si è arrivati ad una sofisticazione di misure di sicurezza
oltre che alta anche sproporzionata. In particolare, se si pensa che di
automobili e di taglia-erba in giro ce ne sono tanti, risulta chiaro che si
può pure pretendere la cosa migliore possibile in materia di inceneri-
tori e in materia di diossina, ma rimane ancora tutto il resto del quale
ti devi occupare.
Per i rifiuti radioattivi, ci sono decine di depositi che non sono
concepiti come tali, ma sono dei luoghi in cui qualcuno mette rifiuti
radioattivi che il paese produce (quelli della diagnostica medica o
quelli provenienti dalle centrali dismesse). Sinceramente, l’idea di
confinare rifiuti, siano essi radioattivi, o particolarmente tossici e noci-
vi, in miniere di sale o zolfo, in cui, quindi, non c’è acqua, e c’è una
cuffia assorbente intorno (come quelle di carbone), sembrerebbe ra-
gionevolissima, andrebbe percorsa e invece sembra non sia all’ordine
del giorno.
Viviamo un periodo di sostanziale deindustrializzazione perché la
maggior parte delle industrie stanno andando via, il nostro sistema
produttivo è a bassa-media tecnologia; da un altro telegiornale abbia-
mo potuto apprendere queste due cose: che era possibile che la
Krupp cedesse ai coreani la produzione dell’acciaio, e c’era la notizia
che i coreani avevano fatto per scopi di approvvigionamento di mate-
riale utile potenzialmente per terapia, una clonazione umana a pochis-
simi stadi di sviluppo. Allora la convinzione che noi venissimo erosi
dai coreani e cinesi solo per la parte a bassa tecnologia non è esatta: in
realtà, c’è chi verticalizza anche fra i paesi emergenti, che fanno clona-
Il paradosso dei rifiuti 169

zioni per scopi terapeutici. Il che implica il possesso di una cultura di


fondo, che ci deve far riflettere giacché da noi manca.
Quello dei rifiuti è l’esempio di uno spreco di denaro, di un’inca-
pacità di azione senza uguali, e anche di peggio per quanto riguarda le
scorte necessarie al trasporto. In Italia, purtroppo, sta prendendo la
mano questa deindustrializzazione, questo fatto che gli acquirenti stra-
nieri delle nostre imprese spesso ridimensionano i centri di ricerca, in
un momento in cui i paesi emergenti si mettono a fare medicina e pro-
babilmente riusciranno prima di noi. Tutto questo, purtroppo, dà ra-
gione a chi si pone il problema dell’avvenire: noi, infatti, mandiamo i
carri armati a distruggere i campi di mais per paura del transgenico,
noi proibiamo le cellule staminali, noi stiamo chiudendo totalmente
settori che sono invece pieni di prospettive e di possibilità per la crea-
zione di ricchezza.
170 I costi della non-scienza
171

PROSPETTIVE DELL’ECONOMIA A IDROGENO


Cesare Marchetti
IIASA, Laxenburg, Austria

V
erso la metà degli anni Sessanta, meditando sul futuro
dell’energia, venni alla conclusione che per liberarsi dalla
stretta dei combustibili fossili bisognava agganciare il sistema
energetico al nucleare per il 100%. All’epoca si pensava alla produzio-
ne dell’elettricità come tetto per l’utilizzo del nucleare, ma poiché
questa assorbirà al limite il 50% delle risorse primarie, basta un rad-
doppio dei consumi per tornare al punto di partenza. Il consumo di
energia è raddoppiato ogni trenta anni negli ultimi duecento anni e,
con due terzi dell’umanità in rincorsa per il benessere, continuerà a
raddoppiare ancora per un po’. Si parlò, all’epoca, di fare un sistema
tutto elettrico, ma a parte che molte tecnologie sarebbero ancora da
inventare, la sostanziale non accumulabilità dell’energia elettrica co-
stringerebbe a dimensionare tutto il sistema sulla domanda di picco.
Appare dunque molto opportuno un vettore energetico chimico per i
consumi non elettrici. La facile scelta cadde sull’idrogeno, che nasce
dall’acqua e torna all’acqua, non inquina e si trasporta facilmente co-
me il gas metano. L’idrogeno d’altronde, è una vecchia conoscenza
energetica: il gas di città che illuminava e riscaldava le grandi città eu-
ropee fino alla seconda guerra mondiale era anche idrogeno. Inciden-
talmente, anche il primo motore a scoppio di Matteucci-Barsanti an-
dava ad idrogeno.
Feci una ricerca bibliografica per vedere come si stava a tecnologie
d’uso e trovai con sorpresa che ogni genere di uso finale era all’epoca
studiato da qualcuno. C’erano perfino le lampade fluorescenti, in cui
il fosforo veniva direttamente eccitato dalla ossidazione dell’idrogeno
catalizzata dal fosforo stesso. Negli anni Cinquanta un aereo militare
americano aveva volato usando idrogeno, cosa che del resto facevano
172 I costi della non-scienza

gli Zeppelin per utilizzare l’idrogeno di ballast che altrimenti sarebbe


andato perduto. Ma la cosa più affascinante che uscì dalla ricerca era
la possibilità di produrre alimenti per gli astronauti usando idrogeno
come materia prima. C’è qui la possibilità di liberare l’uomo dall’agri-
coltura, con tutte le conseguenze sociali e politiche che questo com-
porta. La cosa era da attendersi visto che in ultima analisi la clorofilla
usa l’energia solare per decomporre l’acqua in idrogeno ed ossigeno e
l’idrogeno per poi ridurre la CO2 a carboidrati.
Uno dei problemi non sufficientemente sviscerati e su cui lavorai
negli anni Settanta fu quello del perché l’uomo negli ultimi due secoli
è passato dal legno al carbone e poi al petrolio per soddisfare i propri
bisogni energetici. La banale risposta che si trova sui libri è che le fo-
reste erano state super-sfruttate e dunque esaurite. La cosa può esser
vera localmente, ma ancora oggi le foreste nel mondo hanno, diciamo,
100 TW sotto forma di biomassa. L’umanità consuma circa 10 TW,
non si vede dunque il problema delle risorse. Si può dire che le foreste
sono sparse per il mondo, ma lo stesso vale per i campi petroliferi. Un
ragionamento analogo si può fare per il carbone.
Il punto chiave secondo me è che lo sfruttamento delle foreste non
ha molte economie di scala: tagliare due alberi costa il doppio che ta-
gliare un albero.
Neppure l’argomento della facilità di uso ha molto peso. È vero
che mandare un’auto a legna impiccerebbe, ma le grandi città come
Parigi nel secolo scorso facevano un grande uso di metanolo, distillato
dal legno, ed ottimo combustibile per le auto. D’altra parte, nessuno
usa petrolio greggio per accendere i motori, ma ci vuole l’elaborazione
di complesse raffinerie.
Dopo un’attenta analisi delle transizioni, sono giunto alla conclu-
sione che il parametro chiave che porta alla sostituzione sono le eco-
nomie di scala. La forza propulsiva viene dall’espansione del mercato,
cioè il consumo totale, ed anche dalla densità spaziale del consumo.
Questo processo di trascinamento si vede più chiaramente all’interno
di una data tecnologia. Consideriamo, ad esempio, il sistema elettrico.
Qui una centrale “vede” attraverso le sue linee di distribuzione un
certo mercato definito dai costi di trasporto e dalla densità spaziale
dell’uso di energia elettrica. La potenza del generatore è aggiustata di
conseguenza. Se la densità spaziale del consumo cresce, il mercato “vi-
Prospettive dell’economia a idrogeno 173

sto” dalla centrale cresce anche più rapidamente perché le linee pos-
sono usare tensioni più alte e portare l’energia più lontano. Le splen-
dide statistiche del mercato americano permettono di seguire il pro-
cesso più o meno fin dal tempo di Edison e mostrano, a fianco di un
raddoppio dei consumi ogni sette anni, un raddoppio delle potenze
unitarie dei generatori ogni sei anni. In soli 100 anni questi generatori
sono passati dai 10 kWe del Jumbo Dinamo di Edison al gigawatt dei
generatori di oggi. Un incredibile salto di un fattore 100.000.
Senza effetti così teatrali la capacità degli aerei misurata in passeg-
geri-km/ora è aumentata di 100 volte in 50 anni in stretta concomitan-
za con l’aumento del traffico, cosìcché il numero degli aerei commer-
ciali è rimasto costante fino a pochi anni fa (regola interrotta dalla
mancanza di un aereo da 1.000 posti, ora in costruzione).
La sostanza di tutte queste osservazioni è che se vogliamo sfruttare
una tecnologia destinata al successo dobbiamo far sì che le economie
di scala facciano parte della sua evoluzione. Dal punto di vista della
distribuzione, l’idrogeno, come vettore energetico, pone già solide ba-
si. In effetti, esso possiede un’alta trasportabilità come gas. Con l’aiuto
della SNAM facemmo un po’ di conti ad ISPRA trovando che il tra-
sporto in grandi pipelines costava più o meno come quello del meta-
no. Una centrale di produzione potrebbe così “vedere” un continente.
Se si pensa all’H2 trasportato da cryotankers simili alle metaniere, il
mondo diventa il mercato.
Dal punto di vista della produzione siamo ancora all’anno zero. I
reattori ci sono, però con taglie adattate al mercato elettrico e dunque
nell’ordine del GW. Il mercato mondiale dell’energia appoggiato ai
cryotankers ci porta sull’ordine del terawatt, cioè tre ordini di gran-
dezza di più. Inoltre, anche il processo di decomposizione dell’acqua
deve avere la possibilità della grande taglia e di economie di scala con-
seguenti. Per quanto riguarda i reattori, negli anni Sessanta, quando i
costi erano ancora trasparenti, trovai che per reattori di caratteristiche
simili il costo cresceva con la radice quadrata delle dimensioni, una re-
lazione – questa – paragonabile a quella per gli impianti chimici.
La logica strategica ci porta dunque verso grandissimi reattori nu-
cleari associati ad impianti chimici per la produzione dell’idrogeno. Il
nucleare ha sofferto di una cattiva informazione negli ultimi anni ma,
come dimostrai in un paper di 15 anni fa, Nuclear Energy and Society,
174 I costi della non-scienza

la caduta nel ritmo di costruzione delle centrali è legata ai cicli econo-


mici di Kondratiev e la loro costruzione rispetta perfettamente il mo-
dello. Anche le acciaierie e le fabbriche di automobili, d’altronde,
hanno seguito una stasi parallela. Previdi anche che la costruzione di
centrali sarebbe ripartita con il ciclo successivo, cioè ora.
È molto curioso osservare come in parallelo si stiano ammorbiden-
do le posizioni degli antinuclearisti. È di questi giorni la dichiarazione
di James Lovelock, padre del concetto di Gaia ed ovviamente molto
ecologista: «Nuclear Power is the only green solution. We have no ti-
me to experiment with visionary energy sources: civilization is in im-
minent danger» 1.
Incidentalmente, gli USA pur senza costruire nuove centrali hanno
aumentato la produzione di quelle esistenti di un buon 30% miglioran-
do la loro disponibilità e ne hanno prolungato la vita di vari decenni.

Sulle scelte strategiche per l’idrogeno come vettore dell’energia


nucleare

Una volta identificato il vettore, nel mio laboratorio di Ispra, co-


minciammo a pensare come produrlo, a partire dall’acqua e dal calore
nucleare. La soluzione banale fu di farlo per elettrolisi ma la scartam-
mo con vari argomenti: primo, l’elettrolisi è un processo in serie, il che
aumenta i costi e diminuisce i rendimenti; secondo, esso non ha eco-
nomie di scala, venendo così contro ad uno dei criteri strategici.
Bisogna infatti sempre tener presente la dimensione del sistema
energetico: 10 TW o 10 miliardi di tonnellate di carbone equivalente
all’anno sono tanti, l’industria energetica è la più grande del mondo
da qualsiasi parte la si guardi, e chi si gingilla con il solare od il vento
non ha afferrato la dimensione del problema, presente e futuro. Ci
concentrammo così sui metodi chimici i cui impianti hanno di solito
forti economie di scala.
Cominciammo a sviluppare, di conseguenza, una serie di processi, i
Mark-X, che possono essere visti come scatole nere in cui da un lato

1 L’energia nucleare è la sola soluzione verde. Non abbiamo tempo per fare

esperimenti con immaginifiche sorgenti di energia: la civiltà sta correndo un im-


minente pericolo (24 maggio 2004).
Prospettive dell’economia a idrogeno 175

entrano acqua e calore ad alta temperatura, e dall’altro escono idroge-


no, ossigeno, e calore a bassa temperatura. Tutta la chimica interna è a
ciclo chiuso. Inventare un buon Mark è difficile perché ci sono tante
condizioni al contorno. I composti chimici devono essere a buon mer-
cato, compatibili con materiali più o meno esistenti; i prodotti devono
essere facilmente separabili, etc. etc. Mettemmo in opera anche il
computer che sulla base delle proprietà termodinamiche dei composti
inventava dei cicli, ma fu un disastro per una ragione inaspettata: la
maggior parte delle reazioni chimiche proposte, sia pur banali, non
erano mai state studiate. La chimica inorganica, contrariamente a
quello che si pensa, è tutta da scoprire. Pensammo astutamente di
chiedere a dei professori universitari di far studiare queste reazioni co-
me esercizi per gli studenti. La risposta unanime fu che loro non face-
vano “perder tempo” agli studenti per studiare reazioni “esotiche”.
Così tutti i Mark X – ne abbiamo elencati una ventina, ma quelli pos-
sibili sono un numero infinito e questo dà speranza di trovarne uno
supremo – sono usciti dalle fertili menti dei chimici.
L’idea di base è che le temperature che un reattore nucleare può
fornire sono insufficienti per fare un cracking diretto dell’acqua. I fu-
sionisti ed i solari ci hanno fatto un pensierino, ma il problema è diffi-
cile, anche perché poi bisogna separare i prodotti in temperatura af-
finché non si ricombinino. Si può però rimediare facendo l’operazione
in due tappe: in una si separa, ad esempio, l’idrogeno attaccando l’os-
sigeno ad una molecola che fornisce una certa energia libera; nella se-
conda si separa l’ossigeno. Ciascuna operazione si può fare con i cam-
bi di energie libere accessibili con le temperature del reattore. Si devo-
no però mandare le sostanze avanti ed indietro, per cui questi processi
hanno tipicamente quattro reazioni. Termodinamicamente, però, si
potrebbe far tutto in un solo colpo appoggiandosi ad una molecola
che abbia una variazione di energia libera, nel campo delle temperatu-
re disponibili, equivalente a quella della decomposizione dell’acqua.
La decomposizione dell’acido solforico non va molto lontano da que-
sto obbiettivo, e per questo vari processi si appoggiano alla decompo-
sizione termica dell’acido solforico con chiusure di varia ingegnosità.
Con vari anni di lavoro li portammo fino a livello di table top e par-
ziale dimostrazione, ma la burocrazia di Bruxelles intervenne dichia-
rando il tutto eccessivamente futuristico per i bisogni della Comunità
176 I costi della non-scienza

Europea, e nel 1976 chiuse i fondi per le ricerche. Si da il caso, però,


che nel 1973 avevo fatto una tournée in Giappone vendendo l’idea. In
contemporanea, pubblicai sulla rivista CEER, giapponese, una visione
globale e dettagliata sul funzionamento di una società tecnologica ba-
sata sull’idrogeno come vettore energetico in una memoria dal titolo
Hydrogen and Energy. Il concetto di economia dell’idrogeno è già tut-
to lì. Un particolare che prelude alla dimensione del sistema è la
Energy Island impiantata all’interno di un atollo nel Pacifico e capace
di produrre, in termini energetici, l’equivalente di un Medio Oriente:
un Terawatt. La dimensione è definita dal mercato che il sistema di di-
stribuzione “vede” e il cryotanker, come detto, vede il mondo. La feci
anche operare in un renewable energy mode, più che altro per prende-
re in giro quelli che fanno del solare un feticcio perché dicono che
non si esaurisce. Osservando che l’acqua di raffreddamento, pompata
ad una certa profondità per ragioni termiche, trasporta un ordine di
grandezza in più di uranio rispetto a quello fissionato nei reattori, pro-
posi di estrarne una parte e mandare avanti i reattori con quello. Es-
sendo pompata sotto la termoclina e buttata alla temperatura della su-
perficie del mare (tanto per non lasciare firme termiche), quest’acqua
non torna indietro. Tenuto conto delle dinamiche oceaniche si può
andare avanti tranquillamente a estrarre per 10.000 anni. Nell’isola c’è
anche incluso un sink ad auto-affondamento termico: i prodotti di fis-
sione producono calore ed in opportuna configurazione fondono il
terreno, e, essendo più densi, affondano. Il processo può durare per
anni e le profondità finali possono essere di 10-20 km, abbastanza per
sentirsi sicuri ed in più il sistema fa tutto da sé. Per verificare le equa-
zioni, facemmo ad Ispra una serie di esperimenti in vivo usando dei
giganteschi blocchi di salgemma portati su dalla Sicilia. Anche questo
fu bloccato dalla commissione dei saggi con l’argomento che il proble-
ma del waste disposal era risolto e la nostra ricerca era ridondante.
Però l’avevamo gia conclusa.
L’Energy Island entusiasmò i giapponesi, che intravidero l’indipen-
denza energetica oltre alla possibilità di esportare auto con la dote di
combustibile per farle funzionare. Sia pure con sforzo limitato, hanno
poi sempre continuato a lavorare sui vari problemi ed ora hanno due
processi di water splitting buoni (con rendimenti di almeno il 50%, e
che possono naturalmente aumentare con lo sviluppo tecnologico, co-
Prospettive dell’economia a idrogeno 177

me succede di solito), tre processi di estrazione di uranio dall’acqua di


mare, ed un reattore ad alta temperatura appena finito di costruire.
Argonne ha prodotto, ancora sulla carta, un breeder che funziona a
1.000 °C in bagno di piombo, è auto-regolante, non richiede refueling
e si sostituisce dopo 25 anni. Le tecnologie convergono anche senza
un coordinamento formale.
Una volta prodotto, l’idrogeno va portato al consumatore finale.
Marciando a ritroso, la distribuzione agli utenti con tubi non presenta
problemi. A parte le vecchie città che erano cablate con il gas di città,
ci sono oggi nel mondo migliaia di km di pipeline che portano idroge-
no a pressioni varie per usi industriali. Nello studio che facemmo ad
Ispra con l’aiuto della SNAM, venne fuori che il trasporto a distanza
costa più o meno come quello del metano. Per il trasporto marino la
scelta inevitabile è l’idrogeno liquido. Costa farlo, ma feci sparire il
costo aggiuntivo nelle economie di scala che il mercato globale per-
mette. Nel frattempo, c’è molto da fare nelle tecnologie di liquefazio-
ne. Per la tecnica, le metaniere servono da modello. Nella memoria
sopra citata, schematizzai delle idrogeniere da un milione di tonnella-
te. Da uno studio precedente avevo visto, infatti, che la stazza delle
petroliere dipende dalle tonnellate-km di petrolio trasportato, e il rap-
porto è in effetti una frazione fissa: essendo, in questo schema, tutta
l’energia trasportata per mare, le ton-km sono molte.
Quanto ci vuole a rendere il tutto operativo? In uno studio che ho
fatto sull’interazione tra la società e le nuove tecnologie, come il treno
o l’auto, si vede che per digerire l’idea ci vogliono trenta anni. Questi
sono appena finiti e si osserva in effetti tutto un pullulare di iniziative
per far qualcosa. I congressi per anno sono una cinquantina e ci sono
anche i rallies per auto ad idrogeno. Queste iniziative imbarcheranno
la tecnologia nel tessuto sociale e per questo ci vogliono altri trenta
anni. In questo periodo l’idrogeno sostituirà gli altri combustibili in
ordine sparso, come del resto è successo per carbone, petrolio e gas
naturale che sono penetrati con simili costanti di tempo. Sia ben chia-
ro: viste le dimensioni del mercato, qualche percento di penetrazione
mette in gioco mercati ricchissimi. C’è naturalmente il problema di
dove cominciare. In un congresso a Mosca, una decina di anni fa, feci
una proposta che appare ancora ragionevole ed ha degli importanti ri-
svolti strategici. La Russia esporta oggi, cifra tonda, duecento miliardi
178 I costi della non-scienza

di metri cubi di metano in Europa con poche grandi pipelines. La pro-


posta era di fare il reforming di frazioni crescenti di questo metano
usando calore nucleare e mettendo la CO2 in giacimenti petroliferi
lungo la strada per stimolare la produzione terziaria, mescolando poi
l’idrogeno prodotto al metano trasportato.
La cosa è tecnicamente fattibile perché è stata studiata per almeno
vent’anni nel centro nucleare di Julich dal professor Schulten con il
suo reattore a grafite. Schulten pensava di trasportare il calore nuclea-
re disfacendo e rifacendo il metano, ma la cosa non ha avuto successo
industriale. I processi però restano e danno una base tecnica a quanto
propongo. Lo scopo del congresso e la mia motivazione formale era
quella di dare un po’ di contesto economico al processo di disposal
della CO2 di cui miriadi di persone parlavano senza che poi si fosse
fatto molto. C’erano dietro però altri due obbiettivi strategici.
Innanzitutto, la dimensione dei reattori per fare energia elettrica è
oggi di qualche GW perché questo richiede il mercato elettrico. Visti i
flussi di metano in gioco questo reforming può accettare e magari ri-
chiedere reattori anche dieci volte più grandi. Si sarebbe così creato
un “vivaio” per i reattori grandissimi che la produzione di idrogeno e
l’isola energetica prediligono.
Secondo, l’idrogeno si può mescolare al metano senza creare pro-
blemi agli utenti finali, diciamo fino al 20%. Questa miscela verrebbe
automaticmente distribuita in tutta Europa e potrebbe aiutare a risol-
vere il problema di dove reperire l’idrogeno per tutte le iniziative, spe-
cie nel campo dei trasporti, che stanno oggi pullulando. Poiché è faci-
le tirar fuori l’idrogeno dal metano, ci sarebbe così idrogeno per ali-
mentare le auto e le varie altre sperimentazioni, con una infrastruttura
continentale già operativa.
I trasporti consumano forse il 30% dell’energia primaria, e sono
un mercato interessante anche perché assai inquinante. In effetti tutti i
produttori d’auto sgambettano per arrivare con un modello plausibile.
Ce ne sono in giro una cinquantina. Anche la Fiat si dà da fare con
una Seicento adattata all’uso dell’idrogeno con un pack di fuel cells da
50 kW. Essendo l’idrogeno un gas, il problema è come portarselo die-
tro. Ci sono molte soluzioni, nessuna del tutto soddisfacente. La Fiat
usa quella più conservativa, le bombole di gas di cui oggi esistono mo-
delli sofisticati, sviluppati appunto per l’idrogeno. Poiché l’idrogeno
Prospettive dell’economia a idrogeno 179

nella tavola di Mendeleev è un metallo alcalino, ci si può aspettare che


faccia delle leghe: le fa, e molte si decompongono a temperatura am-
biente con pressioni di qualche atmosfera. Sono nati così una miriade
di serbatoi ad idruri metallici, funzionali anche se un po’ pesanti. Per
l’aereo l’unica soluzione è l’idrogeno liquido per cui non resta che co-
struirci l’aereo intorno: Airbus dedica un sostanziale sforzo alla sua
progettazione. Anche costruttori di auto come BMW hanno optato
per l’idrogeno liquido e messo in piedi un sistema completo all’aero-
porto di Monaco con auto e bus.
A questo punto nasce inevitabile la domanda: ma quanto costa? I
prezzi, a priori, sono sempre piuttosto utopici. La pratica permette
non solo di definirli, ma di diminuirli. La configurazione Isola Energe-
tica contiene praticamente solo capitale, i costi discendono da interes-
si ed ammortamento. Più miti sono i costi dell’idrogeno da reforming
del metano secondo lo schema presentato a Mosca. Vendendo la CO2
a dei petrolieri disposti a usarla in loco per il recupero terziario, i costi
del reforming verrebbero riassorbiti. Ad ogni buon conto, il fisco te-
desco si è già svegliato (buon segno), fissando una tassa per l’idrogeno
da usare nei veicoli di circa 1,5 centesimi di Euro per kWh, fino al
2020. Questo è un punto fermo ed il prezzo parte da lì.

Approfittando delle risorse della tecnologia non riporto bibliogra-


fia o note, si può scaricare tutto dal mio sito web http://www.cesare-
marchetti.org/
180 I costi della non-scienza
181

SFOGLIANDO I LIBRI DI TESTO DI SCIENZE


PER LA SCUOLA

Giovanni Vittorio Pallottino


Università di Roma La Sapienza

S
fogliare con qualche attenzione i libri di testo di Scienze per le
scuole è un esercizio che può risultare deprimente, ma che tut-
tavia è utile per capire molte cose che ci riguardano assai da vi-
cino.
La prima osservazione è che questi manuali sono generalmente
noiosissimi: stile pedante, alla “Dicesi punto di rugiada …”, impiego
disattento di terminologie inutilmente astruse, ed altro ancora 1. Ciò
spiega le diffuse reazioni di rigetto dei ragazzi nei confronti di disci-
pline che sono invece al tempo stesso affascinanti e di grande portata
pratica. Un rigetto che non si manifesta poi soltanto nel basso livello
della cultura scientifica della popolazione, ma arreca anche un contri-
buto decisivo alla caduta dello status della scienza nella visione co-
mune.
La seconda osservazione è che quei libri sono costellati di ingenuità,
di baggianate e di errori di fatto: vi si può addirittura trovare la propo-
sta ai ragazzi, fatta in tutta serietà, di realizzare un moto perpetuo.
La terza osservazione è per noi la più delicata. Si trova infatti che le
questioni riguardanti l’energia e l’ambiente sono generalmente trattate
seguendo gli indirizzi del più vieto ecologismo. Qui si riscontrano di-
storsioni dei fatti, omissioni mirate e accettazione acritica di quanto è
ritenuto dagli autori “politicamente corretto”. Ciò contribuisce a spie-
gare, accanto all’opera dei mass media, la diffusione fra il pubblico di
idee stravaganti. Del resto, se è vero che in Italia si legge poco, è an-
che vero che i libri scolastici penetrano in tutte le famiglie. E se questo

1 G. Flaccavento e N. Romano, La materia e la natura – La Terra nell’Univer-

so, Fabbri Editori, 1998, pag. 20.


182 I costi della non-scienza

è l’indottrinamento standard, propinato dalla scuola di stato, c’è poco


da lamentarsi poi per i suoi effetti.

Gli svarioni

Qualche anno fa, sfogliando il già citato libro di testo di scienze


per la scuola media – uno dei più diffusi – trovai una interessante pro-
posta di esperimento nel paragrafo intitolato “L’acqua va… in salita”.
Si suggeriva di sollevare dell’acqua da un recipiente in basso a uno in
alto utilizzando una cordicella con un capo immerso nel primo reci-
piente e l’altro disposto al di sopra del secondo. L’Autore spiegava che
l’acqua «per capillarità, sale lungo la corda e, raggiunta l’altra estre-
mità, cade goccia dopo goccia nel recipiente posto in alto». Come del
resto inequivocabilmente dimostrava una apposita chiarissima illustra-
zione. La proposta mi parve affascinante. Sia perché didatticamente
assai efficace, dato che l’esperimento, facilmente realizzabile dall’allie-
vo, aderiva pienamente al moderno paradigma del learning by doing;
sia perché l’idea era densa di prospettive concettuali come dimostra-
zione pratica non soltanto del fenomeno della capillarità, ma soprat-
tutto della fattibilità di un moto perpetuo. Sia, infine, come forte con-
tributo al dibattito che avanza soluzioni semplici ed efficaci come al-
ternative agli eccessi della big science: perché affrontare i problemi
energetici attraverso costose e impegnative ricerche sulla fusione nu-
cleare o sulle tecnologie fotovoltaiche quando soluzioni economiche
ed ecologiche al tempo stesso sono a portata di mano?
Ma l’episodio è tutt’altro che isolato. In quello stesso manuale e in
altri consimili si può trovare una ricca messe di svarioni, a livello con-
cettuale (come nel caso detto prima), a livello fattuale, e anche nei
suggerimenti per le attività sperimentali e operative che vengono pro-
poste ai ragazzi. Si può leggere, per esempio, che «ormai quasi tutti i
tipi di aereo, militari o di linea, superano, ampiamente e in piena sicu-
rezza, il muro del suono. Su ogni aereo è perciò installato uno stru-
mento, il machmetro», e che, restando in argomento, il volo superso-
nico permette agli aerei militari “di arrivare sui bersagli prima che
possa giungervi il rumore dei loro motori, evitando così di essere avvi-
stati”. Troviamo anche che «un watt equivale a circa 1000 calorie»
(non prima, però, di aver puntualizzato che «il watt, come la caloria, è
Sfogliando i libri di testo di scienze per la scuola 183

una unità di misura dell’energia»). Oppure che «il gas inerte usato
nelle lampadine ha la proprietà di rallentare la carbonizzazione del
tungsteno». Suggerendo poi ai ragazzi osservazioni del tipo: «Se osser-
vi tutto ciò che emette luce, vedrai che si tratta di corpi caldissimi»,
con buona pace delle lampade a scarica, dei LED e anche delle luccio-
le. E dedicando spazi incongrui (ben due pagine) ad argomenti come
la cromoterapia, non mancando qui di stabilire puntualmente che il
viola «è il colore più carico di energia, attenua il senso di appetito, ri-
duce il ristagno dei liquidi ed è utile in caso di caduta dei capelli», con
analoghe disquisizioni per tutti gli altri principali colori. Nulla ho tro-
vato, invece, sulla cristalloterapia, ma a questa grave carenza si può fa-
cilmente rimediare collegandosi al sito ufficiale dell’Enel 2.
Un’attenzione particolare trova l’argomento del moto perpetuo,
dove a volte si propongono improbabili esperimenti, come quello
menzionato prima, altre volte ci si limita a informare che: «Con il no-
me di moto perpetuo si indicano dei meccanismi che, pure essendo
possibili in teoria, non possono mai essere realizzati nella pratica». Ma
anche gli atomi sono ben rappresentati: «L’atomo è costituito da un
nucleo, formato a sua volta da due tipi di particelle, i protoni e i neu-
troni, e da orbitali, spazi in cui è possibile trovare particelle di un altro
tipo, gli elettroni».
Sappiamo bene che delle scienze studiate a scuola nei crani dei ra-
gazzi resta ben poco, certamente assai meno che delle materie umani-
stiche. Che si tratti, per quanto si è detto, di un caso fortunato? O vo-
gliamo consolarci leggendo su Physics Today 3 che anche in Usa la si-
tuazione a questo riguardo è tutt’altro che rosea?

Il terrorismo

Più pericoloso degli svarioni, tuttavia, in quanto veramente insidio-


so, è il tono di fondamentalismo ambientalista e di opposizione al pro-
gresso tecnico-scientifico che emerge spesso nei contenuti dei manuali
scolastici. Che a volte sembrano veramente ispirati dal fantasma evo-

2 http://www.enel.it/astroluce/newage/cristalloterapia/cose.asp
3 J. Hubisz, «Middle-School Texts Don’t Make the Grade», Physics Today, 5,
50 (2003).
184 I costi della non-scienza

cato nel Manifesto dell’associazione Galileo 2001: quel «fantasma che


si aggira da tempo nel Paese, un fantasma che sparge allarmi ed evoca
catastrofi, terrorizza le persone, addita la scienza e la tecnologia astrat-
tamente intese come nemiche dell’Uomo e della Natura e induce ad
atteggiamenti antiscientifici facendo leva su ingiustificate paure che
oscurano le vie della ragione». Questa azione è particolarmente sub-
dola in quanto sfrutta il canale istituzionale della scuola e si rivolge a
una massa sterminata di ragazzi, naturalmente disposti a prendere per
buono tutto quello che trovano scritto sui loro libri di testo (e non ci è
chiaro se dovremmo sperare che li leggano o no). Alimentando così
quelle forme di repulsione verso la scienza, e la tecnologia in generale,
che sono oggi tanto diffuse nell’opinione corrente. Proprio nel mo-
mento, d’altra parte, in cui alla società si pongono scelte, sempre più
difficili, su questioni che richiedono assieme cultura scientifica ed
equilibrio.
Si deve osservare, inoltre, che questo tipo di materiale appare chia-
ramente derivato dalla lettura degli articoli dei giornali, sempre aperti
al catastrofismo, trascurando invece di avvalersi delle conoscenze mes-
se assieme dalla comunità scientifica, rappresentate dalla letteratura
scientifica e soprattutto dalle elaborazioni e dalle conclusioni degli or-
ganismi, nazionali e internazionali, a cui è affidato il compito istituzio-
nale di stabilire i criteri di sicurezza per la salute e la protezione
dell’ambiente. E del resto, proprio come avviene sui media, i rischi
meno “rischiosi” vengono assai più evidenziati dei rischi reali.
Fra i pericoli derivanti dalla tecnologia, quelli relativi al nucleare
sono maggiormente posti in luce, ricordando sempre ad abundantiam
il disastro di Chernobyl, ma dimenticando di spiegare di che centrale
si trattasse, di quali protezioni essa disponesse e cosa avvenne effetti-
vamente nella tragica notte del 26 aprile 1986. E trascurando anche di
ricordare che il nostro paese, ormai da decenni, deve ricorrere all’im-
portazione di grandi quantità di elettricità nucleare (che alimenta an-
che quei nostri comuni che sono denuclearizzati) e, se viene a mancare
il sistema elettrico nazionale, entra in crisi. Ai toni allarmistici si ac-
compagnano poi innumerevoli stravaganti spiegazioni. Così possiamo
leggere che le esplosioni atomiche emettono «radiazioni gamma che
salgono nell’atmosfera e, trasportate dai venti, possono raggiungere
località molto lontane». Oppure, a proposito della radioattività artifi-
Sfogliando i libri di testo di scienze per la scuola 185

ciale, che «tutto ciò ha determinato un tale aumento della radioattività


che essa ha raggiunto ormai livelli pericolosi per l’ambiente e gli esseri
viventi». Sicché non resterebbe che emigrare su Marte.
Sugli argomenti relativi all’energia la disinformazione domina: su
un testo di qualche anno addietro si poteva leggere che in Italia «si sta
ora progettando la conversione delle centrali nucleari esistenti per po-
terle usare con altri combustibili». Come se ciò fosse possibile: ma
proprio questo si leggeva allora sui quotidiani e nelle dichiarazioni di
importanti uomini politici. Mentre su un altro manuale si prevedeva
che entro la fine del secolo (quello appena concluso) sarebbero potute
entrare in funzione le prime centrali nucleari a fusione.
Un altro argomento su cui si richiama l’attenzione dei ragazzi è
quello del cosiddetto “elettrosmog”. Con i soliti allarmismi nei con-
fronti di elettrodotti e antenne radio, e a volte fornendo una serie di
suggerimenti “pratici” la cui applicazione condurrebbe a muoversi in
casa come se ci trovassimo in un campo minato («stare sempre ad al-
meno mezzo metro dall’impianto hi-fi», «meglio non sedersi entro un
raggio di 50 cm dal frigorifero», «il campo elettromagnetico del tele-
visore arriva entro un raggio di 3 metri»). Ma c’è spazio anche per la
chimica, per esempio dove, drasticamente e senza appello si stabilisce
che «i prodotti chimici comunemente usati in agricoltura aggiungono
al suolo veleni in genere, che eliminano anche tutti i microrganismi e
gli insetti utili», prefigurando “primavere silenziose” seguite da altre
stagioni egualmente taciturne. I ragazzi di campagna, certo, rideran-
no nel leggere questa baggianata, ma quelli di città potrebbero anche
crederci.
Per concludere, una domanda puntuale: come mai non funzionano
i meccanismi istituzionali che dovrebbero condurre a produrre, e poi
a selezionare, trattazioni ragionevoli, senza troppi errori e senza ecces-
sive distorsioni?
186 I costi della non-scienza
187

IL PRINCIPIO DI PRECAUZIONE
Ernesto Pedrocchi
Politecnico di Milano

I
l dibattito ora in corso sul Protocollo di Kyoto, mi stimola a fare
qualche riflessione generale sul Principio di Precauzione (PdP) e
sulla sua applicabilità al caso particolare dei cambiamenti del cli-
ma globale e al Protocollo di Kyoto.
La formulazione del PdP come risulta dall’art. 15 della dichiarazio-
ne di Rio del 1992 è la seguente: «Where there are threats of serious or
irreversible damage, lack of full scientific certainty shall not be used as
a reason for postponing cost-effective measures to prevent enviromen-
tal degradation» la traduzione italiana più fedele potrebbe essere que-
sta. «Ove vi siano minacce di danno grave o irreversibile, l’assenza di
certezze scientifiche non deve servire come pretesto per posporre
l’adozione di misure, efficaci rispetto ai costi, volte a prevenire il degra-
do ambientale». L’interpretazione e la traduzione corretta del testo
crea problemi e non è improbabile che anche chi ha formulato il prin-
cipio non avesse un’idea chiara di quanto veramente volesse esprimere.
F. Battaglia 1 scrive: «Solo a chi non ha un’educazione scientifica può
passare inosservata la vacuità del principio sovra esposto: la certezza
scientifica è sempre assente. Certamente non è passata inosservata alla
Commissione dell’UE che, però, anziché rifiutare il principio, ha tenta-
to, un po’ arrampicandosi sugli specchi e aggiungendo problemi anzi-
ché risolverne, di giustificarlo e di stabilirne i limiti di applicabilità».
Il PdP è un concetto, essenziale al buon funzionamento della so-
cietà, che può essere applicato ad ogni problema tecnico-scientifico
ed è strettissimo parente del “coefficiente di sicurezza” che costituisce
la base della formazione dell’ingegnere. Ma G. Bramoullé su Liberal

1 F. Battaglia, Le Scienze 394, 110 (2001).


188 I costi della non-scienza

(agosto 2001) scrive: «Uscito dal suo contesto iniziale – la società civi-
le – per diventare il leit motiv della società politica, il principio di pre-
cauzione si trasforma da libero esercizio di saggezza a un pretesto mi-
stificatorio per una regolazione liberticida. Nuovo alibi per i responsa-
bili che non vogliono essere colpevolizzati, cavallo di Troia di
un’estensione indefinita delle prerogative dello Stato, il Principio di
Precauzione, nella sua accezione corrente, è il principio costitutivo di
una società basata su una prevenzione che mantiene stazionarie le
condizioni esistenti». Bisogna quindi riportare il PdP nel suo giusto
ambito evitando una generalizzazione acritica e distorta.
Il PdP trae origine culturale dall’opera di Hans Jonas e in partico-
lare dal suo scritto Il principio di responsabilità. Jonas è un ecologista
che denuncia l’umanesimo e inneggia a una mistica naturalistica. Sem-
pre G. Bramoullé afferma «In nome dell’irreversibilità delle azioni
umane e dei pericoli del progresso tecnico e scientifico, Jonas vuole
affidare a un’élite di uomini di stato, ritenuti capaci di assumersi etica-
mente la responsabilità per le generazioni future, la direzione del pia-
neta». Una linea culturale di questo tipo esaspera il Principio di Pre-
cauzione, promuove una forte ostilità ad ogni forma di rischio e di fat-
to risulta illiberale e tecnofoba.
Il PdP ha dato corpo a un’ondata di paure che ha portato con sé
un’accozzaglia di incertezze e di semplificazioni che soffocano l’inno-
vazione e frenano lo sviluppo. L’ambientalismo integralista ha fatto
del PdP il suo punto di forza e ne ha estremizzato le conseguenze: ba-
sta una pubblicazione, fra mille contrarie, che ipotizzi un sospetto pur
remoto di danno ambientale o alla salute dell’uomo per osteggiare o
demonizzare una qualsiasi innovazione tecnica. Tutta l’umanità, pur
non accorgendosene, rischia di pagare caramente l’uso perverso del
PdP. Non si riesce a capire chi abbia un’autorità superiore a quella de-
gli scienziati competenti per prendere decisioni così gravi. Può darsi
che la scienza non sia sufficiente per prendere queste decisioni, ma è
indubbio che è indispensabile. Quando una persona nella nostra so-
cietà ha problemi di salute consulta i medici, magari diversi, ma a loro
si affida non ai politici o alle fattucchiere; non si riesce a capire perché
quando i problemi pur sempre scientifici riguardano l’intera società
l’autorità scientifica non debba essere il riferimento primario. La di-
vulgazione scientifica, spesso sinonimo di grave disinformazione, ac-
Il Principio di Precauzione 189

centua sempre gli aspetti negativi ed emotivi: basti pensare che nei di-
battiti televisivi si tende a dare eguale credito a scienziati di chiara fa-
ma e a sedicenti esperti ambientali senza nessuna preparazione scienti-
fica. Il problema del deposito delle scorie radioattive in Italia è solo
l’esempio più recente: tutto il mondo scientifico concorda con la solu-
zione proposta e che non presenta alcun rischio. Anzi. Ma i politici
per esigenze di consenso sociale istigato dall’ambientalismo più ideo-
logizzato hanno ceduto.
Nel caso particolare dei cambiamenti del clima globale il PdP rag-
giunge il massimo della sua equivocità. In questo caso non solo è molto
incerto che il danno derivi da azioni antropiche, ma anche le misure
proposte per contrastarlo sono difficilmente attuabili, alcune costose e
di certa inefficacia. È questa una situazione ben diversa da quella in cui
si voglia prevenire un danno ipotetico, ma con un intervento attuabile
e ragionevolmente efficace. Il Protocollo di Kyoto, che trova le sue radi-
ci nel PdP, non è stato sufficientemente meditato; ne è risultato un do-
cumento di difficile applicazione che gli stessi estensori hanno progres-
sivamente modificato, derubricandolo da strumento “salva mondo” a
semplice esercizio, più psicologico che effettivo, di virtuosismo am-
bientale. Il furore ambientalista e la mancanza di una meditata rifles-
sione hanno portato in tutto il mondo a una proliferazione di normati-
ve pseudoscientifiche, sempre farraginose, senza nessuna possibilità di
essere concretamente applicate e che daranno luogo a contenziosi di
difficile risoluzione tra stati e istituzioni pubbliche e private.
190 I costi della non-scienza
191

PRINCIPIO DI PRECAUZIONE E PSEUDOSCIENZE


Silvano Fuso
CICAP 1 – Genova

N
el Manifesto dell’associazione Galileo 2001 si legge il seguen-
te brano: «La voce della scienza è certamente più affidabile e
anche umanamente – oltre che intellettualmente – più consa-
pevole delle voci incontrollate e dogmatiche che, fuori di ogni rilevan-
za scientifica, pretendono di affermare “verità” basate sull’emotività
irrazionale tipica delle culture oscurantiste».
La pretesa di affermare verità basate sull’emotività irrazionale e
fuori da ogni rilevanza scientifica è caratteristica di quelle discipline
“alternative” che tanta popolarità stanno riscuotendo nella società.
Parallelamente al diffondersi di un atteggiamento antiscientifico si as-
siste, infatti, al proliferare di discipline pseudoscientifiche che ipotiz-
zano livelli di realtà, sconosciuti alla scienza, in cui agirebbero poteri,
forze ed energie che, se non opportunamente controllate, potrebbero
risultare estremamente pericolose. Inutile dire che dal punto di vista
scientifico le affermazioni di queste discipline sono del tutto prive di
fondamento, non essendo mai emersa alcuna evidenza che renda mi-
nimamente plausibile l’esistenza delle realtà da esse ipotizzate. Ciò no-
nostante, i dati statistici mostrano che la diffusione delle credenze pa-
ranormali e pseudoscientifiche tra la popolazione raggiunge livelli
molto preoccupanti. La preoccupazione diventa ancora più forte
quando si osserva che istituzioni e soggetti che possiedono responsa-
bilità pubbliche, dando credito alle affermazioni pseudoscientifiche,
intraprendono iniziative operative. Purtroppo, non mancano gli esem-
pi. Vi sono stati dei pubblici amministratori che, invocando il Princi-
pio di Precauzione e appellandosi a un generico “… nel dubbio è me-

1 Comitato Italiano per il Controllo delle Affermazioni sul Paranormale.


192 I costi della non-scienza

glio prendere provvedimenti”, hanno agito in modo palesemente irra-


zionale. Per ora, fortunatamente, i danni di queste iniziative irrazionali
sono stati abbastanza limitati. È però facile immaginare che, se non si
porrà un argine alla diffusione delle discipline pseudoscientifiche e se
a livello politico si cederà alle pressioni di quei movimenti di pensiero
che richiedono per esse un riconoscimento giuridico, le conseguenze
per la società potrebbero essere anche molto gravi.

L’ufficio anti-malocchio di Aulla

Un primo esempio di atto pubblico motivato da credenze irrazio-


nali e pseudoscientifiche risale al 1998, quando il sindaco del Comune
di Aulla (provincia di Massa-Carrara), Lucio Barani, suscitò grande
clamore istituendo un “ufficio anti-malocchio”. In municipio i cittadi-
ni di Aulla possono così trovare, oltre all’anagrafe, ai vigili urbani e
agli altri servizi tradizionali, anche un apposito sportello gestito da
uno staff di maghi ed esorcisti ai quali possono richiedere interventi
finalizzati alla prevenzione e alla difesa dagli influssi negativi derivanti
da fatture e malefìci. Da notare che l’ufficio ha solamente finalità…
difensive: per nessuna ragione i cittadini potranno richiedere interven-
ti magici per causare danno a qualcuno.
È piuttosto evidente che la trovata del sindaco abbia avuto princi-
palmente motivazioni pubblicitarie (il primo cittadino di Aulla si era,
infatti, già distinto altre volte per iniziative clamorose). È tuttavia in-
dubbio che un’iniziativa del genere abbia un costo economico che
grava sulla collettività e favorisca la diffusione di credenze oscuranti-
ste e superstiziose. È interessante conoscere le motivazioni che lo stes-
so sindaco ha fornito durante un’intervista: «Quella della magia e
dell’esoterismo è una tradizione culturale radicata nella nostra zone
dalla notte dei tempi. Perché nasconderla o far finta di nulla? Comun-
que, da quando abbiamo preso quest’iniziativa vengono decine e deci-
ne di persone, anche le più insospettabili, a togliersi il malocchio gra-
tis. Ormai Aulla è una città senza sfiga» 2.

2 Tratto da: Simone Caffaz, Dalla Prima Repubblica al Terzo Millennio – Un-

dici storie, un decennio, una provincia italiana, edizioni La Cometa.


Principio di Precauzione e pseudoscienze 193

Il bio-architetto rabdomante ingaggiato dal comune di Siena

La credenza nel malocchio può far sorridere molte persone che


non esitano a definirla una semplice superstizione. Vi sono tuttavia al-
tre credenze che, pur essendo egualmente assurde, riscuotono mag-
gior credito, semplicemente perché appaiono fondate scientificamen-
te. Un esempio significativo è quello delle cosiddette reti di Hart-
mann. Poiché forse non tutti sanno di cosa si tratta, vale la pena de-
scriverle.
Ernst Hartmann (1915-1992) era un medico dell’Università di Hei-
delberg che, tra gli anni Cinquanta e gli anni Settanta, elaborò una
bizzarra teoria secondo la quale la superficie terrestre sarebbe avvolta
da una griglia di linee di forza, da molti ritenute di origine magnetica.
Queste linee di forza avrebbero un effetto patogeno e le zone a mag-
gior rischio sarebbero i punti in cui queste linee di forza si incrociano
(nodi di Hartmann). Il rischio sarebbe poi particolarmente elevato se
sotto al nodo (anche a elevata profondità) ci dovessero essere falde ac-
quifere oppure faglie, che sono ritenute in grado di intensificare le
“radiazioni nocive” sviluppate dal nodo.
Gli inconvenienti fisici che sarebbero causati dalla griglia di Hart-
mann vengono genericamente indicati con il termine “geopatologie”.
La cosa curiosa (e che fa comprendere quale possa essere la fondatez-
za scientifica di questa teoria) è che le linee di forza e i nodi non pos-
sono essere individuati da alcuno strumento di misura, ma solamente
da rabdomanti e sensitivi, che avviserebbero particolari vibrazioni in
loro prossimità. Prima di Hartmann qualcun’altro aveva già elaborato
teorie simili: un certo Peyré sosteneva l’esistenza di una griglia analoga
(le maglie però misuravano 8 metri di lato, contro i 2,50 previsti da
Hartmann); e negli anni Cinquanta un certo Curry affermava che le
maglie misuravano invece 3,15 m per 16 m.
Inutile dire che l’esistenza della rete di Hartmann non è mai stata
dimostrata da nessuno (com’è noto tutti i controlli diretti ad accertare i
presunti poteri dei rabdomanti hanno sempre dato esiti assolutamente
negativi). Inoltre, la sua esistenza contrasterebbe palesemente con le
conoscenze fisiche. Le linee di forza di un campo magnetico, infatti,
non possono incrociarsi, e sostenere il contrario dimostra soltanto una
preoccupante ignoranza scientifica. Occorre tuttavia osservare che non
194 I costi della non-scienza

tutti i sostenitori delle reti di Hartmann affermano che si tratti di cam-


pi magnetici. Ad esempio, due autori di nome Endros e Lotz sostengo-
no che esse sarebbero costituite da “raggi tellurici” causati da un irrag-
giamento di neutroni termici a 0,025 eV. È superfluo dire che anche
una tale emissione neutronica non è mai stata rilevata da nessuno.
La teoria delle reti di Hartmann è dunque pseudoscienza pura, pri-
va di ogni fondamento. Quello che preoccupa è che in certi ambienti
è presa sul serio. Ad esempio, la cosiddetta Bioarchitettura® (questa
parola è un marchio registrato), disciplina architettonica che prende
in considerazione gli aspetti biologici ed ecologici legati alle costruzio-
ni, fa spesso riferimento alle reti di Hartmann.
Un noto manuale di architettura usato a livello universitario 3 dedi-
ca un intero paragrafo alle geopatologie indotte dalle reti di Hart-
mann, con tanto di grafici e precise indicazioni su come posizionare il
letto per minimizzare i danni. Nel libro vi sono vere e proprie perle.
Ad esempio, vi si può leggere che: «Disponendo su tutta la sfera terre-
stre una cosiddetta griglia globale costituita da onde verticali si provo-
cano azioni geologiche apparentemente come quelle provocate dal So-
le, ma la loro regolarità anche secondo Hartmann potrebbe far pensa-
re ad un irraggiamento terrestre, proveniente dall’interno del globo,
che si dispone come una griglia a rete per effetto dei cristalli esistenti
nella crosta terrestre». E poi continua sullo stesso tono. Chiunque ab-
bia un minimo di conoscenze scientifiche può scegliere se inorridire o
ridere di fronte a simili affermazioni.
Sul mercato esistono numerose ditte specializzate (spesso gestite
dagli stessi rabdomanti) che commercializzano costosi dispositivi che
sarebbero in grado di schermare i nodi di Hartmann, fornendo prote-
zione nei confronti dei loro presunti nefasti effetti.
Una prova che sarebbe certamente interessante condurre su rabdo-
manti e sensitivi sarebbe la seguente. Bisognerebbe far loro individua-
re i nodi di Hartmann in un certo ambiente. Dopodiché bisognerebbe
coprire i nodi con tappetini schermanti e con tappetini fasulli, apposi-
tamente preparati, questi ultimi, per renderli indistinguibili dai primi.
A questo punto i rabdomanti dovrebbero essere in grado di stabilire
quali tappetini sono reali e quali sono fasulli. Naturalmente nessun

3 E. Neufert, Enciclopedia pratica per progettare e costruire, Hoepli


Principio di Precauzione e pseudoscienze 195

sensitivo ha mai accettato questa sfida: alcuni sostengono la non vali-


dità di una simile prova affermando che la rete di Hartmann si muove.
A questo punto nasce spontanea una domanda: se la rete di Hartmann
è in movimento, che senso ha studiare accuratamente la disposizione
degli edifici o del letto o collocare costosi dispositivi di protezione in
punti attentamente individuati?
È evidente che un amministratore pubblico al quale viene paventa-
to il “rischio” delle reti di Harmann, prima di intraprendere qualsiasi
iniziativa, dovrebbe documentarsi e consultare qualche fonte scientifi-
camente attendibile. Purtroppo, però, questa procedura non è così
scontata, come ha dimostrato nel 1997 la giunta comunale di Siena,
presieduta dal sindaco Pierluigi Piccini. Con la delibera comunale n.
179, del 3 febbraio 1997, la giunta comunale di Siena decise, infatti,
all’unanimità di affidare il compito di eseguire una mappatura dei no-
di di Hartmann nelle cinque scuole materne del Comune al bio-archi-
tetto e rabdomante Fosco Firmati. Quest’ultimo, che già aveva opera-
to a Grosseto e ad Arezzo, aveva allertato l’amministrazione comunale
di Siena sostenendo che i nodi di Hartmann mettevano a repentaglio
la salute dei bambini poiché avrebbero favorito l’insorgenza di leuce-
mia infantile. Nella delibera, la giunta stabilisce anche in sette milioni
e mezzo di lire il compenso spettante al Firmati per la sua prestazione.
Per fortuna, in seguito a un intervento del CICAP, che lo informava
della totale infondatezza scientifica della teoria di Hartmann, il sinda-
co decise successivamente di bloccare il progetto. Se la cosa fosse an-
data avanti è ragionevole pensare che il costo per l’amministrazione
sarebbe stato sicuramente più elevato dei sette milioni e mezzo pattui-
ti per il bioarchitetto. Infatti, una volta eseguita la mappatura, si sa-
rebbero dovuti poi intraprendere provvedimenti per proteggere gli
asili o addirittura spostarli in luoghi ritenuti meno pericolosi.

Rischi immaginari e rischi reali

I due esempi precedentemente riportati fanno comprendere come


l’accettazione acritica di affermazioni pseudoscientifiche e la conse-
guente credenza nei rischi da esse paventati possano condurre a scelte
irrazionali e sostanzialmente nocive per la collettività.
Analizzando il comportamento del sindaco di Aulla e della giunta
196 I costi della non-scienza

comunale di Siena ci si può facilmente rendere conto che esso è so-


stanzialmente coerente con il Principio di Precauzione così come appa-
re nella formulazione fornita dal principio 15 della Dichiarazione di
Rio del 1992: «Laddove vi siano minacce di danni seri o irreversibili,
la mancanza di piene certezze scientifiche non potrà costituire un mo-
tivo per ritardare l’adozione di misure, efficaci rispetto ai costi, volte a
prevenire il degrado ambientale».
Le “piene certezze scientifiche” non esistono mai, neanche relati-
vamente a ciò che la scienza può dire riguardo ai contenuti delle pseu-
doscienze. In linea di principio, nessuno può affermare con assoluta
certezza che il malocchio o le linee di Hartmann non esistono. Quello
che le attuali conoscenze scientifiche ci consentono di dire è che fino a
oggi non è mai emersa nessuna evidenza che ne renda plausibile l’esi-
stenza. In sostanza non è la scienza che deve dimostrare l’infondatezza
delle pseudoscienze, ma sono queste ultime che devono dimostrare la
validità delle loro affermazioni. La differenza è sottile ma importante.
Nel sia pur piccolo margine di incertezza che inevitabilmente la scien-
za lascia scoperto, possono insinuarsi le scelte irrazionali di coloro
che, contro rischi altamente improbabili, intraprendono iniziative gra-
vose per la collettività. Si arriva in tal modo alla situazione paradossale
in cui rifiutando la scienza a causa della sua inevitabile natura dubita-
tiva, ci si affida alle “certezze”, apparentemente apodittiche ma in
realtà del tutto illusorie, delle pseudoscienze.
Tra i tanti rischi immaginari, questo è un rischio reale. Oltre ai
danni immediati derivanti da scelte irrazionali, il rischio principale è
di tipo culturale. La scienza, almeno relativamente al suo dominio di
competenza, ci fornisce strumenti insostituibili. Non sono perfetti, ma
finché l’umanità non riuscirà a trovarne di migliori saremo costretti a
farvi ricorso, se non vogliamo correre il rischio di un regresso cultura-
le in cui il dogmatismo e il principio di autorità tornino a dominare.
197

RINGRAZIAMENTI

Questo volume raccoglie gli interventi presentati al I Congresso nazionale


dell’Associazione Galileo 2001, tenutosi a Roma, il 19 febbraio 2004,
presso i locali del Consiglio Nazionale delle Ricerche. Oltre che il CNR
per aver ospitato il convegno, l’Associazione Galileo 2001 ringrazia:

• Il Presidente della Repubblica, per aver concesso il Suo alto patronato;

• la Presidenza del Consiglio dei Ministri,


• il Ministero degli Affari Esteri,
• il Ministero dell’Ambiente e della Tutela del Territorio,
per aver patrocinato l’evento;

• il Ministero dell’Ambiente e della Tutela del Territorio,


• l’Istituto Nazionale di Fisica Nucleare,
• il Comune di Roma,
• l’ENEA,
• l’Assobiotec (Associazione nazionale per lo sviluppo delle biotecnologie),
• l’Associazione italiana nucleare,
per i contributi elargiti e che hanno reso possibile il convegno e la pubbli-
cazione del presente volume.

Si ringraziano, naturalmente, gli oltre 200 partecipanti, che sono stati de-
terminanti per il successo dell’iniziativa e, in particolare, gli studenti e gli
insegnanti della scuola IIS Pacinotti-Gobetti “sezione classica” di Fondi
(Latina) per l’entusiastico interesse.

Un grazie anche alla Multimedia sas di Valter Cirillo & Partners per il ge-
neroso impegno profuso nella cura del sito dell’Associazione, www.gali-
leo2001.it .

Infine, ma non ultimi, per aver curato con competenza gli aspetti organiz-
zativi del convegno si ringrazia la signora Angela Rosati e, in particolare,
Cristiano Bucaioni per aver anche svolto il lavoro necessario a trasforma-
re le relazioni orali nel presente volume.

Potrebbero piacerti anche