Sei sulla pagina 1di 63

Ulisse

http://ulisse.sissa.it/chiediAUlisse/domanda/2003

Rette parallele e punti impropri


Due rette parallele si incontrano all'infinito in un punto detto punto
improprio? Se ciò è vero, dove posso trovare in rete articoli su tale questione?
Gianfranco Fabbri
1 dicembre 2003
Prima di rispondere alla domanda vera e propria, desidero fare una piccola premessa storica. Intorno
al 300 a.C. Euclide scrisse i suoi famosi Elementi. Si tratta di un manuale introduttivo alla
matematica elementare, in particolare alla geometria, concepito in maniera ipotetico-deduttiva:
dopo una serie di definizioni, che servono essenzialmente a introdurre gli oggetti di cui si tratterà
(punti, rette, circonferenze ecc.), e postulati, proprietà cioè supposte vere per gli oggetti appena
introdotti, si enunciano e dimostrano via via i vari teoremi e proposizioni.

Gli Elementi sono stati considerati per oltre 2000 anni l'opera più soddisfacente ed efficace dal
punto di vista pedagogico, e la geometria euclidea è tuttora alla base dei programmi scolastici di
geometria.

Euclide, dunque, chiama parallele due rette di uno stesso piano che non si incontrano mai, per
quanto le si prolunghi. Inoltre Euclide postula (cioè, suppone vera fin dall'inizio) la proprietà che
due rette, tagliate da una retta trasversale in modo da formare da una parte angoli alterni la cui
somma è minore di due angoli retti, si incontrano proprio da quella parte (purché opportunamente
prolungate). Successivamente Euclide dimostra che, dati una retta r e un punto P fuori da r, per P
passa una e una sola retta parallela a r. Pertanto nella geometria euclidea esistono rette parallele a
volontà e due rette parallele non hanno punti in comune.

Nel XVII secolo nacque la geometria analitica, a opera principalmente di Cartesio e Fermat, che
introdussero le coordinate cartesiane nel piano euclideo. Una retta r del piano risulta allora descritta
da un'equazione di primo grado del tipo ax + by + c = 0; dove a, b, c, sono opportuni numeri reali,
con a e b non entrambi nulli.

Un punto P di coordinate (X,Y) appartiene a r se e solo se la coppia (X,Y) soddisfa la relazione aX +


bY + c = 0. Data una seconda retta r', diversa da r, di equazione a'x + b'y + c' = 0, sarà parallela a r
se e solo se la coppia (a, b) è proporzionale alla coppia (a',b'), cioè ab' = a'b. Ciò equivale
matematicamente al fatto che il sistema delle due equazioni di r e r' non ha soluzioni.

Dall'Ottocento in poi i matematici introdussero nuove teorie geometriche, più adatte di quella
euclidea in certe situazioni. Una di queste è la geometria proiettiva, che fu ideata da Girard
Desargues fin dal Seicento, ma che fu formalizzata nell'Ottocento.

Nella geometria proiettiva al piano della geometria di Euclide si aggiungono dei punti all'infinito,
detti punti impropri, uno per ogni direzione, ottenendo così il piano proiettivo. I vecchi punti sono
detti punti propri. Ogni retta acquista così un nuovo punto e due rette del piano euclideo sono
parallele se e solo se hanno lo stesso punto improprio.

1
Dal punto di vista analitico è possibile assegnare a ogni punto proprio o improprio del piano
proiettivo una terna di coordinate [x0 , x1 , x2 ] omogenee, cioè determinate solo a meno di un fattore
di proporzionalità. Il punto proprio di coordinate (X,Y) ha coordinate omogenee [x0 , x1 , x2 ], con x0
diverso da 0, legate a X e Y dalle relazioni: X = x1/x0 , Y = x2/x0 .

Per esempio il punto (3,2) ha coordinate omogenee [1, 3, 2], oppure [2, 6, 4], [-1, -3, -2] ecc. I punti
impropri hanno coordinate omogenee del tipo [0, x1 , x2 ], cioè la prima coordinata è nulla. Se la
retta r è rappresentata dall'equazione ax + by + c = 0, la retta corrispondente r del piano proiettivo
risulta formata da tutti i punti le cui coordinate omogenee soddisfano l'equazione ax1 + bx2 + cx0 = 0.
Oltre che dai punti propri di r, questa equazione è soddisfatta dal solo punto improprio [0, b, -a]. Lo
stesso punto si ottiene partendo anche da qualunque retta parallela a r.

Desargues aveva osservato che, lavorando nel piano proiettivo, spesso molti risultati particolari
venivano a fondersi in un unico teorema generale. Egli era interessato principalmente alla teoria
della coniche, ma la sua intuizione si rivelò utile e fruttuosa in moltissimi problemi, ed è alla base
della moderna geometria algebrica.

Una buona referenza in rete sulla geometria proiettiva, in italiano, è sul sito del Dipartimento di
Matematica dell'Università di Bologna: http://www.dm.unibo.it/matematica/GeometriaProiettiva/

Consiglio anche il libro C. Boyer, Storia della Matematica, Oscar Mondadori.

Accendere" dalla Terra una lampadina sulla Luna"


A quale velocità va l'impulso elettrico in un dato circuito? Ossia, se ci fosse un
filo da qui fino alla Luna quanto occorrerebbe per accendere una lampadina?
Anonimo  
30 agosto 2003

Benchè la velocità di avanzamento degli elettroni in un metallo, soggetti all'azione di un campo


elettrico, sia molto bassa (tipicamente soltanto di alcuni centimetri al secondo) ossia inferiore di
parecchio anche alla loro velocità casuale dovuta all'agitazione termica (che è di un milione di metri
al secondo), si suole dire (non del tutto appropriatamente) che la corrente elettrica viaggia alla
velocità che la luce avrebbe in detto metallo.

Ciò perché essa è associata alla propagazione di un impulso elettromagnetico: quando degli
elettroni vengono immessi a un estremo del circuito, si produce localmente un'alterazione della
neutralità di carica, quindi una perturbazione del campo elettrico, e questa si propaga lungo il filo
come onda elettromagnetica, spostandosi, in quanto tale, alla velocità di tali onde nel mezzo, che è
poi la stessa della luce.

Quindi all'altro capo del filo si avverte la perturbazione assai prima che gli elettroni abbiano avuto
modo di spostarsi apprezzabilmente dal punto dove sono stati iniettati (in altre parole, per ogni
elettrone iniettato a un estremo del circuito, quasi immediatamente un elettrone viene estratto
all'altro estremo).

Il meccanismo è analogo a quello di un getto d'acqua che, allo sbocco di un tubo, prende l'avvio
senza che l'acqua abbia dovuto percorrere il tragitto che separa lo sbocco dal rubinetto. Anche in
quel caso si ha a che fare con la propagazione di un'onda, un'onda di pressione che viaggia lungo il
2
tubo a una velocità ben maggiore di quella dell'acqua in movimento, e precisamente alla velocità di
circa 1400 metri al secondo, caratteristica di un'onda meccanica nell'acqua.

In conclusione, se il segnale elettrico dalla Terra alla Luna fosse inviato via radio, presa la distanza
media Terra-Luna pari a 385.000 km ed essendo la velocità delle onde elettromagnetiche nel vuoto
pari a 300.000 km/s, il tempo di trasmissione sarebbe circa 1,3 secondi. Se invece si usasse un filo
metallico tale tempo sarebbe un po' diverso, in genere più lungo, dipendendo naturalmente dalla
scelta del metallo.

Andrea Frova Dipartimento di Fisica, Università di Roma "La Sapienza"

Filastrocche per ricordare numeri


Tanti anni or sono, alle scuole superiori, un professore di matematica ci aveva
insegnato una sorta di filastrocca che, nel conteggio delle lettere formanti le
sue parole, restituiva il numero di Nepero: 2,7... Qualcuno la conosce? Vorrei
tanto recuperarla.
Daniele Minardo
1 novembre 2003
"Ai modesti o vanitosi ai violenti o timorosi vo' cantando gaio ritmo logaritmo".

Questa è la filastrocca che conosco: infatti, se si valuta il numero di Nepero fino alla dodicesima
cifra decimale, si ha la sequenza 2,718281828459; cioè, "ai" (corrisponde al numero 2) "modesti"
(al numero 7) "o" (1) "vanitosi" (8) "ai" (2) "violenti" (8) "o" (1) "timorosi" (8) "vo'" (2) "cantando"
(8) "gaio" (4) "ritmo"(5) "logaritmo" (9).

Varie filastrocche analoghe sono reperibili alle pagine 125-128 del volume: Matematica &
Mathematica di P. Antognini e G.C. Barozzi (Zanichelli).

Naturalmente sono esempi riportati semplicemente per mostrare le capacità del sistema
Mathematica (che è un software applicativo in grado di eseguire computazioni numeriche e
simboliche) relative alla gestione di liste di parole.

Giulio Cesare Barozzi CIRAM-Research Centre of Applied Mathematics, Università di


Bologna

Generalizzazioni del teorema di Pitagora


Vi sono vari modi di estendere il teorema di Pitagora a un triangolo
qualunque, come la cosiddetta forma generalizzata, il teorema di Carnot, il
quadrato della somma vettoriale. Ma queste relazioni contengono, oltre ai
quadrati dei tre lati, un quarto termine di tipo diverso.

3
Qualche giorno fa, applicando questi teoremi per altri motivi, ho scorto un
ampliamento del teorema di Pitagora abbastanza omogeneo.

Se sono a e b i lati, d1 e d2 le diagonali, α e (π- α) gli angoli interni di un


parallelogramma, il teorema di Carnot fornisce

d12 = a2 + b2 - 2ab cos(α) e d22 = a2 + b2 + 2ab cos(α), la cui semisomma vale


a2+b2 = (d2)m, dove (d2)m = (d12+d22)/2.

La conclusione è che in un parallelogramma la somma dei quadrati dei lati a


e b è uguale alla media quadratica delle due diagonali. In un rettangolo
questo risultato coincide col teorema di Pitagora poiché

d1 = d2. Indipendentemente dalle esigenze di calcolo di particolari parametri,


la forma a2+b2 = (d2)m mi sembra la naturale estensione del teorema di
Pitagora ai triangoli generici, essendo questi dei semiparallelogrammi.

Vi chiedo se esiste una diversa generalizzazione che somiglia maggiormente al


teorema di Pitagora.
Pasquale Catone
12 agosto 2003
Questa generalizzazione del teorema di Pitagora è corretta. Un'ulteriore estensione è contenuta
nell'opera del matematico greco alessandrino Pappo (IV secolo d.C.): essa non solo vale per
triangoli qualsiasi, ma considera, anziché le aree dei quadrati costruiti sui lati, le aree di
parallelogrammi qualsiasi aventi un lato in comune col triangolo.
Dato, come in figura, un triangolo ABC, e considerati i parallelogrammi AEDB (sul lato AB) e
BCFG (sul lato BC), Pappo indica come costruire geometricamente un parallelogramma ACMN sul
lato AC in modo che la sua area sia pari alla somma delle aree degli altri due. Ecco i passi del
procedimento:

1. Determinare il punto di intersezione H delle rette ED e FG.


2. Condurre da A e C le parallele r e s alla retta HB.
3. Determinare i punti d'intersezione L e K tra r ed ED e tra s e FG rispettivamente.
4. Determinare il simmetrico N di L rispetto ad A ed il simmetrico M di K rispetto a C.

4
Un'altra generalizzazione, più simile a quella proposta dal lettore, risale a Tolomeo, matematico ed
astronomo del II secolo d.C., concittadino di Pappo. Il teorema che da lui ha preso il nome riguarda
i quadrilateri cosiddetti ciclici, ossia inscrivibili in un cerchio, e può essere illustrato come segue:

Quando un quadrilatero ciclico è un parallelogramma, è necessariamente un rettangolo: infatti, per


ovvie ragioni di simmetria, le sue diagonali passano per il centro, sono, cioè, diametri, ed in quanto
tali sono uguali. In tal caso il teorema di Tolomeo assume la forma del teorema di Pitagora:

Infine, si può ricordare la generalizzazione data dal matematico arabo Tabit ibn Qorra (IX secolo
d.C.). Dato un triangolo qualunque ABC, se, come in figura, gli angoli CAB, AC'B e AB'C sono
uguali, i triangoli ABC, AC'B e AB'C sono simili. Pertanto

AC:CB' = BC:AC     e     AB:BC' = BC:AB,


da cui si ricava
AC2 + AB2 = BC (CB' +BC').
Nel caso in cui l'angolo in A è retto, si ha che B'= C', e la formula precedente corrisponde ancora al
teorema di Pitagora.

Margherita Barile Dipartimento di Matematica, Università di Bari

5
Esempi semplici di proposizioni indecidibili
Ci sono esempi semplici e facilmente rappresentabili di proposizioni
indecidibili secondo Gödel in strutture matematiche familiari agli studenti
medi o universitari?
Lucio Bernetti
1 agosto 2003
Dipende da cosa si intende con "semplice", esistono teorie elementari che sono incomplete, ad
esempio quella dei gruppi, ma non per il fenomeno messo in luce da Gödel; e dipende anche da
cosa si intende con "enunciato di Gödel". Gli enunciati di Gödel non sono importanti in sé, ma per
quello che dicono sulle teorie, in una interpretazione metamatematica. Il loro carattere fondamentale
è l'autoriferimento, che non è misterioso e si realizza spesso e naturalmente, ad esempio nella teoria
e nella pratica dei computer, quando un programma tratta un altro programma, o se stesso, come un
dato.
Il più semplice esempio è l'indecidibilità del problema dell'halt per macchine, o per algoritmi. Gli
algoritmi (o i programmi per calcolare funzioni; limitiamoci a quelle aritmetiche a un argomento) si
possono enumerare in modo effettivo (per lunghezza e ordine alfabetico): M1, M2, ...
Ognuno è individuato dal suo indice di posizione nella enumerazione. Scriviamo Mn(m) per indicare
l'applicazione dell'algoritmo Mnall'input m, applicazione che dà un numero se il calcolo termina (si
ferma) o può andare avanti all'infinito (si pensi a dividere certi numeri dispari per 2 per esempio).
Supponiamo di voler decidere se un qualunque algoritmo applicato a un qualunque numero si ferma
o meno, e con un metodo a priori effettivo, quindi ancora con un algoritmo.
Supponiamo che esista un tale algoritmo; ne esiste allora anche uno che indichiamo con M tale che
per ogni n, risulti M(n) = 0 se Mn(n) non si ferma e M(n) =1 se Mn(n) si ferma. Si realizzerebbe
allora facilmente un altro algoritmo M' tale che M'(n) = 0 se Mn(n) non si ferma, e M'(n) non si ferma
se Mn(n) si ferma (basta aggiungere a M poche istruzioni in modo che quando M(n) arriva a 1 scatta
un ciclo).
Ora è fatta. Se M' è un algoritmo, è uno della nostra lista precedente, poniamo quindi M' = Mr. Ma
ora si vede subito che Mr(r) non può né fermarsi né non fermarsi.
Dunque il problema dell'halt non è risolubile in modo effettivo. Con un ragionamento analogo si
prova che non è possibile trovare una volta per tutte un programma che sia un anti-virus universale.

Gabriele Lolli Dipartimento di Matematica, Università di Torino

L'isolamento termico della Terra


Vorrei sapere se il pianeta Terra è isolato termicamente rispetto allo spazio.
Tutta l'energia termica che viene sviluppata al suo interno (per esempio
quella dovuta alla combustione del petrolio) dovrebbe rimanere
nell'atmosfera terrestre e quindi contribuire all'innalzamento della
temperatura?
Mauro Querenghi
4 ottobre 2003
Il pianeta Terra non è isolato termicamente, tanto è vero che riceve il calore dal Sole. La
temperatura sul nostro pianeta è quindi il risultato di un equilibrio tra il calore che proviene dal
Sole, quello prodotto dalla Terra, quello disperso nello spazio e quello utilizzato in tutte le reazioni
chimiche ei processi biologici. Per capire maggiormente bisogna definire meglio il cosiddetto

6
bilancio termico della Terra. Le sorgenti di calore che interessano il nostro pianeta sono
sostanzialmente due:

1. la radiazione solare;
2. il calore prodotto all'interno della Terra (geotermia).

Di tutto il calore del Sole che raggiunge gli strati più esterni dell'atmosfera terrestre, solo la metà
raggiunge la superficie terrestre, in quanto il restante 50% viene assorbito dall'atmosfera stessa
(circa il 20%) oppure riflesso indietro nello spazio (circa il 30%).

Il calore terrestre viene smaltito principalmente in due modi:

1. radiazione a onda lunga;


2. calore latente.

La radiazione a onda lunga si chiama così per distinguerla da quella solare (detta appunto a onda
corta). La radiazione a onda lunga (compreso il calore prodotto dall'uomo) ha molta difficoltà ad
attraversare l'atmosfera e a disperdersi nello spazio, in quanto viene in gran parte assorbita o riflessa
sulla Terra dall'atmosfera (questo è il ben noto effetto serra).

Il calore latente è quello che viene utilizzato in tutti i processi biologici e chimici che avvengono
sulla terra ferma e nei mari.

Tornando alla domanda: gran parte dell'energia termica prodotta sulla Terra genera della radiazione
a onda lunga che rimane intrappolata all'interno dell'atmosfera. Il principale effetto dell'attività
dell'uomo non è però la produzione di calore (che tutto sommato è trascurabile rispetto al bilancio
termico della Terra), ma l'alterazione della composizione dell'atmosfera. La grande immissione di
gas a effetto serra (CO2 e metano tra i principali) aumenta infatti la capacità della nostra atmosfera
di intrappolare la radiazione a onda lunga (sia quella prodotta dall'uomo sia quella naturale)
determinando così un progressivo aumento di temperatura a livello globale.

Giuliano Brancolini Istituto Nazionale di Oceanografia e di Geofisica Sperimentale, Trieste

L’invecchiamento di un atomo
Volevo sapere se un atomo (relativamente alla sua natura) può perdere
proprietà, invecchiare, o è eternamente lo stesso?
Massimo Aroma
1 luglio 2003
In linea di principio, un atomo può sempre scindersi in più atomi più leggeri — è la scissione
nucleare — o decadere in altri suoi isotopi, e si può anche avere la fusione di più atomi in atomi più
pesanti. Occorre naturalmente che si verifichino le opportune condizioni ambientali.
Nelle stelle, per esempio, la fusione di idrogeno in elio è all'ordine del giorno, come lo è
nell'atmosfera la trasmutazione di azoto in carbonio a seguito di una reazione nucleare innescata dal
bombardamento dei raggi cosmici.
Il decadimento radioattivo dell'uranio 235 e 238 in piombo, rispettivamente 206 e 207, sta
avvenendo dal giorno della nascita della Terra e anzi il rapporto odierno delle quantità di piombo e
di uranio permette proprio di stabilire che il nostro pianeta vive da circa 4,5 miliardi di anni, grosso
7
modo un terzo dell'esistenza dell'universo.
È una questione di scala dei tempi e di circostanze.
Anche atomi assai più stabili degli isotopi dell'uranio detti potrebbero, nel corso dell'evoluzione
dell'universo, andare incontro a decadimenti che oggi, sulla Terra, possono dirsi impensabili.
Tuttavia, al di là di queste vere e proprie trasformazioni sostanziali, non vedo ragione perché un
dato atomo debba "invecchiare", mutando — in determinate condizioni ambientali — le proprie
caratteristiche.
A meno di non perturbarle artificialmente, per esempio sottoponendolo a impulsi ultrabrevi di
radiazione X, capaci di influire sui meccanismi che avvengono all'interno dell'atomo, per esempio il
moto o le transizioni degli elettroni (recentemente un'ipotesi del genere è stata avanzata da un
gruppo austro-tedesco che è riuscito a produrre impulsi della durata di attosecondi, ossia dieci alla
meno diciotto secondi, tempi più corti di quelli caratteristici dei moti detti).
Naturalmente, mi attenderei che, tolta la perturbazione, scompaia l'anomalia, ma chissà... staremo a
vedere.

Andrea Frova Dipartimento di Fisica, Università di Roma "La Sapienza"

L'inquinamento prodotto dai motori a benzina


Quanti litri di aria (sporca) vengono emessi approssimativamente ogni
minuto da un'auto a benzina (e diesel) a 4 tempi, 4 cilindri, di 1000 cc, a 2000
giri al minuto?
Valerio Gennaro
27 ottobre 2003
Pur non essendo un motorista, comunque la risposta è facile; sempre nell'ipotesi che per aria
"sporca" si intendano i gas di scarico. Se i gas fossero scaricati dal cilindro a pressione atmosferica i
litri sarebbero 1000 (1 metro cubo) al minuto, considerando che il motore 4 tempi ha due cilindri in
fase di scarico al giro. Siccome la pressione residua è però più alta di quella atmosferica, il volume
effettivamente scaricato è maggiore di 1000 litri, in funzione anche del rendimento del motore. Il
calcolo dello stesso volume, attraverso un altro ragionamento (quello stechiometrico) porta a un
numero di litri di gas scaricati al minuto intorno ai 1200, sempre comunque in funzione del
consumo del motore a 2000 giri al minuto.
Andrea Scarpini EcoEnergiaFuturo

Windsurf e velocità critica


Sono un appassionato windsurfista, vorrei alcune delucidazioni sul rapporto
tra la forma della pinna (profilo e disegno) e la velocità critica a cui posso
portare la mia tavola.
Francesco Migliaccio
22 ottobre 2003

8
Ogni barca muovendosi nell'acqua genera delle onde di velocità pari a quella della barca stessa. La
velocità delle onde è direttamente proporzionale alla loro lunghezza e al quadrato della loro altezza.

A una certa velocità l'onda del solco di prua diventa lunga quanto lo scafo, quindi una barca si trova
a navigare "sospesa" su un onda con una cresta a prua e una a poppa della barca.

Che cosa succede in queste condizioni? In una barca che navighi su un'onda di lunghezza pari al
proprio galleggiamento o più corta, le particelle d'acqua che costituiscono l'onda vengono
"separate" all'altezza della prua, scorrono lungo la carena e si ricongiungono prima della poppa,
mantenendo sempre quello che in idraulica si definisce un regime laminare.

In una barca che navighi su un onda anche di pochissimo più lunga del proprio galleggiamento, le
particelle d'acqua che costituiscono l'onda scorrono lungo la carena seguendo un regime laminare,
ma quando arrivano alla poppa creano grosse turbolenze, che ostacolano l'avanzamento della barca;
di fatto non permettono un ulteriore aumento della velocità, generando così una situazione di stallo.

Per il calcolo della velocità critica ci si avvale della seguente formula di tipo empirico:

vc = K√L

dove L rappresenta la lunghezza della barca al galleggiamento, espressa in piedi (un piede è pari a
0,305 m); vc è la velocità critica espressa in nodi (un nodo corrisponde a 1,852 km/h); K è il
cosiddetto numero di Froude ricavato sperimentalmente da osservazioni su diversi tipi scafo, e
risulta compreso fra 1,3 e 1,4.

Quanto detto vale fino a che la barca naviga in dislocamento, cioè con lo scafo immerso per buona
parte nell'acqua. Se viceversa si navigasse in planata, cioè semplicemente sfiorando il pelo
dell'acqua, la velocità della barca potrebbe raggiungere teoricamente qualsiasi valore (proporzionale
solo alla resistenza alla penetrazione dell'aria e alla potenza delle vele). Questo perché in planata lo
spostamento d'acqua è ridotto al minimo, lo scafo scivola senza produrre onde rilevanti e quindi la
velocità critica viene facilmente superata.

La velocità critica quindi è un concetto che non si applica ai surf perché planano e possono quindi
raggiungere velocità relativamente molto elevate.

Infatti, il record di velocità su un windsurf, per tavole prodotte in serie, è attualmente di 43,31 nodi
o circa 80 km/h (velocità media su un percorso di 500 metri).

Per ciò che concerne il discorso sull'architettura complessiva di un windsurf è da sottolineare che la
pinna è una delle parti più importanti della tavola e influisce in modo determinante sulla sua
velocità, stabilità e manovrabilità (controllo). Ma soffermiamoci un attimo sulla funzione effettiva
della pinna.

La vela produce una forza perpendicolare sulla linea centrale della tavola. Questa forza porterebbe a
un incontrollabile scivolamento laterale della tavola (scarroccio) se non ci fosse la pinna che
esercita una forza di direzione opposta, denominata portanza. Ma quando si va dritto su una tavola
da windsurf, si può notare che la tavola non sta perfettamente dritta nell'acqua! Il flusso dell'acqua
che scorre sulla pinna arriva perciò leggermente di lato, secondo un angolo, chiamato angolo
d'incidenza (α). La portanza della pinna (il cosiddetto lift) è determinata dalla superficie della pinna
secondo la formula:

L =1/2 (ρv2 S CL(α)) ;


9
dove L è la portanza della pinna, ρ rappresenta la densità dell'acqua, v la velocità della tavola, S
l'area della superficie della pinna; CL è il coefficiente della portanza che dipende dall'angolo
d'incidenza α.

Quando l'angolo d'incidenza aumenta, aumenta il coefficiente CL fino a un valore massimo in


corrispondenza del cosiddetto angolo di stallo, per poi diminuire bruscamente — questo è
conosciuto come spin-out fra i surfisti.

La formula vale sia per la pinna che per vela. Quando si percorre una traiettoria rettilinea, il surf è
bilanciato perché la portanza della vela e della pinna si equivalgono. È per questo che una tavola da
windsurf concepita per venti leggeri e con vele molto grandi monta una pinna di ampia superficie.
La pinna deve per forza avere molto meno superficie della vela per avere la stessa portanza, perché
l'acqua è molto più densa dell'aria.

Ma senza andare troppo nelle formule fisiche ecco dei consigli generali per una pinna da windsurf
veloce e controllabile.

1. È il profilo della pinna che determina la velocità locale dell'acqua che scorre su di essa. È
importante che il flusso dell'acqua che scorre sulla superficie della pinna sia più laminare
possibile lungo il suo profilo. Per esempio, una pinna con il bordo davanti tagliente può
risultare molto più lento d'una pinna con il bordo più tondo, perché il calo di pressione che
normalmente avviene lungo il profilo, viene localizzato troppo vicino al bordo, favorendo
così delle turbolenze. Invece su una pinna con un bordo più dolce il calo di pressione
avviene in modo più regolare, favorendo così un flusso laminare più esteso lungo il suo
profilo.
2. Per creare meno attrito, la superficie della pinna deve ovviamente essere liscia (se hai
toccato il fondo con la pinna, usa carta vetrata 400 ad acqua).
3. L'attrito di una pinna dipende anche dal rapporto fra la sua lunghezza e la sua larghezza
media (il cosiddetto aspect ratio). Più alto è questo rapporto, meno attrito fa la pinna. Ma
attenzione: una pinna troppo lunga può rendere la tavola ingovernabile. Come regola
indicativa, la lunghezza giusta della pinna equivale alla larghezza della tavola misurata a
circa 30,5 cm dalla poppa (one foot off).
4. Una pinna con un profilo dritto è più veloce di una pinna curvata molto all'indietro (oltre 10
gradi) perché crea meno attrito, ma anche la sua capacità di bolina è migliore. Una pinna
curva può invece facilitare il controllo della tavola in alta velocità, come anche migliorare la
sua manovrabilità.

Claus Falconi Dipartimento di Oceanografia biologica, Istituto Nazionale di Geofisica e


Oceanografia Sperimentale (OGS), Trieste

Leggere le linee spettrali del Sole


A che cosa sono dovute le linee di assorbimento spettrali dello spettro del
Sole? A quali elementi corrispondono?
Chiara Asquini
14 febbraio 2003
Gli atomi di un elemento chimico (o le molecole di un composto) sono caratterizzati da una propria
specifica struttura di livelli energetici consentiti. Un atomo può interagire energeticamente con
10
l'ambiente (attraverso quanti di luce, i fotoni, o urti con altre particelle) solo se lo scambio di
energia corrisponde esattamente alla differenza di energia tra i propri livelli.
Poiché l'energia di un fotone è proporzionale alla sua frequenza, l'insieme delle frequenze della luce
che un elemento chimico può emettere o assorbire è univocamente determinato: la serie di righe
spettrali dell'elemento. Corrisponde alle "impronte digitali" dell'elemento o composto chimico.
Illuminando un particolare elemento chimico (in forma gassosa) con fotoni di tutte le frequenze
(colori), se vi è un numero sufficiente di atomi in un assegnato livello energetico, nello spettro
emergente dal gas si osserverà che manca luce (righe di assorbimento) in strettissimi intervalli di
frequenza (colore) che corrispondono a salti energetici tra l'assegnato livello dell'atomo e i
superiori: i fotoni mancanti hanno fatto transitare un certo numero di atomi in differenti livelli
energetici.
Per osservare una particolare riga spettrale di un elemento occorre non solo che vi sia l'elemento
nella regione attraversata dal nostro fascio di luce ma che sia anche sufficientemente popolato il
livello energetico da cui parte la transizione che possa assorbire quella riga. Il numero di atomi, per
unità di volume, nei vari livelli energetici dipende dalla densità numerica di atomi dell'elemento,
temperatura, densità elettronica, pressione.
L'atmosfera solare (che è, per definizione, lo strato da cui provengono i fotoni che emergono dal
Sole) è caratterizzata da una struttura di temperatura che decresce verso l'esterno nello strato più
profondo e denso (la fotosfera) da circa 5700 °C a 4100 °C, cresce, poi, lentamente fino a circa 10
000 °C (cromosfera) per poi raggiungere rapidamente il milione e mezzo di gradi della corona.
La distribuzione degli elementi nei diversi stati energetici e di ionizzazione varia ampiamente con la
quota nell'atmosfera.
Le righe nell'intervallo del visibile dello spettro solare è essenzialmente fotosferico e di bassa
cromosfera, caratterizzato da una miriade di righe di assorbimento. Le più rilevanti sono due righe
del calcio ionizzato una volta (le H e K), seguite delle righe della serie di Balmer dell'idrogeno (il
livello di partenza è il primo stato eccitato) e poi righe magnesio, le righe gialle del sodio e una
moltitudine di strette righe del ferro, del ferro ionizzato una volta, del titanio e del titanio ionizzato.
Nell'ultravioletto lo spettro è essenzialmente quello dell'alta cromosfera e corona con righe di
emissione dell'elio, della serie di Lyman dell'idrogeno (il livello di partenza è lo stato
fondamentale), di elementi altamente ionizzati: ossigeno fino a 5 volte ionizzato, carbonio fino a 2
volte ionizzato, silicio ionizzato fino a 11 volte, ferro ionizzato fino ad 16 volte, magnesio ionizzato
fino a 10 volte, neon ionizzato fino a 6 volte.
Proprio la variazione delle popolazioni dei livelli energetici con la temperatura (e, quindi, la quota
nell'atmosfera solare) permette, utilizzando le varie righe spettrali, un'analisi in quota delle proprietà
fisiche dell'atmosfera solare: temperatura, pressione, velocità, turbolenza, campi magnetici ecc.
Luigi Smaldone Dipartimento di Fisica, Università di Napoli Federico II

Leggi di conservazione in sistemi non inerziali


Come si modificano le leggi classiche di conservazione dell'energia
relativamente a sistemi di riferimento non inerziali?
E le costanti universali della fisica valgono anche in sistemi non inerziali?
Marco Forti
24 settembre 2003
Cominciamo dal ruolo dei sistemi di riferimento inerziali nella meccanica classica. I sistemi di
riferimento inerziali sono, per definizioni, quelli nei quali un corpo non soggetto a forze,
inizialmente fermo o in moto con velocità uniforme, persiste nello stato di quiete o di moto
uniforme. Un esempio concreto di sistema inerziale è costituito da un sistema solidale al suolo
terrestre, un altro da un aereo in quota a velocità di crociera (in realtà si tratta di sistemi solo
11
approssimativamente inerziali, come spiegherò più avanti). Un passeggero che si trova su un aereo
che si muove a velocità costante ha la netta impressione che un fenomeno fisico come la caduta di
un oggetto dentro l'aereo non differisca in alcun modo dallo stesso fenomeno che avvenga nella sua
stanza sulla superficie terrestre. E così è. Tuttavia se l'aereo fa una virata, il passeggero si sente
soggetto a una forza che lo sbalzerebbe dal suo posto, se non fosse trattenuto dal sedile e dalla
cintura di sicurezza: questo è certamente un fenomeno che non gli può capitare se e' seduto nella
sua stanza.

La differenza sta nel fatto che l'aereo che fa una virata non è più un sistema inerziale (diventa un
sistema in accelerazione). Se il passeggero non fosse vincolato a stare seduto al suo posto,
tenderebbe a proseguire nello stesso moto rettilineo e uniforme di prima della virata, e quindi
devierebbe dal suo stato di quiete rispetto all'aereo (qui stiamo idealizzando un po', supponendo che
la virata sia perfettamente orizzontale in modo che il peso del passeggero sia neutralizzato dalla
struttura dell'aereo).

Va fatta però una importante precisazione. Il sistema costituito dall'aereo a velocità di crociera così
come il sistema solidale col suolo terrestre è solo approssimativamente inerziale. La ragione è che
questi sistemi si muovono solidalmente con la Terra nel suo moto di rotazione su se stessa e di
rivoluzione attorno al Sole, e solidalmente al sistema solare nel suo moto circolare nella Galassia, e
mettiamoci pure il moto di espansione dell'universo. Tutti questi sono moti con velocità non
uniforme. Potremo quindi dire che ha senso considerare il sistema costituito dall'aereo come
inerziale fintantoché potremo trascurare le accelerazioni relative a questi moti rispetto a quelle che
sono in gioco nei fenomeni che ci interessano (questo vale per una gran parte dei fenomeni di tutti i
giorni).

Dopo questa breve introduzione veniamo alla prima domanda: vale la legge di conservazione
dell'energia in un sistema non inerziale? La conservazione dell'energia è una legge fisica. Possiamo
generalizzare la domanda: valgono le leggi della fisica nei sistemi non inerziali? La risposta è: le
leggi della fisica (e in particolare la conservazione dell'energia) hanno validità indipendente dal
sistema di riferimento. Perciò le leggi della fisica, così come i fenomeni fisici, non cambiano nel
passaggio da un sistema di riferimento a un altro. Quello che può cambiare è la forma in cui
vengono espresse.

La scelta di un sistema di riferimento è la scelta necessaria ma arbitraria di un punto di vista da cui


descrivere un fenomeno fisico. Nel passaggio da un sistema di riferimento a un altro cambia in
genere la descrizione dei fenomeni e perciò cambia la forma in cui le leggi fisiche sono espresse.
Questo vale in particolare per la conservazione dell'energia. Il fatto essenziale è che, qualsiasi sia il
sistema di riferimento che si sceglie, bisogna tener conto di tutte le forze/energie in gioco. E' vero
però che le leggi fisiche possono assumere una forma particolarmente semplice in sistemi di
riferimento particolari. E' il caso dei sistemi inerziali per le leggi della meccanica classica. In questo
ambito i sistemi inerziali sono dei sistemi privilegiati. Il passaggio da un sistema di riferimento
inerziale a un altro è regolato da formule matematiche di trasformazione abbastanza semplici,
chiamate galileiane. Al contrario, se insistiamo nel descrivere un fenomeno fisico in un sistema non
inerziale, possiamo trovarci di fronte a formule e problemi matematici considerevolmente più
complicati che nei sistemi inerziali; le leggi della fisica nel passaggio da un sistema inerziale a uno
non inerziale richiedono in genere correzioni che possono complicarne notevolmente la trattazione
matematica. L'esempio storico più celebre è costituito dal cosiddetto sistema tolemaico.

Se cerchiamo di descrivere il moto dei pianeti nel sistema di riferimento solidale con la superficie
terrestre (che non è nemmeno approssimativamente inerziale per questo tipo di fenomeni)
incontreremo notevoli difficoltà formali, ma la cosa non è impossibile, come Tolomeo ha
dimostrato sia pure con una trattazione approssimata.
12
Per quanto riguarda le costanti fisiche, va detto che una costante merita tale nome unicamente se il
suo valore non dipende dal sistema di riferimento. La costante di gravitazione è un esempio. Invece,
contrariamente a quanto si potrebbe credere, in meccanica classica, la velocità della luce non è una
costante. Infatti cambia nel passaggio da un sistema inerziale a un altro. Questo si verifica perché le
trasformazioni galileiane sono semplicemente sbagliate (non interpretano più correttamente i
fenomeni fisici) quando le velocità dei corpi coinvolti in un fenomeno fisico sono prossime a quella
della luce. In questo caso la teoria adeguata è quella della relatività ristretta, nella quale le
trasformazioni galileiane sono sostituite dalle trasformazioni di Lorentz. Queste ultime sono
disegnate in maniera tale che la velocità della luce risulti invariante rispetto a esse. Perciò, in
relatività ristretta, la velocità della luce è una costante fisica.

Per quanto riguarda la validità delle leggi fisiche e, in particolare, della conservazione dell'energia,
al cambiare dei sistemi di riferimento nella relatività ristretta, si può ripetere quanto detto sopra per
la meccanica classica, tenendo presente che il passaggio da un sistema di riferimento a un altro
sono, come appena detto, determinate da regole di trasformazione appropriate alla relatività
ristretta.

Loriano Bonora Settore di Teoria delle Particelle Elementari, SISSA, Trieste

Le pulsar
Vorrei sapere cosa sono le pulsar.
Manuel Ricco
10 gennaio 2003
Il nome pulsar deriva dalla contrazione delle parole inglesi pulsating star, stella pulsante. SI tratta
di una stella di neutroni, generalemente quel che resta del core di una stella di massa iniziale
superiore alle 8 masse solari che esplode in supernova, in rapida rotazione. Oltre che ruotare la
stella di neutroni emette fasci di onde radio che vengono captati a terra come impulsi di grade
regolarità dai radiotelescopi. La pulsar può variare anche nell'ottico e/o essere formata da un
sistema binario di stelle di neutroni, di cui una è anche una pulsar. La prima di queste stelle fu
scoperta nel 1967 dalla allora giovane radioastronoma Joceln Bell Burnell.
Leopoldo Benacchio Istituto Nazionale di Astrofisica, Osservatorio astronomico di Padova

Materiali termici altamente isolanti


Esiste un contenitore (con all'interno del mercurio) costruito con un materiale
termico isolante in grado di mantenere costante la temperatura interna anche
se si trova a contatto con un ambiente a una temperatura inferiore a 0°C o di
- 60°C?
Rosanna Giardina
22 aprile 2003
La questione sollevata dalla lettrice, posta nei termini perentori in cui è presentata, ha una risposta
negativa.
Ponendo infatti un corpo a una certa temperatura T1 in contatto con un altro corpo a temperatura T2
(diversa da T1) il sistema nel suo insieme evolve in direzione dell'equilibrio termico, raggiungendo
una temperatura T0 intermedia tra T1 e T2.
13
L'unico modo di prevenire questa equilibrazione termica è quello di interporre tra i due corpi una
parete adiabatica, cioè un materiale caratterizzato da una conducibilità termica nulla.
Le pareti adiabatiche, tuttavia, anche se fondamentali nello sviluppo della teoria termodinamica
classica, sono una pura astrazione. Non esistono (e, come vedremo, non possono esistere) materiali
caratterizzati da conducibilità termica nulla. Pertanto, in un lasso di tempo più o meno lungo, il
mercurio (o qualunque altra cosa) presente nel contenitore si raffredderà, raggiungendo la
temperatura dell'ambiente con cui esso è in contatto.
L'impossibilità di realizzare pareti adiabatiche consegue immediatamente dall'analisi dei
meccanismi responsabili del trasporto di energia termica.
Tre meccanismi sono in generale attivi: il trasporto per conduzione, per convezione e per
irraggiamento. Il trasporto di calore per conduzione è caratteristico dei solidi, ed è associato al
trasferimento di energia (a livello atomico) dovuto alla presenza di elettroni liberi (come nei
metalli) e/o alle vibrazioni atomiche. Il meccanismo di convezione è viceversa tipico dei fluidi (gas
e liquidi) ed è connesso con il libero moto atomico o molecolare. Infine l'irraggiamento veicola
energia termica attraverso l'emissione/assorbimento di radiazione elettromagnetica.
Nel caso di una parete (ovviamente solida) la scelta di un materiale termicamente isolante si
indirizza pertanto verso materiali non metallici. Ma anche il migliore isolante elettrico, essendo
costituito da atomi, dà luogo a trasporto di calore per conduzione associato all'eccitazione dei modi
vibrazionali, che non possono non essere presenti dato che ogni solido è costituito da atomi. Ne
viene pertanto che il modo migliore per realizzare pareti quasi adiabatiche è di lavorare con un
materiale che non c'è: il vuoto. I thermos di uso domestico (o i loro equivalenti scientifici, i dewar)
impiegano una strategia di isolamento basata sull'uso di una doppia parete, ovvero sfruttano
un'intercapedine in cui è realizzato il vuoto. In condizioni ordinarie è possibile ottenere così
conducibilità termiche molto basse, ma comunque non nulle.
Riporto di seguito nella tabella alcuni valori tipici di conducibilità termica per solidi, gas e per una
parete di dewar di impiego tecnico-scientifico.

Conducibilità termica
Materiale
(W m-1 K-1)
Argento 406.0
Rame 385.0
Mercurio 8.3
Vetro 0.8
Cemento 0.8
Lana 0.04
Aria (a 0°C) 0.024
Dewar (medio vuoto) 0.0004

Laddove l'uso di intercapedini evacuate non sia possibile, i materiali che vengono impiegati sono
sostanzialmente succedanei del vuoto, ovvero materiali caratterizzati da cavità microscopiche o
macroscopiche.
Schiume solide raggiungono correntemente valori di conducibilità termica confrontabili con quelle
dei gas, e costituiscono un'alternativa interessante ai dewar convenzionali. Tornando dunque alla
domanda della lettrice, sarebbe opportuno riformularla quantificando la tolleranza sulla temperatura
cui deve restare il suo mercurio e i tempi sui quali la temperatura deve mantenersi nei limiti fissati.
In questo modo risulterebbe possibile procedere a una valutazione della conducibilità termica
massima ammissibile per la parete e a una scelta del materiale (o della strategia) di isolamento
termico ottimale.
14
Per ulteriori approfondimenti raccomando due siti (in inglese) che affrontano le tematiche del
trasporto di calore:
http://hyperphysics.phy-astr.gsu.edu/hbase/hframe.html
http://scienceworld.wolfram.com/physics/topics/Thermodynamics.html
Per un'applicazione di punta dell'isolamento termico può essere invece interessante dare un'occhiata
a questa pagina (dal sito della NASA):
http://technology.ksc.nasa.gov/WWWaccess/techreports/97report/03-ME/me05.html

Dario Narducci Dipartimento di Scienza dei Materiali, Università di Milano Bicocca

Il termometro di Galileo
Non ricordo bene il principio che spiega il funzionamento del termometro di
Galileo (con le gocce di vetro che contengo liquidi colorati di densità diverse).
Perché è la palla più bassa ad indicare la temperatura ambiente?
Carolina Maciotta-Carlaz
2 febbraio 2003
Questo tipo di termometro è impropriamente detto di Galilei: se ne ha traccia nelle memorie
dell'Accadema del Cimento, redatte da Lorenzo Magalotti; chiamato "termometro a bolle vitree", è
detto anche 'infingardo' o 'pigro', per la sua lenta 'risposta' al mutamento delle condizioni di
temperatura.

Il suo funzionamento si basa sul principio di Archimede, per cui il bilancio dinamico fra forza di
gravità e spinta di Archimede fa sì che un corpo galleggi o affondi in un mezzo fluido a seconda che
la sua densità sia minore o maggiore di quella del mezzo fluido.
La densità del liquido (alcool per esempio) contenuto nel termometro varia con la temperatura.
Aumentando la temperatura il liquido si rarefà e viene ad avere una densità minore di quella
precedente e via via di quella delle varie sferette di cristallo immerse, che così affondano.
Le sferette sono costruite in maniera tale da differire leggermente di massa e quindi, a parità di
volume, di densità: affonda prima quella di massa maggiore e quindi di densità maggiore, e tale
andare a fondo corrisponde ad una certa temperatura che fa sì che la densità del liquido diventi
minore di quella di tale sferetta. Ad ogni sferetta viene quindi attaccata un'etichetta che misura
proprio l'instaurarsi di quella temperatura che determina questa condizione di affondamento.

Si può trovare un'animazione e una spiegazione sul sito ppp.unipv.it, passando poi al 'patrimonio
culturale', 'museo, 'sezione di fisica', 'gabinetto di fisica di Volta', 'termometro a bolle vitree', in
quanto questo strumento era presente anche nella collezione di Volta a Pavia.

Enrico Antonio Giannetto Dipartimento di Scienze della Formazione e della


Comunicazione, Università di Bergamo
Sia data una sfera chiusa di vetro riempita parzialmente con liquido colorato A e sospesa entro un
liquido trasparente B, alla temperatura t.
Per l'equilibrio, la spinta di Archimede S esercitata sul corpo da B, deve essere opposta al peso della
sfera col suo contenuto. Ma S è uguale e contraria al peso del liquido L spostato dalla sfera ed
applicata nel baricentro di L. Con l'aumentare della temperatura, si dilatano i liquidi A e B e la sfera
P.
L'espansione di A comporta soltanto un lieve incremento della pressione dell'aria entro P. Il

15
coefficiente di dilatazione di P è inferiore a quello di B, di conseguenza il liquido spostato dalla
sfera diventa più leggero e diminuisce la spinta.

Per esempio, in seguito al riscaldamento, una sfera di 4 000 mm3 diventi 4 000,1 mm3 e 4 000 mm3
di liquido, che fornivano la precedente spinta, si portino a 4 004 mm3. Quindi si devono scartare 3,9
mm3 di liquido per avere la spinta attuale, che pertanto decresce; allora predomina il peso rispetto
alla spinta e la sfera affonda.

Per converso, riducendo la temperatura, la spinta aumenta e la sfera si sposta verso l'alto,
emergendo lievemente dalla superficie del liquido.
Alla sfera P viene incollata un'etichetta, recante il valore della temperatura t, in modo che
dall'equilibrio di P si possa stabilire la temperatura di B e dell'ambiente.
A questo punto basta munirsi di sfere, uguali in volume e di peso crescente, che per stare in
equilibrio necessitano di una spinta altrettanto crescente, derivante da una temperatura decrescente;
ad ogni sfera viene associata la targhetta che indica la temperatura per l'equilibrio in B.

Un modo comodo per le misurazioni consiste nell'incolonnare, in un cilindro di adeguata larghezza,


le sfere con le temperature decrescenti verso il basso.
Il termometro funziona in un dato intervallo di temperatura I=[t1, t2]. Per t < t1, il liquido B è
abbastanza denso e tutte le sfere sono situate in alto. Quando t supera t1 (in I) si attenua la spinta,
alcune sfere affondano e la temperatura è fornita dall'etichetta della sfera inferiore in equilibrio
indifferente. Per t > t2, la portata del dispositivo viene oltrepassata e tutte le sfere affondano.
Questo strumento ha un valore puramente storico, estetico e didattico perché indica soltanto i valori
discreti scritti sulle etichette e richiede un tempo congruo per ricondurre la temperatura del liquido
B a quella dell'ambiente.

Pasquale Catone ITIS - Liceo scientifico Giordani, Caserta,

Il termometro di Galileo
Come si spiega, attraverso una descrizione procedurale e matematizzata, il
funzionamento del termometro di Galileo? Ossia, come si ricava, in funzione
delle caratteristiche della sferetta (o goccia) la temperatura esterna e l'altezza
nel tubo alla quale la sferetta h in equilibrio?
Alessandra Sirsi
3 marzo 2003
Sia data una sfera chiusa di vetro riempita parzialmente con liquido colorato A e sospesa entro un
liquido trasparente B, alla temperatura t.
Per l'equilibrio, la spinta di Archimede S esercitata sul corpo da B, deve essere opposta al peso della
sfera col suo contenuto. Ma S è uguale e contraria al peso del liquido L spostato dalla sfera ed
applicata nel baricentro di L. Con l'aumentare della temperatura, si dilatano i liquidi A e B e la sfera
P.
L'espansione di A comporta soltanto un lieve incremento della pressione dell'aria entro P. Il
coefficiente di dilatazione di P è inferiore a quello di B, di conseguenza il liquido spostato dalla
sfera diventa più leggero e diminuisce la spinta.

Per esempio, in seguito al riscaldamento, una sfera di 4 000 mm3 diventi 4 000,1 mm3 e 4 000 mm3
di liquido, che fornivano la precedente spinta, si portino a 4 004 mm3. Quindi si devono scartare 3,9

16
mm3 di liquido per avere la spinta attuale, che pertanto decresce; allora predomina il peso rispetto
alla spinta e la sfera affonda.

Per converso, riducendo la temperatura, la spinta aumenta e la sfera si sposta verso l'alto,
emergendo lievemente dalla superficie del liquido.
Alla sfera P viene incollata un'etichetta, recante il valore della temperatura t, in modo che
dall'equilibrio di P si possa stabilire la temperatura di B e dell'ambiente.
A questo punto basta munirsi di sfere, uguali in volume e di peso crescente, che per stare in
equilibrio necessitano di una spinta altrettanto crescente, derivante da una temperatura decrescente;
ad ogni sfera viene associata la targhetta che indica la temperatura per l'equilibrio in B.

Un modo comodo per le misurazioni consiste nell'incolonnare, in un cilindro di adeguata larghezza,


le sfere con le temperature decrescenti verso il basso.
Il termometro funziona in un dato intervallo di temperatura I=[t1, t2]. Per t < t1, il liquido B è
abbastanza denso e tutte le sfere sono situate in alto. Quando t supera t1 (in I) si attenua la spinta,
alcune sfere affondano e la temperatura è fornita dall'etichetta della sfera inferiore in equilibrio
indifferente. Per t > t2, la portata del dispositivo viene oltrepassata e tutte le sfere affondano.
Questo strumento ha un valore puramente storico, estetico e didattico perché indica soltanto i valori
discreti scritti sulle etichette e richiede un tempo congruo per ricondurre la temperatura del liquido
B a quella dell'ambiente.

Pasquale Catone ITIS - Liceo scientifico Giordani, Caserta,


Questo tipo di termometro è impropriamente detto di Galilei: se ne ha traccia nelle memorie
dell'Accadema del Cimento, redatte da Lorenzo Magalotti; chiamato "termometro a bolle vitree", è
detto anche 'infingardo' o 'pigro', per la sua lenta 'risposta' al mutamento delle condizioni di
temperatura.

Il suo funzionamento si basa sul principio di Archimede, per cui il bilancio dinamico fra forza di
gravità e spinta di Archimede fa sì che un corpo galleggi o affondi in un mezzo fluido a seconda che
la sua densità sia minore o maggiore di quella del mezzo fluido.
La densità del liquido (alcool per esempio) contenuto nel termometro varia con la temperatura.
Aumentando la temperatura il liquido si rarefà e viene ad avere una densità minore di quella
precedente e via via di quella delle varie sferette di cristallo immerse, che così affondano.
Le sferette sono costruite in maniera tale da differire leggermente di massa e quindi, a parità di
volume, di densità: affonda prima quella di massa maggiore e quindi di densità maggiore, e tale
andare a fondo corrisponde ad una certa temperatura che fa sì che la densità del liquido diventi
minore di quella di tale sferetta. Ad ogni sferetta viene quindi attaccata un'etichetta che misura
proprio l'instaurarsi di quella temperatura che determina questa condizione di affondamento.

Si può trovare un'animazione e una spiegazione sul sito ppp.unipv.it, passando poi al 'patrimonio
culturale', 'museo, 'sezione di fisica', 'gabinetto di fisica di Volta', 'termometro a bolle vitree', in
quanto questo strumento era presente anche nella collezione di Volta a Pavia.

Enrico Antonio Giannetto Dipartimento di Scienze della Formazione e della


Comunicazione, Università di Bergamo

17
Antidarwinisti e creazionisti
Vorrei chiedere qualcosa sugli antidarwinisti e sui creazionisti. Quanti sono
in Italia e nel mondo gli scienziati che ancora negano che l'uomo derivi dalla
scimmia? E poi, gli antidarwinisti sono tutti creazionisti religiosi? Tutti i
creazionisti credono che l'uomo esiste da appena seimila anni?
Claudio Rodella
8 ottobre 2003
Innanzi tutto occorre distinguere tra antidarwinisti e creazionisti. I creazionisti sono coloro che
ritengono che il mondo e le specie viventi siano stati creati da entità soprannaturali e non abbiano
subito sostanziali modifiche in seguito; in particolare, i creazionisti di tradizione giudaico-cristiana
attribuiscono valore letterale al racconto biblico della Genesi, secondo cui il mondo e le specie
viventi sarebbero stati creati da Dio così come sono, in sei giorni, circa seimila anni fa. Gli
antidarwinisti sono invece tutti coloro che, per motivi vari, criticano la teoria dellíevoluzione così
come è stata formulata da Charles Darwin. Quindi i creazionisti sono sicuramente antidarwinisti,
ma non tutti gli antidarwinisti sono creazionisti.

Il movimento creazionista, piuttosto che estinguersi in modo naturale, di fronte all'avanzata delle
evidenze scientifiche a favore di una visione evoluzionistica, sta conoscendo una stagione di
inaspettata riscossa: particolarmente diffuso negli Stati Uniti, da qualche tempo sta dando segnali di
ripresa anche in Europa e in Italia.

Questo costringe scienziati ed educatori a resistenze ardue, e in qualche caso anche a battaglie
legali. Una prima data simbolica di questa sfida è quella del 1925, quando J.T. Scopes, un
insegnante del Tennessee, fu processato per aver incluso nel suo corso accenni alla teoria
dell'evoluzione di Darwin, violando una legge locale. Per molti decenni, in diversi stati USA
continuò a valere tale divieto; o almeno, l'obbligo di accompagnare lezioni e testi dedicati
all'evoluzionismo con note che ricordassero come questo fosse "solo una teoria", e non una
descrizione di fatti reali. In seguito, quando la pretesa di proibire l'insegnamento dell'evoluzione si
era fatta insostenibile, la crociata creazionista ha ripiegato sulle rivendicazioni della libertà di
opinione e delle pari opportunità, richiedendo che nei libri e nei programmi scolastici venisse dato
uguale spazio alle due versioni. Anche questa tattica è uscita perdente da una lunga guerra legale,
nel 1987, quando la Corte Suprema Federale sancì che non esisteva ragione di concedere pari
dignità scientifica alle due visioni, una fondata sulla ricerca di prove concrete, e l'altra su un
semplice dogma, del tutto privo di testimonianze a sostegno.

A seguito di questa sconfitta, i creazionisti hanno tentato di dare vesti scientifiche alla loro
credenza, sostituendo il vecchio dogma creazionista con la cosiddetta scienza della creazione, che
porterebbe testimonianze oggettive a sostegno della verità biblica. Università e centri di ricerca
privati fondati allo scopo, e intellettuali inclini al presenzialismo televisivo, si sforzano di
convincere il pubblico che il creazionismo sia una scienza. A tal fine, argomentano facendo ampio
uso di deduzioni indebite, salti logici ingiustificati, mal dissimulato principio di autorità e
ragionamenti circolari; cadono spesso nell'attacco personale contro l'avversario (chi contesta gli
insegnamenti religiosi sarebbe un sostenitore del disordine sociale e dell'immoralità), o
nell'equivoco tra fatti e loro interpretazioni etiche (se discendiamo dagli animali, qualcuno potrebbe
usare questo argomento per giustificare violenza e crudeltà, quindi è meglio credere che non sia
vero).

18
Esistono creazionisti volenterosi e in buona fede che si impegnano a fondo per trovare elementi
scientifici a proprio vantaggio: ma questa ricerca, il più delle volte, si limita al tentativo di smontare
singoli dettagli dell'evoluzione, o a manipolarli perché si adattino al quadro creazionista, piuttosto
che a fornire prove in positivo delle proprie affermazioni. Per quale motivo, se anche si riuscisse a
provare che l'evoluzione darwiniana è completamente sbagliata, questo dovrebbe bastare a
dimostrare che ha ragione la narrazione biblica? Nessun ragionamento logico, ma solo l'ennesima
convinzione dogmatica, implica che esistano queste due sole possibilità. L'ultimo appiglio, quando
tutto il resto fallisce, è quello di invocare nuovamente la parità di diritti, appellandosi non più
all'idea che "anche il creazionismo sia una teoria scientifica", ma a quella, contrapposta, che anche
le visioni scientifiche siano dogmatiche e che "anche l'evoluzionismo sia una religione".

Il creazionismo, secondo i suoi critici, non è soltanto un attacco alla biologia evoluzionistica, ma un
attacco a tutte le scienze, e al metodo scientifico nel suo complesso. Se i creazionisti avessero
ragione, sarebbero errate gran parte delle acquisizioni della cosmologia, dell'astrofisica, della
biochimica, della geologia, e di tutte le scienze naturali, discipline che invece hanno dato prova, in
misura enorme, di convergere a conclusioni credibili e compatibili tra loro. Si può ricordare inoltre
come l'offensiva creazionista rientri in una più generale tendenza alla mobilitazione pubblica di tutti
gli ambienti estremisti religiosi, fortemente conservatori, che da qualche decennio ha un impatto
non trascurabile sulla politica degli Stati Uniti.

Questa battaglia ha offerto molte opportunità ai difensori del pensiero scientifico, per definire
pubblicamente e in modo efficace cosa sia una scienza. In occasione del dibattito alla Corte
Suprema, numerosi scienziati di fama internazionale, tra i quali il paleontologo Stephen J. Gould e
il premio Nobel per la fisica Murray Gell-Mann, sostennero la causa anti-creazionista
sottoscrivendo un appello, divenuto celebre come manifesto generale della razionalità e della
scienza in una società democratica.

Fortunatamente in Italia le correnti di pensiero antidarwiniste sono finora piuttosto limitate. La


Chiesa cattolica, che ha sicuramente un peso considerevole nella cultura italiana, ha da tempo
assunto una posizione aperta nei confronti dell'evoluzionismo, anche se la seguente citazione ripresa
dall'enciclica Fides et ratio di Giovanni Paolo II suona un po' ambigua:

Successivamente, il Papa Pio XII fece sentire la sua voce quando, nella Lettera enciclica Humani
generis, mise in guardia contro interpretazioni erronee, collegate con le tesi dell'evoluzionismo,
dell'esistenzialismo e dello storicismo. Egli precisava che queste tesi erano state elaborate e
venivano proposte non da teologi, avendo la loro origine "fuori dall'ovile di Cristo"; (68)
aggiungeva, comunque, che tali deviazioni non erano semplicemente da rigettare, ma da esaminare
criticamente: "Ora queste tendenze, che più o meno deviano dalla retta strada, non possono essere
ignorate o trascurate dai filosofi o dai teologi cattolici, che hanno il grave compito di difendere la
verità divina ed umana e di farla penetrare nelle menti degli uomini. Anzi, essi devono conoscere
bene queste opinioni, sia perché le malattie non si possono curare se prima non sono ben
conosciute, sia perché qualche volta nelle stesse false affermazioni si nasconde un po' di verità, sia,
infine, perché gli stessi errori spingono la mente nostra a investigare e a scrutare con più diligenza
alcune verità sia filosofiche sia teologiche".

Come dire: occorre conoscere l'evoluzionismo per poter meglio difendere la verità divina.

Al di là di questo, tuttavia, le correnti cattoliche dichiaratamente antidarwiniste sono sicuramente


minoritarie. Nel nostro paese, le obiezioni di matrice religiosa alla visione evoluzionistica
provengono in gran parte da ambienti protestanti, da quello dei Testimoni di Geova, o da movimenti
religiosi minoritari di origini molto recenti. Altre obiezioni di matrice filosofica giungono dagli
ambienti esoterici (tradizionalmente contrari allíevoluzione biologica, perché sostenitori di una
19
visione alternativa di ìevoluzione spiritualeî) e da quelli del cosiddetto pensiero
controrivoluzionario, che include líevoluzionismo (insieme al liberalismo laico, al marxismo e alla
psicanalisi) tra le numerose ideologie mirate a despiritualizzare il mondo e a sovvertirne i valori:
per entrambi, si tratta di punti di vista in polemica generale contro il materialismo, ma non volti a
sostenere il creazionismo biblico. In ogni caso, raramente i sostenitori di queste opinioni aspirano a
presentarle come scientifiche: piuttosto, affermano di non riconoscere priorità al metodo scientifico,
e di non essere interessati a rientrarvi.

In campo accademico il darwinismo è largamente accettato. Le uniche eccezioni di rilievo sono


rappresentate dal professore Giuseppe Sermonti e del professore Antonino Zichichi.

Nato a Roma nel 1925, laureato in agraria e biologia, Sermonti ha insegnato all'Università di
Palermo e di Perugia. Ha compiuto ricerche nel campo della genetica e ha ricoperto importanti ruoli
in diverse istituzioni scientifiche. È autore di numerosi testi scientifici e saggi di riflessione critica
sulla scienza moderna. È inoltre autore di opere dedicate all'analisi naturalistica delle fiabe e di
alcune commedie da tavolo (recitate cioè da interpreti seduti attorno a un tavolo). La critica di
Sermonti al darwinismo inizia nel 1970 e arriva alle sue estreme conseguenze affermando che:

L'idea di uno sviluppo evolutivo graduale della nostra specie da creature come l'australopiteco,
attraverso il pitecantropo, il sinantropo e il neanderthaliano, deve essere considerata come
totalmente priva di fondamento e va respinta con decisione. L'uomo non è l'anello più recente di
una lunga catena evolutiva, ma, al contrario, rappresenta un taxon che esiste sostanzialmente
immutato almeno fin dagli albori dell'era Quaternaria [...] Sul piano morfologico e anatomo-
comparativo, il più "primitivo" — o meno evoluto — fra tutti gli ominidi risulta essere proprio
l'Uomo di tipo moderno! [...] Sono senz'altro meno lontani dalla verità coloro che [...] sostengono
l'ipotesi opposta, e cioè che Australopiteci, Arcantropi e Paleoantropi siano tutte forme derivate
dall'Uomo di tipo moderno!

Nel suo recente libroDimenticare Darwin (1999), Sermonti non risparmia critiche alle moderne
interpretazioni molecolari del darwinismo affermando che:

La rivoluzione molecolare è consistita proprio nella messa in disparte delle osservazioni


naturalistiche, nell'esplicito disinteresse per le forme.

Al contrario l'autore rivendica l'importanza di dedicarsi allo studio della "forma" a vari livelli e
dell'organismo nel suo complesso.

Anche sul piano epistemologico, Sermonti manifesta un chiaro atteggiamento antiscientifico, come
è chiaramente espresso dai seguenti brani:

Ricordo una sera, mi aggiravo tra i banchi dell'aula vuota e chiedevo a me stesso: "Perché insegno
Genetica? Perché insegno la Scienza? Insegno qualcosa a cui non credo, anzi insegno il contrario
di ciò a cui credo". La scienza non ci aiuta a conoscere la realtà, anzi si adopera ad insegnarci che
la realtà non conta, valgono solo alcuni principi astratti che l'uomo della strada non può
comprendere, non può vivere. La scienza non si rende neppure utile. Essa riversa i suoi prodotti
sulla società, crea necessità artificiali che coincidono con ciò che essa sa produrre.

[...] tutto l'impegno contenuto nella fondazione della Tecnica e della Scienza contemporanea è
consistito nel privare le opere umane di ogni significato, cioè di deritualizzarle. Il significato è
un'esigenza che limita l'efficienza, obbligando l'operatore a una quantità di adempimenti formali
che lo distraggono da perseguire direttamente e alla spiccia il punto di arrivo. I grandi progressi
realizzati dalla tecnica sono stati semplicemente il risultato dell'abolizione dalle operazioni umane
20
di ogni sacralità: ciò ha reso, come per incanto, le pratiche umane meravigliosamente efficienti, ha
consentito di porre ogni cosa in commercio, di sviluppare da ogni operazione un'industria. A un
solo prezzo, appunto: che tutto rinunciasse al suo significato. Ma la natura resiste alla
sconsacrazione.

Riguardo al metodo sperimentale, pilastro della scienza moderna, egli afferma:

Il metodo sperimentale equipara l'attività tecnica a quella conoscitiva, inaugurando così un


equivoco esiziale per la scienza.

Le citazioni eterodosse di Sermonti potrebbero continuare, ma appare oramai chiaro che le sue idee
ben poco hanno a che fare con il rigore e l'obiettività che sono richieste alle teorie scientifiche. Le
sue appaiono speculazioni di un individuo che, insoddisfatto degli inevitabili limiti che la scienza
impone, cerca di superarli dando libero sfogo alle proprie opinioni personali e alla propria
individuale visione del mondo.

Antonino Zichichi, nato a Trapani nel 1929, è professore ordinario di fisica superiore all'università
di Bologna. Ha ricoperto importanti ruoli in istituzioni scientifiche e ha fondato il centro di cultura
scientifica Ettore Majorana a Erice, che dirige, dal 1963. Ha pubblicato diversi libri di divulgazione
e non perde occasione per dichiarare e difendere la sua incrollabile fede cattolica. Nel suo libro
Perché io credo in Colui che ha fatto il mondo (1999), egli scrive:

La cultura dominante ha posto il tema dellíevoluzione biologica della specie umana sul piedistallo
di una grande verità scientifica in contrasto totale con la Fede.[...] Arrivati all'Homo sapiens
neaderthalensis (centomila anni fa circa) con un cervello di volume superiore al nostro, la Teoria
dell'Evoluzione Biologica della specie umana ci dice che, quarantamila anni fa circa, líHomo
sapiens neaderthalensis si estingue in modo inspiegabile. E compare infine, in modo altrettanto
inspiegabile, ventimila anni fa circa, l'Homo sapiens sapiens. Cioè noi. Una teoria con anelli
mancanti, sviluppi miracolosi, inspiegabili estinzioni, improvvise scomparse non è Scienza
galileana.[...] Come può uníapplicazione, ancora tanto imperfetta e lacunosa,
dellíelettromagnetismo —qual è la teoria dell'evoluzione umana — pretendere di negare l'esistenza
di Dio? Eppure l'uomo della strada è convinto che Charles R. Darwin abbia dimostrato la nostra
diretta discendenza dalle scimmie: per la cultura dominante non credere alla teoria evoluzionistica
della specie umana è atto di grave oscurantismo, paragonabile a ostinarsi nel credere che sia il
Sole a girare intorno, con la Terra ferma al centro del mondo. È vero l'esatto contrario. Gli
oscurantisti sono coloro che pretendono di fare assurgere al rango di verità scientifica una teoria
priva di una pur elementare struttura matematica e senza alcuna prova sperimentale di stampo
galileano. [...] Sappiamo con certezza che l'evoluzione biologica della specie umana è ferma da
almeno diecimila anni (dall'alba della civiltà) [...] momento dal quale siamo in grado di studiare
con certezza le proprietà di questa forma di materia vivente detta uomo. Durante diecimila anni
questa forma di materia vivente è rimasta esattamente identica a se stessa. Evoluzione biologica:
zero.

Con tutto ciò Zichichi dimostra di avere un concetto di "scienza galileiana"molto personale e di
ignorare buona parte delle prove che conferiscono valore alla teoria evoluzionistica.

Uscendo dal mondo accademico, si scopre che in Italia esiste un Centro Studi Creazionismo. Si
tratta di un'associazione di chiara matrice cristiana evangelica, che tra i suoi scopi dichiarati si
propone di:

1. Far conoscere in generale cosa insegna la Bibbia riguardo alla creazione del mondo.

21
2. Divulgare gli studi che sono stati fatti e si fanno in Italia e allíestero sul tema del
creazionismo, cioè in alternativa allíevoluzionismo e comunque alle idee che negano líidea
di un Dio creatore.
3. Dialogare con tutti i mezzi a disposizione, con i creazionisti, gli evoluzionisti e in generale
con tutti coloro che sono desiderosi di conoscere il messaggio biblico riguardante le
tematiche dellíesistenza umana.
4. Formare nellíopinione pubblica interessata, la coscienza che líevoluzionismo è solo
uníipotesi e che è necessario conoscere il messaggio biblico della creazione, più che mai
attuale.
5. Sponsorizzare studi, conferenze e congressi sul creazionismo.
6. Introdurre nelle scuole pubbliche e private il messaggio biblico creazionista e gli studi
scientifici effettuati in questa direzione.
7. Creare una biblioteca dove raccogliere tutti i libri e le riviste italiane ed estere necessarie per
divulgare il messaggio creazionista.

Il centro pubblica una rivista, "Eco creazionista", che riporta articoli e recensioni di stampo
teologico e antievoluzionista. Contrariamente ai creazionisti di altri paesi, quelli italiani appaiono
per fortuna meno agguerriti e, almeno programmaticamente, più disponibili al dialogo. Nella pagina
web che illustra la natura del Centro Studi Creazionismo si legge infatti:

Il Centro Studi Creazionismo (CSC) è un movimento di opinione che, nel rispetto della cultura
moderna e della scienza, si prefigge di dialogare con tutti sul rapporto fra scienza e fede, fra
messaggio biblico e sapere umano. In particolare, senza un atteggiamento di chiusura, si vuole far
presente che le teorie evoluzioniste non possono essere considerate un fatto scientifico indiscusso e
senza alternativa. Nella scuola e società italiana, per esempio, non dovrebbe essere ignorata la
critica all'evoluzionismo e neppure il senso della proposta creazionista. Noi siamo convinti che il
racconto biblico sulla creazione e le leggi della natura non siano in contrasto ma, al contrario,
risultino convergenti. In sostanza si vuole dare, anche in Italia, una informazione più equilibrata,
affinché i giovani e le persone più attente possano fare la loro scelta fra la visione del mondo
evoluzionista e quella basata sulla Bibbia. Per la parola di Dio, la materia e la vita non sono frutto
del caso, ma del disegno e dell'opera di un Programmatore Eccelso.

Nota: buona parte del contenuto di questa risposta è tratta dalla voce Creazionismo, di Lisa
Maccari, dell' Enciclopediaon-line del CICAP e dall'articolo Antidarwinismin Italy, di Silvano Fuso
in: AA.VV. Darwin Day Collection One. The Single Best Idea, Ever, Tangled Bank Press,
Albuquerque 2002.

Per ulteriori approfondimenti vedere:

P. Greco, Creazionisti contro Darwin, Scienza & Paranormale n. 32, luglio/agosto 2000;

Stephen J. Gould, Quando i cavalli avevano le dita, Feltrinelli, 1991, cap. 19, 20, 21;

Edward J. Larson, Summer for the Gods - the Scopes Trial and America's Continuing Debate over
Science and Religion, Harvard University Press, 1997;

Michael Shermer, Why People Believe Weird Things, Freeman & Co., 1997;

Robert T. Pennock, Tower of Babel - the Evidence agaist New Creationism, MIT Press, 1999;

Infine, Il più vasto e documentato sito critico sul creazionismo è: http:// www.talkorigins.org.

22
Silvano Fuso Istituto Tecnico Commerciale e Industriale "Primo Levi"

Antigravità
Esistono studi teorici e sperimentali seri sull'antigravità ottenibile in
esperimenti di laboratorio?
Lorenzo Iorio
2 aprile 2003

Contrariamente al campo elettrico, quello gravitazionale è sempre attrattivo.

Ciò è dovuto al fatto che la "carica" gravitazionale di un corpo, cioè la sua energia totale, è sempre
positiva e pertanto non è possibile invertire l'azione del suo campo. A dispetto di ciò, alcune
soluzioni delle equazioni di Einstein prevedono un comportamento dei corpi di prova nello
spaziotempo da esse descritto, compatibile con un'azione del campo gravitazionale di tipo
repulsivo. L'esempio più noto di ciò si ha nella soluzione di Kerr senza orizzonte degli eventi.
Nell'ipotesi che tale soluzione decriva un corpo compatto ruotante, si trova che una particella di
prova che si avvicini alla sorgente del campo lungo l'asse di rotazione e quindi lungo una traiettoria
spazialmente rettilinea, a un certo punto rallenti fino ad arrestarsi per rimbalzare lungo l'asse come
una palla di gomma. Tale comportamento è solo spiegabile se il campo sentito dalla particella
diviene repulsivo.

Occorre notare che, essendo la sorgente del campo un corpo in rotazione, tale effetto non è
attribuibile a un campo centrifugo perché, come detto, la repulsione avviene con intensità massima
lungo l'asse di simmetria dove non si risente il campo centrifugo, mentre nella data soluzione il
campo si mantiene sempre attrattivo nel piano equatoriale dove invece l'effetto centrifugo è
massimo! Questo comportamento è detto paradosso rotazionale.

Il concetto alla base dell'interpretazione di questo fenomeno, data dallo scrivente, è quello
tipicamente relativistico; cioè, che qualunque campo di energia genera un campo gravitazionale e
ciò è vero anche per il campo gravitazionale medesimo, il quale genera un campo gravitazionale del
second'ordine. Quest'ultimo a sua volta genera un nuovo campo gravitazionale di ordine successivo
e così via in una serie che converge.

Una particella nel campo gravitazionale di una sorgente non solo è attratta dal campo di
quest'ultima ma anche dal campo di ordine superiore, generato dal campo gravitazionale stesso.
Quando quest'ultimo è sufficientemente intenso esso può soverchiare quello primario e quindi agire
sulla particella in modo antagonista creando la condizione di un comportamento repulsivo.

Dato che questo effetto è legato alla non linearità delle equazioni di Einstein, si deduce in modo
naturale che esso si manifesta solo in condizioni di campo forte e in presenza di particolari
simmetrie, anche se tale requisito non è del tutto chiarito.

Quest'ultima considerazione permette di rispondere alla domanda del lettore.

Non vi sono né ci si aspetta che vi siano effetti repulsivi della gravitazione "classica" a livello di
laboratorio dato che l'intensità dei campi gravitazionali in gioco e quindi l'energia in essi
immagazzinata è troppo bassa per produrre effetti misurabili. Un'interpretazione del paradosso
23
rotazionale (in cui il carattere sempre attrattivo della gravitazione viene comunque preservato), è
stata data dallo scrivente in una serie di lavori:

 F. de Felice, in "Astronom. & Astrophys.", 45 (1975), p.65-68


 J. M. Cohen and F. de Felice, in "J. Math. Phys.", 25 (1984), p.992-994
 F. de Felice, in "Annales de Physique", suppl. Vol. 14 (1989), p.79-83
 F. de Felice, In "Renaissance of General Relativity and Cosmology", a cura di Ellis, Lanza e
Miller, Cambridge University Press (1993), p. 100-109

Fernando De Felice Dipartimento di Fisica, Università di Padova

Gli origami
Quali sono le relazioni tra l'arte degli origami e la matematica? Esistono dei
programmi al computer che simulano l'arte degli origami? Se sì, quali sono le
loro applicazioni pratiche?
Emilia Serena
27 gennaio 2003
L'Origami è l'antica arte giapponese del piegare la carta. In tutto il mondo vi sono migliaia di
appassionati che vi si dedicano per diletto, impiegando doti di ingegno che non sono lontane dalla
matematica. Ma piegare ingegnosamente una superficie piana può essere anche utile, per diminuirne
l'ingombro (carte geografiche, air-bags), per creare contenitori (tipo tetrapack) e figure
tridimensionali varie.

Per il piegamento (inglese: folding) sono stati costruiti modelli matematici, algoritmi e vario
software. Si pongono problemi teorici e applicativi: per esempio, è in costruzione un sistema
telescopico che richiede la messa in orbita di una gigantesca superficie riflettente di plastica: il
computer suggerisce come è meglio "impacchettarla" per alloggiarla in un vettore di dimensioni
ridotte e perché, una volta in orbita, si riapra senza incidenti.

Il piegamento della carta è inoltre un interessante strumento didattico per la geometria, perché le
"pieghe"producono simmetrie assiali (se in un foglio c'è una macchia d'inchiostro, piegando se ne
produce un'altra simmetrica). Opportune convenzioni sulle pieghe "realizzabili" possono sostituire
gli assiomi tradizionali di Euclide, e suggerire eleganti soluzioni di problemi classici (per esempio
dividere un angolo in tre parti eguali).

Sui rapporti tra Origami e matematica sono stati organizzati tre congressi internazionali: a Ferrara
(1989), in Giappone (Otsu, 1994 ) e in California (Asilomar, 2001). Gli atti di quest'ultimo
costituiscono un libro (ORIGAMI 3, Thomas Hull editor, A.K. Peters publisher, 2002) che raccoglie
molti contributi sia teorici che applicativi, nonché i riferimenti di una quarantina di autori.

Benedetto Scimemi Dipartimento di Matematica, Università di Padova

24
I decimali di un numero razionale
Un numero rappresentato da un allineamento non periodico di infiniti
decimali può essere un numero razionale? Se sì, esiste una legge che possa
ricondurci alla sua frazione?
Paolo Agostini
4 novembre 2003
La risposta al quesito è semplice ed è: "no", perché una frazione dà luogo a un decimale finito o
periodico.

Facciamo un esempio considerando il rapporto di 13/7: il primo numero (operando la divisione tra i
due numeri) è 1, con resto di 6; ora, come consuetudine, aggiungo uno zero al resto e divido 60 per
7. Posso ottenere un resto (in questo caso 4) e procedo dividendo 40 per 7. Ottengo un nuovo resto
(in un altro caso avrei potuto non ottenerlo ma nel nostro esempio si è verificata questa situazione).
Ma questo resto deve essere compreso fra 1 e 6. E quindi, dopo al massimo 6 passaggi, ritrovo un
resto uguale a uno precedente: ecco da dove nasce la periodicità.

Roberto Lucchetti Dipartimento di Matematica, Politecnico di Milano

I logaritmi
Mi spiegherebbe in maniera facile cosa sono i logaritmi? Come si calcolano e
il loro utilizzo?
Soraya Costa
21 ottobre 2003
Per quanto possa apparire come qualcosa di estremamente complesso, in realtà il concetto di
logaritmo non lo è affatto, alla pari di molti altri concetti matematici, che forse fanno meno
spavento perché più usati nella quotidianità dei calcoli, come la radice quadrata o l'elevamento a
una qualsiasi potenza.

Cerchiamo allora di spiegare il concetto di logaritmo per gradi. Prendiamo per esempio due numeri
che chiamiamo genericamente con le lettere a e b (entrambi positivi). Supponiamo di voler
esprimere b in funzione di una potenza di a, ovvero, cerchiamo un terzo numero, che indichiamo
con c, tale che:

b = ac

Facciamo un esempio numerico: poiché 1000 è uguale a 103, se a è proprio il numero 10 e b è pari a
1000, allora il numero c che sto cercando, è ovviamente 3; cioè l'esponente a cui devo elevare 10
per ottenere 1000.

Se a è uguale a 1, dal momento che vale 1c = 1 per qualunque esponente c, l'unica possibilità è che
anche b sia uguale a 1.

Se invece a non è uguale a 1 (con a > 0, come detto prima), è sempre possibile trovare quel valore c
tale che b = ac (ricordiamo che anche b > 0).
25
Allora, il numero c viene detto logaritmo di b in base a, e si scrive:

c = loga b

Per esempio: 3 = log10 1000; 4 = log2 16 ; 0 = log21.

I valori per la base più comunemente utilizzati sono 10 ed e, dove la lettera e indica un preciso
numero, chiamato numero di Nepero (vedere: http://ulisse.sissa.it/numeri.jsp#Nepero), che è un
numero compreso fra 2,7 e 2,8; ma come il numero π ha infiniti decimali dopo la virgola. In
quest'ultimo caso il logaritmo viene detto naturale o neperiano.

In questo contesto si è brevemente accennato solo al concetto di logaritmo; per le sue svariate
proprietà e per il suo calcolo esplicito mediante delle tavole (per quanto al giorno d'oggi è possibile
calcolare un logaritmo, approssimativamente, con una semplice calcolatrice) si rinvia ai testi di
matematica delle scuole medie inferiori e superiori.

Ovviamente l'uso dei logaritmi è ampio. Compare in svariate espressioni di grandezze e leggi
fisiche o chimiche, e permette di descrivere in forma matematica l'evoluzione di molti fenomeni
naturali. Per esempio in chimica, il grado di acidità di una soluzione acquosa, il cosiddetto pH, si
esprime mediante dei logaritmi. Esso è dato appunto dal valore del logaritmo naturale (cambiato di
segno) del "contenuto" di ioni di idrogeno presenti nella soluzione.

Debora Amadori Dipartimento di Matematica Pura e Applicata, Università degli Studi


dell'Aquila

Archeologia e scienza
L'archeologia è una scienza?
Flavio Airundo
1 settembre 2003

L'archeologia, come pratica di ricerca che si serve di strumenti tecnici come foto aeree, rilevamento
del carbonio 14, conoscenze urbanistiche, architettoniche, fisiche e biologiche è certamente una
scienza anzi una scienza di grande fascino. Tuttavia è scienza in quanto usa queste tecniche non
tanto perché il suo statuto epistemologico la definisca tale.

L'archeologia è infatti legata alla storia in un modo molto più diretto rispetto ad altre discipline. In
quanto disciplina storica risente del clima proprio della storia, la sua capacità di interpretazione, la
non definitività e non necessità dei suoi giudizi, la possibile controvertibilità dei suoi quadri
concettuali.

Il dato empirico, il reperto archeologico, infatti non è mai esaustivo di per sé: ha bisogno di un
quadro concettuale — una interpretazione — più vasto che serva a spiegarlo, a comprenderlo.

Questo non toglie fascino alla ricerca archeologica anzi accresce la sua potenzialità di ricerca.
L'archeologo dispone di metodologie, ma spesso il suo "fiuto" è più importante di qualsiasi direttiva
di metodo. Questo quadro concettuale spiega perché la disciplina archeologica è collocata in Italia
presso le discipline storiche e nel settore disciplinare L-ANT che comprende:

26
 L-ANT/01 PREISTORIA E PROTOSTORIA
 L-ANT/02 STORIA GRECA
 L-ANT/03 STORIA ROMANA
 L-ANT/04 NUMISMATICA
 L-ANT/05 PAPIROLOGIA
 L-ANT/06 ETRUSCOLOGIA E ANTICHITA' ITALICHE
 L-ANT/07 ARCHEOLOGIA CLASSICA
 L-ANT/08 ARCHEOLOGIA CRISTIANA E MEDIEVALE
 L-ANT/09 TOPOGRAFIA ANTICA
 L-ANT/10 METODOLOGIE DELLA RICERCA ARCHEOLOGICA

Si potrebbe sostenere anche che il quadro delineato, cioè che il dato empirico dell'archeologia va
inquadrato in un più vasto quadro concettuale interpretativo, che non è necessario, ma rivedibile e
addirittura controvertibile, è la caratteristica comune di ogni scienza. È anche vero tuttavia che in
genere la scienza non segue la storia, anche se sempre più importante diventa il ruolo della storia
della scienza, per comprendere la scienza.

In altri termini la scienza non procede con metodi che seguono la storia. Una scienza ha sempre dei
criteri "interni" di valutazione dei dati che non dipendono dai programmi di ricerca, dalla comunità
dei ricercatori, dai successi temporanei o come un vezzo contemporaneo insegna dal "paradigma" in
uso in un particolare momento della storia. Invece l'archeologia segue criteri esterni, storici.

Perché ricercare dati archeologici dell'Egitto rispetto a quelli degli antichi sciti? Certamente perché
a questa tendenza ci indirizza la storia. Questo non succede in genere nella scienza. Il ricercatore
non è mosso che dalla sua personale curiosità. L'entomologo studia per esempio la formica senza
sapere che forse in questa ricerca troverà connessioni con la cibernetica e l'informatica.

Ma lo statuto epistemologico di queste scienze non influenzano l'entomologia, a meno che


l'omologia di fondo delle due discipline sia così perfetta da imporre il confronto. Invece lo statuto
epistemologico dell'archeologia dipende massivamente dalla storia.

Alessandro Di Caro Dipartimento di Scienze della Comunicazione, Università di Urbino

Assorbimento, emissione di energia ed equilibrio termico


Un corpo immesso in un ambiente chiuso a temperatura T maggiore della
temperatura del corpo riceve una certa quantità di energia radiante (lasciamo
da parte per il momento la conduzione e la convezione) che ne eleva la
temperatura.

Il corpo (come tutti i corpi), oltre a essere un assorbitore è anche un


emettitore, emette energia radiante in quantità sempre più alta man mano
che la sua temperatura aumenta, fin quando la quantità di energia emessa
eguaglia quella assorbita e questo avviene quando la temperatura del corpo
ha raggiunto la temperatura dell'ambiente.

27
Allora, se supponiamo che in una stanza a temperatura T si introducono 2
termometri A e B ricoperti in questo modo: A (con tessuto nero) e B (con
tessuto bianco), vorrei sapere se il termometro ricoperto di nero arriva a una
temperatura uguale a quella dell'ambiente e se questo si verifica anche per
quello coperto di bianco. Il termometro nero arriva a una temperatura
ambiente in un tempo più breve di quello coperto di bianco?

Due persone vestite di nero e di bianco (esposti al sole) sono assimilabili ai due
termometri dell'esempio oppure intervengono ulteriori fattori che rendono
completamente diversa la situazione?
Maurizio Melchiorre
5 maggio 2003

Immagino che l'estensore della domanda intenda che la stanza sia isolata, per esempio composta da
un contenitore avente pareti rigide e adiabatiche, che contenga un secondo contenitore, per esempio
metallico, inizialmente riscaldato a temperatura Tp, all'interno del quale si sia prodotto un vuoto
spinto, in modo da poter trascurare la conduzione e la convezione in aria. Allora se all'interno del
secondo contenitore vengono posti i due termometri, inizialmente alla temperatura Tt, che quindi
possono scambiare energia tra loro e con le pareti solo per irraggiamento, il secondo principio ci
garantisce che possono avvenire solo quei processi che procedono verso l'equilibrio che si avrà a
una temperatura intermedia tra Tp e Tt.

Poiché il termometro foderato di bianco assorbirà una frazione dell'energia incidente minore di
quella assorbita dal termometro foderato di nero, la sua temperatura varierà più lentamente.

La seconda domanda ha poco a che vedere con líintroduzione precedente, infatti il caso proposto
assomiglia alla situazione Sole-Terra, in cui il Sole irraggia proporzionalmente alla quarta potenza
della sua temperatura assoluta, e due oggetti (supposti eguali ma uno bianco e uno nero) ricevono
una quantità di energia proporzionale all'area esposta (eguale per ambedue) ed emettono
proporzionalmente alla quarta potenza della loro temperatura assoluta. Si equilibrano a quella
temperatura, per cui emettono verso lo spazio tutta l'energia assorbita. Poiché l'oggetto bianco dovrà
emettere con potenza inferiore, anche la sua temperatura finale sarà inferiore rispetto a quella
dell'oggetto nero.

Il fatto che invece di oggetti inanimati, si tratti di persone, cioè animali a sangue caldo, complica il
problema, a causa del fenomeno dell'omeostasi; cioè del fenomeno per cui un animale a sangue
caldo riesce, mettendo in atto tutta una serie di meccanismi, a mantenere costante la propria
temperatura (per esempio mediante la sudorazione quando la temperatura esterna é maggiore della
sua temperatura o mediante la combustione di grassi quando la temperatura esterna é inferiore alla
propria).

Perciò, in questo caso, la parte interna dei vestiti (supposti aderenti) si troverà a una temperatura
vicina ai 37°C mentre la parte esterna di quello nero si stabilizzerà a una temperatura superiore a
quella del vestito bianco.

Perciò la persona col vestito nero riceverà un flusso di energia entrante superiore a quello ricevuto
da quella vestita di bianco e faticherà di più per mantenere costante la propria temperatura, il che,
nel linguaggio comune, si esprime dicendo che sente più caldo.

28
Giulio Calvelli Dipartimento di Fisica "Galileo Galilei", Università di Padova

L'influenza delle piante sul clima


Mi piacerebbe sapere perché le piante contribuiscono a rendere il clima più
fresco (ce ne accorgiamo passeggiando in un bosco), e in generale, quali sono
le loro influenze sul clima?
Alessandra Corso
28 novembre 2003
Gli effetti della vegetazione sulle condizioni meteorologiche presenti nelle immediate vicinanze
delle piante sono molteplici e dipendono dal tipo di vegetazione.
Se consideriamo intervalli di tempo molto brevi, da alcuni minuti fino ad alcune ore, l'azione dei
vegetali sull'aria circostante è sostanzialmente legata agli effetti prodotti dall'assorbimento della
radiazione solare e alla riduzione della circolazione dell'aria.
Prendendo come riferimento l'esempio portato nella domanda e riguardante l'aria fresca presente in
un bosco, rispetto a un'area esposta al sole, gli alberi del bosco impediscono alla radiazione solare
di raggiungere direttamente il terreno, quindi di riscaldare fortemente il suolo, che a sua volta
riscalda l'aria vicina, cioè quella in cui noi ci muoviamo e viviamo.
Evidentemente il confronto va fatto tra la temperatura misurata nel bosco e quella misurata in una
radura a esso adiacente, in quanto se poniamo a confronto le nostre sensazioni di caldo e fresco
sperimentate in aperta pianura e in un bosco montano, la differenza avvertita è sicuramente
amplificata dalla normale differenza di temperatura esistente alle diverse quote. Si tenga anche
presente che la sensazione di caldo e fresco è determinata non solo dalla temperatura dell'aria, ma
anche dall'umidità relativa in essa presente.
In questo esempio sono state considerate piante ad alto fusto. Lo stesso vale per una vegetazione più
bassa, come l'erba, ma in tal caso gli effetti sull'ambiente in cui noi uomini ci muoviamo sono meno
marcati, ma esistono.
Basti pensare alle diverse condizioni presenti durante una giornata di sole al di sopra di un campo di
calcio oppure a un parcheggio delle medesime dimensioni ma sterrato.
Anche la circolazione dell'aria è molto condizionata dalla vegetazione, in particolare le piante
tendono a ridurre il movimento dell'aria, quindi il suo rimescolamento.
Il rimescolamento dell'aria è un meccanismo estremamente importante per l'omogeneizzazione della
temperatura e dell'umidità, quindi per la distruzione di eventuali differenze preesistenti.
All'interno di particolari foreste, come quelle equatoriali, si hanno dei veri e propri microclimi che
sono garantiti dalla rigogliosa vegetazione. Tali microclimi non esisterebbero se anche
saltuariamente ci fossero dei rimescolamenti tra l'aria intrappolata nella foresta e quella che la
sovrasta.
Prendendo in considerazione tempi più lunghi, per esempio giornate, mesi, stagioni o perfino anni,
le piante possono contribuire alle caratteristiche meteorologiche di una zona anche per mezzo della
loro capacità di assorbire e immettere acqua nell'atmosfera. Ciò però non si manifesta sempre con
una sensazione di fresco, ma può dare luogo anche a sensazioni di caldo soffocante.
Anche l'assorbimento e l'immissione dei gas associati alla funzioni vitali delle piante probabilmente
giocano un ruolo importante sullo stato dell'atmosfera in periodi lunghi, cioè sul clima.
Ma questo non è sicuramente la causa principale della sensazione di fresco provata camminando
dentro un bosco.
Dario B. Giaiotti CRMA - Centro Regionale di Modellistica Ambientale - ARPA FVG

29
I numeri amicali
Quanti e quali sono i numeri amicali? Chi li ha approfonditi?
Rosamaria Schiavo
26 maggio 2003
Due interi positivi m,n si dicono amicali (in inglese amicable) se:
s(m) = s(n) = m + n
dove s(x) è la somma di tutti i divisori di x. Se definiamo la funzione f(x):
f(x) = somma dei divisori di x minori di x
equivalentemente
f(x) = s(x) - x
allora m,n sono amicali se e solo se
n = f(m) m = f(n)
La prima coppia di numeri amicali che si incontra è (220, 284). Infatti:
f(220) = 1 + 2 + 4 + 5 + 10 + 11 + 20 + 22 + 44 + 55 + 110 = 284 f(284) = 1 + 2
+ 4 + 71 + 142 = 220
Questa coppia era nota già a Pitagora, e forse prima. Il grande matematico arabo Al-Sabi Thabit ibn
Qurra al-Harrani (826-901) dimostrò il notevole teorema:
fissato n intero positivo, se i numeri: p = 3 2n-1 - 1 q = 3 2n - 1
r = 9 2 2n-1
- 1 sono tre primi dispari, allora la coppia (a,b) con a =
2npq e b = 2nr è una coppia di numeri amicali
Si tengano a mente due fatti:
1) dato un certo n si ottiene una coppia amicale solo se p, q, r sono tutti primi
2) non tutte le coppie amicali provengono da questo teorema; per esempio (1184, 1210) non si
trova.

Fermat nel 1636 annunciò di avere trovato la coppia (17296,18416), che però era sicuramente già
nota all'arabo Ibn al-Banna de Marrakech (1256-1321), e probabilmente anche al citato Thabit ibn
Qurra, poiché si ottiene dalla sua formula per n = 4.
Descartes trovò (9363584, 9437056), che si ottiene dalla solita formula per n=7.
Eulero pubblicò nel 1750 una lista comprendente 60 coppie di numeri amicali, ignorando
curiosamente la seconda in ordine di grandezza (1184, 1210), che venne poi scoperta da Paganini
nel 1866 all'età di 16 anni.
In ogni riga della tavola sottostante c'è, nella prima colonna, il numero di tutte le coppie amicali
esistenti al di sotto del limite indicato nella seconda colonna.

1 103
5 104
13 105
42 106
108 107
236 108
586 109
1427 1010
3340 1011
7642 1012

30
Si osserva — in questo insieme di dati — che passando da un ordine di grandezza a quello superiore
il numero delle coppie amicali è ogni volta più che raddoppiato. Per esempio ci sono 1427 coppie di
numeri amicali minori di 1010 e 3340 minori di 1011, con rapporto 3340/1427 maggiore di 2,34.
Un passo avanti decisivo nelle ricerche sulle coppie amicali è stato fatto da Mariano Garcia, in un
articolo (A million New Amicable Pairs) del 2001 pubblicato sul prestigioso Journal of Integer
Sequences.
L'articolo di Garcia contiene anche una interessante introduzione storica, nella quale vengono citati
i matematici che più si sono occupati dell'argomento. Tra questi Jan Pedersen mette a disposizione
sulla rete un elenco completo delle coppie amicali note.
Questo elenco contiene tutti i dati che gli sono stati inviati, ed è easustivo fino a 1014.
L'8 maggio 2003 l'elenco conteneva 5 053 129 coppie.
Si congettura che ci siano infinite coppie di numeri amicali, ma non è dimostrato.
È affascinante lo studio del sistema dinamico discreto costituito dall'insieme dei numeri naturali e
dalla funzione f definita all'inizio di questo articolo.
La dinamica è molto semplice: si parte da un valore iniziale x0 e si applica iterativamente la
funzione f, ottenendo la successione:
x0, x1 = f(x0), ..., xn = f(xn-1),..
Per esempio, se si parte con x0 = 190, si ottiene:
190, 170, 154, 134, 70, 74, 40, 50, 43, 1, 0
Si arriva a 0 in 10 passi. Si noti che f(1) = 0, e f(p) = 1 per ogni primo p, mentre f(0) non è definito;
l'iterazione si ferma se si arriva a 0.
Partendo da uno x0 qualsiasi, si possono prevedere tre diversi tipi di comportamento per il nostro
sistema dinamico. La successione degli xi può:
1) arrivare a 0, come quella che parte da 190 2) entrare in un ciclo
più o meno lungo, e ripetersi all'infinito 3) crescere al di là di ogni
limite finito
Nel caso 2) si distinguono tre sottocasi:
2.1) il ciclo ha lunghezza 1, ...a, a, a, ... 2.2) il ciclo ha
lunghezza 2, ...a, b, a, b, ... 2.3) il ciclo ha lunghezza maggiore di
2, ...a, b,.., z, a, b,..z,a,...
Il caso 2.1 occorre quando a = f(a); i numeri con questa proprietà sono i numeri perfetti.
Il caso 2.2 si ha se f(a) = b e f(b) = a: pertanto i cicli di lunghezza due sono esattamente le coppie di
numeri amicali che abbiamo studiato.
Il caso 2.3 è più complicato. Sono state fatte (ultimi dati febbraio 2003) ricerche sulle lunghezze dei
cicli da P. Moews, D. Moews e Jan Pedersen. Sono stati trovati 127 cicli, 120 di lunghezza 4, 1 di
lunghezza 5, 2 di lunghezza 6, 2 di lunghezza 8, 1 di lunghezza 9, e1 di lunghezza 28.
Catalan e Dikson congetturarono che il caso 3 non si presenti mai.
Oggi, in base ai dati sperimentali ea considerazioni euristiche, si pensa invece che gran parte delle
successioni che partono con un numero pari rientrino nel caso 3, cioè crescano senza limite.
Questo non è stato ancora dimostrato, però H.W. Lenstra ha provato che è possibile costruire
successioni crescenti monotone di lunghezza finita qualsiasi,applicando iterativamente la f a
opportuni valori iniziali.
Il numero più piccolo del quale non sappiamo ancora la sorte è 276: nessuno sa se partendo da 276
si arriverà a 0, si entrerà in un ciclo o si andrà sempre, sempre più in alto, senza fine...
Umberto Cerruti Dipartimento di Matematica, Università di Torino

Basi azotate e differenze genetiche


I geni presenti in un individuo sono presenti anche in un altro individuo?
Cioè, tra un uomo e un altro uomo c'è differenza di geni? Inoltre, la quantità
31
di adenina, timina, citosina e guanina è identica tra un uomo e un altro
uomo? Che significa che siamo geneticamente, per il 99,9%, uguali?
Giovanna Cambi
21 giugno 2003

Il DNA che costituisce il patrimonio genetico di ogni essere vivente è costituito dagli stessi quattro
elementi, le basi nucleotidiche, diversamente assortite per costituire i geni e le cosiddette sequenze
regolatorie (quelle che stabiliscono se un gene deve essere acceso o spento).

Inoltre, tutti gli organismi utilizzano il medesimo codice genetico: un assortimento di tre basi
nucleotidiche costituisce una parola nel linguaggio del DNA, la stessa in ogni essere vivente.
Esistono poi sinonimi: cioè triplette di basi diverse che hanno lo stesso significato.

Le triplette messe una in fila all'altra formano i geni, dei veri e propri libretti di istruzione per
costruire un altro tipo di molecole, le proteine.

Gli individui che appartengono a una stessa specie hanno in comune lo stesso quantitativo di DNA,
ma non solo, condividono anche lo stesso numero e tipo di geni, nonché di sequenze regolatorie.

All'interno del DNA esistono delle piccole differenze tra un individuo e un altro: geni uguali fra
individui diversi possono presentare al proprio interno delle parole, le triplette, diverse.

Talvolta questo ha una conseguenza pratica evidente, perché il gene non funziona o funziona
diversamente, altre volte, per esempio quando si è in presenza dei "sinonimi", queste differenze non
hanno alcun significato biologico, almeno per quel che si conosce finora. Per esempio, due soggetti
che differiscono per il colore degli occhi presentano sicuramente delle differenze genetiche al
livello dei geni che controllano questa caratteristica.

Avere gli occhi azzurri o scuri dipende dal fatto che il gene per la proteina che produce il pigmento
marrone sia funzionale. In pratica tutti abbiamo gli stessi geni, solo che questi possono presentarsi
in forme diverse che differiscono per pochi nucleotidi, che si riflettono in caratteristiche diverse tra i
soggetti.

Queste piccole variazioni, che compongono quello 0,1% di differenza genetica, stabiliscono
caratteristiche importanti, talora non evidenti come il colore degli occhi, come la predisposizione a
determinate malattie, per esempio le allergie e l'asma, che si manifestano solo se l'ambiente ne
favorisce l'insorgenza.

Quindi la differenza insita in quello 0,1% non è tanto dovuta a una differenza in contenuto di basi
nucleotidiche, che può anche non variare nel bilancio finale, ma alle singole variazioni all'interno
dei diversi geni che tutti abbiamo.

È come osservare un grande paese, e paragonare i geni alle case: tutti gli abitanti del paese hanno
una casa, che nella sostanza non varia, ma qualcuno l'ha costruita a due piani, qualcuna con il tetto
verde invece che rosso e qualcuno si è dimenticato di farci la porta, così non riesce a usarla.

Le forme diverse che un gene può assumere in individui diversi (o anche nello stesso individuo
poiché ciascuno di noi eredita due copie del gene, chiamati alleli, una dalla madre e una dal padre)
vengono definiti polimorfismi se sono presenti all'interno della popolazione con una percentuale
superiore al 5% e mutazioni per percentuali inferiori. Infine, esistono geni che non hanno

32
polimorfismi e altri che ne hanno tantissimi. Questo è anche il motivo per cui è possibile risalire da
piccole tracce biologiche che contengono il DNA, come un capello lasciato su una scena di un
delitto, al proprietario attraverso l'analisi dell'impronta genetica.

Questo è possibile grazie all'esistenza di sequenze all'interno del nostro genoma che cambiano
molto tra un individuo e l'altro.

Gli scienziati hanno individuato alcune di queste che ora vengono utilizzate per le indagini in
medicina e chimica forense.

Si tratta spesso di sequenze presenti al di fuori dei geni, nel cosiddetto DNA spazzatura, che in
genere è molto più variabile tra un individuo e l'altro rispetto a quello che costituisce i geni e la cui
funzione è ancora oggetto di indagine.

Marika De Acetis Mondadori Education - Responsabile Area Scientifica

Batteri e antibiotici
Vorrei qualche chiarimento sul meccanismo di restistenza dei batteri agli
antibiotici. So che l'antibiotico non fa altro che selezionare i microrganismi
già di per sè stessi resistenti, ma perché smettere la cura di antibiotici prima
del tempo può favorire la comparsa di batteri resistenti? E perché è più facile
evitare questo fenomeno se si interviene subito con dosi di antibiotico elevate?
Maria Rosa Alati
26 marzo 2003

I principali meccanismi di azione degli antibiotici sono:

 inibizione della sintesi della parete batterica (beta-lattamici, vancomicina, fosfomicina)


 inibizione di componenti del citoplasma (cloramfenicolo, tetracicline, macrolidi,
aminoglicosidi)
 danno a carico della membrana citoplasmatica (colistina, polimixina B e altri)
 alterazione della sintesi degli acidi nucleici (chinolonici, rifampicina e altri).

La conoscenza di questi meccanismi è importante soprattutto per poter sfruttare líazione combinata
(sinergica) di più farmaci.

Si parla di resistenza batterica quando i batteri riescono a moltiplicarsi anche in presenza della
concentrazione antibiotica che può essere raggiunta nei vari tessuti. I meccanismi di resistenza sono
molti: si va da resistenze naturali cromosomicamente mediate (non correlate a precedenti terapie
antibiotiche), a resistenze secondarie nelle quali una mutazione casuale rende resistente un ceppo
batterico che non si potrebbe replicare se non intervenisse una terapia antibiotica in grado di
eliminare le altre popolazioni batteriche più vaste e pertanto predominanti.

Il principale consiglio, mai abbastanza ribadito, è quello di evitare líuso di antibiotici per la
profilassi generale o nelle infezioni virali. Líuso indiscriminato di antibiotici accanto a norme
igieniche non sufficientemente scrupolose anche negli ospedali, contribuisce alla diffusione del

33
fenomeno della resistenza batterica agendo come meccanismo di selezione e diffusione
nellíambiente dei patogeni resistenti.

Il problema della durata e del dosaggio delle terapie antibiotiche si pone sempre in termini di
adeguatezza: la scelta dellíantibiotico deve essere mirata per tipo e sede di infezione (se possibile
con esami batteriologici e relativi antibiogrammi) e proseguita per tutto il tempo necessario a
eradicare líinfezione (in realtà una completa eradicazione dei batteri non avviene probabilmente
mai, ma si ottiene semplicemente un ridimensionamento della conta batterica a valori non patologici
e controllabili con le proprie difese immunitarie).

Lo sviluppo di resistenze batteriche è una conseguenza pressoché inevitabile della terapia:


líobiettivo è pertanto far uso di antibiotici solo se strettamente necessario e osservare le norme
igieniche per limitare la diffusione dei ceppi selzionati nel tempo.

Pietro Cerrato Presidio Sanitario San Camillo, Torino

Biodeterioramento dei beni culturali


Che relazione c'è tra il farnesene e i metodi biochimici utilizzati per il
controllo del biodeterioramento dei beni culturali?
Antonella Lucchese
9 luglio 2003

Premessa alla risposta:

La ricerca è stata effettuata sia a livello bibliografico (nazionale ed internazionale) che sulla base
delle conoscenze sull'attività che viene svolta attraverso programmi di ricerca universitaria e
pubblica.

Poiché non sono stati individuati documenti pubblicati (lavori, relazioni, annunci) che riportino
l'impiego del farnesene nel settore della conservazione dei beni culturali, possiamo ipotizzare che
chi ha posto il quesito se ne stia occupando direttamente o indirettamente.

Tuttavia, attraverso la documentazione raccolta, è possibile formulare alcune ipotesi, o proposte,


scientificamente corrette sull'uso del farnesene nel settore del bioteterioramento dei beni culturali.

Il farnesene chimicamente è un terpene (sesquiterpene), composto alifatico (cioè non aromatico)


derivato dall' isoprene. La sua molecola è:

ed il suo nome chimico è:


34
2,6,10-Dodecatrien-1-ol, 3,7,11-Trimethyl.

I terpeni entrano spesso nella composizione delle sostanze aromatiche e, in particolare, degli oli
essenziali: miscele di sostanze liquide, generalmente volatili e più o meno solubili in acqua, che
rappresentano i costituenti principali di molte essenze vegetali.

Il farnesene è un liquido incolore presente nel luppolo, nella mela, nella menta, nella lavanda ed in
altre piante. Nel settore agronomico il farnesene è conosciuto come responsabile di un serio danno
organolettico (detto riscaldo) alla buccia della mela e della pera durante la loro conservazione in
frigo derivato dalla produzione di etilene.

Il farnesene non è prodotto solo dalle piante ma anche da insetti (alcuni afidi) che lo emettono come
segnale di difesa da attacchi di predatori o in altri casi lo utilizzano per marcare la presenza di cibo
agli altri componenti della colonia. Infine, va segnalato che il farnesene, estratto come olio, presenta
spiccate proprietà antibatteriche e antifungine dimostrate in recenti lavori scientifici.

Per quanto riguarda l'impiego del farnesene nel controllo del biodegrado di materiali (legno, tela,
intonaco, carta, ecc.) costituenti manufatti di valore artistico, in mancanza di segnalazione di
documenti pubblicati al riguardo, possiamo ipotizzare questa ultima proprietà, e cioè l'opportuno
trattamento di questi materiali con questo tipo di terpene dalle spiccate proprietà biocide, a difesa
dall'attacco batterico e fungino causa frequente di danni irreparabili.

Paolo Mandrioli Istituto di Scienze dell'Atmosfera e del Clima, CNR, Bologna

Biogenerazione dell'idrogeno
Da una recensione del Forum Italiano dell'Idrogeno ho trovato un articolo
relativo alle ricerche del professore giapponese Fumiaki Taguchi e del suo
gruppo di ricerca dell'Università di Kitasato (Tokio), sulla produzione
dell'idrogeno a partire da residui biologici, utilizzando il sistema digestivo dei
panda. Vorrei avere un'opinione in merito e sapere se esistono studi analoghi
in Italia o in altre parti del mondo e quali prospettive apre.
Flavio Giussani
24 settembre 2003

Da alcuni anni a questa parte, esplorando i vasti spazi della rete, mi sono fatto l'opinione che la
scienza si presenti a noi con due diversi volti: nella maggior parte dei casi ci appare come scienza
"ufficiale" che si esprime attraverso serie riviste scientifiche e, in misura minore, si manifesta come
scienza "alternativa"che si diffonde utilizzando altri canali, come internet. Una settimana fa, per
esempio, mi è capitata sotto gli occhi una curiosa pubblicazione che spiegava come generare
energia da campi magnetici nel vuoto senza parti in movimento. Non è facile esprimere un giudizio
su queste informazioni scientifiche, semplicemente perché, a differenza di quanto fanno autorevoli
riviste scientifiche, i dati sperimentali divulgati non sembrano essere stati sottoposti al vaglio di
esperti revisori. Noi, curiosi lettori di scienza, non abbiamo la possibilità di verificare
personalmente questi dati attraverso la riproduzione dell'esperimento e siamo perciò costretti a
recepirli "con beneficio di inventario".

35
Veniamo al caso specifico della biogenerazione di idrogeno. L'articolo a cui si fa riferimento nella
recensione, riguardo alla produzione di idrogeno, non mi pare chiaro. Inizialmente si afferma che
alcuni selezionati microrganismi hanno realizzato una bioconversione molto efficiente di materiale
organico in anidride carbonica e acqua; non si menziona la formazione di idrogeno. In seguito si
parla di idrogeno, ma qui non si ricorda il tempo richiesto per generare 100 litri di idrogeno. Il
fattore tempo è cruciale per una applicazione pratica della bioconversione in campo energetico.
Infine, viene affermato, e in questo concordo, che 100 litri di idrogeno non costituiscono
un'apprezzabile scorta energetica (si tratta di 304,7 Kcal, pari a 0,35 Kw/h in termini di calore).

Non dispongo di notizie aggiuntive sui microrganismi generatori di idrogeno; auspico che i
ricercatori indirizzino i loro sforzi principalmente sulla conoscenza dei percorsi metabolici e degli
enzimi che sostengono la fermentazione di composti organici in idrogeno gassoso.

Gianfranco Liut Dipartimento di Biochimica, Biofisica e Chimica delle Macromolecole,


Università di Trieste

Bottiglie d'acqua come antigatto


In estate, è frequente vedere bottiglie di plastica piene d'acqua agli angoli
delle case. Si dice che servano a tenere lontano i gatti che lì facevano pipì.
Cosa c'è di vero? E in caso, perché funzionano?
Daniele Gouthier
17 giugno 2003

Un etologo ha difficoltà a rispondere a una domanda di questo genere perché i comportamenti degli
animali hanno vari tipi di spiegazioni, tra le quali occupano un posto importante quella causale e
quella funzionale.

La prima cerca la causa del comportamento (il cane cerca da mangiare perché il livello di zuccheri
nel suo sangue è sceso e quindi ha fame); la seconda cerca la funzione, il motivo per cui quel
comportamento si é evoluto nell'ambiente originario (il cane é stato selezionato a cercare da
mangiare perché altrimenti morirebbe di fame). Una domanda come quella posta mi ha subito fatto
scattare il meccanismo di ricerca delle spiegazioni di tipo causale e funzionale e con molta rapidità
ho escluso che si possa trattare di un metodo che possa avere successo.

Forse la causa del mancato comportamento di marcatura territoriale potrebbe essere la eventuale
paura di oggetti nuovi, ma i gatti hanno una notevole capacità di assuefazione; trovo ancora più
difficile comprendere la funzione del mancato comportamento di marcatura territoriale visto che
nell'ambiente dove il gatto si è evoluto non cerano certamente bottiglie o oggetti simili, pieni
d'acqua o vuoti.

Penso che questa abitudine di lasciare le bottiglie in giro, diffusa o no che sia, svolge il solo ruolo di
aumentare la spazzatura per le strade.

Eugenia Natoli Dipartimento Sanità Pubblica Veterinaria, Ospedale Veterinario, Roma

36
Colorimetria
In che cosa consiste la colorimetria? A quali campi di indagine si applica?
Susanna Arvati
1 dicembre 2003
Definire un colore non è sempre cosa semplice e ancora più difficile è comunicare un colore a una
persona lontana, a cui non possiamo semplicemente spedire un campione dell'oggetto in questione.
Il primo modo che potrebbe venire in mente è di definirlo a parole, ma questo è estremamente
impreciso, soggettivo e dipende criticamente anche dalla cultura e dall'ambiente in cui ci troviamo
(basti pensare che ogni lingua utilizza nella definizione dei colori sfumature diverse, per esempio
gli eschimesi hanno molti termini per definire i vari toni del bianco).

Si potrebbe pensare che Internet abbia risolto il problema, dato che si posso sempre inviare delle
foto del nostro colore attraverso il web. Ma chi mi assicura che i colori della macchina digitale
siano veritieri e chi mi permette di verificare che il monitor che userà il nostro partner sia calibrato
esattamente come il nostro in modo da mostrare colori identici? Per rispondere a questi e a molti
altri problemi è nata la colorimetria.

La prima colorimetria si può far risalire a Maxwell (scopritore delle leggi dell'elettromagnetismo)
che, accortosi che mescolando tre colori era possibile ottenerne tantissimi, pensò di definire un
colore fornendo le percentuali dei tre colori fondamentali adatte a produrlo. Era quindi necessario
trovare la base di tre colori più adatta a rappresentare tutte le possibili sfumature presenti in natura.
Purtroppo anche se esistono molte terne di colori abbastanza valide, non esiste nessuna terna di
colori che permetta, semplicemente sommandoli tra loro, di produrre tutti i colori possibili. Per
esempio i fosfori rosso verde e blu del monitor forniscono moltissime tonalità, ma non possono
produrle tutte. Per questa ragione si ricorse inizialmente a definire tre colori immaginari (X, Y, Z)
sommando i quali si poteva riprodurre qualsiasi colore.

È abbastanza evidente che usare come base tre colori immaginari conduce a un certo numero di
difficoltà matematiche che rendono la colorimetria abbastanza complessa, anche dopo tutti gli
affinamenti che si sono susseguiti negli ultimi anni. Inoltre per definire un colore è necessario anche
stabilire sotto quale sorgente luminosa lo stiamo osservando, dato che il colore dipende anche
dall'illuminazione che riceve. Anche questo parametro compare nei calcoli colorimetrici.

Le applicazioni della colorimetria sono molteplici. La colorimetria permette di comunicare i colori


in maniera precisa e univoca, così che tutte le volte che un'azienda chiede a un fornitore un oggetto
colorato può richiedere la rispondenza a formule prestabilite. Estremamente interessante è l'utilizzo
della colorimetria nel controllo di qualità; non solo, come è naturale, in settori come il tessile in cui
la riproducibilità del colore è fondamentale, ma anche in settori apparentemente distanti come
l'alimentare. Un'importante azienda che produce pasta controlla che la sua catena di produzione stia
funzionando a dovere controllando in tempo reale il colore del prodotto finito. Chi vende lievito ai
fornai si trova spesso a controllare il bianco del prodotto perché sa che solo un vero bianco sarà
accettato dal mercato.

Alessandro Farini Istituto Nazionale di Ottica Applicata, Firenze

37
Buche di potenziale e principio di indeterminazione
Supponiamo di avere una particella in una buca di potenziale infinita e che
essa occupi uno stato stazionario qualunque. La sua energia è perfettamente
nota perciò lo èanche la sua quantità di moto? Se sì, allora perché
l'indeterminazione sulla sua posizione non è infinita come vorrebbe il
principio di indeterminazione ma al minimo corrisponde alla larghezza della
buca?
Raffaele Farisco
16 giugno 2003

Malgrado la sua apparente ingenuità la domanda è assai insidiosa, e la risposta rappresenta un tipico
esempio di come, lavorando in fisica, si debba prestare attenzione alla rigorosa definizione
matematica degli oggetti che si usano. Senza entrare nei dettagli matematici, una risposta
estremamente semplificata, e pertanto estremamente imprecisa, può essere la seguente.

Se la particella in una buca di potenziale a parenti infinite occupa uno stato stazionario, allora è vero
che la sua energia è nota con precisione assoluta, ma il suo momento (o quantità di moto) essendone
proporzionale alla radice quadrata, è noto solo a meno di un segno.

Ovvero, se si sa che la particella ha una certa energia, non vi è modo di sapere se essa va verso
destra o verso sinistra. Il problema è che il momento non è una quantità fisica ben definita in una
buca.

Anche classicamente il fatto che la particella, nell'urto contro la parete, cambi istantaneamente il
segno del momento, crea problemi nel formalismo.

Si può comunque pensare di preparare la particella in uno stato con momento ben definito,
corrispondente a un'onda piana. Ma questo crea problemi, sia dal punto di vista sperimentale che
teorico. Dato che siamo a livello di esperimenti pensati tralasciamo gli aspetti sperimentali. Una
buca infinita è comunque sempre una idealizzazione di una buca con pareti altissime. Per una tale
buca non ci sono problemi per l'applicazione del principio di indeterminazione.

Se il potenziale alle pareti è sufficientemente grande, la probabilità di trovare la particella fuori


dalla buca è piccola, e tende a zero quando il potenziale tende all'infinito.
Questo impone alla probabilità (la funzione d'onda) di annullarsi sulle pareti della buca. Ma una
particella con momento ben definito (in un autostato) non può avere la funzione d'onda che si
annulla sulle pareti.

Tecnicamente si dice che l'autostato del momento non appartiene al dominio di autoaggiuntezza
della posizione.

Questo vuol dire che se prepariamo la particella con momento ben definito, la posizione non è
proprio una quantità che possiamo definire.

È possibile preparare la particella "quasi" in uno autostato del momento, ma imponendo che la
probabilità vada a zero sulle pareti. Ma allora ΔP non è più zero, e il principio di indeterminazione è
salvo.

38
Una trattazione più precisa (ma anche più matematica) si trova su vari testi. Potrei consigliare anche
i problemi I.5,6,7,8 degli appunti del corso di Istituzioni di Fisica Teorica dell'Università di Napoli
Federico II, che ho redatto con G. Miele e F. Nicodemi, e che si trova a partire dalla mia home
page:

http://people.na. infn.it/ ~lizzi seguendo il link al corso di Istituzioni di Fisica Teorica (piccola
avvertenza, i problemi sono in continua evoluzione e i loro numeri potrebbero cambiare).

Fedele Lizzi Dipartimento di Scienze Fisiche, Università di Napoli "Federico II"

Calcolo quantistico e informazione genetica


Ho appena finito di leggere un bellissimo lavoro del professore Mario Rasetti
sul calcolo quantistico. Purtroppo le mie limitatissime conoscenze di
matematica e di fisica non mi hanno permesso di apprezzare compiutamente
questo lavoro, in cui si fa anche cenno alla trasmissione dell'informazione
genetica in biologia, argomento al quale sono maggiormente interessato.

È possibile una spiegazione un po' più semplice del calcolo quantistico e del
concetto di informazione quantistica e dei codici di errore? Ed esiste qualche
pubblicazione in merito per non esperti in matematica e fisica?
Alfonso Geraci
5 ottobre 2003

La domanda è molto estesa e non è semplice dare una risposta che sia concisa e allo stesso tempo
non sia — come chi domanda, richiede — troppo tecnica, ma ci proverò.

I pilastri fondamentali su cui poggia tutta quella nuova branca della scienza che va sotto il nome di
quantum information, la quale coinvolge con la fisica e la computer science più o meno
direttamente, anche la biologia molecolare e forse le neuroscienze, sono questi.

 La materia microscopica — cioè la materia al suo livello molecolare o atomico (ma anche
nucleare e sub-nucleare) — segue leggi dinamiche (leggi del moto) che non sono
incorporate nella meccanica newtoniana né, tanto meno, in quella einsteiniana, bensì in
quella più esoterica meccanica che è detta quantistica.
 Le leggi della fisica quantistica differiscono profondamente dalle leggi classiche e alcune fra
esse sono addirittura contrarie alla nostra intuizione. In particolare due fra queste
comportano conseguenze estreme: la prima è la proprietà che uno stato1 generico di un
sistema fisico microscopico è tipicamente la sovrapposizione di tutti gli stati in cui l'oggetto
potrebbe trovarsi. È questo un concetto che palesemente non corrisponde alla nostra
esperienza quotidiana, in cui per esempio lo stato di una particella lo pensiamo come ben
definito dalla sua posizione e velocità, non da una difficilmente immaginabile coesistenza di
tutte le possibili posizioni e velocità che essa potrebbe avere, ma così ci dice il principio di
sovrapposizione quantistico. Il secondo fatto straordinario nella meccanica quantistica
riguarda la misura, cioè che cosa accade quando un osservatore cerca di determinare
appunto lo stato di un sistema: il risultato della misura è infatti sempre quello che

39
corrisponde a uno e uno solo degli infiniti stati possibili (nel quale, incidentalmente,
l'oggetto osservato si troverà a seguito della misura); non alla loro sovrapposizione. Nella
misura vi è una caratteristica nuova: l'aleatorietà. Questo significa che se si osserva più
volte il sistema fisico, ogni volta rimettendolo nelle identiche condizioni, non si trova
sempre lo stesso risultato nella misura, ma si ottengono molti risultati diversi, ciascuno con
una frequenza (e quindi probabilità) diversa.

Sono essenzialmente le due proprietà indicate sopra che implicano una straordinaria capacità della
materia: quella di essere in grado di codificare nei suoi stati microscopici informazione. Per
comprendere questo basta ricordare quanto abbiamo detto sul fatto che molti dei parametri che
identificano uno stato sono discreti, vale a dire si possono rappresentare con numeri interi (per
esempio, il numero di fotoni in un fascio laser): assegnare uno stato significa quindi individuare una
collezione di numeri interi e farlo evolvere nel tempo, significa far variare tali numeri interi in altri
interi. In altre parole, l'evoluzione dinamica di un sistema quantistico assomiglia molto da vicino a
un calcolo: la materia quantistica evolvendo calcola. Il paradigma fondamentale di tutta la
computazione quantistica è proprio questo.
Il passaggio alla biologia è più sottile, ma non troppo difficile da indicare, almeno nelle sue linee
generali. Una delle proprietà fondamentali della materia vivente è, naturalmente, la sua capacità di
riprodursi; a livello più elementare tale riproduzione comporta che un oggetto complesso ma
quantistico — come per esempio una molecola di DNA — riesca a leggere, cioè misurare, la
propria struttura, responsabile ultima della forma dei suoi stati, e a trasferire l'informazione relativa
alla materia circostante, guidandola a operare auto-organizzandosi, in modo da farle fare una copia
di sé. L'essere quantistico è qui l'elemento chiave del discorso: la complessità combinatoria delle
soluzioni possibili è praticamente infinita e nessun sistema fisico classico potrebbe evolvere, se non
in tempi irragionevolmente lunghi, se a ogni passo esso dovesse esplorare tutto lo spazio delle
possibilità, prima di procedere avendo individuato quella ottimale. Ma un sistema quantistico, come
abbiamo visto, questo lo può fare, perché un suo stato generico è la sovrapposizione di tutti gli stati
accessibili. Naturalmente il fondamentale problema scientifico dell'emergere della vita dalla materia
inanimata è più elusivo, in quanto vi è una sottile correlazione fra l'essere quantistico e la
complessità (soltanto quando il sistema è sufficientemente complesso i legami collettivi consentono
una vera manipolazione e trasferimento dell'informazione codificata negli stati) e non si può
sostenere che la fisica quantistica lo risolva completamente, ma certo ne è una componente
importante.

Per quanto infine riguarda i codici di correzione di errore, questi altro non sono che procedure,
protocolli presenti in tutti i computer, ovviamente anche quelli tradizionali che usiamo ogni giorno,
mediante i quali la macchina rileva certi tipi di errore (accidentali) e li corregge. La loro logica è
molto semplice e si basa sulla ridondanza: l'informazione viene codificata — per così dire — in più
copie e il calcolo viene eseguito più volte; se in qualche punto viene commesso un errore, risulta
facile rivelarlo confrontando le varie soluzioni ed è semplice istruire il calcolatore su come
procedere per correggerlo. Bene, un risultato importante della computazione quantistica è che anche
per i computer quantistici, in cui è la materia che calcola, si possono progettare le cose in modo da
rendere realizzabili codici di correzione. Nel caso quantistico, poi, è possibile fare di più,
costringendo il sistema fisico microscopico che manipola l'informazione a rimanere confinato in un
sottoinsieme di tutti gli stati possibili, costituito di stati che non risentono degli effetti dell'ambiente
circostante (che, appunto nel caso quantistico, sono all'origine degli errori): questi sono detti codici
che evitano l'errore.

Note:

(1) il concetto di stato ha una sua ben precisa e rigorosa definizione matematica, ma si può pensare
uno stato semplicemente come la collezione di tutti quei parametri che servono a identificare lo
40
stato di moto — la dinamica — del sistema; nel caso quantistico tali parametri sono spesso discreti,
perché le quantità fisiche corrispondenti si presentano solo a pacchetti: per esempio le particelle
dette fotoni trasportano i quanti di energia della luce.

Mario Rasetti Scuola di Dottorato, Politecnico di Torino

Gli equilibri tra mondo animale e vegetale


Se tutte le piante della terra sparissero, tutti gli animali morirebbero?
E se avvenisse il contrario? Cioè, se tutti gli animali della terra sparissero,
morirebbero tutte le piante?
Michele Ramondino
19 luglio 2003
Da zoologo, la risposta che potrei dare alla prima delle due strane domande è sì, resterebbero molto
a lungo gli onnipresenti batteri e quindi gli animali batteriofagi o che dipendono per la loro
sopravvivenza da batteri chemiosintetici, come le riftia che vivono nelle sorgenti idrotermali
abissali. Ma, forse, se facciamo sparire anche i cianobatteri, che sono monera fotosintetici, quindi
non piante, si abbasserebbe lentamente il tasso d'ossigeno nell'atmosfera e si tornerebbe a
condizioni simili a quelle dell'inizio della storia della vita sulla Terra. E non è detto che la storia
ricomincerebbe da capo seguendo le stesse vie. Chissà, ci vorrebbe un biofisico con la palla di
vetro. La risposta alla seconda domanda è più facile ed è no.
Sarebbe comunque una catastrofe, migliaia di specie vegetali, specialmente tra le angiosperme,
legate agli animali per la fecondazione o la dispersione, si estinguerebbero, l'elaborazione
dell'humus sarebbe rallentata con fenomeni di desertificazione e molti altri accidenti simili
porterebbero a un drastico abbassamento della diversità vegetale. Ma il pianeta tornerebbe ad
apparire, da lontano, blu e verde più di ora e, nel tempo, si selezionerebbero nuove forme vegetali.
Chissà. Ma questa lunga stagione calda dovrà finire prima o poi: e, spero, passeranno anche queste
visioni catastrofiche.
Roberto Argano Dipartimento di Biologia animale e dell'uomo , Università La Sapienza di
Roma

Campi elettromagnetici e motori di automobili


Vorrei sapere se è possibile influenzare la resa in termini di consumi di
un'automobile, utilizzando campi elettromagnetici che agiscano sul
carburante o sui gas di scarico. Esistono studi a riguardo? In sostanza, la
famosa truffa del tubo Tucker è proprio una truffa?
Anonimo  
20 aprile 2003
In commercio esistono dispositivi magnetici applicabili ai motori delle automobili (e alle caldaie
per riscaldamento) simili a quelli usati per il trattamento magnetico delle acque di cui ho parlato in
una precedente risposta:

41
Il combustibile è pompato attraverso una scatola metallica che contiene uno o più magneti oppure
un'apparecchiatura magnetica è fissata con un morsetto alla superficie esterna della linea di
alimentazione. Secondo i venditori, tali dispositivi aumenterebbero sia la potenza del motore che
l'autonomia del veicolo dal 10 al 20% e diminuirebbero sensibilmente le emissioni di inquinanti nei
gas di scarico.

Nella letteratura scientifica non esiste alcun lavoro che confermi l'efficacia di tali dispositivi.

Nella pubblicità del tubo Tucker, o di altri dispositivi analoghi (in vendita da diversi anni negli
USA) si trovano dichiarazioni mirabolanti del tutto prive di fondamento. La Tucker, per esempio,
dichiarava che il rendimento di una comune caldaia a gas verrebbe raddoppiato grazie al
dispositivo. Vi sono attualmente caldaie che hanno un rendimento che può arrivare anche al 95%.

Se le affermazioni della Tucker fossero vere, si arriverebbe all'assurda conclusione che, in presenza
del dispositivo, l'acqua calda prodotta dalla caldaia avrebbe quasi il doppio dell'energia chimica
contenuta nel gas. Questa sarebbe una palese violazione del primo principio della termodinamica.

Diversi test eseguiti sul tubo Tucker non hanno naturalmente evidenziato alcuna differenza di
prestazioni del funzionamento di una caldaia in presenza o assenza del dispositivo. O meglio, una
differenza c'è: l'energia elettrica consumata dal dispositivo non è proprio trascurabile.

In conclusione questi apparecchi dichiarano prestazioni che spesso violano le leggi della fisica e
promettono risultati del tutto illusori.

In linea di principio, non si può escludere un qualche effetto di un campo magnetico sulla
combustione se il campo magnetico venisse applicato alla fiamma, che è un plasma in movimento e
risente quindi di un campo magnetico.

Prima di commercializzare certi dispositivi e promettere risultati miracolosi, occorrerebbe però


innanzitutto verificare che i campi abbiano un qualche effetto sul carburante, stabilire se questo
influenzi il rendimento della combustione, e poi costruire apparecchi che funzionino realmente in
pratica, verificandone accuratamente le prestazioni. Niente di tutto questo è mai stato fatto. Quindi
chi dichiara, oggi, che l'apparecchio da lui venduto ha certe prestazioni mai dimostrate può essere
sicuramente considerato un truffatore.

Ulteriori utili informazioni possono essere trovate nell'articolo di Mike R. Powell, Magnetic Water
and Fuel Treatment: Myth, Magic, or Mainstream Science?, pubblicato sulla rivista "Skeptical
Inquirer", vol. 22 n. 1, disponibile anche in rete all'indirizzo:

http://www.csicop.org/ si/ 9801/ powell.html

Nota: ringrazio il professore Gianni Comoretto dell'Osservatorio Astronomico di Arcetri per le utili
indicazioni fornitemi relativamente all'argomento trattato.

Silvano Fuso Istituto Tecnico Commerciale e Industriale "Primo Levi"

Caratteristiche degli ominidi primitivi

42
Gli ominidi primitivi nei vari stadi intermedi tra la scimmia e l'uomo avevano
già il colore della pelle differenziato? In che epoca primitiva avranno
cominciato a esserci le differenze tra capelli mori e biondi? E visto che le
scimmie hanno il pelo ma non la barba, quale sarà stato il primo tipo di
ominide ad avere la barba sul volto? Forse l'australopiteco? Forse líHomo
erectus? Forse il neanderthaliano?
Claudio Rodella
28 agosto 2003

Il differenziamento della pigmentazione cutanea va fatta risalire all'Homo sapiens sapiens,


probabilmente 250 000 - 200 000 anni fa.

Secondo i poligenisti invece questa differenza risalirebbe a epoche antecedenti. La variabilità nella
pigmentazione dei capelli risale alle prime forme umane, come per il colore della pelliccia degli
animali.

Quella che noi chiamiamo barba non è altro che pelo. È ispida in quanto la rasiamo
quotidianamente. Pertanto risale anch'essa alle prime forme umane.

Antonio Guerci Dipartimento di Scienze Antropologiche, Università degli Studi di Genova

Caratteristiche del sistema immunitario


L'attivazione dei linfociti T killer e dei linfociti B da parte dei linfociti helper
avviene mediante la produzione di sostanze proteiche dette interleuchine o
mediante la produzione di linfochine? Spiegando se possibile il motivo della
scelta.
Claudio Forese
15 settembre 2003

Questi due termini (linfochine e interleuchine) a volte si sovrappongono nei loro significati.
L'attivazione dei linfociti T killer chiamati anche T citotossici (Tc), e dei linfociti B da parte dei
linfociti T helper (Th) è un processo complesso che comporta:

a. l'attività helper avviene prima, tramite un'interazione fisica tra le due cellule (T helper e T
killer, oppure T helper e linfocita B) nella quale un recettore specifico della cellula Th
(chiamato TCR), espresso sulla membrana cellulare riconosce la cellula Tc o B. Questo
riconoscimento avviene soltanto tra cellule che sono antigene specifiche, cioè cellule in
grado di reagire contro una particolare sostanza e non a un'altra. Così, il recettore della
cellula Th riconosce l'antigene sulla superficie della cellula alla quale deve assistere, perché
queste hanno prima internalizzato l'antigene e poi l'hanno ri-presentato sulla membrana in
associazione con molecole di MHC (HLA nell'uomo).
b. Quest'incontro determina l'attivazione di segnali intracellulari su entrambe le cellule, che nel
caso delle cellule Th induce l'espressione di proteine secrete, chiamate appunto linfochine,

43
in grado di agire sui linfociti Tc e B che hanno avuto l'incontro ravvicinato con la cellula Th.
Ma anche i linfociti Tc e quelli B sono in grado di esprimere diverse linfochine.
c. Tutti questi mediatori che agiscono sui linfociti (ma possono in certi casi agire anche su altre
cellule) sono chiamati linfochine. Tra queste, esistono alcune che, per ragioni storiche, sono
state chiamate interleuchine, (e ci sono diverse: IL1, IL2, IL4. IL5 ecc.). Per esempio,
l'interferone gamma (INF) è una linfochina, ma non è un'interleuchina.
d. È anche importante tener conto che, sia la produzione di linfochine e interleuchine che le
cellule sulle quali possono agire non è esclusiva dei linfociti.

Oscar Burrone International Centre for Genetic Engineering and Biotechnology (ICGEB),
Trieste

Celle a combustibile
Su quali principi fisici funzionano le celle a combustibile, più prosaicamente
note come il motore a idrogeno, e quali sono oggi i principali problemi
tecnologici a una loro applicazione?
Stefano Milanese
8 gennaio 2003
La prima cella a combustibile venne costruita nel 1839 da Sir William Grove, un giudice gallese e
scienziato gentiluomo. Il serio interesse per le celle a combustibile quale generatore di energia non
sorse prima degli anni '60 con i programmi spaziali che adottarono questa tecnologia a scapito del
nucleare, di maggior rischio, e del solare, più costoso. Tutti i veicoli spaziali dei programmi
Gemini, Apollo e tuttora dello Space Shuttle utilizzano con successo questa tecnologia.

La cella a combustibile è un generatore elettrochimico che viene alimentato da un combustibile


(tipicamente idrogeno, alcool o metano) e un ossidante (ossigeno o aria) e da cui si ricavano
corrente elettrica continua, acqua e calore. Come tutti gli elementi voltaici, essa è composta
essenzialmente da due elettrodi, catodo e anodo, e da un elettrolito che permette la migrazione degli
ioni.

Il combustibile e i gas ossidanti lambiscono rispettivamente l'anodo e il catodo sulle facce opposte a
quelle in contatto con l'elettrolito. Data la porosità degli elettrodi, vengono in questo modo
continuamente alimentate le reazioni di ossidazione del combustibile e di riduzione dei gas
ossidanti.

Un aspetto di importanza fondamentale per le applicazioni delle celle a combustibile, è


rappresentato dal fatto che gli effluenti (acqua e gas esausti), che vanno continuamente rimossi dalla
cella, non contengono sostanze inquinanti.

L'anodo, cioè il polo negativo della cella, ha varie funzioni: conduce gli elettroni che sono liberati
dall'idrogeno molecolare in modo che possano venire utilizzati da un circuito esterno, ed ha canali
al suo interno per far sl che l'idrogeno gassoso venga equamente disperso sulla superficie del
catalizzatore.

Il catodo, che è il polo positivo, ha le stesse caratteristiche in modo da disperdere l'ossigeno sul
catalizzatore, inoltre riconduce a quest?ultimo gli elettroni provenienti dal circuito utilizzatore. Tali
elettroni, ricombinandosi con gli ioni idrogeno e l'ossigeno, contribuiranno alla formazione
dell'acqua.
44
L'elettrolito è una membrana di scambio di protoni. Questo materiale, appositamente trattato,
assomiglia alle pellicole plastiche che si utilizzano in cucina, è in grado di condurre solo ioni carichi
positivamente, bloccando anche gli elettroni, che sono negativi.

Il catalizzatore è un materiale che facilita la reazione tra ossigeno e idrogeno. È generalmente una
polvere di platino che ricopre finemente una carta o tessuto carbonati. Il catalizzatore è poroso in
modo da massimizzare la superficie esposta all'idrogeno e all'ossigeno. La parte ricoperta di platino
del catalizzatore è affacciata alla membrana di scambio dei protoni (PEM).

Siti internet dedicati alle celle a combustibile

 The Online Fuel Cell Information Center


 Hydrogen Information Network
 Le pile a combustibile
 EcoLab - cultura delle celle a combustibile
 ArgonneNational Laboratory (researching ceramic solid oxide fuel cells, direct methanol
PEM fuel cells, high temperature sealant materials for fuel cells, reformers for fuel cells)
 R&D Alliance Network - the Advanced Technology Program (ATP) is run by the U.S.
Department of Commerce's National Institute of Standards and Technology (NIST). The
Alliance Network has been set up to help organizations apply for the ATP Joint Venture
award for collaborative R&D
 California Air Resources Board - mission is to promote and protect public health, welfare
and ecological resources through the effective and efficient reduction of air pollutants while
recognizing and considering the effects on the economy of the state
 CREST - the Center for Renewable Energy and Sustainable Technology's fuel cell and
hydrogen page
 Dr. E's Energy Lab - rounds up the best Web sites for children to learn about energy
efficiency and renewable energy
 GREENTIE - Greenhouse Gas Technology Information Exchange (GREENTIE), is an
electronic directory that contains information about suppliers of technologies, services,
research, and data relevant to the mitigation of greenhouse gases. It is a program of the
International Energy Agency, supported by the U.S. Department of Energy and Oak Ridge
National Laboratory provides technical assistance
 Hydrogen and the Materials of a Sustainable Energy Future - hydrogen education site hosted
by Los Alamos National Laboratory
 Hydrogen InfoNet - information network exploring the various uses of hydrogen.

Ndr: risposta estratta da un articolo di Luca Boarino pubblicato su "Volontari Per Lo Sviluppo". Per
la versione integrale dell'articolo in PDF clicca qui.
Luca Boarino INRIM, Istituto Nazionale di Ricerca Metrologica, Torino

Cercare l'acqua sottoterra


Frequento il terzo liceo e l'altra mattina nell'ora di fisica un ragazzo della mia
classe ha detto che quando suo nonno era giovane, con un bastone di ulivo
biforcuto, rivolto verso l'alto, era capace di trovare l'acqua in un terreno
45
quando il bastone si dirigeva verso il terreno in cui scorreva nel sottosuolo
l'acqua. Esiste una spiegazione scientifica a proposito di quanto detto prima?
In cosa consisterebbe? La ringrazio.
Anonimo  
14 gennaio 2003

Il fenomeno descritto dallo studente è la rabdomanzia, ovvero la capacità di captare le vibrazioni di


particolari sostanze nascoste, come l'acqua, tramite l'utilizzo di semplici apparati quali bastoni di
nocciolo a forma di Y, pendolini o altri materiali che potevano venire"deflessi" dalle suddette
vibrazioni.

Secondo la definizione di Alexis Bouly del 1919, i rabdomanti farebbero parte di una categoria di
personaggi che applicavano la radioestesia, ovvero la sensibilità alle radiazioni che sarebbero
emesse da ogni materiale presente sulla terra. A tale proposito esiste una breve ma esaustiva
dissertazione storica alla pagina http://www.locarnonline.ch/ capitoli/ oroscopo/ archivio/
radiestesia.html

I rabdomanti erano in grado di captare le radiazioni di minerali, soprattutto metalli preziosi, acqua e
molte altre sostanze utili o preziose.

In realtà la spiegazione di queste "capacità" paranormali può essere basata sulla semplice logica: nel
passato vi erano molti individui con ampie conoscenze del proprio territorio e una innata dote per
l'osservazione. Non è improbabile che alcune persone avessero osservato, nel caso dell'acqua, che in
particolari periodi dell'anno vi erano aree che presentavano chiari segni della presenza del prezioso
liquido, come piccoli zampilli o zone di umidità, ad esempio in terreni argillosi. È altresì molto
probabile che questi si improvvisassero "maghi" e che condissero tutta la cosa a loro vantaggio,
dimostrando un "potere" che ne innalzasse la loro considerazione nei confronti del popolino;
l'utilizzo della bacchetta completava la sceneggiata. In generale i rabdomanti erano dei ciarlatani,
privi di alcuna capacità, se non quella di far presa sulle menti facilmente impressionabili; d'altro
canto anche Mago Merlino possedeva questo epiteto perché aveva maggiori conoscenze rispetto a
tutti i suoi contemporanei: era infatti un alchimista, l'unico scienziato del Medioevo. Inoltre Merlino
era l'epiteto per definire il gran sacerdote dei druidi, seguaci del culto celtico della Dea Madre e del
Re Cervo, e grandi conoscitori delle proprietà curative di erbe e piante. Il loro potere era diretta
conseguenza della loro conoscenza.

Alla stesso modo, vi erano rabdomanti capaci di trovare filoni metallici, attraverso uno speciale
"flusso di energia" proveniente direttamente dal sottosuolo. Pur se la cosa non è scientificamente
sostenibile (anche in questo caso avevano probabilmente compreso la reale natura di terreni e
rocce), è divertente sapere che in realtà oggi utilizziamo particolari strumenti in grado di captare la
presenza di oggetti e masse nascoste (gravimetri, molto utilizzati in archeologia, e magnetometri), o
il flusso di calore generato dagli elementi radioattivi presenti nella crosta terrestre (calorimetri): in
altre parole la scienza oggi è in grado di captare l'energia emessa dalla terra sotto forma di calore,
campo magnetico e campo gravitazionale.

Senza voler smontare definitivamente il racconto del nonno, posso però dire che il CICAP
(Comitato Italiano per il Controllo delle Affermazioni sul Paranormale) ha svolto numerosi
esperimenti per dimostrare l'effettiva impossibilità di trovare l'acqua per rabdomanzia.

Un articolo interessante sul tema è "Indagine sui rabdomanti italiani di James Randi che si può
trovare sul sito del CICAP

46
Si possono trovare altri esempi di controesperimenti per smascherare rabdomanti o presunti tali
nell'archivio dello stesso sito.

Fornelletti anti zanzare e alternative


I fornelletti anti zanzare come funzionano? Sono pericolosi se accesi durante
la permanenza nel locale? Ci sono alternative ?
Denis Benedetti
24 luglio 2003
I fornelletti anti zanzare vanno distinti in base al loro modo di funzionamento e sono i seguenti.
Gli elettroinsetticidi hanno una o due lampade a ultravioletto (UV-A) che generano una emissione
luminosa di alcune decine di Watt in una certa area di irraggiamento. L'insetto viene attirato dalla
luce UV ed eliminato mediante scarica elettrica. Questi apparecchi possono diventare nocivi se si
tengono troppo vicini e/o troppo a lungo in funzione in quanto la radiazione UV è pericolosa per
l'uomo. Inoltre il dispositivo è elettrico e pertanto va accuratamente evitato il contatto con l'acqua
(bagno, spruzzi, ecc.).
I fornelletti a repellente mettono in libertà per riscaldamento una sostanza sgradevole all'insetto che
pertanto abbandona la zona di diffusione. Questo tipo di trattamento, che può essere anche
considerato come aromaterapia, impiega un olio essenziale o una miscela di essi. L'efficacia e la
tossicità per l'insetto e per l'uomo dipendono dal tipo di olio e dall'esposizione Per esempio il
geranio ha un aroma repellente, ma anche proprietà anti-infiammatorie e anti-allergiche (simile al
cortisone). L'essenza di lavanda ha anche azione antimicrobica ed è antidoto contro i veleni degli
insetti.
I fornelletti ad antiparassitario. Contengono un vero e proprio veleno che paralizza l'insetto
portandolo alla morte. È il sistema più drastico ed efficace. La sostanza che liberano però, presente
anche in molte bombolette spray, è tossica anche per l'uomo. La differenza viene fatta dalla dose.
Infatti se per ipotesi l'uomo avesse le dimensioni corporee dell'insetto, farebbe la stessa fine.
L'impiego di queste sostanze va fatto con cautela. Conviene, dopo averlo somministrato, non
rimanere all'interno dell'ambiente e, a operazione terminata, arieggiare bene il locale.
Romano Silvestri Dipartimento di Studi Farmaceutici, Università di Roma La Sapienza

Clonazione di un ominide e i suoi potenziali diritti


Oggi si parla tanto di clonazione e relativi divieti, e ogni tanto si vedono film
come Jurassic Park. È possibile, in teoria almeno, che in futuro qualcuno
possa clonare un ominide preistorico partendo dai suoi resti? Se ciò fosse
malauguratamente possibile, io mi chiedo se per la legge o per la mentalità
comune ufficiale, religiosa o meno, tale individuo (per metà scimmia) sarebbe
considerato persona o animale, per esempio nel caso qualcuno lo uccidesse.
Claudio Rodella
8 ottobre 2003

47
La possibilità teorica non è da escludersi, anche se vi sarebbero innumerevoli difficoltà tecniche (e
molte inutilità pratiche). Questo, comunque, è un problema di biologia molecolare (per questo
argomento è possibile consultare il testo di P. Vezzoni, Si può clonare un essere umano?, Laterza
2003). Totalmente diverso è il secondo problema: come dovremmo valutarlo?

Pur considerando tale domanda solo un gioco senza alcun valore conoscitivo (anche filosofico),
penso si possa rispondere per analogia.

Come si valuta uno scimpanzé, cioè un appartenente alla specie vivente - Pan troglodytes -
apparentemente più prossima alla nostra? La risposta è "dipende". Sicuramente uno scimpanzè e un
uomo appartengono a due specie distinte ma vi è chi non esita a considerare sia alcuni Homo
sapiens sia alcuni Pan troglodytes come persone, differenziando così appartenenti alla specie Homo
sapiens da appartenenti all'insieme persone, con tutto ciò che ne consegue sul piano etico e
giuridico.

Altri invece sostengono che solo l'Homo sapiens possa fregiarsi del diritto di essere considerato
persona, con tutto ciò che ne consegue sul piano etico e giuridico.

Ciò che sta sotto è una scelta che è sostenuta dalle conseguenze etiche cui porta, ma che molte volte
parte da valori religiosi o ideologici. Insomma, la decisione è in funzione della particolare
concezione che si è scelto. Lo stesso, penso, potrebbe dirsi per il giudizio intorno a un ominide
clonato. Innanzi tutto vi sarebbe un problema paleoantropologico e quindi eminentemente
scientifico: non tutti sono d'accordo su come classificare, sia a livello di specie che a livello genere,
chi precedette l'Homo sapiens. Poi, anche in questo caso, vi sarebbe un problema filosofico: come
giudicarlo? E anche in questo caso la risposta dipenderebbe dalla particolare concezione da cui si
parte. Se vi è una morale da trarre da tutto ciò, è questa: è importante capire non solo la particolare
concezione con cui si valuta, ma pure perché la si accetta.

Giovanni Boniolo Facoltà di Lettere e Filosofia, Università di Padova

Concepire un maschio o una femmina


È vero che, a causa della diversa velocità e della differente durata in vita degli
spermatozoi che portano il carattere maschile o femminile, è possibile
concepire un maschio o una femmina scegliendo in maniera opportuna il
momento in cui avere il rapporto sessuale?

In particolare gli spermatozoi che portano il carattere maschile sarebbero più


veloci ma rimarrebbero vitali per meno tempo rispetto a quelli che portano il
carattere femminile? O viceversa? E che differenti diete portano allo stesso
risultato?
Marta Sereni
28 marzo 2003

Concepire un maschio o una femmina. Ci sono molte leggende sull'argomento.

48
Secondo alcune teorie, mai confemate su un piano scientifico, gli spermatozoi che sono in grado di
generare maschi sarebbero più veloci perché più leggeri (essi infatti portano un "carico" di
cromosomi più leggero, poiché il cromosoma che determina il sesso maschile e cioè il cromosoma
Y è più piccolo di quello che determina il sesso femminile, e cioé il cromosoma X). Non esistono
però studi scientifici che supportino questa teoria.

Per quanto riguarda la dieta, alcune teorie indicano che alcuni cibi influenzano il pH della vagina e
pertanto, se i secreti sono più alcalini al momento del concepimento è più probabile che possa
nascere un maschietto.

Essendo inoltre l'alcalinità del muco cervicale al massimo al momento dell'ovulazione, secondo
queste teorie sarebbe più facile concepire un maschietto quanto più il rapporto è vicino a questo
momento. Se invece prevale l'acidità dei secreti vaginali, sarebbe più probabile la nascita di una
bambina. Non esistono però studi scientifici controllati che supportino l'importanza della dieta e del
momento della fecondazione nella determinazione del sesso del nascituro.

Antonio Amoroso Laboratorio Genetica dell'Istocompatibilità - Dipartimento di Genetica,


Biologia e Biochimica - Università degli Studi di Torino

Estinzioni e anelli di congiunzione


Il meteorite che ha provocato la fine dei dinosauri, ha estinto tutte le forme di
vita sulla Terra? Siamo quindi ripartiti dai batteri? Se sì, perché a proposito
dello Archaeopteryx si parla di un anello di congiunzione fra i dinosauri e gli
uccelli?
Simone Frasca
3 settembre 2003
Premesso che anche i batteri possono essere considerati forme di vita, il grosso meteorite che si
sarebbe abbattuto sulla terra circa 65 milioni di anni fa avrebbe provocato l'estinzione di massa dei
grossi rettili, ma non di tutte le forme allora viventi.
Secondo questa teoria, l'impatto di un grosso meteorite avrebbe provocato dei grossi sconvolgimenti
climatici come il raffreddamento dell'aria, a causa dell'innalzamento di grosse quantità di polveri, e
grosse onde e sconvolgimenti marini.
In questo periodo la Terra era dominata dai dinosauri, gruppo di grossi rettili altamente
specializzati, che vivevano insieme con altri rettili più piccoli, a piccoli mammiferi primitivi e ad
uccelli. Il raffreddamento dell'aria avrebbe determinato la progressiva scomparsa delle grosse piante
fanerogame e dei grossi dinosauri erbivori terrestri, che di esse si cibavano, e dei loro predatori
(ricordiamoci che molto probabilmente tutti se non la maggior parte dei dinosauri erano a sangue
freddo e quindi incapaci di adattarsi a un brusco raffreddamento della Terra). Inoltre, anche gli
pterosauri, i dinosauri del cielo, si estinsero.
Le catastrofi marine condussero invece alla scomparsa di ittiosauri, alcuni tipi di coralli e altri
organismi marini. A differenza dei dinosauri e delle grosse piante, ormai molto specializzati e
incapaci di adattarsi a uno sconvolgimento ambientale di grosse dimensioni, le piante più primitive,
i piccoli rettili capaci di ibernarsi ed i piccoli mammiferi coperti di pelliccia e gli uccelli coperti di
piume riuscirono ad adattarsi e non solo sopravvissero, ma col tempo invasero le nicchie ecologiche
dei grossi rettili estinti e si evolsero fino a diventare i dominatori della terra.
Per quanto riguarda l' Archaeopteryx, questo è un animale che ha caratteri tipici sia dei rettili, come

49
lo scheletro simile a quello dei rettili e la mascella dotata di denti, che degli uccelli, penne sugli arti
anteriori e sulla coda (questo si può dedurre dall'impronta fossile lasciata sul terreno). Proprio per
questo motivo può essere considerato un anello di congiunzione tra rettili e uccelli.
Esistono diversi siti web carini sull'argomento, per esempio:
http://www.areacom.it/arte_cultura/dinosauri/
http://www.nmnh.si.edu/paleo/blast/
Luigi Corvetti Università di Torino, Istituto di Neuroscienze "Rita Levi Montalcini Center for
Brain Repair"

Corrente elettrica in un superconduttore


Ho letto che una spira di metallo superconduttore, avvolta su se stessa, può
continuare a condurre corrente elettrica per molti anni senza bisogno di forza
elettromotrice.

Non capisco se questa corrente elettrica circoli veramente all'interno della


spira o sia un tipo di energia statica come quella che vi è fra le armature di un
condensatore.
Vincenzo Masotti
14 settembre 2003

La corrente nel superconduttore è una corrente vera, che circola veramente nella spira, e produce
anche tutti i normali effetti elettromagnetici, come una corrente normale. E' la natura della corrente,
che è diversa dal solito. In questo caso la corrente è collettiva e coerente per tutti gli elettroni, che si
muovono in blocco e senza attrito, cioè senza resistenza: anziché muoversi ciascuno per conto suo e
con attrito, come nel conduttore ordinario.

Questa proprietà strabiliante del superconduttore è un effetto squisitamente quantistico. E' da


mettere direttamente in relazione al fatto che tutto il metallo nel suo assieme, un oggetto quindi di
dimensioni macroscopiche, cade in un unico stato fondamentale, descritto da una unica funzione
d'onda, come se fosse un oggetto microscopico, per esempio un atomo.

Erio Tosatti Settore di Teoria degli Stati Condensati, SISSA, Trieste

Il tutto dal nulla


Secondo l'interpretazione maggiormente accreditata dalla comunità
scientifica qual è il miglior modello che descrive la nascita dell'Universo dal
nulla? Sebbene la problematica sia di difficile soluzione vi sarà pure un
modello che emerge rispetto agli altri? Dal nulla è veramente emerso il tutto?
Massy Conti
12 settembre 2003
Lapidariamente direi di no: non c'è oggi un modello accreditato in grado di spiegare l'origine
dell'Universo.
50
In realtà, c'è un po' di ambiguità nella locuzione "origine dell'Universo". Infatti, secondo la teoria
della relatività generale, lo spazio e il tempo sono profondamente influenzati dalla materia e
dall'energia presenti nell'Universo. In particolare, ne è profondamente influenzato lo scorrere stesso
del tempo. Se non esistesse l'Universo, non esisterebbe neppure il tempo. Quindi, non si può dire
cosa c'era prima dell'Universo, e il concetto di origine risulta impreciso.

Noi oggi percepiamo e misuriamo in un certo modo lo scorrere del tempo. Sappiamo anche che
questa descrizione rimane valida andando a ritroso nel tempo e in effetti, sappiamo ricostruire la
storia dell'Universo per parecchi miliardi di anni. Abbiamo scoperto che si tratta effettivamente di
un'evoluzione, e che l'Universo non era uguale a oggi nel passato: questo ha portato al concetto di
big bang, e all'idea che esiste un istante iniziale in cui è cominciato il tempo. Questa evoluzione è
ben spiegata dalla teoria della relatività generale. Purtroppo, però, questa teoria cessa di essere
valida nel momento in cui cerca di trattare il big bang: le quantità fisiche diventano infinite, le
distanze tra gli oggetti diventano nulle, lo scorrere del tempo diventa infinitamente rapido; è la
cosiddetta singolarità.

In realtà, abbiamo buoni motivi per sospettare che la teoria della relatività generale non sia
completamente corretta. Essa è certamente valida per descrivere con ottima fedeltà i fenomeni che
avvengono durante la maggior parte della vita dell'Universo; andando però a ritroso nel tempo, si
giunge a un istante, detto tempo di Planck (10-43 secondi dopo il big bang), in cui entrano in gioco
nuovi effetti, dovuti alla meccanica quantistica, che la relatività non è in grado di trattare. Una
teoria che incorpori coerentemente questi fenomeni è oggetto di intenso studio da molti anni, ma
fino a oggi non si è riuscito a trovare una formulazione soddisfacente. La presenza di questi nuovi
fenomeni (le fluttuazioni quantistiche dello spaziotempo), però, ha senz'altro un'influenza molto
profonda sulla struttura del tempo, che potrebbe addirittura non risultare più ben definita, e
comunque molto diversa da come la concepiamo oggi.

Questa nuova teoria (che, pur non esistendo ancora ha già il nome di gravità quantistica!) è
l'elemento che ancora ci manca per comprendere davvero le origini dell'Universo. Forse questa
teoria ci spiegherà come mai l'Universo che è scaturito dopo il tempo di Planck ha la forma e la
struttura che oggi vediamo, e ci spiegherà come mai, in particolare, l'Universo ha cominciato a
evolvere, ad avere una storia. Forse ci dirà che il concetto di inizio è una specie di artificio,
un'impressione che ci è rimasta ma che non è davvero fondamentale nelle leggi che governano
l'Universo.

Concludo con una riflessione di carattere del tutto personale. La ricerca delle origini ha sempre
spinto l'uomo a progredire in tutti i campi, sia scientifici, che filosofici, che artistici. Io spero che a
questi interrogativi non verrà mai data risposta, e che questi fungeranno per sempre da pungolo per
scoprire cose nuove. Quando non ci sarà più nulla da imparare, sarà tutto mortalmente noioso.

Daniele Malesani Dark Cosmology Centre, Niels Bohr Institute, København Universitet,
Danimarca

Le frasi famose di Galilei


Vi sono alcune frasi rimaste famose di Galileo Galilei?
Enzo Gregoli
28 ottobre 2003

51
Queste che seguono sono alcune citazioni celebri di Galilei che naturalmente non esauriscono la
risposta alla domanda. Cominciamo col dire che il noto detto "eppur si muove", che si attribuisce a
Galilei, non trova riscontro nei testi galileiani.

Altri estratti famosi sono:

"La filosofia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi a gli occhi
(io dico l'Universo), ma non si può intendere se prima non s'impara a intender la lingua e conoscer i
caratteri, né quali è scritto. Egli è scritto in lingua matematica, e i caratteri son triangoli, cerchi ed
altre figure geometriche, senza i quali mezzi è impossibile a intenderne umanamente parola; senza
questi è un aggirarsi vanamente in un oscuro labirinto." (Il Saggiatore)

"Quanto alla verità di che ci danno cognizione le dimostrazioni matematiche, ella è l'istessa che
conosce la sapienza divina; ma vi concederò bene che il modo col quale Iddio conosce le infinite
proposizioni, delle quali noi conosciamo alcune poche, è sommamente più eccellente del nostro, il
quale procede con discorsi e con passaggi di conclusione in conclusione, dove il suo è un semplice
intuito." (Dialogo sopra i due massimi sistemi del mondo)

"Mi par che nelle dispute di problemi naturali non si dovrebbe cominciare dalle autorità di luoghi
delle Scritture, ma dalle sensate esperienze e dalle dimostrazioni necessarie, (...) procedendo di pari
dal Verbo divino la Scrittura Sacra e la natura, quella come dettatura dello Spirito Santo, e questa
come osservantissima esecutrice de gli ordini di Dio." (Lettera a Cristina di Lorena)

"Io qui direi quello che intesi da persona ecclesiastica costituita in eminentissimo grado, ciò è
l'intenzione delle Spirito Santo essere d'insegnarci come si vada al cielo, e non come vada il cielo."
(Lettera a Cristina di Lorena)

Gianni Zanarini Dipartimento di Fisica, Università di Bologna

La nascita dell'arte
L'arte è nata con l'Homo sapiens, oppure ha origini più remote?
Giovanni Manocchio
21 ottobre 2003
I grandi cicli delle pitture parietali dell'arte paleolitica che affrescano le pareti delle grotte della
Dordogna (in Francia) e dell'area cantabrica, sono emersi dalle profondità della civiltà umana
prevalentemente nel corso del XIX e del XX secolo. Di fronte a queste immagini oscilliamo tra lo
stupore e l'ammirazione; per farle nostre, per assimilarle culturalmente le inquadriamo con il
termine arte e cerchiamo di renderle comprensibili accostandole alle nostre produzioni di immagine;
è così che le figurazioni parietali della grotta di Altamira (in Spagna) diventano la Cappella Sistina
del paleolitico. In realtà sappiamo poco su ciò che queste figurazioni avessero rappresentato per
quei gruppi di uomini, come noi Homo sapiens sapiens, che le produssero al tempo della pietra
lavorata.

Dunque una stupita ammirazione per i nostri progenitori di tante migliaia di anni fa, circa 15 000
per Altamira, si impadronisce dello sguardo che contempla quei frammenti di una memoria lontana.
Le immagini parietali paleolitiche che ammiriamo come opere d'arte sono senza dubbio qualche
cosa che travalica l'arte stessa; esse sono piuttosto eidola, simulacro del nostro passato proiettate nel

52
nostro futuro dalle viscere del tempo, dalla nostra cultura ancestrale. Il primo spaesamento che
proviamo di fronte a esse è dunque temporale.

Siamo a circa ventimila anni fa: il giacimento archeologico della grotta di Altamira testimonia
inoltre una frequentazione che si estende dal periodo soulteriano superiore fino al magdaleniano
inferiore, ovvero tra i 18 000 e i 15 000 anni prima della nostra era. Un salto temporale così ardito
pone due diversi problemi di dominio cognitivo: non solo la distanza temporale che ci separa
sembra sfuggire alla nostra immaginazione ma è ancor più difficile comprendere a pieno come
questo luogo sia stato frequentato per un periodo che supera la durata della nostra era. Ad Altamira
operarono uomini come noi per una durata superiore a quella che ci separa dall'inizio del nostro
modo di computare il tempo. Tuttavia non è solo un problema di comprensione temporale che si
pone nell'osservare e anche ammirare questi artefatti: vi è un problema di senso tout court. Infatti
per cercare di comprenderli li definiamo sbrigativamente arte senza sottilizzare su cosa possiamo
intendere nel definirli così. Forse ciò significa solo che per noi oggi essi sono arte. Il termine arte
assume in questo caso un senso vago, come una scatola vuota dentro cui gettare quello che non
sappiamo come chiamare altrimenti, un suono più evocativo che designativo, un poco come il
termine cosa, una casella vuota del rapporto tra significato e significante. Una casella che
riempiamo oggi e che adattiamo a un nostro passato insondabile.

Credere che i valori estetici che oggi ci servono per definire l'arte abbiano avuto valore per i nostri
diretti progenitori di migliaia di anni fa è certamente azzardato. Del resto però non ci rimane che
l'immaginazione per cercare di comprendere il significato e il senso di questi imponenti cicli
figurativi dato che non abbiamo nessun tipo di documentazione accessoria per comprendere il senso
di queste immagini. Possiamo solo registrare che la figurazione compare molto prima che la
scrittura, non sappiamo al contrario quale significazione accompagnasse queste rappresentazioni.

Possiamo invece comprendere la tecnica di realizzazione e anche lo sforzo di creazione di questi


cicli figurativi che spesso illustrano pareti inaccessibili e dunque presuppongono l'erogazione di uno
sforzo notevole per realizzarli. Certamente dunque dobbiamo ritenere che esse rappresentassero una
attività di sicura rilevanza sociale. Uno sforzo collettivo, un grande sforzo collettivo doveva essere
compiuto per raggruppare le risorse alimentari e tecniche necessarie alla loro realizzazione. Una
porzione del patrimonio sociale dei nostri antenati veniva insomma destinata alla realizzazione di
queste figurazioni che oggi noi definiamo arte paleolitica.

Le tecniche impiegate sono poi le più varie e variano dal disegno all'incisione, dalla pittura alla
scultura e alla modellazione plastica. Il dominio di queste tecniche, dominio raffinato anche per la
qualità di realizzazione, era un dominio figurativo compiuto e sicuro che comprendeva la
rappresentazione della terza dimensione come ci mostrano il diptico dei bisonti nella sala Nef di
Lascoux.

Dunque se molto ci sfugge di quello che fu l'orizzonte culturale di queste produzioni figurative, è
chiaramente difficile dire se fu arte allora, ma certo lo è per noi oggi. Questo rende ancor più
difficile dunque dire se negli ominidi in generale sia presente una attività di produzione artistica.
Tuttavia possiamo attenerci ai fatti e notare come in alcuni casi non sporadici si siano ritrovati
oggetti particolari in siti di frequentazione non sapiens. Si sono ritrovate per esempio alcune
amigdale, sassi lavorati con particolare cura dove qualcuno ha visto un intento estetico. Si tratta di
materiali databili circa 200 000-300 000 anni fa collocati in siti frequentati da ominidi. Sono stati
ritrovati anche frammenti di osso con tacche e incisioni sempre databili a circa 350 000 anni anni fa.
Se risaliamo nel tempo e arriviamo a epoche più recenti, circa 70-60 000 anni fa, i ritrovamenti ci
testimoniano di piccoli depositi di pigmenti ocra e di macinelli in granito per polverizzare il
pigmento. Senza trovare traccia di immagini possiamo pensare che fossero impiegati per

53
colorazioni corporee; ancora più prossimi a noi, circa 45-35 000 anni fa troviamo monili fatti con
denti di animali o ossi o corna lavorate, appartenuti all'uomo di Neanderthal.

Alcuni hanno ritenuto di interpretare questi manufatti come produzioni artistiche, ma come dicevo,
ciò mi sembra un azzardo riduttivistico che impiega criteri di classificazione poco applicabili a
questa nebulosa di immagini e di segni affiorata dal nostro profondo passato.

Riccardo Putti Dipartimento di Filosofia e Scienze Sociali, Università di Siena

L'impatto della scienza nella società


Mi piacerebbe molto avere un'opinione da parte di un addetto ai lavori a
proposito della scienza dei nostri giorni e delle paure e dubbi che la
accompagnano. Inoltre vorrei sapere come si comporta lo scienziato di oggi
rispetto a questi dubbi.
Paolo De Toni
29 aprile 2003

La redazione consiglia anche la lettura della relazione del professore Daniele Amati, tenuta
nell'ambito della conferenza Per una critica progressista al progresso - La scienza di fronte al
mondo e a se stessa, tenutasi alla SISSA, Trieste, il 14 e 15 novembre 2002.

Redazione di Ulisse
Fare scienza è un'attività sociale, con una sua specificità: raggiungere un consenso razionale
d'opinione sul più vasto campo possibile. Come tutti i sistemi sociali, anche la società degli
scienziati è variamente articolata al suo interno (esistono svariate comunità scientifiche) e,
soprattutto, si modifica nel tempo.
C'è stato un periodo, il periodo pre-accademico, in cui l'attività degli scienziati era essenzialmente
dilettantistica e/o resa possibile da forme di mecenatismo.
Nel corso del secolo XIX il lavoro degli scienziati è diventato di tipo professionale. Gli uomini di
scienza sono entrati nelle università e hanno seguito la carriera accademica.
Dopo la seconda guerra mondiale il lavoro degli scienziati si è ancora modificato. È aumentato il
lavoro di gruppo (spesso si costituiscono grandi gruppi di lavoro), sono aumentati i fondi a
disposizione, si è modificato qui e là il rapporto con gli strumenti, è in aumento la scienza finanziata
da privati e persino la "scienza imprenditrice", è aumentata l'interazione con la società civile.
Se prima, nell'era accademica, la gran parte delle decisioni rilevanti per lo sviluppo della scienza
venivano prese essenzialmente all'interno delle comunità scientifiche, oggi queste decisioni
vengono prese in maniera sempre più sistematica in compartecipazione con una pluralità di gruppi
di non esperti.
Qualcuno sostiene che, per tutti questi motivi e altri ancora, siamo entrati in una nuova era del
modo di lavorare degli scienziati, l'era post-accademica.
Se il modo di lavorare degli scienziati e il rapporto con il resto della società muta, muta la
percezione che lo scienziato ha del suo lavoro. Cambiano le paure e i dubbi. Cambia l'etica del
lavoro.
Naturalmente la percezione e l'etica del lavoro hanno un carattere individuale. Non possiamo
parlare di dubbi e paure della scienza. Dobbiamo parlare di dubbi e paure (ma anche di
consapevolezze e valorizzazione del proprio lavoro) degli scienziati.
54
Tra questi dubbi e queste paure molti attengono agli effetti applicativi della conoscenza scientifica.
L'innovazione tecnologica nella nostra società viene realizzata con una sistematica applicazione
delle nuove conoscenze scientifiche. E, inoltre, è essa stessa fattore di sviluppo della scienza. Tanto
che molti parlano di un nuovo sistema fortemente interpenetrato che si sarebbe creato, quello della
tecnoscienza, dotato di ampi margini di autonomia e autopropulsività.
C'è la sensazione, diffusa, che i singoli, anche quando sono scienziati sul campo, abbiano sempre
meno possibilità di influenzare la dimensione tecnoscienza.
Tuttavia c'è un'ulteriore novità che caratterizza la scienza post-accademica rispetto a quella
accademica. La responsabilità sociale degli scienziati viene sempre più percepita e declinata in
maniera collettiva. Dopo Hiroshima e Nagasaki molti fisici hanno sentito il peso di una nuova
responsabilità e si sono riuniti, per favorire politiche di controllo delle armi nucleari e, più in
generale, di armi di distruzione di massa.
mentre altri colleghi facevano la scelta opposta, di lavorare allo sviluppo degli armamenti atomici.
Oggi sono numerose le organizzazioni di scienziati che sentono una speciale responsabilità in ogni
settore della scienza. Intere comunità scientifiche pensano che la loro missione principale non sia
solo acquisire nuove conoscenze, ma acquisire nuove conoscenze per il bene dell'umanità. E molti
gruppi di scienziati assumono posizioni sociali molto nette.
È di queste settimane, per esempio, la notizia che la maggioranza degli scienziati che lavorano alla
University of California di San Francisco in una libera votazione ha chiesto all'amministrazione
dell'ateneo di rifiutare i fondi offerti dalle aziende che producono e diffondono i derivati del
tabacco. Perchè sono prodotti nocivi.
Concludendo. È vero che nell'era post-accademica della scienza sono fortemente aumentati i rischi
(oltre che le opportunità) connessi all'uso delle conoscenze scientifiche. Ma è altresì vero che,
soprattutto nelle comunità scientifiche, è fortemente aumentata anche la consapevolezza di questi
rischi (e di queste opportunità).
Pietro Greco Agenzia di giornalismo scientifico Zadigroma; Master in Comunicazione della
Scienza, SISSA, Trieste

L'efficienza delle marmitte catalitiche


Fino a poco tempo fa avevo l'abitudine, che credevo sana, di spegnere il
motore dell'auto a ogni sosta un po' prolungata (per esempio ad alcuni
semafori) poi ho sentito dire che le marmitte catalitiche inquinano molto con
un comportamento del genere, specialmente finché il motore non è ben caldo.
Vorrei sapere cosa c'è di vero in queste cose, e più di preciso come conviene
comportarsi per inquinare e consumare il meno possibile.
Paolo Dall'Aglio
3 giugno 2003
È vero che le marmitte catalitiche necessitano del raggiungimento di 150-200 °C perché le reazioni
di abbattimento degli inquinanti (idrocarburi incombusti, monossido di carbonio e ossidi di azoto)
possano avere luogo. Questo riscaldamento della marmitta ha luogo negli istanti che seguono
l'accensione del motore dopo una pausa relativamente lunga (la notte, il tempo di una spesa al
supermercato, ecc.).
La sosta a un semaforo rosso dura generalmente una quarantina di secondi, un tempo modesto
durante il quale la marmitta non si raffredda in modo significativo.
La pratica dello spegnere per tempi brevi e riaccendere il motore non peggiora quindi le emissioni
di un autoveicolo ed anzi probabilmente le riduce, insieme ai consumi. Il problema insito in
55
accensioni e spegnimenti ripetuti del motore risiede nel maggiore stress a carico del sistema di
accensione e dai maggiori consumi di energia elettrica alla batteria.
Questo richiederebbe un dimensionamento ad hoc del sistema di accensione medesimo.
Tempo fa la FIAT produsse un sistema che automaticamente realizzava la pratica in questione a
ogni messa in folle del veicolo, tale sistema però non ha avuto il successo di mercato sperato.
Guido Saracco Dipartimento di Scienza dei Materiali e Ingegneria Chimica, Politecnico di
Torino
È davvero consolante verificare di tanto in tanto l'esistenza di persone disponibili a cambiare le
proprie abitudini di comportamento per migliorare la qualità della vita di tutti.
La domanda posta, apparentemente così semplice, sottende questioni piuttosto complesse. Se
vogliamo fare un piccolo passo indietro, è forse utile comprendere un po' più a fondo qual è la
logica dell'uso di marmitte catalitiche nelle vetture che impiegano la cosiddetta benzina verde.
Mentre in passato le benzine "rosse" utilizzavano come agente antidetonante un composto
organometallico di piombo, tossico e non degradabile, con l'introduzione delle benzine "verdi" si è
passati a impiegare come agente antidetonante una miscela di composti aromatici semplici
(benzene, toluene e xilene), indicati per brevità con la sigla BTX.
Tali sostanze sono tossiche e accertatamente cancerogene, e non vengono degradate completamente
nel processo di combustione. Al fine dunque di promuoverne la completa combustione a dare
anidride carbonica e acqua le autovetture a benzina verde sono attrezzate con una marmitta
catalitica, cioè con un letto catalitico di platino, collocato nella marmitta, che rende rapida e
completa l'ossidazione dei BTX.
Pertanto, ove la marmitta catalitica operasse in maniera ideale, una automobile a benzina verde
dovrebbe dar luogo a emissioni tossiche ridottissime. Dovrebbe, e solo dovrebbe, purtroppo. In
realtà una serie di fattori addizionali rendono il quadro più complesso.
In primo luogo, le benzine verdi contengono quantità non trascurabili di composti solforati e azotati,
che nel processo di combustione generano ossidi di azoto e di zolfo che non vengono in alcun modo
abbattuti dalla marmitta catalitica. In secondo luogo, i composti solforati, legandosi
irreversibilmente con il platino del catalizzatore, ne provocano un lento ma costante degrado.
Il catalizzatore viene "avvelenato" dallo zolfo e la sua capacità di catalizzare l'ossidazione dei BTX
degrada nel giro di pochi anni. In terzo luogo, affinché l'intero sistema catalitico funzioni
correttamente è essenziale che il letto catalitico raggiunga la corretta temperatura d'esercizio, cosa
che avviene solo dopo un certo tempo dall'avviamento del motore.
Complessivamente, pertanto, le emissioni di una vettura "verde" dopo alcuni anni d'uso sono
tutt'altro che trascurabili: essa emette CO, SOx e Nx (oltre a particolati micrometrici, le cosiddette
polveri fini), e di regola a queste emissioni si aggiungono quantità rilevanti di sostanze aromatiche
che vanno dai BTX non degradati a sostanze aromatiche policondensate che vengono prodotte
durante la combustione della benzina.
È davvero triste che né la normativa italiana né quella europea prevedano, nel controllo annuale
delle emissioni degli autoveicoli, alcuna verifica dei livelli di emissione di gas aromatici.
Questo porta normalmente gli automobilisti a non intervenire in alcun modo sulla marmitta
catalitica, che andrebbe in realtà rimpiazzata con regolarità.
Non essendo tuttavia questo imposto dalla legge ed essendo il costo della marmitta piuttosto
elevato, il risultato netto è che i livelli di inquinamento da gas aromatici stanno rapidamente salendo
nelle aree urbane, come quantitativamente rilevato da enti pubblici e privati che si occupano del
monitoraggio atmosferico.
Tornando quindi alla domanda del lettore, spegnere il motore del proprio veicolo per soste di
qualche minuto (semafori, passaggi a livello, ecc.) può non essere una buona politica se la vettura
che si guida ha una marmitta catalitica perfettamente efficiente, dato che alla riaccensione il
catalizzatore potrebbe restare per qualche decina di secondi a temperatura troppo bassa per operare
correttamente.
Il risparmio ambientale in termini di emissioni di NOx e SOx potrebbe non essere quindi compensato
56
dall'accresciuta emissione di aromatici. Se tuttavia la vettura ha una marmitta catalitica vecchia di
più di un paio d'anni, reputo che la pratica abitualmente adottata dal lettore possa essere comunque
vantaggiosa, e che tanto più lo sia quanto più lunga è attesa essere l'interruzione di marcia.
La raccomandazione resta comunque quella di provvedere con regolarità alla sostituzione
dell'impianto catalitico, secondo le tempistiche e i chilometraggi suggeriti dal costruttore, nell'attesa
(speriamo breve) che le prossime benzine verdi possano essere prive di composti solforati.
Per ulteriori approfondimenti i lettori interessati possono consultare i dati ambientali dell'ARPA
della propria Regione (molto completi quelli della Regione Emilia-Romagna e della Regione
Piemonte) e una serie di articoli raccolti dalla rivista Le Scienze su questo tema (a partire dalla
pagina http://www.lescienze.it/specialarchivio.php3?id=912).
Dario Narducci Dipartimento di Scienza dei Materiali, Università di Milano Bicocca

L'astrologia per la scienza


L'astrologia non è una scienza. Ma scientificamente come si può spiegare
l'influenza che i pianeti e le stelle al momento della nostra nascita avranno sul
nostro carattere? Sempre che ne abbiano alcuna.
Chiara Asquini
18 febbraio 2003
Non esiste alcuna scienza che cerca di spiegare la influenza di pianeti e stelle sul nostro carattere.

L'Astronomia è una scienza in senso moderno, che è invalso dal 1600 ad oggi, ovviamente
modificandosi nel tempo, ma mantenendo le caratteristiche di base. Esistono volumi notevoli di
filosofia della scienza che non è certo possibile riassumere in poche righe. Possiamo però
sintetizzare all'estremo dicendo che la scienza si basa sull'osservazione dei fenomeni, sulla
sperimentazione, sulla analisi dei dati e infine sulla stesura di una legge o di un modello che
intepretino al meglio quei dati e, possibilmente, prevedano qualche altro fenomeno misurabile e
valutabile. È molto importante capire che la scienza crea modelli, ad esempio il modello del
big bang, e che questi non sono la realt`, ma semplicemente quello che meglio rappresenta quel che
sappiamo in quanto lo abbiamo osservato e misurato. Come tanti altri modelli il big bang è
destinato a essere superato e soppiantato da un modello migliore. Questo è il limite che la scienza si
è data e che ha permesso l'eccezionale progresso del sapere umano.

Altri ragionamenti, che passano attraverso il verbo "credere", non sono praticati dalla scienza, ma
possono essere praticati da altre attività umane altrettanto se non più nobili come la filosofia o la
religione. Fra queste stento a mettere quella astrologia cialtrona e interessata solo al denaro che ha
avuto una esplosione nel mondo cosidetto civilizzto negli ultimi anni, né prenderei in
considerazione discorsi troppo elevati, come il bisogno del soprannaturale o del sacro. L'astrologia
che è stata anche studio del cielo visibile ad occhio nudo ed un precursore nobile della scienza
astronomica, fino al 1500, non ha nulla a che fare con quel che si vede oggi. Peraltro occorre
pensare che la carta natale, da cui parte qualunque oroscopo, si riferisce a un cielo che,
fortunamente, è scomparso da qualche centinaio di anni, le stelle sono miliardi di miliardi,
immensamente distanti da noi. I pianeti sono piccolissimi granelli di sabbia in una spiaggia
sterminata, non si allineano mai come dicono gli astrologi della televisione, e così via.

Se uno ha piacere a credere a queste cose può farlo senza problema, il libero arbitrio è ovviamente
una delle grandi risorse dell'uomo, ma dovrebbe ragionare sul fatto di passare ai prorpi figli un
sapere corrotto e falso, il "sapere segreto" di ciò che non deve essere dimostrato ma creduto, un
57
veleno da cui l'uomo ha impegato secoli per affrancarsi. Nella scienza ci sono più misteri da svelare
di quanti ce ne siano in tutte le discipline esoteriche. Certo è un po' più faticoso guardarci dentro.

Leopoldo Benacchio Istituto Nazionale di Astrofisica, Osservatorio astronomico di Padova

Il solstizio d'estate
Perché il 21 giugno segna l'inizio dell'estate?
Non dovrebbe essere il suo punto di mezzo? Considerato che in quel giorno la
terra si trova alla massima distanza dal sole?
Anonimo  
4 luglio 2003
L'estate inizia il 21 giugno (o, a seconda degli anni, in una data a esso molto prossima) come diretta
conseguenza dell'aver convenzionalmente fissato il computo dell'anno tropico a partire dal
passaggio del Sole per l'equinozio di primavera.
In questo particolare giorno, che cade intorno al 20-21 marzo a seconda degli anni, su tutta la Terra,
tranne che ai poli, le ore di luce sono tante quante quelle di oscurità.
Il Sole si trova a perpendicolo sull'equatore; nel sistema di coordinate abitualmente usato in
astronomia ciò significa che si trova nel punto di coordinate (0,0), punto nel quale si intersecano
eclittica ed equatore celeste; quest'ultimo può essere definito come la zona del cielo che si trova allo
zenit per un osservatore posto all'equatore.
A partire da questo punto particolare della sfera celeste, i punti lungo l'eclittica — il percorso
apparente che il Sole compie durante un anno se osservato dalla Terra — che distano 90° da esso si
dicono solstizi.
Il Sole raggiunge uno di questi due punti proprio intorno al 21 giugno, che segna quindi l'inizio
dell'estate.
Il solstizio estivo è comunque un giorno importante, almeno dal punto di vista astronomico perché il
Sole arriva nel punto in cui è massima la sua declinazione (una coordinata astronomica della sfera
celeste che può essere paragonata alla latitudine geografica). In termini più concreti ciò equivale a
dire che a mezzogiorno la sua altezza sull'orizzonte è massima, almeno per gli osservatori
dell'emisfero boreale compresi fra il Tropico del Cancro e il Polo Nord.
Attenzione però, perché al solstizio estivo dell'emisfero boreale corrisponde l'inizio dell'inverno per
l'emisfero australe. In questo giorno particolare il Sole si trova infatti a perpendicolo sul Tropico del
Cancro, ovverosia nel punto dell'eclittica più lontano (verso Nord) dall'equatore celeste; pertanto
nell'emisfero Sud sarà inverno.
Il contrario avverrà durante il nostro solstizio d'inverno: pochi giorni prima di Natale, il Sole si
trova a perpendicolo sul Tropico del Capricorno, il punto dell'eclittica più meridionale rispetto
all'equatore celeste. Ciò significa che inizia l'estate per l'emisfero australe e da noi inizia invece
l'inverno e nel nostro cielo l'altezza del Sole a mezzogiorno è la minima dell'anno.
In altri termini, ciò si traduce nel fatto che gli australiani vanno al mare e mangiano gelati in
compagnia di Babbo Natale.
Tornando al solstizio estivo, a esso è associata anche la massima durata del giorno (inteso come ore
di luce) nell'emisfero boreale e la giornata con meno ore di luce nell'emisfero australe.
Occorre ancora una precisazione: il 21 giugno il nostro pianeta non si trova esattamente alla
massima distanza dal Sole, anche se è comunque vicino all'afelio, che si verifica intorno al 4 di
luglio. Non bisogna confondere infatti la linea dei solstizi (quella che unisce i due punti dell'orbita
in cui avvengono i solstizi) dalla cosiddetta linea degli absidi (che unisce invece i punti dell'orbita
che si trovano più vicini e lontani rispetto al Sole).
Vero è, comunque, che dopo il solstizio estivo alle nostre latitudini le giornate iniziano ad
58
accorciarsi (cioè si riduce l'intervallo di tempo durante il quale il Sole si trova al di sopra
dell'orizzonte) e l'altezza del Sole a mezzogiorno inizia a scendere, fino al giorno del solstizio
invernale, superato il quale le giornate ricominciano ad allungarsi e l'altezza del Sole a mezzogiorno
riprende a crescere. Da questo punto di vista, nonostante i solstizi segnino l'inizio della stagione
estiva o invernale, rappresentano anche i punti in cui si inverte la tendenza iniziata sei mesi prima.
Walter Riva Associazione Osservatorio Astronomico del Righi, Genova

L'effetto dell'acido floridrico sui tessuti umani


Vorrei sapere gli effetti collaterali provocati dall'acido floridrico quando
penetra su una parte del corpo umano.

Provoca ustioni alla pelle o quant'altro?


Lorenzo Fazio
8 luglio 2003
In risposta alla domanda postami trascrivo quanto riportato dai testi ufficiali internazionali di
tossicologia:
l'acido fluoridrico è pericoloso per gli umani perché può ustionare la pelle e gli occhi (cornee e
congiuntive). L'esposizione inizialmente può non apparire come una tipica ustione da acidi.
La cute può essere semplicemente arrossata e non essere particolarmente dolorosa.
Il danno alla pelle può svilupparsi nel corso di alcune ore o anche giorni e si possono sviluppare
profonde lesioni molto dolorose.
In assenza di un opportuno trattamento, si possono verificare danni notevoli con perdita di tessuto.
Nei casi più gravi, a seguito di esposizione a grandi quantità di acido fluoridrico concentrato sulla
pelle, può seguire la morte provocata dall'effetto dell'acido fluoridrico sui polmoni e sul cuore.
Gian Luigi Sottocasa Facoltà di Medicina e Chirurgia, Università di Trieste

Gli effetti di alimenti combinati


Esistono almeno due alimenti commestibili singolarmente, che combinati
assieme sono tossici?
Omar Cal
1 agosto 2003
Gli alimenti per definizione devono essere sicuri e quindi non è pensabile che l'associazione di due
prodotti determini conclamata tossicità. Un esempio di quello che può succedere tra due alimenti è
quello dell'avidina (proteina contenuta nell'albume crudo) che inibisce la biodisponibilità della
biotina (vitamina H). L'evento tossico da carenza di biotina si manifesta però solo per un
improbabile abituale, eccessivo e prolungato consumo di albume crudo.
In alcuni testi di divulgazione si parla di associazioni alimentari negative; per esempio in alcuni
libri si afferma che il caffè con il latte determina una interferenza sulla digeribilità. Questi aspetti
(mai documentati scientificamente però) non vanno comunque intesi come effetti tossici.
Altra cosa è la possibile associazione tra farmaci ed alimenti: in questi casi possono riscontrarsi
interferenze sia dell'alimento verso il farmaco (riduzione dell'assorbimento o dell'efficacia) o
viceversa interferenza del farmaco sull'assorbimento di alcuni nutrienti (per esempio di vitamine).

59
Altro caso ben noto è l'effetto ipertensivo della tiramina (contenuta nei formaggi stagionati) nei
soggetti in terapia con farmaci antidepressivi antimonoammino ossidasi.
Patrizia Restani Dipartimento di Scienze Farmacologiche , Università di Milano

Istinto omicida e specie


Si dice ogni tanto che l'unico animale che uccide i membri della propria
specie sarebbe l'uomo. Ma se l'uomo deriva dalla scimmia a quale stadio
dell'evoluzione potrebbero essere avvenute le prime uccisioni all'interno della
specie? Australopitechi, Homo abilis, ergaster ecc. si uccidevano mai tra di
loro? E le scimmie si uccidono mai tra di loro?
Claudio Rodella
18 settembre 2003
Prima di tutto è importante chiarire due punti: l'uomo non deriva dalla scimmia, hanno più
semplicemente un antenato in comune. Per l'esattezza si pensa che il punto di separazione tra la
scimmia antropomorfa e l'Homo sapiens si aggiri sui sette milioni di anni fa. È inoltre falso che
l'uomo sia l'unico esemplare che uccide i propri simili.
In generale, un gruppo in condizioni estreme o per territorialità può tranquillamente aggredire un
proprio simile (portando il gesto fino alle estreme conseguenze). Per quanto riguarda l'uomo, è
molto difficile collocare l'insorgenza della violenza infraumana. Pare certo che finché i
rappresentanti della specie Homo non sono diventati stanziali, attaccavano i propri simili
occasionalmente, (motivi spesso associati a un territorio di caccia). Va detto che un cacciatore-
raccoglitore si doveva spostare continuamente in cerca di nuove risorse; andando indietro nei tempi
la popolazione umana doveva essere talmente esigua che difficilmente due gruppi avevano
l'occasione di scontrarsi.
La violenza verso altri uomini diviene "normale" con l'avvento dell'agricoltura e l'acquisizione della
stanzialità. Da questo momento in poi la violenza è un atto per difendere il proprio territorio o per
impossessarsi di un territorio più ricco di risorse, a scapito di un altro gruppo umano. Con l'avvento
dell'agricoltura, e quindi l'ottimizzazione delle risorse, si ha un'esplosione demografica che in effetti
riduce notevolmente gli spazi occupabili.
Marina Bassani Comunicatore scientifico

I meccanismi di alcune illusioni ottiche


Ho trovato sulla rete un'immagine fatta di cerchi allineati con all'interno
cerchi concentrici colorati a quadri alterni e immagini a forma di lampadina.
Osservando l'immagine si percepisce del movimento che scompare se si fissa
uno dei cerchi o se si sfoca l'immagine.
Quali sono le ragioni di questo effetto ottico?

60
Vincenzo Missio
6 agosto 2003
Si tratta di una bella variante di un fenomeno scoperto da Baingio Pinna, un ricercatore
dell'Università di Sassari (in Italia abbiamo una grande tradizione di ricerca sulla percezione
visiva). Nel caso ne abbia l'inclinazione, il lettore può trovare una descrizione del fenomeno di
Pinna nel lavoro originale, Pinna e Brelstaff, A new visual illusion of relative motion, Vision
Research, n. 40 (2000), p. 2091-2096.
In ogni caso prima di leggere il resto di questa risposta consiglio di dare un'occhiata alla versione
che si trova presso il sito:http://www.informatik.uni-
ulm.de/ni/mitarbeiter/PBayerl/homepage/images/doublegabor_pierre.jpg. Si noti che, come nella
variante oggetto di questa risposta, l'illusione di Pinna è bella forte se si prova a muovere la testa
avanti e indietro mentre si fissa il centro, ma si vede anche tenendo la testa ferma. Questa e molte
altre varianti si possono trovare "sfogliando" il sito: http://viperlib.york.ac.uk/index.asp.
Attualmente non è ancora del tutto chiarito cosa causi illusioni di questo tipo. Quello che mi sento
di dire è quanto segue. Gli artisti appartenenti alla corrente nota come "arte ottica" o op-art (la mia
preferita è Bridget Riley, vedi http://www.artcyclopedia.com/artists/riley_bridget.html) amavano
produrre immagini con micromovimenti paradossali ed effetti di scintillio.
Gli effetti op scompaiono se osservati con un strumento chiamato "pupilla artificiale", che serve a
impedire variazioni nella accomodazione dell'occhio (il processo attraverso il quale la forma della
lente viene modificata per mettere a fuoco oggetti a distanze diverse). Per questo motivo molti
ricercatori ritengono che i micromovimenti della op-art siano dovuti a slittamenti dell'immagine
sulla retina, causati appunto da variazioni nell'accomodazione oculare al variare della struttura di
dettaglio della figura.
Le illusioni come quella di Pinna però non scompaiono se osservate con la pupilla artificiale.
Questo suggerisce una spiegazione meno banale. Pinna propone una cosa di questo tipo (semplifico
cercando di non tradire l'idea: i punti da 1 a 4 che seguiranno sono fatti universalmente accettati
della percezione del movimento, mentre da 5 a 6 sono ipotesi di Pinna): (i) spostando la testa,
l'intera immagine slitta sulla retina, con un movimento di contrazione-espansione; (ii) la mente
possiede dei sistemi in grado di compensare questo slittamento, allo scopo di interpretare
correttamente lo slittamento come movimento del sé, e non dell'oggetto; (iii) questi sistemi operano
appunto a livello globale, ossia sull'immagine nel suo complesso; (iv) a livello dei singoli elementi
nei due cerchi concentrici, tuttavia, la contrazione-espansione globale non può essere misurata,
infatti gli elementi sono discontinuità orientate in diagonale, e le singole unità neurali che misurano
il movimento a partire dall'input retinico locale possono rilevare solo movimenti ortogonali
all'orientazione della discontinuità stessa (per spiegare il motivo sarebbe necessaria una lunga
digressione); (v) l'illusione sarebbe allora una sorta di "residuo" di questi movimenti misurati a
livello locale, che la mente non riuscirebbe a "rimuovere" del tutto utilizzando il meccanismo di
61
compensazione globale; (vi) questi movimenti residui sarebbero particolarmente ben visibili grazie
al contrasto di orientazione fra gli elementi interni ed esterni.
L'illusione di Pinna sarebbe quindi una situazione che rivela un limite specifico del sistema per la
rilevazione del movimento, in una situazione che mette in competizione i moti locali e il moto
globale nell'immagine.
Va detto ancora che, rispetto all'illusione di Pinna, la variante segnalata rappresenta un caso
parecchio più complicato dato che sono presenti forme di diversa grandezza, colori, un'articolazione
con più configurazioni a spirale invece che due soli cerchi concentrici.
Tuttavia, per i meccanismi di misura locale del movimento, le macchie nere e bianche hanno un
effetto abbastanza simile a quello degli elementi nel fenomeno di Pinna. Rimane quindi solo da
spiegare come mai, nella variante, il movimento illusorio compare in periferia del campo visivo, e
non nella spirale che viene fissata. Il motivo è che la sensibilità al movimento è molto migliore in
periferia che nel centro della retina. Anche l'illusione di Pinna va osservata fissando il centro dei
due cerchi. L'unica vera differenza, dunque, starebbe nel fatto che nella variante le spirali
eccentriche hanno uno slittamento retinico diverso da quello dei cerchi concentrici di Pinna. Ma il
ragionamento vale alla stessa maniera.
Nicola Bruno B.R.A.I.N. Center for Neuroscience, Dipartimento di Psicologia, Università di
Trieste

Le automobili e la gabbia di Faraday

Gentile redazione ho un quesito scientifico da porvi.


In passato la mia auto è stata colpita da un fulmine e il principio della Gabbia
di Faraday ha preservato la stessa e ciò che era all'interno dalla distruzione.
Ora ho una curiosità, ho notato molte auto che hanno sistituito il tetto in
lamiera da un massiccio tetto in vetro.

Ecco un esempio specifico:


http://i726.photobucket.com/albums/ww262/IlyaSpez/MyComply09/compy5.j
pg
Le parti bianche, comunque, sono in lamiera classica.In una situazione del
genre, vale ancora il principio di gabbia di Faraday? Se si, prchè?
massimo ambrosio
22 gennaio 2010
I fulmini sono intense scariche elettriche che avvengono sotto differenze di potenziale di molti
milioni di Volt e caratterizzate da correnti che possono variare fra 2 e 200 KA.

62
La durata della scarica è nell’ambito dei millisecondi, ma l’intervallo fra una scarica e la successiva
può essere breve, anche di decimi di secondo, dando luogo a scariche multiple variamente diramate
su percorsi vicini.
I danni o gli effetti distruttivi di tali scariche sono dovuti agli effetti termici dell’alta intensità della
corrente che attraversa i conduttori percorsi dalla scarica. Sono relativamente frequenti i casi di
aerei in volo “colpiti” da un fulmine. La scarica percorre le lamiere di cui è fatto l’aereo, che
essendo di alluminio sono buone conduttrici della corrente elettrica, senza che i passeggeri se ne
rendano conto.
Per il fenomeno della “dispersione delle punte”, la scarica tende a scoccare fra la nuvola carica e
oggetti conduttori dotati di punte o di spigoli aguzzi in contatto o in vicinanza del suolo, ma il
fenomeno è così violento e soggetto a condizioni così bizzarre che la scarica principale o scariche
secondarie possono avvenire anche verso oggetti di altra forma. Per esempio, se una scarica
immediatamente precedente ha creato un canale di molecole ionizzate nell’aria, e questo canale, per
esempio a causa del vento, ha derivato, esso può guidare una scarica immediatamente successiva
verso punti che normalmente non sarebbero percorsi  dalla scarica.
Nel caso dell’automobile su cui verte la domanda, posso esprimere solamente una opinione dettata
dall’intuito.
Nella maggior parte dei casi si può ritenere che il fulmine colpisca per esempio il bordo del cofano
immediatamente sotto al parabrezza, o lo spigolo dell’alettone posteriore, o il bordo metallico del
tettuccio trasparente.
In quest’ultimo caso la differenza di potenziale istantanea fra quel punto e parti interne della vettura
può provocare scariche secondarie che possono attraversare le persone sedute dentro la vettura, con
effetti gravi o letali. Questo anche per il fatto che la carrozzeria è di lamiera di acciaio relativamente
sottile, che è un conduttore peggiore del rame o dell’alluminio, e che per la presenza della portiera e
delle non perfette connessioni fra le varie parti della scocca la resistenza elettrica fra il bordo e la
parte bassa vicino al suolo può non essere trascurabile.
In conclusione, penso che si possa dire solamente che tale macchina è relativamente  meno sicura di
una automobile chiusa con scocca interamente metallica.
Ma c’è una possibilità: che cosa dice in proposito il costruttore dell’automobile? Sono stati eseguiti
dei test sulla sicurezza di questa vettura in mezzo ad un temporale violento?

Nell'immagine si vede l'effetto della scarica di un fulmine sulla carrozzeria di un’automobile. Come
si vede il danno non è poi così grave.  
Guido Pegna Dipartimento di Fisica, Università di Cagliari

63