Sei sulla pagina 1di 34

IL CARSISMO

Il carsismo è una particolare forma di modellamento del terreno, superficiale e sotterraneo, causata dall'azione
dell’acqua sulle rocce, tipico della regione italo-slovena del Carso, un altopiano delle Alpi orientali.
Le aree in cui si presenta il carsismo hanno queste caratteristiche:
 presenza di rocce superficiali solubili (calcari, dolomie o evaporiti);
 precipitazioni abbondanti;
 superfici complessivamente pianeggianti, prive di rilievi marcati;
 presenza di fessure e crepe nelle rocce;
 notevole aridità con scarsa vegetazione perché manca una circolazione superficiale.
Nelle regioni carsiche si creano in superficie le condizioni per la dissoluzione del calcare, mentre nel sottosuolo si
realizzano condizioni che permettono la precipitazione del carbonato di calcio.
Il carbonato di calcio viene intaccato dall’acqua che attraversando l’atmosfera e scorrendo sul terreno si carica di
anidride carbonica diventando acida, dando origine a bicarbonati solubili.
CaCO3 + CO2 + H2O → Ca(HCO3)2
ì
Se il calcare non è puro, possono restare nel suolo minerali residuali, principalmente ossidi di ferro e minerali
argillosi, che conferiscono colorazioni particolari al terreno:
 nelle regioni mediterranee resta spesso una copertura di argilla rossa (terre rosse),
 nelle zone tropicali si forma la bauxite.

Le doline sono depressioni concave a fondo chiuso (profondità variabile dai 2 ai 200 m e diametro compreso tra i 10
e i 1000 m) che si formano in seguito alla solubilizzazione del calcare o per subsidenza del terreno, oppure per il
crollo del tetto di una grotta.
.
Talvolta, sul fondo delle doline si apre un inghiottitoio, una specie di imbuto attraverso il quale l'acqua, ricca di sali
sciolti, penetra nelle cavità sotterranee. Quando l'inghiottitoio è particolarmente profondo e con pareti verticali, a
pozzo, viene detto foiba.
L'acqua, penetrando nelle fratture o lungo i piani di stratificazione, le allarga progressivamente e si spinge sempre più
in basso. Quando più fratture si intersecano, si forma un condotto che raccoglie l'acqua, che poi confluisce in condotti
sempre più grandi. La pressione allarga le fessure nelle pareti del condotto e, quando l'acqua defluisce, rimangono
grotte, gallerie, pozzi e abissi (salti verticali di centinaia di metri).
In questo reticolo di condotti si crea una circolazione sotterranea che a volte può essere notevole e costituire veri e
propri laghi e fiumi sotterranei.

Nelle fessure rimane l’acqua di percolazione, che riveste le pareti di incrostazioni calcaree. Le concrezioni calcaree
derivano, come citato sopra, dal processo inverso rispetto alla dissoluzione. L'acqua, contenente il bicarbonato di
calcio in soluzione, uscendo dalle fessure all'interno delle grotte, si espande in veli sottili e viene a contatto con l'aria
che in genere è più calda e povera di biossido di carbonio. Una parte del biossido di carbonio disciolto, perciò, sfugge
all'acqua e la diminuzione di acidità che ne consegue causa la trasformazione del bicarbonato di calcio solubile in
carbonato di calcio, che precipita. Si formano così le stalattiti, pendenti dal soffitto della grotta. Le gocce d'acqua che
cadono sul pavimento, contengono ancora del calcare che si deposita al suolo, creando concrezioni chiamate
stalagmiti, che si accrescono verso l'alto e hanno una forma più tozza e massiccia delle corrispondenti stalattiti e
sono prive del condotto interno. Stalattiti e stalagmiti possono crescere fino a saldarsi formando colonne di alabastro.
LA PLASTICA

Le materie plastiche sono sostanze inorganiche scoperte da Giulio Natta negli anni 50 del secolo scorso, egli capì che
mettendo in sequenza tantissime piccole molecole per costruire un polimero si creava una sostanza con proprietà
eccezionali: resistenti, duttili, flessibili, leggerissime, idrorepellenti, colorabili, inattaccabili da muffe e batteri;
qualcuno a quel tempo disse addirittura che la plastica era il materiale che Dio aveva dimenticato di inventare.
Dal punto di vista chimico i polimeri possono essere classificati in due macrocategorie:
- polimeri termoplastici che possono essere fusi e modellati più volte, e perciò riciclabili;
- polimeri termoindurenti che possono essere fusi e modellati una sola volta, e perciò non riciclabili.
Con il tempo sono stati ideati diversi metodi per produrre le materie plastiche, a seconda dell'origine la plastica può
essere:
- naturale cioè presente in natura come il caucciù, la cellulosa, o le bioplastiche estratte da alghe e mais;
- sintetica cioè prodotta chimicamente a partire dal petrolio e dai suoi derivati o dal gas naturale.

Le principali lavorazioni che permettono di ottenere prodotti finiti a partire da materie plastiche sono il soffiaggio (di
aria compressa all'interno di uno stampo predisposto questa operazione, consente di produrre recipienti cavi come
bottiglie e taniche), lo stampaggio a caldo (che avviene pressando il materiale plastico all'interno di uno stampo per
riprodurre la forma), l'estrusione (cioè la fusione continua del materiale plastico che viene fatto passare attraverso
una filiera che forma il prodotto).
Per molto tempo la plastica è stata impiegata dall’essere umano senza che nessuno si accorgesse del suo “lato
oscuro”. L'uso della plastica pone oggi un'importante questione ambientale: nonostante la sua versatilità e la
possibilità di riciclo ogni anno circa 8 milioni di tonnellate di plastica finiscono nei nostri oceani con gravi
conseguenze per l'ambiente e per l'uomo. Essa si aggrega infatti negli oceani creando isole grandi come paesi interi.
Poiché la plastica è una creazione umana, in milioni di anni la natura non ha mai creato microorganismi in grado di
digerirla, così una volta gettata nell'ambiente una bottiglia di plastica si conserva per centinaia di anni forse anche per
migliaia senza essere intaccata.
In sessant'anni sono state prodotte 9,2 miliardi di tonnellate di plastica tra qualche decennio saranno più del doppio,
e di queste soltanto il 9% viene riciclato.
Ancora più pericolose sono le microplastiche, grandi meno di 1/3 di millimetro che si infiltrano dappertutto, persino
negli abissi, che ancora pensavamo incontaminati 1/3 di tutti i pesci dei nostri oceani ha già dentro di sé un po’ di
microplastica.
Un’alternativa alle plastiche, decisamente più ecosostenibile, sono le bioplastiche: un materiale termoformabile che
può essere fusa e trasformata in diversi oggetti, Più precisamente:
- può derivare (del tutto) da biomassa (per esempio: bio-PE, bio-PP, bio-PET)
- può derivare interamente da materie prime rinnovabili ed essere biodegradabile (come PBAT e PCL)
- può derivare da biomassa e non essere biodegradabile (per esempio: PLA, PHA, PHB, plastiche a base di
amido)
La più plausibile soluzione al giorno d’oggi risulta essere la bioplastica, termine formato dal prefisso bio (vita) e
plastica, il prefisso può indicare sia l’origine della plastica da materie prime biologiche che la biodegradazione
(degradazione naturale dovuta a microorganismi). Tuttavia spesso non tutte le bioplastiche godono di entrambe le
caratteristiche.
MARIE THARP – la cartografa della deriva dei continenti

È l’inverno tra il 1942 e il 1943 e gli Stati Uniti sono entrati nella Seconda Guerra mondiale da poco più di un anno. A
muoverli non fu tanto la dichiarazione di guerra che Adolf Hilter e la Germania nazista fecero nel marzo del 1941,
quanto il famigerato attacco a Pearl Harbor il 7 dicembre di quello stesso anno: il Giappone aveva colpito l’America
sul suo territorio. Negli anni Quaranta del Novecento, guerra vuol dire migliaia di giovani uomini che vengono
arruolati e mandati al fronte, sottraendo forza lavoro alle industrie e iscritti alle università. È così che quell’inverno
compare un avviso sulle bacheche dei campus americani per offrire un corso accelerato in geologia aperto anche
alle donne. L’industria petrolifera nazionale, infatti, sa che senza i laureati maschi impegnati al fronte rischia di
trovarsi a corto di tecnici negli anni successivi. L’avviso si trova anche nei corridoi dell’ Università dell’Ohio dove viene
notato da una ragazza all’ultimo anno che si sta per laureare in materie “femminili”, inglese e musica. Quell’avviso le
cambia la vita, avviando la carriera di Marie Tharp verso l’oceanografia e la scoperta della dorsale atlantica che
confermerà la deriva dei continenti.

Per anni Marie lavora a servizio di aziende petrolifere, per poi spostarsi al Lamont Geological Observatory, uno dei
primi centri di studio geologico fondato nel 1949 dal sismologo Maurice Ewing, pioniere nell'uso delle onde sonore
per analizzare le rocce e i sedimenti sul fondo dell'oceano.
Nel 1952 Tharp comincia a lavorare con il geologo Bruce Heezen allo scopo di individuare gli aerei abbattuti
sull’oceano Atlantico durante la Seconda Guerra mondiale. Per farlo, i due scienziati analizzano l’archivio di dati
raccolti con i sonar durante il conflitto e ancora da studiare. Grazie a queste informazioni è possibile creare delle
mappe, la specialità di Marie. È un primo assaggio dello studio che conducono per i successivi decenni, quando
grazie alle campagne di raccolta dati a bordo di navi dotate dei migliori e più sofisticati sonar, e alla conseguente
trasformazione in cartografia, Heezen e Tharp realizzano la più dettagliata mappatura dei fondali di tutti gli oceani.
La mappa confermerà che i continenti si muovono a causa del vulcanismo sommerso presso le dorsali oceaniche, ma
non sarà una conclusione facilmente accettata.
Le mappe batimetriche disegnate da Tharp contraddicono l’idea sostenuta ancora all’inizio del Novecento da alcuni
scienziati che i fondali oceanici fossero piatti e omogenei. Al contrario, la cartografia prodotta da Tharp mostra  un
panorama estremamente variegato, con questa straordinaria struttura che la taglia da nord a sud. Tharp pensa subito
a una rift valley, un taglio nella crosta terrestre, frutto della spinta delle forze endgene sottostanti. È la prova che
Alfred Wegener aveva ragione con la sua teoria della deriva dei continenti. Come scrive Hali Felt, la principale
biografa di Tharp, “la Rift Valley era una prova lunga 10.000 miglia”.

Bruce Heezen non la pensa così. L’idea di un rift lungo la dorsale medio-atlantica era rivoluzionaria e
potenzialmente mal vista dal corpo scientifico, soprattutto quello americano che aveva rifiutato le idee di Wegener.
Inizialmente, quindi, le definisce “chiacchiere da ragazza”. Ma la tenacia di Tharp alla fine ha la meglio, soprattutto
dopo che i dati raccolti con il sonar proprio da Heezen in quasi venti anni di esplorazioni degli oceani confermano
l’idea del rift. Nello stesso periodo, al Lamont Geological Observatory un gruppo mappa gli epicentri dei terremoti
sottomarini su una carta che ha la stessa scala di quella a cui lavora Tharp. Confrontando le due mappe, Tharp e
Heezen si accorgono che combaciano quasi perfettamente, contribuendo a consolidare le prove a sostegno
dell’esistenza del rift.
Wegener – la teoria della deriva dei continenti

L’idea che le masse crostali potessero spostarsi orizzontalmente fino a quel tempo (e ancora oggi) era legata al nome
di Alfred Wegener, egli nel 1912 espose al congresso della Società Geologica di Francoforte la teoria della deriva dei
continenti, secondo la quale nel Paleozoico e nel Triassico esisteva un unico grande continente, la Pangea, circondata
da un unico grande oceano la Pantalassa. Secondo tale modello circa 200 milioni di anni fa il grande continente ha
iniziato a smembrarsi e grandi masse continentali andarono alla deriva, ciò sarebbe alla base della nascita delle
catene montuose:
- le cordigliere occidentali (Montagne rocciose e Ande) si sarebbero originate durante la deriva delle Americhe;
- Alpi, Caucaso e Himalaya si sarebbero formate dallo scontro dei blocchi di Eurasia e Africa.
Le osservazioni alla base della teoria di Wegener vennero:
- Dall’osservazione di un atlante geografico, è infatti possibile osservare come i confini continentali
sembrerebbero incastrarsi tra di loro (questa osservazione venne messa in dubbio poiché i contorni non
coincidono perfettamente ma ovviamente non si teneva conto dell’azione del tempo). Oggi sappiamo tuttavia
che il limite tra continenti e fondali oceanici non si trova in superfice, ma a circa 900m di profondità,
accostando questi confini la coincidenza risulta molto più evidente. (prove geomorfologiche)
- Confrontando rocce e fossili presenti sulle due sponde dell’Oceano Atlantico, si è osservata infatti una grande
somiglianza tra esse (alcuni fossili di felci e rettili si sono trovati solo in Sud America e nella parte di Africa
corrispondente), fino ad allora si era utilizzata la teoria dei ponti continentali, che sarebbero poi sprofondati
negli oceani. (prove paleontologiche)
- Osservando la distribuzione dei climi sulla terra nelle epoche passate si è potuto osservare che i continenti
che oggi hanno un clima tropicale, un tempo erano ricoperti di ghiaccio, mentre zone oggi settentrionali che
oggi presentano giacimenti di carbone o depositi che si creano solo in ambienti caldi e secchi, testimoniano
che un tempo erano zone a clima tropicale. Si deduce così che la Pangea di allora era molto più spostata a
sud dei continenti attuali.
I geologi dell’epoca non considerarono sufficienti le prove descritte e accolsero la teoria della deriva dei continenti
con ostilità e con scetticismo, principalmente anche perché Wegener propose la forza centrifuga della rotazione
terrestre come causa principale della spinta dei continenti verso l’equatore, e forze come l’attrazione luni-solare o le
correnti convettive del mantello, come causa della deriva verso Ovest del continente americano. Si trattava di
conseguenze completamente sproporzionate alle cause, che quindi non convinsero gli scienziati.
Le critiche feroci dei geologi, soprattutto americani, fecero dimenticare la teoria di Wegener (ancora nel 1949 era
ritenuta una favola) fino all'arrivo della nuova teoria della Tettonica delle Placche*.

* La della Teoria Tettonica delle placche (o Tettonica delle zolle), elaborata negli anni Sessanta del Novecento, appare
in grado di riunire e organizzare gli studi e le osservazioni precedenti (la teoria della deriva dei continenti e la teoria
dell’espansione dei fondali oceanici).
Secondo la Teoria della Tettonica delle placche, la litosfera (l’involucro rigido più esterno della crosta terrestre) è
suddivisa in 20 placche (o zolle) rigide.
Queste placche galleggiano sulla sottostante astenosfera.
Le placche, galleggiando, possono: allontanarsi l’una dall’altra; avvicinarsi e scontrarsi; avvicinarsi e scorrere l’una
accanto all’altra.
Quando due placche (o zolle) si allontanano l’una dall’altra si crea o si accentua la spaccatura da cui fuoriesce il
magma e possono verificarsi due fenomeni:
 Se l’allontanamento cessa dopo breve tempo tra le due placche (o zolle) resta solo una grande frattura, detta
fossa tettonica, una struttura caratterizzata da ripide pareti a gradinata.
.
È questo il caso del grande sistema di fratture dell’Africa orientale, detto Great Rift Valley, che dal Mar Morto
si estende fino ai grandi laghi dell’Africa orientale.
 Se invece l’allontanamento continua per lungo tempo si determina la formazione di un nuovo mare
che può diventare un oceano, mentre le due zolle trascinate dai moti convettivi si allontanano
sempre più.
È questo il caso, ad esempio, della placca (o zolla) sudamericana e di quella africana che, lungo la
dorsale medio-atlantica, si stanno allontanando a una velocità di 2 cm all’anno.
Quando due placche si avvicinano e si scontrano possono verificarsi tre fenomeni:
 Se le placche che si scontrano sono due placche oceaniche, una si piega e si incunea sotto l’altra trascinata
dalle correnti del mantello. Questa placca forma di fronte all’altra una fossa oceanica e, scendendo verso
zone più profonde e calde del mantello, fonde e diventa magma. Questo fenomeno, detto subduzione, fa sì
che parte di questo magma ritorni nel mantello, mentre un’altra parte può riemergere dando origine a dei
vulcani che possono formare un arco vulcanico insulare.
 Se le placche che si scontrano sono una placca continentale e una placca oceanica, quest’ultima sprofonda
sotto l’altra; i materiali di cui è formata la placca oceanica ritornano nel mantello, fondono e diventano
magma. Per subduzione, si ha la formazione di fosse oceaniche o di archi vulcanici insulari, con il verificarsi di
terremoti e fenomeni vulcanici. Il materiale sprofondato, infatti, fonde e in parte tende a risalire alimentando
i fenomeni vulcanici.
 Se le placche che si scontrano sono due placche continentali, esse hanno la stessa densità, nessuna delle due
affonda nel mantello, ma subiscono delle compressioni, dei piegamenti e, accavallandosi l’una sull’altra,
formano delle catene montuose.
Tale fenomeno, detto orogenesi, è ad esempio, quello che ha dato origine alle Alpi e alla catena
dell’Himalaya. Quando due placche si avvicinano e scorrono l’una accanto all’altra, lungo una linea di
contatto che viene detta faglia, non si ha né produzione né distruzione di crosta terrestre.
Un esempio è la faglia di San Andreas in California, dove la placca pacifica slitta a fianco della placca
nordamericana alla velocità di 5 cm all’anno.
Questo scorrimento avviene a scatti e ciò può provocare dei terremoti.

OROGENESI
La principale manifestazione dell’attività tettonica è l’orogenesi, ossia la formazione delle catene montuose.
L’orogenesi è un insieme di processi di deformazione e dislocazione di grandi masse rocciose, accompagnati da
processi magmatici e metamorfici, innescati dalle forze tettoniche che agiscono lungo i margini di convergenza,
causando corrugamenti e innalzamenti dei sedimenti e delle rocce della crosta.
Quando due placche tettoniche scorrendo sul mantello fluido si scontrano, gli intensi sforzi fratturano e deformano la
roccia fino a produrre pieghe e corrugamenti della crosta. Per effetto di questa trasformazione la crosta stessa
subisce un significativo inspessimento. Seguendo il principio di isostasia (ogni variazione della massa dei blocchi
crostale da origine a uno spostamento verticale delle masse rocciose che permette di raggiungere un nuovo
equilibrio) queste porzioni più spesse si sollevano rispetto a quelle circostanti dando origine alle catene montuose. È
ciò che è successo, per esempio, quando il subcontinente indiano, distaccatosi dalla zolla africana, è andato a
scontrarsi contro la zolla eurasiatica. Il risultato è la catena dell’Himalaya nella cui disposizione dei rilievi lungo l’asse
est-ovest si riconosce la cicatrice della saldatura delle due porzioni di crosta.
L’Italia si trova proprio all’incontro tra zolla africana e zolla eurasiatica, le quali sono spinte l’una contro l’altra dai
movimenti del mantello. 
Nel corso della storia della Terra si sono verificati diversi cicli orogenetici, durante i quali si sono creati i principali
rilievi.
FENOMENI SISMICI
Un terremoto (o sisma) è una vibrazione che si verifica nella crosta terrestre. È dovuta a un’improvvisa liberazione,
nel sottosuolo, di energia elastica (l’energia che si accumula in un corpo elastico sottoposto a deformazione).
Secondo la teoria elaborata da Reid le rocce, sottoposte a spinte o pressioni, si comportano in maniera elastica e si
deformano progressivamente, fino a quando non si raggiunge il limite di rottura. Superato il limite, la roccia si spezza
e le due parti slittano bruscamente l’una rispetto all’altra: nello scatto, l’energia elastica si trasforma in energia
cinetica, provocando vibrazioni che si propagano tutt’intorno sotto forma di onde sismiche (non c’è dunque trasporto
di materia, ma la propagazione di una perturbazione elastica in ogni direzione). Con la rottura, nelle rocce si forma
una faglia, cioè una superficie di taglio tra due blocchi di rocce.
I terremoti non si verificano soltanto nel momento della formazione della faglia, ma anche lungo faglie esistenti,
quando si «riattivano».
Il punto all’interno della Terra in cui ha inizio lo scivolamento dei blocchi rocciosi che generano le onde sismiche si
chiama ipocentro del terremoto.
La proiezione di questo punto sulla superficie terrestre (cioè il punto situato sulla verticale dell’ipocentro) si chiama
invece epicentro.
Dall’ipocentro le onde sismiche si propagano per tutta la Terra, indebolendosi man mano che si allontanano dal
punto di origine del terremoto.

Durante un terremoto vengono liberate onde di tre tipi: onde P, onde S (entrambe interne) e onde superficiali L;
ciascun tipo di onde produce, nelle rocce che attraversa, una particolare deformazione.
Le onde sismiche più veloci, che arrivano per prime, sono le onde P, seguite dalle onde S. Queste onde si propagano
all’interno del pianeta e, arrivate in superficie, generano le onde superficiali.
Velocità e modo in cui si propagano le onde sismiche dipendono dai materiali attraversati.
Confrontiamo i tre tipi.
1. Le onde P sono onde di compressione: al loro passaggio, le particelle di roccia oscillano avanti e indietro nella
direzione in cui si sta muovendo l’onda. Le onde P sono le più veloci. Possono propagarsi in ogni mezzo: nelle rocce
più compatte, nel magma, nell’acqua o nell’aria.
2. Le onde S sono invece onde trasversali, o di taglio: al loro passaggio provocano un cambiamento della forma della
roccia, ma non una variazione di volume. Le particelle di roccia oscillano perpendicolarmente alla direzione di
propagazione dell’onda. Non possono propagarsi attraverso i fluidi.
3. Le onde superficiali L hanno forme diverse, a seconda di come sono giunte in superficie le onde P e S. Si propagano
a partire dall’epicentro.

Il sismografo è lo strumento con il quale vengono registrate le onde sismiche. Dai sismogrammi – i tracciati che
mostrano le onde sismiche dei diversi tipi – registrati in queste stazioni si possono ricavare molte informazioni
importanti: per esempio l’entità e la durata di un terremoto, oppure la posizione del suo epicentro.

La forza di un terremoto è valutata seguendo le scale sismiche:


- Scala di intensità MSC – Mercalli, assegna a ogni sisma un grado da I a XII sulla base degli effetti che le scosse
producono in superficie, non misura l’energia del terremoto in quanto i danni possono essere influenzati da
molti fattori;
- Scala Richter, basata sulla determinazione della magnitudo stabilita confrontando l’ampiezza massima delle
oscillazioni registrate dal sismografo.

Attraverso lo studio dei sismogrammi i geologi hanno trovato una certa regolarità nella distribuzione degli epicentri
dei terremoti. Essi sono allineati seguendo delle fasce ai margini dei continenti o lungo o nei pressi delle dorsali
oceaniche.
Una delle fasce sismiche più note è la Cintura di fuoco che circonda l’Oceano Pacifico.
Lungo la Cintura di fuoco, i terremoti si verificano in prossimità delle grandi fosse abissali, sia dove queste si
sviluppano lungo il margine di un continente, sia dove esse sono affiancate da un arco di isole.
Un’altra fascia sismica segue il percorso delle catene montuose che si sono formate in tempi più recenti, a nord del
Mar Mediterraneo occidentale, fino all’Himalaya, con un ramo che prosegue verso la Cina.
FENOMENI VULCANICI
Il fenomeno del vulcanismo è la risalita, dagli strati più interni della Terra di materiali rocciosi allo stato fuso,
mescolati a gas e vapori, ad altissime temperature e ad altissima pressione, denominati magma, che, una volta in
superficie, danno origine al fenomeno vulcanico: diventano lava quando perdono i gas una volta fuoriusciti dal
cratere vulcanico e si raffreddano rapidamente, si solidificano e disperdono nell’atmosfera.
I magmi si originano all’interno della crosta e nella parte alta del mantello, tra i 15 e i 100 km di profondità. Il
processo di fusione si verifica in presenza di particolari condizioni chimiche e fisiche (come aumento di temperatura,
diminuzione di pressione, arrivo di fluidi). Esistono due diversi tipi di magma:
- Magma femico, più caldo e fluido, porta all’attività effusiva:
- Magma sialico, meno caldo e più viscoso, forma un “tappo” che impedisce la fuoriuscita di gas, dunque porta
ad attività esplosiva.
La massa fusa si muove verso l’alto per la sua minore densità rispetto ai materiali circostanti. La velocità di risalita di
una massa di magma dipende dalla sua viscosità, dal volume, dalla profondità della zona in cui si origina, dalla
temperatura delle rocce circostanti.
L’attività vulcanica sulla superficie terrestre dà origine a edifici vulcanici, che si accrescono o all’estremità aperta in
superficie (cratere) di un condotto vulcanico, di forma quasi cilindrica (vulcani centrali o areali) o lungo grandi
spaccature (vulcani lineari).
La forma dell’edificio vulcanico dipende dal tipo di materiale eruttato.
Esistono:
- vulcani-strato, dalla tipica forma a cono e caratterizzati da eruzioni esplosive; L’edificio, a forma di cono, è
costituito da un’alternanza di strati di lava e piroclastiti.
- vulcani a scudo, caratterizzati da eruzioni effusive. Si origina per la fuoriuscita di lava molto fluida che non ha
la capacità di creare edifici alti e scorre anche per km. Si forma per l’accumularsi di sottili colate basaltiche
che si espandono prima di solidificarsi in coltri.

In base al vulcano e al magma si possono verificare diverse tipologie di eruzione:


- eruzione hawaiana. Tipica del vulcano scudo, con effusioni di lave molto fluide, eruttate da una bocca
(depressione)che, in alcuni casi, può sprofondare e formare un cratere a pozzo, sul cui fondo può ristagnare
un lago di lava.
- eruzione islandese. La lava sempre molto fluida fuoriesce da lunghe fessure laterali aperte nella crosta invece
che da un edificio centrale e si estende in vaste coltri. Successive eruzioni effusive formano vasti
espandimenti lavici basaltici, plateaux basaltici.
- eruzione stromboliana: la lava è meno fluida e ristagna periodicamente nel cratere, dove inizia a solidificare.
Al di sotto della crosta solida si accumulano i gas che si liberano dal magma. La loro pressione aumenta (a
causa delle elevate temperature e della diminuita pressione per il minor carico delle rocce sovrastanti,
trovandosi ormai il magma vicino alla superficie) fino a far saltare la crosta con modeste esplosioni che
lanciano in aria brandelli di lava fusa. Esaurita la spinta dei gas, la lava torna a ristagnare sul fondo del cratere
formando una nuova crosta solida, finché un nuovo accumulo di gas nel giro di un breve intervallo farà
ripetere il fenomeno.
- eruzione vesuviana/pliniana: è il modello del Vesuvio del 79 d.C. (Plinio il Giovane). Estrema violenza
dell’eruzione iniziale, che svuota gran parte del condotto con lave ancora più dense e il magma, molto ricco di
gas, risale con grande velocità (la colonna di vapori e lava supera la velocità del suono e raggiunge anche i 30
Km).

Manifestazioni tardive / vulcanesimo secondario:


- Geyser: getti d’acqua calda che provengono dalla falda freatica. Si manifestano quando da una cavità aperta
in superficie viene emessa, a intervalli quasi regolari, un’alta colonna d’acqua (calda e ricca di sostanze
minerarie), spinta a grandi altezze. Sono tipici del Nord America e dell’Islanda.
- Acque termo-minerali
- Fumarole: emissioni di gas e vapore caldo;

Considerando la frequenza delle eruzioni e la quantità di prodotti a cui esse


danno origine (che dipendono da magmi fluidi e magmi viscosi) si hanno due
tipologie di vulcanismo: effusivo ed esplosivo.
- Effusivo: Quando un magma fluido risale verso la superficie, al diminuire della pressione gli aeriformi si
liberano gradualmente, la lava fluisce rapidamente e si espande anche su grandi distanze. La manifestazione
più imponente del vulcanismo effusivo avviene sott’acqua ed è associata alle dorsali oceaniche.
- Esplosivo: Quando il magma che risale è molto viscoso e ricco di gas, al diminuire della pressione i gas si
liberano in singole bollicine, ma a causa della viscosità, non riescono a espandersi liberamente. La pressione
deve salire enormemente prima di vincere la resistenza della massa fusa e della crosta. Quando avviene, si
verifica una fortissima esplosione e i gas fuoriescono con violenza, trascinando frammenti di rocce e lava
originando una nube ardente che sale verticalmente e quando perde energia ricade sul vulcano e scorre
lungo le pendici formando colate piroclastiche.

I vulcani attivi sono geograficamente localizzati in lunghe e strette fasce in corrispondenza di dorsali oceaniche, archi
di isole, fosse tettoniche, rilievi di recente formazione. Al di fuori delle fasce vi sono i punti caldi, vulcani isolati che
emettono lave basaltiche.
l’Italia è caratterizzata da un’intensa attività vulcanica. I principali vulcani attivi sono: Vesuvio, Ischia, Campi Flegrei,
Stromboli, Vulcano, Lipari, Etna.
IL MAGNETISMO TERRESTRE – BIPOLARITà DELLA TERRA/INVERSIONE DI POLARITà

La Terra produce un campo magnetico che può essere descritto supponendo che al centro della Terra esista una
barra magnetica, inclinata di circa 11° 30' rispetto all'asse di rotazione; esso genera linee di forza che escono dal Sud
magnetico per rientrare dal Nord magnetico. Il campo influenza gli oggetti magnetici come l'ago di una bussola, che si
dispone parallelamente alle linee di forza.
La direzione indicata dall'ago della bussola non corrisponde esattamente a quella dei poli geografici, perciò, i due poli
magnetici non sono diametralmente opposti come quelli geografici.
La differenza tra la direzione del polo geografico e quella del polo magnetico genera è definita da un angolo sul piano
dell'orizzonte detto declinazione magnetica.

Il campo magnetico terrestre è soggetto a variazioni che possono essere di breve periodo (da ore ad anni), a causa di
interazioni tra il campo interno della Terra e gli strati conduttivi dell'atmosfera, oppure dell'ordine di centinaia di
migliaia di anni, e si possono rilevare dall'analisi delle rocce basaltiche.

Le informazioni sul campo magnetico del passato possono essere ricavate dallo studio delle rocce, in particolare di
quelle che contengono minerali ferrosi (magnetite, ematite) che si sono fossilizzate; la disciplina che studia la
direzione fossile del campo magnetico terrestre è detta paleomagnetismo.
Gli atomi presenti nelle rocce possono orientarsi, se ne hanno la possibilità, secondo il campo magnetico del luogo in
cui si trovano; infatti, essi possiedono elettroni in movimento che sono sensibili ai campi magnetici. Se i minerali
dotati di suscettività magnetica (sensibilità al campo magnetico) si trovano allo stato fuso, gli atomi si dispongono in
modo casuale. A mano a mano che la temperatura diminuisce e il magma comincia a solidificarsi, gli atomi si
orientano secondo la direzione del campo magnetico presente in quel momento in quel punto e la loro posizione
rimane “fossilizzata” (magnetizzazione termorimanente) quando la roccia si è completamente solidificata. In questo
modo è possibile ricostruire la storia del campo magnetico della Terra.

Si può avere anche una magnetizzazione detritica (o deposizionale). I sedimenti detritici contengono piccolissimi
granuli ferromagnetici che si allineano secondo il campo magnetico durante la sedimentazione. Dopo aver toccato il
fondo (del mare, di un fiume, di un lago), i granuli magnetici sono immersi in una fanghiglia acquosa in cui sono
ancora liberi di ruotare, come gli aghi di una bussola, per allinearsi al campo magnetico terrestre. È dopo la
litificazione, quando il sedimento diventa dura roccia, che i granuli restano bloccati e non sono più in grado di
orientarsi nuovamente.

Lo studio delle colate laviche di epoche diverse in alcune località del globo ha mostrato un fenomeno interessante. Se
si osserva l'orientamento dei minerali ferrosi all'interno delle rocce, si nota che, nella successione delle epoche, essi
presentano una disposizione differente, come se il polo nord magnetico si fosse progressivamente spostato.
Allo stesso modo, rocce della stessa età, ma di zone diverse, danno posizioni differenti del polo nord magnetico. Si
tratta dell’ennesima prova a favore della tettonica a placche, infatti, spostandosi le masse continentali può essere
capitato che atomi che prima erano orientati nella stessa direzione non combacino più.

Il campo magnetico non mantiene sempre la medesima orientazione, ma subisce una inversione di polarità (il polo
nord diventa polo sud e viceversa) mediamente ogni mezzo milione di anni.
Metà, infatti, delle rocce studiate presenta una magnetizzazione opposta a quella attuale.
I periodi più lunghi, dell'ordine del mezzo milione d'anni, sono chiamati epoche magnetiche, ognuna col nome di un
famoso scienziato esperto di paleomagnetismo. Durante le epoche si registrano anche brevi inversioni dette eventi
magnetici, che possono durare dai 50.000 ai 200.000 anni.
L'ultima inversione del campo magnetico si è verificata circa 20000 anni fa.
Per quanto riguarda la causa delle inversioni, è comunemente accettato che si tratti di un fenomeno legato al
verificarsi casuale (stocastico) di evoluzioni e andamenti non ancora chiari del moto convettivo presente nel nucleo
esterno liquido.
ASTROFISICA
Le stelle ci appaiono come punti luminosi distribuiti in ogni direzione sulla Sfera celeste; per localizzare rapidamente
(e approssimativamente) la posizione dei corpi celesti si fa riferimento alle costellazioni, raggruppamenti di stelle che
si trovano a diversa distanza dalla Terra e, solo a causa della prospettiva, ci appaiono sullo stesso piano.
La posizione degli astri sulla Sfera celeste viene indicata utilizzando le coordinate celesti:
- Declinazione celeste, ossia la distanza angolare tra la stella considerata e il piano dell’equatore celeste;
- Ascensione retta, ossia la distanza angolare della stella dal meridiano celeste che passa per il punto gamma
(punto particolare della costellazione dell’Ariete).

In astronomia si utilizzano varie unità di misura per esprimere le enormi distanze tra i corpi celesti:
- Unità astronomica, pari alla distanza media tra la terra e il Sole (≈ 149 600 000 km);
- Anno-luce, distanza percorsa in un anno dalla radiazione luminosa (v luce = 3,0 x 10
^8);
- Parsec, distanza di un punto dal quale l’osservatore vedrebbe il semiasse maggiore dell’orbita terrestre
perpendicolarmente.

Caratteristiche delle stelle – la diversa luminosità con cui vediamo le stelle è detta magnitudine apparente, grandezza
che viene misurata con i fotometri fotoelettrici. In base alla loro luminosità apparente le stelle vengono suddivise in
sei classi, la prima per le stelle più luminose, la sesta per le più deboli, ma ancora visibili ad occhio nudo.
La diversa luminosità con cui vediamo le stelle è dovuta alla loro differente capacità di emettere luce e, soprattutto,
alla loro diversa distanza. È definita magnitudine assoluta la luminosità che le singole stelle mostrerebbero se fossero
poste alla distanza standard dalla Terra di 10 parsec.
Spesso le stelle formano sistemi in cui due astri ruotano intorno ad un baricentro comune (stelle doppie).
La massa e il diametro delle stelle possono variare entro limiti molto ampi.
Il colore dipende dalla loro temperatura superficiale, esiste una scala che permette, in base al colore di stabilire la
temperatura delle stelle, essa va dalle stelle di colore rosso (3000 K) alle stelle di colore bianco-azzurro (60 000 K).
La composizione chimica della parte esterna delle stelle è analizzata per mezzo di spettri, essa risulta composta:
- 80% idrogeno
- 19% elio
- 1% tutti gli altri elementi chimici
Le stelle si muovono con velocità diverse. Los studio dell’effetto Doppler sugli spettri delle stelle consente di valutare
se si avvicinano o si allontanano rispetto alla Terra.
Lo spazio tra le stelle non è vuoto, ma è occupato da materia interstellare che forma le nebulose. Da tale materia
interstellare si originano le stelle.

Evoluzione dei corpi celesti – nelle stelle avvengono reazioni termonucleari che liberano enormi quantità di energia.
Alcune stelle si formano per condensazione di parti di nebulose; altre “bruciano” stabilmente il loro combustibile
nucleare; altre si avviano verso la loro fase finale, esse hanno quindi un’evoluzione.
L’evoluzione dei vari tipi di stelle è sintetizzata nel diagramma H-R, che riporta in ascissa la temperatura superficiale
delle stelle ed in ordinata la loro luminosità. La maggior parte delle stelle si distribuisce lungo la sequenza principale
del diagramma, al di fuori di essa si trovano le giganti rosse, le supergiganti e le nane bianche.
Le stelle si formano per addensamento e contrazione di parte di una nebulosa. Se la massa è scarsa si forma una
nana bruna, altrimenti si innescano le reazioni termonucleari e la stella inizia la sua evoluzione.
La posizione e la permanenza di una stella nella sequenza principale dipendono dalla massa iniziale della nebulosa da
cui si è originata: stelle che nascono con una grande massa diventano più calde, stelle con massa piccola rimangono
meno calde ma sono più longeve. Lo stadio evolutivo seguente è per tutte quello di gigante rossa.
Dopo la fase di gigante rossa l’evoluzione procede in modo diverso in base alla massa iniziale della stella:
- Stelle con massa iniziale poco inferiore a quella del Sole diventano nane bianche;
- Stelle con massa iniziale come quella del Sole o poco superiore diventano nane bianche dopo essere esplose
in una nova;
- Stelle con massa iniziale una decina di volte superiore a quella del sole esplodono in una supernova e
lanciano nello spazio una grande quantità di polvere che alimenta le nebulose. Il materiale che rimane dopo
l’esplosione origina una stella di neutroni.
- Stelle con massa iniziale una decina di volte superiore a quella del sole dopo lo stadio di supernova possono
originare i buchi neri*.
*esistono anche i buchi neri galattici con massa miliardi di volte quella del sole e si trovano al centro delle galassie.

Le galassie e la struttura dell’universo – le stelle sono raccolte in galassie. La nostra galassia è la Via Lattea e
comprende almeno 100 miliardi di stelle e ha la forma di un disco con un nucleo allungato da cui si dipartono lunghi
bracci a spirale. Il suo diametro è circa 100 000 a.l.
All’interno delle galassie sono presenti gli ammassi stellari, gruppi di stelle relativamente vicine tra loro che si
muovono tutte insieme. Ammassi di stelle di recente formazione sembrano in grado di innescare la formazione di
nuove stelle nei gas e nelle polveri che le circondano.
Le galassie possono essere:
- A spirale
- A spirale barrate
- Ellittiche
- Globulari
- Irregolari
Le galassie tendono a riunirsi in ammassi e superammassi che ricoprono “bolle” di spazio relativamente vuoto.
Nell’universo sono presenti numerose “radiosorgenti”, ossia oggetti che emettono onde radio, alcuni sono
supernovae, altre sono radiogalassie, altri quasar, ossia corpi stellari che producono emissioni radio di grandissima
intensità.

Galassie, radiogalassie e quasar sembrano in rapido allontanamento, e la velocità dell’allontanamento cresce con la
distanza (legge di Hubble), l’universo sembra quindi essere in espansione.
Cercando di ricostruire l’evoluzione dell’Universo si sono affermate due linee di pensiero:
- Teoria dell’universo stazionario, prevede che l’espansione dell’Universo sia compensata dalla continua
creazione nello spazio di nuova materia, che forma nuove galassie;
- Teoria dell’universo inflazionario, prevede che l’Universo abbia avuto origine, tra 11 e 15 miliardi di anni fa,
per l’esplosione (big bang) di un nucleo primordiale di densità quasi infinita e con una temperatura di miliardi
di gradi, seguita da una rapidissima espansione (inflazione), che generò anche lo spazio in cui si dilatava.
L’energia cominciò a condensarsi in particelle elementari sino a che dopo 300 000 anni la materia si separò
dalla radiazione e iniziò l’evoluzione costruendo l’Universo che conosciamo.
Nell’evoluzione futura dell’Universo si contrastano la contrazione gravitazionale (che comprende l’azione della
materia oscura) e l’espansione dell’Universo (nella quale è prevista l’azione di un’energia oscura).
Ricerche recenti dimostrano che l’espansione dell’Universo è accelerata.
NATURA E SOSTENIBILITà
L’inquinamento ambientale è uno dei problemi maggiormente sentiti del nostro tempo. Se ne stanno prendendo
carico le istituzioni, ma anche i cittadini, che sono sempre più consapevoli delle implicazioni che provengono dallo
sfruttamento delle risorse ambientali.
Tuttavia, sebbene l'informazione sul tema sia molto presente, le persone non sempre sembrano essere troppo
preoccupate dai cambiamenti climatici e, più in generale, dalla mutazione delle condizioni ambientali del pianeta.
Questo probabilmente accade perché, nonostante l’ecosistema soffra dei danni ambientali, i cittadini dei paesi più
sviluppati possano ancora condurre le loro vite in modo indipendente dal livello di salute dell’ambiente in cui vivono.
Questo atteggiamento è completamente sbagliato. Infatti, l’uomo è un essere vivente al pari di tutti gli altri
organismi che popolano il nostro pianeta, e come tale deve riconoscere che la sua vita è strettamente legata alla
natura stessa del nostro mondo.
In altre parole, se l’uomo danneggia l’ambiente in cui vive, in realtà danneggia sé stesso.
Per l’uomo attuale la natura viene vissuta come una realtà che sta fuori di noi, di cui ci serviamo per nutrirci, vestirci,
costruire case, macchine e così via, di cui ci consideriamo padroni sfruttandone i materiali e l’energia. Ciò corrisponde
alla nostra moderna coscienza scientifica: guardiamo verso la natura come spettatori, ne studiamo le leggi con un
approccio prettamente quantitativo e analitico, considerando la dimensione morale della nostra esperienza come
una realtà privata e personale, del tutto staccata dalla ricerca scientifica. Una visione chiaramente dualistica.

I COMBUSTIBILI FOSSILI
I combustibili fossili sono combustibili derivanti dalla trasformazione naturale, sviluppatasi in milioni di anni, di
sostanza organica seppellitasi sottoterra nel corso delle ere geologiche, in forme molecolari via via più stabili e ricche
di carbonio. Si può affermare che i combustibili fossili costituiscono l'accumulo nel sottosuolo di energia che deriva
dal Sole, direttamente raccolta nella biosfera nel corso di periodi geologici dalle piante tramite la fotosintesi
clorofilliana e da organismi acquatici unicellulari, come i protozoi e le alghe azzurre, o indirettamente tramite la
catena alimentare dagli organismi animali.
La categoria dei combustibili fossili comprende:
 petrolio e altri idrocarburi naturali;
 carbone in tutte le sue forme (ad esempio torba e antracite);
 gas naturale.
L'utilizzo sistematico dei combustibili fossili risale alla fine del XVIII secolo con l'inizio della rivoluzione industriale in
Europa e America del Nord, con il forte incremento di richiesta energetica da parte delle industrie; fino agli anni
Cinquanta il fabbisogno energetico era principalmente soddisfatto dall'utilizzo del carbone. La nascita stessa della
rivoluzione industriale inglese venne favorita dalla presenza di numerosi giacimenti carboniferi, minerariamente
sfruttabili, nel territorio nazionale e l'uso del carbone per il trattamento dei minerali ferrosi iniziò all'inizio del XVIII
secolo.
L'utilizzo dei combustibili fossili come principale risorsa di energia è incrementata notevolmente nel XX secolo, nella
seconda metà del quale si è osservata l'affermazione del petrolio come principale fonte energetica, rispetto al
carbone troppo inquinante e in molti casi economicamente più gravoso nell'assieme dei costi di estrazione e
trasporto all'utilizzatore finale; si stima che nel 1955 i combustibili fossili contribuissero al 52% del fabbisogno
energetico mondiale, ed il loro apporto crebbe al 64% nel 1970.
Oggi i combustibili fossili provvedono a poco più dell'85% del fabbisogno energetico mondiale: di questo il petrolio
contribuisce per il 40%, il carbone per il 26% e il gas naturale (in forte crescita di consumo) per il 23%. Un ulteriore
7% viene ricavato dall'energia nucleare; a questo proposito si osserva che per quanto l'uranio non possa essere
considerato un combustibile fossile, come fornitore di energia faccia parte delle risorse naturali limitate e non
rinnovabili.
I combustibili fossili sono oggi giorno la principale fonte energetica sfruttata dall'umanità, grazie ad alcune importanti
caratteristiche che li contraddistinguono:
 sono "compatti", ovvero hanno un alto rapporto energia/volume;
 sono facilmente trasportabili (la trasportabilità del gas naturale è funzione della distanza da compiere e della
topografia delle zone attraversate con il gasdotto);
 sono facilmente immagazzinabili;
 sono utilizzabili con macchinari relativamente semplici;
 costano relativamente poco.
Hanno per contro importanti svantaggi:
 sono inquinanti, anche se con l'utilizzo di macchine moderne questo problema si è notevolmente ridotto.
Una forma di inquinamento è data dalla diffusione in atmosfera di sostanze associate naturalmente a questi
combustibili. Per esempio, la liberazione di anidride solforosa (SO 2) responsabile del fenomeno delle piogge
acide.
 Il loro utilizzo determina un incremento della quantità di CO 2 in atmosfera, un gas non direttamente
inquinante, ma oggi considerato come il maggiore imputato del surriscaldamento globale. La quantità di CO 2
emessa dipende dal tipo di combustibile utilizzato, a parità di energia prodotta il carbone produce una
quantità quasi doppia di anidride carbonica rispetto al gas naturale.
 non sono risorse rinnovabili, dato che il processo di fossilizzazione della sostanza organica è estremamente
lungo e la quantità che oggi si fossilizza è trascurabile rispetto ai fabbisogni energetici della società in cui
viviamo.
Questo comporta un progressivo esaurimento dei giacimenti e quindi delle scorte disponibili, a fronte di un
progressivo e costante aumento della domanda di energia (con conseguente aumento dei prezzi). L'aumento dei
prezzi, la consapevolezza che le scorte disponibili sono destinate ad esaurirsi ed una maggiore sensibilità verso le
tematiche ambientali, ha accentuato le politiche di diversificazione delle fonti dei singoli paesi, favorendo lo sviluppo
di sistemi di approvvigionamento energetico alternativi ai combustibili fossili. L'utilizzo dei combustibili fossili
contribuisce all'aumento della CO2 ed al riscaldamento globale.
La combustione dei combustibili fossili genera acidi solforici, carbonici, e nitrici, che cadono sulla Terra come pioggia
acida, che incidono negativamente sia sulle aree naturali che sull'ambiente costruito. I combustibili fossili contengono
anche materiali radioattivi, principalmente l'uranio e il torio, che vengono rilasciati in atmosfera. La combustione del
carbone produce anche grandi quantità di ceneri pesanti e ceneri volanti. La raccolta, la lavorazione e la distribuzione
dei combustibili fossili possono anche creare problemi ambientali.
I metodi di estrazione del carbone, in particolare l'estrarlo dalle vette delle montagne e dalle miniere a cielo aperto,
hanno impatti ambientali negativi, e l'estrazione petrolifera offshore pone un rischio per gli organismi acquatici. Le
raffinerie di petrolio hanno anche impatti ambientali negativi, tra cui l'inquinamento dell'aria e dell'acqua. Per il
trasporto del carbone è necessario l'utilizzo di locomotive diesel, mentre il petrolio grezzo è tipicamente trasportato
dalle navi cisterna, ognuno delle quali richiede la combustione di combustibili fossili aggiuntivi.
ENERGIE RINNOVABILI
Le fonti energetiche rinnovabili, a differenza delle fonti di energia non rinnovabili, sono forme di energia che
rispettano le risorse provenienti dal mondo naturale. Non inquinano e non si esauriscono, dal momento che hanno la
capacità di rigenerarsi a fine ciclo. Da tempo hanno fatto il loro ingresso anche nel nostro Paese e si stanno sempre
più affermando come energia del futuro, a disposizione di tutti, pulita ed economica. Oggi è possibile coniugare
maggiore sostenibilità ed efficienza energetica con modelli di bioedilizia come la casa passiva.
- Energia solare: l’energia solare, sicuramente la più nota tipologia di energia verde, è una fonte di energia
ottenuta dal sole, utilizzabile per riscaldare o raffreddare case e ambienti di lavoro. Questa energia del futuro
viene già impiegata da tempo anche in Italia sia per accontentare la richiesta di energia da parte di case e
uffici. L’energia del sole, che naturalmente è illimitata, viene convertita in energia elettrica
attraverso pannelli solari e impianti fotovoltaici.
- Energia eolica: grazie alle pale eoliche l’energia meccanica prodotta dalla massa di aria spostata dal vento
viene convertita in energia elettrica sfruttabile nelle nostre case.
- Energia geotermica: questa energia pulita sfrutta, attraverso apposite apparecchiature, il calore della terra
che si manifesta con fenomeni naturali come sorgenti termali, geyser e soffioni.
- Energia da biomasse: si tratta della prima energia di tipo rinnovabile utilizzata dall’uomo. L’energia biomasse
è infatti quella prodotta da qualsiasi componente di origine biologica, dai microrganismi fino alle piante o agli
animali. La legna da ardere ne è un esempio e, anche se si esaurisce, viene considerata rinnovabile perché gli
alberi possono essere ripiantati.
- Energia idroelettrica: anche l’energia idroelettrica è esauribile ma rinnovabile, a patto che l’uomo non la
sfrutti in modo esagerato. L’acqua viene impiegata per generare energia, tramite l’installazione di generatori
ad asse verticale ed orizzontale.
- Energia marina: questa energia alternativa rinnovabile è generata dalle correnti oceaniche, in pratica da
enormi masse di acqua. Lo sfruttamento dell’energia marina e la sua conversione in energia elettrica
avvengono, come nel caso dell’energia eolica, grazie all’installazione di generatori ad asse verticale e
orizzontale.

Le fonti energetiche rinnovabili sono dunque quelle che non sono destinate a esaurirsi. Non tutte, fra le tante risorse
della terra che utilizziamo, hanno questa capacità di poter essere rigenerate per il nostro impiego e, fra quelle
rinnovabili, alcune possono essere rigenerate più velocemente di altre, a favore di una maggiore sostenibilità e
quindi di un maggior impatto in termini di efficienza energetica. Si tratta comunque sempre di energie pulite con un
impatto ambientale minimo rispetto a quello provocato dalle fonti energetiche non rinnovabili, raggruppabili in due
grandi categorie: combustibili fossili e combustibili nucleari. I primi derivano da materia organica sedimentata negli
strati terrestri. Tra i principali ci sono il carbone, il gas naturale ed il petrolio greggio. I combustibili nucleari derivano
invece principalmente dall’uranio. Tutte le energie non rinnovabili sono quindi generate da fonti esauribili e, nella
maggior parte dei casi, anche fortemente inquinanti.
Nell'ambito del processo di transizione energetica, l’Italia è fra le principali utilizzatrici di energia rinnovabile, in
particolare nel 2018 l’Italia si è posizionata al 3° posto in Europa per contributo ai consumi di energia da FER (Fonti
Energetiche Rinnovabili) e al 4° posto considerando il contributo ai consumi di energia complessivi. Dal  Rapporto
2018 Fonti rinnovabili in Italia e in Europa emerge, inoltre, che tra i cinque principali Paesi UE per consumi energetici
complessivi, l’Italia registra nel 2018 il valore più alto in termini di quota coperta da FER (circa 18%).
A livello di singole fonti, sul totale delle energie rinnovabili, in Italia:
o il 52% proviene da risorsa idroelettrica
o il 23% da solare fotovoltaico
o il 18% da fonte eolica
o il 6% da altre fonti (ad es. geotermoelettrica)

L'energia pulita è quindi in crescita, sia per i suoi vantaggi ambientali sia per quelli economici, come la possibilità di
usufruire delle detrazioni del cosiddetto ecobonus o degli incentivi del conto termico.

ALCOLI – ETANOLO

Gli alcoli sono, dopo gli idrocarburi, i composti organici più comuni, che è possibile considerare come derivati dagli
alcani per sostituzione di un atomo di idrogeno H con un gruppo ossidrile OH.
La loro formula generale è R-OH, con il gruppo ossidrile OH legato a un gruppo alchilico R.
La nomenclatura IUPAC degli alcoli alifatici prevede di aggiungere la desinenza -olo al nome dell’idrocarburo
corrispondente (metanolo, etanolo, propanolo). In base a quanti atomi di idrogeno si legano al carbonio, legato al
gruppo funzionale OH, gli alcoli vengono distinti in:
1) alcoli primari, se al carbonio sono legati 2 atomi di idrogeno;
2) alcoli secondari, se al carbonio è legato un solo atomo di idrogeno;
3) alcoli terziari, se al carbonio non sono legati atomi di idrogeno.
Gli alcoli a lunga catena sono solidi, mentre quelli a catena corta sono liquidi e solubili in acqua, soprattutto quando
contengono più gruppi ossidrili: la loro buona miscibilità con l’acqua è dovuta alla presenza del gruppo OH, che può
formare legami a idrogeno. Hanno punti di ebollizione bassi, ma più alti di quelli degli idrocarburi corrispondenti.

Gli alcoli si ottengono sia da fonti naturali sia per sintesi. Gli alcoli più importanti sono il metanolo e l’etanolo.
Il metanolo o alcol metilico è un liquido incolore, che bolle a 67 °C, e ha formula CH3 OH. Viene usato: come
solvente, come combustibile, nella produzione di soluzioni anticongelanti e di materie plastiche. È molto pericoloso
perché le sue esalazioni possono provocare la cecità.

L’etanolo (alcol etilico) è un liquido incolore, che bolle a 78 °C, e ha formula CH3 CH2 OH (C2 H6 O). Si ottiene per
fermentazione di zuccheri e amidi. Viene usato: come antisettico, come solvente tra i più comuni, in moltissimi
processi industriali e come reagente importante per la sintesi di composti organici.
L’alcol etilico è presente nelle bevande alcoliche (vino, liquori, birra) e se consumato in maniera eccessiva può
provocare l’etilismo, una grave malattia, che determina danni al fegato e al sistema nervoso.
DUALISMO CARBONE DIAMANTE

In natura sono presenti vari esempi di dualismo, un esempio sono il carbone e il diamante, che, seppur chimicamente
siano praticamente la stessa cosa, la differenza fisica tra i due fa in modo che l’uno sia considerato per fini puramente
utilitaristici, l’altro per motivi meramente estetici e considerato esempio massimo di bellezza.
Carbone e diamante, dal punto di vista chimico, sono fondamentalmente la stessa cosa, ovvero varianti del carbonio,
la differenza sta nella disposizione degli atomi di carbonio, che nel carbone sono disposti in modo casuale, mentre nel
diamante formano un reticolo cristallino di atomi disposti secondo una struttura tetraedrica.
In natura il carbonio è presente in infinite forme, organiche e inorganiche, e per questo è l’elemento base della vita,
ha inoltre un’incredibile capacità di creare catene di atomi (DNA).
Il carbone è un combustibile fossile composto quasi esclusivamente da carbonio, idrogeno e ossigeno (+ piccole
quantità di azoto e zolfo) estratto da miniere, la sua formazione risale a circa 345 milioni di anni fa, quando
inondazioni seppellirono gli alberi giganti che abitavano il pianeta e portarono alla creazione di un ampio strato di
legname che non veniva degradato a causa dell’assenza di funghi e batteri in condizioni di pressione elevata e
mancanza di ossigeno. Oggi il carbone è principalmente utilizzato come combustibile pronto all’uso.
Seppur fondamentale per la vita odierna il carbone non è certo considerato un esempio di perfezione o canone di
bellezza.
Il diamante è una delle tante forme allotropiche in cui può presentarsi il carbonio; in particolare il diamante è
costituito da un reticolo cristallino di atomi di carbonio disposti secondo una struttura particolare detta tetraedrica. Il
diamante è il più duro dei minerali conosciuti e rappresenta uno dei pochi casi in cui un elemento (il carbonio) si
rinviene in discreti quantitativi in natura allo stato puro.

Le differenze più evidenti tra questi due minerali sono il diverso colore, la  conducibilità elettrica della grafite assente
nel diamante, la sfaldabilità della grafite che non c’è nel diamante e la durezza del diamante notevolmente superiore
a quella della grafite.
 
La grafite si trova in rocce di metamorfismo termico regionale come calcari cristallini, scisti o gneiss, derivate dalla
trasformazione di preesistete materiale organico. La grafite può essere prodotta anche artificialmente dal carbon
coke.
Il diamante, che è il minerale più resistente (è il termine di massima durezza nella scala di Mohs) grazie ai legami
atomo-atomo molto resistenti, viene direttamente dalle miniere; inoltre è un materiale inattaccabile dagli acidi e
dagli alcali. Si presenta in cristalli singoli o multipli di varia grandezza, generalmente ottaedrici, talvolta dodecaedrici,
raramente cubici; è normalmente incolore o giallo pallido ma può essere anche azzurro, arancione, rosso, bruno.
LE BIOMOLECOLE
Le biomolecole sono classificate in quattro gruppi fondamentali:
- carboidrati;
- lipidi;
- proteine;
- acidi nucleici.

Le biomolecole sono molecole organiche materia prima di cui sono costituiti tutti gli organismi viventi, in quanto
fondamentali per svolgere i vari processi vitali.
Un organismo vivente è formato dal 50% al 90% di acqua, 1% di piccoli ioni (sodio, potassio…) e la parte restante è
costituita da biomolecole.

Le biomolecole hanno alcune caratteristiche chiave:


• nella maggior parte dei casi si tratta di macromolecole, ovvero molecole complesse che possono contenere anche
migliaia di atomi (principalmente C, H e O);
• dal punto di vista chimico, le biomolecole sono composti polifunzionali, sono cioè costituite da molecole che
contengono due o più gruppi funzionali diversi;
• le biomolecole sono in molti casi polimeri formati dall’unione di composti organici più piccoli chiamati monomeri.

I carboidrati (o glicidi o saccaridi) sono un gruppo di sostanze organiche naturali costituite generalmente da tre soli
elementi: carbonio, idrogeno e ossigeno.
Da un punto di vista chimico i carboidrati sono un esempio di composti polifunzionali, perché contengono un gruppo
carbonile (aldeidico o chetonico) insieme a più gruppi ossidrile: per questo motivo vengono definiti poliidrossialdeidi
o poliidrossichetoni. Sono considerati carboidrati anche tutte le sostanze che per idrolisi danno composti di questo
tipo.
I carboidrati svolgono due principali funzioni nel mondo vivente:
1. riserva energetica: l’amido nel mondo vegetale e il glicogeno in quello animale sono carboidrati con funzione di
riserva energetica.
2. ruolo strutturale: la cellulosa, la biomolecola più abbondante sulla Terra, è il costituente principale della parete
delle cellule vegetali, cui conferisce rigidità e resistenza; la chitina forma l’esoscheletro di insetti e crostacei;

I carboidrati si classificano in base alla complessità della loro struttura:


• i monosaccaridi sono le molecole più semplici e rappresentano le unità costitutive di carboidrati più complessi;
• gli oligosaccaridi sono formati dall’associazione di pochi monosaccaridi;
• i polisaccaridi sono polimeri formati da numerosi monosaccaridi (da poche decine fino a molte migliaia).

Dal punto di vista nutrizionale, i glicidi si suddividono in carboidrati semplici (monosaccaridi e oligosaccaridi),
chiamati anche zuccheri, e carboidrati complessi (polisaccaridi).

I lipidi sono un gruppo eterogeneo di sostanze che hanno in comune la caratteristica di essere insolubili in acqua e
solubili in solventi organici apolari come etere, cloroformio e cicloesano.
I lipidi svolgono importanti funzioni nel mondo vivente, prima fra tutte quella di riserva energetica, ma hanno anche
un ruolo strutturale: per esempio, partecipano alla formazione delle membrane biologiche, costituiscono il
rivestimento mielinico degli assoni delle cellule nervose e agiscono come isolante termico, come nel caso del grasso
dei mammiferi marini e degli animali che vivono in climi freddi.
Infine, i lipidi sono precursori di numerose molecole dotate di attività biologica, quali vitamine e ormoni.

L’eterogeneità strutturale dei lipidi rende necessaria una loro classificazione in lipidi semplici e lipidi complessi;
- Lipidi semplici -> Esteri di acidi grassi con alcoli.
- Lipidi complessi -> Esteri di acidi grassi con alcoli che contengono anche altri gruppi atomici.

Un altro criterio consente di distinguere i lipidi a seconda che le loro molecole siano o meno in grado di dare saponi a
seguito di trattamento a caldo con basi forti, quali NaOH o KOH:
• lipidi saponificabili (per esempio trigliceridi, fosfogliceridi, sfingolipidi);
• lipidi non saponificabili (per esempio steroidi, terpeni).

Alcune molecole possono poi essere precursori o derivati lipidici.


Tra i precursori lipidici più importanti vi sono gli acidi grassi, una classe di composti organici che partecipa alla
formazione di molte molecole con importanti funzioni negli organismi viventi.
Gli acidi carbossilici che possiedono quattro o più atomi di carbonio sono detti acidi grassi.
Sono presenti nei lipidi naturali prevalentemente sotto forma di esteri ma esistono anche come acidi grassi liberi. Gli
acidi grassi più diffusi in natura sono provvisti di una lunga catena costituita da almeno dodici atomi di carbonio (acidi
grassi a catena lunga) e hanno formula generale R—COOH, dove R contiene 11 o più atomi di carbonio.
Gli acidi grassi a catena lunga sono insolubili in acqua ma si sciolgono in soluzione alcalina, formando sali solubili detti
saponi.
Gli acidi grassi in cui sono presenti due o più doppi legami fra gli atomi di carbonio della catena sono noti come acidi
grassi polinsaturi.
Gli acidi grassi saturi sono provvisti di una catena in cui gli atomi di carbonio si legano fra loro mediante legami
singoli. Le catene degli acidi grassi insaturi contengono uno o più doppi legami.
Gli acidi grassi che prendono parte alla formazione dei lipidi hanno in genere catene formate da un numero pari di
atomi di carbonio (compreso tra 4 e 30) e con struttura lineare (non presentano, quindi, strutture chiuse ad anello).

Le proteine appartengono a una vasta famiglia di biomolecole diffuse in tutti gli organismi viventi e nei virus. Le
proteine sono presenti in tutte le cellule e nell’ambiente extracellulare, dove svolgono molteplici funzioni e
partecipano a importanti processi fisiologici.
Come esempio della diversità delle loro funzioni, le proteine conferiscono resistenza meccanica alla pelle, alle unghie,
ai tendini e ai legamenti e costituiscono l’impalcatura strutturale dei vari organi e apparati; alcune proteine
consentono la contrazione muscolare, altre formano il citoscheletro delle cellule. Le proteine, inoltre, agiscono come
catalizzatori (enzimi), molecole segnale (ormoni e fattori di crescita cellulare), trasportano sostanze nel sangue
(emoglobina, albumina ecc.) e attraverso la membrana cellulare (trasportatori e canali di membrana), svolgono
funzioni difensive (immunoglobuline) e, talvolta, fungono da riserva energetica (ovalbumina). Tra tutte le
biomolecole, le proteine sono le uniche a possedere una gamma tanto ampia di funzioni diverse nei sistemi viventi.

Le proteine sono costituite da unità strutturali di base chiamate amminoacidi che si legano fra loro a formare catene
polipeptidiche. Le proteine costituite esclusivamente dalla componente polipeptidica sono definite proteine semplici.
Le proteine in cui sono presenti gruppi prostetici di varia natura si chiamano proteine coniugate. Le proteine sono
classificate anche in base alla loro forma, che è ottimizzata per la funzione da svolgere.
Le proteine che svolgono funzioni strutturali sono prevalentemente insolubili, hanno una struttura allungata e sono
dette proteine fibrose.
Le proteine che svolgono la propria funzione in soluzione hanno generalmente una struttura compatta e vengono
definite proteine globulari.
Le proteine di membrana sono immerse nel doppio strato fosfolipidico delle membrane cellulari e possiedono
caratteristiche specifiche.
Nei sistemi viventi per formare le proteine vengono utilizzati venti tipi di amminoacidi differenti tra loro, essi si legano
mediante legame peptidico (atomo di carbonio di una molecola si lega all’atomo di azoto di un altro amminoacido
eliminando una molecola d’acqua)

Gli acidi nucleici sono presenti in tutte le forme di vita sulla Terra e sono polimeri formati da lunghe catene di
molecole chiamate nucleotidi, formati dall’unione di tre subunità: un gruppo fosfato, ribosio a cinque atomi di
carbonio e una base azotata. Gli acidi nucleici sono il DNA e l’RNA.
Gli acidi nucleici sono vitali per la sopravvivenza di un organismo, in quanto cooperano alla sintesi delle proteine,
molecole essenziali per la corretta realizzazione dei meccanismi cellulari.
DNA e RNA differiscono tra di loro sotto alcuni aspetti.
Per esempio, il DNA presenta due catene di nucleotidi antiparallele e ha, come zucchero a 5 atomi di carbonio, il
desossiribosio. L'RNA, invece, presenta di solito una catena singola di nucleotidi e possiede, come zucchero a 5 atomi
di carbonio, il ribosio.
Gli acidi nucleici contengono, trasportano, decifrano ed esprimono in proteine l'informazione genetica.

Il merito della scoperta degli acidi nucleici, avvenuta nel 1869, spetta al medico e biologo svizzero Friedrich Miescher.
Gli esperimenti di Miescher rappresentarono una svolta nel campo della biologia molecolare e delle genetica, in
quanto diedero avvio a una serie di studi che portarono all'individuazione della struttura del DNA (Watson e Crick, nel
1953) e dell'RNA, alla conoscenza dei meccanismi di ereditarietà genetica e all'individuazione dei precisi processi di
sintesi proteica.
Tra gli acidi nucleici conosciuti, il DNA è il più famoso, in quanto rappresenta il magazzino delle informazioni
genetiche (o geni) che servono a dirigere lo sviluppo e l'accrescimento delle cellule di un organismo vivente.
La sigla DNA significa acido desossiribonucleico o acido deossiribonucleico. Nel 1953, per spiegare la struttura
dell'acido nucleico DNA, i biologi James Watson e Francis Crick proposero il modello – rivelatosi poi corretto – della
cosiddetta “doppia elica”.
In base al modello della “doppia elica”, il DNA è una grande molecola, risultante dall'unione di due lunghi filamenti di
nucleotidi antiparalleli e avvolti a spirale l'uno nell'altro.
Il termine “antiparalleli” indica che i due filamenti hanno orientamento opposto, ossia: il capo e la coda di un
filamento interagiscono, rispettivamente, con la coda e il capo dell'altro filamento. Il pentosio che costituisce i
nucleotidi dell'acido nucleico DNA è il desossiribosio.
Questo zucchero a 5 atomi di carbonio deve il proprio nome alla mancanza, sul carbonio 2, di atomi di ossigeno. Del
resto, deossiribosio vuol dire “privo di ossigeno”. Per la presenza del desossiribosio, i nucleotidi dell'acido nucleico
DNA prendono il nome di desossiribonucleotidi. L'acido nucleico DNA presenta 4 tipi diversi di desossiribonucleotidi.
A distinguere le 4 diverse tipologie di desossiribonucleotidi è unicamente la base azotata, legata alla formazione
pentoso-gruppo fosfato (che diversamente dalla base azotata non varia mai).
Per ovvie ragioni, quindi, le basi azotate del DNA sono 4, nello specifico: l'adenina (A), la guanina (G), la citosina (C) e
la timina (T).
L'adenina e la guanina appartengono alla classe delle purine, composti eterociclici aromatici a doppio anello.
La citosina e la timina, invece, rientrano nella categoria delle pirimidine, composti eterociclici aromatici ad anello
singolo.
Con il modello della “doppia elica”, Watson e Crick spiegarono anche qual è l'organizzazione delle basi azotate
all'interno del DNA:
- Ciascuna base azotata di un filamento si unisce, mediante legami a idrogeno, a una base azotata presente sul
filamento antiparallelo, formando di fatto una coppia, un appaiamento, di basi.
- L'appaiamento tra le basi azotate dei due filamenti è altamente specifico. Infatti, l'adenina si unisce soltanto
alla timina, mentre la citosina si lega soltanto alla guanina.
Questa importante scoperta indusse biologi molecolari e genetisti a coniare i termini di “complementarietà
tra basi azotate” e “appaiamenti complementari tra basi azotate”, per indicare l'univocità di legame
dell'adenina con la timina e della citosina con la guanina.

l'RNA rappresenta la macromolecola biologica che traduce i nucleotidi del DNA negli aminoacidi costituenti le
proteine (processo di sintesi proteica).
Di fatto, l'acido nucleico RNA è equiparabile a un dizionario dell'informazione genetica, riportata sull'acido nucleico
DNA.
La sigla RNA vuol dire acido ribonucleico.
L'acido nucleico RNA presenta diverse differenze, rispetto al DNA:
 L'RNA è una molecola biologica più piccola del DNA, formata solitamente da unico filamento di nucleotidi.
 Il pentoso che costituisce i nucleotidi dell'acido ribonucleico è il ribosio. Diversamente dal desossiribosio, il
ribosio presenta un atomo di ossigeno sul carbonio 2.
È per la presenza dello zucchero ribosio che biologi e chimici hanno assegnato, all'RNA, il nome di acido
ribonucleico.
 I nucleotidi dell'acido nucleico RNA sono noti anche con il nome di ribonucleotidi.
 L'acido nucleico RNA condivide con il DNA soltanto 3 basi azotate su 4. Al posto della timina, infatti, presenta
la base azotata uracile.
 L'RNA può risiedere in vari compartimenti della cellula, dal nucleo al citoplasma.
All'interno delle cellule viventi, l'acido nucleico RNA esiste in quattro forme principali: l'RNA di trasporto, l'RNA
messaggero, l'RNA ribosomiale e il piccolo RNA nucleare.
NUCLEARE

Gli elementi chimici che hanno nel nucleo un rapporto molto alto tra neutroni e protoni sono instabili, hanno, quindi,
un elevata energia. Per diminuire questo rapporto emettono spontaneamente radiazioni.
Si definisce radioattività quel fenomeno per cui alcuni nuclei instabili emettono spontaneamente radiazioni
trasforman-dosi in nuclei stabili o in nuclei instabili di elementi diversi.
Posto un campo elettrico costituito da un elettrodo positivo e uno negativo, le radiazioni possono essere di tre tipi:
1. Radiazioni alfa – hanno carica positiva e deviano verso l’elettrodo negativo; esse sono composta da 2 protoni
e 2 neutroni, sono quindi identificate con il nucleo di elio (che ha numero di massa A = 4 e numero atomico Z = 2).
Queste radiazioni hanno massa e velocità elevata, ma bassa capacità di penetrazione.
2. Radiazioni beta – hanno carica negativa e deviano verso l’elettrodo positivo; esse hanno massa circa 2000
volte inferiore del nucleone, sono identificate con elettroni emessi dal nucleo. Queste radiazioni hanno velocità
molto elevata e massa molto piccola, ciò rende alta la loro capacità di penetrazione.
3. Radiazioni gamma – non hanno carica elettrica e sono prive di massa; si identificano con il flusso di fotoni
gam-ma. Queste radiazioni hanno velocità molto alta e sono prive di massa, ciò rende la loro capacità di penetrazione
notevolmente alta.
La radioattività degli elementi chimici è sfruttata per le reazioni di fissione e fusione nucleare.
I nuclei con numero di massa inferiore a 50 e quelli superiore a 60 sono instabili, questi nuclei hanno la tendenza a
tra-sformarsi in nuclei più stabili. i processi attraverso cui si rendono più stabili sono:
- fissione nucleare, per i nuclei con numero di massa > 60, che tendono a diventare nuclei con massa più
piccola;
- fusione nucleare, per i nuclei con numero di massa < 50, che tendono a diventare nuclei con massa più
grande.
La fissione nucleare consiste nella suddivisione di un nucleo di grande massa e instabile in due di massa minore, con
emissione di grande quantità di energia e radioattività; un elemento usato per la fissione si dice fissile. Può avveni-re
spontaneamente in natura oppure essere indotta artificialmente tramite opportuno bombardamento di neutroni. È la
reazione nucleare comunemente utilizzata nei reattori nucleari e nel tipo più semplice di arma nucleare (bomba A),
quali la bomba all'uranio (come Little Boy che colpì Hiroshima) o al plutonio (come Fat Man che colpì Nagasaki).
Schema di una reazione di fissione nucleare.
- Un nucleo di uranio-235 viene "bombardato" da un neutrone e avviene la fissione che spezza il nucleo in due
atomi (kripton e bario) liberando tre neutroni e dell'energia.
- Uno di questi neutroni è assorbito da un altro nucleo di uranio-238 ed è perso nel bilancio. Un secondo
neutrone può "fuggire" dal sistema o essere assorbito da un elemento che non continua la reazione. Il terzo neutrone
vie-ne assorbito da un nucleo di uranio-235 che si spezza in due atomi liberando due neutroni e dell'energia.
- I due neutroni liberati si scontrano con due nuclei di uranio-235 e ogni nucleo libera da uno a tre neutroni
che servono per continuare la reazione a catena.
La fusione nucleare consiste nell’unione di due nuclei di piccola massa con formazione di un nucleo con massa
maggiore.
La reazione può avvenire solo se i due nuclei che interagiscono hanno un’energia cinetica elevatissima, in modo da
per-mettere ai nuclei di vincere la forza di repulsione elettrostatica esercitata dalla loro carica positiva. Un’energia
cinetica così alta può essere raggiunta solo con temperature elevatissime per cui si parla di fusione termonucleare. La
materia in queste condizioni di temperatura si trova sottoforma di plasma.
Il plasma è uno stato di aggregazione della materia, globalmente neutro, ma costituito da ioni positivi ed elettroni che
si muovono gli uni indipendentemente dagli altri ad altissima velocità.
Da molti anni si tenta di produrre energia nucleare mediante la fusione di due isotopi dell'idrogeno, il deuterio e il
trizio. Il deuterio (12 H) è contenuto nell'acqua di mare e quindi la sua disponibilità è illimitata; il trizio (13 H) è invece
un isotopo radioattivo artificiale che si può produrre per fusione tra due nuclei di deuterio.
I nuclei di deuterio e trizio portati alla temperatura di 100 milioni di kelvin danno origine a una reazione di fusione
termo-nucleare in cui si formano un nucleo di elio e un neutrone, con liberazione di un'elevata quantità di energia.
Nella reazione si libera energia in quanto la massa del nucleo di elio è minore della somma delle masse dei nuclei di
deu-terio e di trizio: il difetto di massa, secondo la relazione di Einstein (E=mc2), si trasforma in energia.
La fusione nucleare rappresenta una promettente fonte di energia pulita e sostenibile per il futuro. Infatti, potrebbe
fornire una fonte di energia praticamente inesauribile e senza emissioni per soddisfare le crescenti esigenze
energetiche globali.
La Cina ha dimostrato un forte impegno nella ricerca sulla fusione nucleare, investendo risorse considerevoli nello
sviluppo di tecnologie innovative e reattori avanzati. Tra i progressi più significativi della Cina rientra il reattore
sperimentale di fusione nucleare noto come “Experimental Advanced Superconducting Tokamak”.

FISICA
DUALISMO ONDA-CORPUSCOLO
In fisica, con dualismo onda-particella o dualismo onda-corpuscolo si definisce la duplice natura, sia corpuscolare sia
ondulatoria, del comportamento della materia e della radiazione elettromagnetica.

Un corpuscolo/particella è un ente a cui possiamo attribuire a ogni istante una posizione, l’insieme delle posizioni
assunte nel tempo costituisce la traiettoria del corpuscolo, le leggi della dinamica permettono di descrivere la legge
oraria del corpuscolo.
Un’onda è un fenomeno di propagazione di una perturbazione, soggetta al principio di sovrapposizione, che dà luogo
a fenomeni di interferenza e diffrazione.
Tra la fine del XIX secolo e inizio XX una serie di risultati sperimentali e modelli teorici mettono in discussione ciò che
si era creduto sino ad allora:
- La luce aveva mostrato comportamenti che non si spiegavano con il modello ondulatorio ma si potevano
spiegare con il modello corpuscolare;
- Gli elettroni avevano mostrato fenomeni di interferenza che potevano essere descritti con il modello
ondulatorio.

Bohr racchiuse i risultati che si erano ottenuti dai vari esperimenti nel principio di complementarità:
sia la radiazione che le particelle esibiscono proprietà ondulatorie o caratteristiche corpuscolari a seconda
dell’apparato sperimentale con cui interagiscono.

Tale principio verrà poi superato dallo sviluppo della fisica quantistica.

La differenza tra materia e luce non sta nel comportamento (ambiguo in entrambe) ma nella massa, materia m>0,
luce m=0.

Luce
L’effetto fotoelettrico potrebbe essere spiegato così: una radiazione elettromagnetica colpisce un elettrone facente
parte di un metallo e gli trasferisce la sua energia, con questa energia l’elettrone può fuggire dall’attrazione del
reticolo cristallino del metallo.
Se l’effetto fotoelettrico viene però interpretato utilizzando il modello ondulatorio sorgono alcuni dubbi:
- Perché esiste una frequenza di soglia (frequenza minima al di sotto della quale non vengono emessi elettroni
qualunque sia l’intensità della luce incidente);
- Perché l’energia cinetica dipenda solo dalla frequenza della radiazione incidente e non dalla sua intensità;

i sostenitori del modello corpuscolare per quanto riguarda la luce furono:


 Einstein, con l’ipotesi del fotone, egli ipotizzò che la luce (frequenza f) potesse essere considerata come un
insieme di particelle che vennero, in seguito, chiamate fotoni, ciascuno con un’energia.
energia di un fotone: E=hf (h = costante di Plank)
secondo questa ipotesi quando aumenta l’intensità della luce aumenta il numero di fotoni ma l’energia di
ciascuno di essi rimane invariata.
Usando i fotoni Einstein spiegò l’effetto fotoelettrico: quando la luce colpisce un metallo un fotone può cedere la
propria energia ad un elettrone del metallo, se tale energia è maggiore o uguale al lavoro necessario per estrarre
l’elettrone dal metallo l’elettrone viene emesso.
L’energia minima (Emin) per estrarre un elettrone è chiamato lavoro di estrazione e dipende dal metallo.
Il fotone ha dunque energia E>0 ma massa m=0
 Compton, con l’effetto Compton, Einstein aveva proposto l’ipotesi del fotone nel 1905 ma solo nel 1923 essa
cominciò ad essere universalmente accettata, quando l’americano Compton la usò per spiegare i risultati
sperimentali delle sue ricerche sulla diffusione dei raggi X da parte degli elettroni della grafite.
Stando al modello ondulatorio per la luce, quando le onde elettromagnetiche colpiscono un elettrone esso
dovrebbe oscillare con la stessa frequenza dell’onda che lo ha colpito, e quindi i rivelatori dovrebbero ricevere
raggi X con la stessa frequenza usata per bombardare. Si osserva però un fenomeno differente, a ogni angolo i
raggi X che si rilevano hanno due frequenze diverse, una parte ha la stessa frequenza della radiazione incidente,
una parte ha invece una frequenza minore, diversa a seconda dell’angolo tra rivelatore e bersaglio. Anche in
questo caso il fenomeno può essere spiegato attraverso il modello corpuscolare della luce. Compton riprese
quindi la teoria quantistica della luce di Einstein, pensando ai fotoni come a particelle che, seppur prive di Massa
a riposo, sono dotate di una certa quantità di moto. Quindi i fotoni incidenti, urtando contro gli elettroni presenti
negli atomi del bersaglio, cedono loro parte della propria energia.
 Newton, egli fu il primo a ipotizzare la natura corpuscolare della luce. La teoria della luce di Newton si fondava
sulle affermazioni seguenti:
o La luce è composta da piccolissime particelle di materia emesse da sostanze luminose in tutte le
direzioni.
o Tali particelle vengono liberate dai corpi luminosi e si propagano in linea retta (in un mezzo
omogeneo).
o La riflessione è spiegata tramite il rimbalzo delle particelle nel momento dell’urto con una superficie.
o La rifrazione è dovuta alle forze che le molecole di una sostanza esercitano sulle particelle di luce
deviandone la direzione.
o La luce è più veloce nei corpi rispetto al vuoto.
o Luci di colori diversi vengono rifratte con angoli differenti.
o Le particelle hanno diversa massa:
– i corpuscoli più grossi provocano la sensazione del rosso;
– i corpuscoli più piccoli danno la sensazione del violetto
Newton riuscì a spiegare:
– riflessione,
– differenze di colore,
– propagazione della luce dal Sole alla Terra.
La teoria corpuscolare però non poteva dare una spiegazione a:
– assorbimento della luce dei corpi opachi
– rifrazione
– diffrazione e interferenza.

I sostenitori di un modello ondulatorio per la luce furono invece:


 Huygens, la cui teoria ondulatoria si basa sulle seguenti ipotesi:
o La luce è costituita da un insieme di onde meccaniche che si propagano in linea retta a velocità finita.
Il “raggio” è perpendicolare al fronte d’onda, è la direzione di propagazione dell’onda.
o Le vibrazioni dei corpi luminosi producono tali onde.
o La propagazione della luce è dovuta all’oscillazione dell’etere.
o L’etere è un mezzo isotropo, estremamente sottile, composto da corpiccioli elastici.
o L’etere propaga la luce oscillando ma non assume un moto traslatorio.
 Young, realizzò un esperimento che sembrò confutare l’ipotesi corpuscolare: la luce entra in una piastra con due
fenditure. Si osserva quindi, su un apposito schermo il comportamento della luce dopo che ha attraversato le
fenditure. La cosa interessante, e a quei tempi rivoluzionaria, è che Young vide sullo schermo bande chiare e
scure che si alternavano.
Se però copriva una delle due fenditure in modo che la luce passasse solo dall’altra, le bande scomparivano.
Supponendo che la luce sia composta da particelle, la luminosità dovrebbe dipendere direttamente dal numero
di particelle: più particelle arrivano in un punto, più esso ci apparirà luminoso.
Con questa ipotesi non è però possibile spiegare le bande effettivamente osservate da Young. In particolare, non
si riesce assolutamente a spiegare perché in certi punti avvenga un fenomeno bizzarro: la diminuzione della
luminosità se sono aperte entrambe le fenditure e l’aumento della luminosità quando solo una fenditura è
aperta. Insomma, l’ipotesi secondo la quale la luce è composta da particelle sembra essere smentita
dall’osservazione sperimentale di bande chiare e scure.
 Maxwell, che affermò che la lue che noi vediamo è una forma di energia radiante che si diffonde tramite campi
magnetici e campi elettrici oscillanti (così come microonde, segnali radio, raggi x).
 Hertz

Materia
Dal 1925, osservando i risultati che si stavano ottenendo con la luce, il fisico De Broglie ha iniziato a proporre che
anche la materia potesse avere proprietà ondulatorie.

Sostenitori del modello corpuscolare per la materia, secondo tale teoria tutta la materia è formata da particelle
(atomi, molecole o ioni) in movimento costante e tutte le collisioni sono elastiche:
 Democrito
 Aristotele
 Newton
 Thomson, propose la struttura dell’atomo “a panettone” nel 1904, prima della scoperta del nucleo atomico,
secondo tale ipotesi la carica positiva è diffusa in una massa di cariche negative e nel complesso l’atomo è
pieno ed elettricamente neutro.
 Rutherford, propose il modello atomico planetario nel 1909, esso comprendeva la concentrazione della
maggioranza della materia in un volume relativamente piccolo rispetto alle dimensioni totali (il nucleo) e la
presenza di elettroni attorno ad esso.
 Bohr, propose un ulteriore modello atomico nel 1913, il nucleo al centro ospita protoni carichi positivamente
e neutroni, mentre gli elettroni carichi negativamente ruotano intorno ad esso su determinate orbite in
funzione del livello di energia.

I sostenitori di un modello ondulatorio per la materia invece furono:


 De Broglie, egli ipotizzò che l’elettrone in movimento, in quando particella, possedesse un suo moto
ondulatorio con una lunghezza d’onda data dalla relazione in cui h = costante di
Planck. Le onde associate all’elettrone sono chiamate onde di materia.
L’ipotesi trovò un’ulteriore dimostrazione quando si dimostrò che un fascio di elettroni
accelerati subisce fenomeni tipicamente ondulatori, come la diffrazione e l’interferenza;
 Schrodinger, nel 1923 formulò il modello atomico a orbitali. Dal lavoro di Schrödinger si sviluppò la teoria
secondo la quale è possibile individuare le regioni dello spazio in cui la probabilità di trovare l'elettrone è
massima: tali regioni sono chiamate orbitali. Ogni orbitale possiede una forma caratteristica e un certo
contenuto di energia; la dimensione, l'orientamento e la forma dell'orbitale sono descritti dai  numeri
quantici.
Per descrivere la posizione degli elettroni intorno al nucleo venne formulata l’equazione di Shrodinger.
 Heisenberg, l’idea di elettrone onda fu accettata, ma a questo punto non si riusciva più a localizzarlo. Con il
famoso Principio di Indeterminazione di Heisenberg, con cui si dichiarava l’impossibilità di conoscere in
pratica le caratteristiche del movimento dell’elettrone, si risolse il problema.
MODELLI ATOMICI
I modelli atomici sono la rappresentazione fisica dell'atomo, sulla base di studi ed evidenze scientifiche raccolte ed
elaborate dagli studiosi.

Modello atomico di Dalton


L’idea di atomo come costituente fondamentale della materia fu proposta e sostenuta in termini scientifici da
Dalton, che riprese il termine utilizzato dal filosofo greco Democrito 2000 anni prima. La teoria atomica di Dalton si
articolava su quattro punti:
1. La materia è costituita da atomi, particelle di materia indistruttibili e indivisibili.
2. Un elemento chimico è costituito da atomi tutti uguali tra loro. Cioè, un oggetto di rame, ad esempio, è
costituito da soli atomi di rame.
3. Elementi diversi sono costituiti da atomi diversi per volume, massa e proprietà. Ad esempio, l'idrogeno è un
elemento molto piccolo ed è poco elettronegativo (l’elettronegatività è la tendenza di un atomo ad acquistare
elettroni e quindi a caricarsi negativamente); invece l’ossigeno è molto più grande rispetto all’idrogeno ed è
molto elettronegativo (infatti l’ossigeno è l’elemento più elettronegativo dopo il fluoro che però è molto
raro).
4. Atomi uguali o diversi possono unirsi tra loro per formare composti chimici.

Modello atomico di Thomson


Nel 1897 Thomson identificò gli elettroni, particelle subatomiche con carica elettrica negativa e con massa 2000 volte
più piccola della massa dell’atomo di idrogeno. La teoria atomica di Dalton, perciò, fu messa in discussione. Thomson
propose inoltre il primo modello di atomo in cui si facesse riferimento a particelle subatomiche, ovvero più piccole
dell’atomo.
Thomson ipotizzò che l'atomo fosse una sfera carica positivamente all'interno della quale erano disposti elettroni che
neutralizzassero la carica positiva.
Il modello di Thomson rappresentò un importante passo avanti, ma non convinceva del tutto: se ci fossero state delle
particelle subatomiche negative avrebbero dovuto esserci anche delle subparticelle positive.

Modello atomico di Rutherford


Gli studi di Rutherford sull'atomo si concentravano sulle radiazioni α. Rutherford “bombardò” una sottilissima lamina
d’oro con un fascio di radiazioni α, mettendo un evidenziatore dietro la lamina.
Alla prima osservazione sembrò che quasi tutte le particelle α attraversassero la lamina, ma osservazioni più accurate
dimostrarono che un numero molto piccolo veniva deviato e che un numero ancora più piccolo veniva persino
riflesso. Il fatto che quasi tutte le particelle attraversassero gli atomi di oro significava che non incontravano ostacoli.
Le uniche due possibilità erano che incontrassero o spazi vuoti o elettroni. Di contro, le particelle che venivano
deviate sfioravano i nuclei degli atomi e le particelle che venivano riflesse si scontravano con i nuclei degli atomi.
Rutherford immaginò che l’atomo fosse come un piccolo sistema solare, un atomo planetario con un nucleo come
sole ed elettroni come pianeti, dove ogni elettrone si muoveva lungo una precisa orbita.
Modello atomico di Bohr
I fisici del tempo di Eistein contrastavano molto Rutherford perché l’elettrone girando velocemente perde energia e
quindi alla fine la sua carica elettrica doveva annullarsi. Inoltre, sostenevano che la struttura dell’atomo non era
planetaria. Ma Bohr (grazie l’uso degli spettri), ipotizzò un’altra struttura atomica in contrasto con quella di
Rutherford.
Se si prende la luce bianca del sole e la si fa passare attraverso un prisma di vetro, si scompone e si può notare su una
lastra fotografica: a questo punto si vede la scomposizione della luce bianca nei suoi colori.
Bohr accettò l’ipotesi di Rutherford che l’atomo fosse formato da un nucleo (con all’interno i nucleoni) e da elettroni
che si trovavano su livelli energetici. Questi poi furono chiamati orbite ma dato che l’elettrone (che è sia onda che
particella) si muove intorno al nucleo con un moto impossibile da definire si deve parlare di possibilità, cioè di
orbitale.
Secondo Bohr i livelli energetici sono quantizzati, cioè ogni livello energetico ha una quantità di energia diversa. A
mano a mano che ci si allontana dal nucleo la quantità di energia diminuisce. Questa quantità di energia è detta
Quanto. Precisamente il quanto di energia è definito come l’energia necessaria all’elettrone per far passare
l’elettrone stesso da un livello energetico ad un altro.

EINSTEIN E LA TEORIA DELLA RELATIVITA’


Albert Einstein è considerato il più grande fisico del Novecento. A lui si deve la scoperta della teoria della relatività e
vinse il premio Nobel per la Fisica nel 1921. Ha pubblicato nel 1905 il primo di due importanti studi sulla teoria della
relatività, Elettrodinamica dei corpi in movimento, nel quale negava l'esistenza del moto assoluto. Einstein sosteneva
infatti che nessun oggetto dell'universo poteva rappresentare un sistema di riferimento assoluto e universale fisso
rispetto al resto dello spazio. Inoltre, qualsiasi corpo poteva essere considerato un buon sistema di riferimento per lo
studio delle leggi sul moto dei corpi.
Per Einstein il movimento era un concetto relativo, che poteva essere descritto in qualsiasi sistema di riferimento
inerziale: tutti gli osservatori che descrivono i fenomeni fisici nei sistemi di riferimento giungono alle stesse leggi di
natura. Questa è l'ipotesi fondamentale (Principio di relatività) di tutta la teoria di Einstein: per due osservatori in
moto relativo uno rispetto all'altro a velocità costante valgono le stesse leggi della natura.

Lo sviluppo della teoria della relatività unificò i concetti di spazio e tempo assoluti nella fisica nel più generale spazio-
tempo quadridimensionale. Ciò implica una modifica del concetto di simultaneità: le misure del tempo tra due
eventi dipendono dal moto del sistema di riferimento e non esiste una misura assoluta del tempo.

La novità introdotta da Einstein consiste nell’aver stabilito che la velocità di propagazione della luce rispetto a un
qualsiasi osservatore è sempre la stessa: 300.000 km/s. Il concetto di invarianza della velocità della luce veniva
determinato dalle equazioni di Maxwell, secondo le quali la velocità di propagazione delle onde elettromagnetiche si
considera come una "costante naturale" che non cambia se i fenomeni vengono descritti in sistemi di riferimento
diversi. Secondo Einstein due osservatori in moto uno rispetto all'altro misurano la stessa velocità della luce.
L’ipotesi di Einstein era in forte contrasto con la fisica classica, secondo la quale solo uno degli osservatori si poteva
considerare a riposo, mentre l'altro avrebbe compiuto un errore di misura. Per Einstein, al contrario, entrambi gli
osservatori potevano essere considerati a riposo e ciascuno poteva eseguire in maniera corretta la propria misura,
assumendo il proprio sistema di coordinate come riferimento.
Come conseguenza dell’impossibilità di definire un moto assoluto, Einstein ha messo in dubbio la possibilità di
definire un tempo ed una massa assoluti. Il principio di tempo assoluto della meccanica newtoniana è stato quindi
sostituito dal principio di invarianza della velocità della luce dallo stato di moto dell'osservatore.

Il principio della relatività (da Galileo) afferma dunque che:


1. Il moto è relativo, perché si può dire che un sistema di riferimento è in moto solo se cambia la sua
posizione rispetto ad un altro sistema di riferimento;
2. Le leggi fisiche sono assolute, perché sono vere in qualsiasi sistema di riferimento inerziale
indipendentemente dal suo stato di quiete o di moto rettilineo uniforme.
Postulati della relatività ristretta (formulata nel 1905):
- Principio di relatività – le leggi fisiche sono le stesse in tutti i sistemi di riferimento inerziali.
- Principio di invarianza della velocità della luce – la velocità della luce nel vuoto ha sempre lo stesso valore c.

Questa teoria è detta della relatività “ristretta” perché valida solo per i sistemi di riferimento inerziali.

Gli esperimenti hanno confermato le ipotesi di Einstein: la massa di un elettrone dotato di velocità simili a quelle
della luce risulta maggiore della massa a riposo, esattamente nella misura prevista. L'incremento della massa
dell'elettrone era dovuto alla conversione dell'energia cinetica in massa, secondo la formula E=mc2.

Quando nel 1915 Einstein comprese l’espressione delle leggi fisiche nei sistemi in moto qualsiasi, poté arrivare
all’espressione completa della teoria della relatività generale che gli ha permesso di esprimere le leggi della fisica allo
stesso modo in tutti i sistemi di riferimento.

Secondo la teoria di Einstein, la legge di gravitazione di Newton era un'ipotesi non necessaria. Einstein considerava
infatti tutte le forze, compresa la forza gravitazionale, come effetti di un'accelerazione. L'ipotesi di Newton, secondo
la quale due oggetti si attraggono con una forza di entità proporzionale alle loro masse, è stata sostituita nella
relatività generale dall'ipotesi che lo spazio-tempo sia curvato nelle vicinanze dei corpi massivi.
La legge della gravitazione di Einstein consiste in sintesi nell'affermazione che la linea universale di un corpo è una
curva che congiunge i vari punti dello spazio secondo il percorso più breve.

IL PARADOSSO DEI GEMELLI

Anche nell’ambito della cosmologia il fatto che la luce abbia una velocità finita ha conseguenze importanti: quando
osserviamo gli oggetti celesti in un dato istante t li vediamo come erano in un istante tp del passato; la distanza
temporale tra t e tp cresce in modo direttamente proporzionale alla loro distanza dalla Terra.

Risolvendo il paradosso dei gemelli, Einstein ammise la possibilità teorica di un viaggio nel futuro, ferma restando
l'impossibilità di superare la velocità della luce. La prima costruzione teorica per la quale risultava possibile un viaggio
nel passato fu elaborata più tardi dallo stesso Einstein insieme a Nathan Rosen.
Il tempo non scorre allo stesso modo per tutti. Quando ci si muove a velocità elevate oppure in situazioni di forte
gravità, il tempo scorre più lentamente. E' un dato di fatto.
La relatività del tempo non è però osservabile sulla Terra perché gli effetti sono infinitesimali e poco visibili. Si
possono osservare solamente avvicinandosi alla velocità della luce. Aumentando la velocità lo spazio si contrae e il
tempo diminuisce

Ci sono due gemelli di 40 anni. Uno dei due è un astronauta e sta per partire in un viaggio a bordo di un'astronave.
L'astronave deve raggiungere una stella a 10 anni luce e poi tornare, viaggiando al 66% della velocità della luce.
Al termine della missione l'astronave torna sulla Terra.
Se viaggia a 2/3 della velocità della luce e la stella dista 10 anni luce, l'astronave impiega 15 anni per raggiungerla e
altri 15 per tornare sulla Terra.
Quando l'astronauta torna a casa riabbraccia il suo gemello che ormai ha 70 anni. Il gemello astronauta è però otto
anni più giovane dell'altro, ha 62 anni.
Durante il suo viaggio sull'astronave il tempo è trascorso più lentamente, perché il razzo si è spostato a velocità
elevatissime. Sulla Terra, invece, il tempo terrestre ha continuato a scorrere normalmente. Per questo motivo al suo
ritorno l'astronauta è più giovane del previsto.

Il paradosso non consiste nel fatto che i due gemelli hanno un'età diversa, come molti erroneamente pensano, bensì
su quale dei due gemelli debba essere più vecchio dell'altro.
Sia la Terra che l'astronave sono due sistemi inerziali differenti. Non esiste un sistema inerziale di riferimento
preferibile tra i due.

P.S. La Terra non è un sistema inerziale in quiete. La Terra si muove nello spazio come un'astronave, orbita intorno al
Sole alla velocità di 106 mila km/h. Non solo... il Sole si sposta a 792 mila km/h. A sua volta il Sole è una stella
appartenente a una galassia, la Via Lattea, che viaggia nell'Universo a 3,6 milioni di km/h. Pertanto, noi terrestri
viaggiamo a circa 1/300 della velocità della luce ma non ce ne accorgiamo.
Se l'astronauta guardasse la Terra dall'astronave, dal suo punto di vista la vedrebbe allontanarsi molto velocemente
durante il viaggio di andata e avvicinarsi molto rapidamente durante quello di ritorno.
Dal punto di vista dell'astronave è la Terra a muoversi a 2/3 della velocità della luce. Mentre la vita a bordo sembra
tranquilla e normale.
Pertanto, se il sistema di riferimento fosse quello dell'astronave e non quello della Terra, al suo ritorno l'astronauta
dovrebbe trovare il suo gemello terrestre molto più giovane di lui.
L'astronauta resta 22 anni a bordo dell'astronave prima di incontrare di nuovo la Terra. Poiché la Terra si è mossa a
2/3 della velocità della luce, sul pianeta dovrebbero essere passati soltanto 16,5 anni.
In conclusione, cambiando il sistema di riferimento inerziale, muta completamente il risultato finale. In questo caso il
gemello sulla Terra è più giovane dell'altro e ha soltanto 56 anni.

Si tratta di un paradosso perché non è possibile affermare che uno dei due sistemi inerziali sia corretto e l'altro
sbagliato.

MAXWELL

Nel 1873 il fisico James Maxwell pubblicò il Trattato sull’elettromagnetismo, in cui espone un’unica teoria che sulla
base di quattro equazioni che descrivono allo stesso tempo tutti i fenomeni elettrici e magnetici, che sino ad allora si
pensava facessero parte di due diverse branche della fisica.
Le quattro equazioni di Maxwell sono leggi e teoremi precedentemente scritte da altri fisici ma che opportunamente
combinate tra loro porteranno alla scoperta di un nuovo importante fenomeno: le onde elettromagnetiche.

Prima equazione di Maxwell – teorema di Gauss per il campo elettrico


Il flusso del campo elettrico E attraverso una qualunque superficie chiusa S (detta anche superficie gaussiana), è
direttamente proporzionale alla somma algebrica delle cariche in essa contenute.

dove S indica la superficie chiusa, Φ il flusso di campo elettrico attraverso di essa, e Q la carica elettrica interna; ε0
è la costante dielettrica nel vuoto.

Il flusso del campo elettrico attraverso una superficie chiusa è uguale al rapporto tra la somma algebrica delle cariche
interne alla superficie fratto la costante elettrica del vuoto.

Significato fisico: le cariche elettriche sono sorgenti (o pozzi) del campo elettrico.

Seconda equazione di Maxwell – teorema di Gauss per il campo magnetico


il flusso del campo magnetico attraverso una superficie chiusa è nullo.

Significato fisico: il campo magnetico non ha sorgenti e le linee magnetiche sono chiuse (entrano ed escono da S) e i
poli magnetici N, S, sono inseparabili.

Terza equazione di Maxwell – circuitazione del campo elettrico (legge di Faraday – Neumann – Lenz)
La circuitazione del campo elettrico lungo una linea chiusa ℓ è uguale alla variazione del flusso del campo magnetico
attraverso una qualunque superficie S che ha la linea ℓ come bordo.
Quarta equazione di Maxwell – circuitazione del campo magnetico (legge di Ampere – Maxwell)
La circuitazione del campo magnetico lungo una linea chiusa ℓ è direttamente proporzionale alla somma della
corrente di conduzione e alla corrente di spostamento, concatenate con la linea ℓ.

IL CAMPO ELETTROMAGNETICO - Una delle conseguenze delle equazioni di Maxwell è l’esistenza del campo
elettromagnetico che si propaga per mezzo delle cosiddette onde elettromagnetiche. Esse altro non sono che un
campo elettrico e un campo magnetico che oscillano su piani perpendicolari e in fase tra di loro (cioè quando uno dei
due campi è massimo, è massimo anche l’altro, quando uno è minimo è minimo anche l’altro).

FERMI

Enrico Fermi fu un fisico italiano e con le sue scoperte cambiò per sempre il mondo della fisica.
Enrico Fermi nacque a Roma il 29 Settembre 1901. La morte prematura del fratello Giulio, a cui Enrico era molto
legato gi ha dato la motivazione in più per realizzarsi.
Dopo essersi laureato all’università di Pisa (in 4 anni!), viaggiò a Gottigen per migliorare la sua conoscenza riguardo la
fisica quantistica e poi in Olanda, dove incontrò Einstein.
Nel 1929 mise insieme un gruppo di giovani ricercatori (I ragazzi di via Panisperna – Fermi, Rasetti, Segrè, Amaldi,
D’Agostino, Majorana e Pontecorvo) che rappresentavano un connubio perfetto di fisici teorici e sperimentali che si
stavano creando in quegli anni le cui scoperte furono poi di importanza fondamentale per il progresso scientifico.

Nel 1929 Fermi e Rasetti iniziarono a investigare il nucleo dell'atomo.


Sempre nel 1929, Enrico Fermi fu nominato membro reale dell’Accademia di Italia da Benito Mussolini.
Quando Fermi focalizzò le sue ricerche sul nucleo, si era già a conoscenza che la maggior parte dei nuclei esistenti era
di natura stabile, e che altri sono radioattivi. In caso di decadimento radioattivo se ne conoscevano di tre tipi: tramite
emissione di una particella alpha o tramite l'emissione di una particella beta, e in genere accompagnati
dall'emissione di un fotone gamma. Compito della fisica nucleare era quello di studiare le forze che tengono insieme
il nucleo. Attraverso la meccanica quantistica, si era in grado di spiegare solo, e approssimativamente, l'emissione di
particelle alpha.
Al fine di comprendere meglio il problema, Fermi organizzò fra l'11 e il 17 ottobre 1931 un congresso internazionale
di fisica nucleare, insieme all'Accademia d'Italia e al CNR. Il congresso fu finanziato con duecentomila lire, una cifra
enorme per l'epoca, e aperto con un intervento dello stesso Mussolini. Il congresso ebbe un'importanza scientifica
enorme e vide la partecipazione di Marie Curie, Bohr, Blochett, Millikan, Compton, Heisenberg e Wolfgang Pauli.

In seguito alla scoperta nel 1934 da parte di Irene Curie e suo marito Joliot della radioattività artificiale, il gruppo di
Fermi iniziò a lavorare su di essa. Al contrario di quanto fatto da Curie e Joliot, Fermi decise di bombardare i nuclei
bersagli con neutroni (cariche neutre) anziché con particelle di carica positiva. Utilizzando come sorgenti di neutroni
radon e berillio, Fermi cominciò a bombardare gli elementi del sistema periodico in maniera sistematica, ma solo
quando arrivò al fluoro e all'alluminio, il suo contatore Geiger-Müller segnò finalmente i primi conteggi. In poco
tempo vennero irradiati con neutroni circa 60 elementi e almeno in 40 vennero identificati nuovi elementi radioattivi.
Ad ottobre del 1934 mentre bombardavano un cilindretto d’argento con neutroni, al fine di studiare l’intensità e il
tipo di radioattività indotta, notarono che l’effetto della sorgente di neutroni sul bersaglio dipendeva non solo dalla
distanza tra i due, ma anche dal tavolo su cui erano posati. Il livello di radioattività indotta era assai maggiore sul
tavolo di legno che su quello di marmo.
Con un’intuizione divenuta leggendaria, Enrico Fermi ebbe l’idea di interporre uno schermo di paraffina tra la
sorgente di neutroni e il cilindro d’argento da irradiare.
Fermi spiegò così il fenomeno: la paraffina è composta da idrocarburi e, quindi, contiene un’alta proporzione di
idrogeno. Il nucleo di idrogeno ha praticamente la medesima massa del neutrone, al contrario dei nuclei più pesanti,
la cui massa è pari a 2, 3, 50 o anche 100 volte tanto. Urtando con gli atomi di idrogeno, i neutroni rallentavano
notevolmente, così come una palla da biliardo perde velocità se ne incontra un’altra della medesima grandezza.
Tuttavia mancava da comprendere perché rallentando i neutroni si intensificasse la radioattività dei bersagli. Ebbene,
secondo Fermi, per i neutroni “lenti” era maggiore la probabilità di cattura da parte dei nuclei degli elementi
bombardati, che così diventavano instabili e, quindi, radioattivi.
Ad alte velocità, tale probabilità si riduce perché la cattura ha meno tempo per verificarsi, un neutrone “veloce” può
rasentare il nucleo così rapidamente da non risentirne l’azione. In altre parole, la probabilità di assorbimento nel
nucleo dipende dal tempo che il neutrone passa entro il raggio di cattura del nucleo stesso. L’idea di Fermi spiegava
l’anomalia riscontrata da Amaldi e Pontecorvo: il tavolo di legno ha più atomi di idrogeno rispetto a quello di marmo,
per cui i neutroni che rimbalzavano dal tavolo di legno e raggiungevano il bersaglio erano stati rallentati, quelli riflessi
dal marmo no.

Nel corso degli studi successivi, i ragazzi di via Panisperna osservarono che nel caso dell’uranio, l’elemento più
pesante conosciuto all’epoca, il bombardamento dei neutroni dava luogo ad un corpo radioattivo che non furono in
grado di identificare chimicamente. Erroneamente, Fermi pensò di aver creato degli elementi transuranici, ma in
realtà lui e i suoi “ragazzi” avevano assistito, per la prima volta nella storia, ad un fenomeno di  fissione nucleare, in
poche parole, al processo che è alla base della bomba atomica.

Nel 1938 Mussolini proclamava le Leggi Razziali. Fu un punto di rottura per Fermi, la moglie Laura era infatti ebrea e i
due lasciarono il paese. I coniugi andarono negli Stati Uniti, dove iniziò la collaborazione con la Columbia University.
Iniziano gli anni del Progetto Manhattan. Nel 1939 il fisico di origini ungheresi Leo Szilard scrive una lettera dove
descrive gli studi sulla fissione nucleare dei fisici nazisti e avverte che la Germania di Hitler potrebbe realizzare la
prima bomba atomica. La lettera arriva sulla scrivania del presidente americano Franklin D. Roosevelt. Sotto la spinta
di Roosevelt, l’intelligence statunitense indaga e conferma le preoccupazioni.
Nel 1939 era nata la sezione militare definita Manhattan District a NY. Nel 1942, nel pieno della Seconda guerra
mondiale, la sezione si espanse. Qui il responsabile scientifico Robert Oppenheimer portò alla realizzazione delle
uniche bombe atomiche mai utilizzate.
Enrico Fermi morì nel 1954.
IL GATTO DI SCHRODINGER

Schrödinger, fisico austriaco vincitore del Nobel per la fisica nel 1933.
Schrödinger ha immaginato appunto un gatto dentro una scatola sigillata e, insieme al gatto, un meccanismo che,
nell'arco di tempo in cui il gatto sta nella scatola - ovvero un’ora - può scattare e causare il rilascio di un veleno (letale
per il gatto) oppure no, con uguale probabilità. Non importa cosa possa fare scattare il meccanismo, si sa solo che la
probabilità che succeda è pari al 50 per cento, tanto quanto quella che non succeda.
Chi osserva la scatola dal di fuori non sa cosa succede al suo interno e quindi, dopo un'ora, non è in grado di dire se il
gatto sia vivo o morto: al massimo può dire quale è la probabilità di ciascuna delle due situazioni, ovvero il 50 per
cento per ognuna. Siamo quindi in una condizione di indeterminazione nella quale non si conosce la sorte del gatto.
Ovviamente, per sciogliere il dubbio, l’unica cosa da fare è aprire la scatola e guardare dentro: nel farlo
l'indeterminazione viene meno e si acquisisce una certezza circa lo stato del gatto.
Se però si adotta un punto di vista diverso, le cose cambiano: poiché non è dato sapere se il gatto dentro la scatola è
vivo o è morto allora è lecito dire che il gatto è contemporaneamente vivo e morto, con la stessa probabilità. E
proprio questo è l’assunto alla base del paradosso di Schrödinger. Ovviamente, fino a che si parla di un gatto è chiaro
che l'idea di considerarlo come vivo e morto nello stesso tempo non ha alcun senso. Quando però si parla delle
particelle di cui sono fatti gli atomi - cioè gli elettroni, i protoni - allora l'idea di pensare che si possano trovare nello
stesso istante in tanti stati diversi si rivela quella vincente per spiegare i fenomeni che le coinvolgono.

Il paradosso del gatto di Schrodinger consiste quindi nel fatto di riproporre queste idee che funzionano molto bene
per le particelle atomiche (il mondo microscopico), a oggetti o creature del nostro mondo ordinario (il mondo
macroscopico). Parlare di gatti che possono essere vivi e morti allo stesso tempo è certamente paradossale, però si
tratta per l'appunto di un paragone fatto apposta per evidenziare la stranezza del comportamento delle particelle
atomiche: se un gatto si comportasse come loro allora si potrebbe considerarlo vivo e morto nello stesso tempo.
PRINCIPIO DI INDETERMINAZIONE DI HEISENBERG DEL 1927

Il principio di indeterminazione, introdotto per la prima volta da Werner Karl Heisenberg nel 1927 è un concetto
fondamentale della meccanica quantistica.
Secondo le leggi della fisica classica si può prevedere il comportamento di un corpo in movimento come un pianeta o
un proiettile. Tuttavia passando dal mondo macroscopico a quello microscopico le leggi della fisica classica non si
adattavano al comportamento delle sub-particelle atomiche. Man mano che si procede verso dimensioni atomiche,
non è più valido considerare una particella come una sfera rigida, perché più piccola è la dimensione, più diventa
simile a un’onda.
Negli anni ’20 dello scorso secolo Niels Bohr e Werner Karl Heisenberg cercarono di stabilire il livello di precisione con
cui si potesse prevedere il comportamento di sub-particelle atomiche.
Nel Congresso della fisica di Copenaghen (1927), l’equazione generale del moto dell’onda (1922) di Schrodinger
venne chiarita da Max Born con l’interpretazione probabilistica. Questa affermava che la probabilità di trovare con
una misura la particella nella fisica tra due posizioni a e b è uguale all’integrale tra a e b della funzione d’onda al
quadrato.
Successivamente Heisenberg, considerando le sub-particelle atomiche come onde, enunciò che non è possibile
misurare simultaneamente con precisione arbitraria sia il momento che la posizione di una particella. Ciò accade
proprio perché l’elettrone nel mondo microscopico agisce come un’onda e quindi questo non può avere
contemporaneamente una posizione e un momento ben definiti.
Il principio di indeterminazione descrive un compromesso tra due proprietà complementari (dette coppie coniugate),
come la velocità e la posizione, o energia e tempo.
Le montagne russe costituiscono una analogia per come funziona il principio di indeterminazione nel mondo
macroscopico. Quando l’auto delle montagne russe raggiunge un punto in alto, si potrebbe scattare una foto
istantanea per conoscerne la posizione. Ma l’istantanea da sola non darebbe informazioni sufficienti sulla sua
velocità. Quando l’auto delle montagne russe scende si può misurare la sua velocità nel tempo ma c’è una maggiore
incertezza sulla sua posizione.
Un altro esempio è costituito dall’atomo in cui gli elettroni caricati negativamente orbitano attorno a un nucleo
caricato positivamente. Secondo la fisica classica, potremmo aspettarci che le due cariche opposte si attraggano a
vicenda, portando tutto a collassare in un’unica entità di particelle.
Il principio di indeterminazione spiega perché ciò non accade: se un elettrone si avvicinasse troppo al nucleo, allora la
sua posizione nello spazio sarebbe nota con precisione e, quindi, l’errore nella misurazione della sua posizione
sarebbe minuscolo. Ciò significa che l’errore nel misurare la sua quantità di moto e, per deduzione, la sua velocità
sarebbe enorme. In tal caso, l’elettrone potrebbe muoversi abbastanza velocemente da uscire del tutto dall’atomo.
CORRENDE CONTINUA E CORRENTE ALTERNATA

Corrente continua (Edison) = costante flusso di cariche elettriche che attraversa un conduttore (come un cavo
elettrico) circolando sempre nella medesima direzione, ne risulta una produzione costante di tensione.
Il sistema di distribuzione dell’energia elettrica di Edison si basava sul mantenimento dello stesso potenziale lungo
tutta la linea, dal generatore fino all’utilizzatore (lampadina).
Uno degli svantaggi, però, consisteva nel fatto che parte dell’energia veniva dispersa nell’ambiente sotto forma di
calore causando delle cadute di tensione, quindi il potenziale dispensato dal generatore doveva essere superiore al
potenziale richiesto dall’utilizzatore. I limiti della corrente continua sono quindi da ricondurre alle perdite gravose
lungo la linea e alle difficoltà nel coprire zone lontane dalla centrale. Inoltre, il sistema di Edison poteva essere adatto
all’illuminazione, ma non per alimentare i motori elettrici industriali sempre più diffusi negli impianti.
- La DC è ad esempio quella delle pile, ma anche di telefoni, computer… (cose a bassa tensione)
Corrente alternata (Tesla) = questo sistema utilizza un flusso di energia variabile e oscillatoria che passa da un
massimo positivo a un massimo negativo, generando così una ciclica inversione della direzione delle cariche
elettriche che si ripete all’infinito, in modo sinusoidale. In questo caso avremo una tensione alternata.
Tesla per evitare le cadute di tensione che facevano disperdere energia nell’ambiente, sfruttò un trasformatore, il
quale era in grado di aumentare o abbassare il livello di tensione secondo le esigenze (poteva essere usato solo con la
corrente alternata a quanto ho capito).
Tra i pionieri dell’AC ci furono Pixii, Deuchenne e altri scienziati, ma sicuramente il più importante nel sul sviluppo fu
Nikola Tesla.
- La AC è quella delle centrali elettriche, della luce e di tutte le cose che richiedono un’alta tensione.
GUERRA DELLE CORRENTI

Nel 1880 c’era una massiccia guerra in corso tra i promotori della corrente continua (DC) e della corrente alternata
(AC). La Guerra delle Correnti è stata una competizione commerciale del XIX secolo per il controllo dell’allora
crescente mercato mondiale dell’energia elettrica. Questa guerra è stata una battaglia per il futuro dell’umanità.
La strategia di Thomas Edison – Il nome di Thomas Edison era molto familiare a quei tempi, con oltre 1.000 invenzioni
al suo attivo. Era assai difficile non trovare il suo nome in giro per le città americane, grazie alle sue creazioni come il
fonografo, la macchina da presa cinematografica e la lampadina, tutte alimentate rigorosamente dalla DC. Non solo
Edison era un grande inventore, ma era anche un uomo d’affari ed era in grado di trasformare quasi tutte le sue
invenzioni in successi commerciali.

I limiti della corrente continua


Nonostante i suoi numerosi impieghi, la corrente continua ha tre grandi limitazioni:
- alte tensioni: la DC non è appropriata per alimentare un carico ad alta tensione (frigorifero o lavastoviglie);
- lunghe distanze: la DC non può percorrere lunghe distanze a causa delle notevoli perdite lungo la linea;
- necessita di molte centrali elettriche: a causa della breve distanza che può percorrere è necessario installare
molte più centrali elettriche in tutto il paese per portare la corrente nelle case delle persone.

In quanto la corrente continua non era in grado di percorrere lunghe distanze attraverso i conduttori, Edison aveva
bisogno di avere una centrale elettrica a corrente continua in ogni sezione della città. Tuttavia, già un paese come gli
Stati Uniti avrebbe avuto bisogno di uno smisurato numero di centrali per fornire l’energia per centinaia di chilometri.

La corrente alternata, invece, può essere trasportata per lunghe distanze con eccellenti rendimenti e poche
dispersioni; questo è il principale motivo per cui quasi tutte le abitazioni e gli uffici in tutto il mondo utilizzano la
corrente alternata. L’unico svantaggio della AC è che non può essere utilizzata direttamente da dispositivi come
smartphone o laptop, situazioni in cui bisogna trasformarla in DC.

Durante la guerra delle correnti, scienziati e uomini d’affari iniziarono a vedere i vantaggi della AC rispetto alla DC.
Così Edison condusse una campagna di propaganda che doveva fondamentalmente criminalizzare la corrente
alternata. Edison giocò sporco facendo anche fulminare gli animali in pubblico con la tensione AC per mostrare
quanto fosse pericolosa rispetto alla DC. In aggiunta, i dipendenti di Edison progettando la prima sedia elettrica a
corrente alternata.
La corrente alternata aveva dimostrato già nel 1888 quanto potesse essere pericolosa: a New York, un filo ad alta
tensione AC di 6000 volt si ruppe durante una tempesta e finì per fulminare un bambino. Tuttavia, il problema non
risiedeva nell’uso della corrente alternata, ma nell’impiego di cavi elettrici che avevano poco o nessun isolamento e
nella mancata manutenzione delle linee elettriche.

Il rivale di Edison e sostenitore della corrente alternata, Westinghouse si affidò al tedesco Tesla (che da poco aveva
smesso di lavorare per Edison in seguito a uno scontro di personalità): i sistemi elettrici AC da lui sviluppati alla fine
ebbero il sopravvento sui sistemi DC. La prima vittoria arrivò nel 1891 in Germania durante una mostra a Francoforte,
dove fu dimostrata la prima trasmissione a lunga distanza mediante la corrente alternata, alimentando luci e motori.
Alcune grandi figure professionali della General Electric erano presenti all’evento e furono impressionate. Un anno
dopo la stessa azienda iniziò a investire in tecnologie AC.

George Westinghouse, con i brevetti di Tesla in mano, è stato anche in grado di assicurarsi un contratto per costruire
una diga idroelettrica nelle cascate del Niagara che avrebbe trasmesso l’energia AC a tutta New York. Questa
“vittoria” portò alla graduale adozione della corrente AC come standard sia in America che in Europa.

Oggi sia la corrente AC che quella DC continuano a coesistere pacificamente, ognuna con le proprie applicazioni
specifiche. Ma ci chiediamo se questo equilibrio sarà sempre mantenuto. Con l’interesse a produrre elettricità da
fonti locali, come solare, eolico, ecc., convertire la corrente in AC solamente per portarla a casa nostra, e poi di nuovo
in DC per alimentare i nostri dispositivi causa un enorme spreco di energia. Forse Edison non si sbagliava quando
pensava ad una centrale elettrica locale.

Potrebbero piacerti anche