Sei sulla pagina 1di 57

Fisica

Lo scopo della fisica è lo studio dei fenomeni naturali (non comprendendo peraltro i fenomeni
chimici, biologici, geologici ecc. che sono oggetto di altre scienze), cioè degli eventi che possono
essere descritti e quantificati attraverso opportune grandezze fisiche; lo scopo della fisica è stabilire
principi e leggi che regolino le interazioni tra le grandezze coinvolte, fornendo uno schema
semplificato (modello) del fenomeno descritto.
La fisica utilizza il metodo sperimentale (o scientifico) per arrivare a una conoscenza oggettiva,
affidabile, verificabile e condivisibile della realtà. A partire da ipotesi e da teorie da indagare, il
metodo raccoglie dati empirici che vengono poi gestiti da una rigorosa analisi matematica.
La fisica è per eccellenza una “scienza dura” dove la rigorosità del metodo non è mai messa in
discussione e non lascia spazio a valutazioni non oggettive (come accade nelle scienze umanistiche
che, per contro, vengono definite “scienze molli“).
I procedimenti utilizzati nel metodo scientifico sono quello induttivo (partendo da singoli casi
particolari cerca di stabilire una legge universale, dal particolare all’universale) e quello deduttivo
(dall’universale al particolare; partendo da postulati, ipotesi teorie iniziali, attraverso una serie di
“deduzioni”, procede verso la spiegazione di casi particolari della realtà quotidiana).
Originariamente e fino al XVIII sec., la fisica era una branca della filosofia (filosofia naturale). Solo
in seguito alla codifica del metodo scientifico di Galileo Galilei, negli ultimi trecento anni si è
grandemente sviluppata, raggiungendo una piena autonomia.
Suddivideremo lo studio della fisica nelle seguenti branche: meccanica (cinematica, dinamica,
statica, meccanica dei fluidi), termodinamica, studio delle onde, acustica, ottica, elettricità ed
elettromagnetismo e fisica moderna.
Prerequisito essenziale per lo studio della fisica è lo studio di gran parte delle sezioni della
matematica.

Le grandezze fisiche
In fisica le variabili che si incontrano (temperatura, pressione, velocità ecc.) sono di due tipi. Le
grandezze scalari sono definite da un valore numerico (relativo a un’unità di misura), mentre
quelle vettoriali sono definite da un numero (intensità o modulo), una direzione e un verso. Per
esempio, indicando la velocità di un’auto siamo soliti parlare di 80 km/h, ma se indichiamo anche
direzione (lungo l’autostrada Milano-Genova) e verso (verso Milano) risultiamo essere
completamente esaustivi. Le grandezze vettoriali sono indicate con vettori, segmenti orientati con
un’origine, il punto da cui origina il segmento orientato.
Mentre per confrontare due grandezze scalari è sufficiente confrontare la loro intensità, si può dire
che due grandezze vettoriali sono uguali se hanno lo stesso modulo, la stessa direzione, lo stesso
verso; si dicono opposte se ciò che cambia è solo il verso che è opposto.
I vettori sono indicati con una lettera sormontata da una freccia:
Il modulo si indica anche con 

Somma di vettori
La somma di due vettori rientra in tre casi.

Se  e  hanno stessi direzione e verso, il vettore risultante  ha stessa direzione e stesso verso
e come modulo la somma dei moduli.

Se e   hanno la stessa direzione, ma verso opposto, il vettore risultante ha stessa direzione,


il verso di quello che ha modulo maggiore e come modulo la differenza dei moduli.

Negli altri casi si usa la regola del parallelogramma: si traslano i due vettori  e  fino a che la
loro origine coincide, poi partendo dalle due estremità libere (le punte) si traccia una retta parallela
all’altro vettore, disegnando un parallelogramma. La risultante  , diagonale del parallelogramma, è

la somma dei due vettori. Viceversa, partendo da , è possibile definire i due vettori  e ,
ottenendo la scomposizione del vettore lungo due direzioni assegnate. Se i due vettori vengono
rappresentati in un piano cartesiano (per esempio a tre dimensioni), proiettandoli sugli assi si
ottengono le componenti lungo gli assi x, y e z. Le componenti del vettore somma sono le somme

delle rispettive componenti di  e .


Per calcolare la somma di più vettori, si utilizza la proprietà associativa: si sommano con la regola
del parallelogramma i vettori a due a due, poi le loro risultanti ecc. fino ad avere la somma finale.

Differenza di vettori
La differenza fra due vettori  e si ottiene sommando a  l’opposto di
.

I vettori: la moltiplicazione
Vediamo innanzitutto il prodotto di un vettore per uno scalare.

Nel mondo reale è l’equivalente della locuzione “raddoppiare la velocità” (2x ). Il prodotto è un

vettore con uguali verso e direzione e come modulo il prodotto dello scalare per il modulo di .
Non si deve confondere l’operazione di moltiplicazione fra un vettore e uno scalare con il prodotto
scalare di due vettori.
Il prodotto scalare V di  per  (indicato come  . , si legge “V1 scalare V2“) è uno

scalare che ha come modulo il prodotto fra il modulo di e la proiezione di  nella direzione di

. Richiamando concetti trigonometrici, V=V1·V2·cosα, dove a è l’angolo fra i due vettori.

Il prodotto vettoriale fra e ( x , letto come “V1 vettore V2“) è un vettore  che ha

come modulo l’area del parallelogramma con lati  e  e direzione perpendicolare al piano del
parallelogramma; per trovare il verso del prodotto vettoriale si ricorre alla regola della mano
destra: si dispone il pollice nella direzione e nel verso del primo vettore e l’indice nella direzione e
nel verso del secondo vettore. Distendendo il dito medio perpendicolarmente a pollice e indice, si
ha il verso cui punta il prodotto. Trigonometricamente, il modulo V risulta (a è l’angolo fra i due
vettori):
V=V1·V2sinα.

Cinematica
La cinematica è la branca della meccanica che si occupa dello studio del moto dei corpi, senza
tener conto delle cause che lo producono. Gli elementi fondamentali, studiati dalla cinematica con
l’analisi matematica, sono la velocità, lo spostamento, il tempo, l’accelerazione.
Per studiare il moto di un corpo si procede con la definizione di un sistema di riferimento
all’interno del quale il moto del corpo, usualmente considerato puntiforme, viene studiato in base
alla sua traiettoria.
In fisica esistono molti sistemi di riferimento; il più semplice è quello costituito da assi cartesiani
in due (piano) o tre dimensioni (spazio); gli assi sono perpendicolari fra loro e hanno nell’origine
(indicata usualmente con O) il punto comune. Grazie a questo sistema di riferimento, la posizione
del corpo puntiforme può essere rappresentata dalle sue coordinate che sono la proiezione della
posizione del punto sui vari assi. Scriveremo così, per esempio, che le coordinate del punto P nel
piano x,y sono 2 e 3 e indicheremo la posizione con P(2,3).
Se il punto si muove, descrive una traiettoria che può essere espressa come una funzione del tempo;
le sue coordinate sono (nel piano) funzioni del tempo del tipo x(t) e y(t); per esempio, se un punto
parte da una posizione (2,3) e si muove parallelamente all’asse delle x, dopo un’unità di tempo,
potrebbe essere nella posizione (4,3): significa che nell’unità di tempo si è spostato di due unità
spaziali (nella pratica quotidiana, per esempio, si è spostato in un secondo di 2 cm).

Moto rettilineo
Il moto più semplice è quello rettilineo, tipico del punto che si muove con traiettoria rettilinea (per
esempio lungo l’asse delle x); in questo caso lo studio del moto è semplificato perché basta studiare
la variazione dell’unica coordinata. La posizione è rappresentata da un vettore che ha come
direzione quella della retta lungo cui avviene il moto, come verso quello del senso del movimento
del punto e come intensità la distanza dall’origine del sistema di riferimento.
La velocità è una grandezza fisica vettoriale che misura la rapidità di movimento di un corpo,
definita come rapporto tra lo spazio percorso e l’intervallo di tempo impiegato a percorrerlo
(velocità media). Quando l’intervallo di tempo diventa infinitesimo si parla di velocità istantanea.
In altri termini, se si considera il punto che si muove di moto rettilineo da un punto x1 in cui si trova
al tempo t1 a un punto x2 cui giunge al tempo t2, il rapporto

vm=(x2-x1)/(t2-t1)

è la velocità media che può anche essere indicata come il rapporto fra la variazione di spazio Δx
divisa per la variazione di tempo Δt (Δx/Δt è detto rapporto incrementale). Se al variare del tempo
il rapporto incrementale non cambia, il moto è detto uniforme (la velocità media è sempre la
stessa). La velocità può essere espressa come un vettore    avente come direzione quella del moto,
come verso quello del senso del movimento e come intensità la velocità media.

Moto rettilineo uniforme


Nel moto rettilineo uniforme la velocità (v) può essere espressa come lo spazio percorso (s),
diviso il tempo (t) impiegato a percorrerlo. Per fissare le idee è il caso di un’auto che si muove
lungo una strada rettilinea a velocità costante. Se la velocità è di 50 km/h, in tre ore percorrerà 150
km. Quindi le leggi del moto rettilineo uniforme sono:
• v=s/t
• s=vt
Come unità di misura nel Sistema Internazionale (SI) si usa il metro per lo spazio e il secondo per
il tempo, quindi la velocità si esprime in m/sec (metri al secondo).

Moto rettilineo non uniforme


Cosa accade se la nostra auto (come accade nella realtà), pur procedendo in linea retta non si muove
a velocità costante? In questo caso, considerati due intervalli di tempo diversi, lo spazio percorso
può essere diverso.
Per studiare la velocità di un tale moto si definisce la velocità istantanea; dal punto di vista
matematico, si considera il tempo t2 sempre più vicino a t1, cioè si considera il limite del rapporto
incrementale al tendere di t2 a t1 (Δt tende a zero); l’analisi matematica ci dice che tale limite è la
derivata della funzione spazio s(t) rispetto al tempo e si indica con

Si consideri un’auto che parte e raggiunge i 100 km/h in 11 sec. La sua velocità cresce dalla velocità
iniziale (che è nulla). Analogamente a quanto fatto per la velocità, si può definire come
accelerazione media il rapporto
am=(v2-v1)/(t2-t1)=Δv/Δt.
Nel Sistema internazionale l’accelerazione viene misurata in m/sec2 (metri al secondo al quadrato)
perché s’intende la variazione di velocità di 1 m/sec in un secondo.
Analogamente a quanto fatto per la velocità, si definisce come accelerazione istantanea la derivata
della funzione velocità v(t) rispetto al tempo:

Si noti che, se l’accelerazione è costante, a=v/t, oppure v=at.

Moto rettilineo uniformemente accelerato


Supponiamo che l’accelerazione sia costante e che il punto parta con una velocità nulla all’inizio
del suo moto e raggiunga la velocità finale vt. Facendo la media fra velocità iniziale (0) e velocità
finale, si trova che la velocità media è uguale a vt/2. Se riconduciamo il moto in questione a quello
di un moto rettilineo uniforme, con una velocità costante pari alla velocità media che abbiamo
trovato, applicando la relativa legge del moto uniforme dove s=vt, otteniamo

Poiché v=at, avremo

Analogamente, nel caso in cui la velocità iniziale non fosse nulla, ma v0 e il punto si trovasse in un
punto s0, rifacendo lo stesso percorso si troverebbe che

che nel piano cartesiano (t,s) è una parabola.

Moti curvilinei
Ovviamente la traiettoria rettilinea è una semplificazione del concetto più generale di traiettoria
lungo una curva. Come tutti sanno, se una macchina effettua una curva a grande velocità, essa tende
a uscire per la tangente. Questo perché in un moto curvilineo la velocità istantanea è un vettore
tangente alla traiettoria con verso il senso del movimento.
Nel caso dell’accelerazione le cose sono più complesse. L’accelerazione fa muovere il punto più o
meno velocemente lungo la traiettoria, ma nello stesso tempo gli permette di seguire una traiettoria
curvilinea. Tale accelerazione ha due componenti:
• l’accelerazione centripeta, diretta verso il centro di curvatura della traiettoria, cioè verso il
centro del cerchio che meglio si adatta alla traiettoria nel punto considerato;
• l’accelerazione tangenziale, diretta lungo la tangente alla traiettoria che permette al punto di
modificare il valore della sua velocità tangenziale.
Applicando il teorema di Pitagora (le due accelerazioni sono perpendicolari fra di loro) si ottiene
che:

Moto circolare uniforme


Se la traiettoria è una circonferenza di centro O e raggio r e il punto si muove a velocità costante, il
moto si dice circolare uniforme. Il periodo è il tempo impiegato dal punto a percorrere un giro
della circonferenza, mentre la frequenza è il numero di giri che il punto compie nell’unità di tempo
(un secondo). Vale la relazione f=1/T dove f è la frequenza e T è il periodo. Ovviamente T=1/f.

Nel Sistema Internazionale l’unità di misura della frequenza è l’hertz, con 1 Hz=s-1.
Poiché la velocità è costante e in un periodo il punto compie un tratto lungo 2πr, dividendo lo spazio
per il tempo si ottiene che la velocità costante è:

cioè v=2πrf.
Da un punto di vista vettoriale, la direzione della velocità è quella della tangente alla circonferenza
nel punto considerato e il verso è quello del senso del moto. Si può anche definire la velocità
angolare ω come l’angolo spazzato sulla circonferenza dal moto del punto e il tempo impiegato a
percorrerlo. Vale la relazione v=ωr, che si comprende considerando che nel periodo il punto compie
un angolo pari a 2π.
La definizione dell’accelerazione del punto può essere compresa notando che il vettore velocità
resta costante in intensità, ma con una direzione che continua a variare, essendo uguale a quella
della tangente. Nel moto accelerato uniforme:
• la componente tangenziale dell’accelerazione risulta nulla;
• la componente centripeta (così detta perché punta verso il centro) risulta a=4π2r/T2, cioè
a=ω2.
Moto armonico
Il moto armonico è il movimento compiuto lungo il diametro di una circonferenza dalla proiezione
di un punto che si muove lungo la circonferenza stessa (traiettoria) con velocità costante. Si noti che
il moto armonico è un moto rettilineo.

Il moto armonico
Immaginiamo il movimento del punto che parte da A arriva in B e poi passa in C. Poiché si muove a
velocità costante sulla circonferenza, la velocità della sua proiezione sul diametro varierà: sarà
minima in A o in C e massima in B, dipende dalla direzione della tangente alla circonferenza;
quando questa è (quasi) parallela al diametro, la proiezione si muoverà più velocemente (pensiamo
che se fosse perpendicolare, la proiezione del punto sarebbe sempre nella stessa posizione sul
diametro e quindi la velocità sarebbe nulla). La velocità del punto oscilla fra due valori (massimo e
minimo), infatti il moto della proiezione risulta accelerato dagli estremi verso il centro, decelerato
dal centro verso gli estremi. Infatti, il grafico del moto armonico è una sinusoide la cui ampiezza A
dipende dal raggio della circonferenza e da un periodo che è il tempo necessario per compiere
un’oscillazione completa; la frequenza (sempre l’inverso del periodo) è il numero di oscillazioni
compiute nell’unità di tempo. La legge del moto armonico può essere desunta da semplici
considerazioni trigonometriche ed è (semplificata nel caso in cui il punto parta dalla posizione A
sull’asse della x; le coordinate di A sono A,0, dove A è l’ampiezza del moto pari al raggio della
circonferenza):
x=Acos(ωt).
La grandezza ω (che nel moto circolare uniforme era la velocità angolare) nel moto armonico
prende il nome di pulsazione. Ricordando la definizione del moto circolare uniforme, l’angolo a
formato dal raggio che raggiunge il punto e l’asse delle x è uguale a ωt; ω=2π/T.
Se, anziché partire da A, partisse da un’altra posizione, il raggio in quel punto formerebbe un
angolo φ0 con la direzione orizzontale. La legge oraria diventa:

x=Acos(ωt+φ0)

ωt+φ0 si chiama fase, mentre φ0 si chiama costante di fase (o fase inziale).


Derivando rispetto al tempo una e due volte, si ottengono la velocità e l’accelerazione del moto
armonico:
v=-Aωsin(ωt+φ0)

a=-Aω2cos(ωt+φ0).

Sembra un caso molto astratto, ma il moto armonico è molto importante in fisica (esempi di tale
moto si trovano nel pendolo e nella molla).

Dinamica
La dinamica è la branca della meccanica che si occupa del moto dei corpi in relazione alle cause
che lo provocano. Le prime nozioni di dinamica vennero elaborate da Galileo Galilei, anche se il
contributo più significativo si ebbe da I. Newton.
Per studiare le cause, la dinamica introduce il concetto di forza applicato al punto e, più in generale,
delle azioni che il punto subisce durante il suo moto.

La forza
In fisica la forza è la causa che tende ad alterare lo stato di quiete o di moto di un corpo o a
produrre una deformazione dei vincoli che impediscono il movimento del corpo. Si tratta di una
grandezza vettoriale, la cui unità di misura nel Sistema Internazionale è il newton (N). Fu infatti I.
Newton a definire, in dinamica, la causa del moto, enunciando le tre leggi fondamentali e
introducendo il concetto di azione a distanza.
In epoca moderna, al concetto di azione a distanza è stato opposto quello delle teorie di campo:
secondo queste teorie, le forze esercitate su un corpo sono l’azione sul corpo di un campo di forze
che pervade tutto lo spazio, generato da tutte le sorgenti di quella forza. In natura esistono quattro
tipi di forze considerate fondamentali e generatrici di tutte le altre: si tratta delle forze
gravitazionale (comune a tutta la materia, tutti i corpi si attraggono), elettromagnetica (prodotta
dalle cariche elettriche), nucleare debole (responsabile della radioattività) e nucleare forte (nel
nucleo tiene insieme protoni e neutroni).
Quando un corpo è sottoposto a una o più forze, può variare la sua velocità, ma, se le forze si
annullano a vicenda, potrebbe anche rimanere fermo. Poiché la forza è un vettore, l’azione di più
forze si calcola con la regola della somma di vettori e la forza che si ottiene è detta risultante.

Primo principio della dinamica


Questa legge è anche detta principio d’inerzia. Afferma che ogni corpo tende a mantenere il suo
stato di quiete o di moto rettilineo uniforme fino a quando non intervengono forze esterne a
modificarne lo stato.
Su un campo da calcio, il pallone resta fermo finché non gli si dà un calcio. Il primo principio rende
conto anche del fatto che il pallone, per esempio, dopo una trentina di metri si ferma. Deve esistere
una forza che si è opposta al movimento impresso dal calcio iniziale: questa forza è l’attrito con la
superficie del terreno di gioco (forza che nel vuoto non ci sarebbe).

Secondo principio della dinamica


La seconda legge della dinamica (detta anche principio di proporzionalità) afferma che
l’accelerazione è proporzionale alla forza e la costante di proporzionalità è la massa.
Ciò si esprime con l’uguaglianza a=F/m che in forma vettoriale si scrive usualmente come:

Come si vede, se si applica la stessa forza a due corpi diversi, quello con massa minore accelera di
più; se la massa del primo corpo è doppia rispetto a quella del secondo, l’accelerazione del primo
corpo sarà la metà di quella del secondo.
La massa (simbolo m, detta anche massa inerziale) rappresenta la misura dell’inerzia (la tendenza
di un corpo materiale a mantenere il suo stato di quiete o di moto rettilineo uniforme) di un corpo.
Nel Sistema Internazionale, l’unità di misura della massa è una delle sette unità fondamentali da cui
derivano tutte le altre. All’Ufficio Internazionale dei Pesi e delle Misure a Sèvres, è conservato un
cilindro di platino-iridio (una lega molto stabile nel tempo) che viene assunta come l’unità di misura
campione della massa (chilogrammo o anche chilogrammo-massa) e indicata con il simbolo kg.
Applicando il secondo principio della dinamica, l’unità di misura della forza è il newton (N) che è
la forza che si deve applicare a una massa di un kg per imprimerle un’accelerazione di 1 m/s2. Lo
strumento di misurazione statica delle forze è il dinamometro, inventato a metà del XVIII sec. da
Le Roy. I tipi più semplici sono considerati quelli elastici, costituiti generalmente da una molla
elicoidale: la misura della forza è data dalla deformazione elastica della molla.

La forza di gravità
La forza di gravità è la forza di accelerazione che agisce su tutti i corpi sottoposti al campo
gravitazionale di un pianeta. In virtù di tale forza, qualsiasi corpo tende a cadere verticalmente
verso la superficie del pianeta stesso. La forza di gravità è regolata dalle leggi della gravitazione
universale, modificate dalla forza centrifuga prodotta dalla rotazione di ogni singolo corpo celeste.
Il valore della forza centrifuga della Terra diminuisce l’accelerazione di gravità (usualmente
indicata con g) di un corpo posto all’equatore di un valore pari a 1/289, mentre non ha alcun effetto
in corrispondenza dei poli. L’accelerazione di gravità terrestre, oltre a essere direttamente
proporzionale alla latitudine, diminuisce anche con l’altitudine; misurata a livello del mare e a 45°
di latitudine ha un valore di circa 9,8 m/s2.
Sulla Terra il peso corrisponde alla forza di gravità, proporzionale alla massa del corpo in questione;
infatti si può scrivere:
In altri termini, nel vuoto, una piuma o una palla di piombo, lasciate cadere da una certa altezza,
arriverebbero al suolo nello stesso momento. Il fatto che la palla arrivi prima, dipende dalla
resistenza dell’aria. Ricordando la legge del moto uniformemente accelerato si trova che lo spazio
percorso dall’oggetto che cade è:

Pertanto, nel vuoto un oggetto che cade da 490 m arriverà a terra dopo circa 10 secondi:

Si noti infine che, mentre la massa è uno scalare, il peso è un vettore.

Terzo principio della dinamica


La terza legge della dinamica (detta anche principio di azione e reazione) afferma che a ogni
azione corrisponde una reazione uguale e contraria.
Da un punto di vista pratico, equivale ad affermare che se un corpo A esercita una forza su un corpo
B, allora il corpo B esercita su A una forza uguale e contraria.
Mentre i primi due principi prendevano in considerazione le forze che agiscono su un corpo, il terzo
studia le forze che agiscono su due corpi. Riprendendo l’esempio del calciatore che batte una
punizione e dà un calcio al pallone, il terzo principio ci dice che, sì, il pallone avanza, ma esercita
una forza uguale e contraria sul giocatore. Il secondo principio ci dice che, essendo la massa del
pallone molto minore rispetto a quella del calciatore, lo spostamento all’indietro del calciatore è
minimo rispetto alla traiettoria che viene impressa al pallone. Stesso discorso per il rinculo di
un’arma, solo che qui è più evidente lo spostamento all’indietro del tiratore.

Forze apparenti
Una forza apparente è una forza che un osservatore solidale con un sistema di riferimento non
inerziale (cioè che si muove di moto non rettilineo uniforme rispetto a un altro sistema di
riferimento inerziale, ruotando o accelerando rispetto a esso) vede come agente, al pari delle altre
forze (forze reali); essa non è provocata da un’interazione fisica diretta, ma nasce dall’accelerazione
del sistema di riferimento medesimo. Una forza apparente è cioè una forza che agisce su un corpo
anche se non vi viene applicata direttamente.
Coerentemente con il secondo principio (F=ma), le forze apparenti sono proporzionali alle masse e
alle accelerazioni dei corpi su cui agiscono.
Fra le forze apparenti più note vi sono la forza centrifuga e la forza di Coriolis.
Si consideri un sasso applicato a una fune che un conduttore fa ruotare intorno alla propria testa con
un moto circolare a velocità costante. Ricordando le leggi del moto circolare uniforme, avremo
un’accelerazione diretta verso il centro che corrisponde all’azione della forza centripeta secondo la
relazione . In modulo, avremo che F=mω2r.
Questa forza fa muovere il sasso attorno al conduttore. Il conduttore osserverà quindi la forza
centripeta che fa ruotare il sasso attorno a lui.
La cinematica e la dinamica studiano il moto dei corpi in un sistema di riferimento inerziale, ossia
in un sistema di riferimento che si muove di moto rettilineo uniforme rispetto a un sistema ritenuto
inerziale (quello rappresentato dalle stelle fisse). Un sistema solidale con il corpo che curva (il
sasso) è di tipo non inerziale: in quest’ultimo si manifestano delle forze apparenti, legate all’inerzia
dei corpi, ossia alla loro propensione a non curvare, a mantenere cioè il moto rettilineo uniforme.
Un osservatore sul sasso non osserverà alcuna forza centripeta, in quanto solidale con il sasso, ma
vedrà il conduttore fermo, soggetto a una reazione vincolare che lo mantiene solidale con il sasso,
misurerà una forza che tende a spingere i corpi radialmente verso l’esterno (infatti, se il conduttore
rilascia la fune, il sasso schizzerà secondo la tangente alla traiettoria nel punto di rilascio). Tale
forza è la forza centrifuga (che in modulo è uguale alla forza centripeta).
Un altro semplice esempio di forza centrifuga si ha nel caso in cui un passeggero di un’auto viene
spinto verso l’esterno quando l’auto curva bruscamente.
La forza di Coriolis è invece la forza apparente cui è soggetto un corpo che si muove sulla
superficie terrestre, dovuta al contemporaneo movimento di rotazione della Terra attorno al suo asse
con velocità angolare costante. L’effetto della forza di Coriolis dipende dalla latitudine e nel nostro
emisfero tende a far deviare verso destra (verso sinistra nell’emisfero sud) un oggetto (compresi
venti e acque degli oceani).

Gli stati di aggregazione della materia


La fisica e la chimica si incontrano quando prendono in esame lo stato di aggregazione della
materia che può presentarsi agli stati gassoso, liquido o solido. Nonostante siano fisici quei
fenomeni che spiegano l’ebollizione, la fusione ecc., è anche la chimica generale che tende a
occuparsene (pensiamo alle leggi dei gas, alla teoria cinetica ecc.), pertanto rimandiamo alla sezione
Chimica per la trattazione.
In questa sede ricordiamo solo che la densità ρ di un corpo è il rapporto fra la massa e il volume:
ρ=m/V.

L'attrito
L’attrito è la forza che ha luogo tra corpi a contatto attraverso superfici scabre e che si pone come
causa della resistenza al moto; si palesa all’inizio e nel corso del moto relativo di due corpi. Si
chiamano forze d’attrito statico quelle che sorgono tra superfici di contatto ferme, tipiche del
tentativo di mettere in moto un corpo fermo. Le forze di attrito dinamico sono quelle che
intervengono quando si vuole mantenere in moto un oggetto in movimento: l’attrito radente è
proprio di un corpo che durante il moto striscia su un altro corpo; se un corpo rotola su un altro, si
parla di attrito volvente che, a sua volta, si può dividere in attrito di rotolamento e attrito di giro.
Per esempio, nel caso di una pesante scatola che viene spinta su un tavolo, la forza di attrito

radente,  è:

dove  è la risultante delle forze esterne che agiscono perpendicolarmente alla superficie di
contatto tra scatola e tavola, cioè il peso, e μr è una costante di proporzionalità (coefficiente di
attrito radente) che dipende dalla natura delle superfici a contatto. Si noti che in caso di attrito
statico (i corpi sono a riposo, cioè si deve mettere in moto la scatola sul tavolo), il coefficiente di
attrito statico è leggermente superiore a quello radente, cosa comprensibile, visto che si deve
vincere l’inerzia iniziale.
Nel caso di attrito volvente (una pallina che rotola su un tavolo) la forza di attrito è sempre inferiore
rispetto al caso dell’attrito radente, risulta ancora direttamente proporzionale alla componente
perpendicolare del peso, ma è anche inversamente proporzionale al raggio (r) del corpo che rotola:

dove μv è il coefficiente di attrito volvente.

Poiché μv<μr, è più facile far avanzare un peso su ruote grandi (r è al denominatore) che farlo
strisciare o farlo avanzare con ruote piccole.

Forze elastiche
La forza elastica è quella forza che si oppone alla deformazione di un corpo soggetto ad altre forze.
Il caso più semplice per comprendere il concetto è pensare a una molla che viene allungata dalla
posizione iniziale fino a un certo punto L; la differenza fra la lunghezza finale L e quella inziale L0
è detta elongazione. Ovviamente si può anche comprimere la molla che si accorcerà con
un’elongazione negativa. Sia in caso di compressione che di allungamento, una forza elastica si
oppone alla deformazione. Vale la legge di Hooke che ci dice che il modulo della forza elastica è:
F=-kx
dove k è la costante elastica e dipende dal materiale, mentre x è l’elongazione. Il segno negativo
indica che il verso della forza è opposto a quello dello spostamento.
Si deve precisare che la legge di Hooke è valida solo fino a certi valori di x; infatti se la molla viene
troppo allungata, si deforma e non ritorna più nella posizione iniziale.
Il concetto di forza elastica permette di collegare il moto armonico alla molla ideale; infatti si può
dimostrare che il moto armonico è quello di una molla ideale che, compressa o allungata, tende a
tornare nella posizione inziale. In altri termini, il moto della proiezione del punto P che si muove di
moto uniforme sulla circonferenza è riconducibile a una forza elastica: quando la velocità della
proiezione è massima (il punto P è l’estremo di un raggio ortogonale al diametro di proiezione)
siamo nella condizione di massimo allungamento della molla che poi rilasciata tende a tornare nella
posizione iniziale (il punto P si avvicina all’estremo del diametro su cui avviene la proiezione) dove
la velocità è nulla (la molla è tornata alla condizione di equilibrio).

Il pendolo
In fisica il pendolo è un sistema costituito da un solido che oscilla, per effetto della forza di gravità,
rispetto a un asse orizzontale fisso. Il pendolo semplice è il modello ideale del pendolo ed è
costituito da un punto materiale collegato a un filo inestensibile; si definisce isocronismo del
pendolo quella proprietà per cui il tempo necessario a compiere un’oscillazione è indipendente sia
dalla massa del pendolo sia dall’ampiezza dell’oscillazione.
Il moto del pendolo ideale è un moto armonico; supponendo che le oscillazioni siano piccole (in
modo da far coincidere il settore circolare dell’oscillazione con un triangolo), si trova facilmente il
periodo del pendolo:

dove l è la lunghezza del filo e g è l’accelerazione di gravità.


Ovviamente dall’espressione precedente si può ricavare g, cioè stimare con sufficiente precisione il
valore dell’accelerazione di gravità a partire dalle piccole oscillazioni di un pendolo semplice.

Il lavoro
Quando una forza viene applicata a un corpo originandone lo spostamento, essa compie un lavoro e
ha bisogno di una quantità di energia.
Il lavoro è una grandezza fisica scalare definita come il prodotto di una forza (più precisamente
della sua proiezione nella direzione dello spostamento) per lo spostamento stesso:
L=FxΔx.

Il concetto è abbastanza intuitivo; per esempio, si fa più fatica nell’alzare a una certa altezza un
peso di 10 kg che uno di un solo kg. Occorre però notare che una forza perpendicolare allo
spostamento non compie nessun lavoro.
Nel caso in cui forza e spostamento formino un angolo acuto o nullo si parla di lavoro motore (un
corpo che cade), nel caso contrario, di lavoro resistente (quello di una forza elastica di una molla
che tende a riportarla nella posizione originaria). Nel caso di un corpo che cade da un’altezza h
soggetto alla forza di gravità (di intensità F=mg), il lavoro compiuto dalla forza di gravità è L=mgh,
quindi per sollevare il corpo all’altezza h, si dovrà compiere un lavoro resistente uguale e opposto a
quello della forza di gravità.
Il joule (J) è l’unità di misura dell’energia e del lavoro nel Sistema Internazionale ed è il lavoro di
una forza di 1 N quando il suo punto d’applicazione si sposta di 1 m.

Forme di energia
Si distinguono varie forme di energia, che possono trasformarsi l’una nell’altra rispettando il
principio di conservazione, secondo il quale per un sistema isolato il valore complessivo
dell’energia non muta.
L’energia meccanica o di movimento di un corpo (energia cinetica) è quella che il corpo possiede
per il fatto di essere in moto; il moto di traslazione e di rotazione conferisce al corpo energia
cinetica traslazionale e rotazionale; l’energia meccanica si trasforma in calore (energia termica) per
effetto degli attriti; l’energia potenziale è quella che gli deriva dall’essere sottoposto all’azione di
un campo di forze. Altre forme di energia sono l’energia chimica e l’energia elastica. Tutte quante
sono comunque riconducibili alle forme fondamentali di energia potenziale e meccanica; per
esempio, il calore è una misura dei valori medi di energia cinetica delle singole molecole e degli
atomi di un corpo. Dopo la rivoluzione della teoria della relatività, per calcolare l’energia cinetica
occorre considerare la variazione relativistica della massa e che la massa del corpo è anch’essa
un’energia, secondo la relazione di Einstein E=mc2. I principi della termodinamica enunciano la
relazione tra calore ed energia meccanica e i tipi di trasformazione da una forma all’altra. Poiché
esistono tre campi di forze diversi, gravitazionali, elettromagnetici e di forza nucleare, questi a loro
volta danno luogo alle energie relative, ossia gravitazionale, elettromagnetica e nucleare: un peso
posto in un campo di forze gravitazionale possiede energia potenziale gravitazionale; una carica
elettrica ferma in un campo di forze elettriche possiede energia potenziale elettrostatica. Per
esempio, l’energia di attrazione gravitazionale prodotta dal Sole è trasferita agli oceani nei
fenomeni delle maree.
Come il lavoro, nel Sistema Internazionale, l’energia viene misurata in joule (J).

L'energia cinetica
L’energia cinetica è una forma di energia legata al movimento dei corpi. Se il corpo ha massa m e
si muove con velocità v, l’energia cinetica è:

Si può mettere in relazione l’energia cinetica con il concetto di lavoro mediante il teorema
dell’energia cinetica. Tale teorema afferma che il lavoro della risultante delle forze applicate al
corpo è uguale alla variazione della sua energia cinetica.
Supponendo la massa del corpo costante, ciò che cambia quando si applica una risultante delle forze
non nulla che produce un lavoro, è la velocità del corpo.
Forze conservative
Per introdurre un’altra forma di energia (quella potenziale) è necessario introdurre il concetto di
forze conservative. Una forza è detta conservativa se il lavoro da essa compiuto su un percorso
chiuso è nullo.
Se lanciamo una pallina verso l’alto, il lavoro compiuto prima di arrivare alla massima altezza h
dalla quale incomincerà a cadere sarà mgh (lavoro resistente); poi, quando scenderà e ritornerà a
terra, la forza di gravità avrà compiuto un lavoro (lavoro motore) uguale come valore assoluto, ma
di segno opposto. La pallina torna al punto iniziale (chiudendo il percorso) e il lavoro complessivo è
nullo.
Le forze non conservative sono dette dissipative, per esempio l’attrito, perché è una forza sempre
parallela e discorde con lo spostamento, quindi su un percorso chiuso il lavoro non è nullo.
Come generalizzazione di quanto ora detto, il lavoro di una forza conservativa da A a B non dipende
dal percorso per andare da A a B.

Energia potenziale
Si consideri un corpo fermo. Esso ha energia cinetica nulla. Se una forza agisce su di esso e
acquisisce una certa energia cinetica, si può supporre che il corpo nella sua posizione iniziale avesse
già una certa energia; potenzialmente era già in grado di produrre lavoro sotto l’azione di forze. Tale
energia intrinseca è l’energia potenziale.
Più precisamente, un corpo soggetto a una forza conservativa ha una propria energia potenziale,
definita in termini di variazione. Per definizione, la variazione di energia potenziale di un corpo è
uguale al lavoro cambiato di segno:
ΔU=-L.
Per esempio, avremo:
• l’energia potenziale associata alla forza di gravità: U=mgh;
• l’energia potenziale associata alla forza elastica: U=kx2/2.

Energia meccanica
L’energia meccanica è la somma dell’energia potenziale e dell’energia cinetica:
E=K+U.
Se agiscono solo forze conservative, vale il principio di conservazione dell’energia meccanica,
secondo il quale l’energia meccanica si conserva, cioè resta costante.
In presenza anche di forze dissipative (per esempio gli attriti), vale più in generale il principio di
conservazione dell’energia per cui la diminuzione di energia meccanica viene compensata dalla
comparsa di un’altra forma di energia, il calore (energia termica).
La potenza
Nella vita di tutti i giorni siamo soliti pensare a una macchina in termini di efficienza: è importante
il lavoro che svolge, ma è fondamentale anche il tempo che impiega a svolgerlo.
In fisica, la potenza indica il rapporto fra lavoro effettuato e tempo utilizzato per effettuarlo da
parte di una forza. La potenza viene misurata in watt (W), cioè in joule/sec:

Il chilowattora (simbolo kWh) è definito come l’energia prodotta in un’ora da una macchina di
potenza 1 chilowatt (1.000 W).
Un’unità di potenza ormai obsoleta è il cavallo vapore (CV); vale l’equivalenza 1 CV=735 W.

Le leggi di conservazione
I tre principi della dinamica non sono del tutto sufficienti per descrivere un determinato sistema.
Abbiamo già visto il teorema di conservazione dell’energia meccanica.
In fisica, la conservazione è la caratteristica fondamentale di un sistema consistente nel
mantenimento di una grandezza o proprietà del sistema, come la massa o l’energia. Per esempio, in
elettromagnetismo vale la conservazione della carica, per cui la quantità di carica elettrica contenuta
in un sistema isolato non può variare.
Le leggi di conservazione sono postulati suffragati dall’evidenza sperimentale. Vediamole:
Legge di conservazione dell’energia meccanica – Si conserva la somma dell’energia cinetica e di
quella potenziale
E=U+K.
Legge di conservazione dell’energia totale – La variazione di energia meccanica è uguale al
lavoro compiuto dalle forze dissipative
ΔE=ΔU+ΔK=Ld.

Il lavoro fatto dalle forze dissipative (per esempio gli attriti) è un lavoro resistente ed è quindi
negativo: le forze dissipative diminuiscono l’energia meccanica totale del corpo; nel caso
dell’attrito, l’energia dissipata si trasforma in energia termica, che riscalda il sistema in movimento.
Se si passa poi a livello atomico, ci può essere anche la trasformazione di materia in energia
(prevista dalla teoria della relatività), per cui la formulazione più generale della legge di
conservazione dell’energia totale è:

ΔE+Q+m0c2=0

dove Q è il calore prodotto e m0 è la massa iniziale del corpo che si trasforma in energia.
Un’altra grandezza che si conserva è la quantità di moto, cioè il prodotto della massa di un corpo
per la sua velocità:

Si tratta di una grandezza vettoriale. La legge di conservazione della quantità di moto afferma che
se la risultante delle forze che agiscono su un corpo è nulla, allora la quantità di moto si conserva.
Se la forza non è nulla, possiamo definire l’impulso come il prodotto della forza applicata al corpo
per l’intervallo di tempo per cui dura l’applicazione. L’impulso della forza è uguale alla variazione
della quantità di moto:

Un’applicazione della legge di conservazione della quantità di moto è il rinculo di un fucile. Prima
dello sparo, fucile e proiettile sono fermi e la loro quantità di moto è nulla. Allo sparo il proiettile di
massa mp si muove in avanti con una velocità vp; per conservare e quindi mantenere nulla la
quantità di moto, il fucile di massa mf deve spostarsi in direzione opposta a una velocità vf, tale che
mpvp=mfvf. Ovvio che se il proiettile è molto veloce e/o molto pesante il rinculo sarà maggiore. Da
notare che, a pari quantità di moto del proiettile, se la massa del fucile è bassa (cioè il fucile è
leggero), la sua velocità (il rinculo) dovrà essere maggiore per conservare la quantità di moto.

Urti
Il concetto di quantità di moto è particolarmente importante negli urti. In fisica, il termine urto
indica un fenomeno di interazione di due o più corpi o sistemi in moto relativo, che vengono a
contatto per un intervallo di tempo trascurabile, durante il quale subiscono brusche variazioni della
direzione e della velocità di moto, senza sensibili cambiamenti di posizione.
Negli urti viene conservata la quantità di moto (e anche il momento angolare che è una particolare
grandezza vettoriale). In altri termini, se due palline si scontrano, in condizioni ideali,

La collisione ha l’effetto di ridistribuire la quantità di moto del sistema fra le due palline: la somma
totale rimane costante, anche se la quantità di moto di ciascuna pallina può variare di intensità, di
direzione e di verso.
L’urto si dice elastico quando viene conservata (oltre alla quantità di moto) anche l’energia cinetica
totale del sistema, anelastico in caso contrario. Negli urti anelastici parte dell’energia cinetica viene
utilizzata per la deformazione dei corpi.

Statica
La statica è la parte della meccanica che studia le condizioni di equilibrio di un corpo materiale,
cioè le condizioni necessarie affinché un corpo, inizialmente in quiete, resti in equilibrio anche dopo
l’intervento di forze esterne. La statica è fondamentale nella scienza delle costruzioni dove le
condizioni di equilibrio delle strutture devono essere attentamente valutate.
Per la statica sono fondamentali la legge di conservazione della quantità di moto e la legge di
conservazione del momento angolare.
Se il corpo è puntiforme, è sufficiente che la risultante delle forze agenti sia nulla. Se però non è
puntiforme, ma è esteso, le cose si complicano. Per semplificare lo studio, il corpo può essere
considerato rigido, cioè non soggetto a deformazioni per azione delle forze.
Per semplificare lo studio dei corpi rigidi si può introdurre il concetto di centro di massa, nel quale
si può supporre concentrata la massa del corpo.
Si devono poi distinguere i moti traslatori (nei quali tutti i punti del corpo rigido hanno la stessa
velocità) e i moti rotatori (nei quali i punti del corpo hanno velocità differenti a seconda della
distanza dall’asse di rotazione). La combinazione di un moto traslatorio con uno rotatorio dà origine
a un moto rototraslatorio (quello di una ruota di un’auto in movimento).
La condizione di equilibrio di un corpo rigido si può esprimere dicendo che devono essere nulli sia
la risultante delle forze applicate (il che impedisce alla forza di traslare) sia la somma dei momenti
delle coppie di forze applicate (il che impedisce al corpo di ruotare):

Per comprendere la necessità di introdurre il momento della coppia di forze si pensi alla rotazione di
una ruota, originariamente in equilibrio e fissata nel suo centro a una sbarra ortogonale a essa.
Prendiamo fra le mani la ruota, con la destra imprimiamo una rotazione verso l’alto e con la sinistra
verso il basso: la ruota incomincerà a ruotare. Sperimentalmente, si trova che il modulo del prodotto
vettoriale fra forza e braccio della forza (la distanza dal fulcro) è una costante: a 1 cm dal centro la
forza esplicata è un decimo di quella esplicata a 10 cm, per esempio sul margine della ruota (se
questa ha raggio di 10 cm). Il momento di una forza è pertanto il prodotto vettoriale fra la forza F e
un vettore posizione che individua il punto di applicazione della forza:

Supponiamo di voler aprire una porta incernierata ai suoi margini inferiore e superiore dai cardini.
Per ottenere il maggior effetto rotatorio necessario per aprire la porta, è opportuno che il momento
sia massimo e ciò si ottiene se il braccio della forza (la nostra spinta) è lungo: per questo le maniglie
delle porte sono in posizione centrale, distanti dai cardini. Se spingessimo con braccio nullo (sui
cardini) l’effetto rotatorio sarebbe nullo e la porta non si aprirebbe.

Il baricentro
Per studiare i corpi rigidi è necessario introdurre il baricentro (che differisce dal centro di massa
perché quest’ultimo è applicabile anche in assenza di gravità) cioè il punto di applicazione della
risultante delle forze peso che agiscono su ogni parte di un corpo. Viene anche detto centro di
gravità in quanto, se si sospende un qualsiasi corpo per il suo baricentro, il corpo stesso rimane in
condizione di equilibrio. Il baricentro delle figure geometriche ne costituisce il centro geometrico.
Prendendo in considerazione le figure piane più elementari, il baricentro del triangolo coincide con
il punto di incontro delle bisettrici degli angoli, che suddivide in due segmenti che sono l’uno il
doppio dell’altro. Quello dei parallelogrammi si identifica con il punto di incontro delle diagonali
e quello del cerchio corrisponde al centro. Anche i solidi possiedono un proprio baricentro che, per
il cono e la piramide regolare, è collocato sull’altezza (a un quarto della sua lunghezza dalla base),
per i parallelepipedi coincide con il punto di incontro delle diagonali e per la sfera si identifica con
il centro. In ogni sistema composto da due punti isolati (come quelli costituiti, in astronomia, da un
pianeta e un suo satellite o da una coppia di pianeti gemelli) il baricentro è posto in un punto del
segmento che li congiunge e che suddivide il segmento stesso in due parti inversamente
proporzionali alle due masse.

Corpi sospesi e corpi appoggiati


Si definisce vincolo un qualunque legame che limiti la mobilità di un sistema materiale,
determinandone il numero di gradi di libertà (il numero dei parametri indipendenti tramite i quali
si può individuare la posizione di un sistema).
Un corpo pesante sospeso è un corpo vincolato a un punto (un quadro appeso a una parete). Al
corpo sospeso è applicata la sua forza peso; il punto di applicazione è il baricentro e la sua direzione
è verticale. Se la retta d’azione della forza peso passa per il punto di sospensione, il momento è
nullo e il corpo è in equilibrio, in caso contrario il momento è diverso da zero e il corpo ruota.
Quindi un corpo sospeso è in equilibrio se la verticale passante per il baricentro passa anche per il
punto di sospensione.
Un corpo pesante appoggiato è un corpo vincolato a una superficie. Esso è soggetto alla forza di
gravità e alla forza originata dalla base d’appoggio, diretta verso l’alto. Un corpo appoggiato su un
piano è in equilibrio fino a che la verticale tracciata a partire dal baricentro cade all’interno della
sua base d’appoggio. Se il corpo poggia in più punti, la base di appoggio è il poligono che si ottiene
congiungendo questi punti.

Tipi di equilibrio
Supponiamo di spostare di poco un corpo in equilibrio. Il corpo è in equilibrio stabile se tende
naturalmente a ritornare nella posizione iniziale; è in equilibrio instabile se tende ad allontanarsi
dalla posizione iniziale; è in equilibrio indifferente quando rimane stabilmente nella nuova
posizione.
Per i corpi sospesi, fissando l’attenzione sul quadro appeso alla parete, se il baricentro è sotto al
punto di sospensione (come è usualmente), spostando il quadro, questo ritorna nella posizione
iniziale, l’equilibrio è stabile. Se il baricentro è sopra al punto di sospensione, spostando il quadro
questo si allontana dalla posizione iniziale, l’equilibrio è instabile. Se il baricentro coincide con il
punto di sospensione, spostando il quadro leggermente, questo resta nella nuova posizione
(equilibrio indifferente).
L’equilibrio di un corpo appoggiato può essere stabile (un’auto con baricentro molto basso è più
stabile in curva di un autobus che, inclinandosi in curva, potrebbe portare il baricentro fuori dal
punto d’appoggio), instabile (un cono appoggiato sulla punta) o indifferente (per esempio una
sfera).
L’equilibrio può essere legato all’energia potenziale gravitazionale. Se il corpo si trova su un
tratto orizzontale di energia potenziale, spostato di poco, resta alla stessa energia potenziale e quindi
resta nella nuova posizione, l’equilibrio è indifferente. Se il corpo si trova in una buca di potenziale
(si pensi a un acino d’uva in una scodella), spostato di poco (l’acino viene sollevato lungo le pareti
della scodella), la sua energia potenziale aumenta e, rilasciato, tenderà a tornare in condizioni di
equilibrio, diminuendo la sua energia potenziale (l’acino tornerà in fondo alla scodella), l’equilibrio
è stabile. Se il corpo si trova su una vetta di potenziale (per esempio l’acino è in equilibrio alla
sommità di un’arancia), spostato di poco, la sua energia potenziale diminuisce e, rilasciato, tenderà
ad allontanarsi (l’acino cade dalla sommità dell’arancia), l’equilibrio è instabile. In sintesi,
l’equilibrio è stabile quando l’energia potenziale è minima; è instabile quando l’energia potenziale è
massima; è indifferente quando l’energia potenziale rimane costante.

Moto rotatorio
Per moto rotatorio si intende il moto durante il quale tutti i punti del corpo si muovono
descrivendo una circonferenza attorno a un asse di rotazione di lunghezza r.
La velocità angolare misura la velocità con cui ruota il corpo; essa è uguale per tutti i punti del
corpo. Per indicare di quanto ha ruotato un corpo, si utilizza un angolo θ misurato in radianti. Si
definisce radiante quell’angolo il cui arco sotteso l ha lunghezza uguale al raggio. Poiché la
circonferenza ha lunghezza uguale a 2πr, una rotazione completa equivale a 2π radianti.
La velocità angolare (misurata in radianti al secondo) è data dallo spostamento angolare diviso per
il tempo impiegato a percorrerlo:
ω=Δθ/Δt.

Per i moti rotatori, la seconda legge della dinamica prende la forma

dove   è il momento delle forze esterne che agiscono sul punto e  è l’accelerazione angolare,
cioè la variazione rispetto al tempo della velocità angolare. I è il momento d’inerzia del corpo, è
uno scalare analogo alla massa del secondo principio della dinamica. Se la massa è puntiforme,
I=mr2, dove r è la distanza dall’asse di rotazione (più si è vicini all’asse, maggiore è l’inerzia del
corpo a ruotare).
Analogamente alla quantità di moto per il moto traslatorio, si definisce, per il moto rotatorio, il
momento angolare del corpo (o momento della quantità di moto), una grandezza vettoriale che ne
descrive il moto di rotazione.

Per un punto materiale, il momento angolare rispetto a un polo O è il prodotto vettoriale della sua
quantità di moto per il vettore distanza  dal punto O.
Per un corpo rigido, il momento angolare è diretto lungo l’asse di rotazione e la sua intensità è data
da L=Iω, dove I è il momento d’inerzia e ω è la velocità angolare.
Per i moti rotatori, vale la legge di conservazione del momento angolare: se su un corpo non
agisce alcun momento risultante di forze esterne, il momento angolare del corpo rimane invariato.
I fluidi
Un fluido è una sostanza allo stato liquido o gassoso. I fluidi sono privi di una loro forma propria,
ma si adattano a quella del recipiente che li contiene; mentre i liquidi posseggono un volume
proprio, gli aeriformi si espandono nello spazio che hanno a disposizione. Gli aeriformi sono
facilmente comprimibili, mentre i liquidi non hanno questa facoltà.
La meccanica dei fluidi è la disciplina che studia le leggi dei fluidi che riguardano il loro moto e il
loro equilibrio; si divide in fluidostatica e fluidodinamica.

Grandezze tipiche dei fluidi


La materia si presenta sotto tre stati di aggregazione (attrazione molecolare da cui dipende lo stato
fisico della materia): solido, liquido o gassoso. A differenza dei solidi, i fluidi sono deformabili.
Anche per loro sono però definibili alcune grandezze che ne facilitano lo studio.
Densità – La densità esprime il rapporto tra la massa e il volume di un corpo. È inversamente
proporzionale alla temperatura e direttamente determinata dallo stato di aggregazione della sostanza
stessa (solido, liquido, gassoso). Le molecole dei liquidi possono scorrere le une sulle altre, ma sono
in contatto reciproco, mentre le molecole dei gas sono separate tra loro, infatti i gas hanno una
densità minore rispetto ai liquidi.
Quando viene misurata in rapporto a una massa equivalente di acqua distillata a 4 °C, la densità è
definita relativa e coincide con il peso specifico relativo.
Pressione – In fisica è una grandezza scalare, che viene definita come il rapporto fra la forza
applicata perpendicolarmente a una superficie e l’area della superficie in questione:

Nel Sistema Internazionale la pressione viene misurata in pascal (Pa), equivalente a 1 N/m2
(newton per metro quadrato). Altra unità di misura è il kg/m2. Il manometro è lo strumento di
misura della pressione.
L’unità di misura fa riferimento a Blaise Pascal che scoprì che la pressione si trasmette
uniformemente in tutti i punti del fluido.
Viscosità – La viscosità di un fluido indica la sua propensione a generare attriti interni per lo
scorrimento dei vari strati del fluido durante il movimento. In sostanza, essa richiama l’attrito dei
solidi perché è legata all’attrito tra le molecole del fluido.
La viscosità viene solitamente indicata con la lettera greca μ o più raramente con la lettera η
(analogamente al coefficiente di attrito). Si definisce fluidità la grandezza reciproca della viscosità.
Un fluido senza viscosità si dice ideale. Alcuni fluidi (superfluidi) a bassa temperatura si possono
considerare ideali. Nella pratica si ritengono non viscosi i fluidi con viscosità minore dell’acqua.
Nei gas la viscosità aumenta con la temperatura, aumentando il moto termico delle molecole,
mentre nei liquidi diminuisce perché diminuisce la coesione fra le molecole. Se Δv è la velocità di
scorrimento, Δx la distanza fra gli strati che scorrono uno sull’altro, S la superficie di contatto, la
legge di Newton (valida per molti fluidi, ma non per tutti) afferma che la forza F che si oppone allo
scorrimento è data da:

Lo strumento che misura la viscosità è il viscosimetro.


Comprimibilità – La comprimibilità è la proprietà dei corpi di ridurre il volume sotto l’azione di
agenti esterni. Se un fluido è soggetto a una certa compressione, il suo volume diminuisce di un
coefficiente k detto coefficiente di comprimibilità; k è molto piccolo per i liquidi, ma significativo
per i gas.
Tensione superficiale – Una molecola che si trova sulla superficie di un liquido è attratta solo dalle
molecole sottostanti e dalle altre molecole a lato, a differenza di una molecola interna che è
sottoposta a forze simmetricamente distribuite. La molecola sulla superficie non subisce alcuna
forza attrattiva dall’alto tale da controbilanciare quella subita dal basso; per questo è attratta verso
l’interno del liquido. Se vogliamo portare una molecola dall’interno verso l’esterno dovremo quindi
compiere un lavoro contro la forza che tende a riportare la molecola all’interno. Portare altre
molecole in superficie vuol dire aumentare la superficie libera. Il lavoro infinitesimo fatto per
aumentare di una porzione infinitesima la superficie S si può esprimere come
dL=τdS
dove τ è la tensione superficiale del liquido.
La tensione superficiale permette, per esempio, a insetti molto leggeri di camminare sull’acqua, è
responsabile della forma tonda delle bolle di sapone oppure della forma a menisco (quindi non
perfettamente piana) della superficie di un liquido in un recipiente.

Fluidodinamica
La fluidodinamica studia il comportamento dei fluidi in moto, in relazione alle cause che lo
determinano. Un’approssimazione molto utile per studiare il moto di un fluido è di considerarlo
incomprimibile e senza viscosità, cioè studiare un fluido ideale.
Lo studio parte dall’esame di un fluido che si muove di moto stazionario (le molecole del fluido che
attraversano una sezione qualsiasi del condotto hanno sempre la stessa velocità) all’interno di un
condotto. Valgono due importanti leggi.
Equazione di continuità – La massa di un fluido che attraversa una sezione di un condotto
nell’unità di tempo è costante; se S1 e S2 sono due sezioni del condotto e v1 e v2 le rispettive
velocità del fluido in esse, vale S1v1= S2v2. Il prodotto Sv è detto portata di massa del fluido; si
noti che se il condotto si stringe, la velocità aumenta.
Equazione di Bernoulli – Già formulata da Eulero e derivata dalla legge di conservazione
dell’energia, dimostra che quando un fluido in movimento aumenta la propria velocità si verifica
una diminuzione della sua pressione interna. Questo principio è di fondamentale importanza in
aerodinamica, in quanto il suo enunciato può essere applicato anche a quei fluidi che, come l’acqua
e l’aria, si muovono lungo una superficie (l’elica di un’imbarcazione o l’ala di un aeroplano). Il
principio di Bernoulli trova applicazione pratica negli strumenti per la misurazione della velocità di
un fluido, come il flussometro di Venturi.
Se consideriamo un condotto con sezione variabile, a differente altezza dal suolo, e indichiamo con
v la velocità di scorrimento del fluido, con ρ la densità del fluido, con p la pressione e con h
l’altezza, l’equazione di Bernoulli si scrive come

Idrostatica
L’idrostatica è la parte della meccanica dei fluidi che studia le loro condizioni di quiete. Il termine
deriva dal fatto che nacque con esperimenti fatti in acqua (da qui il suffisso idro), ma le conclusioni
si applicano anche agli altri fluidi.
Concettualmente, basta utilizzare le leggi della fluidodinamica impostando la condizione v=0. Si
trovano due importanti leggi.
La legge di Stevino è un’equazione lineare, formulata da Simon Stevin, che permette di calcolare la
pressione esistente a ogni profondità entro una colonna di fluido conoscendo la densità del liquido
stesso. Se p è la pressione, ρ la densità del fluido e h l’altezza, la legge afferma che
p=ρgh.
Da questa legge deriva il principio dei vasi comunicanti, cioè recipienti di forma diversa e
comunicanti tra di loro. Il principio dei vasi comunicanti dice che riempiendo dei vasi comunicanti
con lo stesso liquido, questo tende a disporsi alla stessa altezza in tutti i recipienti, mentre
riempiendoli con liquidi non miscibili, ognuno di questi raggiunge nel recipiente un’altezza
inversamente proporzionale alla densità del liquido contenuto.
Il principio di Archimede afferma che ogni corpo immerso in un liquido riceve una spinta diretta
dal basso verso l’alto uguale al peso del liquido spostato. L’interpretazione di questo principio da
parte della fluidodinamica permette di spiegare sia il moto ascensionale in un fluido di un corpo con
densità inferiore a quella del fluido stesso, sia la corrispondente condizione di equilibrio. In
particolare, il galleggiamento di un corpo in un fluido allo stato liquido si ottiene quando il peso
della frazione di fluido spostato equivale al peso della parte immersa del corpo. Per esempio,
considerando che la densità del ghiaccio puro è circa il 90% della densità dell’acqua di mare,
l’iceberg galleggia e circa il 90% del suo volume rimane sotto la superficie marina.
Famoso l’aneddoto secondo il quale, scoprendo durante un bagno il principio sui corpi immersi nei
fluidi che da lui prende il nome, Archimede cominciò a correre nudo per le vie gridando Eureka!
(Ho trovato!).
Il principio di Archimede può essere espresso come (ρ è la densità e V il volume del corpo
immerso):
F=ρVg
dove F è la spinta che il corpo riceve dal basso verso l’alto, esattamente pari al peso del fluido
spostato.

Pressione atmosferica
La meccanica dei fluidi permette di studiare la pressione che l’involucro gassoso che circonda la
Terra (l’atmosfera) esercita sui corpi in essa immersi. La pressione atmosferica normale è quella
esercitata dall’atmosfera a 45° di latitudine, a livello del mare e a 0 °C (equivalente a 1 atmosfera,
pari alla pressione esercitata da una colonna di 760 mm di mercurio; 1 atm corrisponde a 101.325
Pa; un’altra unità di misura è il bar pari a 10.000 pascal, quindi un’atmosfera corrisponde a 1013,35
millibar, la pressione atmosferica media al livello del mare in condizioni standard); all’aumento
dell’altitudine corrisponde una diminuzione della pressione atmosferica. Il valore della pressione
atmosferica dipende anche dalla latitudine del luogo.
Per misurare la pressione atmosferica si usano i barometri. I più diffusi sono i barometri a mercurio
e i barometri metallici. Il primo tipo, detto anche barometro di Torricelli, è costituito da una canna
di vetro contenente mercurio, con l’estremità superiore chiusa ermeticamente e quella inferiore
immersa in un vaso (detto pozzetto) parzialmente riempito anch’esso di mercurio, la cui superficie è
a contatto con l’aria. La misurazione della pressione atmosferica (peraltro viziata dai parametri
relativi a latitudine e temperatura) si effettua misurando l’altezza in millimetri del mercurio che
rimane all’interno della canna. I barometri metallici sono invece molto meno ingombranti di quelli a
mercurio e si basano sulle deformazioni provocate dalla pressione atmosferica su una superficie
metallica solidale a un indice di misurazione. Pur essendo molto meno precisi di quelli a mercurio, i
barometri metallici sono caratterizzati da una notevole robustezza e affidabilità nel tempo.

Termodinamica
La termodinamica è la parte della fisica che si occupa delle trasformazioni di calore in lavoro e
viceversa, conseguenza dei fenomeni microscopici di scambio energetico in un sistema di particelle.
Lo stato termodinamico del sistema è caratterizzato dalle grandezze massa, volume, temperatura,
pressione, energia libera e interna, entalpia.
Il primo principio della termodinamica o principio di conservazione dell’energia stabilisce
l’equivalenza tra calore e lavoro e afferma che in un sistema termodinamico in uno stato di
equilibrio la variazione infinitesima di energia interna è data dalla differenza tra la variazione della
quantità di calore scambiata e la variazione di lavoro effettuato.
Il secondo principio della termodinamica nell’enunciazione di Kelvin stabilisce che non è
possibile realizzare una trasformazione in cui l’unico risultato sia quello di trasformare tutto il
calore di una sorgente omogenea in lavoro.
Il terzo principio della termodinamica afferma che l’entropia, cioè il grado di disordine, di un
sistema termodinamico si annulla allo zero assoluto.
Poiché a livello di cultura generale la trattazione dei principi della termodinamica è comune a
chimica e fisica, si rimanda alla sezione Chimica per la trattazione dei seguenti argomenti:
• Il calore
• La temperatura
• Gli stati della materia
• I passaggi di stato
• Sistemi e trasformazioni
• Lo stato gassoso
• Gas ideali e gas reali
• Leggi dei gas ideali
• La teoria cinetica
• Gas reali
• Lo stato liquido
• L’evaporazione
• L’ebollizione
• Lo stato solido
• La fusione
• La sublimazione
• Sistemi termodinamici
• Primo principio della termodinamica
• Secondo principio della termodinamica
• Terzo principio della termodinamica
• Energia libera.

Le onde
Un’onda è la propagazione di una perturbazione tra due punti dello spazio, associata a un
trasferimento di energia, ma senza trasferimento di materia. La perturbazione è visibile per lo
spostamento del fronte d’onda, ovvero del luogo di punti che in un determinato istante si muovono
in concordanza di fase (la fase è lo spostamento relativo della forma d’onda di un segnale ad
andamento periodico rispetto all’asse dei tempi). Le principali caratteristiche di un’onda sono
l’ampiezza, ovvero la distanza tra il punto di massimo spostamento e la posizione di riposo, il
periodo, ovvero il minimo intervallo di tempo trascorso perché un punto dell’onda riassuma la
stessa posizione, la frequenza, pari all’inverso del periodo, ovvero il numero di volte che un punto
dell’onda riassume le stesse caratteristiche di moto nell’unità di tempo, la velocità di
propagazione, dipendente dal mezzo nel quale l’onda si sposta e la lunghezza d’onda, o distanza
tra due punti in concordanza di fase.

Tipi di onde
In base al modo di propagarsi, se l’onda si propaga in direzione parallela alla vibrazione si dice che
l’onda è longitudinale, mentre se la direzione di propagazione e la vibrazione sono perpendicolari
si parla di onda trasversale.
In base al mezzo in cui si propaga, se l’onda necessita di un mezzo per propagarsi è detta
meccanica (per esempio, onde sonore), altrimenti è elettromagnetica (per esempio, onde radio).
In base alla forma, se il fronte d’onda è una retta, è detta piana (onde del mare), se è un cerchio,
circolare (onde prodotte da un sasso nell’acqua), se è una sfera, sferica (suono, luce ecc.).
Relazioni delle onde
Dalle definizioni dei parametri delle onde, si ricavano le seguenti relazioni (ν è la frequenza, T il
periodo, v la velocità di propagazione e λ la lunghezza d’onda):

La velocità di propagazione di un’onda dipende dal mezzo materiale nel quale l’onda si propaga.
Le onde elettromagnetiche (per esempio, la luce) possono propagarsi anche nel vuoto dove hanno
una velocità pari a 3·108 m/s, cioè 300.000 km/s.

Fenomeni ondulatori
Il comportamento delle onde può essere descritto secondo modelli generali (meccanica
ondulatoria) che permettono di interpretare fenomeni come la riflessione, la rifrazione, la
diffrazione e l’interferenza.
Per semplicità si può descrivere l’onda mediante un diagramma a raggi dove il raggio rappresenta la
direzione di propagazione.
Riflessione – Il fenomeno in base al quale le onde sono respinte quando incidono su una superficie
che non possono attraversare. L’angolo di incidenza è l’angolo formato dalla direzione di un’onda
(il raggio) con la retta perpendicolare alla superficie da essa colpita; l’angolo di riflessione è
l’angolo fra la perpendicolare alla superficie di incidenza e la direzione con cui l’onda rimbalza (il
raggio). Secondo le leggi della riflessione l’angolo di incidenza e quello di riflessione sono uguali e
il raggio incidente, quello riflesso e la normale alla superficie incidente si trovano sullo stesso
piano.
Rifrazione – Il fenomeno che si ha quando un’onda passa da un mezzo materiale a un altro, con
densità diversa, per cui la sua velocità e la sua direzione di propagazione subiscono delle variazioni.
Se v1 è la velocità nel primo mezzo e v2 quella nel secondo, il rapporto fra v1 e v2 è detto indice di
rifrazione relativo del secondo mezzo rispetto al primo. Se il primo mezzo è il vuoto, l’indice di
rifrazione si dice assoluto ed è il rapporto fra la velocità dell’onda nel vuoto e la velocità dell’onda
nel mezzo considerato.
Diffrazione – Propagazione per onde che si verifica quando queste incontrano ostacoli oppure
diaframmi che ne limitano l’estensione. Essendo relativa a tutte le onde, si può avere diffusione
della luce, del suono, dei raggi X ecc. Particolari sono i fenomeni di diffusione della luce da parte di
un diaframma circolare; la luce monocromatica prodotta da una sorgente puntiforme, che attraversa
un piccolo foro rotondo, non produce sullo schermo una zona d’ombra definita e netta, ma una
figura di diffusione formata da un disco luminoso centrale e da una serie di anelli concentrici chiari
e scuri.
Interferenza – Fenomeno dovuto alla sovrapposizione di due o più onde dello stesso tipo (onde
elastiche, elettromagnetiche, acustiche, ultracustiche, particelle di materia) e di uguale frequenza.
Tale fenomeno modifica l’intensità dell’onda risultante che può diminuire (interferenza distruttiva)
o aumentare (interferenza costruttiva).
Consideriamo due sinusoidi aventi la stessa frequenza; se esse si sommano in concordanza di fase
(cioè con i massimi e i minimi coincidenti temporalmente) l’intensità risultante sarà massima; se
però sono leggermente sfasate, la somma dipenderà da questo sfasamento, potendosi anche
annullare nel caso di due onde con eguale intensità che si sommano in opposizione di fase, cioè con
il minimo dell’una corrispondente con il massimo dell’altra.

Onde elettromagnetiche
Le onde elettromagnetiche sono onde che si possono propagare anche nel vuoto; sono generate da
campi elettrici e magnetici variabili e viaggiano nel vuoto alla velocità di circa 300.000 km/s; nei
mezzi la velocità è inferiore, riducendosi nell’aria di circa l’1% e diventando un terzo nel vetro.
Sono onde trasversali e per esse valgono le relazioni generali delle onde che regolano frequenza,
periodo e velocità di propagazione. Le onde elettromagnetiche sono anche dette radiazioni
elettromagnetiche, perché viaggiando irradiano energia.
Come ogni altro tipo di onda, anche le onde elettromagnetiche sono soggette a riflessione,
rifrazione, diffrazione e interferenza; non comportano trasporto di materia, ma di energia in quantità
proporzionale alla loro frequenza.
Lo spettro elettromagnetico è l’insieme delle onde elettromagnetiche di differente frequenza (e
quindi lunghezza d’onda). Oltre alla luce (oggetto dell’ottica), nello spettro si possono identificare
altre importanti onde. In ordine di frequenza decrescente troviamo:

• raggi gamma; con una lunghezza d’onda minore di 3×10−13 m, molto inferiore al diametro
di un atomo; sono emessi dai nuclei degli elementi radioattivi.
• Raggi X; con lunghezza d’onda compresa tra 0,001 e 10 nm, prodotti per esempio
bombardando materiale a elevato peso atomico con elettroni a elevata energia.
• Raggi ultravioletti; con lunghezza d’onda compresa tra 10 e 400 nm, al di sopra cioè della
zona della luce visibile (violetto), furono scoperti all’inizio del XIX sec. Le radiazioni
ultraviolette hanno un elevato potere ionizzante, una forte azione battericida e favoriscono i
processi fotochimici; sono impiegate nell’industria, in medicina e nella ricerca scientifica.
• Luce visibile; con lunghezza d’onda compresa fra i 400 e i 700 nm.
• Raggi infrarossi; con lunghezza d’onda compresa tra 750 nm e 1 mm; l’infrarosso
costituisce il prolungamento dello spettro visibile dalla parte del rosso e non è quindi visibile
dall’uomo. Frequenze di questo tipo sono emesse dai corpi in funzione della propria
temperatura e la loro rilevazione, effettuata con apparecchi opportuni, viene utilizzata in
varie discipline e applicazioni, quali la fotografia (immagini all’infrarosso della Terra),
l’astronomia (studio delle onde elettromagnetiche emesse dai corpi celesti), la spettroscopia,
le analisi mediche, la biologia ecc.
• Microonde; con lunghezza d’onda compresa tra 1 mm e 30 cm (fanno comunque parte delle
onde radio); trovano applicazione nei radar e nei forni a microonde. In questi ultimi la
cottura è la conseguenza dovuta all’azione del calore che si genera all’interno degli alimenti
per la rapida oscillazione delle molecole dei cibi che vengono sollecitate dalle microonde.
• Onde radio; dette anche onde hertziane, con lunghezza d’onda maggiore di 1 mm (ma
arrivano anche a 100.000 km; quelle usate per la trasmissione radio in AM vanno da 100 m a
1 km), usate per radiodiffusione e telediffusione. Per la loro grande lunghezza d’onda, le
onde radio non sono fermate da ostacoli di medie dimensioni, come le case o gli alberi.

Acustica
L’acustica è la parte della fisica che studia il suono, la perturbazione di tipo ondulatorio che si
propaga in un mezzo elastico e che crea una sensazione uditiva (dai 16 ai 20.000 Hz). Lo studio
fisico dei fenomeni sonori si estende al di sopra e al di sotto del campo delle frequenze cui
l’orecchio umano è sensibile, ossia agli ultrasuoni (udibili da alcuni animali come i cani) e agli
infrasuoni.
Il suono è prodotto dalla vibrazione di un corpo in un mezzo materiale, come l’aria o l’acqua; la
vibrazione si tramette alle particelle del mezzo, generando un’onda elastica (onda sonora o
acustica).
La trasmissione del suono, che abbisogna di un mezzo materiale, a differenza della luce, avviene
per onde; la propagazione si verifica per onde longitudinali, a eccezione che nei solidi, dove si
manifestano onde trasversali. La perturbazione si propaga in ogni luogo con una velocità che varia
in relazione alle caratteristiche fisiche del mezzo; nell’aria, in condizioni normali e vicino al suolo,
la velocità del suono è compresa fra i 330 e i 345 m/s; nei liquidi e nei solidi la velocità è molto
maggiore (nell’acqua quasi 1.500 m/s, mentre nel titanio e nell’alluminio supera i 6.000 m/s). La
velocità del suono nell’aria è molto inferiore a quella della luce (che, relativamente al suono, può
essere considerata istantanea): calcolando l’intervallo in secondi (e moltiplicando per 340 circa) fra
un lampo e il tuono, è possibile calcolare la distanza alla quale il fulmine è caduto.
Se il suono è puro, è rappresentato da una singola onda, mentre quando si sovrappongono più onde
(spesso caoticamente) otteniamo un rumore. Per studiare le caratteristiche delle onde sonore è utile
riferirsi al suono del diapason, uno strumento formato da un’asta d’acciaio a forma di U. Fatto
vibrare, percuotendo una delle estremità (rebbi), produce onde acustiche con frequenza diversa a
seconda del diapason stesso. Le onde emesse da un diapason sono sinusoidali, dove l’ampiezza
dell’onda rappresenta il massimo dell’oscillazione dei rebbi.
Per ogni frequenza acustica esiste una soglia di udibilità del suono (intensità al di sotto della quale il
suono non è percepibile) e una soglia del dolore (il superamento di tale soglia provoca dolore). Un
suono è caratterizzato da altezza, intensità e timbro.
L’altezza dipende dalla frequenza delle vibrazioni e aumenta con essa: i suoni più gravi
corrispondono a onde di frequenza minore (quindi di lunghezza d’onda maggiore), mentre i suoni
più acuti corrispondono a onde di frequenza maggiore (quindi minori lunghezze d’onda).
L’intensità è definita come l’energia emessa nell’unità di tempo dalla sorgente sonora su una
superficie di un metro quadrato ed è proporzionale al quadrato dell’ampiezza della vibrazione della
sorgente. Viene considerata sotto due aspetti, ossia l’intensità oggettiva, proporzionale al quadrato
dell’ampiezza delle vibrazioni, e l’intensità soggettiva, che è quella con cui il suono è percepito
dall’orecchio umano. Per misurare i suoni percepiti dal nostro orecchio si usa una scala in decibel
(dB), assegnando il valore zero al suono udibile più debole; per valori sopra i 120 dB sia ha la
soglia del dolore, ma anche per esposizioni più o meno prolungate a suoni con 80-90 dB si possono
avere danni uditivi irreversibili.
Il timbro dipende dalla forma delle vibrazioni; mentre un diapason emette un suono puro (il cui
andamento è descritto da una sinusoide), uno strumento musicale emette onde che si sovrappongono
non caoticamente come nei rumori, ma con determinate caratteristiche (armoniche). Un’armonica è
una frequenza secondaria multipla di un’altra frequenza (detta fondamentale). Le armoniche sono
quelle frequenze che, unitamente alla fondamentale, generano il timbro di un suono. È proprio
questa caratteristica che differenzia la sensazione sonora provocata dalla stessa nota, suonata con
strumenti diversi. Ogni suono può essere ricondotto alle sinusoidi che lo costituiscono con l’analisi
armonica di Fourier (un segnale periodico non sinusoidale è sempre composto di un numero
variabile di sinusoidi).

Riflessione
La legge sulla riflessione vale per tutti i tipi di onde, quindi anche per quelle sonore. La riflessione
delle onde sonore può generare il fenomeno dell’eco.
Affinché due suoni vengano recepiti come distinti è necessario che siano separati da un decimo di
secondo. Poiché in un decimo il suono percorre circa 34 m (a 20 °C), se la distanza tra la sorgente
del suono e l’ostacolo è almeno la metà di tale valore (circa 17 m), l’onda incidente e quella riflessa
non si sovrappongono e l’ultima parte del segnale emesso dalla sorgente si percepisce distintamente
come ripetuta: si ha l’eco. Se la distanza è inferiore si ha il riverbero come quello della riflessione
di un suono sulle pareti di una stanza.

Interferenza
Onde sonore della stessa frequenza che si sovrappongono sono soggette al fenomeno
dell’interferenza. Nel caso di interferenza totalmente distruttiva, i due suoni a egual frequenza, ma
in opposizione di fase, interferendo si annullano a vicenda e c’è silenzio. Se invece le frequenze
sono leggermente diverse, si ha il fenomeno del battimento, dove la forma d’onda risultante sarà
un po’ complessa, con regioni ad ampiezza minore e altre ad ampiezza maggiore di quelle delle
onde componenti a seconda delle caratteristiche delle onde originarie. I battimenti sono le regioni di
maggiore ampiezza, cioè gli intervalli di suoni più forti; il fenomeno è sfruttato per accordare gli
strumenti.

Risonanza
La risonanza acustica è il fenomeno per cui un’onda sonora è amplificata. Supponiamo di
applicare un impulso esterno a un risuonatore, attraverso un’azione meccanica o semplicemente
attraverso l’aria. Il fenomeno è tanto maggiore quanto più la frequenza dell’impulso è vicina alla
frequenza di risonanza naturale del risuonatore. Su questo fenomeno si basa il funzionamento di
moltissimi strumenti musicali.
Ogni sistema fisico caratterizzato da frequenze proprie di oscillazione può risuonare con una
sorgente esterna poiché assorbe l’onda sonora, ma ad alcune frequenze caratteristiche (tipiche del
risuonatore, in particolare dipendenti dalla massa, dalla rigidità e dall’elasticità) l’energia non si
esaurisce, ma si accresce a ogni impulso aumentando l’intensità del suono.
I risuonatori si possono dividere in risuonatori liberi (rispondono ad un’ampia gamma di frequenze
della sorgente sonora) e in risuonatori accordati (entrano in risonanza a determinate frequenze).

Effetto Doppler
L’effetto Doppler è la variazione apparente (cioè quella percepita dall’osservatore) della frequenza
delle onde che si verifica qualora la sorgente e l’osservatore siano in moto l’uno rispetto all’altro.
La frequenza sembra diminuire quando la sorgente si allontana dall’osservatore (la lunghezza
d’onda aumenta); sembra aumentare nel caso contrario. In astronomia ciò produce lo spostamento
verso il rosso della luce proveniente dalle galassie lontane. In acustica il fenomeno è
particolarmente vistoso: la sirena di un’autoambulanza sembra mandare un suono più acuto man
mano che si avvicina e più grave quando si allontana.

Ottica
L’ottica è la branca della fisica che studia i fenomeni luminosi e gli strumenti relativi. Storicamente
è suddivisa in ottica geometrica e ottica fisica. La prima studia i fenomeni ottici sulla base di un
modello astratto secondo il quale la luce si propaga con raggi rettilinei e indipendenti e che è in
grado di spiegare i fenomeni più semplici, come la riflessione e la rifrazione, le cui leggi illustrano
il comportamento di un raggio luminoso che colpisce la superficie di separazione tra due mezzi
contigui. Secondo l’ottica geometrica, parte del raggio viene riflessa con un angolo uguale a quello
di incidenza, mentre la quantità rimanente viene rifratta, continuando il proprio cammino all’interno
del secondo mezzo, dove può essere assorbita o propagata verso un’eventuale successiva superficie
di separazione.
L’ottica fisica si basa invece sulla teoria ondulatoria e sulla teoria delle onde elettromagnetiche, per
spiegare i fenomeni di diffrazione, interferenza e polarizzazione, che sono alla base di alcune
recenti applicazioni tecnologiche, come il laser e le tecniche olografiche.

La luce
La luce è la radiazione dello spettro elettromagnetico che viene emessa da atomi eccitati e si
propaga a una velocità di circa 300.000 km/s. Quando colpisce la retina dell’occhio, produce il
fenomeno della visione e dei colori dell’iride. Le radiazioni elettromagnetiche della luce hanno una
frequenza compresa tra 400 e 700 nm circa; i limiti dello spettro visibile all’occhio umano non sono
uguali per tutte le persone, ma variano soggettivamente.
La varietà di colore che l’occhio percepisce è data dalla variazione della lunghezza d’onda della
luce. I colori di base sono quelli presenti nell’arcobaleno e quelli in cui viene scomposto un fascio
di luce bianca che attraversa un prisma, ossia i colori viola (corrispondente alla lunghezza d’onda
più piccola), indaco, blu, verde, giallo, arancione e rosso (lunghezza d’onda maggiore).
Le prime ipotesi sulla natura della luce furono azzardate dai filosofi greci. Nel 1690 Huygens
sostenne che la luce fosse data da un moto ondulatorio dell’etere, materia elastica che riempie tutto
lo spazio. Nella sua opera Ottica, Newton ne diede la prima vera spiegazione scientifica,
sostenendo che la luce è determinata dal movimento di corpuscoli di materia che sono emessi dai
corpi e viaggiano con velocità diversa a seconda del mezzo che attraversano, seguendo traiettorie
rettilinee. I fenomeni della riflessione e della rifrazione erano a sostegno dell’ipotesi corpuscolare.
Negli studi successivi del XIX sec., Fresnel e Young riproposero la teoria della natura ondulatoria
della luce: i fenomeni che essa doveva spiegare erano l’interferenza, la diffrazione, la
polarizzazione, difficilmente interpretabili dalla teoria corpuscolare. La natura della luce fu poi
approfondita da Maxwell che, con la sua teoria elettromagnetica della luce, con la quale venivano
unificati tutti i fenomeni elettrici e magnetici, dimostrò che la luce è costituita da oscillazioni del
campo elettromagnetico.
La velocità della luce fu per la prima volta determinata nel XVII sec. dall’astronomo danese
Rømer per mezzo di osservazioni delle eclissi dei satelliti di Giove. La costanza della velocità della
luce è un fondamento basilare della teoria della relatività di Einstein che si basò, per enunciarla,
sullo storico esperimento di Michelson-Morley del 1887: il fallimento del tentativo da essi
escogitato per misurare la velocità della luce relativamente all’etere portò sia ad abbandonare il
concetto di etere sia all’affermazione della costanza della velocità della luce e con essa di tutte le
radiazioni elettromagnetiche.
Gli studi successivi relativi all’assorbimento e all’emissione di energia e la conseguente scoperta
della fotoelettricità e di altri fenomeni, portarono alla formulazione della teoria quantistica.
Secondo questa teoria, ipotizzata da Einstein, la luce è descritta come un aggregato di singole
particelle, i fotoni.
La meccanica quantistica risolve l’apparente contraddizione tra la natura ondulatoria e quella
corpuscolare, unificandole in un’unica teoria. Secondo questa teoria le onde elettromagnetiche sono
il mezzo di trasporto dei fotoni e rappresentano la probabilità che un dato fotone ha di trovarsi in un
punto dello spazio in un dato istante di tempo. Il fotone, o quanto di luce, trasporta una quantità
discreta di energia che è funzione della sua frequenza tramite una costante di proporzionalità, la
costante di Planck. Il dualismo onda-corpuscolo è quindi l’approccio del fisico moderno,
consapevole che, a seconda del tipo di esperimento, la luce può comportarsi ora come un pacchetto
di onde, ora come un aggregato di corpuscoli (fotoni).

Rifrazione della luce


Consideriamo un raggio di luce che passa da mezzo materiale trasparente a un altro sempre
trasparente; il raggio si divide in un raggio riflesso dalla superficie di separazione e in un altro che
entra nel secondo mezzo, deviando dalla direzione originaria (raggio rifratto).
Se la superficie incontrata è perfettamente riflettente, non si ha rifrazione; valgono le leggi della
riflessione delle onde: l’angolo di incidenza i è uguale all’angolo di riflessione r e i due angoli
giacciono sullo stesso piano, perpendicolare alla superficie riflettente.
La rifrazione è dovuta alla differenza della velocità di propagazione nei due mezzi. Se il primo è
meno denso del secondo (dall’aria all’acqua), il raggio di luce devia e si avvicina alla
perpendicolare alla superficie di separazione, mentre se il primo mezzo è più denso del secondo
(dall’acqua all’aria) il raggio devia e si allontana dalla perpendicolare. Per questo, gli oggetti
immersi nell’acqua sembrano spezzati.

La rifrazione della luce


La legge della rifrazione stabilisce che l’angolo di incidenza e l’angolo di rifrazione giacciono sullo
stesso piano e sono legati tra loro dalla relazione (legge di Snell o di Cartesio):
n1sin(θ1)=n2sin(θ2).

Si definisce indice di rifrazione relativo il rapporto costante tra i seni trigonometrici dell’angolo di
incidenza e dell’angolo di rifrazione. Tale indice è funzione dei due mezzi e della lunghezza
dell’onda considerata. Quando il primo mezzo è il vuoto, l’indice di rifrazione di una sostanza viene
detto indice di rifrazione assoluto. Gli indici di rifrazione dei mezzi variano da circa 1 (gas) a 2,75
(diamante).

Riflessione della luce


Consideriamo uno specchio piano; se davanti a esso abbiamo una sorgente di luce P, lo specchio
rifletterà i raggi di luce secondo le leggi della riflessione. Se si prolungano i raggi riflessi al di là
dello specchio, essi convergono in un punto P’, simmetrico rispetto a P, che sembra essere la
sorgente dei raggi che colpiscono il nostro occhio (immagine virtuale di P). Generalizzando con
uno specchio piano, l’immagine virtuale
• ha uguali dimensioni dell’oggetto reale;
• si trova a uguale distanza dallo specchio dell’oggetto reale;
• è perfettamente simmetrica rispetto all’oggetto reale.
L’immagine virtuale di un oggetto
Per quanto detto, una parola riflessa in uno specchio appare scritta da destra verso sinistra.
Le cose si complicano quando si utilizzano specchi sferici, cioè aventi la forma di una calotta
sferica che ha come parametri il vertice V, il centro C della sfera, l’asse ottico CV e il fuoco. Il
fuoco F è il punto in cui convergono tutti i raggi riflessi dai raggi incidenti parallelamente all’asse
ottico; il fuoco si trova a una distanza pari a metà del segmento CV, ovvero al raggio di curvatura
della calotta.
Lo specchio può essere concavo o convesso, a seconda che la riflessione avvenga sulla superficie
concava (la parte interna della calotta sferica) o su quella convessa (la parte esterna della calotta
sferica) dello specchio.
Nel caso dello specchio concavo l’immagine che si forma può essere reale (ricavata dai raggi
riflessi e non dai loro prolungamenti) o virtuale, rimpicciolita o ingrandita, diritta o capovolta, a
seconda della posizione dell’oggetto rispetto ai punti caratteristici dello specchio.
L’immagine su uno specchio convesso, costruita prolungando oltre lo specchio i raggi riflessi, è
sempre virtuale, rimpicciolita e diritta.

Riflessione totale
Se la luce passa da un mezzo più denso a uno meno denso (per esempio dal vetro all’aria) con un
angolo di incidenza superiore a un valore (caratteristico di ogni sostanza; angolo critico), si verifica
il fenomeno della riflessione totale, nel quale il raggio viene completamente riflesso e non vi è
rifrazione, il raggio non esce dal primo mezzo materiale, ma viene riflesso all’interno dello stesso
mezzo. Le fibre ottiche sfruttano il fenomeno della riflessione totale: agendo come guide d’onda
per la luce permettono la trasmissione a distanza di informazioni codificate sotto forma di segnali
luminosi.
Il prisma
In ottica, il prisma è un solido composto da una sostanza trasparente che viene utilizzato per
studiare fenomeni di riflessione e rifrazione. Newton fu il primo a scomporre la luce solare
mediante un prisma.
Si supponga di far passare la luce solare (luce bianca) attraverso un prisma di vetro. All’uscita la
luce è scomposta nei sette colori fondamentali: rosso, arancione, giallo, verde, blu, indaco, viola.
Sono i sette colori dell’arcobaleno, fenomeno che si forma quando la luce solare passa attraverso
goccioline di pioggia sospese nell’aria che si comportano come prismi ottici.
Quando la luce attraversa il prisma, la sua velocità è leggermente diversa a seconda della frequenza
delle varie radiazioni componenti (i colori). Poiché l’angolo di rifrazione è differente a seconda
della velocità del raggio di luce, l’angolo di rifrazione è più alto nelle alte frequenze, è più basso
nelle basse frequenze e le varie componenti prendono direzioni differenti.
La scomposizione della luce è reversibile: se il ventaglio di luce colorata attraversa un secondo
prisma, capovolto rispetto al primo, la luce bianca riappare.

Strumenti ottici
Mentre negli specchi le immagini si costruiscono con le leggi della riflessione, nelle lenti si
costruiscono con le leggi della rifrazione. Attraversando le superfici che costituiscono le lenti, i
raggi luminosi sono rifratti e danno luogo a immagini reali o virtuali, ingrandite o rimpicciolite,
diritte o capovolte a seconda del tipo di lente e della distanza tra la lente e l’oggetto. Grazie alle
lenti è possibile correggere difetti della vista, facendo in modo che l’immagine si formi esattamente
sulla retina e non dietro o davanti a essa.
Il microscopio è uno strumento in grado di fornire immagini ingrandite di oggetti. Il microscopio
ottico è costituito da un obiettivo, con distanza focale molto piccola, e da un oculare. Normalmente
nel microscopio si ha anche un gruppo ottico detto condensatore che permette l’illuminazione per
trasparenza dell’oggetto da esaminare e una parte meccanica che permette gli spostamenti
micrometrici dell’oggetto e della distanza tra oggetto e obiettivo per la messa a fuoco. Il limite di
ingrandimento dei microscopi ottici è di circa 3.000 volte ed è determinato dal limite di risoluzione
(circa 0,2 μm) dovuto alla diffrazione della luce. Per ingrandimenti superiori si utilizza il
microscopio elettronico, che utilizza, al posto della luce, fasci di elettroni accelerati e collimati e
che consente risoluzioni dell’ordine di 1 Å (ångström). Il primo prototipo di microscopio (con una
sola lente) fu inventato alla fine del XVI sec. dagli olandesi Hans e Zacharias Janssen. Pochi anni
dopo Galileo inventò il primo microscopio a due lenti.
Anche il cannocchiale si fonda sul fenomeno della rifrazione della luce; serve per l’osservazione di
oggetti situati a grande distanza dall’osservatore e permette di aumentare l’angolo sotto il quale
l’oggetto verrebbe visto a occhio nudo. Fu inventato all’inizio del XVII sec. dall’occhialaio
fiammingo Lippershey, ma fu Galileo che lo costruì in modo tale da poter essere utilizzato. La
teoria di funzionamento fu razionalizzata da Keplero. È essenzialmente costituito da un tubo che
funge da supporto a due lenti, o sistemi di lenti, che si trovano alle due estremità e che
rappresentano l’obiettivo e l’oculare; l’obiettivo provoca la formazione di un’immagine reale
dell’oggetto, l’oculare ha il compito di ingrandire tale immagine.
Diffrazione della luce
Come per tutte le onde, anche per la luce si può avere il fenomeno della diffrazione, ma poiché la
diffrazione si verifica soltanto se la dimensione dell’ostacolo è paragonabile a quella della
lunghezza d’onda dell’onda e poiché quella della luce è dell’ordine dei 10-7 m, la diffrazione della
luce si verifica con oggetti molto piccoli e non è direttamente osservabile dall’occhio umano.
Esistono diversi esperimenti che provano l’esistenza del fenomeno, tutti basati sul rilevamento della
luce che passa in un foro o in una serie di fenditure molto piccole: la luce invade in parte la zona
che dovrebbe essere “in ombra”.

Effetto Doppler e redshift


Anche per la luce vale l’effetto Doppler: quando la sorgente di luce e l’osservatore sono in moto
relativo l’una rispetto all’altro, si hanno variazioni di colore; se l’osservatore si avvicina,
all’aumento della frequenza si ha uno spostamento della radiazione verso il viola; se l’osservatore si
allontana, alla diminuzione della frequenza si ha uno spostamento verso il rosso.
Sull’effetto Doppler si basa il redshift, cioè l’evento fisico che consiste nello spostamento verso il
colore rosso, ossia verso lunghezze d’onda maggiori, delle righe spettrali di radiazione di un corpo
celeste. Abbinando il redshift all’effetto Doppler, nel 1929 Hubble postulò la teoria dell’espansione
dell’universo. Dall’ipotetico big bang di circa 12 miliardi di anni fa, l’universo sarebbe pertanto
ancora in fase di allontanamento dal proprio centro e quindi, per effetto della curvatura dello spazio,
qualsiasi corpo celeste si allontanerebbe da tutti gli altri oggetti circostanti.

Elettricità ed elettromagnetismo
L’elettrologia è la parte della fisica che studia l’elettricità e i fenomeni a essa relativi, iniziando
dall’elettrostatica che studia i fenomeni dell’elettricità in quiete. L’elettromagnetismo è la parte
della fisica che studia in generale le relazioni tra elettricità e magnetismo e, in particolare, i
fenomeni d’induzione elettromagnetica, gli effetti magnetici determinati da una corrente elettrica e
gli effetti determinati da un campo magnetico su una corrente elettrica. Attualmente si preferisce
usare il termine elettrodinamica, in quanto ciò che un tempo veniva definito proprietà magnetica
della materia sono in realtà campi generati dalle forze di interazione tra le cariche elettriche in
movimento.

L'elettricità
Il termine elettricità indica anche la proprietà fondamentale della materia che si evidenzia a livello
macroscopico con fenomeni attrattivi e repulsivi. I corpi che hanno questa proprietà sono detti
elettricamente carichi; la grandezza che li caratterizza si dice carica elettrica. L’elettricità può
essere statica o dinamica.
Quando gli atomi di una sostanza acquistano elettroni, la caricano negativamente (si ha un eccesso
di elettroni e l’atomo diventa uno ione negativo); se invece perdono elettroni, la sostanza è carica
positivamente (si ha un difetto di elettroni e l’atomo diventa uno ione positivo).
L’elettricità fu osservata fin dall’antichità, ma venne confusa con il magnetismo e fu riconosciuta e
separata da quest’ultimo solo nel XVI sec. con Gilbert; nel secolo successivo vennero scoperte la
conduzione (Gray) e le due forme positiva e negativa (Du Fay), fino alle enunciazioni quantitative
di Cavendish e di Coulomb. Alla fine del XVIII sec. con gli esperimenti di L. Galvani e A. Volta,
lo studio dell’elettricità si spostò dall’elettrostatica all’elettrodinamica.

Elettrizzazione di un corpo
In alcuni casi si possono strappare gli elettroni a una sostanza trasferendoli a un’altra mediante
elettrizzazione per strofinio, tipica di alcune sostanze come ambra, vetro, ceralacca, plastica ecc.;
strofinando una bacchetta di vetro con un panno di lana, la bacchetta si carica negativamente
acquistando elettroni dal panno e riuscirà ad attirare corpi molto leggeri. Se ripetiamo l’esperimento
con due bacchette di vetro e le avviciniamo dopo che sono state elettrizzate, esse si respingeranno.
Se invece una è di plastica e una è di vetro, dopo l’elettrizzazione, esse si attrarranno. Questi
esperimenti risalenti a Franklin dimostrano che esistono due tipi di carica elettrica, positiva e
negativa: cariche dello stesso segno (entrambe positive o entrambe negative) si respingono, cariche
di segno opposto (una positiva e l’altra negativa) si attraggono. Per esempio, dopo lo strofinio con
la lana della bacchetta di plastica, il passaggio di elettroni dalla lana alla plastica carica quest’ultima
negativamente e il panno positivamente (ha perso elettroni).
Se strofiniamo un metallo non abbiamo nessuna elettrizzazione: gli elettroni non restano confinati
nel punto di strofinio, ma scorrono nel metallo, passano nella nostra mano e, attraverso il nostro
corpo (che è un conduttore) si scaricano a terra.
Le sostanze si dividono principalmente in due gruppi, i conduttori elettrici e gli isolanti elettrici. I
primi (la maggior parte dei metalli) sono sostanze in cui la carica elettrica è in grado di fluire
liberamente; i secondi (la maggior parte dei non metalli) sono sostanze in cui la carica elettrica non
è in grado di fluire liberamente. C’è inoltre un’altra categoria di sostanze, i cosiddetti
semiconduttori con caratteristiche intermedie tra conduttori e isolanti.
I conduttori possono essere elettrizzati per contatto, cioè ponendoli a contatto con un corpo
elettricamente carico (non neutro come il panno usato nello strofinio). Si ha un flusso di cariche
finché si stabilisce l’equilibrio fra i due corpi.
Nell’elettrizzazione per induzione elettrostatica, un corpo carico viene posto accanto a un
conduttore (neutro) isolato. Le cariche del conduttore si ridistribuiscono: quelle di segno opposto a
quelle del corpo inducente sono da esso attirate, le altre allontanate. Il conduttore quindi è attirato
dal corpo inducente con le sue cariche che in totale sono nulle, ma sono distribuite vicine e lontane
dal corpo inducente; dividendo il conduttore in due parti, queste restano elettrizzate con cariche
uguali e di segno opposto. Su questo fenomeno si basa il parafulmine, ideato da Franklin a metà
del XVIII sec. Quando una nuvola carica di elettricità passa sulla punta del parafulmine,
originariamente neutro, la punta si carica di segno opposto e la sua superficie ridotta amplifica il
fenomeno (effetto punta) perché maggiore è la densità delle cariche migrate sulla punta. La carica
indotta sul parafulmine provoca una scarica elettrica tra la nuvola carica di elettricità e il
parafulmine che, collegato a terra, scaricherà il fulmine senza danneggiare l’edificio su cui è
installato.
Carica elettrica
Una carica elettrica è una quantità di elettricità. Abbiamo visto che le cariche elettriche possono
spostarsi nei corpi e le cariche elettriche in moto possono essere di diversa natura. Nei fenomeni
elettrici si hanno due tipi di cariche, la carica positiva (+) e la carica negativa (-); nei liquidi e nei
gas le cariche possono essere sia positive sia negative, mentre nei conduttori metallici le cariche
sono solo negative (elettroni).
Poiché la direzione delle cariche dipende dal fatto che esse siano positive o negative, il verso della
corrente è definito convenzionalmente come la direzione del flusso di carica positiva (convenzione
di Franklin).
L’intensità di corrente (I) è una grandezza scalare che misura la quantità di carica elettrica che
attraversa la sezione di un conduttore entro un’unità di tempo:

La sua unità di misura nel SI è l’ampere, indicato con A. Una corrente con intensità di 1 ampere
sposta circa 6,25·1018 portatori di carica elementare in un secondo fra due parti di un circuito.
Per misurare l’intensità della corrente in un circuito si usa l’amperometro.
Dall’ampere si deriva il coulomb (C), l’unità di carica elettrica, la quantità di carica elettrica
trasportata in 1 secondo dal flusso di corrente di 1 ampere: 1 C=1A·1s. La carica più piccola
esistente è l’elettrone, o carica elementare, indicata con il simbolo e, che misura circa 1,6·10-19
coulomb.
La carica elettrica si presenta soltanto in multipli della carica elettronica; secondo il principio di
conservazione della carica elettrica la carica totale di ogni sistema è costante.

Legge di Coulomb
La legge di Coulomb è una legge fondamentale dell’elettromagnetismo che afferma che la forza
agente tra due cariche puntiformi q1 e q2 (o due poli magnetici) è proporzionale al prodotto delle
due cariche elettriche e inversamente proporzionale al quadrato della loro distanza d secondo una
costante k dipendente dal mezzo in cui si trovano. La forza è attrattiva se le cariche o i poli sono di
segno opposto, repulsiva se di segno uguale:

Il campo elettrico
In fisica, un campo è una regione dello spazio in cui è definita una certa grandezza. Il campo
elettrico è la regione di spazio in cui agiscono forze; è generato dalla presenza di una o più cariche
elettriche (o di un campo magnetico variabile nel tempo). Le sue proprietà:
• è un campo vettoriale perché in esso agisce una forza (che è un vettore);
• è conservativo: il lavoro compiuto per passare da un punto a un altro del campo è
indipendente dal cammino, dipende solo dal punto iniziale e da quello finale;
• il campo prodotto da una carica Q viene definito con una carica di prova q molto più piccola
di Q come la forza esercitata da Q su q divisa per la carica q di prova: 
Graficamente si può rappresentare il campo elettrico con le linee di forza, cioè la traiettoria che
avrebbe una carica (piccola, in modo da non perturbare il campo) posta in quel punto della linea di
forza; il campo elettrico è rappresentato da un vettore tangente alla linea nel punto considerato; il
verso delle linee di forza va dalla carica positiva a quella negativa.

Il potenziale elettrico
Il potenziale elettrico (V) è il lavoro necessario per portare una carica unitaria da un punto
qualsiasi del campo elettrico all’infinito (dove cioè l’effetto del campo è nullo).
Poiché il campo elettrico è conservativo, il lavoro per portare una carica unitaria da A a B sarà dato
da
L=VA-VB.

Infatti, il lavoro da A a B può essere visto come quello da A all’infinito e, ritornando indietro,
dall’infinito a B. Quest’ultimo contributo è di segno contrario a quello da B all’infinito.
VA-VB si chiama differenza di potenziale fra A e B. Se la carica non è unitaria, il lavoro per portare
la carica q da A a B si otterrà moltiplicando la carica q per la differenza di potenziale.
L’unità di misura del potenziale è il volt (V), dove 1 V=1 J/1 C. Fra due punti di un campo elettrico
c’è la differenza di potenziale di 1 volt se il campo elettrico compie un lavoro di 1 joule quando una
carica di 1 coulomb passa da un punto all’altro del campo.
Per misurare la differenza di potenziale tra due punti di un circuito si usa il voltmetro.
Tenendo conto delle relazioni:
• L=Fs
• E=F/q
• L=qΔV
si ottiene facilmente la relazione fra intensità del campo elettrico e differenza di potenziale:
E=ΔV/s; la direzione e il verso del campo sono diretti dai punti a potenziale più alto a quelli a
potenziale più basso.
Quando si pongono a contatto due conduttori carichi, le cariche si distribuiranno in modo che i due
conduttori abbiano lo stesso potenziale. Considerando la Terra come un enorme conduttore, la
messa a terra di un conduttore significa fare in modo che le sue cariche in eccesso migrino verso la
Terra, il cui potenziale, essendo enormemente più grande di quello del conduttore, non varierà
significativamente.
Potenza elettrica
Poiché quando si spostano delle cariche si produce un lavoro, possiamo definire il concetto di
potenza come lavoro prodotto nell’unità di tempo. Nel caso di lavoro elettrico, in genere si ha
conversione di energia da elettrica ad altra forma, per esempio termica. Dividendo i due membri
della relazione L=qΔV per il tempo, otteniamo che la potenza P è:
P=ΔV·I.
L’unità di misura della potenza è il watt (simbolo W; spesso si usano suoi multipli come il
kilowatt, pari a 1.000 watt) pari a 1 joule al secondo. Nel caso degli apparecchi elettrici, dalla
relazione precedente è importante sapere anche l’intensità di corrente al funzionamento. Con la
normale tensione domestica di 220 V una lampadina da 50 W è percorsa da una corrente di 0,225 A.

Il condensatore
Il condensatore è un dispositivo elettrico in grado di immagazzinare cariche elettriche (il primo
condensatore può essere considerato la bottiglia di Leida, dal nome della città olandese dove fu
realizzata a metà del XVIII sec.); è costituito (condensatore piano) da due conduttori (armature)
separati da un materiale dielettrico (mica, carta, ossido). Applicando una differenza di potenziale
(ΔV) fra le due armature, queste si caricano elettricamente.
Il rapporto tra la carica del condensatore (q) e la differenza di potenziale tra le due armature è
costante e viene definita capacità:

La capacità si misura in farad (F) e nei suoi sottomultipli (microfarad e picofarad), 1 F è la capacità
di un condensatore che ha una differenza di potenziale di 1 volt quando su di esso è posta una carica
di 1 coulomb.
Si dimostra la relazione:

dove S è la superficie delle armature, d la loro distanza ed  una costante detta costante dielettrica
del mezzo isolante fra le due armature.
Esistono condensatori piani, cilindrici o sferici che possono essere collegati in serie o in parallelo.

Generatori di tensione
Un generatore di tensione è un dispositivo che serve a generare e mantenere una differenza di
potenziale elettrico ai suoi capi (detti poli o morsetti). Il generatore ideale di tensione è un
dispositivo che mantiene una tensione costante (o con un prefissato andamento in funzione del
tempo) fra i suoi poli, indipendentemente dall’intensità di corrente. Nei generatori reali la tensione è
costante entro certi limiti.
Il morsetto del generatore a potenziale più basso è detto polo negativo (-) mentre quello a
potenziale più alto è detto polo positivo (+). Se si collegano i morsetti con un conduttore, le cariche
scorreranno dentro al conduttore generando una corrente elettrica.
Fra i generatori di tensione sono da ricordare le pile elettriche, le batterie delle automobili e le
dinamo. La pila è un sistema che produce energia elettrica mediante la trasformazione dell’energia
chimica. Ideatore della pila fu A. Volta (pila voltaica, fine del XVIII sec.). La pila costruita da Volta
era composta da dischetti di zinco e di rame separati da panni imbevuti di acido solforico
(l’elettrolita). Attualmente, per la produzione di energia elettrica, vengono utilizzate pile a secco,
composte da vari materiali; le pile con elettrolita liquido sono utilizzate per misurazioni di
laboratorio.
La forza elettromotrice (f.e.m.) di un generatore è la differenza di potenziale massima che un
generatore elettrico può fornire.

Circuiti elettrici
Un circuito elettrico è un insieme di conduttori elettrici, percorsi da corrente in regime continuo o
periodico. Se il circuito non presenta interruzioni è detto chiuso, altrimenti aperto. In un circuito
aperto non può fluire corrente; questo concetto è usato normalmente nei fusibili, negli interruttori o
nei salvavita: con diversi metodi si “apre” il circuito bloccando la corrente.
Il fusibile è costituito da un breve tratto di filo metallico (lega di piombo e stagno), che fonde
quando l’intensità di corrente supera un certo valore, interrompendo in tal modo un circuito
elettrico. La fusione avviene a causa del calore prodotto dalla corrente in eccesso (ved. effetto
Joule). Per evitare il disagio di dover sostituire il fusibile a ogni suo intervento di protezione, negli
impianti elettrici alimentati a corrente alternata è stato sostituito da interruttori automatici
(interruttori differenziali) che possono essere nuovamente chiusi non appena termina l’evento che
ha causato il sovraccarico di corrente. I fusibili vengono ancora utilizzati negli alimentatori delle
apparecchiature elettroniche funzionanti a corrente continua e bassa tensione e negli impianti (come
quelli degli autoveicoli) dove gli elevati valori delle correnti circolanti rischia, in caso di
sovraccarico dovuto a cortocircuito, di provocare incendi.
Dispositivi elettronici che intervengono sulla corrente elettrica sono i diodi e i transistor.

Collegamento in serie e in parallelo


All’interno di un circuito, i conduttori possono essere collegati in serie (la corrente li attraversa uno
dopo l’altro) oppure in parallelo (prima di riunirsi nuovamente, la corrente si divide e percorre i
vari rami contemporaneamente). I circuiti collegati in serie sono più sensibili ai guasti perché, se un
circuito brucia, la corrente si interrompe e non raggiunge quelli a valle del conduttore bruciato. Se
brucia un ramo di un circuito in parallelo, la corrente continua a fluire negli altri rami “in parallelo”
con quello bruciato.

Resistenza elettrica
La resistenza elettrica è una grandezza scalare dei conduttori elettrici che indica la tendenza a
opporsi al passaggio di una corrente elettrica, quando sottoposti a una tensione elettrica. È calcolata
come il rapporto fra la caduta di tensione ai poli del conduttore e l’intensità di corrente che lo
percorre. Infatti, la prima legge di Ohm stabilisce che:
ΔV=R·I
dove R è la resistenza che varia al variare del conduttore. Infatti, quanto più R è grande, a parità di
differenza di potenziale, tanto più è piccola l’intensità della corrente che attraversa il conduttore.
L’unità di misura della resistenza elettrica è l’ohm (Ω). Un conduttore ha una resistenza di 1 ohm
se, sottoposto alla tensione di 1 volt, è percorso da una corrente di 1 ampere.
La seconda legge di Ohm stabilisce che in un conduttore di lunghezza l e sezione S vale la
relazione:

dove ρ dipende dal materiale che costituisce il conduttore ed è detta resistività: indica la
propensione del materiale a condurre la corrente elettrica.
La resistività (e quindi anche la resistenza) dipende dalla temperatura. Nei conduttori caldi (in
genere tutti i metalli) il valore della resistenza diventa più grande, in quelli freddi diventa più
piccola. La dipendenza della resistenza dalla temperatura è, per esempio, utilizzata nei termostati.
Con una certa approssimazione, le due leggi di Ohm valgono anche per gli isolanti.
Un conduttore che soddisfa la prima legge di Ohm è detto resistore (anche se spesso, inserito in un
circuito elettrico, viene chiamato resistenza). Valgono le seguenti relazioni:
• la resistenza di resistori collegati in serie è data dalla somma delle singole resistenze;
• l’inverso della resistenza di resistori collegati in parallelo è uguale alla somma degli inversi
delle resistenze dei singoli resistori.
Poiché gli strumenti di misura devono essere tali da non influire significativamente sulla misura, la
resistenza di un amperometro (misura l’intensità di corrente) deve essere molto piccola, mentre
quella di un voltmetro deve essere grande.
Effetto Joule
L’effetto Joule è il fenomeno per cui il passaggio di corrente elettrica in un conduttore genera
calore. L’energia termica dissipata è direttamente proporzionale alla resistenza del conduttore stesso
e al quadrato della corrente che lo attraversa:

Q=RI2Δt.
Da questa relazione deriva un’altra interpretazione del concetto di resistenza: l’attitudine di un
conduttore a trasformare l’energia elettrica che lo percorre in calore.

La corrente nei liquidi


Come abbiamo visto introducendo il concetto di carica elettrica, la conducibilità elettrica di liquidi e
gas dipende dalla formazione di ioni, cioè di atomi o molecole di segno negativo o positivo che
hanno acquistato o perso uno o più elettroni.
Supponiamo di collegare due lamine immerse in un liquido ai poli di un generatore; quella collegata
al polo positivo è detta anodo, l’altra catodo. A seconda del liquido si potrà misurare o no il
passaggio di corrente fra i due poli. L’acqua distillata, per esempio, è un isolante, mentre con
soluzioni saline, acide o basiche si misurerà una corrente.
Anche per i liquidi valgono le leggi di Ohm, con la resistività che dipende dal liquido.
Si dice elettrolita una sostanza che sciolta nell’acqua la rende un conduttore; il fenomeno che
descrive il passaggio della corrente in una soluzione si chiama elettrolisi. Gli elettroliti sono in
genere conduttori di seconda classe con resistività molto più alte di quelle dei conduttori metallici
(conduttori di prima classe).
Il termine elettrolisi deriva dal greco (rompere con l’elettricità), infatti in molti casi sottoporre a
elettrolisi una sostanza vuol dire scomporla nei suoi elementi costitutivi. Nei casi in cui l’elettrolisi
porti effettivamente alla scissione di una sostanza nei suoi elementi costitutivi, si parla di
dissociazione elettrolitica. Applicando una corrente elettrica continua, subiscono dissociazione
elettrolitica tutte quelle sostanze che, in soluzione o fuse, si scompongono in ioni, ossia gli acidi, le
basi, i sali e l’acqua.
Per l’elettrolisi valgono le due leggi di Faraday (prima metà del XIX sec.):
1. la quantità di elementi prodotti da un processo di elettrolisi è direttamente proporzionale
alla quantità di carica che ha attraversato la cella elettrolitica.
2. A parità di carica, la quantità dei diversi elementi ottenuti è proporzionale agli equivalenti
chimici delle sostanze (l’equivalente chimico è il rapporto tra il peso atomico di un elemento
e la sua valenza, cioè il numero di elettroni che un atomo della sostanza può perdere o
acquistare quando forma un legame chimico).

La corrente nei gas


Normalmente, un gas non è ionizzato ed è perciò un buon isolante. In esso la ionizzazione
(formazione di ioni a partire da atomi o molecole elettricamente neutri) avviene a causa di un
agente ionizzante, in genere una radiazione elettromagnetica che cede parte della sua energia per
rompere l’energia di legame che tiene uniti gli elettroni esterni al nucleo dell’atomo. In seguito alla
ionizzazione gli ioni risultanti possono avere carica sia positiva che negativa.
I gas non seguono la legge di Ohm perché la relazione che lega l’intensità di corrente alla differenza
di potenziale in un gas non è lineare, ma è più complessa e dipende dalla pressione del gas.
Un esempio del passaggio di una corrente in un gas è il fulmine. Il fenomeno presenta un effetto
luminoso chiamato lampo e uno sonoro chiamato tuono; per la differente velocità di propagazione
tra luce e suono, questi fenomeni non vengono percepiti simultaneamente. Il fulmine è generato
dalla differenza di potenziale fra terra e cielo; la scarica elettrica si propaga dove esiste minore
resistenza elettrica ed è costituita da scariche consecutive di durata attorno ai 500 microsecondi; in
questo modo si verifica il caratteristico lampo a zig-zag. Le scariche tra nuvole hanno lunghezza
superiore a quelle tra nuvola e terra. L’intensità delle scariche varia dai 10.000 ai 50.000 ampere e il
fulmine che si scarica a terra può determinare la folgorazione di esseri viventi, incendi e altri danni,
mentre nell’atmosfera forma ozono o composti nitrici dovuti all’ossidazione dell’azoto.

Il magnetismo
Il magnetismo è la proprietà della materia alla quale sono riconducibili i fenomeni fisici di
interazione magnetica; è noto sin dall’antichità che esistono in natura corpi (magneti, calamite) che
hanno la capacità di esercitare forze di attrazione o di repulsione verso altri corpi di natura ferrosa
(ferro, nichel, cromo). Anche in vicinanza di conduttori percorsi da corrente si hanno fenomeni di
magnetismo (deviazione dell’ago di una bussola). In questo caso si parla di magnetismo artificiale
(elettromagnete), per contrapposizione al magnetismo naturale (magneti esistenti in natura o
permanenti).
Nel XVII sec. Gilbert studiò le caratteristiche del magnetismo, definì il concetto di poli magnetici,
diede una prima interpretazione di magnetismo terrestre e arrivò a differenziarlo dai fenomeni
elettrici; in particolare colpiva il fatto dell’impossibilità di isolare poli magnetici singoli, cosa
perfettamente possibile in elettricità: se si cerca di isolare un polo magnetico tagliando un magnete,
non si ottengono due monopoli (un polo magnetico nord e un polo magnetico sud), ma il risultato è
che si creano due nuovi magneti, ognuno la metà del precedente e ognuno con i suoi due poli
opposti. Studiato quantitativamente da Coulomb, fu inglobato nella teoria generale
dell’elettromagnetismo, le cui leggi furono sviluppate da Maxwell nella seconda metà dell’800.
In base alle proprietà magnetiche le sostanze sono suddivise in diamagnetiche, paramagnetiche e
ferromagnetiche. Le sostanze diamagnetiche non sono dotate di magnetismo proprio e la presenza
di un campo magnetico esterno influenza tutti gli atomi (o le molecole) della sostanza, generando
una magnetizzazione degli elettroni opposta a quella del campo magnetico applicato: la sostanza è
debolmente respinta dal campo magnetico. Si deve notare che questo fenomeno è presente anche
nelle sostanze paramagnetiche o ferromagnetiche, solo che è molto meno intenso degli altri due
effetti.
Le sostanze paramagnetiche sono dotate di debole magnetismo proprio, ma la presenza di un
campo magnetico esterno provoca l’allineamento magnetico di tutti gli atomi (o le molecole) della
sostanza, generando una magnetizzazione addizionale. L’effetto aumenta al diminuire della
temperatura ed è molto intenso in prossimità dello zero assoluto.
Le sostanze ferromagnetiche presentano magnetizzazione spontanea anche in assenza di un campo
esterno e sono fortemente attratte da un campo magnetico esterno. Per temperature superiori a un
determinato valore il ferromagnetismo scompare e la sostanza diventa paramagnetica.

Il campo magnetico
Un campo magnetico è una porzione di spazio caratterizzata dalla presenza di forze magnetiche;
queste sono generate da dipoli magnetici, ossia da semplici sbarrette magnetizzate formate da due
poli (uno nord e l’altro sud). In natura non è possibile rintracciare cariche magnetiche simili a
quelle elettriche, ossia classificabili come fonti di campi magnetici con una sola polarità (nord o
sud).
Come il campo elettrico, il campo magnetico è un campo vettoriale con le linee di forza che
indicano direzione e verso (come per gli altri campi vettoriali sono tangenti alla direzione del
campo e s’infittiscono all’aumentare dell’intensità). Le linee di forza si possono facilmente
visualizzare mettendo della limatura di ferro su un foglio appoggiato a un magnete; muovendo il
foglio leggermente, la limatura si magnetizza e i singoli pezzettini di dispongono lungo il campo
magnetico, disegnando la proiezione delle linee di forza sul foglio.
In realtà, fin dal 1820 (grazie alle scoperte di Oersted) il campo magnetico viene più
modernamente descritto come campo vettoriale generato nello spazio dal moto di una carica
elettrica o da un campo elettrico variabile nel tempo. Con il campo elettrico esso costituisce il
campo elettromagnetico, responsabile dell’interazione elettromagnetica.
Oersted analizzò i fenomeni magnetici indotti dalla corrente elettrica e scoprì l’omonimo effetto,
che descrive l’influenza della corrente elettrica sull’orientamento di un ago magnetico.
Oersted osservò che l’ago di una bussola posta vicina a un filo di rame collegato ai due poli di una
pila in cui passava una corrente si spostava: se era inizialmente parallelo al filo in direzione nord-
sud, ruotava di 90 gradi, perpendicolarmente al filo. Invertendo la corrente, l’ago ruotava di 180
gradi, invertendo i suoi poli, ma rimanendo perpendicolare al filo. L’esperimento mostrò che un filo
elettrico percorso da corrente genera un campo magnetico.
Le linee di forza del campo magnetico che si genera sono cerchi concentrici attorno al filo. Il verso
delle linee di forza è dato dalla regola della mano destra, tenendo il filo nella mano destra con il
pollice in direzione della corrente: le dita della mano indicano il verso delle linee di forza del campo
magnetico generato dal filo; esse diventano più fitte quanto più è intensa la corrente e quanto
minore è la distanza dal filo stesso.
Un solenoide è una bobina di forma cilindrica formata da una serie di spire circolari molto vicine
fra loro e realizzate con un unico filo di materiale conduttore; in genere si parla di solenoide quando
la lunghezza dell’avvolgimento di spire è maggiore di 10 volte il raggio della singola spira.
Il solenoide

Intensità del campo magnetico


Si consideri una porzione di filo di lunghezza l, percorso da una corrente I, posto tra i poli di una
calamita (che genera un campo magnetico). Il filo è sottoposto a una forza la cui direzione si trova
con la regola della mano sinistra (indice=direzione del campo; medio=direzione della corrente
perpendicolare all’indice; pollice=direzione della forza perpendicolare a entrambi). Si ottiene la
seguente relazione (F è l’intensità della forza):
F=l·I·B
dove B è l’intensità del campo magnetico.
L’unità di misura dell’intensità del campo magnetico è il tesla (T): un campo magnetico ha intensità
di 1 tesla se esercita una forza di 1 newton su un filo conduttore lungo 1 m percorso da una corrente
di 1 ampere.

Campo magnetico generato da correnti


L’intensità del campo magnetico generato da un filo percorso da corrente a una distanza d dal filo è
data nel vuoto da (legge di Biot-Savart):

dove μ0 è la permeabilità magnetica nel vuoto; in un mezzo μ0 è sostituita dalla permeabilità


magnetica del materiale μ=μr·μ0 dove μr è la permeabilità magnetica relativa del mezzo, positiva
molto maggiore dell’unità (materiali ferromagnetici), leggermente superiore all’unità (materiali
paramagnetici) o leggermente inferiore (materiali diamagnetici).
Nel caso si consideri una spira di corrente, il campo magnetico nel centro della spira si trova
facilmente dalla legge di Biot-Savart (basta sostituire d con R, il raggio della spira).
Nel caso di un filo percorso da corrente, il campo magnetico generato non è uniforme; se vogliamo
un campo magnetico il più possibile uniforme dobbiamo usare un solenoide.
Se il solenoide è sufficientemente lungo da poter considerare il proprio diametro trascurabile, il
campo magnetico B al suo esterno è nullo e al suo interno è uniforme e stazionario. La direzione del
campo magnetico è data dall’asse del solenoide; il verso del campo magnetico è dato dalla regola
della mano destra, cioè è indicato dal pollice quando la mano destra avvolge le dita su una spira nel
verso in cui essa viene percorsa dalla corrente. L’intensità di B è data da:

dove μ è la permeabilità del mezzo, I l’intensità di corrente e L la lunghezza del solenoide.

Forza di Lorentz
Poiché un campo magnetico esercita una forza su un conduttore percorso da corrente (che non è
altro che cariche in movimento), ogni particella carica che si muove in un campo magnetico subisce
una forza. Tale forza è detta forza di Lorentz e, se la particella si muove con velocità uniforme v,
ha intensità pari a:

dove q indica la carica elettrica puntiforme,  è il vettore velocità con cui si muove la carica elettrica,
e  è il vettore campo magnetico cui essa è sottoposta.
L’intensità della forza vale quindi F=q⋅v⋅B⋅sinα, dove α è l’angolo compreso fra il vettore velocità e
il vettore campo magnetico. La direzione della forza di Lorentz è perpendicolare al piano su cui
giacciono i vettori velocità e campo magnetico; il suo verso è dato dalla regola della mano destra.
Se la carica è positiva, posti il pollice della mano nel verso della velocità e l’indice (perpendicolare
al pollice) in quello del campo magnetico, il verso della forza è quello del medio (perpendicolare
alle altre due dita). Se è negativa, basta usare la regola ponendo il pollice nel verso opposto a quello
della velocità.

Induzione elettromagnetica
Un filo percorso da corrente genera un campo magnetico, ma vale anche il viceversa: la locuzione
induzione elettromagnetica indica la generazione in un circuito chiuso di una corrente indotta (e
quindi di forza elettromotrice indotta) quando questo si trova nel flusso di un campo magnetico.
In fisica, un flusso è l’insieme delle linee di forza che passano all’interno di una determinata linea
chiusa; il flusso magnetico è il flusso del campo magnetico attraverso una superficie, una
grandezza scalare che dipende dall’angolo d’incidenza delle linee di campo (cioè dalla componente
del campo magnetico perpendicolare alla superficie), dal valore della permeabilità magnetica e
dall’area della superficie stessa. Si ha:
Φ=BSsina
dove a è l’angolo fra il vettore campo magnetico e la superficie S. Il flusso di un campo magnetico è
massimo quando le linee di forza del campo sono perpendicolari alla superficie S e nullo quando
sono parallele.

Il flusso magnetico si misura in weber (Wb), dove 1 Wb = 1 T·1 m2.


La legge di Faraday-Neumann-Lenz afferma che l’intensità di corrente risulta proporzionale alla
variazione di flusso; infatti il valore della forza elettromotrice istantanea è la derivata del flusso
rispetto al tempo:

Il segno meno tiene conto del fatto che la forza elettromotrice indotta tende a opporsi alla variazione
che l’ha generata.

Autoinduzione
Finora abbiamo visto il caso di un circuito che risente dell’azione di un campo magnetico esterno,
generato per esempio da un magnete permanente. Però un circuito percorso da corrente produce un
campo magnetico che, a sua volta, genera un flusso magnetico attraverso il circuito stesso. Quando
la corrente varia, il flusso cambia e si ha il fenomeno dell’autoinduzione. Il fenomeno si può
comprendere come una propensione all’equilibrio, poiché l’autoinduzione si oppone alla variazione
della corrente.
Per esempio, se in un solenoide si fa variare l’intensità della corrente, aumentando l’intensità,
aumenta anche il campo magnetico generato dalla corrente, ma si produrrà anche una corrente
indotta che si oppone all’aumento della corrente inducente. La f.e.m. che si genera prende il nome
di f.e.m. autoindotta.
Infine, due circuiti vicini possono produrre campi magnetici che generano flussi magnetici nell’altro
circuito; se la corrente in uno dei circuiti varia, si osserva il fenomeno della mutua induzione.
La proprietà dei circuiti elettrici per cui una corrente variabile nel tempo che li attraversa induce una
forza elettromotrice è detta induttanza. Il coefficiente di autoinduzione L (in onore del fisico
Lenz) del circuito è il rapporto tra il flusso del campo magnetico concatenato e la corrente.
L’unità di misura dell’induttanza è detta henry (H), cioè in un induttore di 1 henry una variazione di
corrente di 1 ampere al secondo genera una forza elettromotrice di 1 volt, che è pari al flusso di 1
weber al secondo.
L’energia W immagazzinata in un solenoide può essere espressa per mezzo della sua induttanza
caratteristica L e della corrente i che scorre nelle sue spire:

Si noti che, mentre la legge di Ohm esprime la relazione fra la tensione e una corrente stazionaria,
quella di Faraday-Neumann-Lenz esprime il legame fra la tensione e una corrente elettrica
variabile:

L'alternatore e la dinamo
L’alternatore è una macchina elettrica rotante basata sull’induzione elettromagnetica; esso
trasforma l’energia meccanica in energia elettrica a tensione alternata. La potenza fornita da un
motore primario (propulsore) viene trasformata nell’alternatore da due parti fondamentali, delle
quali una, esterna, è fissa e viene chiamata statore e l’altra, interna, ruota attorno al proprio asse e
viene detta rotore. È proprio la rotazione del campo magnetico prodotto dal rotore che induce nello
statore la forza elettromotrice alternata, caratterizzata da una frequenza connessa al numero di
coppie di poli magnetici del rotore e alla velocità di rotazione del rotore stesso. Questa tipologia di
conversione di energia è molto efficiente e i rendimenti sono vicini al 100%.
La corrente alternata può poi essere trasformata in corrente continua mediante una dinamo; la
dinamo è una macchina che trasforma lavoro meccanico, ricevuto da una fonte di energia meccanica
o da un motore a corrente alternata, in energia elettrica sotto forma di corrente continua.
La rete elettrica è soprattutto alimentata da alternatori, poiché essi costituiscono il mezzo di
conversione di energia presente nelle principali centrali elettriche.
Normalmente negli impianti domestici si ha una tensione (cioè una forza elettromotrice) di 220 V;
tale valore è una quantità convenzionale (valore efficace della tensione). Il valore efficace di una
tensione alternata è il valore di una tensione continua che, circolando attraverso una resistenza,
fornirebbe la stessa energia ottenuta mediante la tensione alternata. Si dimostra che, in una corrente
alternata, il valore massimo V0 della tensione e il suo valore efficace Veff sono legati dalla
relazione:

per cui negli impianti a 220 V, la tensione tra i due conduttori delle prese elettriche ha un valore
massimo di 310 V.
Le equazioni di Maxwell
Le equazioni di Maxwell sono espresse con un formalismo matematico che utilizza sofisticati
concetti di analisi matematica come le derivate parziali, la divergenza e il rotore di un vettore.
Sono un sistema di equazioni differenziali alle derivate parziali lineari accoppiate (due vettoriali e
due scalari, in totale otto equazioni scalari); con la forza di Lorentz, costituiscono le leggi
fondamentali dell’interazione elettromagnetica.
Le quattro equazioni unificano l’elettricità con il magnetismo perché mostrano come i campi
elettrici dinamici (variabili nel tempo) sono in grado di generare campi magnetici e viceversa.
Maxwell osservò che le equazioni ammettono soluzioni ondulatorie, portando alla scoperta delle
onde elettromagnetiche; in particolare fu spiegata la natura della luce. Introdotti inizialmente come
entità matematiche, i campi elettromagnetici acquistarono una loro propria realtà fisica potendo
esistere indipendentemente dalle sorgenti che li hanno generati.

Fisica moderna
La fisica moderna è l’insieme delle teorie fisiche nate agli inizi del ‘900, necessarie per spiegare
sia il mondo dell’infinitamente piccolo (atomo) sia quello dell’infinitamente grande (universo).
La fisica moderna è l’insieme quindi di varie discipline, come la fisica atomica, la fisica nucleare e
quella subnucleare, la fisica delle particelle, l’astrofisica e la cosmologia. Si noti che le teorie della
fisica classica sono casi limite delle teorie della fisica moderna.
Due sono le teorie alla base della fisica moderna, la meccanica quantistica e la teoria della
relatività. La teoria atomica è stata condivisa anche dalla chimica, materia alla quale rimandiamo
per:
• struttura dell’atomo
• orbitale
• configurazione elettronica – Elettronegatività – Ioni.
Nello studio dell’atomo, chimica e fisica si sovrappongono spesso in quanto la chimica utilizza i
risultati dell’approccio fisico al problema per spiegare ciò che è nella usuale dimensione quotidiana
(per esempio le proprietà dei vari elementi). Si può dire che in chimica la meccanica quantistica ha
importanza soprattutto per lo studio dell’atomo, mentre in fisica si parte dalla radiazione
elettromagnetica.

Il corpo nero
Alla fine del XIX sec. i fisici avevano ben presente che un corpo caldo emette radiazione
elettromagnetica di frequenza dipendente dalla temperatura. Per esempio, a temperatura ambiente i
corpi emettono raggi infrarossi (da qui l’uso di visori all’infrarosso per visualizzare corpi umani nel
buio); aumentando la temperatura, la frequenza della luce emessa arriva al visibile e poi
all’ultravioletto. Per semplificare lo studio del fenomeno si utilizza un corpo nero, cioè un corpo
che assorbe tutta la radiazione ricevuta; sperimentalmente si usa un corpo cavo dotato di un piccolo
foro dal quale entra la radiazione; questa resta intrappolata nella cavità e viene totalmente assorbita,
simulando un corpo nero.
Una cosa che la fisica classica non riusciva a spiegare era la forma della curva dello spettro di
emissione di un corpo nero (spettro dipendente dalla temperatura, ma indipendente dal materiale e
dalla forma).
Studiando la radiazione emessa dal corpo nero, nel 1900 Planck ipotizzò che i corpi irradiassero
energia elettromagnetica tramite molti processi elementari con quantità piccole e finite, valori
multipli interi di un valore fondamentale, detto quanto; gli scambi energetici tra la radiazione
elettromagnetica e la materia avvengono solo per multipli interi di una quantità elementare:
E=hν

dove ν è la frequenza della radiazione e h la costante di Planck, che vale 6,6·10-34 Js.

Effetto fotoelettrico
Qualche anno dopo l’introduzione del quanto da parte di Planck, Einstein spiegò l’effetto
fotoelettrico impiegando l’idea di Planck. L’effetto fotoelettrico consiste nell’emissione di elettroni
da parte di una superficie metallica quando è colpita da radiazione elettromagnetica. Quest’ultima
trasporta energia; quando colpisce la superficie metallica, cede la sua energia alle particelle presenti
nel metallo. Se gli elettroni ricevono una quantità di energia maggiore del lavoro necessario per far
uscire un elettrone dal metallo, allora essi sfuggono alla superficie metallica.
L’intensità della corrente (il numero degli elettroni emessi) dipende dall’intensità della radiazione
luminosa, ma esiste una frequenza minima (frequenza di soglia) al di sotto della quale non c’è
emissione, indipendentemente dall’intensità della luce incidente. Per spiegare la frequenza di soglia,
Einstein propose che la luce viaggiasse sotto forma di quanti di energia (successivamente chiamati
fotoni), energia proporzionale alla frequenza secondo la relazione di Planck. Soltanto quando
l’energia di un singolo fotone è uguale o maggiore all’energia che tiene legato l’elettrone all’atomo
del metallo, questo viene emesso.
Agli inizi del XX sec. la luce tornò quindi a essere considerata come un fascio di particelle (ipotesi
che ricorda la teoria corpuscolare della luce di Newton); in realtà, la natura corpuscolare affiancò
quella ondulatoria con la concezione che, a seconda del tipo di esperimento, la luce rivelasse un
comportamento oppure l’altro.
Circa vent’anni dopo le scoperte di Planck (corpo nero) ed Einstein (effetto fotoelettrico), il fisico
francese de Broglie propose che anche le particelle materiali, come gli elettroni, i protoni e i
neutroni, avessero alcune proprietà caratteristiche delle onde, caratteristiche esprimibili attraverso i
concetti di lunghezza d’onda e frequenza secondo la relazione:
λ=h/p
dove h è la costante di Planck e p è il modulo della quantità di moto.
L’ipotesi di de Broglie fu confermata qualche anno più tardi, quando, facendo passare un fascio di
elettroni attraverso una doppia fenditura e raccogliendo il fascio su una lastra fotografica, si ottenne
una figura del tutto simile a quella di interferenza ottenuta con la radiazione luminosa (frange
alternativamente luminose e buie).
Meccanica quantistica
La meccanica quantistica nasce con la teoria dei quanti di Planck, dalle conferme di Einstein e
dagli studi di de Broglie. Studi successivi hanno dimostrato l’esistenza di altri tipi di quanti, fra cui
il gravitone.
La concezione ondulatoria della materia di de Broglie portò un paio d’anni dopo il fisico austriaco
Schrödinger a formulare l’equazione d’onda per descrivere le proprietà ondulatorie di una
particella. L’equazione di Schrödinger determina l’evoluzione temporale dello stato di un sistema
(una particella, un atomo o una molecola); è un’equazione differenziale alle derivate parziali,
lineare, complessa e non relativistica che ha come incognita la funzione d’onda della particella.
Nell’equazione di Schrödinger compaiono i numeri quantici, cioè parametri il cui valore dipende
da grandezze caratteristiche del sistema, come per esempio l’energia o il momento angolare.
L’equazione per l’atomo di idrogeno diede risultati in sostanziale accordo con quelli di Bohr e
venne risolta con successo anche per l’atomo di elio.
Parallelamente Heisenberg propose un nuovo metodo di analisi basato sul calcolo delle matrici,
fornendo gli stessi risultati, ma permettendo una descrizione più completa di alcuni fenomeni.
Secondo la meccanica quantistica il nucleo è circondato da onde stazionarie, ciascuna
rappresentante un’orbita di un elettrone. Il modulo al quadrato dell’ampiezza dell’onda in ogni
punto e a un certo istante fornisce la probabilità di trovare l’elettrone in quel punto e in
quell’istante.
Grazie alla meccanica quantistica, sono stati risolti moltissimi “enigmi” della fisica dell’inizio del
XX sec.: la struttura dell’atomo, la natura dei legami chimici, la fisica dello stato solido, la
superconduttività, la fisica nucleare e la fisica delle particelle elementari sono esempi dei successi
della meccanica quantistica.
Negli anni ’30 l’applicazione della meccanica quantistica e della relatività speciale alla teoria
dell’elettrone permise al fisico britannico Dirac di formulare un’equazione in cui comparisse anche
la variabile di spin dell’elettrone; l’equazione di Dirac prevedeva su base teorica l’esistenza del
positrone (antiparticella dell’elettrone dotata di carica positiva), poi provata sperimentalmente.

Principio di indeterminazione
A livello macroscopico, i nostri mezzi di indagine non perturbano il sistema perché sono
“enormemente piccoli” rispetto all’osservato. Si supponga un fascio di luce che illumini un’auto in
moto: sarebbe del tutto accademico cercare di studiare la perturbazione del fascio sul mezzo in
movimento. Le cose cambiano se il fascio di luce interagisce con una particella per misurare
posizione e velocità: l’energia del fotone interferirà con lo stato della particella e la cambierà nella
traiettoria e nella velocità.
Comunque sia piccolo lo strumento che usiamo per la misurazione, esso è dotato di energia e, a
livelli quantistici e subatomici, questa piccola quantità di energia costituisce un elemento di
perturbazione che impedisce di trattare le particelle oggetto di studio in modo neutro.
Il principio di indeterminazione di Heisenberg stabilisce che è impossibile misurare
contemporaneamente con esattezza la posizione x e la quantità di moto p di una particella
elementare. Per il prodotto delle due indeterminazioni nelle misure (gli errori che si compiono
nell’effettuare la misura) vale la relazione:
Δx·Δp ≥ h/2π
dove Δx rappresenta l’incertezza nella misura della posizione, Δp l’incertezza nella misura della
quantità di moto e h è la costante di Planck.
Quindi ogni particella non ha posizione e velocità determinate, ma vive uno stato quantico; i fisici
potranno prevedere posizione e velocità di una particella solo statisticamente e non più in modo
deterministico.

Il nucleo atomico
Il nucleo atomico è costituito dalla parte centrale dell’atomo, intorno alla quale ruotano gli elettroni
e rappresenta quasi tutta la sua massa. Le dimensioni del nucleo atomico sono dell’ordine di 10-14
m; esso è costituito da neutroni (in numero di N) e da protoni (in numero di Z, dove Z è il numero
atomico).
Il numero totale di neutroni e protoni contenuto nel nucleo viene detto numero di massa (di solito
indicato con A; A=N+Z). Gli atomi di un determinato elemento chimico hanno tutti lo stesso
numero di protoni, ma il numero dei neutroni può cambiare, dando origine ai vari isotopi
dell’elemento stesso.

La notazione per indicare i vari isotopi stabili del ferro è 54Fe, 55Fe, 56Fe, 57Fe, dove il numero in
apice è il numero di massa; a volte si indica anche il numero atomico (in questo caso, per il ferro, è
26) sotto al numero di massa.
Il rapporto fra N e Z è responsabile della stabilità del nucleo; per un dato elemento determinati
rapporti Z/N sono associati a nuclei instabili che tendono a decadere, cioè ad acquistare o perdere
nucleoni (con tale termine vengono indicati sia i protoni sia i neutroni) in un nucleo stabile. Per Z
bassi il numero di neutroni è all’incirca quello dei protoni, mentre per Z alti il numero dei neutroni
deve essere maggiore, perché, al crescere dei protoni, è necessario tenerli distanziati per evitare che
la forza di repulsione di cariche uguali renda instabile il nucleo.
L’unità di misura della massa dei nucleoni è l’unità di massa atomica (uma), definita come la
dodicesima parte della massa dell’atomo neutro dell’isotopo 12C. Approssimativamente la massa
dei protoni e dei neutroni è unitaria, mentre la massa dell’elettrone vale poco più di 5 decimillesimi
di uma.
Nell’atomo gli elettroni negativi sono attratti dal nucleo positivo; nel nucleo però abbiamo solo
elementi positivi (i protoni) o neutri (neutroni) per cui, in base a sole forze elettriche, i protoni
tenderebbero a respingersi. La forza di coesione del nucleo è quindi di altra natura (non elettrica) ed
è molto forte (interazione forte), anche se ha un raggio d’azione molto limitato (dimensioni del
nucleo). L’energia necessaria per strappare un nucleone dal nucleo è molto maggiore di quella
sufficiente ad allontanare un elettrone dall’atomo; essa è detta energia di legame.
L’alta energia di legame spiega perché le energie liberate nelle reazioni nucleari sono molto
maggiori di quelle tipicamente presenti nelle reazioni chimiche.
L’energia di legame spiega come la somma delle masse dei nucleoni è sempre maggiore della massa
del nucleo; in base all’equazione relativistica per cui E=mc2 (equivalenza massa/energia), la
differenza è l’energia di legame: all’atto della formazione del nucleo una parte della massa dei
nucleoni (la massa mancante) si è trasformata in energia.

La radioattività
La radioattività è la proprietà tipica di alcuni atomi di emettere radiazioni corpuscolari (particelle
a e β; il decadimento a consiste nell’emissione di nuclei di un isotopo dell’elio, formati da due
neutroni e due protoni, mentre il decadimento β consiste nell’emissione di un elettrone o di un
positrone, cioè un elettrone con carica positiva) ed elettromagnetiche (raggi γ).
La scoperta della radioattività avvenne alla fine del XIX sec. e si deve al fisico francese Becquerel;
studiando il fenomeno della fosforescenza, osservò che un composto dell’uranio impressionava una
lastra fotografica; poiché la lastra non era stata esposta alla luce, Becquerel ipotizzò che l’uranio
emettesse delle proprie radiazioni. Furono i successivi studi di Pierre e Marie Curie che portarono
a una maggiore comprensione del fenomeno.
Radioattività deriva proprio dai loro studi; i coniugi Curie studiarono un elemento radioattivo, il
radio appunto, e coniarono il termine radioattivo (attività del radio). Grazie all’irradiamento, il
nucleo di un elemento radioattivo diventa il nucleo di un altro elemento a sua volta radioattivo,
producendo una serie di decadimenti radioattivi fino a ottenere un elemento stabile (in molti casi un
isotopo del piombo). L’insieme degli elementi risultanti dai decadimenti successivi viene detto
famiglia radioattiva. In natura ne esistono tre: dell’uranio, dell’attinio e del torio.
In seguito al decadimento radioattivo, il numero dei nuclei dell’elemento originario diminuisce
progressivamente, secondo una legge esponenziale. Il numero di nuclei presenti al tempo t, N(t), è
dato dalla relazione:

N(t)=N0e–λt

dove N0 è il numero iniziale di nuclei, e è la base dei logaritmi naturali e λ è la costante di


decadimento, tipica del decadimento in esame.
Il tempo di dimezzamento è il tempo occorrente perché una data quantità di sostanza radioattiva si
riduca della metà.
La vita media τ di un nucleo radioattivo è statisticamente il tempo medio che deve trascorrere
prima che il radionuclide decada; essa è l’inverso della costante di decadimento ed è uguale al
rapporto fra il tempo di dimezzamento e il logaritmo naturale di 2.

Fissione e fusione nucleari


La fissione nucleare è un procedimento che consiste nella scissione di un nucleo atomico in due o
più parti, con la relativa liberazione di energia. Può verificarsi solo nei nuclei più pesanti che hanno
una notevole instabilità rispetto al processo, particolarmente nell’uranio e nel plutonio. Nella
fissione dell’uranio la quantità di energia prodotta è molto elevata, così come quella prodotta in
reazioni non controllate e che è alla base della bomba atomica. In caso contrario, ossia controllando
le reazioni, è possibile utilizzare l’energia stessa per scopi pacifici (reattore nucleare).
La fusione nucleare è la reazione nucleare che si verifica nel momento in cui due nuclei leggeri,
molto energetici, collidendo formano un nucleo più pesante, che libera energia e altri prodotti di
reazione. Ha trovato applicazione nella realizzazione delle bombe termonucleari o all’idrogeno.
Una sua controllata utilizzazione consentirebbe, invece, la produzione di quantità illimitate di
energia elettrica, scongiurando il pericolo di possibili fughe radioattive, molto più spesso probabili
con la fissione nucleare; un suo utilizzo, però, risulta essere ancora molto lontano, malgrado gli
incoraggianti risultati ottenuti da scienziati di tutto il mondo.

Particelle elementari
Una particella elementare è un costituente elementare della materia; l’insieme delle particelle
elementari è oggetto di studi e di variazioni continue, che ne rende mutevole la classificazione. Fino
al secolo scorso, si consideravano ancora indivisibili le molecole e gli atomi. Dopo la scoperta
dell’elettrone, avvenuta solo alla fine del XIX sec., il numero delle cosiddette particelle elementari è
continuamente aumentato. All’inizio degli anni ’30 le particelle considerate fondamentali
individuate erano quattro: il neutrone, il protone, l’elettrone e il fotone. Da allora, grazie agli
acceleratori di particelle, il numero di particelle osservate, direttamente o indirettamente, è andato
aumentando (oggi sono circa 200). Agli inizi degli anni ’60 venne proposta l’ipotesi che alcune
particelle, tra cui il neutrone e il protone, fossero a loro volta costituite da altre particelle (i quark),
difficilissime da osservare. I quark sono le particelle che costituiscono gli adroni (cioè le particelle
elementari che possono causare un’interazione forte, per esempio i protoni). I quark non sono mai
stati identificati liberi e si ritiene che siano trattenuti all’interno degli adroni da forze che non
decrescono con la distanza. Grazie agli acceleratori di particelle si sono scoperti sei quark; per ogni
quark esiste un antiquark con carica elettrica opposta (e con un’altra proprietà opposta, la cosiddetta
stranezza). Infine, ci si è resi conto che ogni quark può esistere in tre stati diversi.
Le particelle elementari sono raggruppate in famiglie.
La prima famiglia riunisce le particelle che trasportano le forze fondamentali (il fotone che
trasporta la forza elettromagnetica, il gluone che trasporta la forza nucleare forte, i bosoni intermedi
che trasportano la forza nucleare debole e il gravitone che trasporta la forza gravitazionale).
La seconda famiglia è quella dei leptoni (l’elettrone, il neutrino, il muone e la particella tau). I
leptoni interagiscono attraverso la forza debole e attraverso quella elettromagnetica, hanno masse
relativamente piccole o quasi nulle (come i neutrini) e sono particelle fondamentali, cioè non
ulteriormente divisibili.
La terza famiglia è quella degli adroni. Gli adroni interagiscono attraverso l’interazione nucleare
forte e sono suddivisi in mesoni (pioni, kaoni e particelle eta) e barioni (nucleoni, particelle
lambda, sigma e xi). Come detto, gli adroni sono a loro volta costituiti da quark e non sono quindi
particelle fondamentali.
La relatività ristretta
Prima di Einstein, coerentemente con il pensiero di Galileo e di Newton, lo spazio e il tempo erano
considerati grandezze assolute.
Se siamo a bordo di un’automobile e un’altra auto ci affianca alla nostra stessa velocità, questa
macchina ci sembrerà ferma, anche se noi sappiamo che sta viaggiando a x km/h, la nostra velocità.
Per determinare la velocità di un corpo dobbiamo scegliere un punto di riferimento e una terna di
assi orientati nelle tre direzioni spaziali (se misuriamo la velocità in una sola direzione ovviamente
basta un asse) che partono dal punto rispetto al quale vogliamo misurare la velocità. Abbiamo poi
bisogno di un’origine dei tempi rispetto a cui misurare gli intervalli di tempo.
Se siamo a bordo di un veicolo che si muove a velocità costante, non riusciamo a capire se il
veicolo si muove o no se non riusciamo a rapportarci con qualcosa che è al di fuori del veicolo (per
esempio, se vediamo che il paesaggio si allontana, capiamo che ci stiamo muovendo).
Se vogliamo misurare la velocità di una palla che si muove sul nostro veicolo, anch’essa a velocità
costante, otterremo un certo risultato v1; un osservatore a terra in realtà vedrebbe la palla spostarsi
nel suo riferimento a una velocità che è la somma di v1 e v2, dove v2 è la velocità del veicolo.

Il nostro veicolo è un sistema inerziale, cioè un sistema in cui un corpo in quiete o in moto
rettilineo uniforme permane nella sua condizione fino a quando non interviene una forza che ne
modifica lo stato; per un tale sistema di riferimento vale quindi il principio di inerzia (se la
risultante delle forze esterne applicate a un corpo è nulla, esso è fermo oppure si muove di moto
rettilineo uniforme); un sistema rotante per esempio non è un sistema inerziale.
Nella meccanica classica, nei sistemi inerziali valgono le trasformazioni di Galileo che descrivono
come si trasformano le coordinate spaziali di un corpo quando si passa da un riferimento inerziale a
un altro (quelle che permettono di passare dalle coordinate della palla misurata sul veicolo a quelle
misurate da un osservatore a terra).
Alla fine del XIX sec. un celebre esperimento di Michelson e Morley mise in crisi la fisica
classica distruggendo il preesistente concetto di etere (un mezzo che consentiva la propagazione
delle onde nello spazio) e mostrando che la velocità della luce era costante.
Einstein superò le difficoltà collegate alla teoria dell’etere nella sua teoria della relatività ristretta:
• le leggi della fisica non cambiano quando si passa da un riferimento inerziale a un altro;
• la velocità della luce nel vuoto (c), è la stessa per qualsiasi osservatore, fermo o in
movimento, è indipendente dalla velocità della sorgente ed è la massima velocità
raggiungibile.
All’inizio del XX sec. Einstein sostituì alle trasformazioni di Galileo quelle di Lorentz; in esse
compare la radice quadrata di (1-v2/c2). Quando la velocità v del corpo è molto lontana da c, la
radice quadrata è uguale a 1 e, praticamente, valgono le trasformazioni di Galileo, ma quando è
prossima a c, il valore della radice aumenta e si avvicina addirittura a zero: il tempo si dilata e lo
spazio si contrae, perdendo la caratteristica di grandezze assolute.
Come conseguenza diretta delle precedenti riflessioni, la relatività ristretta introdusse il concetto di
spaziotempo, stabilendo un’equivalenza fra lo spazio e il tempo. Nella visione classica dello spazio
le sue tre dimensioni componenti sono equivalenti e omogenee fra loro e relative all’osservatore (un
osservatore può considerare qualcosa avanti o dietro mentre un altro, disposto diversamente, può
considerarlo destra o sinistra); nella visione relativistica la dimensione temporale (prima-dopo) è
assimilata alle tre dimensioni spaziali e viene percepita in modo diverso da osservatori in condizioni
differenti.
Gli eventi sono i punti dello spaziotempo e ciascuno di essi corrisponde a un fenomeno che si
verifica in una certa posizione spaziale e in un certo momento. Ogni evento è perciò individuato da
quattro coordinate, tre spaziali e una temporale.
Nell’articolo con cui Einstein introdusse la relatività ristretta viene esaminata non solo la relazione
fra spazio e tempo, ma anche quella fra massa ed energia, unificando anch’esse nella nota formula
E=mc2.
L’equazione non afferma che energia e massa sono uguali, ma che la massa può essere convertita in
energia, o viceversa, attraverso un fattore moltiplicativo che è la velocità della luce al quadrato. Per
esempio, se un corpo emette un’energia E sotto forma di radiazione, la sua massa m diminuisce di
una quantità E/c2.
Tale formula ha una grande importanza nelle reazioni nucleari e nei decadimenti radioattivi. Poiché
la velocità della luce al quadrato vale 9×1016, una piccolissima quantità di massa può trasformarsi
in una grandissima quantità d’energia; ciò permette a una stella di brillare per miliardi di anni
trasformando, attraverso le reazioni nucleari, una piccolissima parte della sua massa in un’enorme
quantità di energia.

La relatività generale
Dopo la formulazione della relatività ristretta Einstein considerò i sistemi localmente inerziali,
dove cioè il principio di inerzia vale solo all’interno del sistema stesso. Tutti sappiamo, per
esempio, che se si lascia cadere una pallina all’interno di una navicella spaziale questa non cade, ma
galleggia, anche se la navicella sta cadendo sulla Terra: per un osservatore in caduta libera la gravità
scompare. All’interno della navicella continua a valere il principio d’inerzia, per questo si dice
“localmente” inerziale.
Einstein dedusse le equazioni che stanno alla base della relatività generale a partire dal principio di
equivalenza: in un riferimento localmente inerziale le leggi della fisica devono avere la stessa
forma che hanno nella teoria della relatività ristretta, cioè in assenza di gravità.
Se dalla navicella stiamo cadendo sulla Terra e lasciamo due palline libere di fluttuare, esse stanno
ferme, ma poiché la gravità aumenta all’avvicinarsi del suolo, esse incominceranno ad avvicinarsi
in direzione orizzontale. Generalizzando, in presenza di gravità, traiettorie che in assenza sarebbero
rettilinee diventano curve e la loro distanza varia nel tempo a seconda del campo gravitazionale che
le contiene: la gravità curva lo spaziotempo.
Le conseguenze della relatività generale sono evidenti in campo astronomico. Poiché sappiamo che
massa ed energia sono equivalenti e legate dalla nota formula, quando un raggio di luce passa
vicino a una stella, viene deviato perché la luce è attratta dalla stella così come lo sarebbe una
massa. Così si spiega per esempio lo spostamento verso il rosso (redshift) dello spettro della luce
emessa da galassie, quasar o supernovae lontane; cioè spostato verso frequenze minori, se
confrontato con lo spettro dei corrispondenti più vicini: l’interpretazione attuale della cosmologia
contempla anche considerazioni di relatività generale e spiega il fenomeno con il fatto che le
sorgenti in campi gravitazionali molto intensi sono in allontanamento le une dalle altre (espansione
dell’universo).
Se si definisce la gravità come la curvatura dello spaziotempo provocata da una certa massa,
maggiore è la massa e maggiore è la curvatura. Se poi la massa è troppo grande, si ha un buco nero,
una regione dello spaziotempo con un campo gravitazionale così forte e intenso che nulla al suo
interno può sfuggire all’esterno, nemmeno la luce.