Sei sulla pagina 1di 22

Fluidi

Sono fluidi sia gas che liquidi. Questa tipologia di sostanze sono caratterizzate da una completa
deformabilità infatti, a causa delle deboli forze di coesione tra le molecole che le compongono,
non hanno forma propria e assumono quella del recipiente in cui sono contenute. Come nei
solidi anche dei fluidi è possibile studiare la statica e la dinamica ma è opportuno prima definire
alcune grandezze quali la pressione e la densità. La densità indica la distribuzione della massa
nel volume e si esprime con il rapporto: d=m/V; nel sistema internazionale viene espressa in kg/
m^3. I valori della densità possono variare in base a pressione e temperatura. Nel caso dei
fluidi, poiché la massa non è così facilmente definibile, si è soliti esprimere la massa in funzione
della densità e del volume del fluido in esame. Anche la pressione è uno scalare, si misura in
Pascal ed è definita come il rapporto tra la componente normale di una forza agente su una
superficie di fluido e l’area della superficie stessa. P=Fn/S. La pressione corrisponde alla sforzo
normale impresso sul fluido; se consideriamo la componente tangenziale della forza invece
avremo lo sforzo di taglio. Dire che un fluido è in quiete significa affermare che tutte le forze che
agiscono sugli elementi del fluido sono presenti al massimo forze perpendicolari alla superficie.
Come per i solidi, anche per i fluidi è possibile studiarne la dinamica e la statica: idrostatica e
fluidodinamica.

Fluidi ideali e fluidodinamica


Mentre in idrostatica, oltre all’incomprimibilità, non è necessario specificare tutte le
caratteristiche del fluido in esame, in fluidodinamica è fortemente necessario differenziare il
comportamento dei fluidi reali da quelli ideali. Possiamo definire ideale un fluido che presenta le
seguenti caratteristiche: è incomprimibile, cioè il suo volume è costante; è privo di viscosità,
cioè non presenta attriti interni;
il suo moto presenta regime laminare, i vari stati del fluido scorrono l’uno sull’altro in modo
regolare e ordinato; il suo moto ha carattere stazionario, cioè le caratteristiche cinetiche
(portata, velocità e pressione) del fluido sono costanti nel tempo ma non nello spazio; inoltre,
solitamente si considera che in fluido ideale fluisca in un condotto rigido (che se sottoposto a
forze non cambia forma).
Parlano di dinamica di fluidi ideali, è necessario introdurre una nuova grandezza fisica, la
portata, che esprime il volume di fluido che attraversa una sezione del condotto in cui scorre in
un certo intervallo di tempo. Q=V/Δt. L’unità di misura utilizzata nel sistema internazionale è
m^3/s ma nella vita di tutti i giorni, e in ambito medico, per comodità si è soliti usare L/min.
Infatti la portata del sangue è di circa 5 litri al minuto. Basata sul concetto di portata costante vi
è l’equazione di continuità secondo la quale la velocità di un fluido ideale che scorre in condotto
rigido varia in modo inversamente proporzionale alla sezione del condotto nei vai punti. È
possibile esprimere la portata anche come il prodotto della sezione del condotto per la velocità
del fluido: V/Δt = S Δx/Δt = S v Δt/Δt = S v = costante (ricordiamo che è costante poiché si parla
di un fluido ideale e moto stazionario).
Esaminando dunque due sezioni del condotto possiamo dire che Q1=Q2 e S1v1=S2v2. Se la
sezione S2 è la metà di S1, allora la velocità v2 è doppia rispetto a v1.
L’equazione di Bernoulli è la relazione fondamentale della fluidodinamica poichè lega tra loro la
velocità di scorrimento, la pressione e la densità di un fluido che scorre in un tubo con sezioni e
altezze variabili, individuando una costante nel moto dei fluidi ideali. Deriva direttamente dal
principio di conservazione dell'energia e si dimostra applicando il teorema dell'energia
meccanica tra due punti diversi del condotto. Il movimento del fluido all’interno del condotto è
possibile grazie al lavoro svolto dalle forze di pressione idraulica, idrostatica e cinetica. La
pressione idrostatica è uguale al prodotto tra la sua densità per l'accelerazione di gravità e per
la quota: ρ∙g∙h. La componente cinetica della pressione è pari ala metà del prodotto della
densità del fluido per la velocità al quadrato ½ ∙ρ∙v^2.
P + ρ ∙ g ∙ h + ½ ∙ ρ ∙ v2 = costante
Idrostatica
La legge di Stevino è la prima vera legge dell’idrostatica. Esprime il valore della pressione
esercitata da un fluido su un corpo immerso al suo interno, in funzione della profondità a cui è
situato il corpo e in relazione all'accelerazione di gravità e dalla densità del fluido. p(h)= dgh. È
importante sottolineare due cose: h è la profondità e non l’altezza quindi dovremmo considerare
un sistema di riferimento in cui la quota zero coincide con la superficie dell’acqua; questa legge
vale solamente per i fluidi incomprimibili, cioè i liquidi. Dato un fluido incomprimibile in un
recipiente aperto e un corpo immerso al suo interno, è necessario considerare anche la
pressione esercitata sul corpo dall’atmosfera per cui p(h)= p0 +dgh. Il valore p0 corrisponde alla
pressione esercitata dalla colonna d’aria, al livello del mare coincide con la pressione atm.
Una conseguenza della legge di Stevino è il comportamento dei liquidi all’interno dei vasi
comunicanti. Prendiamo più contenitori di diversa forma e altezza e mettiamoli in comunicazione
nel fondo. Se versiamo un liquido in uno qualunque dei contenitori esso inizierà a riempire non
solo il contenitore nel quale lo stiamo versando ma anche gli altri. Si crea una situazione di
equilibrio tale per cui il liquido ha raggiunto la medesima altezza in tutti i contenitori
indipendentemente dalla loro forma.
Il principio di Pascal non è una vera e propria legge dell’idrostatica ma ci descrive una
conseguenza delle condizioni di equilibrio dei fluidi. In accordo con la legge possiamo dire che
se si applica una pressione aggiuntiva in un punto della superficie limite di un fluido chiuso,
questa si trasmette inalterata in tutti i punti del fluido e della superficie limite. Proprio su questo
principio è basato il funzionamento della pressa/leva idraulica. Questo macchinario permette di
vincere una forza (resistente) abbastanza grande applicandone una motrice minore. Tale
dispositivo è costituito da due contenitori cilindrici comunicanti tra loro e muniti di stantuffi. Le
sezioni dei due stantuffi presentano dimensione molto diverse (A1<A2) e all’interno dei
contenitori è posto un fluido incomprimibile. Quando si applica una forza sullo stantuffo, il fluido
riceve una pressione pari al rapporto della forza sulla superficie. p=F/S. In accordo con il
principio di Pascal, questa pressione si trasmette inalterata su tutto il volume del fluido e, di
conseguenza, anche sull’altro stantuffo per cui possiamo scrivere l’uguaglianza p=F1/A1=F2/A2.
Poiché A2>A1, il rapporto A2/A1>1 e di conseguenza F2>F1. Dunque possiamo dire che la leva
idraulica è vantaggiosa. Una stessa distribuzione uniforme della pressione è osservabile quando
si effettua la manovra di Heimlich: si applica una pressione all’altezza dello stomaco in modo
che questa possa trasmettersi lungo tutte le vie aeree e far fuoriuscire il corpo estraneo
bloccato nella trachea.
La seconda legge dell’idrostatica è il principio di Archimede che ci descrive il comportamento di
un corpo immerso in un fluido. Questo principio stabilisce che un corpo immerso in un fluido
subisce una spinta dal basso verso l'alto pari al peso del liquido spostato, dove la spinta
esercitata dal fluido è una forza detta spinta di Archimede (o spinta idrostatica). Fp=S=mg (m è
la massa del liquido spostato). Ricordando la definizione di densità come rapporto tra massa e
volume, possiamo scrivere la massa del liquido spostato in funzione della sua densità ρ per il
volume spostato: m = ρ ∙ V. Il volume di liquido spostato coincide proprio col volume del corpo
immerso per cui la spinta di Archimede in definitiva è pari a: S = ρ ∙ V ∙ g. (ρ densità fluido; V
volume del corpo immerso; g accelerazione di gravità). Per un corpo immerso in un fluido si
possono presentare tre casi in relazione ai valori delle densità del fluido e del corpo immerso in
esso. Se la densità del fluido è maggior della densità del corpo, la spinta di Archimede prevale
sulla forza peso e il corpo galleggia. Se le due densità sono identiche, il corpo è totalmente
immerso e sospeso in equilibrio nel fluido. Se la densità del fluido è inferiore a quella del corpo,
la spinta di Archimede non riesce a contrastare la forza peso e il corpo cade sul fondo. In
equilibrio ρfuido ∙ Vfluidospostato ∙ g= ρcorpo ∙ Vimm ∙ g. Il ghiaccio che galleggia sull’acqua è
un fenomeno naturale a tutti noto. Si tratta di un comportamento esclusivo dell’acqua, dovuto
alle sue proprietà in quanto la densità del ghiaccio a 0 °C è minore di quella dell’acqua liquida
che a 4°C raggiunge la sua densità massima di 1000 kg/m³. Il galleggiamento del ghiaccio
sull’acqua è fondamentale per la sopravvivenza degli ecosistemi acquatici. Il ghiaccio, infatti,
rimanendo in superficie impedisce il progressivo congelamento dell’intero corpo d’acqua e
funge da strato isolante che protegge gli organismi presenti nelle profondità marine.
Fluidi ideali e fluidodinamica
Mentre in idrostatica, oltre all’incomprimibilità, non è necessario specificare tutte le
caratteristiche del fluido in esame, in fluidodinamica è fortemente necessario distinguere i fluidi
reali da quelli ideali. Possiamo definire ideale un fluido che presenta le seguenti caratteristiche: è
incomprimibile, cioè il suo volume è costante; è privo di viscosità, cioè non presenta attriti
interni; il suo moto presenta regime laminare, i vari stati del fluido scorrono l’uno sull’altro in
modo regolare e ordinato; il suo moto ha carattere stazionario, cioè le caratteristiche cinetiche
(portata, velocità e pressione) del fluido sono costanti nel tempo ma non nello spazio; inoltre,
solitamente si considera che in fluido ideale fluisca in un condotto rigido (che se sottoposto a
forze non cambia forma).
Parlano di dinamica di fluidi ideali, è necessario introdurre una nuova grandezza fisica, la
portata, che esprime il volume di fluido che attraversa una sezione del condotto in cui scorre in
un certo intervallo di tempo. Q=V/Δt. L’unità di misura utilizzata nel sistema internazionale è
m^3/s ma nella vita di tutti i giorni, e in ambito medico, per comodità si è soliti usare L/min.
La portata del sangue è di circa 5 litri al minuto. Basata sul concetto di portata costante vi è
l’equazione di continuità secondo la quale la velocità di un fluido ideale che scorre in condotto
rigido varia in modo inversamente proporzionale alla sezione del condotto nei vai punti.
Q= V/Δt = S Δx/Δt = S v Δt/Δt = S v = costante (ricordiamo che è costante poiché si parla di un
fluido ideale e moto stazionario). Esaminando dunque due sezioni del condotto possiamo dire
che Q1=Q2 e S1v1=S2v2. Se la sezione S2 è la metà di S1, allora la velocità v2 è il doppio di v1.
L’equazione di Bernoulli è la relazione fondamentale della fluidodinamica poichè lega tra loro la
velocità di scorrimento, la pressione e la densità di un fluido che scorre in un tubo con sezioni e
altezze variabili, individuando una costante nel moto dei fluidi ideali. Deriva dal principio di
conservazione dell'energia e si dimostra applicando il teorema dell'energia meccanica tra due
punti diversi del condotto. Il movimento del fluido all’interno del condotto è possibile grazie al
lavoro svolto dalle forze di pressione idraulica, idrostatica e cinetica. La pressione idrostatica è
uguale al prodotto tra la sua densità per l'accelerazione di gravità e per la quota: ρ∙g∙h. La
componente cinetica della pressione è pari ala metà del prodotto della densità del fluido per la
velocità al quadrato ½ ∙ρ∙v^2. P + ρ ∙ g ∙ h + ½ ∙ ρ ∙ v2 = costante

Fluidi reali
Un fluido, le cui caratteristiche non rispettano quelle ideali, è definito reale. Per questa tipologia
di fluidi è necessario introdurre il concetto di viscosità. La viscosità di un fluido è una grandezza
che misura la propensione del fluido a generare attrito interno tra i propri strati in movimento; è
una caratteristica che dipende dal tipo di fluido e che riguarda esclusivamente i fluidi reali. È
possibile esprimere la forza di attrito viscoso mediante una formula che è stata ricavata
sperimentalmente: F = -η A v / δ. η è il coefficiente di viscosità, si misura in Poise ( g/s cm opp.
Pa s), e diminuisce al crescere della temperatura. A è l’area delle lamine di fluido prese in
considerazione. Il vettore v indica la velocità relativa tra le due lamine (v=v1-v2). δ è la distanza
tra le lamine. A descrivere il moto laminare di un fluido reale vi è la legge di Poiseuille che fu
dedotta sperimentalmente del medico fisiologo omonimo. Un fluido ideale può attraversare un
condotto orizzontale (con portata costante) senza che ci sia tra gli estremi del condotto una
differenza di pressione. Questo però non accade nel caso di fluidi reali nei quali occorre
applicare una differenza di pressione ai capi del condotto affinché il fluido in movimento abbia
una portata costante. Q = TT r^4 Δp / ( 8 η l ). Introduciamo una nuova grandezza: la resistenza
idraulica R. R dipende dal raggio, dalla lunghezza del tubo e dalla viscosità del fluido. Dunque la
legge può essere espressa anche dal seguente rapporto: Q= Δp/R. La legge di Poiseuille è
valida fino ad un certo valore critico della velocità del fluido entro il quale il moto viene detto
silenzioso, il regime è laminare e la velocità ha un andamento parabolico (le zone centrali si
muovono con velocità maggiore rispetto a quelle a contatto con il condotto). Superata la
velocità critica, la velocità non ha più un profilo regolare, il moto è rumoroso, il regime è
turbolento. La portata non è più proporzionale alla differenza di pressione ma alla radice di
quest’ultima. Il numero di Reynolds ci permette di determinare se il moto è laminare o
turbolento. R = v d r / η. Se R > 1000, il moto è turbolento; se R<1000 è laminare.
Le leggi dell’idrostatica e della fluidodinamica permettono di comprendere i principi fisici che
sono alla basa del funzionamento del sistema cardiovascolare anche se le caratteristiche
particolari di questo sistema non permettono una descrizione quantitativa precisa. Ciò che non
lo rende un sistema ideale sono i condotti elastici e non rigidi, lo scambio di sostanze in
corrispondenza dei capillari, il ritmo variabile del cuore, la viscosità del sangue. A causa degli
attriti viscosi il cuore deve compiere un lavoro che contrasti queste forze per poter mantenere in
circolo il sangue. La pressione del sangue varia da punto a punto del circolo sanguigno non
secondo la legge di Bernoulli ma in accordo con la formula di Poiseuille. Questa pressione varia
da un valore massimo durante la sistole a un valore minimo durante la diastole. E’ legata al fatto
che, essendo le arterie elastiche, durante la sistole l’aorta si gonfia, la velocità del sangue è
minore e la pressione elevata; durante la diastole l’aorta si rilascia, il sangue fluisce con velocità
maggiore e la pressione diminuisce. Per quanto riguarda gli scambi a livello capillare, questi
sono possibili in quanto la velocità del sangue in questi punti è quasi approssimabile allo 0.
Infatti se si considera una portata sanguigna costante (circa 5l/min) e si calcola la sezione
complessiva di tutti i capillari, si può notare che questa sezione è centinaia di volte maggiore
rispetto a quella dell’aorta dove la velocità del sangue è massima.
Anomalie: Con il termine aneurisma viene indicata una dilatazione anomala della parete di un
vaso sanguigno, solitamente di un’arteria. Per la legge di Bernoulli, se in un condotto c’è un
allargamento, la velocità del fluido che vi scorre diminuisce e la pressione aumenta. Pertanto un
aneurisma è un processo irreversibile sempre destinato a peggiorare, se non curato
tempestivamente, perché quanto più il segmento vascolare si allarga, tanto più aumenta la
pressione del sangue che, premendo le pareti del vaso verso l’esterno, ne incrementa
ulteriormente la dilatazione, peggiorando la situazione che può degenerare in una rottura con
conseguente emorragia. Accede esattamente l’opposto in caso di stenosi dove, in prossimità
del restringimento di un vaso sanguigno, il prevalere della pressione esterna tende a stringere
ulteriormente il vaso fino alla totale chiusura.
Tensione superficiale e alveoli
La tensione superficiale è un importante parametro fisico che esprime la tendenza dei fluidi reali
a minimizzare la superficie libera. Per spiegare questo fenomeno dobbiamo rifarci alle forze di
coesione cioè a quelle forze che si instaurano all’interno di un fluido e permettono di tenere
vicine le proprie molecole. Ogni sostanza ha una forza di coesione caratteristica: quelle dei
solidi sono fortissime mentre quelle dei liquidi sono più forti di quelle dei gas. Consideriamo
dell’acqua contenuta in un recipiente e prendiamo in esame le forze agenti sulle sue molecole:
la risultante delle forze di coesione che agiscono su una molecola di acqua interna è nulla
mentre tale risultante è diretta verso l’interno per una molecola a contatto con l’aria e quindi
sulla superficie libera. Quest’ultima può essere considerata come una membrana tesa poiché
contratta da forze che agiscono tangenzialmente alla superficie e perpendicolarmente al
contorno. Tutto ciò ci permette di giustificare la forma tondeggiante delle gocce d’acqua e la
capacità di alcuni insetti di muoversi sull’acqua. In ambito fisico la tensione superficiale è stata
quantificata grazie all’introduzione di un coefficiente che esplica la proporzionalità diretta
osservata sperimentalmente tra le forze di tensione superficiale e la lunghezza del contorno del
fluido. 𝜏=F/l. (N/m) Tuttavia può essere espressa anche con L/S e quindi essere definita come il
lavoro necessario per aumentare la superficie elastica di un fluido. Il valore della tensione
superficiale dipende oltre che dal tipo di liquido, dal gas con cui è a contatto la superficie libera
e anche dalla temperatura. Consideriamo una bolla con tensione superficiale tau e supponiamo
di volerla dilatare, avremo bisogno di applicare un lavoro contro tensione superficiale affinché la
pressione interna risulti maggiore di quella esterna. Per una membrana sferica di liquido la
Δpressione, secondo la legge di Laplace, è uguale a 2tau/r. Come conseguenza della Legge di
Laplace abbiamo che due bolle di dimensioni diverse collegate tra di loro sono un sistema
instabile che tende a far collassare la bolla di dimensioni più piccole in cui c’è una pressione
maggiore. La stessa cosa accadrebbe in fase di espirazione nel caso di due alveoli polmonari
connessi alle stesse vie aeree: in il più piccolo tenderebbe a collassare. In realtà sulle superfici
degli alveoli è presente un liquido tensioattivo, il surfattante, che permette di modificare la
tensione superficiale di membrana compensando la differenza di pressione.
Moti ondulatori
Un’onda è un fenomeno fisico periodico dovuto alla propagazione nello spazio di un’oscillazione
che trasposta energia e non materia. È possibile suddividere i fenomeni ondulatori in 3 grandi
famiglie in base alla tipologia di onda che li caratterizza: onde meccaniche, onde
elettromagnetiche e onde di “materia”. Un’ulteriore classificazione è possibile farla tenendo
conto delle direzioni di vibrazione e di propagazione dell’onda. Nel caso di onde trasversali
queste due direzioni sono perpendicolari tra di loro, per le onde longitudinali le due direzioni,
invece, sono parallele. La differenza più importante tra le onde meccaniche e quelle
elettromagnetiche sta nella loro capacità di propagarsi nel vuoto. Le prime, come tutte le onde
longitudinali, per potersi propagare nello spazio necessitano per forza di un mezzo abbastanza
denso infatti in una stanza senza aria non si riesce a propagare quindi percepire alcun suono.
Questa stessa cosa non accade per le onde trasversali, quali quelle elettromagnetiche, infatti la
luce del sole riesce a giungerci pur attraversando il vuoto.
Un’onda può essere descritta mediante un’equazione i cui parametri tengono conto della
periodicità di questo fenomeno. y(x,t)= A sen (kx-ωt+Φ)
L’ampiezza dell'onda (A), rappresenta la variazione massima della grandezza oscillante. Onde
con ampiezza maggiore trasportano maggiori quantità di energia: per produrre un'onda con
un'ampiezza maggiore occorre compiere più lavoro. Più precisamente possiamo dire che
l’energia trasportata da un’onda è proporzionale al quadrato della sua ampiezza.
Il numero d’onda (k) descrive le proprietà spaziali dell’onda, il valore è fari al rapporto 2TT/ƛ.
La lunghezza d'onda (ƛ), è la distanza minima (misurata in metri) fra due creste o anche la
distanza percorsa in un periodo.
Il periodo (T) è l'intervallo di tempo (misurato in secondi) in cui avviene un'oscillazione completa,
ovvero l'intervallo di tempo impiegato dall'onda per ritornare nella medesima posizione.
La frequenza (f) indica il numero di oscillazioni in un secondo compiute dall’onda, si misura in
Hertz (1Hz=1/s) ed è l’inverso del periodo.
La velocità di propagazione di un’onda (v) è costante per cui possiamo esprimerla utilizzando le
proporzionalità del moto rettilineo uniforme. v= ƛ/T. Dunque lunghezza d’onda e periodo sono
direttamente proporzionali mente lunghezza donna e frequenza lo sono inversamente. La
velocità di propagazione dipende dal mezzo materiale nel quale l'onda si propaga. (Le onde
luminose, e in genere le onde elettromagnetiche, che non necessitano di un mezzo materiale per
propagarsi, viaggiano nel vuoto con velocità di propagazione altissima pari alla velocità della
luca c=3 10^8m/s).
La pulsazione (ω) descrive le proprietà temporali dell’onda ed ha un valore pari a 2TT/T.
L’intensità dell’onda (I) è l’energia trasportata dall’onda nell’unità di tempo attraverso l’unità di
superficie. I=E/(Δt S) e si misura in Watt/m^2.

Suono, ultrasuoni
Il suono è un’onda meccanica longitudinale. All'origine del suono c'è un corpo vibrante le cui
rapide vibrazioni si trasmettono nel mezzo che lo circonda. Il meccanismo con cui il suono arriva
all’orecchio consiste in una successione di compressioni e di espansioni delle molecole d’aria
tali per cui il suono può essere considerata un’onda di pressione. Δp=Δp0 sen(ωt+Φ).
Le caratteristiche del suono vengono descritte dai parametri fisici in questo modo: l’altezza del
suono è data dalla frequenza d’onda, il timbro è dato dalla composizione armonica della
funzione d’onda e l’intensità è direttamente proporzionale all’energie e inversamente
proporzionale a superficie e tempo. I=E/(S t). In accordo con la legge di Weber i nostri sensi
rispondo agli stimoli sonori in maniera non lineare perciò si è soliti utilizzare, anche per questioni
di comodità numerica, la scala logaritmica dei decibel per esprimere l’intensità sonora rispetto
all’intensità minima da noi percepibile. I0= 10^-12 W/m2. 1dB=10 log I/I0.
In base all’elasticità del timpano, l’orecchio umano riesce a percepire suoni compresi tra 20 e
20000Hz. I suoni con frequenza superiore a 20000Hz sono definiti ultrasuoni e hanno diverse
applicazioni in ambito medico biologico: ecografia, ecodoppler, litotrizione (frantumazione di
calcoli mediante ultrasuoni), sonificazione (in laboratorio il corpo di fondo di una soluzione viene
riportato in soluzione mediante ultrasuoni).
Ecografia e ecodoppler
L’ecografia è una tecnica di diagnostica per immagini che, contrariamente ai metodi come le
radiografie, non fa uso di radiazioni ionizzanti, bensì crea un’immagine dell’interno del corpo
usando onde sonore di alta frequenza. Gli ultrasuoni utilizzati nella diagnostica medica hanno
frequenze da uno a venti megahertz (cioè milioni di hertz).
Per effettuare un’ecografia, il medico utilizza una sonda dalle dimensioni ridotte, detta
trasduttore, che viene appoggiata sulla pelle in corrispondenza dell’area da esaminare. Questo
apparecchio funge sia da trasmittente sia da ricevente poiché, oltre ad emettere gli impulsi ad
alta frequenza, è in grado anche di captare gli impulsi riflessi dall’organo esaminato. La
riflessione (parziale) delle onde avviene ogni volta che le onde sonore incontrano una superficie
di separazione, chiamata anche interfaccia, tra diversi tipi di tessuto. Per garantire una miglior
propagazione delle onde meccaniche, prima dell’esame viene spalmato sulla cute un gel denso
a base acquosa in modo da “sigillare” lo spazio tra il trasduttore e la pelle. Ogni sonda contiene
numerosi cristalli piezoelettrici, ossia materiali ceramici che vibrano in risposta al passaggio di
elettricità, producendo le onde sonore; viceversa, quando la sonda capta le onde riflesse
dall’area esaminata. I cristalli convertono la pressione delle onde in corrente, quest’ultima forma
un segnale che viene trasformato in immagine dal sonografo. Il parametro a cui si fa riferimento
quando viene prodotta immagine digitale è l’impedenza acustica cioè un indicatore della
difficoltà che gli ultrasuoni hanno nell’attraversare un tessuto. L’impedenza acustica può essere
espressa quantitativamente come il prodotto della densità del messo per la velocità di
propagazione del suono in quello stesso mezzo. L’energia del fascio di ultrasuoni riflesso è
direttamente proporzionale alla variazione di impedenza acustica tra le due superfici. La miglior
propagazione degli ultrasuoni si ha nei liquidi mentre si ha una riflessione minima in
corrispondenza di un’interfaccia tra tessuti con un’impedenza acustica simile.

Con l’ecografia è possibile anche monitorare il flusso nei vasi sanguigni, tramite una modalità di
analisi detta eco-doppler. Il principio fisico alla base è l’effetto Doppler, per cui, quando
ricevitore e sorgente si trovano in movimento l’uno rispetto all’altro, le onde sonore percepite
hanno una frequenza diversa rispetto a quella dei suoni emessi. In particolare, se l’onda recepita
ha una frequenza superiore rispetto a quella emessa, ricevitore e sorgente si stanno
avvicinando, mentre se, viceversa, si stanno allontanando, la frequenza risulterà inferiore.

La relazione tra le due frequenze è la seguente:


(in caso di avvicinamento usiamo + al numeratore e - al denominatore, viceversa in caso di
allontanamento)
L’eco-doppler è molto utilizzata nell’analisi del flusso venoso e può fornire informazioni che
riguardano la velocità e la resistenza allo scorrimento del sangue, consentendo di mettere in
evidenza restringimenti (stenosi) dei vasi, rallentamenti o inversioni della regolare direzione del
flusso sanguigno.
Queste informazioni possono essere visualizzate colorando in modo diverso nell’immagine le
parti di flusso in avvicinamento e quelle in allontanamento (tipicamente di rosso le prime e di blu
le seconde), e si parlerà in questo caso di ecocolordoppler. Tale tecnica non consente di
visualizzare molto bene i vasi più piccoli, più profondi o con un flusso molto lento, per i quali si
preferisce usare il cosiddetto power Doppler, che misura l’energia delle onde riflesse e ha
maggior sensibilità (anche se non consente di individuare la direzione del flusso).
Onde elettromagnetiche
Le onde elettromagnetiche sono fenomeni ondulatori generati dall’interazione tra campo
magnetico ed elettrico, dunque sono legate al movimento (accelerazione e decelerazione) di
cariche elettriche. La loro esistenza fu anticipata dal punto di vista teorico da Maxwell ma furono
scoperte da Hertz. Sono onde trasversali, cioè l’oscillazione avviene su un piano perpendicolare
a quello della direzione di propagazione dell’onda, e in quanto tali sono in grado di trasportare
energia e propagarsi nel vuoto oltre che nella materia. Nel vuoto hanno velocità costante pari
circa a 3x10^8m/s (velocità della luce). La propagazione di queste onde nella materia è minore
che ne vuoto e varia a seconda del materiale, dunque è necessario introdurre un indice di
rifrazione n per cui v=c/n. (n è sempre >1)
Come per tutte le onde, la velocità è uguale al prodotto della frequenza per la lunghezza d’onda,
di conseguenza quest’ultime due risultano inversamente proporzionali tra loro.
Le onde elettromagnetiche vengono classificate in base ai valori di lunghezza d’onda (o,
inversamente, in base di frequenza) e nel loro complesso costituiscono lo spettro
elettromagnetico. L’occhio umano percepisce sono solo una piccolissima parte dello spettro
elettromagnetico, più precisamente le onde con valori di lunghezza d'onda compresi tra 390 nm
e 760 nm. Le onde elettromagnetiche aventi lunghezza d'onda maggiore (e quindi frequenza
minore) sono gli infrarossi, le microonde e le onde radio mentre quelle aventi lunghezza d'onda
minore (e quindi frequenza maggiore) sono le onde UV, i raggi X e i raggi gamma.
Dal punto di vista medico le onde elettromagnetiche vengono classificate in ionizzanti o
termiche (dunque non ionizzanti) in base all’energia trasportata dai fotoni. Quest’energia risulta
essere direttamente proporzionale alla frequenza e ad una costante h: la costante di Plank
(6.62x10^-34Js).
La linea di demarcazione tra i due tipi di radiazione si colloca all’interno delle frequenze
dell’ultravioletto in corrispondenza dell’energia di ionizzazione dell’H, sicché le radiazioni
infrarosse e parte dell’ultravioletto rientrano nelle radiazioni non ionizzanti insieme a onde radio
e microonde, mentre la componente superiore della radiazione ultravioletta fa già parte di quelle
ionizzanti insieme a raggi X e gamma. Fra i due tipi di radiazione c’è una differenza
fondamentale.
Le radiazioni ionizzanti sono in grado di staccare singoli elettroni dunque possono rompere
legami chimici di molecole e modificare la struttura chimica dei tessuti con cui vengono a
contatto. Le radiazioni non ionizzanti, invece, anche in presenza d’intensità di campo assai
elevate non sono in grado di ionizzare, il principale effetto che riescono a produrre sulle
molecole è quello di farle oscillare producendo attrito e di conseguenza calore.
Soffermiamoci sulle onde ionizzanti: ultravioletti, X e gamma.
I raggi ultravioletti possono essere ulteriormente suddivisi in UVA, UVB e UVC, ordinati in base a
lunghezza d’onda decrescente. La principale sorgente di UV è il sole ma possono essere
prodotti anche artificialmente. A contatto con le molecole biologiche questi tipi di raggi sono
selettivi cioè sono capaci di eccitare solo alcuni atomi e di rompere i legami solo di alcune
molecole dunque è possibile individuare effetti chimicobiologici sia positivi, quali sintesi di
vitamina D e produzione di melanina, che negativi, come eritemi, tumori alla pelle.
I raggi x e gamma sono quelli a più alta energia; mentre i primi possono essere prodotti solo
artificialmente attraversi tubi appositi, i secondi posso avere origine attraverso processi
radioattivi o mediante acceleratori di particelle.
Un tubo a raggi x è un dispositivo al cui interno viene creato il vuoto e sfrutta il movimento di
cariche ottenuto per effetto termoionico. Gli elettroni, emessi da un catodo, vengono accelerati
fino ad una velocità molto alta per mezzo di un campo elettrostatico generato da una forte
differenza di potenziale applicata tra anodo e catodo. Tali elettroni, fortemente accelerati,
vengono poi improvvisamente arrestati per collisione con un bersaglio metallico (anticatodo, che
può coincidere con l'anodo); l’energia cinetica persa dagli elettroni viene poi emessa
dall’anticatodo sotto forma di raggi X. L’immagine diagnostica si ottiene dall’assorbimento dei
raggi da parte dei tessuti biologici. L’intensità ad un certo spesso di tessuto analizzato è data
dalla legge di Lambert secondo cui I=Imin e^(mu x) in cui mu è il coeff di assorbimento e x lo
spessore. Man mano che si attraversano strati del tessuto preso in considerazione, l’intensità
del fascio diminuisce. Il coefficiente di assorbimento è direttamente proporzionale alla densità e
varia al variare dei tessuti e all’energia dei fotoni. Per questo motivo non è possibile utilizzare
una stessa macchina radiogena per ecografie a diverse parti del corpo. Oltre al tubo a raggi X
sono necessari anche un diaframma che “filtra” le parti di fascio che attraversano il tessuto in
maniera non rettilinea, uno schermo fluorescente in grado di ridurre la quantità raggi in modo da
ottenere un immagine di qualità e, infine, una pellicola radiografica su cui si imprime l’immagine.
In base allo scopo diagnostico della radiografia si possono attuare due tipologie di esami. Se si
vogliono ottenere informazioni di tipo funzionale viene utilizzato un mezzo di contrasto, per
informazioni puramente strutturali non è necessario mezzo di contrasto. Il contrasto viene
utilizzato anche in quei casi in cui il distretto di interesse ha un coefficiente di assorbimento così
basso che non risulterebbe ben visibile in una radiografia tradizionale. È importante sottolineare
che la radiografia fornisce un’immagine bidimensionale, solo con l’apporto di un computer è
possibile realizzare un’immagine tridimensionale, chiamata TAC. Durante una TAC il processo di
emissione dei raggi X viene ripetuto molte volte muovendosi lungo l’asse del corpo. Tutte le
immagini sono poi eleborate e unite per formare un’immagine a 360°.
Ritornando alle onde elettromagnetiche, abbiamo poi i raggi gamma, utilizzati sia a scopo
diagnostico che terapeutico. L’applicazione diagnostica prevede l’assunzione di radiofarmaci il
cui decadimento radioattivo permette la rilevazione dei raggi. Gli esami correlati sono la PET e la
SPECT. A scopo terapeutico invece l’emissione di raggi gamma si basa sull’utilizzo di protoni,
neutroni e ioni pesanti e questo tipo di terapie sono chiamate adroterapie.

Riflessione e rifrazione ottica


Un moto ondulatorio può essere approssimato con i raggi, tale approssimazione è tanto più
valida quando la lunghezza d'onda è piccola rispetto alle dimensioni degli ostacoli incontrati.
Nel caso della luce quest’approssimazione è valida.
Quando un'onda incontra una barriera piana, vengono generate nuove onde che si riflettono e si
allontanano dalla barriera. I raggi luminosi che vengono riflessi dalla superficie di separazione tra
due mezzi diversi hanno una direzione di propagazione data dalla legge. Angolo 1 = - angolo 2.
In altri termini, l’angolo di riflessione è uguale in modulo all’angolo di incidenza. Inoltre, raggio
incidente, raggio riflesso e normale alla superficie di separazione tra i due mezzi giacciono sullo
stesso piano.
Al passaggio tra due mezzi trasparenti diversi, i raggi luminosi che vengono trasmessi dal primo
al secondo mezzo subiscono un fenomeno di rifrazione secondo la legge di Snell: n1 sen1= n2
sen2 dove 1 e 2 sono gli angoli che il raggio incidente e quello rifratto formano con la normale
alla superficie di interfaccia tra i due mezzi. Inoltre, il raggio incidente, quello rifratto e la normale
alla superficie di separazione tra i due mezzi stanno sullo stesso piano. n1 e n2 sono gli indici di
rifrazione assoluti dei due mezzi. L’indice di rifrazione è dato dal rapporto c/v cioè fra la velocità
della luce nel vuoto c e la velocità della luce nel mezzo v. L’indice di rifrazione è una
caratteristica del mezzo ma dipende anche dalla lunghezza d’onda della luce; assume sempre
valore maggiore di 1, se è uguale a uno significa che la propagazione dell’onda sta avvenendo
nel vuoto. Si definisce indice di rifrazione relativo il rapporto fra gli indici di rifrazione assoluti:
n21 = n2/n1.
Passando da un mezzo meno denso a uno più denso i raggi rifratti si avvicinano alla normale,
viceversa passando da un mezzo più denso a uno meno denso si allontanano. Si ha una
riflessione totale quando la luce passa da un mezzo più denso a uno meno denso (n1>n2) e il
raggio rifratto diventa radente alla superficie di separazione e l'angolo di rifrazione è
perpendicolare alla normale. L'angolo di incidenza corrispondente all'angolo di rifrazione di 90°
si chiama angolo limite ed è uguale a arcane (n2/n1). Per angoli abbastanza piccoli si
approssima:tanα∼senα∼α.
Prodotto scalare e vettoriale
Il prodotto scalare fra due vettori A e B, indicato come A·B, viene definito trigonometricamente
come lo scalare R dato dal prodotto fra il modulo dei due vettori e il coseno dell'angolo
compreso tra le direzioni dei due vettori. R = A·B = AB cos θ. Questa operazione gode della
proprietà commutativa per cui A·B=B·A (Es: lavoro)
Il prodotto vettoriale tra due vettori A e B, indicato come A /\ B oppure A x B, viene definito
come il vettore R avente: modulo pari al prodotto fra il modulo dei due vettori per il valore del
seno dell'angolo compreso fra le loro direzioni; direzione perpendicolare al piano del
parallelogramma; e verso dalla parte della testa di un osservatore che, posto in piedi sul piano,
vede A sovrapporsi a B ruotando in senso antiorario. R = AxB = AB sen θ. Questa operazione
non gode della proprietà commutativa. Risulta nullo quando i due vettori hanno la stessa
direzione ( θ=0 o 180°) (Es: momento forza)

Concetto di forza e principi della dinamica


Una forza è una grandezza vettoriale che esprime e misura l’interazione tra sistemi fisici. In base
al tipo di interazione esistono forze di contatto e forze che agiscono a distanza, quest’ultime
chiamate anche forze di campo.In natura esistono tanti tipi di forze, motivo per cui i fisici hanno
convenuto di classificarle in quattro gruppi fondamentali: forza gravitazionale; forza
elettromagnetica; forza forte; forza debole.Se da un lato sperimentiamo quotidianamente gli
effetti della forza gravitazionale, possiamo dire che la seconda è quella che interviene nei
fenomeni legati all'elettricità e al magnetismo, mentre le ultime due si manifestano solo a livello
microscopico tra le particelle subatomiche.
L’unità di misura della forza è il Newton (1N=1Kg m/s^2), lo strumento utilizzato per misurare
una forza è il dinamometro. L’applicazione di una forza può avere diversi effetti: un effetto
dinamico, cioè generare un moto del corpo; un effetto statico, come causare una deformazione
elastica; garantire l’equilibrio di un corpo, solitamente agendo in combinazione ad altre forze. La
dinamica è il ramo della meccanica fisica che si occupa dello studio delle cause del moto e
l'intera teoria si basa sul concetto di forza. Il primo principio della dinamica, o di Newton, è il
principio di inerzia: ogni corpo persevera nel proprio stato di quiete o di moto rettilineo uniforme
finché forze esterne non intervengono a modificarne lo stato. Il secondo principio è la
formulazione quantitativa del legame tra forza e stato di moto: l’accelerazione subita da un
corpo è in ogni istante proporzionale alla forza risultante R agente su di esso ed inversamente
proporzionale alla sua massa. R= sommatoria F= m a. La massa di un corpo è una proprietà
intrinseca dei corpi e viene definita inerziale in quanto esprime l’inerzia del corpo, cioè la sua
resistenza a variare il proprio stato di moto e quindi la velocità. Il terzo principio della dinamica è
il principio di azione e reazione e spiega in che modo le forze agiscono sempre in coppia: dati
due corpi, 1 e 2, se il corpo 1 esercita una forza F12 sul corpo 2, il corpo 2 eserciterà
contemporaneamente sul corpo 1 una forza -F21, cioè una forza avente stesso modulo e
direzione della prima ma verso opposto.

Equilibrio corpo rigido e momento forza


Un corpo rigido è un corpo non elastico, indeformabile ed esteso nelle tre dimensioni dello
spazio. Questa definizione viene utilizzata per descrive in modo ideale le caratteristiche di un
corpo esteso e definire le sue condizioni di equilibrio. In accordo con il primo principio della
dinamica sappiamo che un punto materiale è in equilibrio se la risultante delle forze agenti su di
esso è nulla. Fare questa stessa considerazione riguardo un corpo rigido non è sufficiente
poiché la risultante delle forze nulla fa sì che il corpo non trasli ma dobbiamo prendere in
considerazione anche la possibilità che un corpo esteso ha di ruotare su se stesso o intorno ad
un vincolo. Per semplicità si considerano applicate in un punto chiamato baricentro, non per
forza appartenente al corpo, tutte le forze infinitesime agenti sul corpo. La grandezza fisica che
descrive l’efficacia di una forza nel produrre la rotazione di un corpo è il momento della forza.
Rispetto ad un punto O detto polo, il momento della forza viene definito come il prodotto
vettoriale del vettore r, che congiunge il polo al punto di applicazione della forza, per la forza
stessa. Essendo un prodotto vettoriale non gode della proprietà commutativa quindi bisogna far
attenzione all’ordine dei fattori (rxF) anche nel momento in cui vengono calcolati direzione e
verso secondo la regola della mano dx. Il momento si può calcolare anche in funzione del
braccio, ovvero della distanza tra il polo e la retta su cui giace la forza applicata.
Alla luce delle considerazioni fatte fino ad ora possiamo dire che un corpo rigido è in equilibrio
statico se sono contemporaneamente nulle la forza risultante di tutte le forze applicare e il
momento risultante di tutti i momenti di tutte le forze applicate al corpo.
Esistono 3 forme di equilibrio e possiamo osservarle spostando di
poco il corpo dalla sua posizione di equilibrio: in caso di equilibrio
stabile, il corpo tende a ritornare nella posizione precedente; in caso
di equilibrio instabile il corpo tende ad allontanarsi ancora di più dalla
posizione di stabilità; infine, nel caso di equilibrio indifferente, anche
spostando di poco la sua posizione, il corpo risulta stabile anche se in
una posizione differente dalla precedente.

Leve
Per equilibrare una forza, detta resistente, mediante un’altra forza, detta motrice, possono
essere usate delle macchine semplici. Il rapporto tra la forza resistente e a forza motrice
determina il guadagno G della macchina. Se G>1 la macchina risulta vantaggiosa significa che
Fm<Fr e cioè per equilibrare la forza resistente è necessaria una forza motrice minore della
resistente. Un valore di G<1 indica l’opposto dunque la macchina risulta svantaggiosa. Si ha
una macchina indifferente nel caso in cui il valore del guadagno è pari a 1.
Le macchine semplici più utilizzate sono sicuramente le leve. È possibile schematizzare una leva
come un’asta rigida in grado di ruotare intorno ad un punto fisso detto fulcro. Una leva risulta in
equilibrio quando i momenti della forza motrice e della forza resistente sono uguali. Sapendo
che il momento di una forza è uguale al prodotto della forza per il braccio, possiamo esprimere il
guadagno di una leva anche in funzione dei bracci: Bm>Br leva vantaggiosa; Bm<Br leva
svantaggiosa; Bm=Br leva indifferente.
In base alla disposizione di fulcro, forza resistente e forza motrice è possibile individuare 3
tipologie di leve. La leva di 1° genere presenta in fulcro tra le due forze e risulta vantaggiosa,
svantaggiosa o indifferente a seconda delle intensità delle forze e della distanza dal polo a cui
queste vengono applicate. La leva di 2° genere vede la forza resistente agire tra la forza motrice
e il fulcro. Questa tipologia di leva è sempre vantaggiosa poichè, se come polo scegliamo il
fulcro, il braccio della forza motrice è sempre maggiore di quello della forza resistente. La leva di
3° genere vede la forza motrice applicata tra il fulcro e la forza resistente. Questa tipologia di
leva è sempre svantaggiosa poiché, se come polo scegliamo il fulcro, il braccio della forza
resistente è sempre maggiore di quello della forza motrice.
Tutte le articolazioni del corpo umano possono essere schematizzate come leve: la forza
resistente è la forza peso, le forze motrici sono le forze esplicate dai muscoli e il fulcro è
costituita dall’articolazione stessa.
1° la testa -> Fm= muscoli splenici; Fr=Fp applicata nel baricentro. Svantaggiosa perché Br>Bm
2° articolazione piede in elevazione sulle punte -> fulcro=dita; Fr=peso che grava sulla caviglia;
Fm=muscoli polpaccio. Vantaggiosa perché Bm>Br
3° articolazioni del gomito -> Fulcro=articolazione; Fm= bicipite brachiale; Fr=peso
avambraccio. Svantaggiosa perché Bm<Br. Questo tipo di leva risulta più svantaggiosa nel
momento in cui viene allungato il braccio poiché diminuisce ancor di più il braccio della forza
motrice.
Forze di attrito
La forza d’attrito è una forza di contatto passiva, ovvero generata dal semplice contatto tra due
superfici ed è tale da opporsi al movimento di un corpo. Le forze di attrito sono molte ma è
possibile distinguerne tre tipi: radente, quando due corpi si muovono l’uno sull’altro; volvente,
quando un corpo rotola sulla superficie di un altro; viscoso, quando un corpo si muove in un
fluido. Soffermiamoci sull’attrito radente. L’attrito radente è definito tale perché agisce
parallelamente alle superfici che, scivolando l’una sull’altra, lo generano. Le superfici che
generano attrito radente si chiamano scabre. È importante sottolineare che che gli attriti sono
generati dal moto e vi si oppongono ma non sono in grado di generarlo. In generale, l’attrito
radente è proporzionale alla reazione vincolare che agisce in direzione perpendicolare alle
superifici stesse, direzione detta normale. La reazione vincolare è quella forza responsabile della
non compenetrazione dei corpi, e il suo valore quantitativo è dato dal terzo principio della
dinamica: se, in direzione normale ad una superficie (o un qualsiasi vincolo) viene esercitata una
forza F, la superficie reagisce con una forza N=−F, uguale in direzione e modulo, ma contraria in
verso, capace di annullare la componente della forza avente la stessa direzione. L’attrito radente
si suddivide a sua volta in due forme: attrito statico e attrito dinamico. L’attrito statico è una
forza che impedisce che corpi posti su di una superficie scabra e inizialmente in quiete, inizino a
muoversi se la forza agente su di essi, in direzione parallela alla superficie, non supera una certa
soglia. Superata questa soglia, l’attrito statico smette di opporsi o, meglio, cessa del tutto. Si
noti che, in base al primo principio della dinamica, un corpo in quiete non può iniziare a
muoversi a meno che non agisca su di esso una forza. L’attrito dinamico si manifesta quando un
corpo scivola su una superficie, cioè è già in movimento, ed è una resistenza che si oppone a
questo movimento.In realtà sono presenti entrambi gli attriti: se un corpo si trova in quiete su di
una superficie scabra, prima di iniziare a muoversi, agisce l’attrito radente statico; nel momento
in cui la forza applicata al corpo supera un certo valore, il movimento ha inizio, entra in gioco
l’attrito dinamico e cessa la resistenza dell’attrito statico.Il valore di soglia entro il quale agisce la
forza d’attrito statico è allora pari a Fattrito statico massimo =μs N. Il valore di soglia si
esprimerlo con una disequazione: F∥ ≤μs N.Anche il valore della forza di attrito dinamico è
sempre proporzionale alla componente normale delle forze ma secondo un’altra costante:
Fattrito dinamico =μd N. I simboli μs e μd si dicono coefficienti d’attrito, rispettivamente, statico
e dinamico, e sono caratteristici di ciascuna superficie ma dipendono anche dallo stato delle
superfici, dalla temperatura, dall’umidità e da altri parametri di questo tipo ma sono sempre
indipendenti dalle aree macroscopiche di contatto. Sperimentalmente si verifica che μd <μs
infatti possiamo ben notare come è più difficile mettere in moto in oggetto piuttosto che tenerlo
in movimento. È possibile esprimere la forza di attrito viscoso mediante una formula che è stata
ricavata sperimentalmente: F = -η A v / δ. η è il coefficiente di viscosità, si misura in Poise ( g/s
cm oppure Pa s), e diminuisce al crescere della temperatura. A è area delle lamine di fluido
prese in considerazione. Il vettore v indica la velocità relativa tra le due lamine (v=v1-v2). δ
corrisponde alla distanza tra le lamine.
Lavoro e potenza
Si dice che una forza compie lavoro quando il punto di applicazione della forza si sposta. Per
definizione il lavoro compiuto dalla forza è dato dal prodotto scalare tra la forza e lo
spostamento generato sul corpo. Si noti che la forza e lo spostamento sono grandezze vettoriali
mentre il lavoro è una grandezza scalare. Se la forza F è costante in modulo, direzione e verso e
il suo punto di applicazione si sposta di un tratto rettilineo s, formante un angolo alpha con la
direzione di F, la relazione che definisce il lavoro svolto dalla forza è la seguente: L = F s = F s
cos(alpha). In base all’ampiezza dell’angolo, acuto o ottuso, il lavoro può assumere
rispettivamente valori positivi, ed essere definito motore, o negativi, ed essere definito
resistente. Il lavoro massimo lo si ha quando lo spostamento avviene nelle stessa direzione della
forza. Nel SI l’unità di misura del lavoro è il Joule ( J = N m). Strettamente legata al lavoro vi è
un’altra grandezza fisica: la potenza. La potenza media viene definita come il lavoro compiuto
da una forza nell’intervallo di tempo che è stato impiegato per compierlo: P=L/Δt. È possibile
esprimere la potenza anche come prodotto scalare della forza per la velocità con cui la forza si
sposta. P=F v. L’unità di misura della potenza è il Watt (W=J/s).
Forze conservative e non; lavoro
Quando il lavoro svolto da una forza è indipendente dalla traiettoria percorsa, questa forza è una
forza conservativa. Ciò significa che per una forza conservativa il lavoro compiuto dipende solo
dalle posizioni di partenza e di arrivo e non dal percorso compiuto per raggiungerle. Dunque
possiamo dire che il lavoro compiuto da una forza conservativa è uguale alla variazione negativa
dell'energia potenziale L=-ΔU. Se la posizione iniziale e la posizione finale del corpo coincidono
il lavoro effettuato dalla forza conservativa lungo il percorso è nullo.
Ad ogni forza conservativa è possibile associare un’energia potenziale per esempio alla forza
peso (F=mg) viene associata l’energia potenziale gravitazionale (Ep=mgh); alla forza elastica
(F=-kΔx) è associata l’energia potenziale elastica (Ep=1/2kΔx^2); alla forza elettrica (F=kqq/r^2)
è associata l’energia potenziale elettrica (U=kqq/r)
In un sistema in cui agiscono solo forze conservative l'energia meccanica totale (la somma delle
energie cinetiche e potenziali), è costante. Ciò significa che l'energia cinetica si trasforma in
energia potenziale e viceversa senza alcuna perdita di energia meccanica.
Quando il lavoro svolto da una forza dipende dal percorso effettuato, questa forza è una forza
non conservativa. Sono forze non conservative le forze dissipative cioè quelle forze la cui azione
fa diminuire l’energia meccanica del sistema.
Per spiegare la differenza tra queste due tipologie di forze possiamo fare l’esempio di un pallone
messo in movimento da un calcio. Il lavoro svolto dalla gravità, che è forza conservativa, sul
pallone calciato in aria dipende solo dalla variazione di altezza del pallone. Il lavoro svolto dalla
resistenza dell’aria, forza non conservativa, dipende dalla traiettoria percorsa.
Il lavoro totale compiuto in un sistema i cui sono presenti sia forze conservative che non
conservative è uguale alla variazione dell'energia cinetica Ltot=ΔK. Allo stesso tempo, il lavoro
totale compiuto in un sistema comprende i lavori compiuti da entrambe le tipologie di forze.
Ltot=Lcons+Lnocons=ΔK. Se sostituiamo il lavoro delle forze conservative nell’equazione
precedente, otteniamo che -ΔU+Lnoncons=ΔK dunque Lnoncons=ΔK+ΔU. Possiamo quindi
affermare che la variazione dell'energia meccanica totale, cioè la variazione dell'energia cinetica
e dell'energia potenziale, è uguale al lavoro compiuto dalle forze non conservative che agiscono
sugli oggetti del sistema.
Un'ulteriore differenza tra forze conservative e non conservative è che il lavoro svolto da una
forza conservativa può essere invertito. Quando le forze conservative, come la gravità o la forza
elastica, agiscono su un oggetto, immagazzinano energia potenziale che può essere convertita
in energia cinetica per invertire il lavoro svolto. Quando una forza non conservativa, come
l'attrito, agisce su un oggetto, l'energia cinetica si converte in energia termica e non è possibile
recuperare l'energia termica dissipata. Pertanto, il lavoro compiuto da una forza non
conservativa è irreversibile.
Teorema energia cinetica
È un teorema che mette in relazione il lavoro con la variazione di energia cinetica. L’energia
cinetica, in quanto energia, esprime la proprietà di un corpo di compiere lavoro, e in quanto
“cinetica", è strettamente legata al movimento. Per un corpo di massa m che si muove con
velocità v, è possibile esprimere l’energia cinetica come il semiprodotto della sua massa per il
quadravo della sua velocità. K= 1/2 m v^2. L'enunciato del teorema dell'energia cinetica ci dice
che il lavoro della forza risultante compiuto su un corpo è uguale alla variazione della sua
energia cinetica. L= ΔK=Kf-Ki=1/2 m(vf^2-vi^2).
Quando su un corpo viene esercitata una forza risultante non nulla, l'energia cinetica del corpo
cambia. Tutto ciò rispetta pienamente il secondo principio della dinamica secondo cui, in
presenza di una forza non nulla, il corpo è soggetto ad un'accelerazione che ne modifica la
velocità. D'altro canto se la forza è nulla allora è nullo anche il lavoro e l'energia cinetica non
cambia. Quando il lavoro è maggiore di 0 significa che il sistema sta compiendo lavoro sul
corpo, l’energia cinetica e la velocità di quest’ultimo aumentano; viceversa accade in caso di
lavoro negativo in cui è l’oggetto a compiere lavoro a discapito di una diminuzione della propria
energia cinetica. In accordo con il teorema dell’energia cinetica possiamo dare una nuova
definizione di lavoro come energia trasferita da un corpo all'altro per mezzo di una forza
risultante che agisce su di esso.
Principio conservazione energia
Viene definita energia la capacità potenziale, posseduta da un corpo, di compiere lavoro. In
natura esistono varie forme di energia quali per esempio l’energia cinetica, l’energia potenziale
gravitazionale, l’energia potenziale elettrica e magnetica, l’energia termica e l’energia chimica.
Tutte queste forme di energia si manifestano compiendo lavoro meccanico o trasformandosi da
una forma all’altra di energia. Qualsiasi sia la trasformazione, energia totale si conserva sempre.
Per esprimere il principio generale di conservazione dell’energia si fa riferimento all’equazione di
continuità dell’energia. Si può far riferimento a questa solo se prima vien definito un sistema
isolato, cioè un sistema che non scambia energia e/o materia con l’ambiente. Inoltre è
necessario anche fare una distinzione tra energia immagazzina (dai corpi facenti parte del
sistema) e l’energia di trasferimento (dal sistema verso l’ambiente e viceversa).
Per equazione di continuità si eguagliano le energie immagazzinate dal sistema con le energie di
trasferimento attraverso il contorno del sistema stesso.
Tra le leggi di conservazione più importanti ci sono quella dell’energia meccanica, il primo
principio della termodinamica, il teorema di Bernoulli, il teorema di conservazione della carica
elettrica ecc.
Energia meccanica
Il principio di conservazione dell’energia meccanica totale afferma che in un sistema in cui non
sono presenti forze dissipative l’energia meccanica si conserva cioè la somma dell’energia
cinetica e dell’energia potenziale resta sempre costante. Emecc=K+U=COSTATNTE.
Qualora nel sistema siano presenti anche forse non conservative, l’energia meccanica che non
si conserva corrisponde perfettamente alla differenza tra l’energia meccanica finale e l’energia
meccanica iniziale.
Lnoncons=ΔEm=Emf-Emi=Kf+Uf-Uf-Ui
Primo principio termodinamica
Il primo principio della Termodinamica stabilisce che la variazione di energia interna di un
sistema è uguale alla differenza tra il calore scambiato dal sistema con l'ambiente esterno e il
lavoro esercitato tra il sistema e l'ambiente esterno.
Si tratta di una equazione frutto dell’esperienza, va quindi assunta come postulato.
ΔU=Q-L dove ΔU è l'energia acquisita o persa dal sistema; Q è il calore che può essere
assorbito o ceduto e L è il lavoro che può essere svolto dal sistema sull'ambiente o
dall'ambiente sul sistema. Q e L possono assumere valori sia positivi che negativi e, per
convenzione, sono stati assegnati in relazione al sistema. Il calore se è assorbito dal sistema
viene considerato positivo; se invece viene ceduto dal sistema all'ambiente, allora è negativo. Il
lavoro invece è considerato positivo quando è il sistema a compierlo sull'ambiente, mentre è
negativo se è l'ambiente a compiere lavoro sul sistema.
Teorema di Bernoulli
L’equazione di Bernoulli è una relazione della fluidodinamica che lega tra loro la velocità di
scorrimento, la pressione e la densità di un fluido in un tubo con sezioni e altezze variabili,
individuando una costante nel moto dei fluidi ideali.
Consideriamo un condotto ed esaminiamone due punti ognuno con una propria sezione,
pressione, velocità di scorrimento del fluido ed altezza. L'equazione di Bernoulli ci dice che in
qualunque punto del condotto ci si trovi, la somma di pressione idraulica, pressione idrostatica
e pressione cinetica è costante. p+1/2dv^2+dgh=costante
Conservazione carica elettrica
Una caratteristica importantissima della carica elettrica è il suo principio di conservazione in
accordo col quale la carica elettrica di una certa quantità di materia è sempre pari alla somma
algebrica delle cariche elettriche dei suoi costituenti, tale somma si conserva in tute le
trasformazioni se il sistema è isolato. Questo principio è verificato sia a livello macroscopico che
microscopico.
Piano inclinato
Un oggetto posto su un piano inclinato è sottoposto a diverse forze:
la forza peso, che è scomposta in una componente parallela al
piano (P sen(a)); una componente perpendicolare (P cos (a)); una
reazione vincolare esercitata del piano, che ha stessa direzione e
modulo della componente perpendicolare della forza P ma verso
opposto. Se il piano è scabro vi è una Fatt che agisce lungo la
stessa direzione della componente parallela al piano della forza P
ma con verso opposto. Se la forza di attrito è maggiore o uguale
rispetto alla componente parallela della forza P, allora il corpo resta
fermo e non scivola, mentre se questa è minore il corpo scivola
lungo il piano. Se il piano è liscio e quindi siamo in assenza di a4rito
allora il corpo in ogni caso, se non agiscono forze esterne, tende a
scendere verso il basso.

In entrambi i casi ha luogo un moto rettilineo uniformemente accelerato.


Si dice moto rettilineo uniformemente accelerato quel moto rettilineo caratterizzato da
un’accelerazione costante nel tempo: a= cost.; a questa condizione corrisponde la legge oraria:
v(t) =a t+v0 e x(t)= X0+v0t+1/2at^2.

Forza elettrostatica vs
gravitazionale
entrambe le interazioni viaggiano alla
velocità della luce e hanno un raggio
d’azione infinito ed inoltre, sia il
campo elettrico che il campo
gravitazionale rispettano il principio
di sovrapposizione.
Termodinamica
Prima di affrontare la termodinamica e i principi che la regolano è necessario definire i concetti
di calore e temperatura. La temperatura è una proprietà intrinseca della materia che indica
quantitativamente lo stato termico di un corpo. È una grandezza fisica fondamentale e la sua
unità di misura nel SI sono i Kelvin. In realtà, la temperatura può essere espressa anche
utilizzando la scala di temperatura Fahrenheit (°F) o la scala di temperatura Celsius (°C) basata
sulle temperature del ghiaccio fondente e dell’acqua bollente.
Si definisce calore quella forma di energia che può essere scambiata tra due sistemi o corpi. Il
calore, in quanto energia, si misura in Joule ma un’altra unità di misura che viene utilizzata è la
caloria. Una caloria corrisponde alla quantità di calore necessaria per aumentare di 1°C la
temperatura di 1g di acqua. Il rapporto esistente tra il valore del calore in quanto energia e in
quanto lavoro è stato misurato sperimentalmente da Joule. J= L/Q = 4.18J/cal.
Il principio zero della termodinamica, anche conosciuto come principio dell’equilibrio termico,
afferma che se un corpo A è in equilibrio termico con un corpo B e se il corpo B è in equilibrio
termico a sua volta con un corpo C, allora anche il corpo A e C saranno in equilibrio termico tra
di essi ovvero saranno alla stessa temperatura. Misurando la variazione di temperatura che un
corpo subisce per raggiungere l’equilibrio termico è possibile conoscere anche quanta energia,
e quindi calore, è stato scambiata. Q=mc(T2-T1). c è il calore specifico e dipende dal tipo di
sostanza. Il calore specifico dell’acqua è c=1cal/(g °C). Il prodotto del calore specifico per la
massa viene chiamato capacità termica.
Il primo principio della Termodinamica è di fatto la legge di conservazione dell'energia applica ai
processi termodinamici. Esso stabilisce che la variazione di energia interna di un sistema è
uguale alla differenza tra il calore scambiato dal sistema con l'ambiente esterno e il lavoro
esercitato tra il sistema e l'ambiente esterno. Si tratta di una equazione frutto dell’esperienza, va
quindi assunta come postulato. ΔU=Q-L dove ΔU è l'energia acquisita o persa dal sistema; Q è
il calore che può essere assorbito o ceduto e L è il lavoro che può essere svolto dal sistema
sull'ambiente o dall'ambiente sul sistema. Q e L possono assumere valori sia positivi che
negativi e, per convenzione, sono stati assegnati in relazione al sistema. Il calore se è assorbito
dal sistema viene considerato positivo; se invece viene ceduto dal sistema all'ambiente, allora è
negativo. Il lavoro invece è considerato positivo quando è il sistema a compierlo sull'ambiente,
mentre è negativo se è l'ambiente a compiere lavoro sul sistema.
Il secondo principio della Termodinamica si presenta in due formulazioni, rispettivamente dovute
a Kelvin-Planck e a Clausius ma equivalenti tra loro. La prima stabilisce che in un processo
termodinamico il calore non può essere integralmente convertito in energia; la seconda che il
calore non fluisce spontaneamente da un corpo più freddo a uno più caldo. Questo secondo
principio è stato introdotto in quanto pone delle limitazioni al primo principio in modo da poter
giustificare tutte quelle trasformazioni che in natura non avvengono spontaneamente. È
possibile forzare una trasformazione non spontanea in natura solo a spese di un altro termine.
Propagazione del calore e termoregolazione
La propagazione del calore è un processo fisico attraverso il quale due corpi, a temperature
differenti, si scambiano energia sotto forma di calore, raggiungendo l'equilibrio termico. In
accordo con il secondo principio della termodinamica, il calore passa sempre dal corpo più
caldo a quello più freddo.
Il calore si può propagare in tre modi diversi: per conduzione, convezione o irraggiamento. La
conduzione avviene per contatto tra corpi solidi, non prevede spostamento di materia ma
soltanto di energia; la convezione riguarda la diffusione del calore nei fluidi e avviene con
trasporto di materia; l’irraggiamento invece consiste nella propagazione senza contatto di
energia termica sotto forma di onde elettromagnetiche.
Per spiegare il fenomeno della conduzione facciamo l’esempio di due piastre conduttrici,
lontane tra loro una certa distanza d, e supponiamo che la temperatura della piastra1 sia più alta
di quella della piastra2. Il calore trasmesso nell’unità di tempo dalla piastra1 alla piastra2 è
direttamente proporzionale alla variazione di temperatura e all’area delle piastre mentre sarà
inversamente proporzionale alla loro distanza. Q/deltat = S deltaT /d. La quantità del flusso di
calore dipende dalla conducibilità termica K che differisce per ogni sostanza e, in base al suo
valore, è possibile determinare se il materiale in esame è un conduttore o un isolante termico.
La convezione è possibile osservarla nei moti interni al fluido che si vengono a creare nel
momento in cui esso è posto a contatto con una sorgente di calore. La parte di fluido più vicina
alla sorgente si riscalda prima e, poiché l’aumento di temperatura causa una diminuzione della
densità, questa parte di fluido più calda tenderà a salire verso l’alto invertendo la sua posizione
con la parte di fluido più fredda. Anche in questo caso il flusso di calore è proporzionale alla
superficie di contatto e alla variazione di temperatura. Q/deltat = S deltaT.
L’irraggiamento non prevede contatto e si basa sulle radiazioni; tutti i corpi con temperatura
maggiore allo 0k assoluto emettono una certa radiazione termica. Intensità emessa è pari al
rapporto tra la quantità di radiazione e il prodotto del tempo per la superficie: I=Q/(deltat deltas).
Questa stessa intensità risulta essere anche direttamente proporzionale alla quarta potenza
della temperatura assoluta.
Nel caso dei sistemi biologici è possibile riscontrare un ulteriore metodo di trasmissione del
calore che prevede l’emissione di vapore acqueo: l’evaporazione.
È possibile considerare il corpo umano come una macchina a energia interna di natura chimica
a temperatura costante. La termoregolazione è il meccanismo fisiologico mediante il quale
l'organismo reagisce ad eventuali variazioni di energia termica in modo da mantenere la propria
temperatura interna in un opportuno intervallo. Nell'uomo la maggior parte degli organi vitali
lavora, in condizioni di normalità, alla temperatura pressoché costante di 37 °C, comunque per
valori compresi tra i 35.5 ed i 40 °C non si rilevano danni all'organismo. Al di fuori dei limiti
dell'intervallo considerato il corpo è in condizioni di estrema vulnerabilità per cui il sistema
termoregolatorio è dotato di diversi sistemi di controllo: temperature superiori ai 37°C vengono
attivati i meccanismi che favoriscono la
cessione di calore quali la vasodilatazione e l’evaporazione o sudorazione; a
temperature di sotto dei 37°C vengono attivati i meccanismi di conservazione e di
produzione del calore quali la vasocostrizione e il tremore o
brivido. (per aumentare la produzione di calore viene stimolato l’aumento del tono muscolare inv
olontario, cioè l’aumento delle contrazioni muscolari, anche con vere
e proprie scosse muscolari).
Conduzione, convezione e irraggiamento dipendono dalla differenza di temperatura corporea
rispetto a quella dell’ambiente. L’evaporazione, invece, dipende dal tasso di umidità relativa cioè
dal rapporto tra le pressioni di vapor acqueo di vapor saturo. Dunque se la temperatura
ambiente si avvicina ai 37°, i normali meccanismo di trasmissione del calore non prendono più
parte alla termoregolazione, l’evaporazione svolge il ruolo di protagonista, in condizioni di
umidità favorevoli.
Carica elettrica
La carica elettrica è una proprietà fondamentale della materia di natura atomica che permette di
generare forze elettriche, attrattive o repulsive, nell'interazione tra corpi. Le cariche elettriche
sono generate, microscopicamente, dagli elettroni e dai protoni presenti negli atomi. La carica
elettrica è una grandezza scalare e può presentarsi sotto due aspetti distinti che per
convenzione vengono definiti positivo e negativo. Con l'espressione carica elettrica si intende la
proprietà calcolabile e misurabile che un corpo deve avere per esercitare una forza elettrica e, al
contempo, per essere soggetto a una forza elettrica. Questa forza elettrica che si genera, in
base alla natura della cariche coinvolte, può essere attrattiva o repulsiva; cariche elettriche dello
stesso segno di si respigno, cariche elettriche di segno opposto si attraggono. La forza che
agisce traduce cariche è regolata dalla legge di Coulomb. Due carica elettriche puntiformi (q1 e
q2) in quiete e poste ad una certa distanza r l’una dall’altra, si attraggono o si respingono con
una forza diretta lungo la retta che le congiunge, proporzionale alle cariche e inversamente
proporzionale al quadrato della loro distanza. F=kq1q2/r^2. La costante di proporzionalità k
dipende dalla natura del mezzo in cui sono immerse le cariche. k=1/(4TT ε0 εr). Ε0 è la costante
dielettrica del vuoto e nel SI ha valore pari a 8.85 10^-12 C^2/Nm^2. εr è la costante dielettrica
nel mezzo in cui le cariche sono immerse. Nel εr=1, nella materia εr>1 infatti la forza di coulomb
è meno intensa nella materia che nel mezzo.
Ritornando alla carica elettrica, il valore più piccolo osservato in natura è quello dell’elettrone,
che è identico a quello del protone ma con segno negativo. e=1.602x10^-19C. Unità di misura è
il Coulomb. La carica dell’elettrone viene definita carica elementare in quanto qualunque altra
carica presente in natura è in valore assoluto uguale a multipli interi di essa. Vista questa
caratteristica, si dice che la carica elettrica è quantizzata.
Un’altra caratteristica importantissima della carica elettrica è il suo principio di conservazione in
accordo col quale la carica elettrica di una certa quantità di materia è sempre pari alla somma
algebrica delle cariche elettriche dei suoi costituenti, tale somma si conserva in tute le
trasformazioni se il sistema è isolato. Questo principio è verificato sia a livello macroscopico che
microscopico. Le forze di interazione invece avvengono sempre a livello microscopico e, a livello
macroscopico, solo se l’equilibrio neutro della materia venga alterato per esempio per strofinio.

Dipolo elettrico
Il dipolo elettrico è una configurazione di cariche costituito da due
cariche puntiformi (±q), eguali in modulo, ma di segno opposto, poste ad
una distanza d. Si definisce, momento di dipolo elettrico il vettore p che
ha: direzione lungo la congiungente delle due cariche; verso uscente
dalla carica negativa e diretto verso la carica positiva e modulo il
prodotto p= d·|q|.
Il fatto che tra le due cariche ci sia una certa distanza, fa sì che tra loro
possa esserci un campo elettrico. Scegliamo un punto P situato
sull’asse del dipolo e valutiamo il contributo dato dai campi elettrici
generati dalle singole cariche. Per la carica positiva il campo sarà
uscente, viceversa per quella negativa. Nel fare il calcolo del campo
elettrico totale bisogna fare la somma vettoriale dei due campi, dunque
la differenza dei moduli in quanto hanno direzioni opposte. Nonostante le
cariche abbiamo la stessa carica in modulo, la risultante sarà positiva e
non nulla in quanto, nella disposizione di cariche da noi ipotizzata, la
carica positiva è più vicina al punto P rispetto a quella negativa.
(((l’intensità del campo è E=p/(2TT ε0 z^3) al numeratore è possibile scrivere anche 2dq e sotto
4TT ma bisogna avere la condizione in cui la distanza d è molto più piccola di quella z))).

Supponiamo adesso di porre un dipolo elettrico p in un campo elettrico E uniforme: sulle 2


cariche agiscono 2 forze uguali in modulo e direzione ma di verso opposto: ±F = ±qE.
Le 2 forze costituiscono una coppia di forze che producono una rotazione fino ad allineare il
dipolo al campo elettrico esterno. Per calcolare il momento del dipolo considero come polo il
punto medio del segmento congiungete le due cariche del dipolo. La
somma del momento di destra e di sinistra è
𝜏 = F (d/2) sen + F (d/2) sen. Tale somma ci dà il momento della
coppia di forze cioè 𝜏 = F d sen. ponendo F=qE allora
𝜏 = q E d sen. sostituiamo ora il prodotto q d con il momento di
dipolo elettrico p ed otteniamo la formula finale del momento delle
forze del dipolo. 𝜏 = p X E (è un prodotto vettoriale).
Ad un dipolo elettrico può essere associata anche una Energia
Potenziale Elettrica. L’energia potenziale è minima quando il dipolo è
allineato con il campo elettrico (cioè quando siamo in condizioni di
equilibrio) ed il momento torcente è nullo. Il dipolo immerso in un
campo elettrico si comporta come un pendolo, cioè partendo da una posizione fuori equilibrio
cerca di raggiungere la posizione a minore energia potenziale. L’energia potenziale si è
trasformata in energia cinetica rotazionale, il dipolo è ora sottoposto ad un momento torcente
che si oppone alla rotazione. Il dipolo raggiunge una posizione dove la rotazione inverte il verso
(siamo in una situazione simmetrica rispetto a quella iniziale). In assenza di attrito il moto
rotazionale descritto continua all’infinito... Calcolando il lavoro quando il dipolo si scosta di un
angolo θ dalla posizione di equilibrio è possibile ricavare una espressione per l’energia
potenziale di un dipolo immerso in un campo elettrico:L= - deltaU = p⋅E = q1 r E.
(((L=qq1/4TT ε0 *(1/r2 - 1/r1)))))
Il lavoro prodotto per spostare una carica q1 nel campo elettrico prodotto da un’altra carica
puntiforme q non dipende dal percorso effettuato per cui la forza elettrostatica è una forza
conservativa (L=- delta U).

Materiali conduttori e isolanti


In base al loro comportamento elettrico i materiali si suddividono in conduttori e in isolanti. I
conduttori sono quei materiali in cui sono presenti cariche elettriche libere di muoversi in seno al
materiale. Nei metalli coloro che “portano” l’elettricità sono gli elettroni di conduzione cioè gli
elettroni che, staccandosi dai gusci di valenza degli atomi che compagno il metallo sesso, sono
liberi di muoversi allineano del metallo. Oltre ai conduttori metallici ci sono anche i conduttori
elettrolitici nei quali c’è un doppio flusso di particelle, si muovono anche gli ioni con carica
positiva. Una sostanza isolante, o dielettrica, invece è caratterizzata dalla mancanza, o quasi, al
suo interno di cariche elettriche libere di muoversi poiché queste sono così vincolati
strettamente ai propri atomi che non possono spostarsi. In realtà i dielettrici possono essere
divisi in due tipologie: polari e non polari. Quelli polari hanno un proprio momento di dipolo
elettrico; quelli non polari non presentano questo dipolo ma se vengono immersi in un campo
elettrico molto forte possono acquisirlo. Il valore limite del campo elettriche oltre il quale si
produce una conduzione elettrica attraverso un materiale dielettrico è chiamato rigidità elettrica.
È possibile individuare altre due tipologie di materiali in base alla loro proprietà elettriche: i
semiconduttori e i superconduttori. I semiconduttori sono materiali che sono perfettamente
isolanti a bassissime temperature mentre a temperature ambiente conducono parzialmente
l’elettricità. Una caratteristica peculiare dei semiconduttori è che la loro conducibilità elettrica
può essere variata in modo molto ampio introducendo in questi materiali piccole quantità di
elementi aventi valenza diversa, in questo caso il semiconduttore si dice “drogato”. Sono
semiconduttori il silicio e il germanio.
Sono superconduttori quei materiali che, al di sotto di determinate temperature critiche Tc
solitamente molto basse, presentano una bassissima resistenza al passaggio della corrente
elettrica e dunque si comportano praticamente da conduttori ideali. Un uso tipico dei
superconduttori è per costruire bobine di magneti, per esempio nei sistemi clinici di risonanza
magnetica nucleare nei quali vengono utilizzati numerosi composti metallici superconduttori (ad
esempio il niobio-stagno, Tc=17,9 K, e il magnesio-diboruro, Tc=39 K) e vari composti ceramici
le cui temperature critiche possono superare i 120 K (-153 °C).
Condensatori e applicazioni
Un condensatore è uno dei tre componenti circuitali passivi, insieme a resistori e induttori. È il
più semplice dispositivo per accumulare energia elettrostatica. Il più comune e quello a facce
piane formato da due armature cioè da due piastre cariche separate da un dielettrico, la
presenza di un isolante nel mezzo fa sì che le due cariche non si attraggano. Tra le piastre si
supponga ci sia il vuoto, tra di esse si genera un campo elettrico le cui linee di forza escono
dalla piastra positiva e vanno su quella negativa. La presenza del dielettrico è fondamentale,
oltre che per non far entrare in contatto le due armature, anche ad aumentare la capacità del
condensatore infatti a parità di differenza di potenziale la sua presenza genere un aumento de
carica sulle armature. Al condensatore è associata una capacità elettrica pari al rapporto della
carica fratto la differenza di potenziale. C=Q/deltaV. Nel caso del condensatore a facce piane, la
capacità è direttamente proporzionale alle superfici delle facce e al dielettrico mentre è
inversamente proporzionale alla distanza tra le armature. C= ε0 A / d. L’unità di misura della
capacità elettrica è il Farad. L’energia di un condensatore è il lavoro per portare una parte di
carica deltaq dallarmatura negativa a quella positiva. Il lavoro totale è pari a Q^2/2C. Parte
dell’energia però viene dissipata per opporsi alla forza repulsiva e sono metà dell’energia totale
viene immagazzinata nel condensatore sotto forma di lavoro cioè energia potenziale
elettrostatica. U=1/2 C V^2. All’interno di un circuito elettrico due o più condensatori possono
essere disposti tra loro in serie o in parallelo. Sono in serie quando la carica elettrica sulle
armature dei diversi condensatori è la stessa mentre la differenza di potenziale tra le armature di
ogni singolo condensatore è inversamente proporzionale alla sua capacità. L’inverso della
capacità equivalente di due condensatori in serie è uguale alla donna degli inversi delle
capacità dei singoli condensatori: 1/Ctot=1/C1+1/C2. Nel caso di due condensatore in parallelo
la differenza di potenziale tra le armature dei singoli condensatori è la stessa mentre la carica
elettrica è proporzionale alla capacità. Per condensatori distosti in parallelo la capacità totale è
uguale alla somma delle capacità dei singoli condensatori. Ctot=C1+C2
I condensatori hanno applicazioni importantissime in ambito biomedico tra cui i defibrillatori (e i
pacemaker). Soffermiamoci sul primo. Il defibrillatore è un apparecchio salvavita in grado di
rilevare le alterazioni del ritmo della frequenza cardiaca e di erogare una scarica elettrica al
cuore qualora sia necessario. L’erogazione di uno shock elettrico serve per azzerare il battito
cardiaco e, successivamente, ristabilirne il ritmo regolare. Generalmente, un defibrillatore è
composto da due elettrodi che devono essere posizionati sul torace del paziente (uno a destra e
uno a sinistra del cuore ) e da una parte centrale dedicata all’analisi dei dati da essi trasmessi.
Questo dispositivo è in grado di mandare al cuore un corrente molto elevata in un intervallo di
tempo molto breve. Il trasformatore permette di portare la tensione da un valore di 220v a uno di
3000V. Le piastre, prima riessere poste sulla pelle del paziente, vengono poste su un supporto
isolante in modo che le cariche vengano scaricate dopo tutte insieme.

Campo magnetico e applicazioni


Definiamo campo magnetico una perturbazione dello spazio che può essere generata da un
magnete, avente un polo nord positivo e un polo sud negativo, o da un filo percorso da
corrente. Una caratteristica tipica del campo magnetico è quella di essere un campo dipolare
poichè non è possibile dividere i due poli di un magnete. Le linee di campo sono linee chiuse,
sempre uscenti dal polo positivo ed entranti in quello negativo; in caso di campo uniforme le
linee di campo sono parallele ed equidistanti tra loro. La presenza del campo genere una forza,
descritta dalla legge di Lorentz, tale per cui una qualsiasi carica elettrica in movimento nel
campo subisce una variazione della propria traiettoria che tenderà ad assumere un andamento
circolare. Tale forza è data dal prodotto della carica per il prodotto vettoriale tra la velocità della
carica e il campo magnetico, secondo la formula: F=q v x B dove q è il valore della carica, v la
sua velocità della particella, B l'intensità del campo magnetico. Essendo un prodotto vettoriale è
necessario tener conto anche dell’angolo α compreso tra i vettori velocità e campo. La forza di
Lorentz è sempre perpendicolare sia al vettore velocità che al vettore campo magnetico, se ne
possono determinare direzione e verso secondo la regola della mano destra quando la carica è
positiva mentre per una carica negativa il verso è quello opposto.
La forza di Lorentz si comporta come una forza centripeta, cioè come una forza che costringe la
particella carica in movimento a compiere un moto circolare, in assenza di questa (e del campo
magnetico) infatti la carica si muoverebbe di moto rettilineo uniforme. Considerando l'ipotesi di
velocità e campo perpendicolari è possibile descrivere il modo della carica confrontando la forza
di Lorents con la forza centripeta. q v B = m v^2 / r.
Tra le applicazioni biomediche del campo magnetico vi sono RMN, lo spettrometro di massa e il
ciclotrone. Lo spettrometro di massa è ampiamente utilizzato nei laboratori di ricerca
famacologica e nei laboratori di analisi. Si tratta di un dispositivo che permette di calcolare la
massa di una particella carica dalle piccole dimensioni sfruttando un campo elettrico ed uno
magnetico associato. La massa viene ionizzata e poi accelerata da un campo elettrico
facendola passare attraverso due lastre tra le quali esiste una differenza di potenziale. Una volta
portata alla velocità desiderata, la carica di cui si vuole analizzare la massa viene introdotta in
una regione di spazio in cui è presente un campo magnetico uniforme e costante ortogonale alla
velocità in ingresso. La carica subendo una forza di Lorentz inizierà a muovendosi di moto
circolare uniforme e colpirà il rilevatore. Misurando il raggio di curvatura è possibile risalire alla
massa della piccola quantità di materia tenendo conto della del rapporto m/q.
Il ciclotrone è un dispositivo utilizzato in ambito biomedico per esami diagnostici come la PET.
La struttura acceleratrice di un ciclotrone è costituita da due semidischi a forma di D nei quali è
presente un campo magnetico uscente ortogonale al piano. Tra i due semidischi viene applicato
un campo elettrico che cambia segno ad ogni semirotazione delle particelle in questo modo ad
ogni passaggio tra i semidischi si ha un accelerazione della particella dunque una maggiore
energia cinetica. La particella si sposta in un orbita sempre maggiore e si allontanerà solo
quando avrà raggiunto la velocità desiderata.

Risonanza magnetica nucleare


La risonanza magnetica nucleare è una tecnica diagnostica medica utilizzata già dagli anni 80
del secolo scorso. Sono necessari un campo magnetico statico, un campo magnetico variabile
generato da onde a radio frequenza e dei nuclei atomici con numero dispari di protoni in modo
da garantire uno spin diverso da zero a cui si può associare un momento di dipolo magnetico. Il
nucleo più utilizzato è sicuramente l’idrogeno, vista la sua abbondanza nel corpo umano.
Il primo step consiste nell'inserire il campione da analizzare all'interno del campo magnetico
statico. Ciò comporta una magnetizzazione macroscopica netta: gli spin, di solito orientati
causalmente, risentono del campo e si orientano in modo parallelo o antiparallelo; i momenti di
dipolo magnetico di spin assumono un moto di precessione, cioè di rotazione, con una
frequenza direttamente proporzionale all'intensità del campo magnetico. Questa
magnetizzazione viene definita longitudinale perché il campo magnetico che si genera all'interno
del campione ha la stessa direzione di quello statico.
Con il secondo step viene generato il campo magnetico variabile sfruttando il fenomeno della
risonanza. Una bobina manda impulsi a radio frequenza pari alla frequenza di precessione dei
nuclei di H (90gradi) che assorbendo energia variano la propria angolazione: si passa da una
magnetizzazione longitudinale a una trasversale.
Lo step successivo corrisponde all'interruzione dell’impulso a radiofrequenza e il conseguente
ritorno del sistema alle condizioni iniziali. Durante questo processo il sistema cede energia che
viene catturata dalla bobina sottoforma di segnale FID. Da quest’ultimo sono ricavabili i
parametri necessari per la realizzazione delle immagini finali quali i tempi di rilassamento 1 e 2 e
la densità protonica.
T1 e T2 sono indipendenti tra loro poiché descrivono due processi differenti. T1 è legato al
tempo necessario per passare dalla magnetizzazione trasversale a quella longitudinale e ci
descrive gli scambi termodinamici tra lo spin e l’ambiente circostante. T2, invece, descrive il
defasamento nucleare cioè la perdita di coerenza di fase degli spin. Solitamente T2 è più breve
di T1.
Il terzo parametro, la densità protonica, esprime il numero di protoni risonanti per unità di
volume di campione.
Correnti elettriche e resistenze
Si definisce corrente elettrica (continua) un moto di cariche elettriche che produce un flusso
netto di carica in una direzione. È possibile ottenere questo flusso di carica ponendo alle
estremità di un filo conduttore una certa differenza di potenziale tale per cui gli elettroni si
muovono dai punti a potenziale minore ai punti a potenziale maggiore. Se la differenza di
potenziale è mantenuta costante da un generatore che eroga abbastanza energia, per esempio
da una batteria, si ottiene un flusso continuo di elettroni nel conduttore. Si definisce inensità di
corrente il rapporto tra la quantità di carica elettrica che attraversa la sezione del conduttore in
un determinato intervallo di tempo, e l’intervallo di tempo stesso. I=Q/Δt. L’intensità di corrente
quindi è una grandezza scalare e la sua unità di misura, secondo il SI, è l’Ampere (Coulomb/s).
Per convenzione si assume positiva quando ha il verso del moto in cui si muovono le cariche
positive; in realtà sappiamo che a muoversi sono gli elettroni che hanno carica negativa dunque
il verso è opposto al modo degli elettroni. La relazione che intercorre tra la differenza di
potenziale e l’intensità di corrente prende il nome di Legge di Ohm: esiste una proporzionalità
diretta fra il valore della tensione, o ddp, e l’intensità della corrente continua che fluisce
attraverso una sezione di filo conduttore: R = deltaV / I. R rappresenta la resitenza, indica il
grado di difficoltà che gli elettroni di conduzione trovano nel muoversi entro il materiale. La sua
unità di misura è l’ohm (ohm=Volt/Ampere). Inverso della resistenza è la conduttanza (G) e viene
spesso utilizzata quando si parla di cellule nervose. Vi è poi una seconda legge di Ohm che
esprime la diretta proporzionalità tra la resistenza e lunghezza del filo conduttore e l’inversa
proporzionalità della resistenza rispetto alla sezione dello stesso filo conduttore. R = p l / A.
Nella formula è presente un nuovo parametro, la resistività p, che dipende dal tipo di materiale
utilizzato. La resistività dei metalli è molto bassa mentre quella degli isolanti molto elevata. La
resistività aumenta con la temperatura poichè una maggior energia termica fa aumentare
l’oscillazione degli ioni del conduttore e gli elettroni incontrano più ostacoli lungo lo
spostamento. Le cellule nervosa hanno una resistività molto alta che permette loro di “filtrare”
gli stimoli che arrivano al cervello infatti gli stimolino intensità minore non raggiungono neppure i
nodi di Ranvier.
In un circuito possono essere presenti più resistenze dunque considerando come queste sono
disposte tra loro possiamo calcolare il valore della resistenza equivalente cioè quell’unica
resistenza che, sostituita a tutte le altre presenti in un circuito, fa in modo che la corrente totale
rimanga invariata.Due resistenze sono in serie quando l’estremo di uscita di una è collegato solo
con l’estremo di entrata dell’altra, ossia le resistenze sono in sequenza. Pertanto, tutte le
resistenze saranno attraversa dalla medesima corrente, cioè dallo stesso flusso di elettroni.
Infatti, per la legge di conservazione della carica, in un sistema chiuso la carica rimane invariata
nel tempo. Req = R1 + R2 Due resistenze sono in parallelo quando gli estremi di entrata e gli
estremi di uscita sono collegati fra loro. Nel caso delle resistenze collegate in parallelo, il
reciproco della resistenza equivalente è pari alla somma dei reciproci delle singole resistenze.
Quindi, la resistenza equivalente di un collegamento in parallelo sarà minore della resistenza dei
singoli resistori: 1/Req=1/R1+1/R2

Campi magnetici e correnti


Definiamo campo magnetico una perturbazione dello spazio che può essere generata da un
magnete, avente un polo nord positivo e un polo sud negativo, o da un filo percorso da
corrente. Si definisce corrente elettrica il moto di cariche elettriche che produce un flusso netto
di carica in una direzione. È possibile ottenere questo flusso di carica ponendo alle estremità di
un filo conduttore una certa differenza di potenziale tale per cui gli elettroni si muovono dai punti
a potenziale minore ai punti a potenziale maggiore.
Il primo fenomeno che evidenziò l’esistenza di una relazione tra i fenomeni elettrici e quelli
magnetici fu l’esperimento di Ørsted che considera il caso più semplice di circuito elettrico. Un
conduttore rettilineo percorso da corrente continua e immerso in un mezzo omogeneo lineare di
estensione infinita genera intorno a sé un campo magnetico: le linee del campo di induzione
magnetica sono di forma circolare, centrate rispetto al conduttore e giacenti in piani ortogonali
al conduttore stesso; il verso del campo di induzione magnetica è dato dalla regola della mano
destra (considerando il pollice nel verso in cui scorre la corrente, il verso del campo di induzione
magnetica è dato dal verso di chiusura della mano).
Quindi, la corrente che scorre in un circuito elettrico crea attorno a sé un campo di induzione
magnetica la cui intensità è inversamente proporzionale alla distanza dal circuito. Per un
conduttore rettilineo, vale la formula di Biot-Savart: B = µ i / (2TT d)
Questo fenomeno è una proprietà fondamentale e vale per tutte le correnti elettriche, siano esse
continue o alternate. Le linee del campo magnetico sono sempre delle linee chiuse intorno alla
corrente e la loro forma dipende dalla configurazione geometrica dell’intero circuito elettrico che
concorre alla produzione del campo magnetico per questo motivo si dice che linee del campo di
induzione magnetica sono sempre concatenate con il circuito elettrico che le produce.
Se il circuito elettrico percorso da corrente ha la forma di una spira
circolare, le linee del campo magnetico sono ancora dei cerchi
concatenati con la spira, ma tali cerchi sono spostati eccentricamente
verso l’esterno. Solitamente i circuiti elettrici percorsi da corrente sono da
più spire circolari contigue che formano un solenoide.
Se il solenoide è abbastanza lungo, l’induzione magnetica al suo interno
può essere considerata uniforme e pari a: B = µ i n dove n è la densità di
spire cioè numero di spire per unità di lunghezza del solenoide (n=N/l). Le linee del campo di
induzione magnetica all’interno del solenoide sono perpendicolari alle spire, con un verso che
segue la regola della mano destra.
Come per il campo elettrico è possibile calcolare il flusso grazie al teorema di Gauss (Φ(E)= ∮E
dS= Q/ε), nel caso del campo magnetico è possibile calcolarne la
circuitazione grazie al teorema di Ampere. Affinché questa legge sia
valida è necessario che ci siano delle determinate condizioni quale
una distribuzione di carica altamente simmetrica. Fatta questa
premessa, la legge di Ampere afferma che la circuitazione di un
campo magnetico lungo una qualsiasi linea chiusa ed orientata è
uguale al prodotto tra la permeabilità magnetica e la somma algebrica
delle correnti concatenate alla linea chiusa. ∮B dl = µ0.
Faraday intuì che la corrente (e quindi la forza elettromotrice) era indotta dalla variazione del
flusso di B nel tempo: fem=Φ(B)/dt. A questa formula, successivamente, fu aggiunto un segno
negativo da Lenz per indicare che il campo magnetico generato dalla corrente si oppone alla
variazione di campo magnetico che l’ha indotta. Neumann invece dimostrò che la forza
elettromotrice si può esprimere anche come il lavoro per unità di carica necessario per spostare
una fatica lungo un percorso chiuso. fem=∮E dl. Eguagliano le due relazioni possiamo dire che
la circuitazione del campo E è uguale alla variazione del flusso del campo magn. ∮E d= Φ(B)/dt.

Potrebbero piacerti anche