Sei sulla pagina 1di 490

Esami di Stato 2004 - 1ª sessione –

Settore ingegneria Industriale – sez. Meccanica


1) Effetto DOPPLER
2) Verifica di una sezione a flessione
3) Diagramma carichi-deformazioni
4) Carico di punta
5) Curva ……… motore
6) Definizione di rischio
7) Notizie sulla tesi di laurea
8) Caratteristica di un motore a scoppio
9) Rendimento di un motore …….. e uno diesel
10) Viscosità
11) Ciclo di CARNOT
12) Effetto d’intaglio
13) Bonifica degli acciai
14) Trattamenti termici
15) Flessione semplice
16) Angoli di taglio di un utensile
17) Verifica trave reticolare
18) Ciclo frigorifero
19) Trave semplicemente appoggiata
20) Calcolo dei bulloni
21) Tolleranze di lavorazione
22) Scorrimento viscoso – Creep
23) Legge di stato dei gas perfetti
24) Exergia
25) Trasmissione del calore per convezione
26) Trasmissione del calore per conduzione
27) Trasmissione del moto con cinghia
28) Resistenza di un albero soggetto a momento torcente e relativa verifica in corrispondenza della
variazione di F
29) Trasmissione del calore per irraggiamento
30) Verifica di strutture sottoposte a carichi variabili
31) Metodo Omega - Trattazione euleriana del carico di punta
32) Inverter
33) 626
34) Funzione dell’ingegnere “Direttore dei Lavori”
35) Caratterizzazione pompe centrifughe
36) Fenomeni di cavitazione
37) Definizione di calore
38) Impianto di sollevamento idraulico
39) Varie fasi di progettazione
40) Diagramma della distribuzione in un motore alternativo a c.i. a 4 tempi
41) Tubo Venturi
42) Effetto venturi
43) Collegamenti bullonati e collegamenti saldati
44) Diagramma dei momenti per una trave appoggiata appoggiata
45) Trasmissione del calore: caso di una caldaia
46) Recipienti cilindrici
47) Differenza tra asse ed albero
48) Definizione della detonazione
49) Termocoppie
50) Classificazione degli acciai
51) Turbina a gas
52) Affidabilità
53) Trattamenti termici degli acciai
54) Batteria elettrica
55) Servizi elettrici nei motori elettrici
56) Diesel elettrico
57) Collaudo di un’opera
58) Motori a scoppio e diesel
59) Iniezione elettronica nei motori
60) Progettare aste
61) Energia solare – Pannelli per alimentazione impianto luce stradale
62) Rottura a fatica
63) Resistività
64) Prove di resistenza
65) Accensione elettrica
66) Struttura labile – trovare momento in sez.
67) Materiali compositi
68) Trasformatore di tensione
69) Motori elettrici
70) Differenza tra ghisa e acciaio
71) Andamento della resistività in funzione della temperatura
72) Turbine idrauliche: vari tipologie
73) Saldature: vari tipologie
74) Barra soggetto a momento; progettare sezione
75) Differenza tra dinamo e alternatore nei motori a scoppio
76) Attrito
77) Differenza di ossido di ferro e alluminio
78) Proprietà meccaniche dei metalli
79) Trasporto CONTAINER
80) Ciclo di lavorazione prodotti stampati
81) Legge di OHM
82) Turbomacchine
83) Compressori radiali e assiali
84) Punto di funzionamento di un circuito idraulico
85) Dimensionamento dell’albero di un’imbarcazione a vela
86) Resistenza di un conduttore
87) Rendimento motore diesel e a benzina
88) Baricentro di una distribuzione di masse
89) Schema di un impianto di condizionamento
90) Tensione di snervamento
91) CAD di modellazione 3D
92) La Legge di attrito superficiale
93) Legge di Stevino
94) Cambi meccanici e automatici
95) Diagramma dei momenti e del taglio
96) Impianto di pompaggio per accumulo di energia
97) Protezione motore asincrono
98) Differenza tra pila e accumulatore
99) Dimensionamento di un albero di trasmissione
100) Collaudo di apparecchiature
101) Mezzi d’indagine non distruttivi sui metalli
102) Criteri di resistenza
103) Cerchi di Mohr
104) Curva caratteristica motore elettrico
105) Definizione dei vari tipi di manutenzione
106) Proprietà meccaniche dei materiali
107) Equilibrio di una struttura reticolare
108) Trafilatura
109) Curve di probabilità (S - N)
110) Studio di velocità di propagazione della cricca
111) Termocoppie
112) Problemi di inquinamento negli impianti per la produzione di energia
113) Parametri di combustione
114) Condizionamento ambientale e misura dell’umidità
115) Ciclo di Rankine
116) Impianti per la produzione di energia
117) Caratteristiche di saldabilità degli acciai
118) Trasmissione del calore per convenzione
119) Misura della pressione
120) Albero intagliato sottoposto a momento torcente
121) Ciclo Joule
122) Sollecitazioni di un solido qualsiasi: flessione, torsione, trazione, ect.
123) Impianto idroelettrico
124) Formula flessione di una barra d’acciaio a sez. rettangolare .
125) Schema elettrico auto
126) Legge di Hooke
127) Calettamento di un disco su un albero - moti
128) Cerniera elastica
129) Spessore condotti forzati
130) Rugosità
131) Progettazione strutture con σa o stati limite
132) Cerniera plastica con sollecitazione crescente
133) Trasformatori di tensione
134) Prove di durezza
135) Collaudatore in corso d’opera
136) Ghisa lamellare
137) Igrometro
138) Turbina a vapore
139) Abbattimento scarichi motori
140) Presso flessione
141) Legge di OHM applicata a due resistenze in parallelo
142) Impianti di propulsione
143) Saldature TIG, MIG, MAG
144) Resilienza
145) Centrale termoelettrica
146) Potere calorifico
147) Travature reticolari
148) Misura della temperatura
149) Indagini termografiche
150) Trasmissione del calore
151) Numero di REYNOLDS
152) Capitolato speciale d'appalto e d'appalto
153) Tubo di Pitot
154) Angoli caratteristici accoppiamento ruote dentate
155) Relazione tra momento e taglio
156) Frizione
157) Polimeri termoplastici
158) Difetti delle saldature - cricche a caldo e a freddo
159) Accoppiamenti forzati
160) Contabilità - Direttore dei lavori
161) Fabbricazione acciaio e carbonio
162) Materiali delle palette della turbina
163) Prove resilenza sugli acciai (resistenza agli urti)
164) Turbine idrauliche
165) Materiali palette turbina Pelton (ghisa)
166) Saldabilità dell'acciao in funzione della % di Carbonio
167) Trave a doppio T – Calcolo freccia
168) Resistenza aerodinamica
169) Estensimetri
170) Differenza tra duttilità e malleabilità
171) Plasticità del materiale
172) Lavorazioni per asportazione di truciolo
173) Interruttori magnetotermici e differenziali
174) presso flessione Pilastro con forza e momento – Diagramma degli sforzi sulla sezione
175) Turbine che lavorano ad alte temperature
176) Cuscinetti a sfera – reggispinta
177) Ruote dentate
178) Proporzionamento modulare ruote dentate
179) Giunti
180) Freni automobilistici ed in generale
181) Tipio di freno: dinamometrici, idraulici, a correnti parassite… 
182) Materie plastiche 
183) Profilo ad evolvente 
184) Carburatore 
185) Calore specifico 
186) Programmi CAM 
187) Entropia 
188) Legge di Paris sulla propagazione della cricca 
189) Composizione ordine degli ingegneri 
190) Consiglio ordine degli ingegneri 
191) Sicurezza- elettrotecnica 
192) Parcelle e I.V.A. 
193) Cosa fai se ti cacciano dall’ordine 
194) Piano inclinato 
195) Legge di Miner 
196) Conduzione del calore attraverso una parete
197) Arco a tre cerniere
198) Quando è stato fondato l’ordine (1923)
199) Missione fondamentale dell’ordine
200) Funzione del coordinatore della sicurezza
201) Differenza tra collaudo statico e tecnico-amminnistrativo
202) Da chi dipende l’ordine (Ministero di Giustizia)
203) Legge 494/96
204) Equazione della catenaria
205) Unità del sistema internazionale
206) Saldatura al plasma
207) Common Rail
208) Lubrificazione elasto-idrodinamica
209) Indice di viscosità
210) Andamento della pressione dell’olio durante la lubrificazione elasto-idrodinamica
211) Saldatura Laser
212) Cianfrino
213) Zona termicamente alterata della saldatura
214) Ciclo diesel reale con leggi delle varie trasformazioni
215) Collaudo amministrativo
216) Dimensionamento di una spina collocata su di un aereo e su un trattore
217) Deformazioni termiche su di una trave
218) Inarcassa
219) Impianti combinati
220) Imbutitura
221) Etica
222) Cogenerazione
223) Legge di Bernulli
224) Principi della termodinamica
225) Cemento armato
Potere calorifico
Un'importante caratteristica di ogni combustibile è il potere calorifico. Esso rappresenta la quantità di
calore, espressa in chilocalorie o megajoule, prodotta da un chilogrammo di combustibile, quando
questo brucia completamente. Generalmente si distingue tra:

• Potere calorifico superiore (Hs)


• Potere calorifico inferiore (Hi).

Il potere calorifico superiore (Hs) è la quantità di calore che si rende disponibile per effetto della
combustione completa a pressione costante della massa unitaria del combustibile, quando i prodotti
della combustione siano riportati alla temperatura iniziale del combustibile e del comburente. Per i
combustibili liquidi l'unità di misura usualmente addottata per la massa è il kg mentre per i
combustibili gassosi si fa riferimento al metro cubo in condizioni normali cioè alla massa di gas
combustibile secco contenuta in 1 m3 quando la sua temperatura sia O°C e la pressione sia 760 mmHg
(1,013 bar). Se, nel riportare i prodotti della combustione alla temperatura iniziale di combustibile e
comburente, il vapore d'acqua contenuto nei gas di combustione e ottenuto dalla combustione
dell'idrogeno del combustibile non viene condensato e non rilascia quindi il proprio calore di
condensazione, la quantità di calore complessivamente resa disponibile è minore, e si definisce pertanto
potere calorifico inferiore (Hi) "il potere calorifico superiore diminuito del calore di condensazione
del vapore d'acqua durante la combustione". Il vapore d'acqua non viene condensato nei processi di
combustione in un motore quindi è al potere calorifico inferiore che si fa riferimento. La
determinazione del potere calorifico si può ottenere col calcolo in base all'analisi elementare del
combustibile, oppure direttamente mediante l'uso di appositi strumenti calorimetrici. Nel primo caso si
determina la massa degli elementi combustibili, carbonio (C), idrogeno (H), zolfo (S) contenuta in un
chilogrammo di combustibile mediante l'analisi chimica elementare, quindi si valuta l'apporto di calore
fornito da ciascuno di essi e si sommano i risultati. Sapendo che, ad esempio, 1 kg di carbonio sviluppa
nella combustione 8.130 kcal e che 1 kg di idrogeno sviluppa 34.500 kcal, se si ha un olio combustibile
con un tenore di carbonio dell'85,5% in massa (cioè 0,855 kg per kg di olio), e di idrogeno dell'11,5%
(cioè 0,115 kg per kg di olio), detti KGcomb, KGC, KGH2 le masse espresse in kg di combustibile e
rispettivamente di carbonio e idrogeno contenuti, il suo potere calorifico superiore sarà:

Hs = 0,855 KGC/KGcomb · 8.130 kcal/KGC + 0,115 KGH2/KGcomb · 34.500 kcal/KGH2 = 10.919


kcal/KGcomb

Il potere calorifico superiore si può determinare direttamente mediante la bomba calorimetrica di


Mahler o apparecchi simili in cui il calore prodotto dalla reazione viene assorbito da una massa di
acqua o di altro liquido di cui si osserva l'aumento della temperatura.

Potere calorifico inferiore di alcuni combustibili


kcal/kg kcal/m³ MJ/kg MJ/m³
Legna secca (umidità <15%) 3500 15,5
Carbone 7500 31,40
Carbonio 8130 34,03
Idrogeno 34500 144,42
Gasolio 10210 42,7
Metano 8200 34,33
Resilienza (ingegneria)
In ingegneria, la resilienza è la capacità di un materiale di resistere a sollecitazioni impulsive. Più
precisamente la resilienza è definita come l'energia per unità di volume assorbita da un materiale
portato a rottura in maniera fragile. La resilienza si misura sottoponendo un campione del materiale
stesso a prova d'urto tramite un maglio a forma di pendolo (pendolo di Charpy), ed è ottenuta
direttamente calcolando la differenza tra l'altezza iniziale da cui esso viene lasciato cadere e l'altezza
che raggiunge dopo aver rotto il campione del materiale sottoposto a misura. Il contrario della
resilienza è l'indice di fragilità. La prova di Charpy fornisce anche un indice sulla duttilità del materiale
ed è usata anche per stabilire l'intervallo di temperature in cui avviene il passaggio da un
comportamento duttile ad uno fragile (transizione duttile-fragile). Il provino intagliato ha dimensioni
2x2.

Rugosità

La rugosità è una proprietà della superficie di un corpo, costituita da microimperfezioni geometriche


normalmente presenti sulla superficie o anche risultanti da lavorazioni meccaniche; tali imperfezioni si
presentano generalmente in forma di solchi o scalfitture, di forma, profondità e direzione variabile. La
rugosità di una superficie può essere misurata mediante strumenti denominati rugosimetri. Il
procedimento di misura della rugosità consiste nella registrazione del profilo della superficie ottenuto
lungo una determinata linea di misura (o di scansione); tale profilo viene poi analizzato definendo un
parametro numerico che costituisce la misura della rugosità. Parte fondamentale del processo di
calcolo dei vari parametri di rugosità è l'operazione di filtraggio che consente di ottenere una misura
della sola qualità della superficie, depurata dagli effetti che gli errori di geometria del pezzo hanno sul
profilo misurato. La misura della rugosità Ra, espressa in micron, è il valore medio aritmetico degli
scostamenti del profilo reale della superficie rispetto alla linea media. Tale misura è riferita ad una
lunghezza di base l del profilo analizzato per evitare l'influenza di altri tipi di irregolarità. Il valore Ra
non è però sufficiente per definire completamente le caratteristiche morfologiche della superficie, in
quanto profili dagli andamenti differenti dallo stesso scostamento medio aritmetico presenteranno lo
stesso valore di Ra; per tale motivo si sono introdotti altri paramenti, come Rq, media quadratica degli
scostamenti dei punti del profilo dalla linea media; tale parametro, essendo una media quadratica è più
sensibile ai bruschi scostamenti del profilo da un andamento regolare ed è in generale maggiore rispetto
al valore Ra.

Igrometro

L'igrometro é uno strumento che misura l'umidità relativa dell'aria, ovvero il rapporto tra l'umidità
assoluta, definita come la quantità di vapore acqueo presente nell'atmosfera in un dato istante, e
l'umidità di saturazione, cioè la quantità massima di vapore acqueo che può essere presente ad una data
temperatura e pressione. Entrambe si esprimono in termini di peso del vapore acqueo per unità di
volume (kg/m3). Il genere più comune di igrometro è l'igrometro a capello, anche se i modelli
commerciali usano sistemi diversi. Uno strumento analogo, l'igrografo, misura la variazione
dell'umidità in un dato intervallo di tempo.
1° Legge di Ohm
La legge di Ohm, che prende nome dal fisico Georg Ohm che l'ha enunciata, afferma che la differenza
di potenziale V ai capi di un conduttore ad una data temperatura T è proporzionale alla corrente elettrica
I che lo attraversa per mezzo di una quantità costante e tipica del conduttore detta resistenza, R:

e quindi

I dispositivi per i quali la legge è soddisfatta sono detti resistori ideali o ohmici; tuttavia, per ragioni
storiche, si continua ad attribuire all'enunciato il rango di legge. Si noti che la legge di Ohm esprime
unicamente la relazione di linearità fra la corrente elettrica I e la differenza di potenziale V applicata.
L'equazione indicata è semplicemente una forma dell'espressione che definisce il concetto di resistenza
ed è valida per tutti i dispositivi conduttori.

Formalismo matematico
Sappiamo che la densità di corrente è proporzionale al campo elettrico tramite la:

Scrivendo la corrente elettrica come integrale della sua densità di corrente, si ottiene:

dove σ è la conduttività ed E il campo elettrico.

Si supponga ora σ costante, E perpendicolare alla superficie S ovvero parallelo a da, e di modulo
costante. In questo semplice caso si ottiene:

dove A è l'area della sezione di conduttore attraversato dalla carica elettrica e d la lunghezza del
conduttore.

In questo modo possiamo definire la conduttanza come:

Definendo, quindi, la resistenza R come l'inverso della conduttanza


dove ρ = 1/σ è la resistività, si ottiene la legge di Ohm.

Dipendenza dalla temperatura


La resistività e quindi la resistenza dipende dalla temperatura, nei conduttori elettrici questa dipendenza
si può scrivere in maniera approssimata come segue:

dove ρ0 è la resistività alla temperatura T0 e α un coefficiente che dipende dal materiale.

Legge di Ohm in corrente alternata


La legge di Ohm ha un'analoga estensione per i circuiti in corrente alternata. Utilizzando il metodo
simbolico, ogni elemento è soggetto a grandezze del tipo:

v(t) = Vmsin(ωt + φ)
i(t) = Imsin(ωt + φ)

dove Vm,Im sono le grandezze effettive, ω è la pulsazione e φ la fase. Ognuno dei componenti passivi
resistenza, capacità e induttanza hanno una forma analoga alla legge di Ohm, premettendo di
considerare le grandezze come complesse:

VR = RI
VL = jωLI

dove j2 = − 1 è l'unità immaginaria. In ognuno dei tre casi:

ZR = RI è l'impedenza resistiva;
ZL = jωL impedenza induttiva;

impedenza capacitiva;

è in generale un numero complesso. I circuiti in corrente alternata usano questo tipo di formalismo
perché molto elegante e immediato, in definitiva la legge di Ohm e tutte le leggi quali Teorema di
Norton, thevenin e Millman hanno analoghe forme per circuiti in corrente alternata.
Resistività elettrica
Da Wikipedia, l'enciclopedia libera.

La resistività elettrica, anche detta resistenza elettrica specifica, è l'attitudine di un materiale a


opporre resistenza al passaggio delle cariche elettriche.

La resistività ρ, la cui unità di misura nel sistema internazionale è ohm per metro, è data da:

dove:

• R è la resistenza elettrica di un campione specifico di materiale misurata in ohm,


• l è la lunghezza in metri,
• S è l'area della sezione del campione in metri quadrati.

Da questa equazione, ne deriva l'inversa dove, nota la lunghezza L, la sezione S e la resistività ρ


specifica di un conduttore, la sua resistenza R è data da

La resistività può anche essere definita come:

dove:

• E è l'intensità del campo elettrico misurato in volt al metro,


• J è la densità di corrente in ampere al metro quadrato.

Infine è anche definita come l'inverso della conduttività elettrica:

dove σ è la conduttività elettrica.

Dipendenza dalla temperatura


Nei metalli

La resistività di un metallo solitamente diminuisce linearmente al diminuire della temperatura, fino a


raggiungere un valore minimo chiamato resistività residua, secondo la formula:
ρ = ρ0[1 + α(T − T0)]

dove ρ è la resistività e T la temperatura, mentre ρ0 è la resistività del metallo alla temperatura T0 di


riferimento, solitamente presa pari a 0° o 20°. α è la costante di proporzionalità.

Nei semiconduttori

La resistività di un semiconduttore diminuisce esponenzialmente con l'aumentare della temperatura.


Più precisamente la relazione è data dalla formula di Steinhardt-Hart:

dove A, B e C sono coefficienti specifici del materiale.

Nei superconduttori

Alcuni materiali, detti superconduttori, quando vengono portati a temperature sufficientemente basse ,
assumono un resistività uguale a zero.

Resistività comuni
Nella seguente tabella sono riportate le resistività caratteristiche di alcuni materiali alla temperatura di
20°. (10-6 Ωm = Ω·mm²/m)

Materiale Resistività (ohm × metro)

Argento 0.0159 × 10-6

Rame 0.017 × 10-6

Oro 0.0244 × 10-6

Alluminio 0.0282 × 10-6

Tungsteno 0.056 × 10-6

Ferro 0.1 × 10-6

Acciaio 0.12 × 10-6

Platino 0.11 × 10-6

Piombo 0.22 × 10-6

Nickelcromo
1.50 × 10-6
(Una lega di nichel e cromo usata negli elementi riscaldanti)

Nitinol 0.80 × 10-6


(Una lega a memoria di forma a base di nichel e titanio)

Carbonio 35 × 10-6

Germanio 0.46

Silicio 640

Vetro tra 1010 e 1014

Gomma dura circa 1013

Zolfo 1015

Quarzo fuso 75 × 1016

Pelle umana circa 5.0 × 105

Osservando la tabella si può intuire perché il rame è ampiamente usato per realizzare linee elettriche.
L'argento è leggermente migliore ma decisamente più costoso.

Unità di misura
L'unità di misura della resistività è l'ohmxmetro (Ω x m)

L'unità di misura della conducibilità elettrica (o conduttività elettrica) è (Ω x m)-1

Carburatore
Da Wikipedia, l'enciclopedia libera.

Il carburatore è una parte meccanica del motore a combustione interna ad accensione comandata che
si occupa di preparare la miscela di aria e carburante da immettere nella camera di combustione. Il
carburatore è l'elemento principale dell'insieme denominato sistema di alimentazione dei motori a c.i. .
Schema di massima di un carburatore

Il carburatore è composto essenzialmente da un condotto principale che mette in comunicazione


l'interno del gruppo termico (cilindro, testata, pistone, camera di scoppio) con l'esterno. Lungo il
percorso di questo condotto si trova, normalmente, una valvola con la funzione di regolare il flusso di
aria all'interno del condotto, ed un sistema d'ingresso del carburante.La valvola è gestita in modo
diretto o indiretto dal comando dell'acceleratore: accelerare significa nella pratica fare in modo che il
comando apra la valvola e provocando un maggiore afflusso d'aria.L'aria all'interno del carburatore
viene aspirata grazie alla depressione creata all'interno del cilindro dal moto discendente del pistone:
motori aspirati. Nei motori sovraalimentati l'aria viene in diversi modi soffiata dalla parte in contatto
con l'esterno del condotto. All'interno del condotto principale conformato a condotto Venturi si forma
di conseguenza una corrente d'aria che, per Effetto Venturi, crea a sua volta una depressione. Grazie a
questa depressione il carburante viene aspirato all'interno del condotto e nebulizzato in modo da
formare la miscela aria/carburante che andrà a detonare, poi, all'interno della camera di scoppio. Il
carburante entra nel flusso d'aria tramite un foro appositamente calibrato atto a ottenere il giusto
rapporto stechiometrico perché la combustione possa essere efficiente.

I carburatori spesso sono però costituiti, oltre che dal condotto principale, dal altri condotti secondari e
ulteriori ingressi carburante con diversi calibri. Tutto per migliorare e adattare il rapporto
stechiometrico in funzione della richiesta delle diverse entità di rotazione del motore. Questi problemi
sono stati per lo più risolti dall'introduzione dell'iniezione elettronica che grazie ad un controllo
software ed apposito hardware riesce a modificare il rapporto stechiometrico all'istante.

Il carburatore viene congiunto con il gruppo termico grazie al collettore d'aspirazione che rappresenta
un prolungamento ideale del condotto principale. Per garantire l'ingresso di aria pulita e preservare la
durata del motore viene applicato un apposito sistema filtrante dal lato dell'apirazione del condotto.
Questi filtri hanno però l'inconveniente di limitare l'ingresso di aria fresca e per questo nei vecchi
motori da competizione o elaborati sono presenti filtri speciali che consentono l'ingresso di un flusso
maggiore di aria; in modo più spartano il filtro viene eliminato del tutto.

Sistemi filtranti, carburatore, e collettori d'aspirazione sono i componenti del sistema d'alimentazione
del motore a scoppio

Si ricorda che per facilitare l'ingresso ed il transito della massa d'aria il condotto deve essere
opportunamente conformato.

Spesso per aumentare le prestazioni di un motore a scoppio si riccorre alla sostituzione del carburatore
con uno dalle caratteristiche diverse da quelle prevista dall'assemblatore originale del motore, e questa
operazione ha come conseguenza anche l'inevitabile incremento di consumo di carburante.

Iniezione (motore)
Da Wikipedia, l'enciclopedia libera.

L'iniezione è un sistema di alimentazione combustibile che permette di apportare il combustibile nei


motori a combustione interna.
L'iniezione si pone in alternativa alla miscelazione per carburazione e si può distinguere in due
tipologie diverse: l'iniezione indiretta e l'iniezione diretta.

L'iniezione si realizza tramite l'iniettore. Questo può essere unico e alimentare tutti i cilindri del motore
(iniezione single point) oppure ogni cilindro può essere dotato di un apposito iniettore (iniezione multi
point) posizionato nel condotto di aspirazione per i sistemi ad iniezione indiretta o affacciata
direttamente sulla camera di combustione per i sistemi ad iniezione diretta.

A sua volta il sistema d'iniezione indiretta multi point può essere fasato o non fasato a seconda che
l'iniezione avvenga solo in certe fasi del ciclo termico o sia continua.

Elettrodiesel
Da Wikipedia, l'enciclopedia libera.

Il motore elettrodiesel è un motore che combina un motore a combusione interna a ciclo Diesel con un
generatore elettrico, il quale a sua volta, alimenta uno più motori elettrici.

Questa particolare architettura viene adottata al fine di semplificare i meccanismi di trasmissione tra il
motore Diesel e le ruote di trazione.

Termocoppia
Da Wikipedia, l'enciclopedia libera.

La termocoppia è un sensore di temperatura largamente diffuso. In particolare le termocoppie sono


ampiamente utilizzate perché economiche, facilmente sostituibili, standardizzate e possono misurare un
ampio intervallo di temperature. Il loro limite più grande è l'accuratezza, infatti errori sistematici
minori di un grado centigrado sono difficili da ottenere.

Un gruppo di termocoppie poste in serie viene detto termopila.

Principio di funzionamento
Nel 1821 Thomas Johann Seebeck, un fisico di provenienza estone, scoprì che un conduttore elettrico
sottoposto ad un gradiente termico genera una differenza di potenziale. Questo fenomeno, chiamato
effetto Seebeck è sfruttato dalle termocoppie.

Una termocoppia è costituita da una coppia di conduttori elettrici di diverso materiale uniti tra loro in
due punti distinti, convenzionalmente denominati giunzione fredda e giunzione calda. È possibile
risalire alla differenza di temperatura esistente tra questi due punti misurando la differenza di
potenziale presente fra gli stessi. Se, anziché la differenza di temperatura, occorra misurare la
temperatura assoluta, una giunzione è mantenuta ad una temperatura fissa e nota. Essa prende allora il
nome di giunzione di riferimento, mentre l'altra è la giunzione di misura.
Relazione tra temperatura e differenza di potenziale

La relazione tra la differenza di temperatura e la differenza di potenziale prodotta non è lineare. Essa
può essere approssimata dalla seguente equazione polinomiale:

I valori an variano in relazione ai materiali utilizzati. A seconda della precisione desiderata, è possibile
scegliere n compreso tra 5 e 9.

Tipi di termocoppia
Esiste una grande varietà di termocoppie, distinguibili in base ai due conduttori elettrici che
compongono la giunzione ed al campo di applicazione (industriale, scientifico, alimentare, medico,
ecc.).

• Tipo K (Chromel (Ni-Cr) (+)/Alumel (Ni-Al) (-))

Sono termocoppie di uso generale, economiche e disponibili in una grande varità di formati. Il loro
intervallo di misura va da -200°C a 1260°C. La sensibilità è di circa 41 µV/°C.

• Tipo J (Ferro (+)/Costantana (Cu-Ni) (-))

Il loro intervallo di misura va da -40°C a 750 °C ed essendo più limitato del tipo K, le rende meno
diffuse di queste ultime. Sono utilizzate in vecchi apparati che non funzionano con il tipo K. Le
termocoppie tipo J sono caratterizzate da un basso costo ed una notevole sensibilità (51,7 µV/°C), ma
non possono essere utilizzate sopra i 760°C a causa di una transizione magnetica che fa perdere loro la
calibrazione.

• Tipo T (rame (+)/costantana (-))

Presentano caratterisitiche simili alle termocoppie in ferro/costantana (tipo J). Presentano una
sensibilità di 48,2 µV/°C. Utilizzabili nell'intervallo di temperature comprese tra -200°C e 400°C.

• Tipo E (Chromel (+)/Costantana (-))

Hanno una elevata sensibilità (68 µV/°C) che le rende adatte ad applicazioni a bassa temperatura
(criogeniche). Sono inoltre amagnetiche.

• Tipo N (Nicrosil (Ni-Cr-Si) (+)/Nisil (Ni-Si) (-))

L'intervallo di misura utile è compreso tra i 650°C e i 1250°C. La loro stabilità e la resistenza
all'ossidazione a caldo le rendono un ottimo sostituto a basso costo delle termocoppie a base di platino
(tipi B, R, S) per le misure di alta temperatura. Progettate per essere una evoluzione del tipo K, sono
oggigiorno sempre più popolari.
Le termocoppie B, R, S, sono tutte composte da metalli nobili ed hanno caratteristiche simili. Sono le
più stabili fra le termocoppie, ma la loro bassa sensibilità (10 µV/°C) ne limita l'uso a misure di alte
temperature (>300°C).

• Tipo B (platino - 30% rodio (+)/platino-6% rodio (-))

Adatte per alte temperature, fino a 1800°C. A causa della particolare relazione tensione-temperatura
che le caratterizza, forniscono la stessa differenza di potenziale a 0°C ed a 42°C. Sono perciò inutili al
di sotto di 50°C.

• Tipo R (platino - 13% rodio (+)/platino (-))

Adatte per alte temperature fino a 1600°C.

• Tipo S (platino - 10% rodio (+)/platino (-))

Adatte per alte temperature fino a 1600°C. Grazie alla loro particolare stabilità, sono utilizzate come
standard di calibrazione per il punto di fusione dell'oro (1064,43°C).

Le termocoppie vanno scelte in base all'intervallo di temperatura di lavoro del sistema ed all'ambiente
in cui devono operare (presenza di acidi, agenti chimici aggressivi ecc.). Si noti che le termocoppie con
resistività minore sono anche meno sensibili. Bisogna inoltre precisare che il range di misura utile delle
termocoppie può variare anche sensibilmente in funzione a come viene dimensionata la stessa.

Battito in testa
Da Wikipedia, l'enciclopedia libera.

Con l'espressione battito in testa si indica il caratteristico rumore provocato dall'esplosione anomala
della miscela combustibile nella camera di scoppio dei motori endotermici a benzina. Questo avviene
quando la miscela è sottoposta ad eccessive pressioni o temperature per cui esplode prima dell'innesco
da parte della candela.

Le cause possono essere diverse, ma specialmente un rapporto di compressione troppo alto oppure un
basso numero di ottano possono far insorgere il problema, che può portare a gravi avarie per il
propulsore, in particolare alla guarnizione della testata, ai pistoni, alle valvole di aspirazione e scarico e
ai supporti di banco.

Distribuzione (meccanica)
Da Wikipedia, l'enciclopedia libera.
Il complesso della distribuzione, o più semplicemente distribuzione è l'insieme degli organi meccanici
predisposti al controllo dei gas che entrano ed escono nei cilindri e comprende le valvole di scarico e di
aspirazione e i sistemi preposti al regolare funzionamento di esse, cioè l'albero a camme, le punterie, le
aste e i bilancieri quando presenti.

Un particolare tipo di distribuzione è quello detto desmodromico.

Distribuzione desmodromica
Da Wikipedia, l'enciclopedia libera.

La distribuzione desmodromica è il meccanismo di apertura e chiusura delle valvole di immissione ed


espulsione del carburante dai cilindri utilizzato in alcuni motori a scoppio a 4 tempi che, in questo caso,
vengono comunemente definiti "desmo".

Particolare della distribuzione desmodromica

Il nome "desmodromico" deriva dalle parole greche "desmos"=controllata e "dromos"=corsa. Già dal
nome, quindi, si intuisce che si tratta di un sistema di distribuzione dove la corsa della valvola è
controllata sia durante la fase di apertura che in quella di chiusura.

È molto poco diffuso (produzioni di serie vengono fatte solo dall'italiana Ducati) in quanto si preferisce
l'utilizzo del meccanismo con ritorno a molla.

Nella distribuzione desmodromica la molla che fa rientrare la valvola chiudendo l'apertura del cilindro
viene tolta e viene usato un complesso meccanismo con due braccetti (bilancieri), collegati all'albero a
camme, che presenta oltre alla solita camma a forma di ovulo la camma complementare, comandando
la valvola sia in apertura che in chiusura.

Il vantaggio consiste nel fatto che si possono raggiungere regimi di rotazione più elevati rispetto ai
motori con molle senza tuttavia dover ricorrere al più complesso e molto costoso sistema a "valvole
pneumatiche, tecnologia di derivazione Formula 1, sperimentata di recente anche su una moto da gran
premio, la 4 cilindri 800 Ilmor del motorista tedesco (con passato in F1) Mario Illien.

Infatti, il limite dei motori con distribuzione tradizionale, ovvero con il ritorno - valvola a molla,
consiste nel fatto che ad elevati regimi di rotazione si manifestano fenomeni di sfarfallamento
(irregolare chiusura delle valvole, fuorigiri).

Non è, quindi, casuale l'utilizzo del sistema "desmo" in motori motociclistici, che raggiungono
tipicamente regimi superiori rispetto ai motori automobilistici.

Tipico della distribuzione desmodromica è il caratteristico rumore di "ferraglia". Uno svantaggio e' l'
obbligo, se si vogliono evitare serie conseguenze per gli organi meccanici, di periodiche revisioni. Ciò
a causa dell'elevata precisione che i meccanismi debbono mantenere. In passato, più volte si sono avute
applicazioni della distribuzione desmodromica nei motori da competizione.

Calore specifico
Da Wikipedia, l'enciclopedia libera.

Il calore specifico di una sostanza è definito come la quantità di calore necessaria per aumentare di 1
Kelvin la temperatura di un'unità di massa (generalmente un grammo o un chilogrammo) del materiale.
Una grandezza analoga è il calore specifico molare definito come la quantità di calore necessaria per
aumentare di 1 Kelvin (K) la temperatura di una mole di materiale. Esistono due modi per esprime il
calore specifico per lo stato aeriforme: il calore specifico a pressione costante, simboleggiato con Cp, e
il calore specifico a volume costante, Cv. Mentre per la materia in fase condensata Cp e Cv sono
praticamente coincidenti, per un aeriforme, invece, il calore specifico a pressione costante differisce da
quello a volume costante per il lavoro di espansione. Il teorema di equipartizione dell'energia permette
di calcolare agevolmente il calore specifico di un gas con comportamento ideale, su basi di meccanica
classica. La legge di legge di Dulong Petit stabilisce classicamente che il calore specifico molare di
tutti i solidi è lo stesso,indipendentemente dalla temperatura.

Il calore specifico dipende dalla natura chimica della sostanza considerata e dalla temperatura. Si può
ritenere costante solo per piccole variazioni di temperatura e lontanto dalle temperature di transizione
di fase. Brusche variazioni del calore specifico vengono infatti prese come indice di una transizione di
fase solido-liquido, liquido-vapore e anche transizioni cristalline o transizioni strutturali di una
molecola.

Anche se per scopi pratici questa definizione è sufficientemente precisa, dal punto di vista teorico, si
tratta solo di un'approssimazione poiché in realtà il calore specifico dipende dalla temperatura stessa.
Per una trattazione più rigorosa ci si può basare sulla capacità termica e definire il calore specifico
come la capacità termica per unità di massa.

Nel Sistema Internazionale l'unità di misura è il J/kg×K (nel Sistema tecnico kcal/kg°C).

L'acqua a 15°C ha un calore specifico di 1 cal/g x°C mentre l'alcol etilico 0.581cal/g x°C.

Calore specifico di alcune comuni sostanze


Calore specifico
Sostanza Stato
J·g-1·K-1

Aria (secca) gas 1.005

Aria (100% umidità) gas ≈ 1.030

Alluminio solido 0.900

Berillio solido 1.824

Ottone solido 0.377

Rame solido 0.385

Diamante solido 0.502

Etanolo liquido 2.460

Oro solido 0.129

Grafite solido 0.720

Elio gas 5.190

Idrogeno gas 14.300

Ferro solido 0.444

Litio solido 3.582

Mercurio liquido 0.139

Azoto gas 1.042

Olio liquido ≈ 2.000

Ossigeno gas 0.920

Silice (fuso) solido 0.703

Acqua gas 2.020


liquido 4.184

solido (0 °C) 2.060

Condizioni standard
se non indicato diversamente. Per i gas il valore dato corrisponde a cp

L'effetto Doppler
è un cambiamento apparente della frequenza o della lunghezza d'onda di un'onda percepita da un
osservatore che si trova in movimento rispetto alla sorgente delle onde. Per quelle onde che si
trasmettono in un mezzo, come le onde sonore, la velocità dell'osservatore e dell'emettitore vanno
considerate in relazione a quella del mezzo in cui sono trasmesse le onde. L'effetto Doppler totale può
quindi derivare dal moto di entrambi, ed ognuno di essi è analizzato separatamente.

Storia
L'effetto fu analizzato per la prima volta da Christian Andreas Doppler nel 1845. Procedette quindi a
verificare la sua analisi in un famoso esperimento: si piazzò accanto ai binari della ferrovia, e ascoltò il
suono emesso da un vagone pieno di musicisti, assoldati per l'occasione, mentre si avvicinava e poi
mentre si allontanava. Confermò che l'altezza del suono era più alta quando l'origine del suono si stava
avvicinando, e più bassa quando si stava allontanando, dell'ammontare predetto. Hippolyte Fizeau
scoprì indipendentemente lo stesso effetto nelle onde elettromagnetiche nel 1848 (in Francia, l'effetto è
a volte chiamato "effetto Doppler-Fizeau").

Spiegazione
È importante notare che la frequenza del suono emesso dalla sorgente non cambia. Per comprenderne il
funzionamento, consideriamo la seguente analogia: qualcuno lancia una palla ogni secondo nella nostra
direzione. Assumiamo che le palle viaggino con velocità costante. Se colui che le lancia è fermo,
riceveremo una palla ogni secondo. Ma, se si sta invece muovendo nella nostra direzione, ne
riceveremo un numero maggiore perché esse saranno meno spaziate. Al contrario, se si sta
allontanando ne riceveremo di meno. Ciò che cambia è quindi la lunghezza d'onda; come conseguenza,
l'altezza del suono percepito cambia.
Se una sorgente in movimento sta emettendo onde con una frequenza f0, allora un osservatore
stazionario (rispetto al mezzo di trasmissione) percepirà le onde con una frequenza f data da:

dove v è la velocità delle onde nel mezzo e vs, r è la velocità della sorgente rispetto al mezzo
(considerando solo la direzione che unisce sorgente ed osservatore), positiva se verso l'osservatore, e
negativa se nella direzione opposta).

Un'analisi simile per un osservatore in movimento e una sorgente stazionaria fornisce la frequenza
osservata (la velocità dell'osservatore è indicata come vo):

In generale, la frequenza osservata è data da:

dove vo è la velocità dell'osservatore, vs è la velocità della sorgente, vm è la velocità del mezzo, e tutte le
velocità sono positive se nella stessa direzione lungo cui si propaga l'onda, o negative se nella direzione
opposta.

Il primo tentativo di estendere l'analisi di Doppler alle onde luminose fu fatto poco dopo da Fizeau. Ma
le onde luminose non richiedono un mezzo per propagarsi, e un corretto trattamento dell'effetto
Doppler per la luce richiede l'uso della Relatività speciale. Vedi effetto Doppler relativistico.

Astronomia

L'effetto Doppler, applicato alle onde luminose, è fondamentale in astronomia. Interpretandolo come
dovuto ad un effettivo moto della sorgente (esistono anche interpretazioni alternative, ma meno
diffuse), è stato usato per misurare la velocità con cui stelle e galassie si stanno avvicinando o
allontanando da noi, per scoprire che una stella apparentemente singola è, in realtà, una stella binaria
con componenti molto vicine tra loro, e anche per misurare la velocità di rotazione di stelle e galassie.

L'uso dell'effetto Doppler in astronomia si basa sul fatto che lo spettro elettromagnetico emesso dagli
oggetti celesti non è continuo, ma mostra delle linee spettrali a frequenze ben definite, correlate con le
energie necessarie ad eccitare gli elettroni di vari elementi chimici. L'effetto Doppler è riconoscibile
quando le linee spettrali non si trovano alle frequenze ottenute in laboratorio, utilizzando una sorgente
stazionaria. La differenza in frequenza può essere tradotta direttamente in velocità utilizzando apposite
formule. Poiché i colori posti ai due estremi dello spettro visibile sono il blu (per lunghezze d'onda più
corte) e il rosso (per lunghezze d'onda più lunghe), l'effetto Doppler è spesso chiamato in astronomia
spostamento verso il rosso se diminuisce la frequenza della luce, e spostamento verso il blu se
l'aumenta.
L'effetto Doppler ha condotto allo sviluppo delle teorie sulla nascita ed evoluzione dell'Universo come
il Big Bang, basandosi sul sistematico spostamento verso il rosso mostrato da quasi tutte le galassie
esterne. Tale effetto è stato codificato nella legge di Hubble.

Radar

L'effetto Doppler è anche usato in alcune forme di radar per misurare la velocità degli oggetti rilevati.
Un fascio radar è lanciato contro un oggetto in movimento, per esempio un'automobile, nel caso dei
radar in dotazione alle forze di polizia di molti Paesi del mondo. Se l'oggetto si sta allontanando
dall'apparecchio radar, ogni onda di ritorno ha dovuto percorrere uno spazio maggiore della precedente
per raggiungere l'oggetto e tornare indietro, quindi lo spazio tra due onde successive si allunga, e la
frequenza delle onde radio cambia in modo misurabile. Usando le formule dell'effetto Doppler si può
risalire alla velocità dell'oggetto.

Legge 626
Da Wikipedia, l'enciclopedia libera.

La legge 626 è un decreto legislativo introdotto in Italia nel 1994 per regolamentare la sicurezza sui
luoghi di lavoro. Il decreto non fu il primo a regolamentare la sicurezza nei luoghi di lavoro ma una
norma che superò alcune legge precedenti dando una forma organica alle normative sulla sicurezza nei
luoghi di lavoro.

Edilizia
Di particolare importanza è il settore dell'edilizia dato l'elevato numero di infortuni sul lavoro che si
verificano nel settore. Nel campo delle costruzioni il decreto guida è il 494/96 e le varie norme
collegate. Per quanto riguarda i luoghi di lavoro in generale il decreto guida e' il 626/94. Per questo
quandi si parla di 626 si parla di sicurezza, perché è il decreto guida cioè quel decreto che é stato più
volte modificato con successive modificazioni ed integrazioni al fine di ottenere il testo unico sulla
sicurezza. In attesa del Testo Unico in materia recentemente apparso in bozza, la produzione normativa
riguardante l'igiene e la sicurezza sul lavoro è talmente vasta che è necessario mantenersi sempre
aggiornati e disporre di una base dati che consenta la consultazione di quanto può essere necessario per
adeguarsi alla disciplina in oggetto.

Stato attuale

La Legge impone che ogni azienda deve avere:

un RSPP, Responsabile del Servizio di Prevenzione e Protezione. l'RSPP può essere il Datore di Lavoro stesso
per tutte le aziende che rientrano nell'articolo 10 della 626.

Il Datore di Lavoro che vuole assumere l'incarico di RSPP deve frequentare uno specifico corso di formazione
della durata di 16 ore presso una qualunque Società che è in grado di fornire tale servizio attraverso personale
qualificato.

Se invece il Datore di Lavoro non può o non vuole assumere tale incarico, dovrà rivolgersi ad una Società di
consulenza esterna per avere tale Servizio.
In tal caso un RSPP esterno sistemerà tutte le problematiche inerenti alla Sicurezza sul Lavoro e farà visita
all'azienda con cadenza almeno mensile.

Attenzione però: il Datore di Lavoro, pur prendendo un RSPP ESTERNO, è sempre il Responsabile della sua
Azienda, cioè è l'unico che verrà indagato penalmente in caso di incidente.

Se un professionista qualunque, che non sia il datore di lavoro, vuole abilitarsi come RSPP, deve frequentare un
corso suddiviso nei 3 moduli, A, B e C. Il modulo B ha durata variabile in base al settore di appartenenza
dell'azienda ("Macrosettore ATECO"). Complessivamente occorre frequentare almeno 60 ore di corso e si è
abilitati solo per essere RSPP nelle aziende appartenenti al Macrosettore che si è frequentato.

Materiale composito
Da Wikipedia, l'enciclopedia libera.

Un materiale composito è, nella sua accezione più generale, qualunque tipo di materiale caratterizzato
da una struttura non omogenea, costituita dall'insieme di due o più sostanze diverse, fisicamente
separate e dotate di proprietà differenti.

Nella pratica si attribuisce il nome di composito al materiale che risponde a queste caratteristiche:

• È costituito da una fase omogenea, detta matrice, che può essere costituita da
o una materia plastica (termoplastici come il nylon e l'ABS o termoindurenti come le
resine epossidiche) o le resina poliestere;
o un metallo (generalmente alluminio, o titanio e loro leghe, più raramente magnesio o
altri)
o un materiale ceramico, generalmente carburo di silicio o allumina

Nella grande maggioranza dei casi le matrici sono polimeriche perché garantiscono bassa densità (e
quindi leggerezza del materiale finale): hanno però il difetto di calare drasticamente le performances al
salire della temperatura.

• All'interno della matrice è dispersa (in varie modalità) una fase discontinua (generalmente
fibrosa, ma a volte anche particellare), detta rinforzo o carica, ed ha in genere il compito di
assicurare rigidezza e resistenza meccanica, assumendo su di sé la maggior parte del carico
esterno applicato al materiale. A questo scopo fondamentale è la cura dell'adesione interfacciale
tra fibre e matrice.

Le fibre più usate sono la fibra di vetro, la fibra di carbonio e le fibre aramidiche, come il kevlar, anche
se ne esistono numerose di altri tipi, tra cui anche ceramiche.

L'insieme di queste due parti costituisce un prodotto in grado di garantire proprietà meccaniche
elevatissime e massa volumica decisamente bassa: per questo motivo i compositi sono largamente usati
nelle applicazioni dove la leggerezza è cruciale, aeronautica in primis.

Il fatto che si utilizzino materiali fibrosi come rinforzo fa in modo che spesso i materiali compositi
presentino una spiccata anisotropia. Questa anisotropia non si riscontra (o per lo meno è molto minore)
nei compositi particellari, nella misura in cui dette particelle sono equiassiche. L'anisotropia, se
controllata, può costituire un vantaggio: il materiale viene rinforzato in quelle direzioni dove si sa verrà
caricato e dunque le prestazioni vengono ottimizzate (caso dei compositi a fibre lunghe o continue). Se,
invece, è dovuta a fenomeni più difficilmente controllabili (flusso plastico del materiale in uno stampo
ad esempio, caso dei compositi a fibre corte) diviene problematica perché l'orientazione delle direzioni
di massimo rinforzo difficilmente coincide con quella desiderata.

Applicazioni

Le proprietà maccaniche dei materiali compositi risultano in continua crescita e investono ormai tutti
quei settori della produzione dove è necessario soddisfare esigenze di basso peso ed elevate
caratteristiche meccaniche.
Le industrie aeronautica, navale e automobilistica fanno larghissimo uso di materiali compositi per la
costruzione di strutture alari, fusoliere, carrelli, barche, canoe, pannelli di carrozzeria, telai di formula
1, balestre, parti di motore e accessori vari.
Le industrie aerospaziale e bellica utilizzano questi materiali per componenti strutturali di stazioni di
lancio e di macchine semoventi nello spazio, oltre che per caschi e giubbotti antiproiettile.
Nel settore dello sport quesa tecnologia viene utilizzata per sci, bob, racchette da tennis, biciclette,
canne da pesca, aste per il salto in alto ecc.
In medicina si costruiscono protesi di ogni tipo.
Nel settore dell' impiantistica vengono impiegati per tubazioni e serbatoi.
I materiali compositi, per come vengono prodotti, costituiscono infine la base per la preparazione dei
cosiddetti materiali intelligenti (Smart Materials).
I materiali intelligenti si ottengono annegando all'interno del composto, in fase di costruzione, delle
fibre ottiche che, collegate ad un computer, costituiscono il sensore capace di trasformare i segnali in
funzione degli stati di sollecitazione e di deformazione presenti.
Un esempio applicativo di notevole interesse potrebbe essere il telaio di autovetture, costruito in
materiale composito intelligente, che può essere tenuto costantemente sotto controllo da un computer di
bordo. Con questo tipo di monitoraggio il pilota sarebbe in grado di valutare, in ogni momento,
l'efficienza della struttura e l'insorgere di situazioni pericolose.
I limiti che rallentano la diffusione su larga scala dei materiali compositi sono rappresentati dalla loro
scarsa resistenza superficiale all'usura e ai carichi concentrati e dall'elevato costo.

Saldatura TIG

La Saldatura TIG (Tungsten Inert Gas) o GTAW (Gas Tungsten Arc Welding), secondo la
terminologia AWS, è un procedimento di saldatura ad arco con elettrodo infusibile (di tungsteno), sotto
protezione di gas inerte, che può essere eseguito con o senza metallo di apporto. La saldatura TIG è uno
dei metodi più diffusi, fornisce giunti di elevata qualità, ma richiede operatori altamente specializzati.

Linee generali del procedimento


Postazione per saldatura TIG. vedi nel testo il significato delle scritte

Il procedimento si basa su una torcia in cui è inserito l'elettrodo in tungsteno, attorno a cui fluisce il gas
di protezione che, attraverso un bocchello di materiale ceramico, è portato sul bagno di fusione.
L'operatore muove la torcia lungo il giunto per spostare il bagno di fusione, mentre, nel caso che sia
richiesto materiale d'apporto, contemporaneamente sposta la bacchetta del materiale in modo tale da
tenerla costantemente con l'estremità entro l'arco e comunque sotto la protezione del gas. L'attrezzatura
per effettuare una saldatura TIG quindi è composta da:

• Generatore di corrente (Welding machine)


• Torcia composta da
o Elettrodo di tungsteno (Tungsten electrode)
o Bocchello di alimentazione del gas di protezione (Gas passage)
o Guaina isolante (Insulating sheath)
o Alimentatore elettrico (Electrical conductor)
o Supporto elettrodo (Electrode holder)
• Bombola del gas di protezione (Inert gas supply)
• Eventuale bacchetta di metallo d'apporto

Uno dei principali vantaggi di questa tecnologia è che l'apporto di materiale nel bagno di saldatura è
indipendente dall'apporto termico nella saldatura, a differenza di quanto accade nelle saldature a filo o
a elettrodo consumabile. Questo procedimento può essere automatizzato, sotto questo aspetto è
largamente usato per la produzione di tubi saldati partendo da nastro metallico e per la saldatura dei
tubi alle piastre tubiere degli scambiatori di calore.

Il procedimento TIG è particolarmente indicato quando devono essere saldati piccoli spessori di
materiale, a partire da pochi decimi di mm, tuttavia non è possibile saldare spessori superiori a qualche
mm (2-3 mm per gli acciai) con una singola passata (perciò, in generale, non si usa per saldare spessori
superiori a 5-6 mm), quindi, considerando la bassa produttività, spesso viene usato per effettuare la
prima passata di un giunto, mentre il riempimento viene effettuato successivamente con procedimenti a
produttività più elevata. Date le sue caratteristiche il procedimento può essere utilizzato in qualsiasi
posizione e può essere usato per saldature continue o per saldature a punti. Non è consigliabile l'uso di
questo procedimento in luoghi aperti, dato che anche un vento leggero può disperdere il gas di
protezione.

Gli elettrodi
Gli elettrodi, dovendo essere di un materiale capace di resistere alle temperature dell'arco elettrico,
sono, ormai da molti anni solo in tungsteno o sue leghe, ai primordi di questa tecnologia (anni '40)
venivano usati anche elettrodi di grafite. Il tungsteno, oltre ad avere caratteristiche termiche
meccaniche miglieri, è preferito per il suo elevato potere termoelettrico (capacità di emettere elettroni
ad elevata temperatura), che stabilizza l'arco. Per aumentare il potere termoelettrico del W, talvolta gli
elettrodi sono legati con piccole percentuali (1-2%) di Th (elettrodi toriati).

Gli elettrodi possono essere trovati in commercio a diversi diametri da 0,25 a 6,4 mm. In genere sono
utilizzati in corrente continua (cc), polarità diretta (pd), cioè con il polo positivo sul pezzo. L'uso della
polarità inversa (pi), cioè con il polo negativo sul pezzo, è utilizzato per la saldatura di metalli leggeri
(Al e Mg) o quando è importante la stabilità dell'arco. Tuttavia, dato che la ccpi fornisce meno energia
al bagno, quindi richiede correnti d'arco più elevate, spesso è preferibile sostituirla con la saldatura in
corrente alternata (ca), che può essere simmetrica o dissimmetrica.

L'elettrodo, prima di essere utilizzato in ccpd, deve essere affilato perché la punta assuma una forma
conica, con un'altezza del cono circa 1,5 volte il diametro, in questo modo si aumenta la sua capacità di
emettere elettroni, quindi si ottiene un buon riscaldamento del bagno anche con correnti relativamente
basse. Invece in ccpi si deve tendere a far assumere all'elettrodo una forma piatta (e, naturalmente, per
questi usi si evita di usare elettrodi toriati), proprio per limitare l'emissione di elettroni, che
richiederebbero una maggiore tensione a parità di corrente d'arco.

I gas di protezione
Generalmente il gas di protezione viene immesso su entrambe le facce del giunto (naturalmente se
questo è accessibile su entrambi i lati), mentre sulla faccia dove si trova il bagno (al dritto) il gas è
portato direttamente dalla torcia, sull'altra faccia (al rovescio) viene insufflato in condizioni controllate,
in modo da assicurare una protezione dall'ossidazione anche alla radice della saldatura.

I gas usati più comunemente sono Ar o He, usati separatamente o in miscele. In alcune applicazioni
speciali vengono usate miscele di Ar con H. In genere si preferisce Ar puro alle altre soluzioni, per i
seguenti vantaggi:

• favorisce la stabilità dell'arco


• pulizia della superficie su metalli leggeri (Al e Mg)
• costo relativamente basso
• richiede portate più basse per fornire la stessa schermatura
• penetrazione ridotta (particolarmente utile in saldatura manuale su bassi spessori)

L'He viene utilizzato per la saldatura di lamiere di forte spessore (maggiore conducibilità termica,
quindi maggiore penetrazione), viene usato in miscela con l'Ar per bilanciare le caratteristiche dei due
gas.

L'uso di H in miscela con Ar è limitato agli acciai austenitici ed alle leghe a base di Ni, a causa dei
danni metallurgici che potrebbe portare agli acciai ferritici (cricche a freddo). Il limite pratico di
concentrazione dell'H nell'Ar è di circa l'8%, anche se sono state usate miscele con 1/3 H e 2/3 Ar. La
presenza di H nel gas di protezione aumenta l'energia trasferita dall'arco nel materiale da saldare,
inoltre l'H agisce come materiale riducente, inibendo la formazione di ossidi e quindi lasciando
superfici di saldatura molto pulite. Per questi motivi viene usato (quasi esclusivamente in saldatura
automatica) per saldatura di tubi per impianti chimici o nucleari o di tubi a piastre tubiere.
Le portate di gas di protezione devono essere stabilite dal tecnico di saldatura, basandosi soprattutto
sulla propria esperienza e su prove finalizzate al particolare lavoro ed alla particolare geometria.

Difetti tipici della saldatura TIG


Difetto tipico di questa tecnologia, e non riportabile ad altre tecnologie, sono le inclusioni di tungsteno.
L'arco deve sempre scoccare fra l'elettrodo di W ed il bagno, ma può succedere che, per un motivo
qualsiasi, l'elettrodo venga a contatto con il bagno. In questo caso l'elettrodo può frammentarsi,
rilasciando nel bagno delle schegge di W nel bagno (Ø < 1 mm), queste schegge di solito hanno una
forma prismatica, con bordi fortemente angolati. Questo significa che sono inneschi per rotture fragili
nella struttura del materiale saldato. Per evitare questi difetti è necessario un accurato addestramento
del saldatore.

Un difetto relativemente frequente nelle saldature TIG è la mancanza di protezione che può essere sia
al dritto sia al rovescio. La mancanza di protezione si manifesta come fiorette, cioè con spot circolari
ossidati sul materiale. Questi difetti possono essere evitati effettuando prove appropriate prima di
effettuare la saldatura.

Altri difetti riscontrabili in queste saldature sono porosità, mancanze di fusione o cricche, questi difetti
devono essere evitati effettuando accurate prove di qulifica del procedimento.

Saldatura MIG/MAG
La saldatura MIG (Metal-arc Inert Gas) o MAG (Metal-arc Active Gas) (l'unica differenza fra le due
è il gas che viene usato per la protezione del bagno di saldatura), indicate entrambe nella terminologia
AWS come GMAW (Gas Metal Arc Welding - Saldatura ad arco con metallo sotto protezione di gas),
è un procedimento di saldatura sviluppato dopo la Seconda Guerra Mondiale che ha assunto un peso, in
termini di prodotto saldato per anno, sempre crescente. Uno dei principali motivi che hanno permesso
questo sviluppo è stata la riduzione dei costi nei prodotti di elettronica, per cui sono state sviluppate
macchine per saldatura semiautomatiche a costi accessibili anche per ditte di dimensioni medio-piccole
(il costo attuale - 2006 - di una macchina MIG/MAG nuova è poco meno di 10000 EUR).

Linee generali del procedimento

Il procedimento di saldatura MIG/MAG è un procedimento a filo continuo in cui la protezione del


bagno di saldatura è assicurata da un gas di copertura, che fluisce dalla torcia sul pezzo da saldare. Il
fatto che sia un procedimento a filo continuo garantisce un'elevata produttività al procedimento stesso,
e contemporaneamente la presenza di gas permette di operare senza scoria (entrambe queste
caratteristiche aumentano l'economicità del procedimento nei confronti della saldatura a elettrodo).
D'altra parte una postazione per saldatura MIG/MAG è necessariamente composta dai seguenti
componenti (vedi figura a fianco):

1. Torcia con duplice funzione: far scoccare l'arco fra il filo ed il pezzo e portare il gas di
protezione sul bagno di saldatura
2. Pezzo da saldare
3. Generatore di corrente d'arco (nelle macchine moderne il controllo della caratteristica d'arco è
effettuato elettronicamente)
4. Meccanismo di avanzamento e controllo del filo
5. Aspo avvolgifilo
6. Bombola del gas di protezione

La presenza di tutti questi componenti, naturalmente, aumenta notevolmente il prezzo di una macchina
per saldatura MIG/MAG nei confronti di una macchina per saldatura a elettrodo (che, praticamente, è
poco più di un generatore di tensione con caratteristica cadente).

Aspo portafilo

Inoltre con i fili continui è possibile avere densità di corrente più elevate di quelle sopportabili dagli
elettrodi rivestiti (in questi ultimi una densità di corrente eccessiva provoca la fessurazione del
rivestimento, a causa dei coefficienti di dilatazione diversi fra anima metallica e rivestimento stesso),
quindi è possibile ottenere penetrazioni maggiori, cioè riempimento del giunto con un numero minore
di passate.

La saldatura MIG/MAG, come tutti i procedimenti a filo continuo, è un procedimento derivato dall'arco
sommerso, ma, nei confronti quest'ultimo, ha il vantaggio che l'operatore può tenere l'arco sotto
osservazione diretta, quindi può controllare l'esecuzione della saldatura come nei procedimenti a
elettrodo (elettrodo rivestito e TIG), altri vantaggi nei confronti dell'arco sommerso sono la mancata
formazione di scoria e la possibilità di saldare anche in posizioni non piane.

La torcia per saldatura


A fianco è riportato un spaccato di una torcia per saldatura MIG/MAG. Nello spaccato è possibile
individuare le parti principali che compongono la torcia:

1. Impugnatura
2. Isolante (in bianco) e inserto filettato per la guida del filo (in giallo)
3. Ugello per il gas di protezione
4. Pattino di contatto fra alimentazione elttrica e filo
5. Bocchello di alimentazione del gas di protezione

In alcuni casi la torcia ha un circuito di refrigerazione alimentato con acqua.

I gas di protezione
Il gas di protezione ha la funzione di impedire il contatto del bagno di fusione con l'atmosfera, quindi
deve essere portato sul bagno di fusione direttamente dalla torcia. Inzialmente il procedimento
prevedeva solo l'uso di Argon (gas inerte), quindi veniva usato solo per la saldatura di acciai
inossidabili austenitici, dato il costo elevato del gas di protezione. Successivamente si vide che
l'aggiunta di un gas ossidante (inizialmente Ossigeno e, successivamente, Anidride carbonica) non solo
permetteva una protezione analoga, ma aveva effetti favorevoli sul trasferimento di metallo dal filo al
bagno di fusione, quindi si diffuse la tecnica MAG, che utilizza un gas attivo per la protezione ed il
procedimento fu esteso anche alla saldatura di acciai al carbonio.

I gas di protezione inerti più utilizzati sono Ar ed He, entrambi sono gas monoatomici inerti, ma,
mentre l'Ar è più pesante dell'aria, quindi stagna sul bagno di fusione, garantendo una maggiore
protezione, l'He è più leggero dell'aria, quindi fornisce una protezione minore, tuttavia, avendo una
conduttività termica circa 10 volte quella dell'Ar, permette una penetrazione della saldatura maggiore.
Per questo motivo l'utilizzo di He è limitato a giunti di elevato spessore o a materiali aventi elevata
conducibilità termica (Cu o Al).Invece i gas attivi sono generalmente miscele di Ar e CO2, con
l'anidride carbonica che, in casi estremi sostituisce l'Ar (comunque raramente viene usata in
percentuale superiore al 25%). La presenza di CO2 aumenta la stabilità di posizionamento dell'arco su
materiali ferromagnetici (acciai al carbonio o bassolegati). Inoltre la presenza di gas attivo permette
una maggiore penetrazione del giunto. D'altra parte la presenza di CO2 provoca un aumento della
corrente necessaria per avere un trasferimento di metallo a spruzzo fra il filo ed il bagno, aumenta gli
schizzi (spatter)e diminuisce la stabilità elettrica dell'arco. Quindi per poter usare gas attivi con
trasferimento a spruzzo, generalmente si utilizza una corrente pulsata, cioè una corrente che presenta
picchi di intensità di durata e frequenza prestabilite, per avere un'immissione di energia continua, ma il
distacco della goccia metallica solo durante la fase ad alta intensità di corrente.

Il trasferimento di metallo dal filo al bagno


Il metallo del filo, fondendo, si trasferisce al bagno di saldatura praticamente con tre modalità:

• trasferimento per corto circuito


• trasferimento a gocce
• trasferimento a spruzzo
Corrente e tensione d'arco nel corso del trasferimento del metallo per corto circuito

Nel primo caso la corrente che percorre il filo non è abbastanza alta da portarlo alla temperatura di
fusione, quindi il filo viene a contatto con il bagno, provocando un corto circuito fra i due metalli che,
facendo aumentare la corrente, fonde l'estremità del filo, cioè il metallo non viene trasferito attraverso
l'arco. In genere la frequenza con cui avvengono i corti circuiti è mantenuta fra 20 e 200 per secondo.
In questo modo vengono generate una serie di piccole "pozzanghere" che solidificano velocemente,
data la temperatura relativamente bassa. Quindi questa modalità di trasferimento è particolarmente
adatta a saldature su piccoli spessori, saldature in posizione (verticale o sopratesta) o per chiudere
aperture formate in seguito a lavorazioni o riparazioni. In genere si evita di usare questa forma di
trasferimento, dato che provoca livelli molto alti di spatter.

Nel secondo caso il filo fonde in gocce con diametro superiore a quello dell'elettrodo, che vengono
trasferite nel bagno essenzialmente per effetto della forza di gravità, quindi questo metodo di
trasferimento può essere usato solo in posizione piana. Con questo metodo di trasferimento si deve
avere un arco abbastanza lungo per permettere alla goccia di cadere nel bagno senza provocare corti
circuiti, che, disintegrandola, provocherebbero spruzzi sul metallo adiacente.

Trasferimento di gocce di metallo in funzione della corrente (questo diagramma varia con metallo d'apporto,
diametro del filo e gas di protezione)

Nell'ultimo caso il filo fonde formando un gran numero di gocce di piccole dimensioni, con correnti più
alte di quelle richieste per il trasferimento a gocce. In questo modo si ottiene un trasferimento in un
arco molto stabile, praticamente privo di spatter. La corrente sopra la quale avviene questo tipo di
trasferimento è indicata conme corrente di transizione a spruzzo, sopra questa corrente la velocità di
trasferimento passa da poche gocce per secondo a 200-300 gocce per secondo. Dato che le dimensioni
delle gocce sono molto più piccole di quelle generate nel trasferimento a gocce, la forza di gravità è
inferiore alle forze elettriche provocate dall'arco, quindi questa modalità può essere usata (con
difficoltà) anche in posizioni diverse da quella orizzontale. Questa modalità di trasferimento,
richiedendo correnti elevate, e quindi un elevato apporto termico, non è consigliabile quando vengono
saldati piccoli spessori.
Per superare le difficoltà collegate all'elevato apporto termico che caratterizza il trasferimento a
spruzzo le macchine per saldare MIG/MAG sono state modificate in modo da lavorare con corrente
pulsata. In pratica la macchina genera per una certa percentuale (generalmente il 70%, ma può essere
aumentata o ridotta a seconda delle circostanze) del periodo (fissato sulla macchina) una corrente
inferiore alla corrente di transizione a spruzzo. In questa fase il filo si scalda, ma non produce gocce
che vengono trasferite, e contemporaneamente viene mantenuto l'arco che scalda il bagno di saldatura.
Dopo la pausa, la corrente viene innalzata (generalmente a gradino) ad un valore superiore a quello
della corrente di transizione, quindi per un certo tempo (qualche ms) trasferisce il filo nel bagno in
modalità a spruzzo. Nelle macchine di saldatura più moderne è possibile modificare la forma d'onda
(per esempio, gestendo la riduzione di corrente dopo il trasferimento a spruzzo). Questo modo di
impiego della macchina per saldare ha notevolmente ridotto la difficoltà di saldare con questa
tecnologia, ed il basso costo dei componenti elettronici ha permesso di contenere entro limiti accettabili
il costo delle macchine stesse.

Applicazioni della saldatura MIG/MAG


La saldatura MIG/MAG viene utilizzata quando è richiesta un'alta produttività ed una suffciente
flessibilità di impiego. Con questa tecnologia è possibile saldare acciai sia austenitici sia ferritici, leghe
di metalli leggeri (Al e Mg), leghe di rame, leghe di nickel e leghe di titanio. Poiché la protezione del
bagno di sadatura è assicurata da un flusso di gas, questo procedimento è consigliato solo in officina,
dato che, in cantiere, basta un vento moderato a disperdere il flusso di gas di protezione, con
conseguente riduzione della qualità del giunto saldato. Questa tecnologia può essere usata senza
difficoltà per produrre imburraggi (deposizione di uno strato di materiale su un materiale diverso) o per
riparazioni.

Difetti tipici della saldatura MIG/MAG


Le cricche a freddo generalmente sono poco probabili con questa tecnologia, purché si abbia
l'accortezza di usare gas ben deumidificati [1] per evitare di introdurre idrogeno nel bagno di saldatura.
Invece questa tecnologia è soggetta a cricche a caldo, dato che normalmente viene utilizzata con un
notevole apporto termico, quindi è richiesta la massima pulizia dei lembi da saldare e l'utilizzo di
materiali base privi di elementi inquinanti (S e P).

I difetti geometrici più comuni sono la penetrazione eccessiva o gli intagli marginali (undercut),
entrambi sempre legati all'elevato apporto termico o, se l'apporto termico è troppo basso, il difetto
opposto, cioè la mancanza di fusione ai lembi o al core del cordone (quando la saldatura è ripresa al
rovescio). In condizioni di portata del gas di protezione troppo bassa è facile la formazione di porosità.

Saldabilità degli acciai

Tipo di acciaio Saldabilità Note

Acciai al C 5

Acciai basso legati al Mn 4

Acciai ad alto carbonio


1 Usata solo per riparazione o per ricarico
(>0.45%)
Acciai bonificati 3 Possono essere saldati con molte precauzioni

Acciai al Cr Mo 3 Richiedono un preriscaldo

Acciai inossidabili
5
austenitici

Acciai inossidabili
2 Richiedono un preriscaldo, talvolta fino a 600°C
martensitici

E' sconsigliabile la saldatura di ghise, può essere saldata solo ghisa


Ghise 0
sferoidale, con notevoli precauzioni

Baricentro
Da Wikipedia, l'enciclopedia libera.

Centro di massa di un sistema di quattro punti di massa diversa

Il baricentro (chiamato anche centro di massa o centro d'inerzia) di un insieme di punti materiali è
definito come la media pesata della posizione dei punti, con peso pari alla sua massa di ciascun punto.

Per un sistema di n punti materiali di massa , caratterizzati dai vettori posizione


, il vettore posizione del centro di massa è definito dalla formula
Dove la massa totale M è la somma delle masse dei punti:

Per una massa che è distribuita in modo continuo su un volume V nello spazio con una densità
dipendente dalla posizione, le sommatorie sono sostituite da integrali:

dove M è la massa totale, data da

In , le componenti del baricentro sono date da:

Dato un qualsiasi corpo, inoltre, si dice che il suo centro d'inerzia è il punto in cui s'intersecano tutte
le rette d'azione delle forze per le quali il corpo stesso è in equilibrio (si potrebbe anche dire che il
corpo è in equilibrio statico proprio perché le forze non danno momento, essendo il braccio nullo
rispetto al centro d'inerzia stesso).

La tensione di snervamento
(indicata di solito con σs) è il valore della sollecitazione alla quale è sottoposto un materiale per la
quale il comportamento passa dal tipo elastico al tipo plastico. Da un punto di vista microscopico al suo
raggiungimento parte il movimento delle dislocazioni già presenti.

Nella fase elastica il materiale, se scaricato della sollecitazione a cui è sottoposto, ritorna nelle
condizioni iniziali. Nella fase plastica il materiale, anche se scaricato, non ritorna più nelle condizioni
iniziali.

Lo snervamento è una caratteristica peculiare dei materiali metallici. Altri tipi di materiale, o non
presentano la fase plastica o, addirittura, come ad esempio quelli polimerici od il terreno, non
presentano la fase elastica (se non per un piccolo tratto).
Il valore della tensione di snervamento è facilmente desumibile dalla cosiddetta prova di trazione, in
cui un provino di forma normata, realizzato con il materiale da esaminare, viene sollecitato
esclusivamente a trazione. Il risultato di questa prova è detta curva caratteristica sforzo-deformazione
del materiale, da cui si può appunto ricavare la tensione di snervamento: convenzionalmente è pari al
valore che produce una deformazione permanente dello 0,2%.

Attrito
Da Wikipedia, l'enciclopedia libera.

L'attrito (o forza d'attrito) è la forza che si esercita tra due superfici a contatto tra loro e si oppone al
loro moto relativo. La forza d'attrito che si manifesta tra superfici in quiete tra loro è detta di attrito
statico, tra superfici in moto relativo si parla invece di attrito dinamico.

Secondo l'interpretazione classica, esistono tre diversi tipi di attrito:

• attrito radente: dovuto allo strisciamento, che avviene su superfici piane;


• attrito volvente: dovuto al rotolamento, che avviene su superfici curve;
• attrito viscoso: relativo a un corpo immerso in un fluido.

Attrito radente

Grafico del valore della forza di attrito radente in funzione della forza applicata. Si noti il passaggio da attrito
statico ad attrito dinamico, coincidente con l'inizio del moto del corpo

Si esercita tra corpi solidi in mutuo contatto ed è espresso dalla formula:

(1)
dove Fr è la forza di attrito radente, µr il coefficiente di attrito radente e la componente
perpendicolare al piano di appoggio della risultante delle forze agenti sul corpo. Per un corpo
appoggiato su un piano orizzontale è semplicemente uguale a Fp , forza peso del corpo; per un
corpo appoggiato su un piano inclinato di un angolo α rispetto all'orizzontale risulta invece

Il coefficiente d'attrito è una grandezza adimensionale e dipende dai materiali delle due superfici a
contatto e dal modo in cui sono state lavorate. Il coefficiente di attrito statico µrs è sempre maggiore o
uguale al coefficiente d'attrito dinamico µrd per le medesime superfici. Dal punto di vista microscopico,
esso è dovuto alle forze di interazione tra gli atomi dei materiali a contatto.

La forza di attrito definita dall'eq. (1) rappresenta la forza di attrito massima che si manifesta nel
contatto tra due superfici. Se la forza di motrice Fm è minore di µrs Fp, allora l'attrito è pari a Fm e il
corpo non si muove; se Fm supera µrsFp, il corpo inizia a muoversi; per valori di Fm ancora maggiori,
l'attrito (dinamico) è sempre costante e pari a µrd Fp.

Alcuni valori del coefficiente di attrito radente. Per una lista più completa si veda [1]

Superfici µrs (statico) µrd (dinamico)

Legno - Legno 0.5 0.3

Acciaio - Acciaio 0.78 0.42

Rame - Acciaio 1.05 0.29

Gomma - asfalto (asciutto) 1.0 0.8

Gomma - asfalto (bagnato) 0.7 0.6

Vetro - Vetro 0.9 - 1.0 0.4

Legno Sciolinato - Neve 0.1 0.05

Attrito volvente
L'attrito volvente si presenta quando un corpo cilindrico o una ruota rotola senza strisciare su una
determinata superficie. Il rotolamento è reso possibile dalla presenza di attrito radente tra la ruota e il
terreno; se questo attrito non ci fosse, o fosse minimo (come nel caso di un terreno ghiacciato), la ruota
striscerebbe senza riuscire a rotolare.
Se si applica un momento alla ruota, essa inizia a rotolare senza strisciare fintanto che il momento
applicato è minore di , dove R è il raggio della ruota. Se il momento supera questo
valore, la forza motrice applicata alla superficie della ruota supera l'attrito statico massimo e la ruota
slitta mentre rotola; è la classica "sgommata" ottenuta accelerando da fermi in modo repentino.

L'attrito volvente è determinato soprattutto dall'attrito sull'asse di rotazione della ruota e dall'area di
contatto tra la ruota e il terreno; è espresso da un'equazione simile alla (1),

(2)

Alcuni valori del coefficiente di attrito volvente. Per una lista più completa si veda [2]

Superfici µv

Legno - Legno 0.005

Acciaio - Acciaio 0.001

Gomma - Asfalto 0.035

Attrito viscoso
Quando un corpo si muove all'interno di un fluido (liquido o gas) è soggetto ad una forza di attrito
dovuta all'interazione del corpo con le molecole del fluido.
Se il corpo si muove a bassa velocità, così che il flusso attorno ad esso possa essere considerato
laminare, allora la forza di attrito è proporzionale alla velocità del corpo nel fluido; nel caso di una
sfera, la forza di attrito è data in questo caso dalla legge di Stokes,

(3)

essendo η la viscosità del fluido, r il raggio della sfera e v la sua velocità.

L'equazione (3) è valida se il flusso è laminare e non turbolento, ovvero quando il numero di Reynolds
è minore di 2000-2300. In tale caso l'attrito è dovuto soprattutto alla viscosità. Per una sfera di 1 cm di
raggio, il flusso è laminare se la sua velocità è minore di 0.2 m/sec in acqua e di 3 m/sec in aria (alla
pressione di un'atmosfera). Se la velocità del corpo è superiore, il moto inizia a diventare turbolento e
l'attrito (che diventa molto più grande) è soprattutto causato dalla dispersione di energia nei vortici del
fluido. In tale caso è possibile approssimare la forza di attrito con la formula

(4)

essendo ρ la densità del fluido, S l'area della sezione frontale del corpo e cx un coefficiente
aerodinamico di resistenza (adimensionale) che tiene conto della forma e del profilo del corpo in moto
nel fluido. I valori di cx riportati per una sfera variano tra 0.4 e 0.5, mentre può assumere valori
maggiori di 1 per oggetti di forma irregolare. Per un profilo alare cx può anche essere
significativamente minore di 0.1.

Controlli non distruttivi


Da Wikipedia, l'enciclopedia libera.

Controlli non distruttivi sono indagini sperimentali finalizzate alla identificazione e caratterizzazione
di discontinuità nel componente testato, che siano potenzialmente in grado di comprometterne le
prestazioni per le quali è stato progettato. Il punto comune alle tecniche di controllo non distruttivo è la
loro capacità di non influenzare in alcun modo le caratteristiche chimiche, fisiche e funzionali
dell'oggetto analizzato. Si usa spesso l'acronimo NDT, derivato dal termine inglese Non Destructive
Testing.

Tra le metodologie di controlli non distruttivi sono citabili, in riferimento alla UNI EN 473 le presenti

• PT - Liquidi penetranti, si basa sull'esaltazione della visibilità di difetti superficiali mediante contrasto
cromatico tra una sostanza liquida che penetra per capillarità nei difetti (penetrante) ed uno sfondo
(rivelatore)
• RT - Radiografia, comprendente i sistemi Raggi X e Raggi gamma
• UT - Ultrasuoni, tecnica che fa impiego di onde acustiche ad alta frequenza (nell'ordine dei MHz per i
materiali metallici, dei kHz per materiali più eterogenei quali quelli lapidei ed i conglomerati cementizi)
• ET - Correnti indotte, tipologia di controllo basato sullo studio della variazione di Impedenza di una
bobina in funzione del campo magnetico indotto
• VT - Visual test, sistema di controllo visivo
• MT - Flusso Magnetico, Verifica delle alterazioni di flusso del campo magnetico in prossimità della
superficie del particolare posto sotto esame
• AT - Emissione Acustica, sistema per l'identificazione di propagazione delle difettologie
• TIR - Termografia Infrarossa, analisi della risposta termica in presenza di discontinuità del materiale.

Classificazione delle metodologie di controllo


Le metodologie di controllo possono essere classificate in diversi modi.

La prima differenziazione è fra metodologie volumetriche e superficiali. Le prime mostrano indicazioni


(difetti) presenti in tutto il volume dell'oggetto (RT, UT, AT, TIR), mentre le altre mostrano solo i
difetti affioranti in superficie (PT, VT) o molto prossimi alla superficie su cui si sta effettuando il
controllo (ET, MT).

Le metodologie volumetriche possono essere divise fra metodologie per trasmissione e metodologie
per riflessione. I RT sono sempre per trasmissione, cioè devono attraversare tutto il pezzo per essere
rivelati sulla faccia opposta a quella da cui sono entrati. Gli UT possono essere effettuati per
trasmissione, nel caso di controlli particolari, utilizzando due sonde poste su due facce opposte
dell'oggetto, ma, generalmente, sono effettuati per riflessione. TIR e AT si basano sull'emissione di
energia da parte del pezzo in condizioni particolari, quindi devono essere classificati a parte. I vantaggi
dei metodi per trasmissione sono la minore attenuazione del segnale, che deve attraversare lo spessore
dell'oggetto solo una volta, tuttavia richiedono che entrambe le superfici dell'oggetto siano accessibili,
mentre i metodi per riflessione permettono che sia accessibile una sola superficie dell'oggetto. Le
metodologie di controllo superficiali, ovviamente, richiedono l'accessibilità della superficie su cui
vengono effettuati i controlli.
Differenza duttilità-malleabilità
La duttilità è una proprietà fisica della materia che indica la capacità di un corpo o di un materiale di
deformarsi sotto carico prima di giungere a rottura, ovvero la capacità di sopportare deformazioni
plastiche. Un corpo è tanto più duttile quanto maggiore è la deformazione raggiunta prima della rottura.

I materiali che maggiormente godono di questa proprietà sono i metalli.

Proprietà opposta alla duttilità è la fragilità, ovvero l'incapacità di deformarsi sotto carico e giungere ad
improvvisa rottura (anche detta rottura fragile).

Indicatori di duttilità sono l'allungamento percentuale e la strizione percentuale.

La duttilità è influenzata dalla temperatura, in particolare diminuisce al diminuire della temperatura.


Per questa ragione, anche materiali duttili possono diventare fragili se esposti al gelo o comunque a
basse temperature.

Tale proprietà è legata anche all'età del materiale e ai cicli di carico. In generale, essa tende a ridursi
con l'invecchiamento del materiale e con l'uso.

La malleabilità è una proprietà fisica della materia che indica la capacità di un corpo o di un materiale
(in perticolare di un metallo) di essere facilmente deformabile e riducibile in strati laminiformi sottili.

Il termine deriva dal latino "malleum", che vuol dire martello.

Il metallo più malleabile è l'oro, seguito dall'alluminio.

Inverter
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca

Un inverter è un dispositivo elettronico in grado di convertire corrente continua in corrente alternata


eventualmente a tensione diversa, oppure una corrente alternata in un'altra di differente frequenza.

Le applicazioni sono molteplici:

• nei gruppi di continuità convertono la tensione fornita dalla batteria in corrente alternata;
• nell'industria sono usati per regolare la velocità dei motori elettrici;
• nella trasmissione di energia elettrica convertono l'energia in corrente continua trasferita in alcuni
elettrodotti per essere immessa nella rete in corrente alternata.

Il tipo più semplice di inverter consiste in un oscillatore che pilota un transistor, il quale aprendo e
chiudendo un circuito genera un'onda quadra. L'onda è quindi applicata ad un trasformatore che
fornisce all'uscita la tensione richiesta arrotondando in qualche misura l'onda quadra. Spesso al posto
del transistor comune sono utilizzati dispositivi più efficienti quali il MOSFET, il tiristore o l'IGBT.

La forma d'onda quadra generata da questi dispositivi ha il problema di essere ricca di armoniche
superiori, mentre l'onda sinusoidale della rete elettrica ne è priva. Ciò comporta una minore efficienza
delle apparecchiature alimentate, maggiore rumorosità sia sonora che elettrica, e seri problemi di
compatibilità elettromagnetica.

Inverter più complessi utilizzano diversi approcci per produrre in uscita una forma d'onda quanto più
possibile sinusoidale. Un circuito elettronico produce una tensione a gradini mediante modulazione di
ampiezza di impulso (PAM) quanto più possibile vicina ad una sinusoide. Il segnale, detto sinusoide
modificata, viene livellato da condensatori e induttori posti all'ingresso ed all'uscita del trasformatore
per sopprimere le armoniche. Gli inverter migliori e più costosi basano il loro funzionamento sulla
modulazione di larghezza di impulso (PWM). Il sistema può essere retroazionato in modo da fornire
una tensione in uscita stabile al variare di quella di ingresso. Per entrambi i tipi di modulazione la
qualità del segnale è determinato dal numero di bit impiegati. Si va da un minimo di 3 bit a un massimo
di 12 bit, in grado di descrivere con ottima approssimazione la sinusoide.

Nei motori asincroni e a maggiore ragione nei motori sincroni la velocità di rotazione è direttamente
legata alla frequenza della tensione di alimentazione. Ovunque sia necessario nell'industria variare la
velocità di un motore vengono usati inverter da corrente alternata a corrente alternata (CA-CA). In
questi sistemi la tensione in entrata viene dapprima convertita in corrente continua da un raddrizzatore
e livellata da condensatori, quindi applicata alla sezione di inversione. Lo scopo di questo doppia
operazione è unicamente quello di variare la frequenza a piacere entro un intervallo prestabilito e non è
necessaria la presenza di un trasformatore, poiché non è necessario variare il valore della tensione in
uscita che rimane uguale a quella in ingresso.

La frequenza di uscita è determinata nei casi più semplici da un segnale analogico fornito all'inverter
per esempio da un potenziometro, oppure da un segnale digitale inviato da un PLC.

[modifica] Inverter fotovoltaici per immissione in rete

Un inverter per immissione in rete: a sinistra gli ingressi di 2 stringhe, al centro l'uscita AC monofase
Si tratta di un tipo particolare di inverter progettato espressamente per convertire l'energia elettrica
sotto forma di corrente continua prodotta da modulo fotovoltaico, in corrente alternata da immettere
direttamente nella rete elettrica. Queste macchine estendono la funzione base di un inverter generico
con funzioni estremamente sofisticate e all'avanguardia, mediante l'impiego di particolari sistemi di
controllo software e hardware che consentono di estrarre dai pannelli solari, la massima potenza
disponibile in qualsiasi condizione metereologica. Questa funzione prende il nome di MPPT, un
acronimo di origine Inglese che sta per Maximum Power Point Tracker. I moduli fotovoltaici infatti,
hanno una curva caratteristica V/I tale che esiste un punto di lavoro ottimale, detto appunto Maximum
Power Point, dove è possibile estrarre tutta la potenza disponibile. Questo punto della caratteristica
varia continuamente in funzione del livello di radiazione solare che colpisce la superficie delle celle. E'
evidente che un inverter in grado di restare "agganciato" a questo punto, otterrà sempre la massima
potenza disponibile in qualsiasi condizione. Ci sono svariate tecniche di realizzazione della funzione
MPPT, che si differenziano per prestazioni dinamiche (tempo di assestamento) e accuratezza. Sebbene
la precisione dell'MPPT sia estremamente importante, il tempo di assestamento lo è, in taluni casi,
ancor più. Mentre tutti i produttori di inverter riescono ad ottenere grande precisione sull'MPPT
(tipicamente tra il 99-99,6% della massima disponibile), solo in pochi riescono ad unire precisione a
velocità. Sono infatti nelle giornate con nuvolosità variabile che si verificano sbalzi di potenza solare
ampi e repentini. E' molto comune rilevare variazioni da 100W/mq a 1000-1200W/mq in meno 2
secondi. In queste condizioni, che sono molto frequenti, un inverter con tempi di assestamento minori
di 5 secondi riesce a produrre fino al 15%-20% di energia in più di uno lento. Alcuni inverter
fotovoltaici sono dotati di stadi di potenza modulari, e alcuni sono addirittura dotati di un MPPT per
ogni stadio di potenza. In questo modo i produttori lasciano all'ingegneria di sistema la libertà di
configurare un funzionamento master/slave o a MPPT indipendenti. In genere l'impiego di MPPT
separati fa perdere qualche frazione di punto percentuale di rendimento elettrico medio della macchina,
che è costretta a funzionare a pieno regime anche con irraggiamento scarso. Tuttavia non è infrequente
che la superficie dei pannelli solari non possa essere esposta al sole uniformemente su tutto il campo
perché disposto su due diverse falde del tetto, oppure che i moduli non possano essere distribuiti su
stringhe di uguale lunghezza. In questo caso l'utilizzo di un solo MPPT porterebbe l'inverter a lavorare
fuori dal punto di massima potenza e conseguentemente la produzione di energia ne sarebbe
danneggiata. In genere la piccola perdita di efficienza elettrica introdotta da ingressi multipli viene
sempre compensata dalla maggiore efficacia degli MPPT indipendenti.

Un'altra caratteristica importante di un inverter fotovoltaico, è l'interfaccia di rete. Questa funzione,


generalmente integrata nella macchina, deve rispondere ai requisiti imposti dalle normative dei diversi
enti di erogazione di energia elettrica. In Italia, ENEL ha rilasciato la normativa DK5950. Un inverter
fotovoltaico connesso in rete deve sottostare a questa normativa e nel futuro imminente, alla nuova
norma DK5940. Questa norma prevede una serie di misure di sicurezza tali da evitare l'immissione di
energia nella rete elettrica qualora i parametri di questa, siano fuori dai limiti di accettabilità.

Raffreddamento palettatura turbina a gas


Le palette più sollecitate termicamente sono quelle dei primi stadi (primo e secondo), su queste quindi
si è riposta la maggiore attenzione dei progettisti, al fine di migliorare i rendimenti. Oltre all' utilizzo di
materiali sempre più performanti, dato che ormai la ricerca su tale livello si è quasi stabilizzata, la
tecnica più usata è quella del raffreddamento.

Questo può avvenire in due modi: Interno e o per Film Cooling

Nel primo, dell'aria spillata dal compressore viene immessa a circolare nelle palette cave, operando
quindi un raffreddamento dall interno
Nel Film Cooling la palettatura presenta dei piccoli forellini, direzionati in maniera assolutamente
calcolata, attraverso i quali dell'aria spillata da uno stadio di compressore (a pressione superiore a
quella dello stadio di turbina che andrà a raffreddare), che passa nella paletta cava raffreddandola
dall'interno, fuoriesce e segue una direzione che gli permette di essere aderente alla superficie della
lama e di creare uno strato (Film) che faccia da isolante tra i gas incandescendi e la superficie della
pala.

Legge di Stevino
Da Wikipedia, l'enciclopedia libera.

La legge di Stevino è uno dei principi fondamentali della statica dei fluidi. Venne enunciata da Simon
Stevin (1548-1620) nel suo trattato del 1586 De Beghinselen des Waterwichts dedicato all'idrostatica.
Afferma che la pressione esercitata da una colonna di fluido di altezza h (distanza dal pelo libero del
fluido, ossia la parte in alto nella colonnina aperta, a contatto con l'ambiente esterno) e densità costante
δ è direttamente proporzionale a h,

essendo l'accelerazione di gravità g = 9.8 m/sec²; se la superficie della colonna di liquido è esposta alla
pressione atmosferica PA allora la legge viene così modificata:

essendo PA = 101325 Pascal la pressione atmosferica standard.

La legge di Stevino deriva direttamente dall'equazione del moto di un fluido ideale:

dove rappresenta la forza di volume agente sul fluido, p è la pressione e ρ la densità. Nel caso di
un fluido fermo, la condizione di equilibrio è tradotta in , quindi:

Questa equazione significa che nel caso statico le forze di volume devono uguagliare le forze di
superficie. Se le forze cui è soggetto il fluido sono conservative allora la precedente equazione diventa:

dove U = ρgz + cost è l'energia potenziale dovuta alla forza di volume. L'equazione indica tralaltro, che
le superfici equipotenzali nel caso di fluido ideale sono anche superfici isobare. Supponendo che il
fluido sia incomprimibile (come nel caso dei liquidi):
che integrata tra due quote e :

p2 − p1 = ρg(z2 − z1)

che è appunto la legge di Stevino.

Nel caso dell'acqua (δ=1000 kg/m³) la pressione aumenta di 9800 Pascal per ogni metro di profondità,
ovvero di circa 1 atmosfera ogni 10 metri di profondità. Nel caso dell'acqua, la pressione del liquido
eguaglia quella atmosferica ad una profondità critica di 10 metri:

patm[Pa] = δ[Kg / m3] * g[m / sec2] * h[m], da cui:

h = 101300Pa / (1000 * 9.81) = 10.32metri.

Supposto il liquido omogeneo, la pressione idrostatica è in ogni suo punto interno direttamente
proporzionale alla distanza dalla superficie libera, alla densità del liquido e all'accelerazione di gravità.
A questa va sommata la pressione atmosferica alla superficie del liquido, che si trasmette in tutto il
fluido per il principio di Pascal. In forma differenziale, la legge diventa

dP = δgdu

Se la densità è costante si ha , dove z è l' altezza geodetica da un piano di riferimento, γ è il


peso specifico del liquido e ζ è la quota piezometrica, costante.

Si deduce quindi che la differenza di pressione tra due punti di uno stesso liquido ad altezze diverse è
dato semplicemente dal prodotto del peso specifico per la loro distanza:

Se la densità e la gravità variano con l'altezza, la legge diventa

La legge di Stevino è alla base dei cosiddetti paradossi idrostatici

Trafilatura
Da Wikipedia, l'enciclopedia libera.

Il processo di trafilatura è un processo di formatura che induce un cambiamento nella forma del
grezzo di partenza attraverso la deformazione plastica dovuta all’azione di forze impresse da
attrezzature e matrici. La trafilatura realizza in continuo lunghi fili o barre, con una sezione circolare
oppure a profilo complesso con 3 o più lati. Le sue origini risalgono all’XI° secolo e la sua continua
evoluzione ha portato ad oltrepassare i limiti dimensionali progressivamente raggiunti.

Microtrafilatura
La crescita esponenziale del mercato mondiale di micro componenti richiede fili con un diametro
sempre inferiore e con ottime finiture e proprietà da impiegare nella realizzazione di componenti
elettronici e meccanici miniaturizzati. La trafilatura mirata alla produzione di microfili con un diametro
di pochi micrometri viene nominata microtrafilatura. Come il diametro dei fili anche i lati delle barre
possono essere di pochi micrometri, le quali prendono il nome di microfili a profilo complesso. Le
caratteristiche generali sopra dette rendono la trafilatura una tecnologia in grado di realizzare una
produzione di massa di microfili e quindi di soddisfare le nuove esigenze della miniaturizzazione. Ma il
passaggio dal macro al micromondo crea problemi anche alla trafilatura: le nuove dimensioni hanno
conseguenze nel comportamento del materiale, nel processo, nelle matrici, nella manipolazione, nelle
attrezzature e nei macchinari. I costi da sostenere per la produzione di microfili aumentano e sono
legati all’acquisto di nuovi impianti dedicati, alla Ricerca e Sviluppo (necessaria per raggiungere
l’ulteriore miniaturizzazione e la produzione industriale di massa dei nuovi prodotti), all’esigenza di un
filo di partenza di qualità superiore (più puro e con un’accuratezza superficiale e dimensionale
migliore) e di personale più qualificato.

Descrizione generale
Il processo di trafilatura possiede le stesse peculiarità viste più in generale nella formatura ossia è:

• efficiente (realizza un tasso di produttività elevato);


• accurato (i prodotti finali hanno tolleranze ristrette, ottime finiture superficiali e la sezione desiderata);
• eccellente nelle proprietà meccaniche-elettriche del prodotto finale;
• economico ed ecologico grazie alle matrici e agli utensili multiuso, alla manodopera non
necessariamente qualificata ed allo scarto minimo di materiale.

La trafilatura, in base alle classificazioni dei processi di deformazione, appartiene ai:

• processi di formatura massiva, distinti dai processi di formatura di fogli sottili;


• processi a freddo perché usualmente non viene effettuato un pre-riscaldamento del filo o della barra
iniziale;
• processi di lavorazione secondaria (come la piegatura) perché trasforma i prodotti di lavorazione
primaria (forgiati, laminati, estrusi, trafilati) in prodotti finiti o semi-finiti. Al più i suoi lavorati
subiscono dei minimi cambiamenti di forma solitamente attraverso la piegatura (per formare molle,
ganci, graffette, ecc.) o altre operazioni di rifinitura (ad esempio per ottenere delle viti o le punte degli
ami da pesca)

Paragonata alle altre tecniche di formatura massiva, la trafilatura è simile all’estrusione a differenza che
nell’estrusione il pezzo in lavorazione è sottoposto a forze di compressione mentre nella trafilatura a
forze di trazione e che nell’estrusione l’attrito si manifesta nella matrice e nel contenitore della
preforma di partenza invece nella trafilatura solo nella matrice; però entrambe sono tecniche di
deformazione senza superfici libere.
Prodotti di trafilatura
I fili metallici sono ampiamente impiegati nella realizzazione di tessiture e funi strutturali, cavi elettrici
e componenti elettronici, attrezzature mediche, strumenti musicali, prodotti orafi, materiale edile,
componenti metallici per i più svariati settori (automobili, giocattoli, giardinaggio, ecc.).

Nel macromondo le funi ottenute da più fili intrecciati o attorcigliati sono utilizzate nelle tensostrutture
negli ascensori, nelle reti da pesca, nel sollevamento speciale nei porti e nei cantieri, ecc.

Con i macro fili singoli si realizzano molle e ganci, viti, recinzioni, cesti, armature per cemento, fibre
per il calcestruzzo, fili per il taglio del marmo, per gli impianti elettrici, ecc.

Nel micromondo i microfili sono impiegati nel campo dell’elettronica, dei componenti IT (Information
Technology), dei micro sistemi elettro-meccanici (micro electro-mechanical systems MEMS) ma anche
in campo medico, automobilistico, delle telecomunicazioni e della radiofonia; vengono utilizzati sotto
forma di molle di contatto, spirali, viti, mandrini, punzoni, fili elettrici, schermature, cavi di segnale per
allarmi.

I microfili a profilo complesso divengono micro aste, mandrini, viti, punzoni.

I fili metallici sono prevalentemente in rame, in leghe di rame, in acciaio, in leghe di nichel, in
alluminio e spesso sono rivestiti.

Il processo di trafilatura
In questo paragrafo vengono descritti i processi di trafilatura e di ricottura con i loro componenti, i
difetti e le rotture che possono verificarsi e gli adeguamenti osservati nella produzione di fili capillari
dal confronto tra la letteratura esistente sulla Trafilatura tradizionale e le realtà visitate di alcune
trafilerie di fili sottili e capillari. Nella lavorazione di trafilatura il filo subisce dei passaggi forzati
attraverso delle matrici (filiere) con dei fori di diametro progressivamente decrescente che ne riducono
la sezione. Il volume del filo rimane costante dal momento che la trafilatura è un processo senza
asportazione di materiale; con la riduzione diametrale ottengo l’incremento della sua lunghezza. Il filo
da lavorare viene fatto passare attraverso la prima filiera dopo aver subito una riduzione all’estremità
da infilare. Tale estremità è resa conica da un’operazione di swagging (Formatura a martellamento
rotante) oppure, nel caso di microfili, da una rottura a trazione in corrispondenza della zona di
strizione. Dopo il passaggio nella prima filiera, segue l’analogo inserimento in tutte le filiere
successive.

I fili sono divisi in quattro categorie in base al loro diametro d:

• Vergelle, aventi diametro 5 mm ≤ d < 8 mm;


• Intermedi, con 1 mm ≤ d < 5 mm;
• Sottili, con 0.15 mm ≤ d < 1 mm;
• Capillari, con d < 0.15 mm.

Più in generale i microfili hanno un diametro d di pochi micrometri. I fili più fini realizzati in Europa
presentano un diametro di 6 µm, sono in lega d’oro e vengono impiegati in componenti elettronici;
nella produzione industriale di massa i fili più sottili sono in rame ed hanno un diametro di 10 µm.
Per una trafilatura ottimale con una buona finitura ed accuratezza dimensionale nei fili, bisogna
selezionare accuratamente i parametri di processo, progettare adeguatamente il profilo delle filiere ed il
loro angolo, scegliere la riduzione per passo, il lubrificante e i materiali delle matrici e delle
attrezzature.

Il rapporto di riduzione ottimale per passo è inferiore a quello ideale ed è compreso tra il 10% e il 45%.
L’angolo e la riduzione per passo ideali si riducono, oltre che per la lavorazione di materiali duri, anche
per la produzione di microfili al fine di evitare una cattiva finitura superficiale, maggiori difficoltà di
lubrificazione e la possibile rottura. Quindi per ottenere il diametro desiderato si deve incrementare il
numero di passaggi progressivi. Per ridurre una vergella di 8 mm ad un filo di 2 mm di diametro si
operano una decina di passaggi attraverso filiere decrescenti. Invece per passare da un filo di 2 mm ad
uno sottile di 0,2 mm di diametro sono necessari una ventina di passaggi, da un filo di 1 mm ad uno
capillare di 0.1 mm una trentina.

Il filo è trainato da un cabestano finale e da più anelli di tiro posti tra una filiera e l’altra e compie due
o tre giri attorno ad ogni anello di tiro in rotazione per diminuire la tensione di trafilatura. Nel tratto che
va da una filiera all’altra, il filo è in trazione prima dell’anello e a riposo tra l’anello e la filiera
successiva. Grazie al moto degli anelli di tiro è possibile applicare la tensione back spiegata
precedentemente. Il cabestano finale è collocato dopo l’ultima filiera all’esterno della macchina
trafilatrice. Solitamente la velocità del cabestano di tiro è regolata in modo tale da avere uno
slittamento sugli anelli di tiro i quali trasmettono la tensione di trafilatura. La velocità del cabestano è
al massimo di 30 m/s per i fili sottili e capillari mentre arriva a 50 m/s per i fili con un diametro
maggiore. La temperatura del filo aumenta durante la lavorazione a causa dell’attrito, dello slittamento
sugli anelli e dell’elevata velocità a cui viene trafilato. L’uso di un lubrificante adeguato è
indispensabile per ridurre l’attrito, per attenuare il riscaldamento del filo, per diminuire l’usura delle
filiere e per evitare l’asportazione di materiale o del rivestimento dal filo.

In seguito ai molteplici passi di trafilatura, il filo incrudito subisce una ricottura per ripristinare le
proprietà meccaniche ed elettriche di partenza. I fili in acciaio per le corde degli strumenti musicali e le
molle sono gli unici ad essere sottoposti a trattamenti a caldo prima e dopo la lavorazione. Dopo la
ricottura avviene un raffreddamento in emulsione, seguito da un’asciugatura ad aria che predispone il
filo alla bobinatura.

Il bobinatore avvolge un filo o più fili insieme formando le bobine. Un ballerino/sensitivo pneumatico
o a peso si muove regolando la velocità di avvolgimento della bobina per mantenere la tensione del filo
costante. L’unico parametro monitorato in questa fase è la tensione del filo controllata con un
tensimetro. Per calcolare la tensione (N/mm²) di bobinatura da applicare si usa la formula

= d² · π/4 · n°fili · k

dove d è il diametro del filo e k è una costante.

Successivamente i fili vengono sbobinati per andare a formare i cavi elettrici, le piattine per il
computer, le schermature oppure per ottenere, con un’ulteriore lavorazione, molle e spirali. Nella
creazione dei cavi elettrici i fili vengono attorcigliati mentre, per realizzare delle schermature contro i
disturbi elettrici, vengono disposti parallelamente (ad esempio 6-12 fili concentrici attorno a quello da
schermare) o anche intrecciati (ad esempio più gruppi di 4 fili paralleli intrecciati attorno ad un cavo). I
fili per tali applicazioni vengono avvolti con una bobinatura statica in bobine disposte verticalmente.
Invece le bobine dei fili che in seguito non devono subire delle torsioni sono in posizione
orizzontalmente per evitare di torcere i fili una volta arrivati ad una estremità; qui il braccio guidafilo
inverte la sua direzione di movimento ed i fili continuano ad avvolgersi senza torsione. Le bobine di
microfilo singolo possono servire a realizzare fili elettrici con schermature, molle ecc. Se il filo non è
sub-millimetrico può diventare un monofilo per gli impianti elettrici in Germania e nel Nord-Europa,
dove i fili elettrici sono rigidi al contrario di quelli flessibili del Sud-Europa (ad esempio cavi con 1-7
fili contro i 126 nostri).

Le macchine trafilatrici sono classificate secondo diversi criteri. Il primo criterio si basa sul diametro
finale del filo lavorato: in commercio ci sono “sbozzatori” per fili da 4 mm a 1 mm di diametro a
partire da una vergella, macchine “intermedie” per fili da 2 mm a 0.5 mm di diametro con un filo di
partenza di circa 4 mm, macchine “per fili sottili” da 0.5 mm a 0.15 mm di diametro con un diametro di
partenza di circa 2 mm ed infine macchine “per fili capillari” da 0.15 mm a 0.05 mm di diametro con
un diametro di partenza di circa 1.5 mm. Le dimensioni dell’intero impianto di trafilatura per fili
capillari si dimezza rispetto a quelle dell’impianto per fili sottili. Il secondo criterio è quello del numero
di fili lavorati contemporaneamente: se il filo è singolo la macchina è detta monofilo, se i fili sono più
di uno è multifilo (v. fig. 3.20). Nella tipologia multifilo, grazie a molteplici serie di filiere poste in
parallelo e su più piani, è possibile lavorare ad esempio 32 fili contemporaneamente divisi in quattro
piani da 8 fili; nella tipologia monofilo troviamo sia macchine con la struttura di quelle multifilo sia
macchine con coni di tiro (invece di anelli di tiro cilindrici).

Un metodo diverso di lavorazione multifilo è quello di Brunswick in cui un fascio di fili è introdotto in
uno strato di copertura duttile e trafilato insieme con esso: si ottengono diametri fino a 5 µm.

Il terzo criterio è basato sulla tecnica di avanzamento dei fili, che può essere a slittamento sugli anelli o
non a slittamento. Le macchine senza slittamento sono dotate di un cabestano e di anelli motorizzati
che ruotano ad una velocità periferica uguale a quella del filo in uscita dalla filiera. La velocità è
variabile e regolata attraverso appositi sistemi. Invece il cabestano delle macchine a slittamento ha
velocità periferica superiore di quella lineare del filo in uscita, causando così lo slittamento del filo su
di esso e conseguentemente sugli altri anelli di tiro (che ruotano alla stessa velocità del filo in uscita).
Quasi tutte le macchine intermedie in uso sono a slittamento perché riducono le rotture legate all’usura
delle filiere. La riduzione diametrale del filo, che implica un aumento della sua lunghezza, deve essere
accompagnato dall’aumento della velocità del filo (che altrimenti non sarebbe più in tensione attorno
agli anelli situati tra una filiera e l’altra). Se le riduzioni di sezione fossero calcolate nello stesso
rapporto dell’aumento delle velocità periferiche degli anelli di tiro, nel caso in cui avvenisse una
minore riduzione del diametro per l’usura di una filiera ed il conseguente minore allungamento del filo,
quest’ultimo si romperebbe sotto l’azione della tensione generata dalla velocità costante dell’anello di
tiro. Invece nelle macchine a slittamento, l’eventuale usura della filiera dà luogo ad una variazione
dello slittamento e non alla rottura del filo. Lo slittamento percentuale dovuto al ritardo del filo è:

Vanello – Vfilo %

Vanello

Lo slittamento deve in ogni caso essere controllato perché se eccessivo provoca vibrazioni del filo ed
accavallamenti, un elevato riscaldamento, una rigatura precoce degli anelli di trafilatura e un’eccessiva
formazione di polverino. Spesso, per evitare di raggiungere il limite cinematico, viene imposta una
percentuale di riduzione della sezione maggiore sia nelle macchine con slittamento sia in quelle senza:
nelle prime si ha una variazione dello slittamento, nelle seconde si verifica l’apertura delle spire per la
maggiore lunghezza del filo in uscita dalla filiera rispetto a quella prevista. Questa minore tensione
viene compensata nelle filiere successive. Nelle macchine per fili capillari non è produttivo lavorare
con lo slittamento e con una riduzione percentuale maggiore della sezione del filo: si verificherebbero
troppe rotture a trazione.

I parametri monitorati nella macchina trafilatrice sono principalmente tre:

• La velocità in uscita dalla trafilatrice (ad esempio di 20 m/s per fili con un diametro di 0.1 mm) e quindi
di rotazione del cabestano;
• Il diametro finale;
• Il diametro prefinale corrispondente al penultimo passo.

Durante il processo la temperatura è mantenuta costante a 39°C-40°C grazie a degli scambiatori di


calore. Il filo in uscita ha una temperatura di 60°C-70°C dovuta all’attrito nelle filiere ed allo
slittamento attorno agli anelli di tiro. Le trafilatrici multifilo hanno due motori: uno per la trasmissione
del moto degli anelli presenti tra una filiera e l’altra, ed un altro per il cabestano di tiro finale e gli assi
del forno di ricottura. Quando si avvia o si ferma la trafilatrice, la linea accelera o rallenta
progressivamente fino a raggiungere le velocità di regime o a fermarsi perché altrimenti si
verificherebbe la rottura del filo. Un apposito dispositivo “anti-ritorno” impedisce agli ingranaggi di
invertire il senso di rotazione nel riavvio per effetto della tensione del filo a macchina ferma.

Quando si verifica la necessità di ottenere un diametro maggiore di quello per cui è programmata la
macchina, si escludono le filiere nella parte finale (“salto passi”) senza dover spostare le filiere ed
infilare nuovamente l’intera trafilatrice. Se la linea trafila fili sottili o intermedi, è possibile escludere le
ultime filiere e posizionare quella con il diametro finale desiderato come ultima filiera prima
dell’uscita. Invece per i fili capillari, è necessario saltare dei passi e mantenere gli ultimi perché meno
rischioso nella messa in moto dell’impianto. Sia nelle zone di salto passi per fili sottili sia in quelle per
fili capillari, vengono posizionate delle filiere in ottone con l’inserto in ceramica ed un foro maggiore
del diametro del filo a quel punto della lavorazione per guidare e controllare le oscillazioni dei fili. Il
tempo occorrente per escludere le filiere nella parte finale della trafilatrice è circa il 25% del tempo
impiegato ad infilare tutta la linea. Grazie al sincronismo tra i due motori, è sufficiente selezionare i
passi da saltare e la macchina aumenta automaticamente la velocità degli anelli, lasciando fissa quella
del cabestano; il disinnesto degli assi interni avviene attraverso un azionamento elettro-pneumatico
automatico.

Qualora avvenga una rottura del filo durante il funzionamento, un’estremità tocca la macchina che si
blocca e scarica a terra; se la rottura avviene dopo le ultime filiere, due sonde elettriche posizionate
nella zona del cabestano provocano l’arresto immediato della macchina.

Un’alternativa agli anelli di tiro cilindrici, sono i coni di trafilatura monofilo, citati prima. Invece di
disporre gli anelli e le filiere in successione, gli anelli di tiro con diametri diversi in funzione delle
riduzioni necessarie sono riuniti su uno stesso albero. Si ottiene un albero che porta numerosi anelli
accostati tra loro in modo da formare un cono di trafilatura a gradini.

Dal momento che la velocità angolare del cono di trafilatura é costante, gli anelli con diametro minore
avranno una velocità periferica inferiore e quindi su di essi si dovranno avvolgere i fili di diametro
maggiore. Al crescere del diametro degli anelli e quindi della loro velocità periferica, il diametro dei
fili diminuisce. La macchina è costruita in modo da avere due coni adiacenti con le filiere poste tra
loro: il filo che attraversa le filiere tra un cono e l’altro si avvolge su anelli con diametro
progressivamente maggiore per aumentare la sua velocità di trafilatura e subisce una lavorazione sia nel
tratto di andata sia in quello di ritorno. Lavorando in queste condizioni, il filo non si dispone mai
perpendicolarmente agli assi di rotazione degli anelli ed é sottoposto ad un ulteriore slittamento
(laterale) non trascurabile. Alcuni costruttori, allo scopo di diminuire le conseguenti sollecitazioni
irregolari sul trafilato, hanno realizzato degli anelli leggermente conici che permettono al filo di
spostarsi più facilmente e di uscire dagli anelli già angolato secondo la nuova posizione da assumere.
Un altro accorgimento può essere quello di dotare i portafiliere di un moto alternato parallelo agli assi
degli anelli: in questo modo la posizione di uscita del filo cambia continuamente, l’usura dei coni
diviene più uniforme e la loro durata nel tempo aumenta.

La riduzione per passo percentuale da una filiera all’altra è costante nelle macchine con anelli di tiro
cilindrici e non lo è nelle macchine che lavorano con i coni di tiro. Nella prima tipologia ogni anello ha
una velocità maggiore del precedente della stessa percentuale, a discapito della flessibilità ma con il
vantaggio della costanza: se una filiera usurata riduce meno il diametro del filo o se un anello gira ad
una velocità non appropriata, il difetto si compensa da una filiera all’altra attraverso lo slittamento o la
riduzione maggiore della sezione del filo. Nella seconda tipologia l’allungamento non è costante, ma lo
sono la velocità di rotazione dei coni e la riduzione dei diametri degli anelli consecutivi, in relazione
alla riduzione per passo.

Le filiere
Le filiere di trafilatura sono composte di tre parti:

1. . un inserto molto resistente che costituisce l’utensile vero e proprio. I materiali usati sono acciai alto
legati, carburi sinterizzati oppure, per velocità più elevate, leghe dure o diamante naturale monocristallo
o sintetico (policristallino PCD o monocristallo). Per trafilare fili capillari si preferisce il diamante
naturale, per lavorare fili sottili il diamante sintetico policristallino (PCD con grani di pochi µm ottimali
per una buona finitura superficiale) e per fili di diametro maggiore metallo duro. L’inserto di diamante
sintetico policristallino consiste in un film sottile di cristalli di diamante, fissato su un substrato di
carburo di tungsteno sinterizzato. Questa struttura è ottenuta mediante un processo di sintesi del
diamante ad alta pressione ed alta temperatura (HPHT) che crea un diamante PCD noto per le ottime
proprietà fisiche. L’inserto presenta una resistenza all’usura e all’urto più elevate rispetto al diamante
naturale e l’usura della zona di contatto con il filo più uniforme.

Il diamante sintetico monocristallo invece non viene quasi mai impiegato.

1. . un supporto di rinforzo per sostenere l’inserto ossia un anello di carburo di tungsteno;

1. . un telaio cilindrico in acciaio, che contiene le altre due parti. La sua altezza è in funzione della
dimensione dell’inserto e il suo diametro in funzione del portafiliere dell’impianto di trafilatura
(standardizzato per consentire l’intercambiabilità delle filiere nei vari impianti). Il telaio permette di
supportare lo sforzo assiale che subisce l’inserto durante la trafilatura, di dissipare il calore che si genera
per attrito durante il passaggio del filo e di prolungare il cono di entrata dell’inserto per favorire
l’ingresso del lubrificante nel foro. Da un punto di vista più pratico, permette di manipolare e
posizionare senza difficoltà la matrice e di imprimere su di essa codici e nomi per le specifiche di
riconoscimento.

Analizzando l’aspetto del foro interno di una filiera (v. fig. 3.25) secondo il verso di trafilatura, si
osserva un cono di entrata, un cono di riduzione, un tratto parallelo, uno di rilascio ed infine un cono di
uscita. Le dimensioni scelte per ciascuna di queste parti che formano il profilo interno della filiera sono
in funzione delle proprietà fisiche del metallo da trafilare e contribuiscono ad ottenere migliori
prestazioni e una elevata qualità. Il rispetto di queste dimensioni è fondamentale, soprattutto nelle
macchine multifilo, per avere una costanza nella riduzione diametrale e nella tensione del filo.
Ogni zona interna ha le proprie caratteristiche:

• La zona di entrata conica consente l’entrata del lubrificante nella zona di trafilatura; l’angolo del cono é
di 70° ± 20°.
• La zona di riduzione conica, in cui avviene la riduzione plastica del filo, ha un’altezza minima
determinata in modo che il diametro della base maggiore sia almeno uguale al diametro del filo
all’entrata nella filiera. L’angolo è in funzione della riduzione da operare e varia di ± 2°. Si impiegano
angoli minori (circa 14°) per metalli duri e meno duttili (come il ferro, l’acciaio, le leghe di alluminio) e
angoli più aperti (16° - 18°) per metalli teneri come il rame.
• La zona di calibratura è il tratto che calibra il diametro finale. La lunghezza di questo tratto cilindrico é
in funzione del diametro di uscita; solitamente è circa il 20%-50% del diametro per metalli teneri ed il
40%-80% per quelli più duri. La calibratura è un’operazione eseguita da una calibratrice a filo allo scopo
di ottenere il diametro del foro voluto [la calibratrice a filo, utilizzata per la lavorazione della zona
cilindrica di calibratura della filiera e per raccordare tale zona con quella di uscita, si basa sul
movimento assiale di un tratto di filo di acciaio inossidabile (per filiere con un diametro finale inferiore
a 1 mm) oppure di una barretta di acciaio ramato (per diametri superiori), inseriti nel foro della filiera
insieme alla polvere abrasiva. Al movimento assiale del filo si combina la rotazione della filiera e
l’inclinamento di questa in modo da arrotondare l’angolo di uscita ed evitare spigoli vivi. Con
quest’ultima operazione si ottiene la zona di back relief]

La zona di rilascio (back relief) è un piccolo arrotondamento che rende il raccordo tra la zona di
calibratura e di uscita più dolce; evita graffiature e il grippaggio del filo in uscita dalla filiera. La sua
lunghezza è pari al 10% del diametro del filo. °La zona di uscita non influisce sul diametro finale del
filo ma rende possibile l’arrotondamento dello spigolo di uscita. Il contatto del filo con lo spigolo causa
delle vibrazioni che si propagano nella macchina e che portano ad un’ulteriore usura della filiera, ad
una qualità inferiore del filo e addirittura alla rottura del trafilato. Per tale motivo e per impedire la
produzione di scagliature che rischierebbero di accumularsi all’entrata della filiera successiva o di
inquinare il lubrificante, lo spigolo viene arrotondato e prende il nome di zona di rilascio. L’angolo
della zona di uscita, in generale, é di 40° ± 10°.

Attraverso il foro della filiera viene fatto passare il filo da lavorare, il quale si deforma plasticamente
sotto l’azione di una forza di trazione e una di compressione: la forza di trazione è dovuta alla tensione
di tiro applicata, la forza di compressione è conseguenza della geometria delle zone di riduzione e di
calibratura del profilo. L’inserto della filiera può lavorare solo in compressione perché in trazione si
romperebbe. Con la miniaturizzazione l’angolo e la riduzione per passo sono minori e quindi anche la
lunghezza della zona di riduzione; diviene necessario considerare l’attrito pure nella zona di
calibratura, la quale incide maggiormente rispetto a quella di riduzione sull’estensione dell’area di
contatto tra il filo e la matrice.

L’usura delle filiere


Nonostante la durezza elevata dei materiali impiegati nelle filiere, anche questi utensili sono soggetti ad
usura. L’usura è conseguenza delle vibrazioni e della presenza di scaglie abrasive sulla superficie del
filo. L’abrasione comincia nella zona di riduzione a causa della pressione maggiore e successivamente
si porta nella zona di calibratura del filo; quando l’area si espande, è necessario togliere la filiera dalla
trafilatrice per ricondizionarla attraverso un processo di lucidatura che non aumenta la dimensione del
diametro del foro della filiera. La lucidatura, come la calibratura e la rettifica, è ottenuta con
l’inserimento di una polvere di diamante di adeguata granulometria mescolata ad olio e acqua. Se in
presenza di un leggero anello di usura non viene eseguita tempestivamente la sostituzione delle filiere,
si innesca una rapida usura che si manifesta con la comparsa di una zona di abrasione più profonda che
va ad estendersi a tutto il resto del profilo causando rigature, diametri maggiori o, nella peggiore delle
ipotesi, incrinature o rotture dell’inserto. Nel caso di forti usure è necessaria una rettifica con l’utilizzo
di utensili abrasivi di diamante a grana più grossa di quelli usati per la lucidatura. Questa operazione
deve essere fatta prima che la matrice cominci a lavorare per trazione perché non sopporterebbe la
forza di Trafilatura. In presenza di una forte usura non è più possibile ricondizionare il profilo della
filiera senza aumentare la dimensione del foro. Attraverso la rettifica viene tolto uno strato di matrice
per ottenere la stessa angolazione e utilizzarla ancora per diametri maggiori. La rettifica è
un’operazione effettuata con una macchina ad ultrasuoni [la macchina ad ultrasuoni consiste in un
trasduttore efficiente con una sonda adatta che conferisce le vibrazioni meccaniche ad un ago d’acciaio
armonico temprato. Questo ago, con una punta a forma conica, viene introdotto nel profilo della filiera
insieme con una polvere di diamante abrasiva con aggiunta di acqua e olio. A seconda del
ricondizionamento da eseguire, della dimensione e dei tipi di matrice, vengono usate polveri di
diamante di diversa struttura granulare con grani da 0,25 µm a 200 µm (minori nella lucidatura e
maggiori nella rettifica)] ed è seguita da un’operazione di lucidatura perché è noto che, per un
rendimento ottimale, la filiera deve avere un profilo lucido, ben raccordato e privo di spigoli.
Rapportando l’usura al materiale dell’inserto, si osserva che nel diamante sintetico policristallino
l’usura della filiera avviene in modo uniforme mentre nel diamante naturale ciò non avviene. Il
diamante naturale, infatti, presenta una struttura con piani teneri e piani duri che offrono una diversa
resistenza all’abrasione; ne consegue che l’usura è maggiore nei punti della superficie in cui la
resistenza all’abrasione è minore.

L’usura è rilevabile mediante un’osservazione al microscopio oppure grazie ad una misurazione del
diametro del filo trafilato con un calibro laser o con un micrometro meccanico munito di comparatore.
Le filiere si mantengono inalterate per mesi e vengono cambiate quando si rischia di ottenere fili con
una tolleranza maggiore di quella consentita dalle norme in vigore (v. Appendice 1). La loro vita utile è
determinata su una media di tonnellate di filo trafilato. Il tempo di fermo necessario per cambiare metà
delle filiere di una macchina multifilo a trenta passi e infilarle nuovamente è di circa 10 ore.

Gli anelli di tiro


Nelle trafilatrici multifilo gli anelli di tiro sono generalmente lunghi anelli cilindrici con “n” fasce
ricavate sulla superficie esterna.

L’anello è di acciaio e sulle fasce è presente una lega di carburo di tungsteno sinterizzato dello spessore
di pochi decimi di millimetro compenetrato perfettamente nel supporto di acciaio in modo da formare
con esso un corpo unico. Il carburo di tungsteno offre risultati eccellenti contro l’usura e l’abrasione
nelle più svariate condizioni di Trafilatura. Invece sugli anelli di tiro per i fili sottili e capillari vengono
predisposti riporti ceramici per avere un’aderenza maggiore tra il filo e l’anello ed una minore forza di
Trafilatura. Le fasce di lavoro, ricavate sull’anello, hanno una conicità di 1°-5° per consentire al filo di
scorrere meglio durante la Trafilatura. Quando la macchina lavora a regime, le spire si spostano verso il
punto in cui la fascia ha diametro maggiore, secondo il grado di lubrificazione: se questa è troppo
elevata le spire si posizionano dove il diametro è minore, se troppo bassa traslano dove il diametro è
maggiore.

I cabestani finali hanno la stessa struttura e composizione degli anelli di tiro. Nelle macchine
intermedie e per fili sottili vi è un solo cabestano, mentre in quelle per fili capillari i cabestani sono
due. Impiegando due cabestani si può ridurne le dimensioni e quindi il momento d’inerzia, si può
avvicinarli alle ultime filiere ed evitare ai fili percorsi lunghi senza lubrificazione (come avviene tra
l’uscita delle ultime filiere ed il cabestano singolo di diametro maggiore nonché più lontano). A volte
nella parte inferiore del cabestano è installata una serie di carrucole di rinvio per favorire il distacco
delle spire, poiché i cabestani non sono lubrificati.
Gli intagli che si verificano sulla superficie delle fasce di lavoro sono conseguenza dell’attrito continuo
e dell’elevata temperatura del filo (anche se attenuati dal lubrificante), dell’elevata velocità di
Trafilatura e della tensione che stringe le molteplici spire di filo attorno all’anello. Nella Trafilatura di
fili capillari, attorno ai primi anelli della trafilatrice, viene fatto un giro in più di filo rispetto agli ultimi:
il filo diventa più fragile man mano che si assottiglia e solo un giro o due usurano meno la ceramica
degli anelli. Nelle macchine di Trafilatura a slittamento e con una riduzione percentuale maggiore della
sezione del filo, il continuo scivolamento in senso assiale tra il filo e gli anelli di tiro e tra il filo ed il
cabestano provoca delle rigature precoci. Per limitare tale usura viene innescato sul cabestano un
movimento trasversale attraverso un apparecchio meccanico azionato dalle oscillazioni della macchina.
Invece sugli anelli di rinvio verso il forno di ricottura, lo scivolamento trasversale è dovuto sia ad un
congegno elettro-meccanico che muove gli anelli sia ad un pettine che movimenta i fili trasversalmente
e assialmente. Il pettine ha anche la funzione di mantenere i fili separati tra loro.

Gli anelli di rinvio al forno di ricottura e quelli di ricottura sono in acciaio e non hanno fasce ricavate
sulla superficie esterna; alcuni sono ricoperti da uno strato di ceramica. Quando si presentano rigature
sulla superficie vengono sottoposti ad una lucidatura o ad una rettifica (se le rigature sono incisioni
troppo profonde). Come gli anelli di tiro ed i cabestani, hanno uno spessore dimensionato in modo tale
da impedire ovalizzazioni o deformazioni.

I lubrificanti
La lubrificazione è indispensabile nella Trafilatura: durante la lavorazione la superficie del filo è
ricoperta da un lubrificante, scelto a seconda delle caratteristiche di resistenza ed attrito dei materiali a
contatto. Un comune lubrificante è il sapone ed un altro molto usato è l’emulsione: olio emulsionato
con una percentuale dell’1-2% di acqua che passa al 5% nella lavorazione di fili capillari perché una
eccessiva lubrificazione porterebbe le spire di filo a slittare sugli anelli e di conseguenza a rovinarne la
ceramica o a rompersi (il filo che entra nelle filiere è minore, ma il cabestano ruota ad una velocità
costante e richiede la stessa lunghezza di filo da mandare al forno di ricottura). Il lubrificante arriva a
contatto delle spire dei fili capillari e sottili per caduta dai numerosi ugelli di un condotto situato sopra
ad ogni serie di anelli. Ulteriori ugelli sono posti prima di ogni filiera e, spruzzandovi contro,
permettono al lubrificante di accompagnare il filo nella matrice (facilitato dalla zona di entrata del
profilo). Nelle trafilatrici per fili sottili l’emulsione spesso non viene iniettata per caduta ma attraverso
due tipi di ugelli: il primo tipo posto come nelle macchine per fili capillari prima della filiera e l’altro
dopo la filiera diretto verso l’anello di tiro successivo.

Le ultime filiere prima del cabestano sono le meno lubrificate dato che sono posizionate sulla parete
che divide l’impianto di Trafilatura dal forno di ricottura e quindi sono bagnate solo da un lato. Il
maggior numero di rotture avviene in queste ultime filiere a causa dell’attrito eccessivo, dell’accumulo
di polverino in uscita e quindi del danneggiamento dell’inserto della filiera o della superficie del filo
(nei fili sottili e capillari il rapporto tra la superficie ed il volume è molto elevato quindi avviene la
rottura).

Il lubrificante può anche essere solido per fili ad alta resistenza (in acciaio, in acciaio inossidabile, in
lega alto legata): viene fatto aderire sotto forma di un rivestimento di metallo più tenero, ad esempio di
rame o di stagno, depositato chimicamente sulla superficie. Per la Trafilatura del titanio vengono
utilizzati dei polimeri come lubrificanti solidi

Nelle macchine con coni di Trafilatura monofilo, i coni e le filiere sono completamente immersi nel
lubrificante liquido che può essere olio o emulsione (contenente additivi grassi o clorurati oppure altri
composti chimici). Non ci sono macchine trafilatrici che lavorano a secco: l’attrito eccessivo
porterebbe al surriscaldamento del filo, ad un’usura precoce delle filiere e della superficie del filo e per
di più ad un’alterazione delle proprietà del trafilato che, se in rame, verrebbe quasi ricotto e ossidato.
Con una lavorazione a secco si arriverebbe alla rottura del filo in brevissimo tempo.

Per concludere i lubrificanti sono tenuti a svolgere le seguenti funzioni:

• lubrificare,
• raffreddare,
• detergere,
• proteggere il filo di rame e la macchina dall’ossidazione.

e devono:

• possedere una stabilità chimico e fisica,


• non produrre schiuma,
• non essere nocivi nei confronti dell’operatore.

In particolare, l’emulsione utilizzata nel forno di ricottura deve garantire una efficace protezione del
filo dall’ossidazione in quanto è l’ultimo bagno a contatto del filo prima della bobinatura. I fattori che
possono creare difficoltà all’emulsione nel corretto svolgimento dell’azione lubrificante possono
essere:

• una temperatura inferiore o superiore a quella di utilizzo ideale (30°C-40°C) dell’emulsione;


• un attacco batterico che può causare la separazione dell’olio dall’acqua e la conseguente diminuzione
dell’effetto lubrificante oltre che la perdita della proprietà antiossidante e la diminuzione del valore del
pH accompagnato da uno sgradevole odore;
• i sali minerali nell’acqua;
• la schiuma dovuta alle bolle d’aria che penetrano all’interno dell’emulsione durante l’agitazione creata
dagli anelli in rotazione.

Il continuo miglioramento dei lubrificanti ha come obiettivi:

• Il prolungamento della vita delle filiere;


• La riduzione delle rotture;
• La pulizia della macchina;
• Una superficie del filo migliorata;
• L’allungamento del tempo utile dell’emulsione.

L’impianto di ricottura
L’impianto di ricottura continua è indispensabile per la purificazione, la ricottura [38] ed il
raffreddamento dei fili trafilati. Nella lavorazione la tensione iniziale del filo deve superare il carico di
snervamento per determinare la deformazione e la tensione finale del filo deve essere inferiore al carico
di snervamento che porterebbe a rottura. Questa situazione si verifica solo se il filo incrudisce durante
la trafilatura.

I fili presentano una struttura cristallina modificata in seguito alla trafilatura: i grani, durante la
lavorazione, ruotano in maniera da allungarsi determinando delle orientazioni preferenziali (textures)
che causano il comportamento anisotropo del metallo di cui sono costituiti. Si ha una conseguente
alterazione delle proprietà fisiche del metallo: una riduzione della duttilità, della conduttività, della
resistenza alla corrosione, della deformazione a rottura ed un incremento del carico di rottura. Il filo
incrudito non è utilizzabile senza un’opportuna ricottura di ricristallizzazione (ad esempio il rame non
sarebbe sufficientemente flessibile per i cavi elettrici e per di più presenterebbe una conducibilità
limitata). La ricottura di ricristallizzazione è un trattamento termico utilizzato per eliminare
l’incrudimento e le tensioni residue e per dare la possibilità di effettuare una successiva lavorazione a
freddo. La ricottura è costituita da tre stadi:

• Recovery o “ricottura di distensione” in cui le dislocazioni si muovono e vanno a formare i bordi di una
struttura di sottograni poligonalizzati. Si verifica la riduzione delle tensioni residue ed il ripristino della
conduttività elettrica;
• Ricristallizzazione in cui nucleano nuovi grani ai bordi delle celle della struttura poligonalizzati con un
minor numero di dislocazioni, producendo una fine struttura ricristallizzata. Si ha un minore carico di
rottura ma una duttilità migliorata. Questa seconda fase avviene ad una temperatura uguale al 40% della
temperatura assoluta di fusione del metallo e si riduce tanto più, quanto più è deformato il metallo. La
temperatura di ricristallizzazione del rame è compresa tra i 200°C e i 250°C;
• Ingrossamento del grano, meno rapido delle prime due fasi, porta dalla nuova struttura instabile a grani
più grandi.

I fili trafilati entrano nel forno di ricottura, una struttura monoblocco in lamiera d’acciaio, e dopo il
passaggio sul cabestano vengono rinviati nella cassa E verde situata tra gli anelli B - D e l’anello C.
Tale cassa ha le pareti laterali apribili ed è bagnata nella parte inferiore dall’emulsione di ricottura; la
parete di sinistra viene lasciata aperta quando il filo è rivestito perché nella lavorazione si creano più
residui di materiale, che possono accumularsi e divenire potenziali inclusioni. Le emulsioni di ricottura
contengono degli antiossidanti oppure è possibile aggiungervi dei prodotti antiossidanti specifici.
L’interno della cassa E è mantenuta in atmosfera modificata da un’altissima percentuale di azoto che
evita il contatto dei fili con l’acqua e quindi l’ossidazione.

Il percorso di ricottura dei fili è il seguente:

• Dall’anello di rinvio A al primo anello di ricottura B avviene un preriscaldamento iniziale (tra 160°C e
280°C).
• Dal primo anello B al secondo anello di ricottura C si effettua la ricottura per effetto Joule (nel tratto
dall’anello B al livello dell’emulsione refrigerante) cioè dovuta al passaggio di corrente secondo la legge
P=VI² ed al conseguente riscaldamento del filo per conduzione, e l’inizio del raffreddamento
nell’emulsione. L’emulsione, necessaria per raffreddare e pulire il filo, è regolata ad una altezza non
casuale perché determina la lunghezza del tratto di ricottura del filo e quindi il tempo di ricottura.
• Infine dall’anello C all’anello D avviene la seconda parte del raffreddamento nell’emulsione e
l’asciugatura ad aria compressa.

Nel forno di ricottura solo l’anello C è bagnato dall’emulsione di ricottura invece gli anelli di rinvio e
l’altro anello B di ricottura non sono lubrificati. Per tale motivo subiscono periodicamente una
lucidatura o una rettifica.

I due parametri monitorati nella fase di ricottura sono la corrente I e la tensione V. La tensione di
ricottura si calcola con la seguente formula

V = k · radice di v

dove v è la velocità del cabestano in m/s e k è una costante del forno. Nei fili sottili e capillari i valori
della corrente ed il tempo di ricottura sono molto ridotti a causa della sezione minima da sottoporre a
ricottura. La temperatura di ricottura del rame è tra i 500°C e i 550°C mentre l’emulsione viene
mantenuta a 37-40°C. E’ necessario controllare attentamente la temperatura del filo di rame all’uscita
del forno di ricottura in quanto, se elevata (> 50° C), si ha a contatto dell’aria la formazione di ossidi.
Le rotture nel processo di trafilatura possono essere dovute a difetti nel materiale o a difetti nella
Trafilatura.

I difetti del materiale possono essere:

• Inclusioni di due tipi:


1. introdotte dal processo di colata (inclusioni di ossigeno che causano cavità o cricche o fessure,
porosità gassose);
2. metalliche introdotte durante il trasporto, la manipolazione, la Trafilatura.

La rottura del filo avviene quando l’inclusione occupa il 40-50% della sezione. Si verificano differenti
profili di rotture a seconda che l’inclusione sia trattenuta o non trattenuta, solitamente in rapporto 1 a 3.
E’ importante individuare la provenienza dell’inclusione: se introdotta durante la Trafilatura è bene
controllare tutte le filiere, gli anelli ed i cabestani, se già presente prima della Trafilatura è
fondamentale non destinare i fili in cui si trovano alla realizzazione di fili sottili o capillari. Nei fili
capillari il 96% delle rotture avviene a causa di inclusioni. Per facilitare l’individuazione della natura
dell’inclusione, è opportuno stilare una lista dei materiali con cui viene a contatto il filo durante la
Trafilatura ed il trasporto.

• Difetti di saldatura, eseguita per creare continuità tra i fili provenienti da bobine diverse, portano a
rotture a bocca di pesce.

I difetti conseguenti alla Trafilatura, simili a quelli nell’estrusione, sono:

• Difetti superficiali come rigature longitudinali o pieghe nel materiale che possono aprirsi durante
un’ulteriore lavorazione a freddo; possono essere conseguenza di un’impropria selezione dei parametri
di processo (ad esempio della velocità del cabestano e della temperatura) o del lubrificante. Invece le
rigature dovute al contatto occasionale con materiali più duri si possono definire dei danneggiamenti
meccanici.

°Tensioni residue dovute alla deformazione plastica non omogenea. Nel caso di una riduzione
veramente leggera, la deformazione tende a limitarsi sulle zone esterne. In questo caso le tensioni
residue superficiali sono compressive e si ha un miglioramento del limite di fatica. Le tensioni residue
possono influire sulla formazione di cricche nel tempo dovute alla tensione o alla corrosione oppure
possono portare all’incurvatura del filo dopo la rimozione di uno strato superficiale di materiale (in
ulteriori lavorazioni o in seguito ad una rettifica). °Chevron cracking, cricche interne influenzate
dall’angolo di riduzione della matrice, dalla riduzione per passo, dall’attrito e dalla presenza di
inclusioni nel materiale. Le cricche al centro, ulteriormente allungate e sottoposte alla tensione di
Trafilatura, portano a rotture a coppa e cono.

Le rotture a trazione nella Trafilatura possono essere identificate dalla forma conica identica delle due
estremità e sono conseguenza di:

°Errata geometria o posizione delle filiere; °Usura delle filiere; °Insufficiente lubrificazione;
°Accumulo di polverino, impurità o corpi estranei all’ingresso della filiera che possono causare rigature
o divenire delle inclusioni;

• Accavallamento e sovrapposizione delle spire del filo che possono essere evitati con un basso numero di
spire ed una adeguata tensione back, che mantenga le spire in trazione attorno all’anello e che non
permetta l’allentamento;
La rottura nel forno, dove il filo viene ricotto in atmosfera controllata, avviene a causa della formazione
di zone fuse che operano come inclusioni o difetti superficiali nel filo. La formazione di zone fuse può
avvenire anche a causa della presenza di vere inclusioni che riducono la sezione di passaggio della
corrente causandone un surriscaldamento. E’ necessario controllare periodicamente il corretto stato del
forno e degli anelli di ricottura.

Nei fili utilizzati rispettivamente per la realizzazione di fili sottili e capillari è essenziale l’assenza di
inclusioni di ossigeno (che causano cavità, cricche o fessure), porosità gassose, inclusioni metalliche,
impurità superficiali. Il prodotto finale deve presentare particolari caratteristiche dimensionali
(diametro nominale ed effettivo, tolleranza, ovalizzazione), meccaniche (allungamento percentuale a
rottura, carico di rottura) ed elettriche (resistenza elettrica).

Trasformatore

Trasformatore di media tensione su palo in una zona rurale

Il trasformatore è una macchina elettrica statica (perché non contiene parti in movimento)
appartenente alla categoria più ampia dei convertitori. In particolare il trasformatore consente di
convertire i parametri di tensione (simbolo V unità di misura [V] Volt) e corrente (simboli I unità di
misura [A] Ampere) in ingresso rispetto a quelli in uscita. Il trasformatore è una macchina in grado di
operare solo in corrente alternata, perché sfrutta i principi dell'elettromagnetismo legati ai flussi
variabili.
Il trasformatore ha importanza fondamentale nel mondo di oggi: senza di esso le grandi reti di trasporto
dell'energia elettrica che collegano le centrali elettriche a milioni di industrie e di case non potrebbero
funzionare.

Introduzione
Le enormi quantità di energia elettrica richieste dalla società moderna fanno sì che questa debba essere
prodotta in grandi quantità presso centri di produzione denominati centrali elettriche. Un parametro
utile per determinare la dimensione e la quantità di energia prodotta da una centrale è la potenza
(simbolo P unità di misura [W] Watt) la quale può aggirarsi dalle decine di kW (1 kW = 1000 W) di
piccole centrali idroelettriche o solari alle centinaia di MW (1 MW = 1.000.000 W) delle grandi
centrali termoelettriche e nucleari. Questa energia deve essere trasportata anche per centinaia di km. La
potenza elettrica è legata in maniera diretta ai parametri di tensione e corrente, secondo la formula

dove , detto fattore di potenza, è il correttivo dovuto allo sfasamento.Ciò significa che a parità
di potenza aumentando la tensione V diminuisce la corrente I. Ciò è molto importante in quanto la
corrente I genera al suo passaggio nei conduttori elettrici calore (Effetto Joule), più la corrente è alta e
più calore si genera; per ovviare a questo bisogna aumentare la sezione dei conduttori, ma viene da se
che c'è un limite economico e tecnologico nel dimensionamento delle linee elettriche, legato anche al
fenomeno della caduta di tensione delle linee stesse. Al fine quindi di abbassare la corrente I si effettua
una trasformazione aumentando la tensione V a parità di potenza P. Naturalmente diminuendo le
distanze da percorrere e la potenza da trasportare viene anche meno l'esigenza di avere tensioni alte, se
a questo si associa l'altra esigenza che è quella di avere per l'uso domestico e industriale un livello di
tensione compatibile con le esigenze di sicurezza ne conviene che dalla produzione alla distribuzione è
opportuno effettuare un numero adeguato di trasformazioni verso tensioni più basse.La macchina che si
occupa di effettuare tali trasformazioni è appunto il trasformatore. A titolo di esempio citiamo alcune
delle tensioni tipiche dei esercizio degli impianti elettrici ovvero:

• 220/230 V - tensione per usi domestici


• 380/400 V - tensione per uso industriale
• 20/15 kV (15000-20000 V) tensione di esercizio delle reti elettriche di distribuzione secondaria
(Lunghezza alcune decine di km)
• 132/150/220/380 kV tensione di esercizio delle linee elettriche di distribuzione primaria (Lunghezza
alcune centinaia di km)
• 0,5/1 MV tensione di esercizio delle linee elettriche di interconnessione su lunghissime percorrenze
(Lunghezza alcune migliaia di km)

Invenzione
Le principali tappe che hanno portato all'attuale trasformatore ricordiamo:

• Michael Faraday inventò il 29 agosto 1831 l'anello a induzione, il primo trasformatore. Egli lo usò però
solamente per dimostrare i principi dell'induzione elettromagnetica e non ne intravide un uso pratico.
• Lucien Gaulard e John Dixon Gibbs presentarono a Londra nel 1881 un dispositivo chiamato generatore
secondario e vendettero l'idea alla società americana Westinghouse. Fu il primo trasformatore di uso
pratico, ma impiegava un nucleo lineare, abbandonato poi in favore del nucleo circolare. Fu anche
presentato a Torino nel 1884, dove fu adottato per un sistema di illuminazione.
• William Stanley, un ingegnere della Westinghouse, costruì un modello di trasformatore nel 1885 dopo
che George Westinghouse acquistò l'invenzione di Gaulard e Gibbs. Egli utilizzò per il nucleo due ferri
sagomati a forma di E ed il modello entrò in commercio nel 1886.
• Ottó Bláthy, Miksa Déri e Károly Zipernowsky, ingegneri ungheresi della società Ganz di Budapest
svilupparono nel 1885 un efficiente modello "ZBD" basato sul progetto di Gaulard e Gibbs.
• Nikola Tesla nel 1891 inventò la bobina di Tesla, un trasformatore risonante con avvolgimenti
sintonizzati in aria per produrre altissime tensioni ad alta frequenza.

Costruzione e principio di funzionamento

Schema di principio

Il trasformatore più semplice è costituito da due conduttori elettrici (solenoidi) avvolti su un anello di
materiale ferromagnetico detto nucleo magnetico. L'avvolgimento al quale viene fornita energia viene
detto primario, mentre quello dalla quale l'energia è prelevata è detto secondario. I trasformatori sono
macchine reversibili, per cui questa classificazione non corrisponde ad un avvolgimento fisico unico.

Quando sul primario viene applicata una tensione elettrica alternata sinusoidale, per effetto
dell'induzione magnetica si crea nel nucleo un flusso magnetico con andamento sinusoidale. Per la
legge di Faraday-Neumann-Lenz, questo flusso variabile induce nel secondario una tensione
sinusoidale.

La tensione prodotta nel secondario è proporzionale al rapporto tra il numero di spire del primario e
quelle del secondario secondo la relazione:

dove Vp è la tensione applicata sul primario, Vs la tensione indotta sul secondario, Np il numero di
spire del primario e Ns il numero di spire del secondario.

Per una tensione sinusoidale di ampiezza massima E_m il valore efficace E vale:
Trascurando le perdite, la relazione tra tensione, numero di spire, intensità di flusso e sezione del
nucleo è data dalla relazione:

Dove E è il valore efficace (RMS) della tensione indotta, f è la frequenza in Hertz, N è il numero di
spire dell'avvolgimento al quale si fa riferimento, S è la sezione del nucleo e B è il valore dell'induzione
Tesla.

Dal trasformatore ideale al reale

Per trasformatore ideale in figura si assume la convenzione degli utilizzatori alla porta 1 (primario) e
quella dei generatori alla porta 2 (secondario). Questo è governato dalle equazioni simboliche:

dove n il rapporto di trasformazione.

Un trasformatore reale approssima quello ideale quando:

• la riluttanza del nucleo è nulla


• le perdite nel nucleo sono nulle
• gli avvolgimenti hanno accoppiamento perfetto
• le resistenze degli avvolgimenti sono nulle
Riluttanza del nucleo non nulla

Usiamo l'ipotesi si accoppiamento perfetto cosi da concatenare lo stesso flusso di induzione magnetica:

Le tensioni ai morsetti coincidono con le f.e.m. indotte valgono:

Considerando il funzionamento a vuoto, posso scrivere:

con I1µ detta corrente di magnetizzazione. Possiamo ricavare:

da cui considerando il funzionamento a carico, per il secondo principio di Kirchhoff

risolvendo e sostituendo la precedente equazione ottengo:

quindi la relazione che lega tensioni e correnti del trasformatore ideale diviene:
Perdite nel nucleo non nulle

Oltre alla corrente di di magnetizzazione va aggiunta la componente dovuta a perdite per isteresi e
correnti parassite detta corrente a vuoto:

I10 = I1µ + I1a

così la relazione che lega tensioni e correnti del trasformatore ideale diviene:

Per considerare le perdite per isteresi e correnti parassite che si producono nel nucleo

Accoppiamento non perfetto tra gli avvolgimenti

L'accoppiamento imperfetto tra gli avvolgimenti è dovuto a linee di flusso che abbandonano il nucleo
per richiudersi attraverso percorsi in aria, si avranno cosi altri 2 flussi:

• flusso di dispersione al primario Φ1d


• flusso di dispersione al secondario Φ2d

posso definire:

• reattanza di dispersione a primario

• reattanza di dispersione a secondario


Resistenza degli avvolgimenti non nulle

Considera la resistenza dei conduttori che costituiscono gli avvolgimenti R1 e R2 poste in serie con le
perdite per accoppiamento non perfetto.

Schema completo equivalente

Eliminate tutte le ipotesi di idealità, le f.e.m. indotte dal solo flusso di mutua induzione

mentre le differenze di potenziale effettivamente presente alle porte del trasformatore reale valgono:

ricordando il rapporto di trasformazione:

ottengo relazione che lega tensioni e correnti del trasformatore reale:

queste equazioni descrivono il comportamento del trasformatore reale.

Il trasformatore reale
Trasfomatore trifase a bagno d'olio privo del contenitore

Il trasformatore converte la tensione entrante in un valore differente, ma senza aumentare la potenza. Il


prodotto di tensione per corrente tra i due circuiti è uguale:

VpIp = VsIs

Un trasformatore reale però non è una macchina perfetta e per questo presenta delle perdite, ovvero la
potenza assorbita dal primario è sempre superiore a quella fornita dal secondario. I diversi motivi di
perdita sono:

• Effetto Joule prodotto dalla corrente che scorre negli avvolgimenti (dette perdite nel rame);
• Induzione di correnti parassite nel nucleo che possono a loro volta dissipare energia per effetto Joule
(dette perdite nel ferro);
• Perdita di flusso magnetico al di fuori del nucleo che può indurre correnti su oggetti vicini al
trasformatore;
• Perdite per isteresi magnetica;
• Perdite per movimenti meccanici dovuti a forze magnetiche o magnetostrizione, solitamente percettibili
come il classico ronzio del trasformatore;

Per contrastare questi problemi si adottano avvolgimenti con il minimo numero di spire possibile, di
sezione quadrata o (meglio ancora, dove possibile) circolare per minimizzare la lunghezza complessiva
del filo; i nuclei magnetici devono avere una sezione adeguata, una lunghezza minore possibile e
devono essere costituiti da materiale ferromagnetico che abbia una resistenza elettrica il più possibile
alta, per minimizzare le perdite per effetto Joule, e una forza coercitiva il più possibile bassa, per avere
un ciclo di isteresi il più possibile stretto (e quindi delle perdite magnetiche minori possibili). In genere
si adottano nuclei fatti di pacchi di lamierini di acciaio magnetico al silicio, per ridurre al minimo le
correnti parassite.
Piccolo trasformatore toroidale

La forma può essere quella di un toro (trasformatori toroidali) oppure, più comunemente, quadrata o di
due rettangoli uniti per un lato. In questo caso gli avvolgimenti sono posti sul lato comune. Il nucleo
non è realizzato in metallo compatto, ma è costituito da sottili lamierini incollati a formare pacchetti.
Questo ha lo scopo di impedire che nel nucleo circolino correnti parassite. Nei trasformatori operanti a
frequenze elevate, il nucleo è costituito da polveri metalliche agglomerate con collanti. Più un
trasformatore è grande, maggiore è il suo rendimento: i trasformatori di potenza molto piccola (da 1 a
10 Watt) hanno una efficienza dell'80% appena, mentre i trasformatori più grandi (oltre i 20 kW)
arrivano ad un rendimento del 99% circa. Per queste potenze però l'1% della potenza dissipata è
comunque notevole e perciò sono necessari sistemi di raffreddamento molto efficienti: trasformatori
così grandi lavorano in un bagno di olio dentro involucri metallici opportunamente sagomati per
facilitare la dispersione del calore; in alcuni casi sono previste pompe per la circolazione forzata
dell'olio e un sistema di ventilatori esterni per aumentare l'asportazione di calore. La potenza assorbita
da queste funzioni accessorie è considerata tra le perdite.

Funzionamento a vuoto

Si quando non ci sono carichi alimentati dal circuito secondario, quindi I2 = 0 e quindi è anche nulla
anche I12 mentre circola solo corrente nella prima parte del circuito primario quindi I1 = I10.

Ricordando lo schema di trasformatori reali dove:

• definisco impedenza a vuoto al primario


• si trascura:

tipicamente di un fattore 1000.

• la resistenza e l'induttanza al secondario non sono attraversate da corrente quindi vengono sostituite con
un corto circuito.

si ottiene così la schema di funzionamento a vuoto (sopra riportato).

Questo schema è interessante perché ci da un idea delle perdite nel ferro perché legate all'impedenza
Z10 e quindi della relativa perdita di potenza che ci sarà utile per il calcolo del rendimento del
trasformatore.

Funzionamento in corto circuito

Si ha una configurazione di corto circuito quando si chiude il circuito del secondario senza applicare
nessun carico: in questo caso si annullerà la tensione U2 = 0 e le correnti vengono chiamate correnti di
cortocircuito:

Per l'analisi del trasformatore in corto circuito, partendo dalla configurazione di trasformatore reale, di
riportano al primario la resistenza e l'induttanza del secondario, mettendole in parallelo con Z10 e in
serie con R1ejX1

Adesso prendiamo in considerazione la prima parte dello schema proposto e definiamo l'impedenza al
primario:

dove:
• R1C è definita resistenza in corto circuito a primario
• X1C è definita reattanza in corto cirtuito a primario
• le resistenze e le induttanze del primario sono considerate in serie:

• ricordo che tipicamente di un fattore 1000 e quindi viene trascurata

Considerando la parte di destra dello schema, possiamo trasportare l'impedenza del primario al
secondario e ottenere:

dove:

• R2C è definita resistenza in corto circuito a primario


• X2C è definita reattanza in corto circuito a primario

In conclusione il funzionamento in corto circuito è dipendente dalle impedenze al primario e al


secondario quindi la potenza assorbita dal trasformatore in corto circuito è legata alle
perdite dovute alle resistenze quindi alle perdite nel rame; questa considerazione ci sarà utile per il
calcolo del rendimento del trasformatore.

Perdite e rendimento
Nei trasformatori reali presentato due tipi di perdite:

• perdite nel rame dovute agli avvolgimenti:

• perdite nel ferro dovute al nucleo ferromagnetico:

quindi definiamo il rendimento:

dove:
• Pu potenza utile al secondario
• Pd potenza disponibile al primario

Da ricordare che il rendimento è funzione della condizione di carico ( vedi anche:Rifasamento, φ ),


ossia di quanto sia sfasata la corrente al secondario, l'angolo φ che forma con al tensione al secondario.

Configurazione in parallelo

Porre due trasformatori in parallelo è giustificato da queste esigenze:

• Variabilità del carico: non sarà sempre richiesta la potenza nominale di progetto sulla rete (es: esigenze
domestiche o industriali sono variabili a seconda delle ore della giornata) così da abbassare
sensibilmente il rendimento del trasformatore quando questo lavori lontano dalle condizioni di progetto.
• Sicurezza: nel caso di guasto di uno dei due trasformatori non risulta compromessa del tutto l'erogazione
della rete (black out)
• Manutenzione: si posso effettuare operazioni di manutenzione sui trasformatori disattivandoli
alternativamente senza dover interrompere completamente l'erogazione del servizio.

Condizioni di funzionamento in parallelo

La configurazione di due trasformatori in parallelo impone:

1. Condizioni sulle tensioni e sulle correnti:

2. Che il trasformatore lavori più vicino alla condizione di massimo rendimento:


se

3. Dalla precedente condizione si ha che i due trasformatori lavorino entrambi alla loro potenza nominale,
quella massima consentita di progetto:

4. Per poter verificare la precedente condizione si deve avere che le due correnti in uscita dai trasformatori
siano in fase tra loro.
5. I due trasformatori debbono avere i rapporti di trasformazione uguali (condizione di utilizzo a vuoto)

6. Devono avere i triangoli di corto circuito uguali (condizione di funzionamento in corto circuito).

Valori nominali dei trasformatori


Tabella valori nominali..

U1n tensione nominale primaria [V]

U2n tensione nominale secondaria [V]

I2n corrente nominale primaria [A]

I2n corrente nominale secondaria [A]

Pn potenza nominale [VA]

fn frequenza nominale[hZ]

n rapporto di trasformazione

• Tra i valori nominali di tensione e corrente sussistono le relazioni:

• La potenza nominale è legata alle tensioni e correntei nominali dalle relazioni:

Pn = U1nI1n = U2nI2n per il monofase


per il trifase

Tipi
Sebbene basati sullo stesso principio, esistono trasformatori di tutte le dimensioni, da quelli grandi
pochi millimetri usati in elettronica a grandi macchine alte diversi metri e con potenze di gigawatt usati
nella distribuzione di energia elettrica.

La classificazione può essere fatta in base alla potenza trasferita, al rapporto di trasformazione, al fatto
che primario e secondari siano isolati, al tipo di segnale su cui operano.

Di tensione

È il trasformatore classico descritto precedentemente. La tensione sul secondario è costante e


determinata dal rapporto nel numero di spire. Si può ulteriormente suddividere questa categoria in
trasformatori riduttori o elevatori a seconda che il rapporto di tensione sia in aumento o in
diminuzione. Gli avvolgimenti possono avere prese intermedie che permettono di decidere
all'installazione tra diversi rapporti, per esempio per utilizzare una apparecchiatura su reti elettriche a
diversa tensione nominale. Le prese intermedie sul secondario, oppure avvolgimenti secondari
aggiuntivi, permettono di avere a disposizione diversi valori di tensione contemporaneamente.

Di isolamento

Sono trasformatori con rapporto unitario (o leggermente maggiore per compensare le perdite) ma con
isolamento elettrico tra gli avvolgimenti particolarmente curato. Sono usati per disaccoppiare la massa
di un apparecchio di misura dalla massa del circuito in esame quando entrambi siano messi a terra.
Sono anche usati per aumentare la sicurezza delle apparecchiature mediche connesse alla rete.

Trasformatore trifase

Sono macchine in grado di convertire una tensione trifase e sono comunemente usati nella rete di
distribuzione elettrica. Possono essere costituiti da tre trasformatori monofasi indipendenti, ma spesso
sono realizzati con tre avvolgimenti primari e tre secondari montati su un unico nucleo con tre rami
paralleli. Gli avvolgimenti possono essere collegati a stella, a triangolo o a zig-zag.Vengono di solito
abbinati a degli Isoltester o chiamati anche Controllori di isolamento che permettono di regolare
tramine pannello sinottico le varie soglie di resistenza verso terra.

Autotrasformatore

È un trasformatore con un unico avvolgimento a più prese intermedie. vedi Autotrasformatore.

Trasformatore variabile o variac

Sono autotrasformatori in cui la presa intermedia è un contatto strisciante sull'avvolgimento primario:


questi apparecchi possono fornire in uscita una tensione regolabile praticamente con continuità tra zero
e il valore massimo. Il Variac è un marchio registrato da General Radio.

Di corrente

Forniscono sul secondario una corrente proporzionale alla corrente circolante nel primario. Sono spesso
usati nei sistemi di misura per correnti elevate al fine di ridurle a valori più facilmente misurabili. Sono
costituiti da un nucleo toroidale al cui interno passa il cavo (anche isolato) su cui compiere la misura e
su cui è avvolto il filo del secondario. È importante che il secondario sia sempre in cortocircuito sullo
strumento di misura per evitare la formazione di tensioni pericolosamente elevate. Sono usati nei
sensori di una pinza amperometrica.

A corrente costante

Questi trasformatori mantengono costante entro certi limiti la corrente fornita sul secondario piuttosto
che la tensione. In pratica la tensione prodotta si regola automaticamente per mantenere una corrente
costante sul carico. Sono costituiti da nucleo interrotto da un traferro la cui apertura è regolata da una
sezione mobile del nucleo tirata da un contrappeso. La presenza del traferro determina un aumento
della riluttanza, ovvero il rapporto tra la forza magnetomotrice generata dal primario e il flusso di
induzione prodotto nel nucleo.

Quando il circuito secondario assorbe troppa corrente, le forze elettromagnetiche provocano


l'allargamento del traferro, da cui ne deriva una diminuzione del flusso e quindi la diminuzione della
tensione indotta.

Questi trasformatori sono usati per alimentare le lampade di illuminazione pubblica collegate in serie a
corrente costante.

Versioni con traferro regolabile manualmente sono usati nelle saldatrici elettriche: In questo caso
l'apertura del traferro non è automatica ma impostata dall'utilizzatore con una manopola. La corrente è
quindi limitata ad un valore prefissato ma non regolata.

Risonante

Un trasformatore risonante opera alla frequenza di risonanza di uno (o più) avvolgimenti, solitamente il
secondario, sfruttando la capacità parassita fra una spira e l'altra dell'avvolgimento. Se il primario è
alimentato con una tensione periodica ad onde quadre o dente di sega, ad ogni impulso viene fornita
energia sul secondario, che sviluppa progressivamente una tensione molto elevata alla frequenza di
risonanza del circuito oscillante. La tensione prodotta è limitata da fenomeni di scarica distruttiva fra le
spire dell'avvolgimento risonante e la corrente è molto più elevata di quella ottenuta dai generatori
elettrostatici come il Generatore Van de Graaff e il Generatore Wimshurst. Di solito questi
trasformatori lavorano a frequenze piuttosto elevate, per cui non hanno bisogno di nucleo magnetico.
La bobina di Tesla è un tipico trasformatore risonante.

Di impulso

Un trasformatore di impulso è ottimizzato per trasferire un impulso rettangolare. Modelli di piccola


potenza (detti di segnale) sono usati in elettronica digitale e telecomunicazioni, in genere per adattare i
circuiti alle linee di trasmissione. Modelli di medie dimensioni sono usati per controlli su circuiti di
potenza, come per esempio per innescare i flash fotografici.

Per limitare la distorsione nella forma dell'impulso, il trasformatore deve avere basse perdite, bassa
capacità distribuita ed alta induttanza a circuito aperto. Nei modelli di potenza deve essere bassa la
capacità di accoppiamento tra primario e secondario, per proteggere i circuiti collegati al primario dagli
impulsi di elevata tensione creati dal carico. Per la stessa ragione deve essere elevato l'isolamento.

La qualità di un trasformatore di impulso è determinabile con il prodotto tra la tensione di picco e la


durata dell'impulso (o più esattamente l'integrale dell'impulso). Più alto è il valore, maggiore è il costo
del trasformatore.
D'uscita

Questo tipo di trasformatore è utilizzato solitamente come adattatore d'impedenza. Normalmente è


usato negli amplificatori audio valvolari per adattare l'alta impedenza dei tubi d' uscita con la bassa
impedenza dell'altoparlante. Infatti, solitamente, per questo tipo di trasformatori non viene definito
direttamente il rapporto di trasformazione N delle tensioni ma il rapporto delle impedenze tra primario
e secondario. Dal punto di vista matematico risulta che Z1\Z2= N al quadrato, con Z1 e Z2 le
impedenze del primario e del secondario. Inoltre, in questa specifica applicazione, svolge anche il
compito di separare la componente continua da quella alternata. Dal punto di vista costruttivo è come
un normale trasformatore monofase con degli accorgimenti particolari. Prima di tutto il materiale dei
lamierini: si usano solitamente lamierini con percentuale di silicio, però a grani orientati, oppure altri
materiali più costosi (permalloy, etc...).Un altro accorgimento che si pratica è quello di intercalare il
primario con il secondario, in modo tale da aumentare l'accoppiamento tra gli avvolgimenti e diminuire
la capacità parassita (e quindi estendere la banda passante) degli avvolgimenti. Nei trasformatori
d'uscita per stadi single end occorre aggiungere del traferro (aria o carta) al nucleo in modo tale da
evitare premature saturazioni, visto che in questa configurazione l'avvolgimento primario è attraversato
dalla corrente continua del tubo in un solo senso e non in due (ma opposti) come in quelli per push-
pull, i quali non richiedono il traferro. In un amplificatore audio è un componente fondamentale, i
quanto se di scarsa qualità può limitare pesantemente le prestazioni.

Durezza
Da Wikipedia, l'enciclopedia libera.

La durezza è un valore numerico che indica le caratteristiche di deformabilità plastica di un materiale.


È definita come la resistenza alla deformazione permanente.

Le prove di durezza determinano la resistenza offerta da un materiale a lasciarsi penetrare da un altro


(penetratore). Esistono diverse scale per misurare la durezza dei materiali. Le più usate sono:

• Brinell
• Vickers
• Rockwell
• Mohs

Le prove di durezza si eseguono con macchine provviste di penetratori con forme diverse e con diverse
metodologie.

Brinell
Si basa, nel calcolo della durezza, sulla misura del diametro dell’impronta lasciata dal penetratore.
Anche la Vickers si basa sullo stesso principio e le prove Brinell-Vickers vengono chiamate anche
Prove di microdurezza.

Penetratore: sferico
D = diametro penetratore

d = diametro dell’impronta

P = carico prova

Vantaggi

Rapida, economica, non distruttiva (oggetto riutilizzabile). Se si moltiplica per 3,3 la durezza Brinell di
un acciaio si ottiene il suo carico di rottura.

Svantaggi

Difficili confronti tra diverse misure Brinell (a parità di carico applicato il penetratore può affondare in
misure diverse, cambia anche però l’inclinazione delle facce ed è quindi anche diversa la distribuzione
degli sforzi).

Condizioni di valenza

• distanza dal bordo > 1,5d


• distanza tra impronte > 2d
• spessore provino > D
• tempo di penetrazione (varia al variare del materiale)
• d / D = cos(ω / 2) compreso tra 0,25 e 0,5
• il carico P applicato deve essere esattamente del valore fissato
• superficie spianata e lisciata con lima o carta da smeriglio per non scaldare eccessivamente il pezzo
• durezza del materiale da sperimentare confrontabile con quello della sfera

Vickers
Si basa, nel calcolo della durezza, sulla misura dell’area dell’impronta lasciata dal penetratore. Anche
la prova Brinell si basa sullo stesso principio ed entrambe le prove Brinell e Vickers vengono dette
anche prove di microdurezza.

Penetratore: piramidale a base quadrata

(angolo di apertura: cos(ω / 2) = 0,375 = (0,25 + 0,5) / 2)

Pn = carico di prova (variabile)

t = media delle diagonali dell’impronta del penetratore


Vantaggi

L’inclinazione delle facce è costante; si usano anche carichi piccoli per fare misure di durezza
ravvicinate, precisione della misurazione. La scala è unica per tutti i materiali.

Svantaggi

Costosa, notevole perdita di tempo nella lettura delle impronte che si può fare solo al microscopio.

Condizioni di valenza

• distanza dal bordo > 2t


• distanza tra impronte vicine > 1,5t

Rockwell
Si basa sull’affondamento diretto dell’impronta e non sulla durezza misurata come pressione. Le scale
di durezza ottenute sono convenzionali.

Tipo di prova Penetratore Carico applicato Misura della durezza

B Emisferico 98 N 130 affondamento

C Conico 98N 100 affondamento

T Emisferico 29,4 N 130 affondamento

N Conico 29,4 N 100 affondamento

Vantaggi

Velocità (usata in campo industriale).

Svantaggi

È una misura di durezza solo convenzionale. La durezza Vickers e Brinell si possono confrontare
perché utilizzano le stesse unità di misura, mentre non possono essere stabiliti confronti empirici con la
prova Rockwell.

Numero di Reynolds
Da Wikipedia, l'enciclopedia libera.

Il numero di Reynolds (Re) è un gruppo adimensionale usato in fluidodinamica, dato dal rapporto tra
le forze d'inerzia e le forze viscose.
oppure:

dove:

• vs - velocità media del fluido,


• µ - viscosità dinamica,
• ν - viscosità cinematica: ν = µ / ρ,
• ρ - densità del fluido,
• L - lunghezza caratteristica (equivale al diametro 2r se la sezione del condotto è circolare; se la sezione
non è circolare è il cosiddetto diametro equivalente

dove

• S = area sezione
• P = perimetro bagnato.

Esso permette di valutare se il flusso di scorrimento di un fluido è in regime laminare o turbolento. In


un condotto un fluido viene considerato in regime laminare se il valore numerico di Re è inferiore a
2100, turbolento se superiore a 10000. Se 2100 < Re < 10000 si è in regime di transizione.

Tubo di Pitot
Da Wikipedia, l'enciclopedia libera.

Il tubo di Pitot è uno strumento utilizzato per misurare la velocità di un fluido (tipicamente un gas). Fu
inventato nel 1732 dallo scienziato francese Henri Pitot.

Il tubo di Pitot fissato (di solito) sotto le ali degli aerei

Funzionamento e taratura
Il tubo di Pitot basa il suo funzionamento sulla definizione di pressione totale.
Un tubo di Pitot è infatti fornito di due prese di pressione, una all'estremità anteriore disposta
perpendicolarmente alla corrente (presa totale) e una sul corpo del tubo disposta tangenzialmente al
fluido (presa statica). Come da definizione, la differenza tra queste due pressioni (la pressione
dinamica, ottenibile con l'utilizzo di un manometro differenziale opportunamente collegato alle due
prese) risulta proporzionale al quadrato del modulo della velocità del fluido, quindi:

Il fatto che le prese di pressione siano due e separate sembrerebbe rendere inutilizzabile il Pitot (infatti
la definizione di pressione totale richiede che le pressioni statica, dinamica e totale siano misurate nello
stesso punto nello stesso istante di tempo).
Affinché il tubo di Pitot non fornisca quindi una misura approssimata, la pressione totale dovrebbe
mantenersi costante nel campo di moto del fluido (cioè dovrebbe valere il Teorema di Bernoulli nel suo
primo o almeno secondo enunciato). Siccome generalmente i tubi di Pitot sono costruiti in modo da
non perturbare eccessivamente il campo di moto intorno a loro, questa approssimazione è accettabile.
Può essere però evitata se si provvede al tracciamento di una curva di taratura per il Pitot utilizzato.
La taratura del Pitot si effettua immettendo il tubo in una corrente di fluido di cui siano perfettamente
note le proprietà del fluido stesso e la velocità. Per un numero sufficiente di valori di velocità si
andranno a registrare le corrispondenti differenze di pressione tra le due prese del Pitot, ottenendo una
successione di punti che rappresentano la funzione di trasferimento dello strumento. Durante l'utilizzo
quindi, invece della formula derivante dalla definizione di pressione totale si potrà utilizzare questa
funzione di trasferimento (al giorno d'oggi, peraltro, facilmente implementabile in un codice di calcolo
che interpoli la curva di taratura) per assegnare ad ogni valore di ∆p la velocità corretta.

In particolari situazioni potrebbe succedere che il campo di moto del fluido in cui è immerso il Pitot
presenti gradienti di velocità talmente elevati da determinare una grande differenza di velocità del
fluido tra le due prese. In questo caso la lettura della velocità andrà riferita al fluido che passa sulla
presa statica.

Utilizzi
Il tubo di Pitot è utilizzato su tutti gli aeroplani e in automobilismo (tipicamente Formula Uno) come
sensore per la determinazione della velocità rispetto all'aria e nelle gallerie del vento per la misurazione
della velocità della corrente d'aria. Viene inoltre utilizzato nell'impiantistica delle bonifiche ambientali,
in particolare per impianti tipo SVE (Soil Vapour Extraction), per monitorare le depressioni indotte
dalle pompe di aspirazione nel terreno oggetto della bonifica.

Frizione (meccanica)
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca

La frizione è un organo meccanico che ha la funzione di connettere a comando due alberi per
permettere o meno ed eventualmente modulare la trasmissione del moto rotatorio.
L'apertura o chiusura della frizione può essere effettuata per via meccanica, tramite leve e cavi tiranti,
per via idraulica, pneumatica o elettrica.

Esistono poi frizioni automatiche, in grado di aprirsi se il momento torcente supera un valore limite
(limitatori di coppia) o chiudersi al superamento di una certa velocità angolare.

Frizione delle macchine


Il sistema di trasmissione a ruote di frizione è usato per trasmettere il moto internamente alla testa
motrice di una macchina o macchina utensile, esso si basa sulla calettatura di due ruote di determinati
diametri e larghezze su due alberi paralleli in modo che le due ruote si tocchino in un punto detto
punto di frizione.

In una trasmissione a ruote di frizione è necessario che una ruota sia motrice e l'altra condotta, non è
possibile avere due ruote di frizione entrambe motrici o entrambe condotte. Avendo una ruota motrice e
l'altra condotta, dal momento che il punto di frizione è singolo (in un sistema ideale, nel sistema reale
la differenza è trascurabile) si ha una velocità periferica costante.

Semplificando la formula si ottiene un uguaglianza tra il prodotto del numero di giri e del diametro di
ciascuna ruota.
D1n1 = D2n2 Si arriva così a definire il rapporto di trasmissione indicato con la lettera greca τ (tau),
ovvero il rapporto tra il diametro della prima ruota e il quello della seconda, equivalente al rapporto tra
il numero di giri della seconda ruota e quello della prima; possiamo affermare quindi che in una
trasmissione con ruote di frizione il numero di giri di una ruota è inversamente proporzionale al
diametro della stessa.

Frizione dell'automobile

Il disco di attrito di una frizione di automobile. L'albero primario del cambio è connesso al centro del disco con
le molle.

Una applicazione tipica è nell'automobile, dove la frizione inserita nella trasmissione tra il motore ed il
cambio permette il temporaneo disinserimento del momento torcente prodotto dal motore per
permettere il cambio della velocità e scollega le ruote dal motore quando il veicolo è fermo,
mantenendo acceso il propulsore.

La comune frizione a secco è costituita da un disco di materiale di attrito, simile a quello usato nei
freni, solidale all'albero di trasmissione. Il disco è tenuto premuto da molle contro il volano del motore
in modo che avvenga la trasmissione del moto. Quando viene premuto il pedale di comando (il pedale
più a sinistra), attraverso un cavo tirante o un sistema idraulico il disco viene allontanato dal volano,
sconnettendo le due parti. Il cambio di velocità non è più soggetto a forza e gli ingranaggi possono
liberamente cambiare configurazione. Nelle motociclette la frizione viene aperta per mezzo di una leva
posta sulla maniglia di sinistra del manubrio.

Il materiale abrasivo è soggetto ad usura, in particolare nei momenti in cui il pedale è leggermente
premuto, pur senza staccare. In queste condizioni la forza delle molle è ridotta e il disco slitta
leggermente surriscaldandosi e deteriorandosi. Anche il rilascio della frizione contemporaneamente a
una brusca accelerata è causa di maggiore usura.

Esistono frizioni in olio, in cui l'elemento di attrito è immerso in un liquido refrigerante e lubrificante,
che ne migliora le prestazioni e allunga la durata.

Negli scooter senza marce, nelle motoseghe ed altri utensili a motore a scoppio, sono usate frizioni
automatiche, che per effetto di masse soggette alla forza centrifuga, sono in grado di innestarsi quando
la velocità angolare supera un certo limite.

In altri apparecchi, per esempio alcuni tagliaerba, sono impiegate frizioni che si aprono se la coppia
resistente supera un valore limite, per esempio se la macchina incontra un ostacolo.

Le molle presenti sulla frizione, insieme all'inerzia del volano, hanno la scopo di ridurre le fluttuazioni
di velocità angolari classiche del moto dell'albero a gomiti dei motori; in questo modo evitiamo di
eccitare la trasmissione.

Esistono frizioni a doppio e triplo disco il cui scopo è di trasmettere maggiore coppia rispetto a quelle
singole; vengono montate ovviamente su vetture performanti.

Materie plastiche
Da Wikipedia, l'enciclopedia libera.

Sono dette materie plastiche quei materiali artificiali con struttura macromolecolare che in
determinate condizioni di temperatura e pressione subiscono variazioni permanenti di forma. Si
dividono in termoplastici, termoindurenti ed elastomeri. Le gomme, pur avendo chimicamente e
tecnologicamente molti punti di contatto con le materie plastiche, non sono normalmente considerate
tali.

• Termoplastiche: sono dette termoplastiche un gruppo di materie plastiche che acquistano malleabilità,
cioè rammolliscono, sotto l'azione del calore.

In questa fase possono essere modellate o formate in oggetti finiti e quindi per raffreddamento tornano
ad essere rigide. Questo processo,teoricamente,può essere ripetuto più volte in base alle qualità delle
diverse materie plastiche.
• Termoindurenti: sono un gruppo di materie plastiche che,dopo una fase iniziale di rammollimento
dovute al riscaldamento,induriscono per effetto di reticolazione tridimensionale.

Nella fase di rammollimento per effetto combinato di calore e pressione risultano formabili. Se questi
materiali vengono riscaldati dopo l'indurimento non ritornano più a rammollire, ma si decompongono
carbonizzandosi.

• Elastomeri: la loro caratteristica principale è una grande deformabilità ed elasticità: possono essere sia
termoplastiche che termoindurenti.

Chimicamente, le materie plastiche sono generalmente il risultato della polimerizzazione di una


quantità di molecole base (monomeri) per formare catene anche molto lunghe. Si parla di omopolimeri
se il monomero è unico, copolimeri se il polimero è ottenuto da due o più monomeri diversi, e di leghe
polimeriche se il materiale è il risultato della miscelazione di due monomeri che polimerizzano senza
combinarsi chimicamente.

A tale base polimerica vengono poi aggiunte svariate sostanze (dette "cariche") in funzione
dell'applicazione cui la materia plastica è destinata. Tali sostanze possono essere plastificanti, coloranti,
antiossidanti, lubrificanti ed altri componenti speciali atti a conferire alla materia plastica finita le
desiderate proprietà di lavorabilità, aspetto e resistenza.

Caratteristiche
Le caratteristiche vantaggiose delle materie plastiche rispetto ai materiali metallici e non metallici sono
la grande facilità di lavorazione, l'economicità, la colorabilità, l'isolamento acustico, termico, elettrico,
meccanico (vibrazioni), la resistenza alla corrosione e l'inerzia chimica, nonché l'idrorepellenza e
l'inattaccabilità da parte di muffe, funghi e batteri.

Lo smaltimento dei rifuti plastici, quasi tutti non biodegradabili, avviene di solito per riciclaggio o per
stoccaggio in discariche: bruciando materiali plasitici negli inceneritori infatti si genera diossina(solo
per quanto riguarda i polimeri che contengono atomi di cloro nella loro molecola come ad esempio il
PVC), un gas molto velenoso. Queste difficoltà hanno incentivato negli ultimi anni la diffusione della
bioplastica.

Lavorazioni delle materie plastiche

Molte materie plastiche (nylon, teflon, plexiglass ecc.) si prestano bene per processi di produzione
industriale con macchine utensili in modo del tutto analogo ai materiali metallici; per questo vengono
spesso prodotte in semilavorati (barre, profilati, lastre eccetera) da cui i prodotti finiti (ad esempio
boccole, rulli, anelli, perni, ruote) vengono ricavati con lavorazioni meccaniche.

La lavorazione più usata per produrre in serie oggetti di qualsiasi forma è lo stampaggio ad iniezione.
Si fa con speciali presse, le presse per iniezione termoplastica che fondono i granuli di materia
plastica e la iniettano ad alta velocità e pressione negli stampi.

Un altro processo che ha una buona applicazione nella produzione di prodotti in plastica è la
termoformatura, dove si parte da granuli di polistirolo o polipropilene. Si tratta dell'estrusione di film o
di lastre che vengono fatte passare, a temperatura adeguata, in uno stampo nel quale l'oggetto voluto
viene forgiato con la pressione dell'aria compressa o dell'aria atmosferica, con attrezzature di
produzione molto economiche.
Polimeri termoplastici
Possono esseri fusi e rimodellati più volte.

Polietilene

• PET (Polietilene Tereftalato): Consente di ottenere fogli sottili e leggeri. Resistente al calore fino a
250°C ed impermeabile ai gas.
o Usi: Contenitori per liquidi, vaschette per frigo e forno.
• PEHD (Polietilene ad alta densità): È resistente agli urti.
o Usi: Cosmetici, contenitori per detersivi, tubi per l'acqua
• PELD (Polietilene a bassa densità): Impermeabile ai gas e flessibile.
o Usi: Sacchetti, imballaggi, pellicole per alimenti

Polistirene

• PS (Polistirene o, meno comunemente, polistirolo): Duro e rigido.


o Usi: Scotch per le auto, giocattoli, oggetti d'arredamento.
• Polistirene espanso: Resina polistirenica a forma schiumosa; ha bassissimo peso specifico e
conducibilità termica; buona elasticità.
o Usi: Isolamento termico ed elettrico dei muri

Altri polimeri termoplastici

• PVC (Polivinilcloruro o cloruro di polivinile): È la plastica più utilizzata. Ha buone proprietà


meccaniche.
o Usi: Finestre, serramenti esterni, giocattoli, bottiglie, contenitori, grondaie.
• PP (Polipropilene):È la plastica più leggera. Resiste al calore ed agli agenti chimici. Ha un buon
isolamento elettrico.
o Usi: Nel settore casalingo, parti di elettrodomestici, imballaggi.
• PA - Poliammide (Nylon): Una fra le prime plastiche scoperte. Resistente all'usura e non infiammabile.
o Usi: Ingrannaggi, apparecchi radiotelevisivi, abbigliamento.
• Resine acriliche: Simili al vetro perché sono trasparenti.
o Usi: Fusori delle lampade, coperture trasparenti, oggetti d'arredamento.
• Celluloide: La prima plastica in assoluto ad essere scoperta. Simile alla madreperla
o Usi: Pettini, tasti, oggetti che imitano l'avorio.

Polimeri termoindurenti
Possono essere formati una sola volta, perché, se sottoposti al calore una seconda volta, carbonizzano.

Resine termoindurenti

• Resine fenoliche: Le caratteristiche dipendono dai materiali con cui sono mescolate.
o Usi: Settore casalingo, mobili per televisori.
• Resine ureiche: Dure e colorate. Hanno buone proprietà meccaniche e sono facilmente lavorabili.
o Usi: Spine, prese, elettrodomestici, interruttori.
• Resine melamminiche: Buona resistenza alle alte temperature e all'umidità.
o Usi: Laminati, settore casalingo, arredamenti, vernici.
• Resine poliesteri insature: Sono leggere, facilmente lavorabili e resistenti agli agenti atmosferici.
o Usi: Piscine, coperture per tetti.
.

Ingranaggio
Da Wikipedia, l'enciclopedia libera.

Serie di ruote dentate in una macchina agricola

Un ingranaggio è una ruota dentata studiata per trasmettere momento torcente ad un altra ruota o
elemento dentato. La ruota più piccola è comunemente chiamata pignone, mentre la grande è chiamata
corona.

I denti sono progettati per minimizzare l'usura, le vibrazioni ed il rumore, e massimizzare l'efficienza
nel trasferimento di energia.

Ingranaggi di diversa dimensione sono spesso usati in coppia per aumentare il momento torcente
riducendo nel contempo la velocità angolare, o viceversa aumentare la velocità diminuendo il
momento. È il principio alla base del cambio di velocità delle automobili.

Data una coppia di ingranaggi, il rapporto di conversione della velocità è inversamente proporzionale al
rapporto tra il numero dei rispettivi denti:

Perché gli ingranaggi possano correttamente ingranarsi tra loro, è necessario che il passo, ovvero la
distanza tra le creste, sia uguale. Questo comporta che il diametro di una ruota dentata è in relazione
con il numero di denti atraverso il passo.

Poiché una serie di ingranaggi non è un amplificatore ne un servosistema, la legge di conservazione


dell'energia impone che la potenza in uscita dal sistema sia uguale a quella entrante, meno le perdite
per attrito. Il rapporto tra le coppie è dato direttamente dal rapporto tra i denti (non tenendo conto delle
perdite).
Gli ingranaggi sono fabbricati intagliando i denti per mezzo di speciali macchine fresatrici, dette
dentatrici.

Tipi di ingranaggi
Ruota dentata semplice

Il tipo più comune di ingranaggio è quello a denti dritti. La ruota dentata è piatta, l'asse dei denti si
proietta radialmente dal centro di rotazione dell'ingranaggio e le creste dei denti decorrono
trasversalmente al piano di rotazione e parallelamente tra loro. Questi ingranaggi possono accoppiare
solamente assi paralleli, inoltre soffrono del problema del gioco: quando la rotazione avviene in un
senso, un dente spinge contro un lato del corrispondente dente dell'altra ruota; se la rotazione si inverte,
la faccia opposta deve spingere sulla corrispondente e questo comporta un momento in cui i denti si
spostano senza trasmettere movimento. Questo comporta che per un attimo dopo avere applicato
rotazione in entrata non si ha rotazione in uscita. Per questo motivo sono state ideate soluzioni
alternative per eliminare il problema ove necessario.

Esistono anche ruote dentate cave in cui la dentatura è ricavata sulla superficie interna di un cilindro
scavato nella ruota stessa, che offrono il vantaggio di avvicinare gli assi paralleli di corona e pignone.

] Ruota dentata elicoidale

La ruota elicoidale è un miglioramento rispetto a quella semplice. I denti sono tagliati con un certo
angolo rispetto al piano, in modo che la superficie di spinta tra i denti sia maggiore e il contatto
avvenga più dolcemente, eliminando lo stridore caratteristico degli ingranaggi semplici.

Progettando opportunamente l'angolo dei denti, è possibile accoppiare ingranaggi con gli assi sghembi
o anche perpendicolari.

Lo svantaggio di questa soluzione è la produzione di una forza risultante lungo l'asse dell'ingranaggio,
che deve essere sostenuta da un apposito cuscinetto a sfere. Un altro svantaggio è un maggiore attrito
tra i denti causato dalla maggiore superficie di contatto, che deve essere ridotto con l'uso di lubrificanti.

Ruota dentata a doppia elica

L'ingranaggio a doppia elica supera il problema precedentemente accennato grazie all'uso di denti con
cresta a forma di V. Si può immaginare questo ingranaggio come costituito da due ruote elicoidali
distinte ma speculari affiancate, in modo che le forze assiali si annullino vicendevolmente.
Ruote coniche

Nelle ruote coniche la corona della ruota è smussata e le creste dei denti giacciono sulla superficie di un
cono ideale. In questo modo due ingranaggi possono essere affiancati con un certo angolo tra gli assi.
Se l'inclinazione dei denti di ciascuna ruota è di 45°, l'angolo tra gli assi è di 90°. Questo sistema è
usato per esempio tra planetari e satelliti nel differenziale delle automobili.

Corona ipoide e pignone

La corona ipoide è un particolare ingranaggio conico in cui i denti sono ruotati fino a diventare
paralleli al piano di rotazione della ruota. Si ingrana con un pignone a denti paralleli o elicoidali di
piccole dimensioni.

Una variante di questo sistema è usata in diversi sistemi di scappamento per orologi meccanici.

Un'altra variante, la coppia conica ipoide, è formata da una corona ed un pignone (con denti a spirale)
i cui assi non giaciono sullo stesso piano. Per questo motivo l'angolo medio della spirale della corona è
molto inferiore a quello del pignone. Tale coppia conica è stata introdotta nel campo dell'autotrazione
per molti pregi: è più silenziosa, trasmette piu momento torcente avendo più ricoprimento tra i denti di
entrambe i membri, permette di ridurre l' altezza del tunnel dove corre l'albero di trasmissione del moto
dal motore anteriore al ponte posteriore aumentando l'abitabilita' dell'auto, aumentando nel contempo la
luce tra il terreno e la scatola del differenziale.

Cremagliera e pignone

Il sistema a cremagliera (o dentiera) e pignone permette di convertire una rotazione in moto lineare. Il
pignone è una semplice ruota dentata, mentre la cremagliera è una barra dentata di lunghezza arbitraria.
La si può considerare equivalente ad una ruota dentata di raggio infinito.

Questo sistema è usato nelle automobili per convertire la rotazione dello sterzo in moto lineare laterale
degli organi che agiscono sulle ruote.

Lo stesso principio è sfruttato in alcune ferrovie dette a cremagliera, in cui i treni sono in grado di
risalire forti pendenze grazie al contatto tra una ruota dentata sporgente sotto il locomotore ed una
lunga cremagliera solidale al binario, posta in mezzo alle rotaie dello stesso.

Ingranaggio settoriale

Un ingranaggio settoriale è semplicemente un settore di una ruota dentata comune, per esempio un
quarto o metà circonferenza, collegata allo stesso modo all'asse. Naturalmente questo ingranaggio
lavora solamente sulla parte dentata è non può superare i limiti del settore. È impiegata dove non è
necessario avere una rotazione di 360° ma è importante risparmiare peso e spazio.

Ingranaggi non circolari

Gli ingranaggi non circolari sono ingranaggi speciali appositamente progettati per particolari impieghi.
Mentre in un ingranaggio normale si cerca di massimizzare la trasmissione di energia con un rapporto
costante, in un ingranaggio non circolare l'obiettivo è di avere un rapporto di trasmissione variabile
durante la rotazione oppure lo spostamento dell'asse o altre funzioni. La sagoma dell'ingranaggio può
essere di qualunque forma adatta allo scopo, limitatamente all'immaginazione dell'inventore o
dell'ingegnere. Ruote con minime variazioni di rapporto possono avere forma quasi circolare, oppure
l'asse può non corrispondere con il centro geometrico della ruota.

Normalmente sono usati per questi ingranaggi i denti paralleli, a causa in particolare della
complicazione del moto. La fabbricazione non avviene come per i normali ingranaggi per fresatura, ma
in genere per fusione, sinterizzazione o taglio da una lastra (al plasma o laser).

L'impiego si ha in particolare in macchine tessili e cambi automatici.

Vite senza fine

Riduttore di velocità con vite senza fine e ingranaggi elicoidali

Il sistema a vite senza fine ha lo scopo di trasferire moto e momento torcente con elevato rapporto e tra
due assi perpendicolari non intersecantisi. È costituito da una ruota (pignone) con incisa una spirale con
lungo passo per tutta la lunghezza a formare una vite, accoppiata ad una ruota di grande diametro con
denti elicoidali. Per ogni giro del pignone corrisponde l'avanzamento di un solo dente nell'altra ruota, e
questo permette rapporti molto elevati.

A differenza di altri ingranaggi, il sistema non è reversibile a causa del notevole attrito. La vite senza
fine può azionare la ruota ma non il contrario. Questo è vantaggioso dove si voglia che il sistema
collegato all'uscita sia frenato quando non azionato.

Sistemi epicicloidali
Una serie di ingranaggi epicicloidali è usata in questa illustrazione per aumentare la velocità. Il planetario porta-
satelliti (verde) è messo in rotazione da un momento entrante, il pignone solare (giallo) costituisce l'uscita,
mentre la corona internamente dentata (in rosso) è fissa. Si notino i segni rossi prima e dopo che l'ingresso ha
subito una rotazione di 45° in senso orario

I treni di ingranaggi epicicloidali o a planetario e satelliti costituiscono un sistema di uno o più


ingranaggi chiamati satelliti, montati su un organo porta-satelliti chiamato planetario, che ruotano
intorno ad un pignone centrale anche detto sole; il tutto è posto all'interno di una ruota dentata
internamente detta corona. Uno di questi elemento è mantenuto fisso, un altro costituisce l'ingresso e il
terzo l'uscita. Il rapporto di trasmissione è determinato dal numero dei denti ma anche da quale
elemento è fisso, e questo è sfruttato in alcuni tipi di cambi di velocità. Il nome deriva dal fatto che il
movimento degli ingranaggi satelliti è simile a quello che si supponeva avessero i pianeti del sistema
solare nel sistema tolemaico, in cui si ipotizzava l'esistenza di moti detti epicicli.

Situazione in cui il planetario è fermo

Un caso si ha quando il planetario (in verde nell'illustrazione a lato) è fermo e il pignone (giallo)
costituisce l'ingresso I satelliti (blu) ruotano con un rapporto determinato dal numero di denti in ogni
ruota. Se il pignone ha S denti e ogni satellite P denti, il rapporto è uguale a -S/P. Nell'illustrazione il
rapporto è -24/16 ovvero -3/2: ogni rotazione del pignone produce una rotazione e mezza dei satelliti in
direzione opposta. se all'esterno viene applicata una corona con C denti, questa ruoterà P/C volte la
rotazione dei satelliti. Poiché la rotazione dei satelliti è -S/P la rotazione del pignone, ne consegue che
il rapporto tra corona e pignone è pari a: -S/C.
Un'altra possibilità è che la corona sia fissa, con l'ingresso applicato al planetario e l'uscita sul pignone.
Questa configurazione produce un incremento di velocità con rapporto 1+C/S.

Se invece è mantenuta ferma la corona e applicato l'ingresso al pignone, il planetario costituisce


l'uscita, ed il rapporto è 1/(1+C/S). Questo è il massimo rapporto ottenibile da un sistema epicicloidale,
ed è spesso usato in trattori e macchine edili per fornire un momento torcente molto elevato alle ruote.

Diverse unità epicicloidali possono essere collegate in serie, con ogni planetario solidale con il pignone
successivo (tranne ovviamente il primo e l'ultimo elemento). Si realizza così un gruppo motoriduttore
(in diminuzione o in aumento) compatto, con rapporti molto elevati e con gli alberi di ingresso e uscita
allineati.

Un sistema di cambio di velocità epicicloidale è utilizzato in alcune biciclette al posto del più comune
cambio a deragliamento.

Freno a disco
Da Wikipedia, l'enciclopedia libera.

Primo piano di un freno a disco di un'automobile

Sulle automobili, i freni a disco sono spesso posizionati all'interno della ruota

Il freno a disco è un dispositivo il cui scopo è rallentare o fermare la rotazione di una ruota. Un freno a
disco è solitamente costruito in ghisa, ed è collegato alla ruota o all'asse. Per frenare la ruota, una o più
coppie di pastiglie (montate all'interno delle pinze dei freni) sono premute contro il disco da entrambi i
suoi lati. Questo movimento è realizzato con dispositivi meccanici o idraulici (che forniscono
prestazioni migliori); in ogni caso l'attrito risultante causa il rallentamento del disco e della ruota ad
essa solidale.

Storia
I primi esperimenti con freni a disco iniziarono in Inghilterra negli ultimi anni del diciannovesimo
secolo; i primi freni a disco vennero brevettati da Frederick William Lanchester di Birmingham nel
1902. Passò un quarto di secolo prima che il sistema venisse adottato.

Il primo freno a disco, quello che si è poi trasformato nel sistema attualmente in uso, apparve in
Inghilterra a cavallo tra gli anni quaranta e gli anni cinquanta del secolo scorso. Offrivano una capacità
frenante decisamente superiore ai fino ad allora utilizzati freni a tamburo, ma quello non era il solo
vantaggio. Anche la resistenza al "fading" (cioè la caratteristica di mantenere immutata o quasi la forza
frenante dopo azionamenti ripetuti, limitando il surriscaldamento dei componenti) e la notevole
efficacia frenante da bagnati (utile per la sicurezza su strada in caso di maltempo ed indispensabile per
uso fuoristradistico) erano dei "plus" non indifferenti. La semplicità meccanica del sistema a disco, il
minor numero di componenti utilizzato e la facilità di riparazione costituivano altri ulteriori ed
innegabili vantaggi.

Come spesso avviene il primo impulso alla diffusione dei freni a disco venne dalle competizioni
automobilistiche, dove le qualità sopra menzionate costituivano un grande vantaggio competitivo.

Le primissime implementazioni di questo sistema frenante prevedevano un solo disco montato vicino al
differenziale, solo successivamente vennero montati all'interno delle ruote. La ragione del disco unico
montato in posizione centrale scaturiva dal presupposto di avere minori masse sospese, concentrazione
della massa vicino al baricentro e minor riscaldamento degli pneumatici, fattore di vitale importanza
per le Formula 1 di allora.

I freni a disco sono oggi diventati indispensabili sulle autovetture di serie, anche se alcune auto (specie
quelle più piccole e leggere) a tutt'oggi montano sulle ruote posteriori dei freni a tamburo per ragioni di
costo, di semplicità di implementazione del freno di stazionamento (il cosiddetto "freno a mano").
Essendo la forza frenante delle auto concentrata in larghissima parte sulle ruote anteriori questa
soluzione può comunque essere considerata un ragionevole compromesso.

I Dischi

I dischi possono avere caratteristiche diverse.


Freno a disco ventilato con pinza freno (rossa)

Alcuni sono in ghisa pieno e doppia faccia di contatto, altri sono costituiti da due dischi con una sola
faccia di contatto uniti tra loro in modo da lasciare comunque un passaggio per l'aria. Sono i dischi
denominati "ventilati", il passaggio d'aria al loro interno durante il movimento serve a dissipare una
maggior quantità di calore.

Molte motociclette ed auto sportive presentano anche parecchie forature (in senso trasversale) della
superficie del disco. Queste forature hanno sia lo scopo di dissipare calore (con efficacia inferiore
rispetto al disco ventilato) che di aumentare l'efficacia frenante. Infatti provvedono con il bordo a
"raschiare" la pastiglia aumentando la forza frenante, pur accelerandone l'usura. Inoltre allontanano più
velocemente il velo d'acqua che si forma sulla superficie frenante durante la marcia sul bagnato.

Altri dischi presentano delle leggere scavature o canali (baffature) che aiutano a rimuovere il materiale
consumato delle pastiglie freno. Quest'azione meccanica previene la vetrificazione delle stesse
(fenomeno dovuto all'eccessivo calore che modifica la superficie d'attrito in modo permanente,
riducendone notevolmente il coefficiente d'attrito) e inoltre aumentano la forza frenante raschiandole in
maniera analoga alle forature trasversali. Questo tipo di disco non viene generalmente utilizzato sulle
auto di produzione in quanto troppo aggressivo verso le pastiglie freno, la cui durata ne viene
fortemente inficiata.

Naturalmente possono esistere dischi che combinano due o più di queste caratteristiche.

Tipi di danneggiamento dei dischi

I dischi freno sono normalmente soggetti a piu tipi di danneggiamento: la deformazione, la rigatura, la
rottura, vetrificazione. In aggiunta, talvolta si può rendere necessaria una rilavorazione meccanica dei
dischi che ne può ridurre notevolmente la durata.

Deformazione

• La deformazione dei dischi freno può essere causata da un eccessivo riscaldamento degli stessi; il
rammollimento del metallo può generare ondulazioni od ovalizzazioni che il successivo raffreddamento
rende permanenti. Naturalmente questo fenomeno è notevolmente più improbabile nel caso di dischi
ventilati.

La deformazione può inoltre essere generata da una impropria coppia di serraggio dei bulloni che
fermano la ruota.

La sensazione derivante dalla deformazione è quella di vibrazioni od ondeggiamenti della ruota


sottoposta ad azione frenante. La stessa sensazione potrebbe però anche essere generata da un
accumulo di materiale frenante di consumo (principalmente proveniente dalla pastiglia freno) o residui
di grasso od olio in alcune aree della superficie del disco. Questo alternarsi di forze frenanti maggiori o
minori possono indurre erroneamente a diagnosticare la deformazione dei dischi.

Le auto dotate di cambio automatico di tipo epicicloidale necessitano di essere frenate durante le pause
di marcia, avendo questo tipo di trasmissione uno strisciamento che genera un avanzamento anche al
regime di minimo del motore. Nelle zone di contatto tra pastiglia e disco la temperatura scende più
lentamente, per cui nella frenata successiva si potrebbero generare discontinuità dell'azione frenante
dovuta alle diverse temperature delle diverse aree del disco. Anche questo effetto, seppur transitorio
nelle auto moderne, introduce le stesse sensazioni di un disco deformato.

La deformazione del disco può essere evitata utilizzando i freni in maniera appropriata. Utilizzando
spesso il freno motore, evitando frenate troppo prolungate (sempre se possibile a seconda del traffico, è
preferibile frenare più forte e rilasciare ad intermittenza) si può efficacemente diminuire le probabilità
di surriscaldamento.

Rigatura

• La rigatura di solito è conseguenza diretta della mancata sostituzione delle pastiglie freno quando queste
sono consumate. Il materiale d'attrito viene consumato con l'utilizzo, quando termina la base delle
pastiglie (solitamente in acciaio) viene a contatto con il disco rigandolo. In queste condizioni, acciaio
contro acciaio, la forza frenante è oltretutto quasi nulla.

Se la rigatura non è troppo profonda si può rilavorare meccanicamente il disco asportandone la parte
superficiale fino a renderlo nuovamente liscio.

La verifica dello stato di usura delle pastiglie è relativamente semplice in quanto normalmente in vista.
Quasi sempre esse hanno una tacca di riferimento, una scanalatura, che indica quando le pastiglie
necessitano di sostituzione.

Rottura

• La rottura è un fenomeno generalmente limitato ai dischi forati, si localizza normalmente verso il bordo
del disco, quando un utilizzo troppo violento dei freni crea differenze di dilatazione termica amplificate
dalle forature (sul cui bordo si creano le prime fessurazioni). Da quel momento le crepe si
ingigantiscono molto velocemente e possono portare fino alla rottura definitiva del disco. Un disco
crepato (ovviamente anche rotto), non si può riparare in nessun modo.

La necessità di forare i dischi, oltre che per smaltire più velocemente il calore, può anche essere dovuta
ad una precisa scelta progettuale (limitazione della superficie d'attrito e quindi di forza frenante in
funzione della destinazione del mezzo, oppure per limitare le masse sospese ed il peso complessivo).

Vetrificazione

La ghisa sottoposta ad alte teperature si trasforma in acciaio cementato, questo ha uno scarso
coefficiente d'attrito e un durezza molto elevata. Sul disco si presentano delle chiazze.

Rilavorazione meccanica

• La rilavorazione meccanica ha tre fini: ripianare dischi deformati (ricreandone la planarità), eliminare
rigature profonde, ripulire la superficie del disco (consigliabile quando vengono montate nuove pastiglie
freno). Quest'ultima operazione si può eseguire efficacemente con delle macchine utensili appositamente
concepite per questa operazione.

La rilavorazione meccanica, asportando lo strato superficiale irregolare del disco, ne migliora


logicamente la finitura superficiale raggiungendo una migliore efficacia nella frenata. Nella
rilavorazione meccanica bisogna ovviamente tenere in considerazione di non portare il disco sotto lo
spessore minimo consentito dalla casa costruttrice (solitamente riportato sul bordo stesso del disco)per
evitare problemi di surriscaldamnto e deformazione.
Pinza freno

La pinza freno è l'insieme delle pastiglie freno e delle componenti che le muovono (pistoncini o
cilindretti). I cilindretti sono costruiti generalmente in alluminio o acciaio cromato.

Ci sono due tipi di pinza freno: flottante o fissa.

Una pinza freno fissa non ha nessun movimento in relazione al disco freno. Utilizza uno o più coppie di
cilindretti che schiacciano le pastiglie freno verso il disco su entrambe le facce dello stesso, è più
complessa e più costosa del tipo flottante.

Una pinza freno flottante ha libertà di movimento rispetto al disco freno. Il cilindretto da un lato del
disco freno spinge una pastiglia verso il disco, quando avviene il contatto esso comincia a tirare la
pinza rendendo possibile anche il contatto della pastiglia dal lato opposto del disco.

Una pinza flottante a singolo pistone può provocare l'incollamento della pastiglia sul disco, a causa
dello sporco o della corrosione che può intervenire quando il mezzo non viene utilizzato a lungo.
L'incollamento è ovviamente deleterio per la durata del sistema frenante e per la stabilità del mezzo.

Pistoncini e Cilindretti

Il più diffuso sistema di pinza freno comprende un singolo pistoncino attivato idraulicamente che si
muove all'interno di un cilindretto. Il numero di pistoncini può aumentare a seconda delle necessità
frenanti richieste dal progetto, fino a normalmente un massimo di 8. Le auto moderne hanno il circuito
idraulico dei freni (che muove i pistoncini) sdoppiato per ragioni di sicurezza.

Problematiche relative a questi componenti possono essere dovute al grippaggio del pistoncino che
quindi non rientra più nella posizione di riposo. Questo fenomeno è frequente in auto utilizzate per
lungo tempo in condizioni ambientali sfavorevoli.

Pastiglie freno

Le pastiglie freno sono costituite da una base (che viene spinta dai pistoncini) ed una strato d'attrito
composto da materiali vari. Lo strato d'attrito genera una frizione sul disco freno quando viene premuto
su di esso, in effetti la superficie a contatto subisce delle modificazioni generando una frizione di tipo
semi-liquido. A seconda delle proprietà e della composizione del materiale d'attrito si può privilegiare
l'efficienza (la forza frenante) o la durata delle pastiglie. Le pastiglie vanno sostituite regolarmente
essendo materiale d'usura, e sono stati sviluppati sistemi in grado di rendere visibile quando arriva
questo momento. Alcune semplicemente hanno un intaglio nello strato d'attrito: quando le pastiglie
sono così consumate da raggiungere il fondo dell'intaglio (che diviene quindi non più visibile) è giunto
il momento di procedere alla sostituzione. Altre (ma si tratta di un sistema ormai in disuso) hanno un
sottile pezzo di metallo dolce (per non incidere i dischi) al proprio interno che genera uno stridìo
avvertibile. Altre ancora hanno un'aletta sempre di metallo dolce al proprio interno che, quando viene a
contatto del disco freno, chiude un circuito elettrico accendendo una spia di avvertimento sul cruscotto.
Esistono anche più sofisticati e costosi sensori elettronici allo scopo.

Le prime pastiglie freno erano costituite preminentemente di amianto, i cui pericoli dovuti
all'inalazione sono noti da tempo. Al giorno d'oggi l'utilizzo di tale elemento è scomparso.
Giunto cardanico
Da Wikipedia, l'enciclopedia libera. 

Giunto cardanico

Il giunto cardanico o giunto di Cardano è un quadrilatero articolato spaziale.

Esso permette di trasmettere il moto tra due assi in rotazione i cui prolungamenti sono incidenti in un
punto. È costituito (oltre che da gli assi tra cui si trasmette il moto, i quali non fanno parte propriamente
del giunto) da due coppie rotoidali disposte su un stesso membro piegato a 90°, ognuna su un lato,
collegata ad un asse. Il giunto cardanico è molto utilizzato in meccanica per le sue proprietà, ma anche
per la relativa semplicità ed economicità rispetto ad altre tipologie di connessione tra alberi della
tipologia suddetta. Il rapporto di trasmissione, cioè il rapporto tra le velocità angolari dell'albero motore
e dell'albero condotto è dato dalla formula:

τ = ω2/ω1 = cos(α)/[1-sen2(α)*cos2(θ)]

Dove: ω2 e ω1 sono le rispettive velocità angolari dell’albero 2 e dell’albero 1; α è l’angolo formato dai
due alberi; θ è l’angolo descritto dal lato del membro collegato all’albero 1 durante la rotazione dello
stesso albero.

Il giunto cardanico non è omocinetico, non permette cioè di trasmettere la stessa velocità angolare tra i
due alberi, ma ciò può essere ottenuto utilizzando due giunti cardanici in serie tra loro.

In meccanica viene utilizzato generalmente negli alberi dello sterzo e nella trasmissione Nelle
macchine agricole viene utilizzato un albero telescopico con due giunti cardanici per trasmettere il
moto rotatorio dalla presa di potenza del trattore agli attrezzi collegati.

Giunto omocinetico
Da Wikipedia, l'enciclopedia libera.

Un giunto omocinetico è un qualunque dispositivo, scollegabile, di trasmissione del moto rotatorio tra
due alberi (o altri elementi rotanti) che mantenga unitario e costante nel tempo il rapporto di
trasmissione.

Il rapporto di trasmissione è definito come:


dove ω1 e ω2 sono, rispettivamente, la velocità angolare in ingresso e quella in uscita.

In pratica, la velocità angolare dei due alberi collegati risulta uguale istante per istante.

Ve ne sono di svariati tipi, dai più semplici, che collegano rigidamente due alberi disposti sullo stesso
asse di rotazione, ai più complessi che trasmettono il moto tra alberi disallineati e in moto relativo (cioè
i cui assi di rotazione, formano un angolo che varia nel tempo).

Ad esempio, nelle automobili a trazione anteriore, giunti di questo tipo sono utilizzati per connettere i
semialberi ai mozzi delle ruote sterzanti da un lato e al differenziale dall'altro.

Tutto ciò si rende necessario per il moto relativo, consentito dalla sospensione, tra il gruppo mozzo-
ruota e il telaio , che si verifica durante la marcia del veicolo.

L'impiego di due giunti cardanici che colleghino due alberi paralleli, equivale all'utilizzo di un giunto
omocinetico.

Giunto viscoso
Da Wikipedia, l'enciclopedia libera.

Si tratta di un organo meccanico con lo scopo di collegare due alberi non in maniera rigida, ma
permettendo piccole differenze di velocità di rotazione. Due serie di dischi collegate alle estremità
dell'albero uscente ed entrante sono poste a distanza ravvicinata in una scatola che contiene un
particolare liquido siliconico che ha la caratteristica di aumentare notevolmente la sua viscosità con la
temperatura. Quando le velocità dei due alberi sono diverse il liquido si scalda e, aumentando l'attrito
con i dischi, limita lo slittamento relativo dei due fino ad impedirlo (con tempi di intervento dell'ordine
del secondo). Quando la tendenza ad avere velocità diverse diminuisce il liquido si raffredda e torna a
permettere piccole differenze di velocità di rotazione.

Il giunto viscoso viene utilizzato principalmente come sistema di bloccaggio automatico del
differenziale centrale (o, meno frequentemente, posteriore) degli autoveicoli a trazione integrale,
principalmente dalle auto sportive e dai SUV dalle caratteristiche più stradali che fuoristradistiche. In
alcuni casi può direttamente sostituire il differenziale centrale.

Nell'uso stradale l'intervento progressivo del bloccaggio dovuto al tempo necessario al liquido per
riscaldarsi è da considerarsi un vantaggio sia per non cogliere impreparato il conducente sia per
questioni di confort. Nelle competizioni invece si preferisce ricorrere ad altre soluzioni che riducano il
tempo di bloccaggio.
Processo di produzione industriale
Da Wikipedia, l'enciclopedia libera.

Nell'ingegneria, per processo di produzione industriale si intende la trasformazione di un materiale o


pezzo grezzo, o anche semi-lavorato, mediante l'uso di un utensile e/o fluido attivo, per ottenere un
prodotto finito.

I processi di produzione industriale si distinguono secondo il tipo di lavorazione del materiale o pezzo
di partenza. L'Ente Nazionale Italiano di Unificazione (UNI) non ha, sinora, presentato una
nomenclatura scientifica dei diversi processi di produzione industriale.

Nella DIN 8580 si tenta una suddivisione dei processi di produzione industriale in diverse categorie, a
seconda del tipo di effetto che il singolo processo ha sulla coesione fra le parti o particelle che
compongono il corpo solido soggetto a lavorazione (pezzo da lavorare), o materiale grezzo. Tale
coesione, infatti, mediante la tecnologia del processo produttivo, può essere creata ex novo, può esistere
già e cambiare caratteristiche, può essere aumentata oppure essere diminuita o addirittura eliminata. In
virtù di queste possibilità, la DIN 8580 prevede le seguenti categorie di processi, talvolta astratte, per le
quali nell'italiano tecnico non sempre è stato possibile trovare dei termini inequivocabili:

1. formatura di materiale amorfo


2. trasformazione / deformazione plastica
3. unione
4. separazione
5. trattamento di superficie
6. Costituisce una categoria sui generis la modifica delle caratteristiche fisiche intrinseche del materiale
tramite la lavorazione mediante processi termici, chimici o biologici

Separazione
1. taglio. - Nella lavorazione meccanica, il taglio del metallo in eccesso per arrivare alla dimensione voluta
avviene, in genere, per contatto. I due modi più conosciuti sono: la tornitura e la fresatura. Il taglio del
materiale avviene con "inserti" di metallo duro, chiamato "WIDIA", agglomerato di metalli fino ad
ottenere barre dove successivamente vengono modificate per ottenerne inserti utili all'asportazione del
materiale. Le operazioni di taglio sono divise in diverse fasi: sgrossatura, semifinitura e/o finitura.
Entrambe le operazioni avvengono bloccando il pezzo su piattaforme mobili o fisse il tutto in funzione
dell'operazione da eseguire. Se l'operazione da eseguire è quella di tornitura è il pezzo che si muove cioè
ruota mentre l'inserto, fissato su di una barra rigida il tutto chiamato utensile, taglia il metallo. Se
l'operazione da eseguire è quella di fresatura il pezzo è fissato su di una tavola portapezzo mobile oppure
fissa e mentre l'utensile, avente su di esso diversi inserti tutti posizionati alla stessa altezza, ruota su se
stesso taglia il metallo. In entrambe le operazioni in questi ultimi anni le macchine che eseguono queste
operazioni sono controllate da CN (Controlli Numerici), in pratica sono computer industriali che
controllano il movimento degli assi della macchina.
2. foratura
3. piallatura
Galvanizzazione
Da Wikipedia, l'enciclopedia libera.

Nella metallurgia, la galvanizzazione è il processo di applicazione mediante elettrolisi di un sottile


strato di zinco sull'acciaio per proteggerlo dalla corrosione.

Tale termine, che richiama evidentemente gli studi di Luigi Galvani, è stato usato per la prima volta dal
francese Albert Sorel che nel 1837 ottenne i primi brevetti per la zincatura a caldo. I primi
procedimenti furono effettuati con la corrente elettrica prodotta da una pila voltaica.

In medicina, la galvanizzazione è la stimolazione di parti dell'organismo mediante l'applicazione di


corrente elettrica.

Tempra
Da Wikipedia, l'enciclopedia libera.

Il trattamento di tempra consiste in un brusco raffreddamento del metallo dopo averlo portato ad alta
temperatura; l'elevata velocità di raffreddamento inibisce l'azione diffusiva atta al ripristino
dell'equilibrio e il numero di vacanze (e quindi di cluster, cioè raggruppamenti di difetti puntuali) che
compete alla temperatura di tempra è conservato a temperatura ambiente. Più in generale si può dire
che la tempra, inibendo i processi diffusivi necessari alla stabilizzazione termodinamica, trasferisce a
temperatura ambiente uno stato termodinamicamente competente a temperatura maggiore.
Un monocristallo così trattato ha resistenza meccanica maggiore rispetto al monocristallo raffreddato
lentamente.

Grazie alla tempra, per esempio, si trasforma la struttura perlitica del ferro in martensitica: si porta il
ferro da temprare a una temperatura di circa 50°C sopra quella di austenizzazione e lo si raffredda
molto rapidamente fino a temperatura ambiente; non avendo così il tempo per diffondere, il carbonio
rimane intrappolato all'interno della cella gamma, che si trasforma in cella alfa a temperatura ambiente;
ciò porta ad avere una struttura tetraedrica, che è appunto la martensite.

Note. L'acciaio con concentrazione di C superiore allo 0,3-0,5% presenta un alto livello di rischio di
criccature. La presenza di elementi leganti rallenta la dissoluzione dei carburi durante
l'austenitizzazione. L'uso di acciai legati in organi sollecitati a fatica o a flessione può essere pericoloso
per il rischio di criccature ed è quindi sconsigliato se non indispensabile.

Tempra di soluzione o solubilizzazione


Si consideri una lega formata dal soluto B disciolto nella matrice A. Se la si riscalda fino a completa
dissoluzione di B e poi la si raffredda bruscamente, di solito in acqua, fino a temperatura ambiente, si
paralizzano gli atomi di B in condizioni metastabili, ottenendo una lega più tenera e plastica.
È applicata agli acciai inossidabili austenitici (ad esempio: AISI 304 o X5CrNi1810, AISI 316 o
X5CrNiMo1712) per migliorare la resistenza alla corrosione: un raffreddamento lento, infatti,
provocherebbe la separazione dei carburi di cromo ai giunti dei grani, con conseguente impoverimento
sotto al 12% e corrosione intercristallina.
Nell'acciaio austenitico il manganese migliora la tenacità.
Tempra di durezza
È un trattamento termico che sopprime la trasformazione eutectoidica e conduce alla formazione di
martensite per raffreddamento continuo. Considerando il grafico delle curve CCT, la curva della
velocità di raffreddamento in ogni punto del pezzo non deve incrociare le curve CCT, così che si arrivi
alla sola formazione di martensite.
Si deve quindi tenere presente che la curva di raffreddamento dipende da

• bagno di tempra
• caratteristiche termiche dell'acciaio
• caratteristiche geometriche del pezzo trattato

mentre le curve CCT dipendono da

• composizione dell'acciaio (ad esempio il carbonio le sposta a destra)


• dimensioni del grano
• inclusioni non metalliche, carburi, azoturi o segregazioni.

La profondità di tempra è rilevabile mediante due metodi, basati sul principio che la durezza dipende
unicamente dalla quantità di martensite e dal tenore di carbonio.

• Diametro ideale. Si misura il diametro critico (diametro della barra che dopo tempra ha 50% di
martensite al centro), ricavandolo dal diamentro ideale di una barra temprata in un bagno ideale di
tempra, con indice di drasticità H infinito, grazie al diagramma proposto da Grossmann.
• Curva di Jominy. Un provino cilindrico viene temprato e raffreddato secondo un metodo standard, segue
quindi la misurazione della durezza Rockwell C lungo il suo asse e la costruzione di un grafico durezza -
distanza dall'estremo; quest'ultimo consente di valutare e confrontare la temprabilità di diversi acciai (ad
esempio il 40CrMo4 è più temprabile del C40); la penetrazione di tempra è ricavabile nel momento in
cui si conosce la durezza corrispondente al 50% di martensite.

É possibile ricavare i risultati del primo metodo da quelli del secondo, grazie a correlazioni standard
codificate in normative ISO.

Ambiente di riscaldamento

Bisogna evitare l'ossidazione e la decarburazione del pezzo temprato. Si può quindi proteggerlo con:

• sostanze solide (trucioli di ghisa grigia, carbone), adatte in forni elettrici, per acciai al carbonio, basso-
legati fino a 0,6% di C, ad alto cromo (ad esempio X210Cr13) e temperatura di tempra inferiore a
1050°C;
• sostanze liquide (sali fusi) per pezzi pregiati, ad esempio utensili da taglio o parti di macchine, in cui si
richieda uniformità e precisione del riscaldamento;
• sostanza gassose (CO, CO2, H2, N2, gas inerti) per trattamenti economici su larga scala; un caso
particolare è il vuoto.

Velocità di riscaldamento

É necessaria gradualità per evitare criccature e tensioni termiche.


Temperatura di tempra

Bisogna porre attenzione ad alzare eccessivamente la temperatura (per aumentare la velocità di


austenitizzazione) in quanto si rischiano surriscaldamento della grana cristallina, bruciatura dei bordi
dei grani per l'infiltrazione di ossigeno, ossidazione, decarburazione, eccessiva fragilità della martensite
ottenibile, austenite residua. Ciò premesso, la temperatura è di 30°C, 50°C, 70°C maggiore di Ac3 a
seconda che il mezzo di raffreddamento sia acqua, olio, aria.

Permanenza in temperatura

Il tempo di permanenza dipende dal grado desiderato di dissoluzione dei carburi:

• acciai da costruzione, al carbonio e basso-legati: pochi minuti


• acciai da costruzione medio legati: almeno 15 minuti
• acciai per utensili al carbonio e bassolegati: 0,5 minuti per mm di spessore, con un massimo di un'ora
• acciai alto-legati al cromo: 0,8 minuti al mm, con un massimo di un'ora
• acciai per lavorazioni a caldo: mezz'ora al massimo, data la scarsa quantità di carburi
• acciai rapidi: essi sono riscaldati alla più alta temperatura, quindi occorre limitare la permanenza al
minimo (tempo dipendente dallo spessore)

Mezzo di tempra

Il fluido ottimale deve assicurare:

• elevata velocità di raffreddamento nell'intervallo A1 - Ms per evitare la formazione di perlite o bainite;


• modesta velocità nell'intervallo Ms - Mf (comunque non troppo bassa per non creare eccessiva austenite
residua); questa proprietà è proporzionale alla differenza tra la temperatura del fluido e il suo punto di
ebollizione;
• il fluido non deve decomporsi al contatto con il metallo rovente.

I mezzi più usati sono acqua, olio, sali fusi e aria e sono classificati in base all'indice di severità H.

Si distinguono 3 stadi di raffreddamento per liquidi soggetti a ebollizione:

1. al primo contatto del mezzo col pezzo si forma una pellicola di vapore (calefazione), con raffreddamento
relativamente lento;
2. nel momento in cui essa si rompe, nuovo liquido tocca il pezzo, assorbe il calore latente di evaporazione
e si raggiunge così la massima asportazione di energia;
3. con il passaggio sotto alla temperatura di ebollizione, si ha un calo nell'asportazione di calore.

L'acqua è il mezzo di spegnimento più diffuso, soprattutto per acciai al carbonio e alcuni bassolegati,
ma non è il fluido ideale. La sua azione può essere migliorata con l'aggiunta di sostanze che ne
innalzino il punto di ebollizione, per esempio con NaCl o NaOH.

L'olio minerale è adatto ad acciai basso e medio legati, cioè suscettibili di formare austenite stabile e
quindi trasformabile con bassa velocità critica di tempra. Si avvicina maggiormente al fluido ideale,
riducendo le tensioni interne e i difetti di tempra.

L'aria è consigliata per acciai alto legati e quelli basso e medio legati in pezzi complessi.
I sali fusi, adatti a pezzi non troppo grossi e di acciaio ben temprabile, eccellono soprattutto nei
trattamenti isotermici sostitutivi della tempra.

Tempra ad induzione
Un corpo buon conduttore di elettricità, posto entro un campo magnetico alternato, si riscalda per
effetto Joule grazie alle correnti indotte: questo fenomeno permette di portare ad alta temperatura, e
quindi austenitizzare, un oggetto di acciaio.
A causa dell'effetto pelle della corrente alternata, lo spessore dello strato riscaldato varia con la
frequenza della corrente (ma dipende anche dalla conducibilità del materiale); industrialmente si
utilizzano generatori a bassa frequenza (inferiore a 5 kHz), media frequenza (da 5 a 30 kHz) e alta
frequenza (200 kHz); lo strato di materiale interessato dal riscaldamento è inversamente proporzionale
alla frequenza generata (bassa frequenza corrisponde a strati più profondi).
Segue la fase di raffreddamento, localizzato o progressivo, in olio, acqua o soprattutto in una emulsione
di acqua e polimero. Se il riscaldamento è localizzato, il raffreddamento può avvenire per immersione o
spruzzamento; esempi di tempra localizzata sono: lame per forbici o falciatrici, taglienti di pinze
troncatrici, vomeri, denti di ingranaggi e soprattutto pezzi ruotabili durante il riscaldamento.
La tempra progressiva comporta invece lo scorrimento del pezzo rispetto alla bobina e immediato
raffreddamento della superficie in uscita. Il metodo è usato per guide di bancali, lame per seghetti,
denti di ingranaggi di grandi dimensioni, alberi di trasmissione, steli per attuatori pneumatici, cuscinetti
a rotolamento...
Ultima fase del processo è il rinvenimento ad induzione, a 160-200°C.
Per evitare criccature, gli acciai sottoponibili a tale trattamento sono gli acciai al carbonio o poco legati
(39NiCrMo3) con C = 0,30-0,50% (classificabili negli acciai da bonifica) (eccezione: se la tempra deve
raggiungere il cuore del pezzo, possono essere usati il 100Cr6 e il 100CrMn4, ad esempio nei cuscinetti
a rotolamento). La bonifica serve ad ottenere una struttura di partenza con carburi fini, che si
disciolgano presto nell'austenite durante il veloce riscaldamento, e un cuore tenace; per motivi inversi
si escludono gli acciai ricotti (carburi grossolani e cuore scarsamente tenace).

Tempra bainitica (austempering)


Essa rientra nei trattamenti di tempra isotermica. In breve, la sosta nel bagno termale, ad una
temperatura poco superiore a Ms (temperatura di inizio trasformazione della martensite), porta alla
completa trasformazione dell'austenite in bainite, ottenendo un materiale più tenace, meno tensionato e
senza necessità di rinvenimento.

Patentamento
É una variante dell'austempering, consistente nel far passare con movimento continuo un filo di acciaio
armonico all'interno di un bagno termale di piombo fuso a 500°C. Si ottiene perlite fine, adatta alla
trafilatura.

Martempering
Il rinvenimento a bassa temperatura non elimina sempre adeguatamente cricche e distorsioni. Conviene
ricorrere allora al martempering, cioè alla sosta isotermica a temperatura leggermente superiore a Ms,
in un bagno di sali, per il tempo strettamente necessario a uniformare la temperatura del pezzo ma non
sufficiente alla formazione di bainite. Segue il raffreddamento in aria e il rinvenimento.
Vantaggi: formazione contemporanea di martensite, nessuna ossidazione o decarburazione se il
raffreddamento finale avviene in atmosfera protettiva, maggiore tenacità a scapito di un po' di durezza.
Svantaggi: maggiori costi di impianto, più austenite residua.

Stato tensionale di un oggetto temprato


Le tensioni residue sono dannose in quanto possono provocare la criccatura e variazioni geometriche.
Causa ne è sempre il gradiente termico.

Tensioni termiche. Sono determinate dalla contrazione non contemporanea di strato interno e strato
esterno di un pezzo. Sono proporzionali alla drasticità del raffreddamento, alla temperatura di tempra e
allo spessore, mentre sono inversamente proporzionali alla resistenza del metallo; particolarmente
evidenti sono nei metalli privi di trasformazione di fase solida, come acciai al carbonio extradolci,
inossidabili ferritici e austenitici.

Tensioni strutturali. La trasformazione dell'austenite in martensite, bainite o perlite comporta


l'aumento del volume; dato che cuore e superficie non si trasformano contemporaneamente, nascono
delle tensioni di trazione e compressione.

La situazione più favorevole vede la sollecitazione a compressione del guscio esterno e a trazione del
cuore, attuando una sorta di "deformazione sferica" che non solo non presenta motivi di pericolo, ma
anzi favorisce la resistenza a fatica e a flessione (dato che si sommano algebricamente ai carichi
esterni).

Si considerino gli acciai legati: le loro curve CCT sono molto spostate a destra rispetto alle curve di
raffreddamento e questo facilità la creazione di tensioni elastiche residue non adeguatamente
distribuite. Pertanto il loro uso nel caso di organi sollecitati a fatica o a flessione deve essere
adeguatamente valutato. Di solito migliore distribuzione delle tensioni residue risulta negli acciai al
solo carbonio.

Si pone infine l'attenzione su ulteriori elementi da valutare al fine del contenimento delle tensioni di
tempra: velocità di riscaldamento, percentuale di carbonio superiore allo 0,3 - 0,5%, ambiente di
riscaldamento che possa provocare ossidazione o decarburazione, temperatura di tempra eccessiva che
infragilisca la martensite prodotta, velocità di raffreddamento, austenite residua, bagno di tempra che
non assicuri uniformità di temperatura (per gli acciai alto legati si consiglia l'aria calma).

Interruttore
Da Wikipedia, l'enciclopedia libera.

Interruttore di un piccolo elettrodomestico


L'interruttore è un dispositivo elettrico in grado di interrompere un circuito elettrico.

Quando l'interruttore è configurato in modo da consentire il passaggio di corrente si definisce chiuso,


quando invece il passaggio è interdetto si definisce aperto (è l'opposto della terminologia usata in
idraulica).

Introduzione
Esiste una varietà immensa di interruttori. Nella forma più elementare l'interruttore è costituito da due
contatti metallici che possono essere mossi per entrare in contatto o separati. Dispositivi più complessi
possono agire contemporaneamente su più circuiti, per esempio per interrompere contemporaneamente
le tre linee nel sistema trifase. Ogni contatto di un circuito separato è chiamato polo. Alcuni interruttori
hanno una configurazione complessa di contatti, in cui per esempio quando un contatto viene aperto la
linea corrispondente è collegata ad un altro circuito. In questo caso si ha un deviatore. Esistono
interruttori, detti commutatori, in cui una linea può essere collegata a più di una uscita in alternativa.
In altri modelli il ritorno alla posizione precedente dopo l'intervento dell'operatore viene effettuata da
una molla. e si ha un pulsante. In genere i punti di contatto sono rivestiti con metalli nobili quali il
platino, allo scopo di proteggerli dall'ossidazione che potrebbe dare origine a giunzioni inaffidabili e
pericolosi surriscaldamenti.
Il sezionatore è un particolare interruttore progettato per manovrare solamente in condizioni circuitali
di regime, non in presenza di sovracorrente dovuta a guasti o sovraccarichi.

Ogni interruttore è caratterizzato dalle seguenti proprietà:

• Tensione nominale: è la massima tensione sopportabile tra i contatti in posizione aperta. È determinata
anche in base all'isolamento del dispositivo rispetto all'ambiente esterno.
• Corrente massima nominale: è la massima intensità di corrente elettrica che può attraversare
l'interruttore senza danneggiarlo in seguito al surriscaldamento prodotto per effetto Joule.
• Potere di interruzione: è la corrente massima che il dispositivo è in grado di interrompere. Per correnti
superiori i contatti potrebbero non essere in grado di aprirsi.
• Grado di protezione IP: indica il livello di protezione verso il contatto con il corpo umano e contro
l'acqua.

Da un punto di vista costruttivo un interruttore è estremamente diverso a seconda che debba operare a
bassa, media o alta tensione, e anche in funzione della corrente nominale gestita. Si passa dai
piccolissimi interruttori presenti all'interno di dispositivi elettronici, fino ai mastodontici sezionatori
delle cabine elettriche di alta tensione.

Lo spegnimento d'arco
All'apertura di un contatto e fino al raggiungimento di una certa distanza tra le parti, esiste un periodo
in cui il campo elettrico presente può superare il valore di rigidità dielettrica dell'aria o comunque del
mezzo in cui i contatti sono immersi. In questo momento si può innescare un arco voltaico che si può
mantenere anche ad un successivo aumento della distanza tra i contatti.
Nel momento in cui un circuito con presente un carico induttivo viene aperto, per effetto
dell'autoinduzione si genera ai capi dell'interruttore una tensione superiore a quella di esercizio
(sovratensione).
Per effetto dell'arco il flusso di corrente non viene interrotto, venendo a mancare lo scopo
dell'interruttore, ma soprattutto la temperatura del plasma causa il danneggiamento del dispositivo. Per
questo motivo è importante provvedere ad una quanto più rapida possibile estinzione dell'arco.
Le tecniche impiegate per estinguere l'arco sono principalmente le seguenti:

Estinzione in aria

In interruttori con formazione di archi modesti l'estinzione si ottiene con un rapidissimo allungamento
dell'arco in normale aria atmosferica. La forma dei contatti può essere configurata per sfruttare le forze
elettrodinamiche prodotte dalla corrente per accelerare la separazione.
In alcuni modelli si impiegano delle camere di estinzione oppure baffi divergenti dai due contatti, in cui
l'arco viene trasferito dopo l'innesco, spinto dal calore generato dal plasma verso le parti più larghe e
quindi stirato fino ad esaurimento.

Soffiatura pneumatica

Lo spazio compreso fra i contatti viene investito da un potente getto di aria che soffia via gli ioni
dell'arco. La pressione può essere fornita da un pistone azionato da una molla, precaricata dal
movimento della leva di chiusura dell'interruttore.

Soffiatura magnetica

La zona di contatto è sottoposta ad un forte campo magnetico che per effetto della forza di Lorentz
devia gli ioni dalla loro traiettoria nell'arco. Il campo viene spesso prodotto da un solenoide che può
essere percorso dalla stessa corrente da interrompere.

Immersione in liquido dielettrico

I contatti vengono immersi in un liquido isolante che presenta una rigidità dielettrica elevata, ed ha
l'effetto di raffreddare rapidamente il plasma per conduzione e convezione. Viene impiegato olio
minerale oppure esafluoruro di zolfo (SF6). Quest'ultimo ha la proprietà, se scaldato ad alta
temperatura, di decomporsi in zolfo e fluoro, che cattura gli elettroni dell'arco.

Interruttori speciali
A rottura forzata

Se la chiusura di un interruttore avviene in condizione di circuito guasto (in cortocircuito) o


sovraccarico, è possibile che, a causa della intensa corrente circolante prima che il contatto sia
perfettamente stabilito, le due parti si "incollino". Nel momento in cui si debba aprire il circuito la
saldatura rappresenta un ostacolo. A volte la normale forza di separazione dei contatti può essere
sufficiente a rompere la saldatura, altre volte no.
Dove l'affidabilità di apertura di un circuito sia di importanza inderogabile, si usano degli accorgimenti
costruttivi studiati per assicurare la rottura di eventuali saldature, evidenziando nel contempo il
problema. In genere si utilizza una parte mobile (bilanciere) alle cui estremità siano presenti due distinti
contatti, verso le due estremità della linea. I contatti sono tenuti chiusi da una molla. Nella manovra di
apertura un albero eccentrico solleva il bilanciere da un punto non centrato rispetto al bilanciere stesso,
in modo che l'apertura agisca solamente sul contatto più vicino. L'altro contatto opera come un
semplice fulcro. Se il primo contatto è incollato si solleverà il secondo, facendo cardine sul primo. La
torsione agisce rompendo la saldatura e ripristinando la situazione normale.
Di sicurezza

Gli interruttori di sicurezza sono usati per prevenire situazioni di pericolo su circuiti e macchinari. Per
esempio nei vani corsa degli ascensori sono presenti interruttori di sicurezza, detti di fine corsa per
bloccare il motore in caso di emergenza. Nei macchinari industriali devono essere presenti interruttori
che fermino immediatamente i motori se viene aperto o smontato un elemento che possa essere causa di
infortuni. È evidente che questi dispositivi devono avere una affidabilità elevata e costante nel tempo.

Automatici

In questi interruttori la manovra è eseguita automaticamente in base al verificarsi di determinati eventi


predefiniti. Normalmente l'intervento automatico opera in una sola direzione, per esempio l'apertura del
contatto, mentre l'operazione opposta (ripristino) viene compiuta manualmente da un operatore. Sono
esempi di questa categoria l'interruttore magnetotermico e l'interruttore differenziale. Nei sezionatori
automatici degli elettrodotti il ripristino viene effettuato trascorso un tempo prefissato dall'apertura.

Interruttore differenziale
Da Wikipedia, l'enciclopedia libera.

L'interruttore differenziale (detto anche salvavita da un nome commerciale largamente utilizzato) è


un dispositivo elettrotecnico in grado di interrompere un circuito in caso di guasto verso terra
(dispersione) o folgorazione fase-terra. Non offre alcuna protezione contro sovracorrente o
cortocircuito tra fase e fase o tra fase e neutro, per i quali è invece richiesto un interruttore
magnetotermico. Sono molto diffusi in commercio apparecchi che integrano entrambi i dispositivi.

Principio di funzionamento

Schema di principio del differenziale. In rosso è indicata una dispersione

Considerando il circuito da proteggere come un singolo nodo, si può affermare che la somma algebrica
delle correnti entranti in esso deve essere zero (prima legge di Kirchhoff). In pratica se si misura
l'intensità della corrente in un sistema monofase, si osserverà che la corrente entrante equivale a quella
uscente. In un sistema trifase la somma delle correnti, dando segno positivo per i flussi entranti e
negativo per gli uscenti, risulta nulla.

Se una apparecchiatura connessa all'impianto si guasta, è possibile che venga a crearsi un collegamento
più o meno efficace tra la linea elettrica e la carcassa metallica (tecnicamente definita massa), la quale
può diventare causa di folgorazione se toccata. Se il collegamento è precario è possibile anche che si
produca calore per effetto Joule con conseguente sviluppo di un incendio.
Poiché nelle centrali di distribuzione della rete elettrica e nelle cabine di trasformazione MT/BT il
punto neutro è collegato a terra, qualunque collegamento tra una fase della linea elettrica e terra subisce
un passaggio di corrente. Questa corrente dispersa non ritorna attraverso l'interruttore differenziale a
monte dell'impianto, il quale rivela che la somma delle correnti di nodo non è più nulla ed interviene.
Per evitare che sia un corpo umano a realizzare il ponte fase-terra e agevolare il lavoro dell'interruttore
differenziale è necessario che gli apparecchi con carcassa metallica siano collegati ad un adeguato
impianto di messa a terra. Si parla, in questo caso, di protezione contro i contatti indiretti.

Invece, nel caso in cui una persona tocchi una parte che è normalmente in tensione, come ad esempio
un conduttore elettrico non isolato, si parla di contatto diretto. Anche in questo caso l'interruttore
differenziale fornisce, nella maggior parte dei casi, una buona protezione, purché sia del tipo ad alta
sensibilità, cioè con corrente differenziale nominale minore o uguale a 30 mA, ed abbia un tempo di
intervento sufficientemente breve (pochi millisecondi). Da notare che la presenza dell'interruttore
differenziale non esime assolutamente dall'obbligo di predisporre un impianto di terra realizzato a
regola d'arte.

In caso di impianti elettrici con più derivazioni in parallelo si possono installare più differenziali a
protezione di ciascun ramo derivato, in modo da realizzare una protezione selettiva, tale, cioè, da
isolare solo il ramo interessato al guasto, senza disalimentare gli altri rami. Se, in aggiunta alle
protezioni dei singoli rami, si installa anche una protezione differenziale generale comune a tutti i rami,
si ricorre solitamente ad un differenziale di tipo ritardato, per evitare che questo, intervenendo prima di
quelli posti a valle, disalimenti anche i circuiti non guasti.

Struttura e funzionamento

Interruttore differenziale aperto:


1 Morsetti di ingresso
2 Morsetti di uscita (verso il carico)
3 Pulsante di inserimento
4 Contatti di interruzione
5 Solenoide che tiene chiusi i contatti
6 Trasformatore di corrente (sensore)
7 Circuito elettronico amplificatore
8 Pulsante di test
9 Filo (arancio) che alla pressione di test è attraversato da una corrente sbilanciata

In un comune interruttore differenziale è presente un circuito magnetico (in pratica un trasformatore di


corrente) su cui sono avvolti dei solenoidi (uno per filo da proteggere) in modo tale che in condizioni di
equilibrio il flusso magnetico prodotto si annulli reciprocamente. In caso di squilibrio, il flusso
magnetico non è più nullo ed è sufficiente per attirare una ancorina, la quale provoca lo scatto di una
molla che apre l'interruttore.

In alcuni modelli i contatti sono tenuti normalmente chiusi da un elettromagnete alimentato da un


circuito elettronico. Quando viene rilevato uno sbilancimento della corrente misurata da un altro
solenoide, il circuito toglie alimentazione all'elettromagnete e provoca l'apertura dei contatti.

Per verificare la continuità di funzionamento è prescritta l'effettuazione di un test con cadenza mensile,
premendo un apposito pulsante presente sull'apparecchio.

Impiantistica
Poiché un impianto reale presenta inevitabilmente piccoli squilibri dovuto a dispersioni ed anche
perché esistono dei limiti minimi di sensibilità praticamente realizzabili, ma nello stesso tempo per
assicurare un adeguato livello di protezione in caso di folgorazione, sono definite precise soglie di
intervento. Per gli impianti in abitazioni civili la differenza massima ammissibile, indicata con la lettera
greca ∆, deve essere minore o uguale a 30 milliAmpere.

In ambiti industriali e commerciali si usa suddividere gli impianti in zone per realizzare una protezione
selettiva, in modo tale che un guasto in una zona provochi l'intervento del solo differenziale a
protezione della zona stessa, senza coinvolgere l'intero impianto.

A tale scopo si utilizzano più interruttori differenziali con diversi valori di delta e diversi tempi di
intervento (differenziali ritardati).

Esistono anche differenti classi di interruttori differenziali che si distinguono per il tipo di corrente di
guasto a cui sono sensibili:

• AC - sono sensibili alla sola corrente alternata di forma sinusoidale


• A - sono sensibili anche a correnti unidirezionali pulsanti
• B - sensibili anche a dispersioni in corrente continua, necessari dove siano utilizzati apparecchi con
alimentatori elettronici (es computer)

Normativa
L'impiego dell'interruttore differenziale è disciplinato dalle normative:

• Legge 5 marzo 1990 n. 46 (Norme per la sicurezza degli impianti)


• DPR 6 dicembre 1991 n. 447 (Regolamento di attuazione della legge 5 marzo 1990, n. 46, in materia di
sicurezza degli impianti)
• Legge 1 marzo 1968 n. 186 (Disposizioni concernenti la produzione di materiali, apparecchiature,
macchinari, installazione e impianti elettrici ed elettronici.)
Interruttore magnetotermico
Da Wikipedia, l'enciclopedia libera.

L'interruttore megnetotermico, detto anche interruttore automatico, è un dispositivo elettrotecnico


in grado di interrompere un circuito in caso di sovracorrente. Sostituisce il fusibile, con il vantaggio di
una maggior precisione di intervento ed essere facilmente ripristinabile con la pressione di un pulsante
o l'azionamento di una leva.

Per legge in Italia, negli impianti attuali deve essere installato anche un interruttore differenziale.

Funzionamento

Interruttore magnetotermico aperto:


1 Leva di comando
2 Meccanismo di scatto
3 Contatti di interruzione
4 Morsetti di collegamento
5 Lamina bimetallica (rilevamento sovraccarichi)
6 Vite per la regolazione della sensibilità (in fabbrica)
7 Solenoide (rilevamento cortocircuiti)
8 Sistema di estinzione d'arco

I due fenomeni considerati, cortocircuito e sovraccarico hanno caratteristiche ben diverse e devono
essere considerati separatamente. Come si evince dal nome, all'interno di un interruttore magneto-
termico sono presenti due ben distinte sezioni che rilevano i due fenomeni per mezzo di differenti
principi fisici.

Inizialmente l'interruttore deve essere chiuso agendo sul comando manuale oppure, nei modelli più
grandi, per mezzo di motori elettrici. In questo modo viene caricata una molla che tende a provocare
l'apertura dei contatti, ma è trattenuta da un'ancorina. Quando una sezione del dispositivo rileva un
guasto, la molla viene liberata e si ha lo scatto, cioè l'apertura dell'interruttore. La forza prodotta dalla
molla deve essere tanto più elevata quanto maggiore è l'intensità della corrente da interrompere, ovvero
il potere di interruzione del dispositivo.
Protezione dal cortocircuito

Questo tipo di guasto si verifica quando due fili conduttori a differente potenziale (nel caso generale
della corrente alternata trifase: fase - neutro; fase R - fase T; fase S - fase T; fase R - fase S) entrano in
diretto contatto tra loro, provocando un elevatissimo ed istantaneo flusso di corrente, nell'ordine di
migliaia di Ampere.

La rilevazione di questo evento avviene per mezzo di un solenoide avvolto su una barra magnetica, in
pratica un relè. L'elevato impulso di corrente induce un campo magnetico che attira una ancorina la
quale provoca l'apertura dell'interruttore.

Protezione del sovraccarico

Questo problema si verifica quando l'intensità di corrente supera un valore prefissato a causa per
esempio di troppi carichi accesi contemporaneamente. Il limite di corrente è determinato da limiti
costruttivi dell'impianto e in particolare dalla capacità dei fili conduttori di smaltire il calore prodotto
per effetto Joule.

La rilevazione avviene per mezzo di una resistenza elettrica abbinata ad una lamina bimetallica. A
causa della differenza nella dilatazione termica di due metalli accoppiati, la lamina si piega fino a
provocare lo scatto dell'interruttore. Il tempo di intervento non è istantaneo ma dipende, con funzione
caratteristica dei diversi modelli di magnetotermici, dall'inverso dell'entità del superamento del valore
di soglia.

Alcuni apparecchi più moderni impiegano sistemi elettronici. Esistono in commercio dispositivi con
valori limite prefissati da pochi a centinaia di Ampere ed altri in cui il valore è regolabile
dall'installatore.

Protezione selettiva
In un impianto esteso è vantaggioso suddividere il sistema in zone di protezione separate, in modo tale
che l'intervento di un dispositivo di protezione in caso di sovraccarico o guasto isoli un'area limitata
senza lasciare "al buio" l'intero edificio. Questa caratteristica è definita selettività dell'impianto o
protezione selettiva.

A questo scopo si usa strutturare l'impianto secondo una logica gerarchica, con un interruttore generale
a monte, seguito da diversi apparecchi a protezione di macrozone, a loro volta seguiti da altri
apparecchi a protezione del ramo finale del circuito. L'interruttore generale deve avere una soglia di
intervento sufficientemente elevata da garantire l'assorbimento massimo di tutto l'impianto, mentre gli
apparecchi di zona devono avere una soglia inferiore in funzione dell'assorbimento previsto per il ramo
protetto.

É necessario inoltre che i dispositivi siano tra loro coordinati in modo tale che in caso di guasto
intervenga solamente l'elemento voluto e non gli apparecchi a monte.

Per consentire la realizzazione della protezione selettiva vengono prodotti apparecchi con differenti
curve di intervento (velocità di intervento in funzione del superamento della soglia nominale), in
modo tale che impiegando apparecchi differenti il progettista sia in grado di coordinarne le priorità di
intervento. Le curve di intervento standard sono contraddistinte da una lettera alfabetica e le più usate
sono, in ordine decrescente di sensibilità: Z,B,C,D,U,K.

La curva C è in grado di tollerare sovracorrenti fino a cinque-dieci volte la corrente di intervento per
brevi periodi ed è largamente usata negli impianti domestici. La curva K consente ampi superamenti
della soglia per tempi brevi (10-14 volte), ed è utile per evitare interventi indesiderati nel caso in cui i
carichi protetti assorbano elevate correnti di spunto all'avvio (es. motori elettrici industriali). Z è la
curva che presenta la maggiore sensibilità.

Estensimetro
Da Wikipedia, l'enciclopedia libera.

Un estensimetro è un sensore meccanico utilizzato per rilevare le deformazioni di un corpo. È


costituito da una griglia di metallo (solitamente costantana) incollata su un apposito supporto di
materiale plastico.

Principio di funzionamento
L'estensimento viene incollato sul corpo di cui si vuole misurare la deformazione. La deformazione
della struttura e quindi dell'estensimetro provoca una variazione di resistenza elettrica dalla cui
misurazione, per esempio tramite un ponte di Wheatstone, si può risalire all'entità della deformazione.

È un ottimo strumento sia per l'elevata sensibilità (si riescono a misurare anche deformazioni di
1/1000000) che per la risposta in frequenza dell'ordine del kHz. È adatto a misure puntuali di
deformazione non per analizzare deformazioni a campo intero.

Resistenza aerodinamica
Da Wikipedia, l'enciclopedia libera.

Un corpo che si muove in un fluido, in questo caso l'aria, incontra una forza di direzione uguale e erso
contrario al suo movimento chiamata resistenza.

Nel caso delle ali degli aerei la resistenza è di due tipi: la resistenza di profilo e la resistenza causata
dalla parte di ala esposta al vento, e cresce con il quadrato della velocità. La resistenza indotta e
causata invece dai vortici che partono dall'estremità delle ali, perché l'aria sotto l'ala, con pressione alta,
tende a passare sopra dove la pressione è minore; la resistenza indotta cresce in modo inversamente
proporzionale alla velocità, ed è presente solo se le ali fanno portanza.

Per ridurre la resistenza di profilo bisogna migliorare il profilo e ridurre la sezione esposta al vento, per
ridurre la resistenza indotta bisogna costruire ali più lunghe e strette possibile, con le alette alle
estremità (winglets).

La somma della resistenza indotta e di quella di profilo è la resistenza aerodinamica, che è facilmente
visualizzabile in un grafico. La resistenza totale minima, contrariamente a quanto si potrebbe pensare
non corrisponde alla velocità minima (di stallo), ma ad una velocità leggermente superiore (+10-20%).
Rischio
Da Wikipedia, l'enciclopedia libera.

Il rischio è un concetto connesso con le aspettative umane. Indica un potenziale effetto negativo su un
bene che può derivare da determinati processi in corso o da determinati eventi futuri. Nel linguaggio
comune, rischio è spesso usato come sinonimo di probabilità di una perdita o di un pericolo. Nella
valutazione del rischio professionale il concetto di rischio combina la probabilità del verificarsi di un
evento con l'impatto che questo evento potrebbe avere e con le sue differenti circostanze di
accadimento. Secondo la teoria dei prezzi Black-Scholes quando si tratta di beni quotati sul mercato
tutte le probabilità e gli impatti sono incorporati nel prezzo. Ci sono molte definizioni di rischio; queste
dipendono dalle applicazioni e dal contesto. Più in generale, ogni indicatore di rischio è proporzionale
al danno atteso, il quale è in relazione alla sua probabilità di accadimento. Le denominazioni dipendono
quindi dal contesto del danno e dal suo metodo di misura; ad esempio, nella perdita di una vita umana,
il rischio è focalizzato sulla probabilità dell'evento, sulla sua frequenza e circostanza. Possiamo
distinguere due tipi di rischio: il primo basato su stime tecnico-scientifiche ed il secondo, denominato
"rischio reale", dipendente dalla percezione umana del rischio. In pratica, queste due definizioni sono
in continuo conflitto tra di loro.

Rischio ingegneristico
Il «rischio» è definito come combinazione di probabilità e di gravità (severità) di possibili lesioni o
danni alla salute, in una situazione pericolosa; la «valutazione del rischio» consiste nella valutazione
globale di tali probabilità e gravità; tutto allo scopo di <scegliere le adeguate misure di sicurezza.

Il "rischio finanziario" è definito come la variabilità indefinita (o volatilità) degli investimenti,


includendo ovviamente perdite potenziali come allo stesso modo inaspettati guadagni.

Viscosità
Da Wikipedia, l'enciclopedia libera.

La viscosità è una proprietà dei fluidi che indica la resistenza allo scorrimento. Dipende dal tipo di
fluido e dalla temperatura e viene solitamente indicata con la lettera greca µ ("mi"). Nei liquidi la
viscosità decresce all'aumentare della temperatura, nei gas invece cresce.

Un fluido con viscosità nulla (µ=0) e densità costante al variare della pressione, cioè non viscoso e
incomprimibile, si chiama fluido ideale. Un fluido la cui viscosità è trascurabile può essere definito
anche inviscido. Si può inoltre parlare di superfluidità quando la viscosità è pari a 0. Tale caratteristica
è nota in riferimento ai due isotopi dell'elio: nell'He4 al di sotto dei 2,17 K, mentre per l'He3 ad una
temperatura circa 1000 volte minore.

La viscosità misura in qualche modo la "coesione" del fluido: ad esempio il vetro può essere
interpretato come un fluido ad altissima viscosità (il vetro non ha un "punto di fusione" definito, non
possedendo una struttura cristallina - vedi anche calore di fusione).
Da un punto di vista matematico è possibile pensare di misurare la forza che occorrerebbe applicare ad
uno straterello di fluido per modificarne la velocità rispetto ad un altro straterello posto ad una distanza
fissa (h):

dove si intende:

F = forza che viene applicata ai piani di misurazione

µ = coefficiente di viscosità

∆v = differenza di velocita' tra i due strati

∆h = distanza tra i due strati

S = superficie dei due strati

L'equazione, attribuita a Newton, definisce un comportamento viscoso ideale, caratterizzato da un


valore del coefficiente di viscosità indipendente dallo sforzo di taglio F/S e dal gradiente del flusso di
scorrimento ∆v/∆h. In realtà per molti fluidi il coefficiente di viscosità µ è lungi dall'essere costante.
Un fluido caratterizzato da una risposta nel gradiente del flusso di scorrimento non lineare rispetto allo
sforzo di taglio si denomina fluido non newtoniano. I fluidi non newtoniani si distinguono in fluidi alla
Bingham, pseudoplastici, dilatanti se il loro comportamento viene visto in funzione della velocià di
deformazione; i primi sono molto simili a quelli newtoniani infatti, in un diagramma reologico
(velocità di deformazione Vs sforzi tangenziali) quelli newtoniani sono caratterizzati da una linea che
inizia nell'origine e ha un'inclinazione pari all'arctgη, quelli alla Bingham sono traslati sull'asse delle
ordinate di un τ0; questo τ0 è lo sforzo che serve loro come "innesco" al movimento; tipico esempio di
questi fluidi è il dentifricio. I fluidi pseudoplastici e dilatanti variano il loro comportamento in funzione
della velocità di deformazione, i primi presentano notevole deformazione iniziale con bassi sforzi e
piccole deformazioni con sforzi elevati; per i dilatanti vale la regola inversa. Un'ultima differenziazione
dei fluidi può essere fatta se viene analizzato il loro comportamento dal punto di vista temporale; si
distinguono in tixotropici e reopeptici.

L'equazione di Newton rimane comunque alla base della definizione e della misura del coefficiente di
viscosità. Poiché però è impossibile applicare (e soprattutto misurare!) una forza applicata ad uno
straterello fluido infinitesimale, la misura della viscosità si esegue ponendo il fluido tra due "piattelli",
posti ad una distanza regolabile. Uno dei due piattelli viene mantenuto fisso mentre viene fatto ruotare
il secondo. In questo modo invece di una forza si misura la coppia applicata (momento torcente) e,
posto della velocità lineare, la risultante velocità angolare. Il nome di uno siffatto strumento è
viscosimetro. Esisitono anche viscosimetri che sfruttano diversamente le caratteristiche dei fluidi per
misurare la viscosità. Ad esempio un viscosimetro "a coppa" (utilizzato per le vernici) è composto da
un contenitore graduato con un foro calibrato sul fondo. Più il fluido è viscoso, più tempo impiegherà a
fluire attraverso il buco. Misurando il tempo di svuotamento della coppa è possibile (tramite opportune
tabelle) risalire alla viscosità del fluido. La misura della viscosità è ritenuta dagli "addetti ai lavori"
come molto soggettiva, in quanto lo strumento di misura non riesce ad applicare correttamente la
definizione della grandezza (una per tutte: usare un piattello, ad esempio di acciaio, introduce uno
strato di fluido in prossimità di esso che non si comporta come fluido libero e questo influenza la
misura). Normalmente, infatti, accanto ad ogni misura di viscosità, occorre indicare in che condizioni e
con quale strumento (inclusi marca e modello) è stata realizzata.
In base alla sua definizione matematica, la viscosità è dimensionalmente espressa da una forza su una
superficie per un tempo, ovvero da una pressione per un tempo e, in termini di grandezze fondamentali,
da M·L-1·T-1 (massa diviso lunghezza e tempo).
Pertanto l'unità di misura SI della viscosità è il Pa·s.
1 Pa·s equivale a 1kg·1s-1·m-1 e a 10 poise (da Jean Louis Marie Poiseuille) che è la vecchia unità del
sistema cgs:
1 poise = 1/10 Pa * s = 1g·1s-1·cm-1;
Per la misura della viscosità assoluta o dinamica è comunque molto usato il centipoise, cP,
corrispondente al millipascal per secondo, mPa·s. In queste unità la viscosità dell'acqua a temperatura
ambiente è circa 1 cP (1,001 cP a 20 °C). ==Viscosità cinematica== == == Un'altro tipo di viscosità è
quella cinematica (ν = "nu"), cioè il rapporto tra la viscosità dinamica di un fluido e la sua densità. Da
essa dipende la velocità con cui un fluido riesce, grazie alla forza di gravità, a percolare lungo un
capillare.
La viscosità cinematica è una misura della resistenza a scorrere di una corrente fluida sotto l'influenza
della gravità. Questa tendenza dipende sia dalla viscosità assoluta o dinamica che dal peso specifico del
fluido. Quando due fluidi di uguale volume sono messi in viscosimetri capillari identici e lasciati
scorrere per gravità, il fluido avente maggior viscosità cinematica ci mette più tempo a scorrere rispetto
a quello meno viscoso.
Ad esempio il mercurio risulta avere una viscosità dinamica 1,7 volte maggiore di quella dell'acqua, ma
a causa del suo elevato peso specifico, esso percola molto più rapidamente da uno stesso foro a parità
di volume. In effetti la viscosità cinematica dell'acqua è circa otto volte maggiore di quella del
mercurio a temperatura ambiente.
Poiché la viscosità cinematica si ricava semplicemente dal rapporto tra viscosità dinamica e densità,
dmensionalmente è espressa da L2/T dove L è una lunghezza e T è il tempo.
L'unità di misura della viscosità cinematica è lo stokes (St) (da George Gabriel Stokes), ma
comunemente viene usato il sottomultiplo centistoke (cSt).
Nel SI la viscosità cinematica è espressa al m2/s, che corrisponde a 106 cSt.
Altre comuni, ma obsolete, unità di misura della viscosità cinematica sono il Saybolt Universal
Seconds (SUS), Saybolt Furol Seconds (SFS). Queste unità possono essere convertite in cSt seguendo
le indicazioni della ASTM D2161.

Possono i solidi essere considerati viscosi?


È comunemente accertato che i solidi amorfi, come il vetro, hanno viscosità, basandosi sul fatto che
tutti i solidi fluiscono impercettibilmente in risposta a uno sforzo di taglio (in inglese shear stress).
Alcuni sostengono che la distinzione tra solidi e liquidi non sia chiara e che i solidi siano
semplicemente liquidi con un'alta viscosità tipicamente maggiore di 1012 Pa·s. I sostenitori di questa
posizione adottano spesso l'idea che il vetro può fluire in modo estremamente lento, in antiche strutture.
Altri sostengono che i solidi sono caratterizzati da una risposta elastica, per piccole pressioni, che i
fluidi non hanno. Anche se molti solidi fluiscono, quando sottoposti a sforzi elevati, essi sono
caratterizzati dal loro comportamento a basso sforzo. La viscosità può essere un'appropriata
caratteristica dei solidi in regime plastico. Questo uso del termine viscosità può generare confusione
quando usato in relazione a certi materiali solidi, come i materiali di Maxwell, per descrivere la
relazione tra sforzo e velocità di variazione della tensione piuttosto che della velocità di taglio. Queste
distinzioni posso essere in gran parte risolte considerando le equazioni costitutive del materiale in
questione, che tengono conto del suo comportamento viscoso ed elastico. I materiali che sono
importanti per la loro viscosità ed elasticità, entro un particolare intervallo di valori di deformazione e
di rapidità di deformazione, sono chiamati viscoelastici. I materiali che esibiscono una deformazione
viscosa almeno tre volte maggiore della loro deformazione elastica sono chiamati a volte reidi. Un
esempio di solido che fluisce, che è stato osservato dal 1930, è la pece, usata ad esempio
nell'esperimento della goccia di pece, cioè un esperimento che misura il percolo di un pezzo di pece
negli anni. La pece fluisce a temperatura ambiente sebbene molto lentamente.

La viscosità del calcestruzzo


Nell'ambito dell'ingegneria elle strutture si definisce con il termine viscosità (inglese: creep; francese
fluage) o viscoelasticità il fenomeno per cui in una struttura realizzata in calcestruzzo le deformazioni
progrediscono nel tempo sotto carico costante.

Ciclo di Carnot
Da Wikipedia, l'enciclopedia libera.

In termodinamica il ciclo di Collins è il ciclo più semplice ottenibile tramite il minor numero di
sorgenti, di un gas generico (teoricamente un gas perfetto) costituito da 4 trasformazioni
termodinamiche. Il nome deriva da quello del fisico francese Sadi Carnot.

Il ciclo di Carnot ha la proprietà di essere il ciclo termodinamico di rendimento maggiore che evolve
tra le due sorgenti. Non esiste nessun altro ciclo, che abbia come temperature estreme le stesse isoterme
del ciclo di Carnot, che abbia rendimento maggiore del rendimento del ciclo di Carnot.

Il ciclo di Carnot è un ciclo puramente teorico e la sua realizzazione richiede lo studio di una macchina
altrettanto teorica. Questa affermazione lascia intendere che è impossibile realizzare una macchina
termica reale a cui si può applicare il ciclo di Carnot.

La macchina teorica in oggetto che esegue il ciclo si dice macchina di Carnot. Una macchina del
genere necessita di due sorgenti, cioè di due fonti di calore a temperature differenti e si schematizza
generalmente come un cilindro chiuso con un pistone con le pareti isolate adiabaticamente contenente
del gas che può scambiare calore solo attraverso il fondo del cilindro.

Le quattro trasformazioni
Grafico della pressione in funzione del volume delle quattro trasformazioni del ciclo di Carnot

Dunque il ciclo di Carnot di un gas perfetto è composto da due isoterme (1-2) e (3-4) a temperature
rispettivamente T1 > T2 e due adiabatiche (2-3) e (4-1):

• Espansione isoterma (1-2): il gas preleva la quantità di calore Q1 dalla sorgente più calda T1 e questo
provoca un aumento di volume del gas e diminuzione della pressione. La tendenza della temperatura del
gas ad abbassarsi viene contrastata, limitatamente alla prima parte della corsa, dall’effetto del
riscaldatore (sorgente termica), ne risulta che essa rimane costante.

• Espansione adiabatica (2-3): quando il gas finisce di prelevare energia termica, esso viene mantenuto
in modo che non scambi energia con l'esterno tramite un'adiabatica, pur continuando ad espandersi: ne
consegue un abbassamento della temperatura.

• Compressione isoterma (3-4): il gas viene messo a contatto con la sorgente a temperatura T2 < T1
cedendo una quantità di calore Q2: questo provoca una compressione.

• Compressione adiabatica (4-1): quando il gas finisce di cedere calore al refrigeratore continua a
comprimersi, ma viene mantenuto in modo che non scambi energia con l'esterno.

Il risultato di questo ciclo è dimostrare che avendo a disposizione una macchina di Carnot ideale e un
fluido perfetto, è possibile ottenere del lavoro riportando il sistema nelle condizioni iniziali.

La caratteristica fondamentale della macchina di Carnot è che il suo rendimento non dipende dal fluido
impiegato che compie il ciclo, ma solo dalla temperatura delle due sorgenti con le quali scambia il
calore: questo teorema va sotto il nome di Teorema di Carnot.

Il rendimento di una macchina termica è, in generale, il rapporto tra il lavoro utile che la macchina
riesce a compiere e il calore totale assorbito dal sistema. Se un ciclo viene eseguito n volte, il
rendimento della macchina sarà allora:

dove nL è il lavoro totale compiuto dalla macchina, e nQ1 il calore totale assorbito da questa.

Nel caso del ciclo di Carnot, il rendimento sarà pari a

Da quest'ultima espressione è possibile far discendere che il rendimento dipende solo dalle temperature
T1 e T2 poiché lo scambio di calore avviene solo durante le isoterme (rendimento di Carnot):

.
Si vede subito che il rendimento sarebbe massimo (100%), solo se T2 = 0K, ma tale valore della
temperatura non è raggiungibile da nessun corpo. Questa uguaglianza è anche alla base del secondo
principio della termodinamica e all'impossibilità di produrre il moto perpetuo.

Il rendimento di Carnot può essere ricavato o mediante l'applicazione della legge dei gas perfetti, o
mediante il bilancio complessivo dell'entropia.

[modifica] Dalla legge dei gas perfetti

Oltre a dimostrare la correttezza del rendimento di Carnot, si può verificare come il rapporto di
compressione delle due trasformazioni isoterme che costituiscono il ciclo (si considera qui il rapporto
considerando entrambe le trasformazioni isoterme come trasformazioni di espansione o compressione,
affinché i volumi finali siano quelli più grandi o più piccoli) coincidano.

Se la trasformazione parte dal punto 1 (in figura), la prima trasformazione è una espasione isoterma.
Per la legge dei gas perfetti, i volumi nei quattro punti sono dati da:

Per una trasformazione adiabatica vale pVγ = k, dove k è una costante. Essendo due le trasformazioni
adiabatiche, si avranno due valori diversi di k. Quindi si avrà

Sostituendo quest'ultimo sistema di equazioni al precedente, si possono calcolare i rapporti V1 / V2 e V4


/ V3, che risultano

Il rendimento può ora essere calcolato come


il lavoro di una isoterma è dato dall'integrale , che ha come risultato W = nRTlnVf / Vi.
Pertanto il rendimento diventa

i logaritmi naturali hanno come argomento il medesimo numero (rapporto di compressione), come visto
in precedenza, pertanto esso può essere messo in evidenza a numeratore, e semplificato con in
denominatore, ottenendo in definitiva

ovvero il rendimento di Carnot.

Dall'entropia

Le trasformazioni adiabatiche non comportano scambi di calore. Tracciare il loro grafico su un piano T-
S produrrebbe una isoentropica, ovvero una retta verticale, che indica una variazione nulla
dell'entropia. Per una trasformazione isoterma, la variazione di entropia è semplicemente il rapporto tra
il lavoro compiuto e la temperatura, costante. Pertanto

e il calore sarà dato da (per una isoterma la variazione di energia interna è nulla, pertanto il calore
equivale al lavoro)

Il rendimento η diventa allora


che coincide con quella calcolata in precedenza con l'applicazione della legge dei gas perfetti.

Indici di prestazione
Per il ciclo di Carnot inverso il coefficiente di effetto utile ε e il coefficiente di prestazione COP
dipendono dalle sole temperature delle isoterme tra cui evolve il ciclo, in quanto il rapporto tra il calore
scambiato con una sorgente e la relativa temperatura è costante:

Fatica
Da Wikipedia, l'enciclopedia libera.

La fatica è un fenomeno meccanico per cui un materiale sottoposto a carichi variabili nel tempo (in
maniera regolare o casuale) si danneggia fino a rottura nonostante l'intensità massima dei carichi in
questione sia sensibilmente inferiore a quella di rottura o di snervamento statico del materiale stesso.
Storicamente scoperta e studiata come fenomeno prettamente metallurgico, in seguito il termine
"fatica" è stato usato anche per le altre classi di materiali, come i polimeri o i ceramici.

Curve di Wohler e limite di fatica


Esempio di generica curva di Wohler: si nota che per numero di cicli nullo la curva interseca l'asse delle ordinate
in corrispondenza del carico di rottura statica

I primi studi intorno alla fatica vennero compiuti alla fine del secolo XIX, in seguito a una serie di
rotture "inspiegabili" di assali ferroviari progettati per resistere a carichi (statici) ben superiori a quelli
cui invece avveniva la loro rottura improvvisa in esercizio. In questo senso fondamentale è l'opera del
Wohler, che intuì che il fenomeno era dovuto alla natura ciclica del carico cui l'assale era sottoposto
(flessione rotante) e tentò di ricostruire lo stato di sollecitazione in laboratorio, mettendo in relazione
l'ampiezza massima del ciclo di sollecitazione con il numero di cicli che il pezzo sopportava prima
della rottura: ne ricavò una serie di curve su base statistica che ancora oggi sono chiamate diagrammi
di Wohler e costituiscono lo strumento base per la progettazione di componenti

meccanici a fatica. Da questi diagrammi si evidenzia per alcuni materiali l'esistenza di un limite
inferiore di sforzo massimo al di sotto del quale il materiale non si rompe per effetto di fatica nemmeno
per un numero "molto alto" (idealmente infinito) di cicli. Questo valore dello sforzo è detto limite di
fatica del materiale.

Meccanismo di danneggiamento per fatica


Nel caso dei materiali metallici (di gran lunga il più importante e il più studiato) la fatica è legata ai
fenomeni di micro-deformazioni plastiche cicliche locali indotte dal ciclo di sollecitazioni. Esse sono
dovute al fatto che, per effetto di vari tipi di microintagli e/o discontinuità (bordi di grano, inclusioni
non metalliche, composti interstiziali, rugosità superficiali...), localmente il valore dello sforzo può
superare il carico di snervamento anche se il carico macroscopico esterno rimane sempre al di sotto di
esso.
Il danneggiamento per fatica procede attraverso tre stadi.
Il primo, detto di assestamento microstrutturale, ha l'effetto di stabilizzare il ciclo di isteresi plastica
della massa metallica (restringendolo o allargandolo a seconda dei materiali, se prevale l'incrudimento
o l'addolcimento) e, di conseguenza, di stabilizzare alcune caratteristiche meccaniche e fisiche dello
stesso. Slittamenti "disordinati" dei piani cristallini del metallo si localizzano in bande disposte a 45°
rispetto alla direzione dello sforzo applicato, generando microintrusioni e microestrusioni, che nella
successiva fase di nucleazione andranno a costituire l'innesco del danneggiamento per fatica. Sul fondo
di tali microintrusioni, infatti, gli sforzi risultano amplificati per effetto d'intaglio cosicché facilmente il
materiale in quel punto cederà e si formeranno delle microcricche. Queste tendono a riunirsi andando a
formare la cricca vera e propria, che si considera ormai nucleata quando raggiunge la profondità di
circa 0,1 mm. Dopo la nucleazione della cricca, la sua propagazione avviene in maniera transgranulare
(come una frattura fragile) e in senso perpendicolare a quello del massimo sforzo (non più a 45°); ad
ogni ciclo di sforzo la cricca avanza di un "passo" e lascia a volte tracce caratteristiche, dette striature.
L'avanzare della cricca porta ad una progressiva diminuzione di sezione resistente: quando questa
diventa inferiore alla sezione critica, si ha la frattura finale di schianto per sovraccarico (statico).

Fattori metallurgici di influenza


Il limite di fatica si lega inevitabilmente con la tensione di rottura Rm e quindi con i fattori che la
modificano:

• composizione: per Rm non troppo elevato, la composizione non influisce particolarmente, mentre con
Rm elevato si nota una maggiore resistenza a fatica degli acciai legati;
• dimensione della grana cristallina: mediamente una struttura fine comporta l'aumento di Rm e quindi
del limite di fatica;
• morfologia: strutture globulari e lamellari (al decrescere della distanza delle lamelle) sono favorite; la
struttura migliore è quella della sorbite; l'austenite residua e le inclusioni non metalliche sono fattori
negativi;
• la fibratura comporta una minore resistenza a fatica per un provino ricavato trasversalmente alla
direzione di laminazione;
• incrudimento: nonostante esso provochi l'aumento di Rm, non è consigliabile in quanto collateralmente
causa l'aumento della difettosità e quindi delle microcricche.

Fattori meccanici di influenza


Si considerano come fattori meccanici tutti quelli legati all'esercizio e al dimensionamento del pezzo
metallico.

• La concentrazione di tensioni, dovuta a intagli previsti o a irregolarità superficiali o interne non volute,
permette alla cricca di fatica di originarsi con maggiore facilità, direttamente dal secondo stadio.
• Dato che la cricca inizia spesso sulla superficie del pezzo, l'estensione di quest'ultima è proporzionale
alla probabilità d'innesco.
• É necessario eliminare i solchi lasciati dagli utensili di lavorazione, in quanto in essi si crea una
concentrazione di tensioni. Comunque una superficie ben levigata apporta significativi vantaggi solo su
pezzi in acciai ad alta resistenza, per i quali è quindi indinspensabile una accurata lavorazione. Si
sottolinea poi che è importante pure evitare che una successiva corrosione crei irregolarità superficiali.
• Si può ridurre l'effetto degli sforzi di trazione creando una compressione superficiale sul pezzo:
mediante pallinatura, rullatura o smerigliatura. Bisogna solo porre attenzione a non favorire la
formazione di microcricche sotto pelle.
• I trattamenti superficiali possono essere negativi o positivi: la decarburazione riduce Rm proprio in
superficie (e quindi la resistenza a fatica), viceversa la carbocementazione, la nitrurazione, la fiammatura
e la tempra ad induzione.
• Al crescere della temperatura diminuisce Rm e quindi la resistenza a fatica (solo l'acciaio al carbonio
porta un'eccezione, quando tra i 100 e i 300°C presenta un aumento di resistenza); se però essa
diminuisce troppo i vantaggi sono ridotti o annullati dall'aumento del coefficiente di sensibilità
all'intaglio.

Trattamenti preventivi
Le cricche di fatica nucleano quasi sempre (eccetto alcuni casi tipici, come la fatica per contatto
ciclico negli ingranaggi) su una superficie libera del pezzo in questione: questo per un concorso di
cause (in superficie sono in genere massimi gli sforzi dovuti a flessione o torsione; in superficie sono in
genere presenti difetti microscopici come la rugosità superficiale che fungono da microintagli e
favoriscono l'innesco...). Per prevenire il danneggiamento per fatica o per migliorare la resistenza ad
esso in genere si ricorre a trattamenti quali:
-rullatura o pallinatura, che creano sforzi residui di compressione sulla superficie, i quali tendono a
richiudere eventuali microcricche e rallentano l'evoluzione del danneggiamento;
-cementazione, nitrurazione o tempra superficiale, per indurire (e quindi rinforzare) lo strato
superficiale del pezzo senza infragilirne il cuore;
-rettifica o lappatura, per ridurre al minimo le rugosità superficiali.
É inoltre necessario, in fase di progettazione di un componente che dovrà resistere a fatica, curare bene
il disegno dello stesso in modo che non presenti intagli o brusche variazioni di sezione che possano
amplificare localmente gli sforzi e in tal modo favorire la nucleazione di cricche di fatica.

Analisi di una rottura per fatica

cricca su di un pistone

Un pistone in alluminio di un motore diesel ad iniezione diretta, presenta una cricca all'interno di una
cava del segmento, in prossimità si trova pure un foro di lubrificazione. La causa di innesco della cricca
può ragionevolmente essere la concentrazione degli sforzi, infatti localmente sono presenti piu di uno
spigolo vivo.
Sezionando il pezzo in questione ed osservando la superficia fessurata si possono notare i segni
caratteristici di una rottura per fatica: le linee di cresta e le linee di arresto frontali (linee di spiaggia).

linee caratteristiche di frattura

Nell' immagine sono evidenziate in rosso le linee di cresta tipiche della nucleazione, infatti hanno
origine proprio dalla gola e si nota un'intensificazione in prossimità del foro (effetto intaglio). Le linee
nere, linee di arresto frontali rappresentano l'avanzamento del fronte di frattura.
Un ingrandimento al microscopio metallografico permette di visualizzare ancora più in dettaglio le
linee di cresta alla periferia, mentre le linee di arresto si possono notare come variazione di luminosità
della superficie (dovuta al cambio di piano)

ingrandimento al microscopio metallografico

La zona di cedimento fragile non si nota in quanto non si è avuta rottura completa del pezzo: infatti la
sezione resistente a geometria toroidale ha conservato la sua integrità per un settore ben maggiore di
quello fessurato.

Evidentemente i carichi statici non hanno superato il limite di resistenza della sezione residua quindi
non si è avuto una rottura di schianto.

Estratto da "http://it.wikipedia.org/wiki/Fatica"

Categoria: Scienza dei materiali

Bonifica (metallurgia)
Da Wikipedia, l'enciclopedia libera.

In metallurgia la bonifica è il processo di lavorazione dell'acciaio che consiste nella tempra e nel
rinvenimento di esso.

Nel corso della tempra degli acciai si ha formazione di martensite, che è una struttura ad elevata
durezza (e quindi con elevato carico di rottura), ma ha una tenacità estremamente bassa (cioè è soggetta
a fenomeni di rottura fragile). Data la pericolosità di questi fenomeni, che comportano un collasso
praticamente istantaneo della struttura, si sottopone l'acciaio ad un trattamento termico di rinvenimento,
per trasformare parte della martensite in ferrite. Infatti la martensite è una fase metastabile, cioè si
forma solo perché gli atomi di ferro non riescono a passare dal reticolo dell'austenite a quello della
ferrite e vengono "congelati" in una posizione intermedia.

Dato che la martensite, in assenza di elementi di lega, si forma solo con una percentuale di carbonio
superiore allo 0,2%, sotto questo limite gli acciai praticamente non possono essere temprati, quindi non
ha senso effettuare un trattamento di bonifica, che è tanto più utile quanto più alta è la percentuale di
carbonio (in genere gli acciai destinati a questo trattamento hanno lo 0,4-0,6% di C).

Il rinvenimento dopo tempra consiste in un riscaldamento per un priodo di tempo dipendente dalle
dimensioni del pezzo da bonificare a 600°C (evitando di superare la temperatura di austenitizzazione
dell'acciaio, a 727°C), in questo modo viene creata una struttura chiamata sorbite che accomuna
un'elevata resistenza meccanica ad una tenacità accettabile.

Rinvenimento
Da Wikipedia, l'enciclopedia libera.

Il rinvenimento è un trattamento termico di un metallo eseguito al fine di ridurre gli effetti negativi
della tempra sul materiale, nel caso questo presenti eccessiva durezza e quindi fragilità.
Nel rinvenimento si riscalda a temperatura T < Ac1 sufficiente a ripristinare la diffusività di un
elemento presente in minore quantità nel metallo, in modo che tale elemento possa separarsi dalla
matrice in forma finemente dispersa.
Un'applicazione tipica è la trasformazione della martensite e dell'eventuale austenite residua per
riscaldamento di un acciaio. Gli stadi di questo processo, per un acciaio al solo carbonio, sono elencati
di seguito.

• Primo stadio 80-160°C: la martensite con C < 0,2% non ha trasformazioni di fase, ma solo un
addensamento del C presso le dislocazioni; se C > 0,2%, la martensite si porta a una concentrazione di C
dello 0,2% grazie alla precipitazione del carburo ε di composizione Fe2,4C, riducendo così le sue
distorsioni reticolari e quindi la fragilità.
• Secondo stadio 100-300°C: l'austenite residua si trasforma in bainite inferiore, con aumento del volume
dell'acciaio.
• Terzo stadio 250-400°C: la martensite con C = 0,2% e il carburo ε cominciano a trasformarsi in ferrite e
cementite, formando la troostite di rinvenimento(simile alla Bainite) dove avviene il completo
recupero dell'Austenite residua.
• Quarto stadio 400-700°C: gli sferoidi minori di cementite accrescono quelli maggiori, dando origine alla
sorbite di rinvenimento, e, continuando oltre i 600°C, la ferrite ricristallizza in cristalli equiassici: si
ottiene la perlite globulare, la struttura più stabile e lavorabile alle macchine utensili.

Per un acciaio legato si può avere un quinto stadio: per temperature di rinvenimento oltre i 500°C e
tenori elevati di elementi si ha la precipitazione di carburi dei soli elementi metallici M (ad esempio
MC o M2C), con conseguente nuovo aumento della durezza.

Esistono casi particolari in cui il rinvenimento può portare a fragilità:

• Fragilità a 250-400°C, irreversibile: ne risentono gli acciai al carbonio e quelli bassolegati


• Fragilità a 450-550°C, reversibile: è nota anche come malattia di Krupp e si ipotizza causata dalla
formazione di un precipitato ai giunti dei grani, che abbassa la coesione intercristallina.

Rinvenimento multiplo

Il trattamento di rinvenimento deve sempre essere eseguito immediatamente dopo la tempra o


addirittura prima che il pezzo si raffreddi sotto gli 80°C, così da evitare (o ridurre di molto) la
formazione delle cricche.
Lo svantaggio di questa procedura è che si rischia di stabilizzare una certa quantità di austenite non
ancora trasformata in martensite. Se però il rinvenimento è portato ad alta temperatura, per esempio
fino 500°C negli acciai rapidi, non si trasforma più l'austenite in bainite, tuttavia la si impoverisce di
carbonio, ne si innalza Ms e Mf e se ne favorisce infine la trasformazione in martensite.
Risulta quindi necessario un successivo rinvenimento, che tenacizza l'ultima martensite formatasi. Su
acciai rapidi e alto legati si può arrivare fino a quattro rinvenimenti successivi.
Computer-Aided Manufacturing
Da Wikipedia, l'enciclopedia libera.

In informatica e in ingegneria meccanica CAM è l'acronimo per l'espressione inglese "Computer-Aided


Manufacturing", che significa fabbricazione assistita da computer.

Tale espressione indica una categoria di prodotti software che analizzano un modello geometrico
bidimensionale o tridimensionale, e generano le istruzioni per una macchina utensile a controllo
numerico computerizzato (CNC) atte a produrre un manufatto avente la forma specificata nel modello.

Utilizzo di un programma di CAM


Un programma di CAM è un programma interattivo, che permette all'utente di eseguire le seguenti
operazioni:

• Caricamento di un modello geometrico da un file in un formato standard, normalmente generato da un


programma di CAD.
• Impostazione del sistema di coordinate usato dalla macchina utensile (per esempio cartesiano, cilindrico,
sferico).
• Selezione della parte di modello da lavorare.
• Impostazione dei parametri di lavorazione (raggio dell'utensile, velocità di spostamento) per ogni
porzione del modello.
• Generazione delle istruzioni per la macchina utensile, salvate in un file di testo.
• Visualizzazione o modifica della sequenza di istruzioni generate.
• Visualizzazione grafica del percorso utensile generato.
• Invio dei dati al controllo numerico della macchina utensile.

La funzione più complessa e computazionalmente più onerosa è la generazione delle istruzioni, in


quanto per determinare il percorso utensile ottimale sono necessari complessi calcoli geometrici.

Il CAD/CAM
Il modello geometrico è normalmente generato da un programma di CAD. Molti programmi integrano
la funzione di CAD con quella di CAM, nel senso che permettono all'utente sia di disegnare modelli
geometrici, che di generare le istruzioni per una macchina utensile corrispondenti a tali modelli. Questi
programmi sono detti di CAD/CAM. I programmi di CAD/CAM non hanno bisogno di usare un file di
scambio per passare il modello geometrico dalla funzione di CAD a quella di CAM.

Tipi di lavorazione
I principali tipi di lavorazione generati da un sistema di CAM sono i seguenti:

• Incisione.
• Taglio.
• Svuotamento di percorsi chiusi.
• Svuotamento di bitmap.
• Modellazione di superfici.
Incisione

L'incisione è una lavorazione in cui l'utensile penetra solo di pochi decimi di millimetro nel pezzo,
seguendo un percorso definito da linee. Ne è un tipico esempio l'incisione di targhe o di medaglie.

Il modello geometrico è costituito da spezzate aperte o chiuse, e forature. Una spezzata è una sequenza
di linee (tipicamente segmenti di retta, archi, b-spline, o bezier) in cui ogni linea inizia dove la linea
precedente finisce. Le forature sono da ritenersi spezzate particolarmente semplici, in quanto hanno un
solo punto.

Per effettuare la lavorazione, l'utensile deve, per ogni spezzata, posizionarsi rapidamente sopra il primo
punto, scendere nel pezzo, seguire la spezzata, risalire dal pezzo.

Alcune varianti sono la compensazione (o offset) e i vincoli sull'angolo di incidenza.

La compensazione consiste nel fatto che, dato che l'utensile ha un raggio non nullo, se si vuole che
l'utensile passi rasente alla spezzata, il reale percorso utensile deve avere uno scostamento rispetto al
percorso originale pari al raggio dell'utensile. Alcuni CNC hanno internamente la capacità di applicare
la compensazione del raggio utensile, altri no. Per questi ultimi è necessario che la compensazione sia
calcolata dal software di CAM.

I vincoli sull'angolo di incidenza si hanno quando la superficie da lavorare non è a quota uniforme. Per
fare in modo che l'utensile sia sempre ortogonale alla superficie da incidere, o comunque che l'angolo
di incidenza non superi una soglia definita, si deve applicare una rotazione all'utensile oppure al pezzo
da lavorare. Questo è possibile solo con macchine aventi più di tre gradi di libertà.

Taglio

Il taglio è una lavorazione in cui l'utensile penetra nel pezzo per una profondità superiore allo spessore
del pezzo, seguendo un percorso definito da linee. Ne è un tipico esempio il taglio di lenti o
mascherine.

Dal punto di vista del software CAM, incisione e taglio sono molto simili. Tuttavia, per il taglio si
possono avere due problemi:

• Se una figura chiusa contiene un'isola (per esempio la lettera "a"), si deve tagliare prima la parte interna,
e poi la parte esterna. Questo perché una figura chiusa, dopo che è stata tagliata, non è più solidale con la
macchina, e quindi non può più essere lavorata.
• Quando il taglio di una figura chiusa è quasi completato, la figura è connessa al resto del pezzo per una
porzione infinitesima. In tale frangente, le vibrazioni della lavorazione possono produrre delle
imperfezioni.

Svuotamento di percorsi chiusi


Lo svuotamento di percorsi chiusi consiste nel raggiungere con l'utensile tutti i punti interni a uno o più
percorsi chiusi. Ne è un tipico esempio la produzione di timbri da disegni eseguiti con programmi di
CAD.

Il problema è lo stesso che ha un giardiniere che deve tagliare l'erba di un prato recintato. Il diametro
dell'utensile corrisponde alla larghezza del tagliaerba.
Svuotamento di bitmap
Lo svuotamento di bitmap consiste nel raggiungere con l'utensile tutti i punti che in una matrice
rettangolare di bit (detta "bitmap") hanno valore uno (oppure zero). Ne è un tipico esempio la
produzione di timbri da disegni acquisiti tramite scanner.

Il problema è analogo a quello dello svuotamento di percorsi chiusi, con la differenza che in questo
caso la superficie da svuotare è definita da una matrice di bit invece che da entità vettoriali.

Modellazione di superfici
La modellazione di superfici consiste nello scolpire forme arbitrarie definite come superfici
parametriche. Ne è un tipico esempio la produzione di stampi.

Una superficie parametrica è una funzione reale di due variabili reali definite in intervalli.

Una possibile rappresentazione in un computer di una superficie parametrica è una matrice rettangolare
di numeri. Il numero alla colonna x della riga y rappresenta la quota che la superficie ha al punto di
coordinate (x, y). Tale istogramma bidimensionale viene comunemente chiamato DEM (Digital
Elevation Model).

Partendo da un DEM, e da un pezzo avente tipicamente la forma di un parallelepipedo, l'utensile deve


scolpire la superficie desiderata. A tal fine, la lavorazione è divisa in due fasi: sgrossatura e rifinitura.

Nella sgrossatura, si effettua uno sterrazzamento a più livelli con un utensile di grosso diametro,
ottenenendo un pezzo che somiglia a quello desiderato, ma è scalettato.

Nella rifinitura, si percorre a tappeto la superficie con un utensile di diametro fine, interpolando il
DEM.

Entropia (termodinamica)
Da Wikipedia, l'enciclopedia libera.
Lo scioglimento del ghiaccio è un classico esempio di aumento dell'entropia.

In termodinamica l'entropia è una funzione di stato che si introduce insieme al secondo principio della
termodinamica e che viene interpretata come una misura del disordine di un sistema fisico o più in
generale dell'universo. In base a questa definizione possiamo dire che quando un sistema passa da uno
stato ordinato ad uno disordinato la sua entropia aumenta.

Nel Sistema Internazionale si misura in joule su kelvin (J/K).

Storia e definizione
Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per
descrivere una caratteristica (la cui estrema generalità venne osservata per la prima volta da Sadi
Carnot nel 1824) di tutti i sistemi allora conosciuti nei quali si osservava che le trasformazioni
avvenivano invariabilmente in una direzione sola, ovvero quella verso il massimo disordine.

In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius nel suo
Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore),
pubblicato nel 1864. In tedesco, Entropie, deriva dal greco εν, "dentro", e da τρoπή, "cambiamento",
"punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava quindi
dove va a finire l'energia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra
movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande
intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento di
particelle meccaniche interne al corpo. Egli infatti la definiva come il rapporto tra la somma dei piccoli
incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante l'assorbimento del calore.

Per chiarire maggiormente il concetto di entropia possiamo presentare alcuni esempi:

• Si pensi di far cadere una gocciolina d'inchiostro in un bicchiere d'acqua: quello che si osserva
immediatamente è che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che
sarebbe uno stato completamente ordinato), l'inchiostro inizia a diffondere e, in un certo tempo, si
ottiene una miscela uniforme (stato completamente disordinato). É esperienza comune che, mentre
questo processo avviene spontaneamente, il processo inverso (separare l'acqua e l'inchiostro)
richiederebbe energia esterna.

• Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi
dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata,
ossia isolata dal resto dell'universo, le molecole saranno costrette a rimanere all'interno e non avendo
spazio (la boccetta è colma) rimarranno abbastanza ordinate (stato liquido). Nel momento in cui la
boccetta viene stappata le molecole della superficie del liquido inizieranno a staccarsi dalle altre ed
urtando casualmente tra di loro e contro le pareti della boccetta usciranno da questa disperdendosi
all'esterno (evaporazione). Dopo un certo tempo tutte le moleocole saranno uscite disperdendosi. Anche
se casualmente qualche molecola rientrerà nella boccetta il sistema complessivo è ormai disordinato e
l'energia termica che ha messo in moto il fenomeno è dispersa e quindi non più recuperabile.

Il concetto di entropia ha conosciuto grandissima popolarità nell'800 e nel '900, grazie proprio alla
grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed
essere adottato anche dalle scienze sociali, nella teoria dei segnali e nell'informatica teorica. È tuttavia
bene notare che esiste tutta una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni
caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere
profondamente riviste e non hanno più validità generale.
Definizione termodinamica
L'entropia S come funzione di stato venne introdotta nel 1864 da Rudolf Clausius nell'ambito della
termodinamica come

dove ∆Qrev è la quantità di calore assorbito in maniera reversibile dal sistema a temperatura T.

In forma differenziale, la legge si presenta così:

È importante notare come, mentre δQrev non è un differenziale esatto, dividerlo per la temperatura T lo

rende tale: è dunque il fattore d'integrazione. Occorre sottolineare che dS è un differenziale esatto
solo se è valido il secondo principio della termodinamica.

In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un
sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per trasformazioni
termodinamiche reversibili.

] Gas perfetti

Un'applicazione termodinamica basilare del concetto di entropia è quella legata alle trasformazioni di
gas perfetti.
Considerando una qualsiasi trasformazione da uno stato A ad uno B, con definite pressione, temperatura
e volume occupato, è possibile calcolare la variazione di entropia eseguendo l'integrale di Clausius

su di un qualsiasi cammino reversibile, ad esempio sulla composizione di una isocora reversibile con
una isoterma reversibile. Si ottiene (dipendentemente solo dagli stati A e B)

da cui, applicando la nozione di funzione di stato si ottiene una formulazione analitica per l'entropia in
funzione delle variabili di stato, a meno di costante additiva:

S = nCVlogT + nRlogV

Essa è equivalente, tramite l'equazione di stato dei gas perfetti, alle altre due forme, talvolta utili,
Si nota così che nelle trasformazioni adiabatiche reversibili l'entropia rimane costante.

Definizione matematica
Accanto a questa trattazione dell'entropia, ne esiste un'altra (matematica) che tratta l'entropia come una
funzione di stato della sola temperatura, ossia una funzione che dipende esclusivamente dallo stato
iniziale e dallo stato finale del sistema e non dal particolare cammino seguito (definita a meno di una
costante arbitraria; come l'energia interna, anch'essa funzione di stato).

In quanto funzione continua e monotona crescente della sola temperatura essa ammette un massimo e
un minimo assoluti (teorema di Weierstrass) cui l'universo converge con continuità (per il principio di
aumento dell'entropia).

L'aumento di temperatura è un fattore strutturale dell'universo. Impossibile è al momento quantificare


tale temperatura massima, non essendo noto un legame analitico fra le variabili entropia e temperatura,
che nell'intera teoria termodinamica (nei diagrammi T-s) si rappresentano appunto come variabili
indipendenti.

Dunque, dell'universo si conosce lo stato inziale a entropia nulla, non lo stato finale a cui converge (a
entropia e temperatura massime); la funzione entropia non dipende e non dà informazioni sul cammino
che è stato e che sarà seguito per arrivarci, ovvero non ci dice il futuro termodinamico dell'universo.
Tuttavia, è possibile inferire alcune ipotesi riguardo al destino ultimo dell'Universo da considerazioni
termodinamiche.

Tolleranza (ingegneria)
Da Wikipedia, l'enciclopedia libera.

Nel campo dell'ingegneria la tolleranza esprime la deviazione massima ammissibile di un attributo di


un oggetto rispetto ad un valore prefissato.

Rispetto al concetto di tolleranza, l'attributo in esame non viene quindi classificato come più o meno
preciso, ma piuttosto come in tolleranza (ossia rientrante nei limiti stabiliti) o fuori tolleranza (non
rientrante).

Storia

Il concetto di tolleranza nasce in pratica con la produzione in serie. Precedentemente, la pratica


consisteva nell'adattare l'attributo all'impiego (ad esempio, importava poco se un albero meccanico
avesse un diametro piuttosto che un altro, fin tanto che quell'albero poteva ruotare all'interno di una
bussola), impiegando una quantità ingente di manodopera. Nella produzione in serie, gli alberi vengono
prodotti in grande quantità, e così le bussole, ma da macchine od operai diversi; è essenziale che tutti
gli alberi possano ruotare in tutte le bussole, senza richiedere interventi ulteriori - a parte gli eventuali
errori. Di conseguenza, stabilito che il diametro del foro della bussola deve essere, poniamo, non
inferiore a 20 mm, dovrò far si che l'albero non superi, ad esempio, i 19,9 mm di diametro (per lasciare
un po' di gioco).

Porrò allora una tolleranza sul diametro dell'albero; ad esempio, stabilirò che il diametro nominale sia
19,8 mm, con una tolleranza di un decimo di millimetro in più o in meno (tolleranza facilmente
ottenibile con macchine moderne). Si scrive solitamente

Ø 19.8±0.1

Questa condizione, se rispettata, assicura la completa intercambiabilità tra i miei alberi e le mie
bussole, così da consentire una produzione nettamente più veloce ed economica.

Tolleranze dimensionali

Nel caso delle tolleranze dimensionali meccaniche, nella pratica corrente si distingue tra i vari tipi di
accoppiamento che si intende ralizzare. Per restare al caso precedente, stabilito il diametro esterno Ø
19.8±0.1 dell'albero, e ad esempio Ø 20±0.05 per la bussola, risulta che, considerando tutti i casi possibili,
il gioco minimo sarà 0.05 mm e quello massimo 0.25 mm. Un accoppiamento di questo tipo, adatto al
caso di albero rotante nella bussola, è detto libero. Se avessimo stabilito dei diametri Ø 20±0.05 e Ø
19.9±0.05, i nostro gioco varierà tra 0 e 0.2 mm: in alcuni casi, l'albero gripperebbe o comunque non
potrebbe girare nella bussola.

Sono state quindi definiti dei campi di tolleranza, definiti da lettere, e dei valori di tolleranza, definiti
da numeri. Nel caso delle tolleranze foro base (vedi sotto) a parità di diametro di foro, i campi da a a g
sono accoppiamenti liberi, quelli da i a z accoppiamenti forzati. H è utilizzato per un accoppiamento
con tolleranza (per l'albero) tutta in meno. I valori sono definiti da numeri, che indicano la tolleranza
con un valore proporzionale alla misura nominale. Ad esempio, un accoppiamento 20 h4 è di estrema
precisione, con tolleranza tutta in meno, e si può esprimere, con il vecchio sistema, come 20-0.006 se
fosse un 20 h7, sarebbe 20-0.021: il primo è ottenibile solo con una accurata rettifica, il secondo con una
buona tornitura.

Equazione di stato dei gas perfetti


Da Wikipedia, l'enciclopedia libera.

Isoterme di un gas ideale


L'equazione di stato dei gas perfetti, nota anche come legge dei gas perfetti, descrive le condizioni
fisiche di un "gas perfetto" o di un gas "ideale", correlandone le funzioni di stato: quantità di sostanza,
pressione, volume e temperatura.

La sua espressione più comune è

in cui

• p è il valore della pressione del gas;


• V è il volume occupato dal gas;
• n è il numero di moli del gas;
• R è la costante universale dei gas, il cui valore è funzione delle unità di misura adottate per esprimere le
altre grandezze nell'equazione;
• T è la temperatura assoluta del gas, generalmente espressa in kelvin.

Il valore di R nel Sistema Internazionale è 8,314472 J/(mol·K); nei calcoli si utilizza spesso anche il
valore di 0,0821 L·atm/(mol·K).

Questa equazione rappresenta una generalizzazione delle leggi empiriche osservate da Boyle (in un gas,
in condizioni di temperatura costante, il volume è inversamente proporzionale alla pressione), Charles
(in un gas a volume costante, la pressione è proporzionale alla temperatura assoluta) e Gay-Lussac (in
un gas a pressione costante, il volume è proporzionale alla temperatura assoluta), ottenibili
rispettivamente per T = costante, p = costante e V = costante.

L'equazione di stato dei gas perfetti descrive bene il comportamento dei gas reali per pressioni non
troppo elevate e per temperature non troppo vicine alla temperatura di liquefazione del gas. In questi
casi, una migliore descrizione del comportamento del gas è dato dall'equazione di stato di Van der
Waals

Formulazione alternativa (microscopica)

Spesso in meccanica statistica si preferisce utilizzare una forma alternativa per la legge che contenga il
numero di molecole di gas piuttosto che il numero di moli.

Definita la costante di Boltzmann dove è il numero di Avogadro; e osservato che


è il numero di molecole del gas si ricava:

Dimostrazione
L'equazione di stato dei gas perfetti è dimostrabile a partire dalle leggi empiriche di Boyle, Charles e
Gay-Lussac.
N.B.: Per il significato dei simboli, ove non altrimenti specificato, v. sopra

Si consideri un volume v di gas ad uno stato iniziale caratterizzato da:

Si consideri una trasformazione isobara (a pressione costante) applicata a questo volume di gas: il
volume alla fine dalla trasformazione sarà:

e la temperatura sarà t.

Se poi si fa andare il volume così ottenuto incontro ad una trasformazione isoterma otterremo:

Quindi:

Dove ha carattere di universalità ed è la costante R. Adottando questa notazione abbiamo


che:

Moltiplicando ambo i membri per n (numero di moli):

Dove nv è il volume di n moli, indicato con V. Utilizzando questa notazione otteniamo infine:
Irraggiamento termico
Da Wikipedia, l'enciclopedia libera.

L'irraggiamento è uno dei tre modi attraverso cui avviene la propagazione del calore. E’ un fenomeno
che si presenta ad ogni temperatura e interessa ogni aggregato materiale, non importa se solido, liquido
o gassoso.

La quantità di calore emessa da un corpo per irraggiamento è proporzionale a T4, cioè alla quarta
potenza della sua temperatura: perciò a basse temperature l'irraggiamento è responsabile di una
frazione trascurabile del flusso di calore rispetto alla convezione e alla conduzione, ma al crescere della
temperatura la sua importanza aumenta rapidamente fino a diventare il principale artefice della
trasmissione del calore per temperature medio-alte.

Fisicamente l'irraggiamento consiste nell'emissione di onde elettromagnetiche generate dagli atomi e


molecole eccitati dall'agitazione termica, che si diseccitano emettendo fotoni di lunghezza d'onda
proporzionale alla loro temperatura: per esempio i corpi a temperatura ambiente emettono fotoni nella
gamma degli infrarossi, che per questo sono anche detti raggi termici; corpi molto freddi irradiano
microonde (quelli vicini allo zero assoluto semplici onde radio), mentre i corpi molto caldi arrivano ad
emettere luce visibile, dapprima rossa (temperatura del cosiddetto calor rosso, circa 700 C°) poi
sempre più bianca (temperatura del calor bianco, circa 1200 C°): man mano che la temperatura
aumenta, la frequenza della luce emessa aumenta fino al bianco-azzurrino, per poi passare ai raggi
ultravioletti, e ai raggi X nel caso di plasmi stellari a temperature dell'ordine di milioni di gradi.

La temperatura di colore indicata nelle regolazioni dei monitor, degli schermi televisivi e nei profili
cromatici dei dispositivi grafici si riferisce precisamente allo spettro di radiazione emesso per
irraggiamento da un corpo nero alla temperatura specificata.

Corpo nero
Da Wikipedia, l'enciclopedia libera.

In fisica un corpo nero è un oggetto che assorbe tutta la radiazione elettromagnetica incidente (e quindi
non ne riflette). Nonostante il nome, il corpo nero irradia comunque, e deve il suo nome solo
all'assenza di riflessione. Lo spettro (intensità della radiazione emessa ad ogni lunghezza d'onda) di un
corpo nero è caratteristico, e dipende unicamente dalla sua temperatura.

• La luce emessa da un corpo nero viene detta radiazione del corpo nero e la densità di energia irradiata
spettro di corpo nero.
• La differenza tra lo spettro di un oggetto e quello di un corpo nero ideale, permette di individuare la
composizione chimica di tale oggetto.

Un corpo nero è un radiatore ideale, emettendo il maggior flusso possibile per unità di superficie, ad
ogni lunghezza d'onda per ogni data temperatura. Un corpo nero inoltre, assorbe tutta l'energia radiante
incidente su di esso: ovvero nessuna energia viene riflessa o trasmessa.

Il termine "corpo nero" venne introdotto da Gustav Kirchhoff nel 1862. Lo spettro di un corpo nero
venne correttamente interpretato per la prima volta da Max Planck, il quale dovette assumere che la
radiazione elettromagnetica può propagarsi solo in pacchetti discreti, o quanti, la cui energia era
proporzionale alla frequenza dell'onda elettromagnetica.

L'intensità della radiazione di un corpo nero alla temperatura T è data dalla legge della radiazione di
Planck:

dove I(ν)δν è la quantità di energia per unità di superficie per unità di tempo per unità di angolo solido,
emessa nell'intervallo di frequenze copreso tra ν e ν+δν; h è la costante di Planck, c è la velocità della
luce e k è la costante di Boltzmann.

L'andamento delle curve di Planck per il corpo nero. In ascissa la lunghezza d'onda, in ordinata l'intensità.

La lunghezza d'onda alla quale l'intensità della radiazione emessa dal corpo nero massima è data dalla
legge di Wien ( ), e la potenza totale emessa per unità di
superficie (appunto, l'intensità) è data dalla legge di Stefan-Boltzmann I = σT4 (con
). Entrambe queste leggi sono deducibili dalla legge
dell'irraggiamento di Planck, la prima cercandone il massimo in termini della lunghezza d'onda, la
seconda integrando su tutte le frequenze.

In laboratorio, l'oggetto più simile a un corpo nero è un un corpo cavo sul quale è praticato un piccolo
foro rispetto alla superficie interna, quest'ultima nera e ruvida. In astronomia alcuni oggetti come le
stelle sono approssimativamente dei corpi neri. Uno spettro da corpo nero quasi perfetto viene esibito
dalla radiazione cosmica di fondo, la cui temperatura è di circa 2.7 kelvin.

È importante ricordare che un qualunque corpo che si trovi a temperatura K è sorgente di


radiazione elettromagnetica dovuta al moto di agitazione termica degli atomi che lo compongono.
L'emissione di energia e.m. avviene a spese dell'energia termica. Dunque all'interno della cavità sarà
sempre presente una radiazione termica, e nel caso in cui la temperatura rimanga costante (condizioni
di equilibrio termodinamico) la distribuzione di radiazione viene detta spettro di corpo nero.

Legge di Stefan - Boltzmann


La legge di Stefan - Boltzmann riguarda l'intensità di radiazione emessa, quindi iniziamo col calcolarci
l'espressione della densità di energia integrando la densità spettrale di energia su tutta la banda di
frequenze:

L'integrale che compare nella precedente è noto e vale 6.4938. Quindi

La densità di energia è chiaramente una energia per unità di volume. L'intensità è una energia per unità
di superficie e di tempo, quindi in pratica una densità per una velocità. Segue che la dipendenza da T
non cambia e si può scrivere

F(T) = σT4

la precedente esprime la legge di Stefan - Boltzmann cercata. F è detta emittanza di radiazione, e σ è la


costante di Stefan - Boltzmann che vale

Si noti che l'intensità di emissione va con la quarta potenza della temperatura.


Costante di Boltzmann
Da Wikipedia, l'enciclopedia libera.

La costante di Boltzmann, kB, fu introdotta da Planck, che la chiamò così in onore di Ludwig
Boltzmann. È una grandezza che si incontra spessissimo in meccanica statistica ed è relazionata ad altre
due costanti di grande importanza quali la costante universale dei gas, R, e il numero di Avogadro, NA,
dalla seguente espressione:

Quindi le unità di misura con cui viene espressa nel sistema internazionale sono i J/K, le stesse unità
dell'entropia e della capacità termica. Il valore raccomandato dal CODATA nel 2002 è

il valore riportato tra parentesi sta a indicare la deviazione standard.

Val la pena segnalare due casi in cui compare questa costante, nel primo si mostra come permetta di
relazionare l'energia con la temperatura, mentre nel secondo ci si limita a segnalare la definizione
statistica di entropia.

Il teorema di equipartizione dell'energia afferma che se i gradi di libertà di una molecola (per molecola
si intende un generico sistema microscopico) sono f, allora in un sistema macroscopico costituito da tali
molecole, in condizioni di equilibrio alla temperatura T, l'energia media delle molecole è data da

Per esempio in un gas atomico alla temperatura T, l'energia media degli atomi è

dove:

è il valore medio dell'energia cinetica di una molecola di gas, e

T è la temperatura assoluta.

poiché in quel caso gli unici gradi di libertà saranno i tre traslazionali. Questa stessa espressione può
essere ricavata dalla teoria cinetica dei gas.
Si nota quindi che la costante di Boltzmann è la costante di proporzionalità tra la temperatura e
l'energia media di una molecola. Questo teorema è valido solo nei casi in cui non vi è quantizzazione
dell'energia o in quelli in cui è trascurabile, cioè quando la separazione dei livelli energetici è
notevolmente inferiore a kT.
Questa formula deriva immediatamente dall'equazione di stato dei gas perfetti

dove N è il numero delle molecole, e dalla relazione

A sua volta, quest'ultima equazione si giustifica come segue.

La pressione P esercitata da un gas su una parete di un recipente cubico di lato l è data da

dove fk è la forza esercitata da una molecola che urta la parete


subendo un cambiamento di impulso ∆pk in un tempo ∆t.

Siano mk,vk la massa e la velocità della generica molecola. Allora e .


Sostituendo questi valori nell'uima espressione si ha la formula che si voleva ricavare, dato che

In meccanica statistica l'entropia viene definita come il logaritmo naturale di Ω, il numero di microstati
coerenti con le condizioni al contorno del sistema:

La costante di proporzionalità è ancora k. Questa equazione, che relaziona i dettagli microscopici del
sistema con il suo stato macroscopico, è l'idea centrale della meccanica statistica.
Fu proprio Ludwig Boltzmann a proporla e oggi compare sulla sua tomba come epitaffio.

Legge di Stefan-Boltzmann
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca

La legge di Stefan-Boltzmann, chiamata a volte legge di Boltzmann o anche legge di Stefan,


stabilisce che l'energia irradiata da un corpo nero è proporzionale alla quarta potenza della sua
temperatura:
dove E è l'energia, T la temperatura e σ è la costante di Stefan-Boltzmann che vale:

La legge, in questo enunciato, è valida solo per corpi neri ideali.

La legge fu scoperta sperimentalmente da Jožef Stefan (1835-1893) nel 1879 e spiegata teoricamente,
usando la termodinamica, da Ludwig Boltzmann (1844-1906) nel 1884.

Calore

Il calore è la forma macroscopica nella quale l'energia passa da un sistema fisico ad un altro
unicamente a causa di differenze di temperatura.

Secondo l'interpretazione corrente, la temperatura di un sistema costituito da un grande numero di


soggetti costituenti è in generale proporzionale all'energia media per soggetto: il corrispondente flusso
di energia tra due sistemi a diversa temperatura è allora attribuibile alle innumerevoli interazioni
(casuali e non controllabili) tra i soggetti costituenti i due sistemi. In ciascuna di tali interazioni, che di
solito avvengono a coppie, l'energia dei soggetti interagenti si conserva complessivamente ma si
ripartisce in modo da aumentare nei soggetti meno energetici e diminuire in quelli più energetici.

Si può prendere come corpo di riferimento una massa di acqua e definire il calore assorbito o ceduto
come:

dove è la temperatura iniziale dell'acqua, quella finale e , detto calore specifico, assume un
valore arbitrario nel caso dell'acqua.

Quando la massa è misurata in grammi e la temperatura in gradi centigradi il calore specifico


viene posto pari a 1 e il calore viene misurato in calorie, come se fosse una nuova grandezza
fondamentale.

In quanto energia, il calore si misura nel Sistema Internazionale in joule. Nella pratica viene tuttavia
ancora spesso usata come unità di misura la caloria. A volte si utilizzando anche unità a carattere
meramente tecnico quali kWh o BTU.
È importante ricordare che la temperatura non è assolutamente la misura del calore. Possono esistere
corpi ad alto calore ma bassa temperatura o viceversa: per esempio uno spillo arroventato è un corpo a
relativamente alta temperatura ma basso calore, mentre una bacinella di acqua tiepida è a bassa
temperatura ma relativamente alto calore.

Alcune equivalenze:

• 1 cal = 4,186 J
• 1 Joule = 0,2388 cal
• 1 CAL = 1 kcal = 1000 cal

Il passaggio (propagazione) del calore tra sistemi può avvenire:


• per conduzione: in uno stesso corpo o fra corpi a contatto si ha una trasmissione, per urti, di energia
cinetica tra le molecole appartenenti a zone limitrofe del materiale. Nella conduzione viene trasferita
energia attraverso la materia, ma senza movimento macroscopico di quest'ultima. Effettivamente, a livello
microscopico, il calore è quella porzione di lavoro che non produce spostamenti del centro di massa del sistema: gli
urti con le molecole di un gas possono spostare un pistone (lavoro termodinamico propriamente detto) e nel
contempo aumentare l'energia cinetica delle sue molecole (calore); l'energia del pistone varia quindi come
. In meccanica classica (il pistone viene considerato come un insieme di circa punti
materiali) i due concetti non sono scissi, e vanno sotto il solo nome di lavoro;

• per avvezione e in particolare per convezione: in un fluido in movimento, porzioni del fluido possono
scaldarsi o raffreddarsi per conduzione a contatto di superfici esterne e poi, nel corso del loro moto
(spesso a carattere turbolento), trasferire, sempre per conduzione l'energia così scambiata ad altre
superfici, dando così luogo ad un trasferimento di calore per avvezione. In un campo gravitazionale
quale quello terrestre della forza peso, tale modalità di trasferimento di calore, detta convezione libera,
ed è dovuta al naturale prodursi di correnti avvettive, calde verso l'alto e fredde verso il basso, dovute a
diversità di temperatura e quindi di densità delle regioni di fluido coinvolte nel fenomeno, rispetto a
quelle del fluido circostante;

• per irraggiamento: tra due sistemi la trasmissione di calore avviene (a distanza, anche nel vuoto) per
emissione, propagazione e assorbimento di onde elettromagnetiche: anche in questo caso il corpo a
temperatura inferiore si riscalda e quello a temperatura superiore si raffredda.

Nella pratica tecnica e nell'impiantistica in genere lo scambio di calore senza mescolamento tra fluidi
diversi avviene in dispositivi appositamente progettati chiamati appunto scambiatori di calore.

Fra il calore specifico a volume costante e il calore specifico a pressione costante, per un gas perfetto
esiste la relazione del dottor Mayer:

, dove

è la costante di stato dei gas perfetti.


Convezione
Da Wikipedia, l'enciclopedia libera.

Le frecce indicano il moto convettivo dell'aria

La convezione è uno dei tre modi di condurre il calore. Si ha quando un fluido (come l'acqua o l'aria)
entra in contatto con un corpo la cui temperatura è maggiore di quella del fluido stesso posto al di sotto.
Aumentando di temperatura, il fluido a contatto con l'oggetto si espande e diminuisce di densità,
generando moti convettivi in cui il fluido caldo sale verso l'alto e quello freddo scende verso il basso
(convezione naturale).

Consideriamo un sistema A in equilibrio termodinamico almeno locale. In A, allora, sarà definita la


distribuzione di temperatura T(x,y,z,t) che supporremo differenziabile. Nell'intorno di ciascun punto di
A sono definiti T e . Sia S una superficie generica situata entro il nostro sistema A. Se la
temperatura in A non è uniforme, la superficie S sarà attraversata da una potenza termica dovuta al
gradiente di temperatura. Il fenomeno si chiama trasmissione del calore. Suddividiamo il sistema A in
sottosistemi infinitesimi. Se tali sottosistemi sono in moto relativo la trasmissione del calore è detta
convezione.

Potenza termica scambiata fra una parete solida di confine e il


fluido
La potenza termica scambiata fra una parete solida di confine e il fluido può essere calcolata attraverso
la legge di Fourier applicata alla parete:

Q= dove è il versore normale all'areola infinitesima ds.


Per calcolare la potenza termica scambiata Q, è necessario conoscere la distribuzione di temperatura
nel fluido e per determinare quest'ultima è necessario risolvere il seguente sistema di equazioni
differenziali:

dove ρ è la densità del fluido, è il vettore velocità del fluido, g è l'accelerazione di gravità e α è la
diffusività termica del fluido in questione.

La prima è l'equazione di continuità e costituisce un bilancio locale di massa, la seconda è l'equazione

di Navier e costituisce un bilancio locale della quantità di moto (si noti che con la scrittura si suole
indicare la derivata sostanziale del vettore u), la terza è l'equazione di Fourier estesa alla convezione.

Qualora le differenze di densitè dovute a differenze di temperatura nel fluido hanno un effetto
trascurabile sul moto si parla di convezione forzata. In questo caso il moto è dovuto a cause esterne
quali ventilatori, pompe o in generale differenze di pressione generate fuori dal dominio di studio. In
questo caso è possibile porre la densità del fluido costante e risolvere così le prime due eqauazioni
del sistema succitato e poi la terza.

Se, al contrario, il moto è causato solo da differnze di densità dovute a differenze di temperatura, si
parla di convezione naturale.

Un terzo caso è quello di convezione mista che, come il nome suggerisce, il moto è dovuto sia a
differze di densità dovute a differenze di temperatura che a cause esterne.

Nei casi di convezione naturale o mista non è possibile porre la densità ρ del fluido costante ed è
necessario risolvere simultaneamente le tre eqazioni differenziali scritte.

Numero di Nusselt
Da Wikipedia, l'enciclopedia libera.

Il numero di Nusselt (Nu) è un gruppo adimensionale utilizzato nello studio dello scambio termico per
convezione ed è definito da:
dove:

• L = dimensione caratteristica
• kf = conducibilità termica del fluido
• h = coefficiente di scambio termico convettivo

E' di particolare importanza nei problemi di convezione termica, in quanto la sua determinazione
permette di conoscere il coefficiente di scambio termico convettivo fra il fluido e la parete.

Generalmente è considerato funzione del numero di Reynolds e del numero di Prandtl, a meno di un
coefficiente C e degli esponenti n ed m a cui sono elevati gli altri due gruppi adimensionali.

Numero di Prandtl
Da Wikipedia, l'enciclopedia libera.

Il Numero di Prandtl (Pr) è un gruppo adimensionale utilizzato nei problemi di fluidodinamica e


termodinamica relativi allo scambio termico per convezione ed è definito come segue:

in cui (relativamente al fluido in esame):

• µ = viscosità dinamica
• c = calore specifico
• λ = conducibilità termica

Permette di misurare l'importanza relativa degli effetti viscosi rispetto alla diffusività termica.

Valori tipici del numero di Prandtl sono:

• circa 0.7 per l'aria e la maggior parte dei gas;


• tra 100 e 40,000 nel caso degli olii motore;
• circa 0.015 per il mercurio.

Deve il suo nome a quello del fisico tedesco Ludwig Prandtl


Conduzione termica
Da Wikipedia, l'enciclopedia libera.

Trasmissione del calore attraverso parete

Per conduzione termica si intende la trasmissione di calore che avviene in un mezzo solido, liquido o
gassoso dalle regioni a più alta temperatura verso quelle con temperatura minore per contatto
molecolare diretto (le altre modalità di passaggio - o trasferimento - del calore sono l'irraggiamento e la
convezione). Il principio alla base della conduzione è diverso a seconda della struttura fisica del corpo:
se la conduzione termica avviene nei gas è dovuta alla diffusione atomica e molecolare, se invece
avviene nei liquidi e nei solidi è a causa di onde elastiche; nei materiali metallici il fenomeno è
principalmente dovuto alla diffusione degli elettroni liberi dato che è trascurabile il contributo
dell'oscillazione elastica del reticolo cristallino. Lo studio delle caratteristiche della conduzione
richiede in primo luogo la conoscenza del campo di temperatura all'interno del corpo: T=f(x,y,z,t)
Quando il campo termico è indipendente dal tempo la conduzione avviene in regime stazionario, se
invece la temperatura è funzione anche del tempo il regime si dice transitorio.

Conduzione nei solidi


Se si riscalda un'estremità di un solido le cui dimensioni sono S la superficie di base e L la sua
lunghezza, si viene a formare una differenza di temperatura finita, diciamo T2 > T1, tra un punto e un
altro del solido. Il calore si diffonde entro il corpo nella direzione ove la temperatura è minore per il
Principio zero della termodinamica, così:

dove K è la costante di conducibilità termica del materiale. Il valore di K dipende dal materiale ma
soprattutto dal tipo di struttura del materiale, cioè dalla forma del reticolo cristallino.
L'equazione fondamentale che regola la conduzione è l'equazione differenziale alle derivate parziali,
detta anche equazione del calore o di Fourier:

dove rappresenta il coefficiente di diffusività termica, ρ la densità e c il calore specifico .

Riportiamo due formule fondamentali:

• Fra due superfici piane e parallele AB e CD a temperature t1 > t2, distanti l, di un corpo solido, con
scambio continuo di calore, in regime stazionario, le temperature secondo la retta normale comune alle
due pareti, decrescono con legge lineare.

• Fra le due pareti di superficie S nell'unità di tempo avviene un passaggio di calore dato dalla relazione:

Nella quale il coefficiente K è detto coefficiente di conducibilità del conduttore. Siccome, ponendo nella
formula precedente: S = 1; t1 — t2 = 1° C; 1=1, si ha Q = K, si giunge alla conclusione che il coefficiente
di conducibilità esprime la quantità di calore che, nell'unità di tempo, passa dalla faccia di un cubo di
spigolo unitario a quella opposta, quando la differenza delle temperature fra le due facce è di 1° C . Se si
misura Q in Calorie, S in metri quadrati e l in metri, il valore del coefficiente K risulta misurato in:

Esempio
Mettendo sopra una fiamma l'estremità di una sbarra metallica, dopo qualche tempo anche l'altra
estremità si scalda e può scottare, cioè il calore somministrato dalla sorgente riscalda le molecole della
parte a contatto le quali si muovono oscillando con maggior velocità e perciò vanno ad urtare con
maggior energia le molecole vicine; queste a loro volta urtano le altre successive e così, a poco a poco,
tutta la sbarra si riscalda, senza notevole spostamento di ciascuna molecola che resta ad occupare
sempre la stessa posizione media originaria. Così nella conduzione non si ha trasporto di materia, ma
solo trasmissione di urti molecolari.

Ripetendo l'esperienza con un tubo di vetro si osserva invece che un punto può diventare rosso, mentre
a qualche centimetro di distanza si avverte solo un debole aumento di temperatura, cioè il vetro
conduce il calore meno bene del metallo. Il miglior conduttore di calore è l'argento.

Sono buoni conduttori di calore tutti i metalli, ma non tutti lo trasmettono egualmente bene. Per
esempio, il rame conduce il calore meglio del ferro. Questo fatto si prova riscaldando alle estremità due
sbarre, una di ferro e l'altra di rame, che portano all'estremità opposta una pallina fissata con una goccia
di cera: la sbarra di rame lascia cadere la pallina molto prima della sbarra di ferro. Sono cattivi
conduttori del calore tutti i metalloidi, il vetro, il legno, il sughero, ecc.
È importante notare fin d'ora che il diverso grado di conducibilità dei metalli corrisponde per ordine
alla diversa conducibilità della corrente elettrica. Il fatto non è casuale, ma dipende dalla natura stessa
del fenomeno perché l'elettromagnetismo ci dice che nella conducibilità del calore sono strettamente
interessati non solo le molecole, ma anche alcuni corpuscoli elettrizzati (elettroni) che le costituiscono.

Exergia
Da Wikipedia, l'enciclopedia libera.

L’exergia è una definizione usata in termodinamica per indicare la quantità di energia disponibile (o
energia utilizzabile) di una trasformazione. La trasformazione comporta un salto energetico mediante il
quale è possibile scambiare lavoro o calore.

L’exergia è data dalla differenza tra l’energia e l’anergia (energia non più utilizzabile), ed è data dalla
formula Ex=En-TdS con Ex= exergia En=energia T=temperatura e dS entropia generata.

L’exergia non è una grandezza di stato del sistema termodinamico (come invece lo sono energia
interna, entalpia ed entropia), in quanto è una coproprietà del sistema e dell'ambiente di riferimento: da
qui la necessità di definire tale ambiente (temperatura, pressione, composizione chimica..)

Ad esempio se confrontiamo la quantità di energia consumata per riscaldare l’acqua di una tazza di te
80°C o di una vasca d’acqua per il bagno a 20°C, a parità di energia fornita, l’anergia (energia dispersa)
per riscaldare l’acqua della tazza di te è maggiore perché maggiore è la temperatura a cui avviene la
trasformazione, quindi l’exergia (energia utile) per riscaldare la tazza è minore. La maggior parte
dell’energia fornita viene dispersa sotto forma di entropia. Viceversa per l’acqua della vasca.

Questa necessità nasce dal fatto che, a causa di quanto postulato dal secondo principio della
termodinamica, non tutta l’energia disponibile sotto forma ad esempio di calore può essere trasformata
in lavoro meccanico utile a causa della presenza di irreversibilità nei processi di trasformazioni che
dissipano la possibilità di ottenere lavoro meccanico: si tratta ad esempio dei fenomeni di attrito,
dell’effetto Joule ecc.

Ad esempio in un ciclo di Carnot, date due sorgenti a temperatura prestabilita, si ha un limite massimo
del rendimento di lavoro meccanico ottenibile che dipende solo dalle temperature stesse: il resto del
calore è appunto dissipato nella trasformazione.

In ogni processo naturale non vi è tanto perdita di energia (ciò andrebbe contro quanto postulato dal
primo principio della termodinamica), quanto piuttosto di degradazione dell’energia da exergia ad
anergia, cioè energia dalla quale non è ottenibile lavoro meccanico. Si tratta questo di un processo
irreversibile.

In base a quanto detto finora si può rivedere in questi termine la formulazione dei primi due principi
della termodinamica:

• Primo principio della termodinamica: in ogni processo si mantiene costante la somma di exergia ed
anergia.
• Secondo principio della termodinamica: in ogni processo reversibile si mantiene costante l’exergia; in
ogni processo irreversibile una certa quantità di exergia si trasforma irreversibilmente in anergia.
Effetto Venturi
Da Wikipedia, l'enciclopedia libera.

L'effetto Venturi (o paradosso idrodinamico) è il fenomeno fisico, scoperto e studiato dal fisico
Giovanni Battista Venturi, per cui la pressione di una corrente fluida aumenta con il diminuire della
velocità.

È possibile studiare la variazione di pressione di un liquido in un condotto, inserendo dei tubi


manometrici. L'esperimento dimostra che il liquido raggiunge nei tubi altezze diverse: minore dove la
sezione si rimpicciolisce (in cui aumenta la velocità) e maggiore quando la sezione si allarga (ovvero
quando la velocità diminuisce). Dato che la pressione del liquido aumenta all'aumentare dell'altezza
raggiunta dal liquido nei tubi manometrici, è possibile dire che ad un aumento della velocità
corrisponde una diminuzione della pressione e viceversa, cioè all'aumento della pressione corrisponde
una diminuzione della velocità.

Con esperimenti appropriati, è possibile notare lo stesso fenomeno nei gas.

Formula

con ρ=densità; p=pressione; v=velocità del liquido

Perché viene chiamato paradosso idrodinamico?

Effetto Venturi

L'Effetto Venturi viene anche chiamato paradosso idrodinamico poiché si può pensare che la pressione
aumenti in corrispondenza delle strozzature; tuttavia, per la legge della portata, la velocità aumenta in
corrispondenza delle strozzature. Quindi se abbiamo un tubo che finisce contro una piastra come in
figura e il fluido ha una pressione leggermente superiore alla pressione atmosferica, l'aumento di
velocità che la strozzatura crea tra tubo e piastra farà aumentare la velocità a scapito della pressione del
fluido. Se la pressione scende al di sotto della pressione atmosferica, la piastra tenderà a chiudere il
tubo anziché volare via. Da questo nasce il paradosso idrodinamico che è una conseguenza della Legge
di Bernoulli.
Resistenza meccanica
Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento da Resistenza dei materiali)

La resistenza meccanica è la capacità dei materiali di resistere a forze statiche esterne, tendenti a
modificarne la forma e la dimensione. La resistenza meccanica dei materiali ai vari tipi di
sollecitazione statica può essere misurata con prove specifiche di compressione, torsione, flessione,
taglio e trazione.

Compressione (meccanica)
Da Wikipedia, l'enciclopedia libera.

In meccanica, la compressione è uno degli sforzi elementari cui può essere sottoposto un corpo,
insieme alla trazione, la flessione, il taglio e la torsione.

Per semplificare, si può dire che un corpo è soggetto a compressione quando su di esso agisce un
sistema di forze convergenti.

In una generica sezione di una trave soggetta a compressione la tensione unitaria si calcola con la

relazione , in cui:

• σ è la sollecitazione unitaria (N/mm2);


• N è lo sforzo di compressione (N)
• A è l'area della sezione trasversale della trave (mm2).

Torsione
Da Wikipedia, l'enciclopedia libera.

La torsione è uno degli sforzi elementari cui può essere soggetto un corpo, insieme alla compressione,
la trazione, la flessione e il taglio. La sollecitazione che lo provoca è detta momento torcente.

La soluzione del problema della torsione è esatta per travi (o alberi ai quali spesso la letteratura
scientifica americana si riferisce) a sezione circolare (piena o cava) mentre sono necessarie delle
approssimazioni per le sezioni cave a parete sottile, rettangolari e di conseguenza quelle composte da
rettangoli sottili (come i classici profilati in acciaio).

Soluzioni analitiche
Asta circolare sottoposta a momento torcente Z

L'azione del momento torcente si traduce in un insieme di sforzi elementari che prendono il nome di
tensioni tangenziali τ applicate ad aree elementari che generano un momento equivalente all'azione a
cui la sezione è localmente soggetta.

• Mt : il momento torcente
• τ : tensione tangenziale
• ρ : la distanza dell'area elementare dal centro di torsione
• dA : area elementare su cui agisce la tensione tangenziale
• A : area della sezione considerata

Questa relazione deve essere soddisfatta in qualsiasi sezione, tuttavia non descrive la distribuzione
delle tensioni per la quale è necessaria l'analisi delle deformazioni.

Inoltre per equilibrio esisteranno delle tensioni anche lungo l'asse della trave poiché per solidi continui
non può esserci scorrimento relativo delle fibre parallele che compongono l'asta.

Ovviamente le soluzioni trovate valgono per il campo elastico del materiale nel quale valgono le
relazioni di proporzionalità sollecitazioni-deformazioni e il principio di sovrapposizione degli effetti.

Barre a sezione circolare

Per le barre a sezione circolare si può determinare una soluzione esatta al problema dell'espressione
dello sforzo tangenziale rispetto alla sollecitazione applicata.

La loro assial-simmetria e la condizione di continuità del solido (nè rottura, nè compenetrazione di


materiale) garantisce l'impossibilità di ingobbamenti o distorsioni della sezione; si hanno quindi solo
semplici rotazioni attorno all'asse della trave degli infiniti dischi.

Quando viene applicata la torsione la sezione ruoterà di un angolo φ e contemporaneamente la trave si


distorcerà in modo che le rette parallele all'asse formeranno un angolo γ. Questi due angoli condividono
lo stesso arco di cerchio; sia quindi L la lunghezza della trave e ρ il raggio della sezione, è valida la

relazione γL = φρ ovvero . E' interessante notare l'analogia con la flessione semplice


( ) nella quale la deformazione longitudinale è proporzionale alla distanza dal baricentro a
meno della curvatura (qui invece espressa come gradiente dell'angolo di rotazione).
Distribuzione delle tensioni tangenziali

Dalla relazione si evince che la distorsione della trave è la stessa per tutti i punti equidistanti dall'asse e
cresce linearmente con essa.

Si consideri ora la relazione costitutiva . Sostituendola nella precedente si ha che il


diagramma delle tensioni è identico a quello delle distorsioni scalato del modulo di elasticità
tangenziale.

Con ρ = c, ovvero alla distanza massima dal centro della sezione, si ha - usando la proporzionalità -

. Si richiami ora la relazione generale del momento torcente:

ovvero dove J è il momento d'inerzia polare (definito come e pari alla


somma dei momenti di inerzia intorno ai due assi principali J = Ix + Iy).

Invertendo la relazione e ricordando quella precedente di proporzionalità, si ricava la soluzione esatta


del problema:

in forte analogia con il criterio di Navier per la flessione semplice: .

Analogamente si può ricavare l'angolo di torsione ricordando che e . Si

ha quindi . Tramite l'angolo è possibile determinare il modulo di resistenza al taglio G con


delle macchine apposite che su un provino cilindrico inducono una torsione via via crescente fino al
punto di snervamento .
Sezioni piene

Per le sezioni piene il momento d'inerzia polare è dato da .

Sezioni cave

Valgono le considerazioni fatte in precedenza e il momento d'inerzia polare è dato da

Poiché nelle sezioni più comunemente usate lo spessore della lamina è molto piccolo si può utilizzare
la formula approssimata (con Cm raggio medio tra quello esterno e interno e t spessore
della lamina) e considerare la distribuzione delle τ uniforme lungo lo spessore e pari al valore medio

. Si ottiene quindi la comoda relazione:

Barre a sezione cava di forma qualunque

La soluzione approssimata dei tubolari può essere estesa a barre a sezione cava di forma qualunque
purché lo spessore sia di dimensioni trascurabili rispetto alle restanti dell'elemento.

Si avrà che con:

• l : lunghezza del "circuito" costituito dal perimetro della sezione (considerando il raggio medio)
• t(s) : spessore della barra che può variare a seconda dell'ascissa curvilinea s
• p : braccio della forza τ t dS rispetto al baricentro della sezione

Si pensi ora al caso analogo in idraulica di un canale chiuso nel quale circola un fluido incomprimibile.
Per continuità la portata in due sezioni qualsiasi del circuito deve essere la stessa, ovvero il prodotto
"quantità" per "area" è costante. Idem in questo caso dove il cosiddetto flusso di taglio deve essere
costante, ovvero e quindi è costante.

Sostituendo nella relazione del momento torcente si ha . La funzione integranda


calcolata in tutto il circuito è equivalente al doppio dell'area della sezione, pertanto si ottiene la
relazione approssimata precedentemente trovata per le sezioni circolari cave:

L'angolo di torsione è esprimibile da:


con Am : area ottenuta considerando la linea media dello spessore t.

Barre a sezione rettangolare (prismi a sezione non circolare)

In questo caso cade l'ipotesi precedente di assial-simmetria pertanto non potranno essere applicate le
relazioni dimostrate. Per i prismi a sezione non circolare infatti la tersione porta all'ingobbamento della
sezione la quale - nella rotazione - cambia aspetto (per il quadrato si ha ovviamente la situazione
invariata per rotazioni di 90° o 180°).

Nelle strutture isostatiche le travi sono libere di ingobbarsi; in quelle iperstatiche invece l'ulteriore
vincolo blocca questo fenomeno quindi insieme alle sollecitazioni tangenziali nasceranno delle
sollecitazioni σ.

Si considerino le sezioni rettangolari. In virtù di quanto detto prima le tensioni non possono più variare
linearmente nella sezione.

Le τ saranno nulle solo negli angoli della sezione. Si consideri infatti un parallelepipedo infinitesimo
sullo spigolo di una barra a sezione quadrata sottoposta a torsione. Per equilibrio con l'esterno
(sollecitazioni nulle sulla frontiera) anche le deformazioni saranno nulle. Allontanandoci queste
cresceranno fino al massimo valore nella linea di mezzeria della barra.

Per una risoluzione approssimata del problema si consideri una sezione rettangolare allungata; per
effetto della torsione sulle pareti nascerà un "circuito" di tensioni analogo alla circolazione di un fluido
(nella parte di mezzo si avrà la "calma"). Per continuità il prodotto delle tensioni per il proprio braccio
è costante, quindi le tensioni massime si hanno sulle pareti più lunghe. Si applica l'equilibrio tra il
momento torcente e la distribuzione delle tensioni:

ovvero la τ sul bordo più lungo porta metà del momento. Nell'equilibrio la forza [F] è data dalla
risultante della distribuzione triangolare delle τ lungo la sezione considerando sia la parte inferiore che
quella superiore (2). Sia a il bordo più lungo e b quello più corto. Si ricava:

e quindi .

Nei calcoli è sovente l'uso della relazione con c1 valore che dipende dal rapporto tra a e b.

L'angolo di torsione è pari a con c2 valore che dipende dal rapporto tra a e b.
Tabella dei coefficienti c1 e c2 per barre rettangolari:

a/b c1 c2

1 0.208 0.1406

1.2 0.219 0.1661

1.5 0.231 0.1958

2 0.246 0.229

2.5 0.248 0.249

3 0.267 0.263

4 0.282 0.281

5 0.291 0.291

10 0.312 0.312

∞ 0.333 0.333

Per a/b > 5 i due coefficienti sono uguali e si può comunque approssimarli a 1/3.

Sezioni composte

Nel caso di sezioni aperte composte (come i comuni profilati usati per le travi quali IPE o HE) si ha un
problema internamente iperstatico.

Il momento torcente che viene applicato viene assorbito dalle sezioni presenti: . Per
congruenza tutte le sezioni devono ruotare dello stesso angolo . Per sezioni rettangolari si ha

. quindi sostituendo . Si può quindi calcolare il


momento torcente su ogni sezione rettangolare:

e quindi di conseguenza la tensione che singolarmente agisce.


Efficienza delle sezioni a torsione
Le sezioni che meglio sopportano la torsione sono strutture tubolari, cioe' aventi sezione con cavita'
centrale e massa concentrata sul diametro esterno; ciò é giustificato dalla variazione lineare delle
tensioni precedentemente descritta.

Flessione
Da Wikipedia, l'enciclopedia libera.

La flessione è uno degli sforzi elementari cui può essere soggetto un corpo, insieme alla compressione,
la trazione, il taglio e la torsione. La sollecitazione che la provoca è detta momento flettente.

Una trave prima e dopo l'applicazione di una forza

Per semplicità, si può dire che un corpo è soggetto ad uno sforzo di flessione quando, per effetto dei
vincoli cui è sottoposto, reagisce, opponendosi, ad un sistema di forze ad esso applicate che
tenderebbero a farlo ruotare attorno ad un proprio punto.

Nella pratica una trave è sollecitata a flessione quando è sottoposta ad un sistema di carichi che
possiede una componente perpendicolare all'asse longitudinale, generando un momento flettente che
provoca l'incurvatura della trave stessa.

Nella trave sottoposta a flessione nascono delle tensioni unitarie di trazione e compressione, idealmente
separate da uno strato di fibre detto "asse neutro" (x) che non subisce alcun allungamento o
accorciamento.

In una generica sezione di una trave soggetta a flessione la tensione unitaria si calcola con la relazione:

• σ è la sollecitazione unitaria (N/mm2);


• M è il momento flettente (Nmm)
• y è la distanza di un'area elementare dall'asse neutro (mm);
• J è il momento d'inerzia rispetto all'asse neutro (mm4)
Taglio
Da Wikipedia, l'enciclopedia libera.

Il taglio è uno degli sforzi elementari cui può essere soggetto un corpo, insieme alla compressione, la
trazione, la flessione e la torsione. La sollecitazione che lo provoca è detta sforzo tagliante.

Una trave prima e dopo l'applicazione di una forza

Flessione e taglio sono spesso sollecitazioni collegate fra loro, e matematicamente correlate mediante
derivata prima.

• M è il momento flettente (Nmm)


• z è la lunghezza del concio della trave (mm);

Lo sforzo di taglio puro, applicato su una trave, può essere rappresentato con due forze di direzione
verticale uguali in modulo, con punti di applicazione molto vicini tra loro. La flessione è pressoché
annullata dal fatto che il braccio di leva tra le due forze è quasi nullo. La deformazione di tipo tagliante,
se non adeguatamente contrastata, tende a far assumere alla trave una forma a "Z", provocando
un'alterazione locale all'asse della trave. La sezione ove è applicata l'azione tagliante è soggetta ad uno
scorrimento trasversale, con la generazione di tensioni tangenziali, secondo la formula di Jourawsky, di
tipo τ.

• T è lo sforzo tagliante (N)


• S momento statico della sezione (con asse di riferimento posto nel punto analizzato) (mm3)
• J momento di inerzia della sezione (mm4)
• b larghezza media della sezione (mm)

Le tensioni τ si suddividono in tensioni sollecitanti e tensioni resistenti. Sono forze elementari che
agiscono su aree elementari. Possiamo affermare che in una sezione trasversale di trave, in condizioni
di equilibrio,
• T è lo sforzo tagliante (N)
• τ è la tensione tangenziale
• dA area infinitesima su cui agisce la tensione τ (mm2)

Semplificando il discorso all'osso, la tensione media é circa pari a:

• T è lo sforzo tagliante (N)


• A è l'Area della sezione (mm2)

Progettare una sezione che resista bene a taglio, data una certa configurazione di carico, implica :

• scegliere un materiale di buona qualità, in grado di sopportare una τ adeguata.


• dimensionare adeguatamente la geometria della sezione (b, S, J, A) dipendono da questa scelta.

Nella pratica, una trave in acciaio, con sezione a T, cioè caratterizzata da una larga piattabanda e una
lunga anima, per resistere bene a flessione, può essere soggetta a problemi per taglio poiché lo spessore
dell'anima risulta troppo sottile.

Una trave rettangolare in cemento armato, di geometria definita con larghezza b e altezza h, resiste al
taglio in maniera più complicata. Se gli sforzi di taglio sono lievi le armature metalliche saranno
dimensionate per la sola flessione. Se gli sforzi di taglio sono rilevanti si effettua un calcolo
dell'armatura a taglio, ovvero staffe e ferri piegati, in modo da verificare la resistenza alle
configurazioni di carico di progetto.

Trazione (fisica)
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca

La trazione è uno degli sforzi meccanici elementari cui può essere soggetto un corpo, insieme alla
compressione, la flessione, il taglio e la torsione.

Per semplificazione si può dire che la trazione è la sollecitazione a cui è sottoposto un corpo che è
soggetto a un sistema di forze divergenti. Data una forza F di trazione applicata ad una sezione generica
di area A si definisce tensione di trazione la grandezza σ, data da:

Un esempio classico di trazione può essere quello di una corda, tirata ai suoi estremi, in equilibrio
statico. Entra in gioco un equilibrio di forze F, uguali in modulo e direzione, ma di verso opposto, da
cui la corda viene tesa. Le fibre che compongono la fune sono idealmente soggette ad una tensione σ
costante. Volendo calcolare l'allungamento della corda, provocato dalle due forze F contrapposte,
possiamo usare il seguente procedimento:

definiamo ε, deformazione del materiale:

richiamiamo il legame fra tensione {\sigma} e deformazione {\epsilon} ottenuto sperimentalmente per
il materiale impiegato: σ = Eε

La formula che fornisce l'estensione della corda in seguito allo sforzo di trazione F è data da:

• E viene chiamato modulo di elasticità del materiale


• ε è la deformazione unitaria
• L è la lunghezza del provino, in questo caso la lunghezza della corda
• δL è l'allungamento del provino a causa della trazione

Affidabilità
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca

Definendo come qualità di un assieme o di un sistema comunque complesso la sua rispondenza ai


criteri di specifica di funzionamento, si definisce affidabilità la capacità di rispettare le specifiche di
funzionamento nel tempo.

In sintesi, l'affidabilità di un assieme (un apparato elettronico, una macchina, etc.), di un sistema
comunque complesso o di un semplice componente (ad esempio una resistenza elettrica) è la misura
della probabilità che l'assieme (od il componente) considerato non si guasti (ovvero non presenti
deviazioni dal comportamento descritto nella specifica) in un determinato lasso di tempo.

Per semplicità, in seguito (se non diversamente indicato) si parlerà di componente riferendosi sia ad un
assieme o sistema complesso sia ad un componente elementare.

Definizioni correlate
Guasto

Un guasto (in inglese fault) è un difetto (cioè la non conformità strutturale o algoritmica alla specifica)
di un componente di un sistema.

Un guasto può causare uno o più errori.

Errore

Un errore (in inglese error) è una transizione dello stato globale del sistema, che non è conforme alla
specifica di funzionamento del sistema.
Per stato globale di un sistema si intende qui l'insieme degli stati dei moduli di cui è composto, e per
funzione di transizione globale si intende invece l'insieme dei cambiamenti allo stato globale che sono
definite dalle specifiche di funzionamento del sistema.

Un errore può causare uno o più fallimenti.

Fallimento

Un fallimento (in inglese failure) è un evento per cui un sistema viola definitivamente le specifiche di
funzionamento, interrompendo la disponibilità dei servizi che fornisce.

Aspetto statistico
Definita la probabilità che il guasto si verifichi fra l'istante t e l'istante t + dt, la probabilità di

un guasto fra l'istante iniziale e l'istante T = t è definita dalla relazione ove


ed inoltre ed

L'affidabilità è la probabilità che tale sistema non si guasti ed è definita essere

Se si considera un componente elementare, ad esempio una resistenza elettrica in condizioni di lavoro


ben determinate, l'affidabilità è evidentemente dovuta unicamente a tale componente.
È diverso il caso in cui un assieme sia costituito da più componenti: il valore di affidabilità dipenderà
dalle affidabilità di ciascun singolo componente.

Aspetto sistemistico
In pratica, ogni assieme (o sistema) è costituito da più sottoassiemi che, da un punto di vista
dell'affidabilità possono essere connessi in parallelo od in serie.

Diremo che tutti i sottoassiemi che, pur guastandosi, non pregiudicano la funzionalità dell'assieme
superiore (che li contiene) sono da un punto di vista dell'affidabilità fra loro collegati in parallelo.

Viceversa, nel caso che sia sufficiente l'avaria di un singolo sottoassieme per determinare l'avaria
dell'assieme superiore, diremo che tale sottoassieme è connesso in serie.

Nell'esempio a lato, è raffigurato un sistema ove l'avaria di uno solo dei blocchi C o D non porta
all'avaria del sistema, mentre l'avaria del blocco A oppure B porta necessariamente all'avaria del
sistema.
In altri termini, per mandare in avaria il sistema si dovrà avere l'avaria contemporanea dei blocchi C-D,
oppure l'avaria del blocco A oppure del blocco B.

A prescindere dai modelli teorici, in pratica si rileva sul campo l'intervallo medio fra i fallimenti (Mean
Time Between Failure, MTBF), definito statisticamente come speranza matematica del tempo di
funzionamento fra due fallimenti.

In sistemi complessi, dove occorre garantire il funzionamento anche in presenza di avarie di un


sottosistema, si ricorre talvolta a ridondanze: questo corrisponde a porre più elementi in parallelo che,
quindi, avranno una affidabilità equivalente più elevata del singolo elemento.

Caldaia (riscaldamento)
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca

La caldaia usata per il riscaldamento degli ambienti e dell' acqua calda sanitaria è un' apparecchiatura
che trasforma l'energia presente nei combustibili in calore e lo rende disponibile in un circuito
contenente acqua od aria che ha la funzione di distribuire il calore negli ambienti ed eventualmente
nell' acqua dell' impianto sanitario. Le caldaie moderne sono costruite in modo da risparmiare spazio e
con un occhio di riguardo al rendimento. Si possono quindi distinguere in base alle dimensioni
(generalmente le caldaie murali sono più piccole di quelle a basamento) oppure in base alla tecnologia
di scambio del calore da camera di combustione a fluido (caldaie tradizionali e caldaie a
condensazione) od, ancora, in base al tipo di scambiatore (a fascio tubiero, a serpentina, a piastra), in
base al numero di bruciatori (mono o multistadio, oppure bivalente), ma anche in base al combustibile
usato (solido, liquido, gassoso) ed in base al sistema di evacuazione dei fumi (a tiraggio naturale,
forzato, a camera stagna).

Struttura
Una caldaia "tipo" è composta da: bruciatore, camera di combustione, scambiatore di calore, sistemi di
controllo e sicurezza.

che cosa e' una caldaia


e' un recipiente ermeticamente chiuso che serve a trasformare l'acqua fredda in acqua calda o vapore
mediante somministrazione di calore.

Tipi di caldaie
Caldaie descrizione generale Per caldaia (o generatore di calore), si intendono quelle apparecchiature
nelle quali avviene il trasfetimento di energia termica dai prodotti della combustione al fluido
termovettore. Nella loro essenzialità esse sono costituite dal focolare, zona in cui avviene la
combustione, dalla parte cirostante nella quale circola il fluido da ruiscaldarsi, a tubi di fumo (almeno
in alcuni tipi) e da un rivestimento esterno realizzato con materiale coibente avente lo scopo di
contenere il calore prodotto e scambiato, e da un mantello in lamiera protettiva. Una caldaia è
caratterizzata da alcuni parametri essenziali che risultano essere: - Potenza al focolare (Pf). Questa
potenza è data dal prodotto del potere calorico inferiore del combustibile impiegato e della sua portata:
L’unità di misura è il Kw. - Potenza termica convenzionale (Pc). Questa potenza è data dalla potenza
termica al focolare diminuita della potenza termica persa al camino, coincidente convenzionalmente
con la perdita per calore sensibile nei fumi: L’unità di misura è il Kw. - Potenza termica utile (Pn):
Questa potenza è data dalla quantità di calore trasferita nell’unità di tempo al fluido termovettore,
corrispondente quindi alla potenza convenzionale diminuita della potenza scambiata dall’involucro
stesso e persa nell’ambiente esterno. L’unità di misura è il Kw. - Rendimento termico utile: è il
rapporto tra la potenza termica utile e la potenza termica al focolare. - Pressione massima di esercizio.
E’ la pressione massima a cui può funzionare la caldaia in regime continuativo. L’unità di misura è il
bar. - Temperatura massima di esercizio. E’ la temperatura massima a cui può essere fatta funzionare la
caldaia, nelle caldaie tradizionale essa deve necessariamente essere inferiore alla temperatura di
ebollizione dell’acqua generalmente tale temperatura risulta essere attorno ai 90° C.

Classificazione: Una possibile classificazione dei generatori di calore può essere fatta considerando: il
materiale di costruzione: - caldaie in ghisa; - caldaie in acciaio; - caldaie in acciaio speciale per
generatori di calore a bassa temperatura e a condensazione; - caldaie in alluminio silicio (caldaie a
copndensazione); la pressione di funzionamento: - caldaie a bassa pressione; - caldaie ad alta pressione;
il combustibile impiegato: - caldaie a combustibile solido; - caldaie a combustibile liquido; - caldaie a
combustibile gassoso; - caldaie policombustibile; - caldaie a funzionamento elettrico; il fluido
termovettore: - caldaia per acqua fino a 100° C.; - caldaia per acqua surriscaldata > 100° C.; - caldaia a
vapore a bassa pressione; - caldaia a vapore ad alta pressione; - caldaia ad olio diatremico; - generatore
di aria calda; la pressione esistente nella camera di combustione: - caldaie con bruciatore atmosferico
(aspirate); - caldaie con bruciatore ad aria soffiata (pressurizzate); il percorso dei prodotti della
combustione: - a tubi di fumo; - a tubi di acqua; la temperatura dei fumi: - caldaie a bassa temperatura;
- caldaie a condensazione;

Usi civili: Negli usi civili le caldaie utilizzate si distinguono in base alla potenza termica in gioco, per
gli appartamentini condominiali con riscaldamento autonomo, in considerazione della ridotta se non
completa assenza di spazi necessari alla posa in opera di caldaie di altro tipo, è invalso, anche per
effetto della crescente metanizzazione in atto sul territorio nazionale, l'uso di caldaie del tipo murale;
Caldaie murali: Queste caldaie son generalmente realizzate con uno scambiatore in acciaio e
consentono la necessaria compattezza dimensionale; Gli scambiatori utilizzati in questi tipi di caldaia
sono in acciaio austenitico atto a resistere alle temperature di fiamma ed alla inveitabile corrosione
legata ad processo di combusìione. Questi tipo di generatore di calore è in molti casi dotato di bollitore
per la produzione di acqua calda sanitaria di ridotte dimensioni ed alta capacità di scambio o, in molti
casi dotato di scambiatore sanitario a scambio rapido (produzione acqua calda di tipo istantaneo).
Anche per effetto della normativa vigente (Legge 10/91 e DPR 412 ) tendente anche a garantire la
necessaria sicurezza relativamente allo scarico dei fumi, il mercato italiano si è andato evolvendo
sull'installazione di caldaie a camera stagna a tiraggio forzato. In questo tipo di caldaia la combustione
avviene in una camera chiusa (stagna) rispetto all'ambiente circostante, ciò comporta la necessità di
prelevaria aria comburente direttamente all'esterni tramite apposite condotte, con conseguente necessità
di dotare la caldaia stessa di un elettroventilatore con funzione di prelievo aria esterna e necessaria per
forzare (tiraggio forzato) in pressione l'espulsione dei fumi verso il camino. Se da un lato quest'ultimo
tipo di caldaia garantisce la sicurezza (ai fini dell'eventuale travaso di fumi all'interno degli ambienti),
dall'altro fà insorgere altre problematiche legate allo scarico dei prodotti della combustione ed alle
relative condotte di fumisteria che risultando essere in pressione e che devono necessariamente
garantire (anche nel tempo) le necessarie doti di tenuta. Le caldaie murali possono essere del tipo per
instlallazione interna o adatte all'installazione esterna in appositi armnadi di contenimento.
Un'evoluzione di questo tipo ci caldaia, si è avuto con l'introduzione sul mercato delle caldaie dette "a
condensazione", questo tipo di generatore di calore, ha la prerogativa di recuperare il calore di
condensazione, è caretterizzato da rendimenti termici eccezzionali con un'emissione di ossido di azoto
e di altri residui inquinanti assai contenuto, queste caldaie sono quasi sempre del tipo a tiraggio forzato
con combustione realizzata premiscenado l'aria al combustibile e rappresentano il futuro nella
realizzazione di generatori di calore. Caldaie a basamento: Questo tipo di caldaia, assai più
ingombrante rispetto alla precedente è generalmente dotata di bollitore di alta capacità, richiede per la
sua collocazione i necessari spazi, può essere del tipo a camera aperta o a camera stagna, generalmente
le caldaie a camera aperta vengono installate in un locale adibito a centrale termica, mentre nel caso di
collocazione all'interno dell'unità abitativa (per effetto della normativa di sicurezza vigenti) si provvede
all'installazione di caldaie a camera stagna; La maggiore capacità del bollitore garantisce una maggiore
possibilità di utilizzo contemporaneo di più punti di prelievo di acqua calda sanitaria. Lo scambiatore di
questo tipo di caldaia pù essere o in acciaio come per quelle muarli o ad elementi di ghisa. Per
funzionamento a gasolio o a combustibile liquido (gasolio) o solido (legno o pellets) data la
conformazione diversa della camera di combustino, la struttura è generalmente realizzata in acciaio con
bollitore incorporato o meno in funzione delle esigenze dello stabile. Per il civile (salvo usi particolari)
le caldaie sono generalmente a tubi di fumo con temperature di funzionamento inferiore a 100 ° C. Il
mercato negli ultimi anni ha subito, sia per effetto delle normative di sicurezza e riparmio energetico,
sia per una l'evolozione tecnologica relativa al controllo della combustione ed alla termoregolazione,
una brusca accelerata. Le soluzione che offre il mercato sono le più diparate, si tratta in questo caso di
adottare la migliore in funzione degli ambienti da riscaldare, degli spazi a disposizione, del tipo di
distribuzione e della tipologia di impianto che si intende realizzare.

Circuito in serie e circuito in parallelo


Circuito in serie

"n"Resistenze sono collegate in serie, cosicché le resistenze si sommano

R = R! + R2 + .... + Rn

Si può raffigurarsi questo su due resistenze, che si differiscono l'una dall'altra solo nella lunghezza.

Il collegamento in serie da come risultato un corpo di resistenza di lunghezza l_{1}+l_{2}. E' valido
quindi

Circuito in parallelo

Con il collegamento in paralleo di "n" Resistenze si sommano le conduttanze, rispettivamente i


reciproci delle Resistenze:

Grafia alternativa:

Rp = R1 | | R2 | | ... | | Rn

Grafia con la conduttanza:


G = G1 + G2 + ... + Gn

La Conduttanza è il reciproco della Resistenza, la sua unità di misura nel sistema internazionale è il
reciproco dell'Ohm, che porta anche il singolare nome Siemens.Ci si può immaginare questa
connessione con l'unione di due Resistenze, che si differenziano l'una dall'altra solo nel lw e aree delle
sezioni trsversali A.

immagine

Una resistenza si ricava dalla superficie totale (A_1+A_2) delle sezioni trasversali, di conseguenza
vale:

e da ciò

In un collegamento in parallelo siano presenti resistenze del medesimo valore, così la Resistenza totale
può venire calcolata dividendo la resistenza singola per il numero delle resistenze nel circuito.

Rn = una − delle − n − resistenze

Resistenza interna di un generatore


La forza elettromotrice di un generatore rappresenta la d.d.p. (differenza di potenziale) presente ai capi
di un generatore quando il circuito è aperto. Chiudendo il circuito e diminuendo la resistenza del
reostato aumenta la corrente che passa nel circuito e diminuisce la tensione misurata con
voltmetro.

VA–VB = V0–IR

I generatori hanno una piccola resistenza interna che provoca una caduta di tensione tanto più
grande quanto maggiore è la corrente .

L’amperometro che è inserito in serie, deve avere la resistenza interna più piccola possibile per rendere
minima la caduta di tensione ai suoi capi, mentre il voltmetro che inserito in parallelo deve avere la
resistenza interna più grande possibile per rendere minima la corrente I che lo attraversa.

Potenza dissipata
Si è detto che la presenza di una resistenza determina un riscaldamento del componente. Più
precisamente la potenza dissipata in calore è data dalla relazione:

dove:

P è la potenza misurata in watt (le altre grandezze sono state già definite sopra).

Questo effetto è utile in alcune applicazioni come le lampade ad incandescenza oppure negli apparati
riscaldanti ad energia elettrica (ad esempio: gli asciugacapelli) ma non è certo voluto nelle linee di
distribuzione dell'energia elettrica dove l' effetto joule provoca perdite di potenza elettrica lungo tali
linee che vanno contenute scegliendo opportunamente le dimensioni dei cavi elettrici che traportano l'
energia.

Superconduttività
Al di sotto di una temperatura critica specifica un materiale superconduttivo ha la resistenza ohmica di
valore nullo. Per ciò tale materiale è chiamato superconduttore, la corrente vi scorre con questa bassa
temperatura senza perdite di sorta.

CAD
Da Wikipedia, l'enciclopedia libera.

Immagine in prospettiva isometrica di un pezzo meccanico ottenuta tramite un programma CAD

In informatica, l'acronimo inglese CAD viene usato per indicare due concetti correlati ma differenti:

Computer Aided Design, cioè Progettazione Assistita da Elaboratore

In questa accezione, la più comune, CAD indica il settore dell'informatica volto all'utilizzo di tecnologie
software e in particolare della computer grafica per supportare l'attività di progettazione (design) di
manufatti sia virtuale che reali. I sistemi di Computer Aided Design hanno come obiettivo la creazione di
modelli, soprattutto 3D, del manufatto. Ad esempio, un sistema Computer Aided Design può essere
impiegato da un progettista meccanico nella creazione di un modello 3D di un motore.
Computer Aided Drafting, cioè Disegno Tecnico Assistito da Elaboratore

In tale accezione indica il settore dell'informatica volto all'utilizzo di tecnologie software e


specificamente della computer grafica per supportare l'attività di disegno tecnico (drafting). I sistemi di
Computer Aided Drafting hanno come obiettivo la creazione di un modello, tipicamente 2D, del disegno
tecnico che descrive il manufatto, non del manufatto stesso. Ad esempio, un sistema Computer Aided
Drafting può essere impiegato da un progettista nella creazione di una serie di disegni tecnici (in
proiezione ortogonale, in sezione, in assonometria, in esploso) finalizzati alla costruzione di un motore.

Categorie di CAD
I sistemi CAD possono essere classificati secondo differenti criteri. Guardando all'estensione del
dominio, inteso come campo di utilizzo, si può distinguere tra:

Sistemi CAD orizzontali

Si tratta di sistemi CAD aventi un dominio molto ampio, utilizzabili con successo in contesti applicativi
differenti, come ad esempio progettazione architettonica e quella meccanica. I comandi offerti da questi
sistemi sono indipendenti da uno specifico contesto applicativo. Si avranno pertanto comandi come
traccia-linea senza alcuna nozione se la linea rappresenta una parete di un edificio o lo spigolo di un
supporto metallico.

Sistemi CAD verticali

Si tratta di sistemi con dominio ristretto, orientati ad un particolare contesto applicativo, con comandi e
funzionalità specifici per quel contesto. Ad esempio, un sistema CAD verticale per la progettazione di
interni offrirà comandi per creare e posizionare differenti tipi di pareti e collocarvi porte e finestre.

Una classificazione alternativa, molto utilizzata in ambito commerciale, suddivide i sistemi CAD in tre
fasce principali sulla base di prezzo e funzionalità:

Sistemi di fascia bassa

Sono sistemi CAD tipicamente limitati al disegno 2D, venduti a prezzo contenuto (indicativamente
inferiore ai 300€) e rivolti ad utenti occasionali o non professionisti.

Sistemi di fascia media

Sono sistemi CAD che integrano la modellazione 3D con il disegno 2D, venduti ad un prezzo medio
(indicativamente inferiore ai 4000€). Questi sistemi sono usualmente rivolti a piccole o medie aziende e
a professionisti.

Sistemi di fascia alta

Sono sistemi CAD complessi che integrano la modellazione 3D con il disegno 2D, e offrono una
gestione avanzata dei dati supportando processi aziendali che si estendono ben oltre l'ufficio tecnico.
Hanno costi elevati e sono tipicamente utilizzati dalle grandi aziende.

Pressoché tutti i sistemi CAD possono essere personalizzati ed estesi al fine di migliorare la
produttività dei progettisti e la qualità e dei progetti. Le principali modalità per estendere un sistema
CAD sono:
Librerie

Collezioni di modelli di oggetti e simboli da utilizzare nel progetto. Per esempio, un CAD per arredatori
può contenere una libreria di mobili. Ogni mobile può essere copiato dalla libreria e posizionato nel
progetto di un arredamento.

Macro

Comandi ottenuti componendo comandi più semplici tramite un linguaggio di programmazione. Per
esempio, in un sistema CAD 2D per fornire la funzione di disegno di muri, una macro può chiedere
all'utente di inserire il punto iniziale, il punto finale e lo spessore del muro, e inserire automaticamente
nel modello due linee parallele che rappresentano il muro.

Cambio (meccanica)
Da Wikipedia, l'enciclopedia libera.

Il cambio o cambio di velocità è un sistema meccanico con la funzione di ridurre, o più raramente
aumentare, la velocità di rotazione fornita da un motore.

È comunemente usato negli autoveicoli allo scopo di potere variare entro ampi limiti la velocità del
mezzo pur mantenendo il motore a scoppio entro un regime di funzionamento ottimale dal punto di
vista del rendimento, della coppia e/o della potenza. Il motore a scoppio infatti mediamente ha una
velocità di rotazione compresa tra 600 e 10.000 giri al minuto, mentre le ruote la hanno tra zero e 2.500
giri (sempre al minuto). Questo richiede una riduzione di velocità. Il motore però presenta alcuni
regimi di rotazione ottimali dal punto di vista del rendimento, della coppia e/o della potenza. In certe
occasioni, per esempio quando si compie un sorpasso, è necessaria la massima potenza, mentre
viaggiando a velocità costante in autostrada è preferibile un rapporto che consenta il minore consumo
di carburante.

Cambi di velocità sono anche impiegati in macchine industriali come per esempio i torni per metalli.

In macchine e veicoli che impiegano una trasmissione di tipo elettrico o idraulico il cambio non è
utilizzato, poiché i motori usati per azionare le ruote presentano una coppia ed un rendimento ottimale
su tutta la gamma di velocità.

Cambio automobilistico
Manuale

Nelle prime automobili il cambio era un semplice sistema di ingranaggi non sincronizzati. Le ruote
dentate venivano spostate dal guidatore mediante i comandi, e richiedevano una buona preparazione e
sensibilità nel capire quando gli ingranaggi stavano ruotando alla giusta velocità; in caso contrario
grattavano rumorosamente e la marcia non si inseriva.

Nel salire di marcia, era necessario rallentare l'ingranaggio motore, e per questo era sufficiente premere
la frizione ed attendere il momento giusto per cambiare. Nello scalare la marcia invece, è necessario
accelerare il motore Si impiegava per questo una tecnica detta doppietta, che comportava di portare il
cambio in folle, quindi rilasciare la frizione, incrementare la velocità del motore al punto giusto e
quindi inserire la marcia inferiore. In effetti era possibile operare su questi cambi anche senza l'uso
della frizione, necessaria solo per la partenza.

I cambi manuali delle moderne automobili sono di tipo sincronizzato. Il meccanismo del cambio è
costituito da due alberi paralleli, quello di entrata connesso alla frizione e quello di uscita, connesso
all'albero di trasmissione. Sui due alberi sono montati parallelamente gli ingranaggi. Tutti gli
ingranaggi sono costantemente ingranati, ma solamente una coppia è connessa all'albero di uscita.
Questo sistema semplifica notevolmente la tecnica di guida.

Il meccanismo di innesto consiste in un collare coassiale all'albero che scorre lateralmente mosso dai
comandi del cambio. Il collare è internamente dentato, e si ingrana sulle superfici dentate esternamente
dell'albero e di un collare solidale all'ingranaggio. Un collare serve per due ingranaggi: in posizione
centrale nessuna ruota è ingranata, mentre scorrendo a destra o a sinistra inserisce l'una o l'altra ruota.

Prima di innestarsi definitivamente, il collare applica una spinta ad una frizione conica di ottone che
riduce la differenza di velocità tra le parti. Questo elemento è il sincronizzatore.

I comandi del cambio sono studiati in modo da evitare che due collari vengano inseriti
contemporaneamente per errore.

Il primo cambio sincronizzato fu introdotto dalla Cadillac nel 1929, mentre l'attuale sistema a coni fu
sviluppato dalla Porsche nel 1952. Negli anni '50 solamente la seconda e terza marcia erano
sincronizzate, ed il manuale d'uso suggeriva, per passare dalla seconda alla prima, di fermare prima
completamente il veicolo. Nei cambi attuali, l'unica marcia non sincronizzata è la retromarcia, che non
ne necessita.

Il cambio sincronizzato presenta diversi svantaggi, tra cui l'usura dei sincronizzatori, il ritardo
introdotto nella cambiata e le perdite di energia per attrito. Per questo motivo nei grandi camion, nei
macchinari e nei cambi speciali per corse automobilistiche si usa un sistema non sincronizzato. Nei
cambi impiegati in gara si usano anche cambi sincronizzati con un numero ridotto di denti sui collari
per avere una velocità di cambiata migliore, avendo però per contro una usura molto rapida.

A partire dagli anni '60 furono introdotte la quarta marcia, la quinta, la sesta ed oltre. In un cambio a
quattro e a cinque marce, in quarta il rapporto del cambio è unitario, cioè la velocità di rotazione del
motore è uguale a quella delle ruote. La quinta marcia fu introdotta con l'aumentare delle velocità dei
veicoli, per economizzare combustibile. Ad elevata velocità infatti le ruote girano ad oltre 2000 giri al
minuto, mentre il motore presenta il migliore rendimento intorno o al di sotto di 2000. Le marce
superiori alla quarta hanno un rapporto che incrementa la velocità del motore, riducendone però la
coppia. Per questo motivo, per avere maggiore potenza e risposta nei sorpassi è necessario scalare.

Le macchine agricole ed i camion hanno molti rapporti di cambio, ed esiste un sistema per cui per ogni
marcia principale è possibile differenziare due rapporti: normale e ridotta. Il comando si effettua per
mezzo di leve distinte.

La retromarcia è realizzata con l'ausilio di un terzo albero con un ingranaggio ausiliario che trasmette il
moto tra due ingranaggi installati sui due alberi principali invertendo il senso di rotazione.

Il comando del cambio è solitamente una leva sporgente dal pavimento dell'auto. muovendo questa leva
lateralmente ed avanti o indietro si ingrana la marcia desiderata. In posizione centrale si ha la posizione
di folle, in cui nessun rapporto è inserito è la ruote sono isolate dal motore. Lo schema seguente illustra
le posizioni di un tipico cambio a cinque marce:

1 3 5

│ │ │

├───N───┤

│ │ │

2 4 R

N sta per Neutral, ovvero Folle in inglese. A volte l'inserimento della retromarcia deve essere sbloccato
agendo su un comando supplementare, questo per ridurre i rischi di inserimento accidentale quando si
scala dalla quinta alla quarta, oppure cercando di salire ad una sesta che non esiste.

Una alternativa è la seguente:

R 1 3 5

│ │ │ │

└───┼───N───┘

│ │

2 4

Lo schema è di solito riportato sulla manopola stessa.

In alcune vecchie auto il comando del cambio era costituito da una leva posta sul piantone dello sterzo.
Il funzionamento era simile a quello a pavimento, ma con i movimenti riportati sul piano verticale
invece che su quello orizzontale.

Sequenziale e semimanuale

In alcune auto e pressoché universalmente nelle motociclette è usato il cambio sequenziale. Due
comandi, che possono essere a pedale (nelle moto), una leva avanti-indietro o in forma di pulsanti sullo
sterzo, effettuano rispettivamente la scalata e la salita di marcia. Ciò elimina la necessità di usare uno
schema di manovra come con l'uso della leva del cambio e in genere automatizza anche la frizione.

Nelle automobili moderne con cambio automatico questa funzione è in genere controllata da un
computer ed è una alternativa alla modalità completamente automatica.

In alcune auto (per esempio alcune BMW e Audi) impiegano un cambio manuale manovrato da un
computer, ed il guidatore agisce semplicemente sui comandi sequenziali.

Tra i sistemi semiautomatici, è da ricomprendere il DSG (tedesco Direktschaltgetriebe o inglese Direct


Shift Gearbox) del gruppo Volkswagen. La composizione interna del cambio è alquanto innovativa,
infatti, al suo interno vi sono due alberi collegati a due frizioni a sua volta collegate all'albero di
trasmissione. Su un albero si trovano i rapporti della prima, della terza e della quinta. Sul secondo
alberino, abbiamo la seconda, la quarta, la sesta. Ciò che accade è una contemporanea rotazione degli
alberini interni, tuttavia, solo uno dei due, grazie ad una frizione, trasferisce il moto all'albero di
trasmissione. Nel frattempo, il secondo albero gira (per intenderci quello con la 2^-4^-6^) ed ha così
già "pronto" il rapporto successivo. Il vantaggio consiste in una notevole velocità di cambiata che
consente al sistema DSG di essere forse il miglior sistema semiautomatico in circolazione.

Automatico

Molte automobili attualmente sul mercato hanno un cambio automatico, in grado di selezionare
automaticamente il rapporto senza l'intervento umano, semplificando notevolmente la guida. Il sistema
più usato è di tipo idraulico, basato sulle variazioni di pressione, che però presenta problemi di costo,
affidabilità e consumo di combustibile. Il cambio automatico infatti è particolarmente diffuso in paesi
dove il costo del combustibile è particolarmente basso, come gli Stati Uniti, dove 19 auto su venti
hanno installato questo dispositivo.

Con il progresso tecnologico e soprattutto l'introduzione dell'elettronica nel settore automobilistico,


sono stati realizzato cambi automatici a controllo computerizzato che, basandosi su cambi meccanici
tradizionali eliminano gli inconvenienti tipici del cambio automatico idraulico. Questo sistema ha avuto
una discreta diffusione in Europa, dove il costo del combustibile è decisamente maggiore che in
America.

Data la vastità dell'argomento, la tecnica e la storia del cambio automatico sono trattate nell'articolo
principale: Cambio automatico.

Esiste anche un tipo di cambio, il cambio continuo, in cui non esistono valori fissi, ma il rapporto
varia con continuità entro due limiti estremi.

Di seguito sono elencati i vantaggi del cambio manuale su quello automatico:

• Il cambio manuale è più efficiente dal punto di vista energetico soprattutto perché utilizza una frizione
invece di un convertitore di coppia.
• È più semplice costruire cambi manuali robusti ed affidabili.
• I cambi manuali non richiedono sistemi di raffreddamento specifici, mentre i cambi automatici hanno a
volte appositi radiatori.
• Il guidatore ha un controllo maggiore sullo stato del cambio. Un cambio automatico può decidere di
cambiare rapporto in un momento in cui il guidatore non lo desidera.
• Il cambio manuale è più economico, sia all'acquisto che per la manutenzione.
• Secondo alcuni, il cambio manuale impegna maggiormente l'attenzione alla guida e riduce il rischio di
distrazione.

Svantaggi del cambio manuale sono:

• Maggiore interazione e maggiore apprendimento richieste al guidatore.


• Rischio di inserire la marcia sbagliata con la possibilità di danneggiare sia il cambio che il motore e
causare incidenti.
• Il cambio automatico assicura cambiate più dolci e rapide.
• Il cambio manuale, dovendo riportare i comandi per mezzo di cavi o alberi, vincola maggiormente la
disposizione interna del veicolo.
• Il cambio manuale rende più impegnativa la partenza in salita, specialmente per i neo-guidatori.
• L'eliminazione dei comandi del cambio è vantaggiosa per i portatori di handicap.
Motore asincrono
Da Wikipedia, l'enciclopedia libera.

Il motore asincrono è un tipo di motore elettrico in corrente alternata in cui la frequenza di rotazione
non è uguale o un sottomultiplo della frequenza di rete, ovvero non è "sincrono" con essa; per questo si
distingue dai motori sincroni. Il motore asincrono è detto anche motore ad induzione in virtù del suo
principio di funzionamento descritto di seguito.

Il motore si compone si una parte fissa detta statore e una parte mobile detta rotore, ambedue di forma
cilindrica. In ambedue le parti, delle quali lo statore contiene il rotore, sono praticati dei fori paralleli
all'asse del cilindro, detti cave, destinati ad ospitare gli avvolgimenti, ovvero l'insieme dei conduttori.

Lo statore ospita normalmente un avvolgimento trifase, i cui conduttori sono distribuiti nelle cave in
modo che una terna di correnti sinusoidali nel tempo produca una distribuzione spaziale di campo
magnetico sinusoidale rotante. Il rotore è dotato di un certo numero di fasi m di norma chiuse in corto
circuito.

Tale rotazione del campo magnetico avviene ad una velocità fissa n legata alla frequenza di
alimentazione f, detta velocità di sincronismo. Per qualunque velocità di rotazione del rotore nr diversa
da quella di sincronismo la velocità dell'onda di campo magnetico di statore rispetto al rotore è nr-n. Il
rotore quindi è soggetto da parte dello statore ad un campo magnetico variabile a frequenza nr-n,
giacché l'onda ruota, e quindi sarà sede di forze elettromotrici indotte, da qui la dizione motore a
induzione, e dunque correnti alla stessa frequenza nr-n. Le correnti di rotore produrranno un'altra onda
di campo magnetico rotante, ma rotante a velocità nr-n rispetto al rotore che ruota a velocità nr rispetto
allo statore, per cui il campo di rotore ruota a velocità n rispetto allo statore ed è dunque sincrono con il
campo di statore. Tale condizione di sincronismo tra le due onde di campo magnetico assicura che il
motore produca una coppia costante. Unica eccezione, se il rotore gira al sincronismo, cioè n=nr, in
esso non vi sono forze elettromotrici quindi non vi sono correnti e dunque la coppia è zero.
Diversamente, la mutua interazione attraverso i relativi campi magnetici tra le correnti di rotore e
quelle di statore produce una coppia risultante netta.

La velocità n alla quale il motore non produce coppia, detta velocità di sincronismo. Essa non viene
usualmente superata ed è legata alla frequenza f di alimentazione e al numero di coppie polari p dalla
relazione:

Per esempio, un motore con tre coppie polari (6 poli totali), alimentato a 50 Hz ha una velocità
angolare di sincronismo di 1000 giri al minuto.

La velocità reale in condizioni nominali è sempre minore di circa il 3-6%, è il fenomeno dello
scorrimento che consente la produzione della coppia. Dalla formula dello scorrimento posso esprimere
la velocità di rotazione effettiva del rotore (nr):
Ovviamente il valore effettivo dello scorrimento dipende dal carico di fatto presente. Il carico non è
mai zero perché sono sempre presenti i fenomeni dell'attrito e della ventilazione che impediscono al
motore di ruotare alla velocità di sincronismo, impegnando una certa coppia.

Gli avvolgimenti statorici sono in genere inglobati in resine che garantiscono un'ottima protezione
dall'acqua e dagli agenti atmosferici. Questi motori sono frequentemente alimentati per mezzo di
inverter elettronici che possono variarne la velocità variando in modo coordinato la frequenza e la
tensione di alimentazione. L'uso di inverter permette di azionare il motore anche a partire da una
corrente continua, come avviene nella trazione ferroviaria.

Gli avvolgimenti statorici trifase possono essere collegati a stella oppure a triangolo, permettendo di
alimentare lo stesso motore con tensioni trifase di 400 e 230 Volt. In alcuni grossi motori si preferisce
avviare a stella e poi commutare a triangolo, al fine di limitare le correnti di spunto, quando non sono
utilizzati gli inverter.

Esistono motori asincroni di potenza usualmente inferiore a 1 kW alimentati anche con tensioni
monofase. Tali motori possono essere dotati di ordinari avvolgimenti a due fasi, dove per alimentare la
seconda fase si usa il ritardo di tempo introdotto da un condensatore. Per potenze piccolissime si usano
i motori in cui la seconda fase è un circuito spazialmente asimmetrico chiuso in corto circuito (motori a
"polo shuntato").

I motori asincroni operano normalmente con gli avvolgimenti di rotore chiusi in corto circuito ma il
rotore può essere eseguito in costruzioni differenti.

A gabbia di scoiattolo
Il circuito rotorico è costituito da barre di alluminio pressofuse direttamente nelle cave collegate tra
loro da due anelli di alluminio. Si tratta quindi di un circuito in cui il numero di fasi è pari al numero di
barre e che è per costruzione in corto circuito.

Questi motori sono largamente utilizzati nell'industria in quanto affidabili ed economici.

Storicamente particolari costruzioni della gabbia (doppia gabbia, cava profonda) soddisfacevano le
esigenze di avviamento dei motori di grossa taglia.

A rotore avvolto
Questo tipo di motore è simile al precedente, con la differenza che il rotore è costituito da un ordinario
avvolgimento trifase simile a quello di statore i cui terminali fanno capo a tre anelli coassiali con il
rotore. Su questi anelli strisciano delle spazzole fisse collegate ai morsetti rotorici.
Storicamente i morsetti rotorici venivano collegati ad un reostato. Variando la resistenza elettrica del
reostato si poteva aumentare la resistenza dei circuiti rotorici spostando la coppia massima verso lo
scorrimento unitario (s=1 -> rotore fermo), in modo da disporre in fase di avvio del motore della coppia
di spunto massima disponibile. Questo metodo serve ad avviare motori di medie dimensioni (10-300
kW). Dopo la partenza del motore le resistenze reostatiche vanno staccate dopo aver opportunamente
cortocircuitato i circuiti rotorici. In particolare, se le resistenze reostatiche vengono collegate ai circuiti
rotorici la curva di coppia si modifica perché la coppia massima si sposta verso la scorrimento unitario
e quindi si ottiene un punto di lavoro a velocità inferiore (uso delle resistenze reostatiche per regolare la
velocità).

Attualmente i motori asincroni a rotore avvolto sono applicati convenientemente, insieme ad inverter,
in unità motrici o generatrici a velocità variabile in cui l'intervallo di variazione della velocità è piccolo.
Il caso più tipico e diffuso è quello dei generatori eolici.

Motore sincrono
Da Wikipedia, l'enciclopedia libera.

Il motore sincrono è un tipo di motore elettrico in corrente alternata in cui il periodo di rotazione è
sincronizzato con la frequenza della tensione di alimentazione, solitamente trifase.

È costituito da un rotore (parte rotante solidale all'albero) su cui sono presenti diversi poli magnetici di
polarità alterna creati da magneti permanenti o elettromagneti alimentati in corrente continua (detta
corrente di eccitazione), e da uno statore su cui sono presenti gli avvolgimenti del circuito di
alimentazione. Le espansioni polari dello statore creano un campo magnetico rotante che trascina le
espansioni polari del rotore. La frequenza di rotazione è in relazione con la frequenza di alimentazione
in funzione del numero di terne di espansioni polari presenti nel motore.

L'avviamento di questo tipo di motore è relativamente complesso. A motore fermo, l'applicazione della
tensione alternata fa si che il rotore, per effetto dell'inerzia non abbia il tempo di seguire il campo
magnetico rotante, rimanendo fermo. Il motore viene quindi inizialmente portato alla velocità di
rotazione per mezzo di un motore asincrono, quindi, dopo avere scollegato quest'ultimo, viene
collegata la tensione di alimentazione ed inserito il carico meccanico utilizzatore. Un'altra tecnica di
avviamento sfrutta la possibilità di fare funzionare temporaneamente come asincroni motori
appositamente realizzati, quindi passare al modo sincrono. Se una volta a regime la rotazione viene
frenata o accelerata oltre un certo limite, si innesca una serie di oscillazioni che portano il motore al
blocco e possono provocare forti sovracorrenti tali da danneggiare il motore. Per questo motivo va
prevista una protezione dalle sovracorrenti, ad esempio con un interruttore magnetotermico di
protezione.

A causa della limitata praticità del motore sincrono, il suo uso con alimentazione diretta dalla rete è
limitato a campi di applicazione ove sia richiesta una velocità di rotazione particolarmente precisa e
stabile. È invece molto usato per azionare carichi a velocità variabile ove alimentato da convertitore
statico (inverter).
Esistono anche piccoli motori sincroni ad avvio automatico ed alimentazione monofase utilizzati in
meccanismi temporizzatori quali i timer delle lavatrici domestiche e un tempo in alcuni orologi,
sfruttando la buona precisione della frequenza della rete elettrica.

Se la macchina è provvista di avvolgimenti rotorici, al variare della corrente di eccitazione che circola
sul rotore, la rete elettrica di alimentazione può vedere un carico di tipo resistivo (ohmico), induttivo o
capacitivo:

• se il motore è sottoeccitato sarà visto come ohmico-induttivo;


• se il motore è sovraeccitato adeguatamente può essere visto come carico puramente resistivo: in questa
condizione, che è quella di normale funzionamento, si ha il minimo assorbimento di corrente ed il
massimo rendimento;
• se il motore è sovraeccitato, sarà visto come ohmico-capacitivo.

Il motore si presenta tanto più con caratteristica ohmica tanto maggiore è la coppia resistente del carico
che gli viene applicato all'albero. Se non si applica nessun carico e si alimenta il motore per ottenere la
caratteristica ohmico-capacitiva, si otterrà un compensatore rotante, poiché la caratteristica ohmica
sarà ridotta al minimo. Questo è utilizzato come sistema di rifasamento soprattutto nelle centrali di
trasformazione dell'energia elettrica. La quantità di energia reattiva che può fornire il compensatore
rotante è tanto maggiore quanto maggiore è la sovraeccitazione della macchina. Il compensatore
sincrono, o rifasatore rotante, è oggi perlopiù sostituito da gruppi di rifasamento composti da
condensatori statici.

Pila (chimica)
Da Wikipedia, l'enciclopedia libera.

Quattro pile ricaricabili (AA)

La pila, in chimica, è un dispositivo che converte energia chimica in energia elettrica.

All'interno di una pila avviene una reazione di ossido-riduzione in cui una sostanza subisce
ossidazione, perdendo elettroni, ed un'altra subisce riduzione, acquistandoli. Data la sua
configurazione, la pila consente di intercettare e sfruttare il flusso di elettroni tra le due sostanze. Tale
flusso genera una corrente elettrica continua il cui potenziale elettrico è funzione delle reazioni di
ossidazione e riduzione che vi avvengono. Una pila si scarica quando dette reazioni chimiche
raggiungono lo stato di equilibrio.

La prima pila
Alessandro Volta nel 1799 riprese gli studi di Luigi Galvani sulla corrente elettrica.

Realizzò la prima pila (oggi detta voltaica), con i seguenti pezzi:

• Un supporto di legno posto verticalmente su una base circolare


• Dischetti di rame e zinco
• Panno imbevuto di una soluzione acida formata da acqua e acido solforico
• Due fili di rame

La pila consiste di dischetti di rame e zinco alternati, fra i quali sono interposti dischetti di panno
acidulato, il tutto tenuto a posto dalla struttura di legno esterna.

Una volta disposti i dischetti e il panno sul supporto, collegando il primo e l'ultimo dischetto della
colonna con due fili di rame, si viene a creare tra essi un potenziale elettrico.

Il dispositivo così costituito permise a Volta di produrre una corrente elettrica, di cui osservò il flusso
riuscendo a indurre la contrazione dei muscoli di una rana morta.

Pila Daniell

Successivamente, nel 1836, John Frederic Daniell elaborò una pila, chiamata pila Daniell, sfruttando il
prototipo inventato da Volta e apportando miglioramenti in termini di voltaggio e sicurezza d'uso. La
cella è costituita da un compartimento anodico formato da una barretta di zinco immersa in una
soluzione di solfato di zinco, ZnSO4 e un compartimento catodico formato da una barretta di rame
immersa in una soluzione di solfato rameico, CuSO4. Le due semicelle sono separate da un setto
poroso.La reazione redox sfruttata è

Zn(s) + Cu2+(aq) → Zn2+(aq) + Cu(s)

Il potenziale teorico della pila Daniell è 1,1 V, mentre l'uso di un setto poroso migliora il rendimento e
ne allunga la durata contrastando il fenomeno della polarizzazione legata allo sviluppo gassoso.

Pile secondarie o accumulatori (ricaricabili)

Pile di diverso tipo (in senso orario da in basso a sinistra): due 9-volt, due "AA", una "D", pila di un telefono
cordless, pila di una telecamera, pila di una radio portatile, pila a bottone, una "C" e due "AAA", più un quarto di
dollaro, per confronto

Le pile secondarie, o accumulatori, sono quelle pile le cui reazioni chimiche interne sono reversibili. A
differenza delle pile primarie, somministrando energia elettrica a questi dispositivi si inverte il senso
della reazione completa ottenendo la riformazione dei reagenti iniziali a spese dei prodotti finali. Di
fatto, quindi, la pila si ricarica.

Accumulatore al piombo

La cella piombo-acida è il costituente fondamentale dei comuni accumulatori per auto. Utilizzano un
anodo fatto di polvere di piombo (Pb) spugnosa e un catodo di diossido di piombo (PbO2). L’elettrolita
è una soluzione di acido solforico (H2SO4) 4,5 M. La differenza di potenziale ai poli è di 2,1 V infatti
negli accumulatori per automobili troviamo sei celle piombo-acide in serie, che generano una
differenza di potenziale complessiva di 12 V.

Negli accumulatori moderni, infine, si utilizza una lega di piombo che inibisce l’elettrolisi dell’acqua,
potenzialmente pericolosa in quanto producendo idrogeno e ossigeno gassosi è a rischio di esplosioni.

Reazione chimica all'anodo (ossidazione)

Pb + HSO4- -> PbSO4 + H+ + 2e-

Reazione chimica al catodo (riduzione)

PbO2 + 3H+ + HSO4- + 2e- -> PbSO4 + 2H2O

Reazione completa

PbO2 + Pb + 2H2SO4 -> 2PbSO4 + 2H2O

Usi: Alimentazione automobili e camion

Vantaggi: Eroga correnti molto elevate, affidabile e di lunga vita, funziona bene a basse temperature

Svantaggi: Il piombo è un metallo pesante ed è tossico. Perdita di capacità dovuta a stress meccanici.

Accumulatore al nichel-cadmio o al nichel-metallo idruro

Le batterie al nichel-metallo idruro (NiMH) stanno ormai sostituendo le vecchie batterie al nichel-
cadmio (NiCd), più tossiche e meno efficienti. All’anodo abbiamo l’ossidazione dell’idrogeno
assorbito su leghe metalliche di nichel, al catodo abbiamo la riduzione del nichel (III) e l’elettrolita è
sempre una pasta basica di idrossido di potassio. La differenza di potenziale ai poli è di 1,2 V.

Reazione chimica all'anodo (ossidazione)

MH + OH- -> M + H2O + e-

Reazione chimica al catodo (riduzione)

NiO(OH) + H2O + e- -> Ni(OH) 2 + OH-

Reazione completa

MH + NiO(OH) -> M + Ni(OH)2


Usi: Apparecchiature elettroniche portatili varie, tra cui telefoni cordless, cellulari, videocamere.
Lentamente sostituita da quella al litio.

Vantaggi: Leggera e potente.

Svantaggi: Si scarica anche se non utilizzata, “effetto memoria”.

Accumulatore al litio

I moderni accumulatori al litio sono potenti e leggeri, anche se ancora relativamente costosi. All’anodo
abbiamo degli atomi di litio “immersi” in strati di grafite, il catodo è un suo sale (solitamente LiMn2O4)
e l’elettrolita è una soluzione di perclorato di litio (LiClO4) in etilencarbonato (C2H4CO3), un solvente
organico. La differenza di potenziale ai poli è di 3,7 V.

Reazione chimica all'anodo (ossidazione)

Lix -> xLi+ + xe-

Reazione chimica al catodo (riduzione)

Li1-xMn2O4 + xLi+ + xe- -> LiMn2O4

Reazione completa

Lix + Li1-xMn2O4 -> LiMn2O4

Usi: Apparecchiature elettroniche moderne, computer portatili, cellulari, videocamere.

Vantaggi: Estremamente potente e leggera: solo 7 grammi di metallo producono fino ad una mole di
elettroni. Nessun “effetto memoria”.

Svantaggi: Piuttosto costosa, il solvente può essere infiammabile

Bacino idroelettrico

Bacino artificiale
Scolmatore di un bacino idroelettrico

Il bacino idroelettrico ha lo scopo di raccogliere in un bacino le acque di un fiume per poterne poi
utilizzare l'energia potenziale per produrre energia elettrica.

La Cina sta realizzando sul fiume Chang Jang o Yang Tse o Fiume Azzurro il bacino idroelettrico delle
Tre gole, il più grande del pianeta.

Componenti
Il bacino idroelettrico è costituito da una diga che ha il doppio scopo di creare una riserva d'acqua e di
creare un dislivello. Tra il punto di presa e la centrale elettrica l'acqua è trasportata mediante una
condotta che prende il nome di condotta forzata. Nella centrale è presente la turbina che ha lo scopo di
trasformare l'energia cinetica dell'acqua in energia meccanica. Un alternatore è accoppiato alla turbina
per trasformare l'energia meccanica in energia elettrica.

Classificazione
I bacini idroelettrici si posso suddividere in base a:

• portata d'acqua
• dislivello
• la potenza nominale del generatore elettrico

Il coefficiente di resistenza aerodinamica


(anche noto con i simboli Cx o Cd) è un gruppo adimensionale che misura la resistenza aerodinamica
di un corpo in moto in un fluido. Dipende dalla forma del corpo ed è indipendente dalla sezione o dalla
velocità cui viene effettuato il moto.

Nella forma tipica della resistenza aerodinamica viene definito a partire dalla seguente espressione:
in cui

R è la resistenza aerodinamica

ρ è la densità del fluido

Cd è il coefficiente di resistenza aerodinamica

A è l'area di riferimento

v è la velocità del corpo rispetto al fluido

È molto usato in tutti i problemi di fluidodinamica o aerodinamica esterna e trova applicazione sia in
ambito aeronautico (in cui viene indicato con il simbolo Cd, dall'inglese drag - "resistenza") che in
ambito automobilistico, (generalmente indicato in questo caso con il simbolo Cx, in cui la X indica
l'asse coordinato lungo il quale avviene il moto).

In ambito automobilistico viene a volte indicato anche come coefficiente di penetrazione


aerodinamica, viene riferito alla sezione frontale del veicolo e rappresenta ovviamente solo uno dei
termini di resistenza all'avanzamento.

In ambito aeronautico il coefficiente viene utilizzato in particolare per definire la resistenza generata
dal moto di un velivolo adimensionalizzata rispetto alla superficie alare o di un profilo alare usando, in
tal caso, la corda del profilo come dimensione di riferimento.

Coefficiente di resistenza aerodinamica


Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca

Questa voce di fisica è solo un abbozzo: contribuisci a migliorarla secondo le convenzioni di Wikipedia.

Il coefficiente di resistenza aerodinamica (anche noto con i simboli Cx o Cd) è un gruppo


adimensionale che misura la resistenza aerodinamica di un corpo in moto in un fluido. Dipende dalla
forma del corpo ed è indipendente dalla sezione o dalla velocità cui viene effettuato il moto.

Nella forma tipica della resistenza aerodinamica viene definito a partire dalla seguente espressione:

in cui

R è la resistenza aerodinamica

ρ è la densità del fluido


Cd è il coefficiente di resistenza aerodinamica

A è l'area di riferimento

v è la velocità del corpo rispetto al fluido

È molto usato in tutti i problemi di fluidodinamica o aerodinamica esterna e trova applicazione sia in
ambito aeronautico (in cui viene indicato con il simbolo Cd, dall'inglese drag - "resistenza") che in
ambito automobilistico, (generalmente indicato in questo caso con il simbolo Cx, in cui la X indica
l'asse coordinato lungo il quale avviene il moto).

In ambito automobilistico viene a volte indicato anche come coefficiente di penetrazione


aerodinamica, viene riferito alla sezione frontale del veicolo e rappresenta ovviamente solo uno dei
termini di resistenza all'avanzamento.

In ambito aeronautico il coefficiente viene utilizzato in particolare per definire la resistenza generata
dal moto di un velivolo adimensionalizzata rispetto alla superficie alare o di un profilo alare usando, in
tal caso, la corda del profilo come dimensione di riferimento.

Motore in corrente continua 
Da Wikipedia, l'enciclopedia libera. 
Vai a: Navigazione, cerca 

Il motore in corrente continua (brevemente motore in CC) è stato il primo motore elettrico
realizzato, ed è tuttora utilizzato ampiamente per piccole e grandi potenze. Sono a corrente continua (o
comunque alimentabili in corrente continua) numerosi motori di piccola potenza per usi domestici,
come anche motori per trazione ferroviaria e marina della potenza di molte centinaia di kW.

Un semplice motore DC. Quando la corrente scorre negli avvolgimenti, si genera un campo magnetico intorno 
al rotore. La parte sinistra del rotore è respinta dal magnete di sinistra ed attirata da quello di destra. 
Analogamente fa la parte in basso a destra. La coppia genera la rotazione. 
Indice
[nascondi] 

• 1 Cenni storici 
• 2 Motore CC a magneti permanenti  
o 2.1 Motore a spazzole 
o 2.2 Motore brushless 
• 3 Motore CC con statore a filo avvolto 
• 4 Motore passo‐passo 
• 5 Voci correlate 

[modifica] Cenni storici


Uno dei primi motori elettromagnetici rotanti, se non il primo, è stato inventato da Michael Faraday nel
1821, e consisteva in un filo conduttore tenuto fermo verticalmente alla sua estremità superiore in
modo che l'estremità inferiore fosse immersa in un piatto contenente mercurio. Un magnete permanente
circolare era sistemato al centro del piatto. Quando una corrente elettrica veniva fatta scorrere nel filo,
questo ruotava attorno al magnete mostrando che la corrente generava un campo magnetico attorno al
filo. Questo è un esperimento didattico utilizzabile in una lezione di fisica, anche se al posto del
mercurio (tossico) conviene usare un altro liquido conduttore come acqua molto salata.

 
Il rotore continua a girare. 

[modifica] Motore CC a magneti permanenti


[modifica] Motore a spazzole 

Il classico motore in corrente continua ha una parte che gira detta appunto rotore o anche armatura (in
grigio con gli avvolgimenti colorati nelle figure) e una parte che genera un campo magnetico fisso
(nell'esempio i due magneti colorati) detta statore. Un interruttore rotante detto commutatore o
collettore a spazzole (o anello di Pacinotti) (nelle figure l'anello color rame, fissato all'albero rotante del
motore, con i due contatti striscianti + e - collegati alla parte ferma) inverte due volte ad ogni giro la
direzione della corrente elettrica che percorre i due avvolgimenti generando un campo magnetico che
entra ed esce dalle parti arrotondate dell'armatura. Nascono forze di attrazione e repulsione con i
magneti permanenti fissi (indicati con N ed S nelle figure).

La velocità di rotazione dipende da:

• Tensione applicata. 
• Corrente assorbita dal rotore. 
• Carico applicato (chiamato coppia di carico). 

La coppia generata è proporzionale alla corrente. Il controllo più semplice agisce sulla tensione di
alimentazione. Nei sistemi più complessi si usa un controllo in retroazione che legge le variabili
(corrente, velocità di rotazione) per generare, con un alimentatore switching, la tensione da applicare al
motore.

 
Quando il rotore sarà allineato orizzontalmente, il commutatore invertirà la direzione della corrente che scorre negli 
avvolgimenti, invertendo il campo magnetico e inizierà la seconda parte del giro. 

Dato che questo tipo di motore può sviluppare una forte coppia a basse velocità di rotazione è stato
usato nella trazione elettrica, come, ad esempio, sulle locomotive. Il motore CC a magneti permanenti
ha un comportamento reversibile: diventa un generatore di corrente continua (una dinamo) se si collega
un altro motore all'albero. Si può allora prelevare l'energia elettrica prodotta collegandosi alle spazzole.
(Da questo si può intuire la sua capacità di agire anche da freno: applicando tra le spazzole un resistore
l'energia meccanica trasmessa all'albero si dissipa su questo resistore). Riassumendo si può affermare
che il motore CC ha tutte le funzioni necessarie per un mezzo mobile: oltre alla funzione di motore può
recuperare l'energia funzionando da dinamo e, quando necessario, può servire da freno.

Il suo limite principale è nella necessità del commutatore a spazzole:

• Le spazzole sono in grafite. Questo consente un buon contatto elettrico minimizzando gli attriti. La loro 
usura richiede periodici interventi di manutenzione (d'altra parte è preferibile dover sostituire le 
spazzole che non l'intero collettore, operazione ovviamente molto più complessa). 
• Le spazzole pongono un limite alla massima velocità di rotazione: maggiore è la velocità e più forte è la 
pressione che bisogna esercitare su di esse per mantenere un buon contatto. 
• Tra spazzole e collettore, nei momenti di commutazione, si hanno transitori di apertura degli 
avvolgimenti induttivi e quindi scintillio (attenuabile con opportuni sistemi ma non eliminabile). 
• Queste scintille comportano disturbi elettrici sia irradiati nell'ambiente circostante che trasmessi al 
generatore di tensione (che alimenta il motore); questi disturbi, in determinati settori di impiego, 
possono causare problemi di compatibilità elettromagnetica. 

La presenza di avvolgimenti elettrici sul rotore ha anche due aspetti negativi:

• Se il motore è di grossa potenza si hanno dei problemi di smaltimento del calore (gli avvolgimenti si 
riscaldano per effetto Joule e il campo magnetico alternato nel nucleo del rotore genera altre perdite e 
quindi altro calore). 
• Gli avvolgimenti appesantiscono il rotore (aumenta il momento d'inerzia): se il motore deve rispondere 
con rapidità e precisione (come avviene nelle automazioni industriali e nella robotica) il controllo 
diventa più complesso. 

[modifica] Motore brushless 

 
Per approfondire, vedi la voce Motore brushless. 

I problemi illustrati si potrebbero evitare scambiando il rotore con lo statore (cioè se gli avvolgimenti
venissero messi sulla parte fissa e i magneti fossero montati sul rotore). Scomparirebbe il collettore a
spazzole, e gli avvolgimenti elettrici potrebbero smaltire più facilmente il calore generato. È quello che
si fa nei motori brushless (in inglese letteralmente: senza spazzole). Essi permettono inoltre di ridurre
ulteriormente le dimensioni del rotore (e quindi le sue inerzie) usando materiali magnetici più efficienti
come le leghe di samario-cobalto. In questi motori il circuito di alimentazione deve essere più
sofisticato, dato che le funzioni del collettore meccanico sono svolte tramite un controllo elettronico di
potenza.

[modifica] Motore CC con statore a filo avvolto


Nei motori CC lo statore può essere realizzato non con magneti permanenti ma, similmente al rotore,
con avvolgimenti su materiale ad alta permeabilità in cui viene fatta scorrere della corrente: questo
circuito è detto di eccitazione. In questo modo si possono avere potenze maggiori (ma si dovrà
spendere più energia anche per alimentare questo nuovo circuito). Si possono avere vari casi
nell'alimentazione del circuito di statore:

• motore ad eccitazione indipendente: l'avvolgimento di statore è alimentato in maniera indipendente 
da quello di rotore. Si ha allora più flessibilità nel controllo dei parametri (coppia e velocità) del 
motore. 
• motore ad eccitazione in parallelo: statore e rotore sono collegati in parallelo (coppia maggiore, minore 
velocità) 
• motore ad eccitazione in serie: statore e rotore sono collegati in serie (coppia inferiore, maggiore 
velocità). 

Si possono avere anche situazioni intermedie utilizzate in passato soprattutto nella trazione elettrica
(dove è richiesta molta coppia allo spunto e maggiore velocità a regime).

Il motore con statore a filo avvolto può essere alimentato sia in corrente continua che in alternata, e per
questo motivo è chiamato anche motore universale; di fatto, nella maggior parte delle applicazioni,
questo tipo di motore è alimentato in corrente alternata. La disponibilità a costi contenuti di dispositivi
elettronici (come circuiti integrati, ponti raddrizzatori, dispositivi di potenza a semiconduttore, ecc.),
alcune applicazioni che in passato sarebbero state realizzate con motori universali ora vengono
sviluppate con motori CC con magneti permanenti, permettendo ad esempio un controllo della velocità
più preciso.

[modifica] Motore passo-passo

 
Per approfondire, vedi la voce Motore passo‐passo. 

I motori passo-passo, a differenza di tutti gli altri, hanno come scopo quello di mantenere fermo
l'albero in una posizione di equilibrio: se alimentati si limitano infatti a bloccarsi in una ben precisa
posizione angolare. Solo indirettamente è possibile ottenerne la rotazione: occorre inviare al motore
una serie di impulsi di corrente, secondo un'opportuna sequenza, in modo tale da far spostare, per scatti
successivi, la posizione di equilibrio.

Le posizioni di equilibrio dell'albero sono determinate meccanicamente con estrema precisione. Di


conseguenza, per far ruotare l'albero nella posizione e alla velocità voluta, è necessario contare il
numero di impulsi inviati ed impostarne la frequenza.

Il rotore, che appare come una coppia di ruote dentate affiancate e solidali all'albero, permanentemente
magnetizzate, una come NORD e l'altra come SUD. Tra le due ruote è presente uno sfasamento
esattamente pari ad 1/2 del passo dei denti: il dente di una delle due sezioni corrisponde quindi alla
valle dell'altra. Nel rotore non sono presenti fili elettrici e quindi manca completamente ogni
connessione elettrica tra la parte in movimento e quella fissa.

Lo statore presenta piccoli denti che si affacciano esattamente a quelli del rotore. O meglio, sono
esattamente affacciati al rotore solo un gruppo di denti ogni quattro; gli altri sono sfalsati di 1/4, 1/2 e
3/4 del passo dei denti. Avvolti intorno ai poli magnetici dello statore, dei fili generano il campo
magnetico quando vengono percorsi da corrente. In ogni momento, per far compiere un passo al
motore, si applica corrente alla parte di statore esattamente di fronte ai denti del rotore: la forza
repulsiva tra poli magnetici opposti farà spostare il rotore.

Tenacità 
Da Wikipedia, l'enciclopedia libera. 
Vai a: Navigazione, cerca 

 Questa voce di fisica è solo un abbozzo: contribuisci a migliorarla secondo le convenzioni di Wikipedia. 

La tenacità di un materiale ne indica la capacità di assorbire energia, spendendola nella sua


deformazione. La scarsa tenacità di un materiale può portare ad una rottura di tipo fragile che si svolge
nelle seguenti fasi:

• Innesco di una cricca (rottura locale) 
• Propagazione della rottura (se il materiale è privo di tenacità la rottura procede rapidamente e con un 
minimo dispendio di energia) 

In metallurgia si incontra la definizione di tenacità statica, indice della capacità di un materiale di


immagazzinare energia nel campo elasto-plastico prima di arrivare a rottura sotto sforzi di trazione;
essa è pari all'area sottostante la curva reale di trazione e quindi all'energia per unità di volume richiesta
per deformare a trazione un campione di materiale fino a un valore ε:

Essa è proporzionale al prodotto Rm An (dove Rm è il carico di rottura di un materiale e An è


l'allungamento percentuale dopo rottura).

Estrusione 
Da Wikipedia, l'enciclopedia libera. 
Vai a: Navigazione, cerca 

L'estrusione è un processo di produzione industriale di tipo deformazione plastica che consente di


produrre pezzi a sezione cilindrica (tubi, profilati). Essa è utilizzata per i materiali metallici, la gomma
la plastica e altre produzioni.

Consiste essenzialmente nel forzare per compressione il materiale, allo stato pastoso, a passare
attraverso una sagoma (matrice) che riproduce la forma esterna del pezzo che si vuole ottenere. Se la
sezione di questo è cava, sarà presente un'anima che riprodurrà il profilo della cavità interna. All'uscita
dalla matrice il materiale viene raffreddato o, nel caso della gomma, sottoposto a vulcanizzazione. La
compressione del materiale a monte della matrice è ottenuta, per la gomma e la plastica, da
apparecchiature a semplice o doppia vite senza fine, che spingono il materiale verso la testa di
estrusione; nel caso della plastica si introduce il materiale in granuli, il calore prodotto dall'attrito e da
resistenze elettriche ne causa la fusione. Per i metalli si usano macchine a pistone.

Mediante opportuni accorgimenti (matrici con parti mobili) si riescono ad ottenere profilati in gomma a
sezione variabile, come ad esempio alcuni tipi di guarnizione per le porte degli autoveicoli.

Una variante al processo è la coestrusione, in cui si lavorano contemporaneamente materiali diversi,


che escono dalla matrice accoppiati, cosicché si ottengono, ad es. guarnizioni con un'anima rigida, che
funge da supporto e una parte esterna morbida che garantisce una buona ermeticità.

Lavorazioni a freddo
Si effettuano solamente su lamiere d'acciaio e d'alluminio. Le lamiere possono essere piegate oppure
lavorate per ottenere pezzi cavi.

[modifica] Imbutitura 

La lamiera viene appoggiata su una superficie cava e colpita con un martello, in modo da darle la forma
desiderata.
[modifica] Oggetti per imbutitura 

Vengono prodotti con l'imbutitura oggetti quali pentole, coperchi, esterno di elettrodomestici, portiere e
cofani.

Cogenerazione 
Da Wikipedia, l'enciclopedia libera. 
Vai a: Navigazione, cerca 

Col termine cogenerazione si indica la produzione combinata di più fonti di energia secondarie
(energia elettrica ed energia termica) partendo da un'unica fonte (sia fossile che rinnovabile) attuata in
un unico sistema integrato.

Indice
[nascondi] 

• 1 Un esempio 
• 2 Impieghi della cogenerazione 
• 3 Definizione di efficienza 
• 4 Tipologie di impianti cogenerativi  
o 4.1 Microcogenerazione 

[modifica] Un esempio
Un esempio classico è dato dal funzionamento di un'automobile, la potenza prelevata dall'albero
motore è usata per la trazione e la produzione di elettricità, il calore per il riscaldamento dell'abitacolo e
la pressione dei gas di scarico per muovere la turbina... Lo sfruttamento di calore e pressione non
comporta un aumento dei consumi poiché sono "scarti" del processo di conversione da energia chimica
ad energia cinetica attuato dal motore. Il loro sfruttamento consente a parità di energia immessa (il
combustibile) una maggiore quantità di energia sfruttata (calore, movimento).

[modifica] Impieghi della cogenerazione


L'energia termica può essere utilizzata per uso industriale o condizionamento ambientale
(riscaldamento, raffreddamento).
La cogenerazione viene realizzata in particolari centrali termoelettriche, dove si recuperano l'acqua
calda di processo e/o i fumi, prodotti da un motore primo alimentato a combustibile fossile (gas, olio
combustibile, biomasse, etc): si ottiene così un significativo risparmio di energia rispetto alla
produzione separata dell'energia elettrica (tramite generazione in centrale elettrica) e dell'energia
termica (tramite centrale termica tradizionale).

La cogenerazione con potenza elettrica inferiore ad 1MW si definisce microcogenerazione, e viene


effettuata tramite motori alternativi a combustione interna, microturbine a gas o motori a ciclo Stirling.
Un particolare campo dei sistemi di cogenerazione è quello della trigenerazione.

[modifica] Definizione di efficienza


L'efficienza può essere espressa in diversi modi, che non sempre portano a un corretto confronto tra i
vari impianti. Si illustrano allora le definizioni adottate dall'EPA (Environmental Protection Agency).

L'efficienza semplice di un singolo impianto è il rapporto tra l'output elettrico netto e la quantità di
combustibile consumato. Invece la quantità di calore è il rapporto tra i Btu di combustibile consumato
e i kWh prodotti. Dato che i sistemi di cogenerazione producono sia elettricità, sia calore, la loro
efficienza totale è data dalla somma dell'output elettrico netto e termico diviso il combustibile
impiegato.
L'EPA usa preferibilmente un'altra definizione di efficienza nota come "efficacia nell'utilizzazione di
combustibile", rapporto tra l'output elettrico netto e il consumo di combustibile netto (che non tiene
conto del combustibile usato per produrre energia termica utilizzabile, calcolato assumendo
un'efficienza specifica della caldaia dell'80%). Il reciproco di questo rapporto è la quantità netta di
calore.

[modifica] Tipologie di impianti cogenerativi


Il più comune esempio di impianto cogenerativo è quello realizzato con turbogas/motore alternativo e
caldaia a recupero. I fumi del turbogas o del motore alternativo vengono convogliati attraverso un
condotto fumi nella caldaia a recupero. Il recupero può essere semplice, qualora non esista un
postbruciatore, o un recupero con postcombustione in caso contrario. I fumi in caldaia permettono di
produrre acqua calda, vapore saturo o vapore surriscaldato. Solitamente si utilizza acqua calda per
scopi di riscaldamento, vapore saturo per utenze industriali e vapore surriscaldato per turbine a vapore
e utenze. In definitiva si ha produzione di energia elettrica attraverso l'alternatore accoppiato al
turbogas ed eventualmente attraverso l'alternatore accoppiato al turbovapore e produzione di energia
termica sotto forma di vapore, sfruttato poi dalle utenze connesse. In presenza di turbovapore si ottiene
un ciclo combinato in cui la dispersione energetica è minima e consiste in maggior parte nel calore
buttato in atmosfera dai fumi in uscita dalla caldaia a recupero.

[modifica] Microcogenerazione 

La cogenerazione con potenza elettrica inferiore ad 1MW si definisce microcogenerazione, e viene


effettuata tramite motori alternativi a combustione interna, microturbine a gas o motori a ciclo Stirling.

Inarcassa
Inarcassa è stata fondata nel 1961 come ente pubblico per la previdenza e l'assistenza degli
Ingegneri ed Architetti liberi professionisti; dal 1995 è un'associazione privata, basata su uno
Statuto predisposto dal Comitato Nazionale dei Delegati e approvato dai Ministeri vigilanti. E'
dunque un organismo in grado di operare in autonomia in favore della categoria a cui si riferisce,
in particolare potenziando le risorse del suo patrimonio.

La contribuzione, che è lo strumento per rendere concreta la tutela previdenziale garantita


costituzionalmente, è basata su versamenti obbligatori, calcolati in percentuale sui redditi prodotti
dai professionisti; sono comunque dovuti dei contributi minimi in misura fissa, indipendentemente
dal reddito e dal volume di affari.
Due sono i tipi di contribuzione: quella di tipo soggettivo, a cui sono tenuti solo gli iscritti ad
Inarcassa, e quella di tipo integrativo cui sono tenuti, oltre agli iscritti, anche tutti i soggetti non
iscritti perché non liberi professionisti, ma titolari di Partita Iva.

Le pensioni vengono calcolate sui redditi professionali prodotti negli ultimi 25 anni precedenti alla
maturazione del diritto alla pensione.

Inarcassa oggi ha più di 130.000 iscritti, di cui circa il 50% ha meno di 40 anni di età; mentre
circa 45.000 contribuiscono solo in termini di contributo integrativo; al contributo integrativo sono
tenute anche le società di ingegneria. Infine gli iscritti e i pensionati Inarcassa versano
annualmente un contributo detto di maternità che ha natura tipicamente solidaristica ed è
finalizzato all'erogazione della relativa indennità.
Attualmente l'Ente eroga circa 14.000 pensioni.

Nel 2005 l'importo totale delle contribuzioni ammontava a circa 520 milioni di Euro, la spesa per le
pensioni a 220 milioni di euro.

L'asset allocation (2007) è la seguente: la classe immobiliare rappresenta il 25% dell'intero


patrimonio, la classe obbligazionaria rappresenta il 37%, la classe azionaria il 22%, la classe degli
investimenti alternativi il 14%, quella monetaria il 2%.

La politica d'investimento è determinata dal Consiglio di Amministrazione di Inarcassa.

Art. 3 - Scopo

3.1 - Inarcassa, ai sensi dell’art. 38 della Costituzione della Repubblica Italiana, provvede ai
compiti di previdenza ed assistenza a favore degli iscritti e degli ulteriori destinatari, individuati
dalle norme del presente Statuto; inoltre, compatibilmente con le disponibilità di bilancio, svolge
attività integrative a favore degli stessi iscritti.

Common rail 
Da Wikipedia, l'enciclopedia libera. 
Vai a: Navigazione, cerca 

Il common rail è una versione moderna del motore diesel ad iniezione diretta. È caratterizzato dalla
presenza di un unico condotto ad alta pressione (da 300 al minimo a oltre 1400 bar a pieno carico) per
il combustibile che alimenta le valvole a solenoide sui cilindri. Nei precedenti motori ad iniezione
diretta una pompa a bassa pressione alimenta gli iniettori o dei condotti ad alta pressione fino alle
valvole controllate da un albero a camme o che si aprono grazie alla pressione esercitata dal
combustibile su un corpo conico che ottura l'orifizio di iniezione e nebulizzazione vincendo così la
forza della molla tarata (Tra i 350 e i 450 bar per i grandi motori navali e trai 750 e i 950 bar nei
comuni motori per autotrazione) che lo mantiene in posizione di chiusura. Una terza generazione di
motori diesel common rail utilizza iniettori piezoelettrici che permettono una maggiore accuratezza
della quantità di carburante spruzzata ed una pressione fino a 1900 bar ed oltre .

Le valvole a solenoide o piezoelettriche permettono di controllare elettronicamente la durata


dell'iniezione e la quantità di combustibile introdotta, inoltre l'alta pressione permette una migliore
nebulizzazione del combustibile. Per ridurre la rumorosità di funzionamento del motore viene
introdotta una piccola quantità pilota di combustibile prima dell'iniezione principale. Questa soluzione
detta "preiniezione" permette al combustibile di iniziare a bruciare da un unico punto all'interno della
camera di combustione, a differenza dei motori diesel tradizionali nei quali si creavano vari punti di
accensione, dando origine così a numerosi fronti di fiamma che urtano tra loro. Evitando ciò, i common
rail riescono a ridurre le rumorosità e gli elevati picchi di pressione ed ottengono una combustione più
ordinata, grazie alla quale diminuiscono le emissioni di gas incombusti ed i consumi (circa il 15%) ed
ha un sensibile aumento delle prestazioni (circa il 12%). Il sistema di preiniezione rende il common rail
molto più simile ai motori ad accensione comandata (i comuni motori a benzina) che ad un tradizionale
motore ad accensione spontanea (motore diesel). I motori più sofisticati possono effettuare fino a
cinque iniezioni per ciclo, sono detti multijet.

Sistema internazionale di unità di misura 
Da Wikipedia, l'enciclopedia libera. 
(Reindirizzamento da Sistema Internazionale di unità di misura) 

Vai a: Navigazione, cerca 

Nota disambigua ‐ Se stai cercando altre voci che possono riferirsi alla stessa combinazione di 2 caratteri, 
vedi SI (disambigua). 

Il Sistema internazionale di unità di misura, più ufficialmente - in lingua francese - Système


International d'Unités e abbreviato in SI, è il più diffuso tra i sistemi di unità di misura. Assieme al
Sistema CGS, oggi non più ufficiale, viene spesso indicato come sistema metrico, soprattutto nei paesi
anglosassoni.

Le unità e gli altri elementi del SI vengono stabilite dalla Conférence Générale des Poids et Mesures,
CGPM, organismo collegato con il Bureau International des Poids et Mesures BIPM, chiamato in
italiano Ufficio internazionale dei pesi e delle misure.

Questo sistema di misura nasce nel 1889 con la 1a CGPM ed allora si chiamava "Sistema MKS" perché
comprendeva le unità fondamentali di lunghezza (metro), massa (chilogrammo) e tempo (secondo). Nel
1946, su proposta di Giovanni Giorgi, la CGPM approva l'entrata dell'ampere come unità
fondamentale. Nasce così il "Sistema MKSA", anche chiamato "Sistema Giorgi" in onore del fisico;
anche se de facto la quarta unità da tutti usata era l'ohm. Infine, nel 1954, con l'aggiunta del kelvin e
della candela la 10a CGPM sancisce la nascita del Sistema Internazionale (SI). Nel 1971 la 14a CGPM
aggiunge la mole fra le unità fondamentali di questo sistema.

Oggi, quindi, il SI è basato su sette unità fondamentali, con le quali vengono definite le unità derivate.
Il SI, inoltre, definisce una sequenza di prefissi da premettere alle unità di misura per identificare i loro
multipli e sottomultipli.

Il Sistema Internazionale è un sistema coerente, in quanto le sue unità derivate si ricavano come
prodotto di unità fondamentali.
Unità fondamentali 

Ogni altra grandezza (e la relativa unità di misura) è una combinazione di due o più grandezze (unità)
di base, od il reciproco di una di esse. Con l'eccezione del chilogrammo, tutte le altre unità sono
definibili misurando fenomeni naturali. Inoltre, è da notare che il chilogrammo è l'unica unità di misura
di base contenente un prefisso: questo perché il grammo è troppo "piccolo" per la maggior parte delle
applicazioni pratiche.

Quantità fisica  Simbolo della quantità fisica Nome dell'unità SI Simbolo dell'unità SI 

lunghezza   l  metro   m

massa   m  chilogrammo   kg

tempo   t  secondo   s

corrente elettrica   I  ampere   A

temperatura termodinamica T    kelvin   K

quantità di sostanza   n  mole   mol

intensità luminosa   I  candela   cd

Batteria (chimica) 
Da Wikipedia, l'enciclopedia libera. 
(Reindirizzamento da Batteria elettrica) 

Vai a: Navigazione, cerca 

Questa voce riguardante un argomento di tecnologia non è ancora stata 
tradotta completamente dalla lingua inglese. Terminala o riscrivila tu, 
eliminando il testo in lingua straniera quando hai finito.  

Vedi le altre voci da tradurre dalla stessa lingua e dello stesso argomento.  Non usare
 

traduttori
Nota: il testo da tradurre potrebbe essere nascosto: vai in modifica per visualizzarlo. automatici!
Prima di salvare la pagina, non dimenticare di eliminare o spostare i segni <!-- e -->
che delimitano il testo da nascondere.
 

Simbolo elettrico della batteria 

Batteria 

Una batteria elettrica (o meglio un pacco batteria) è un dispositivo costituito da diversi elementi
collegati in serie in modo che la tensione dei singoli elementi si sommi.

Ogni singolo elemento può essere costituito da una batteria primaria o secondaria.
Si definisce primaria o "pila" una batteria non ricaricabile, secondaria o "accumulatore" una batteria
ricaricabile.

Sono esempi di batterie ricaricabili l'accumulatore dell'automobile e del telefono cellulare.

Sono batterie non ricaricabili, ossia primarie tutte le pile alcaline. I tipi più comuni di pile alcaline
disponibili in commercio sono: AA-stilo, AAA-ministilo, C-mezzatorcia, D-torcia, 9V.

La capacità delle batterie, ovvero la quantità di carica elettrica che può essere immagazzinata, è
comunemente espressa in Amperora (Ah), con 1 Ah equivale a 3600 Coulomb. Per ottenere l'energia in
wattora è necessario moltiplicare la capacità in Ah per la tensione nominale. Una batteria da 1 Ah può
erogare una corrente di 1 ampere per un'ora prima di scaricarsi, oppure 10 A per 6 minuti, o anche 0,1
A per 10 ore. In realtà la capacità reale è molto dipendente dal tasso di scaricamento, per cui una
batteria da 1Ah probabilmente non arriva ad erogare 10 A per 6 minuti.

 
Batterie in commercio 

La capacità è misurata sperimentalmente sottoponendo la batteria ad un ritmo di scarica standard,


solitamente con una corrente che faccia scaricare la batteria in venti ore ovvero una corrente pari alla
capacità della batteria diviso venti ore.

Ci sono in commercio dei tester di capacità delle batterie primarie (non ricaricabili) e secondarie
(ricaricabili).

Durante l'assorbimento di corrente una batteria emette calore. Una scarica troppo violenta può
provocare l'esplosione di alcuni tipi di batteria. Per questo motivo è importante fare attenzione a non
mettere in cortocircuito i due poli elettrici della batteria.

Se si cerca di ricaricare una batteria non ricaricabile, si ottiene una produzione di idrogeno e ossigeno
ai due poli delle singole celle, e se la produzione dei due gas è più alta della loro velocità di fuga, la
batteria può esplodere.

Per le batterie ricaricabili è opportuno utilizzare caricabatterie di ottima qualità che prevedono una serie
di protezioni, sia per l'utilizzatore che per la batteria ricaricabile. Le protezioni sono: - individuazione
di batterie primarie (Alcaline) bloccando automaticamente la carica - protezione contro scambio di
polarità - protezione contro riscaldamento della batteria ricaricabile - protezione timer di sicurezza -
individuazione automatica della capacità della batteria ricaricabile

Pile primarie o batterie (non ricaricabili)


Le pile primarie, chiamate comunemente batterie, sono quelle pile le cui reazioni chimiche interne sono
irreversibili. In altre parole, non è possibile invertire la reazione completa semplicemente fornendo
energia alla pila; quindi, in sostanza, quando tutti i reagenti della pila si trasformano completamente nei
prodotti finali, essa si scarica definitivamente divenendo inutilizzabile.

Rappresentazione schematica di una pila Leclanché; il catodo (+) è una barretta di grafite, il contenitore 
esterno di zinco funge da anodo (‐) 
[modifica] La pila a secco o pila Leclanché 

La prima pila a secco, cioè priva di elementi liquidi, prodotta industrialmente e commercializzata su
ampia scala è la pila Leclanché, dal nome del suo inventore Georges Leclanché.

La pila Leclanché è costituita da un anodo di zinco metallico, che funge anche da contenitore, e da un
catodo costituito da una barretta di grafite, sulla cui superficie avviene la riduzione del biossido di
manganese, miscelato a del cloruro d'ammonio a formare una pasta gelatinosa.

La stechiometria della reazione di riduzione non è esattamente nota, tuttavia si può dire che le reazioni
che in una pila Leclanché sono le seguenti

ossidazione  
Zn → Zn2+ + 2 e-  Eo = ‐ 0,76 

riduzione  
2 MnO2 + 2 NH4+ + 2 e- → 2 MnO(OH) + 2 Eo = + 0,75 
NH3  V 

reazione  Zn + 2 MnO2 + 2 NH4+ → Zn2+ + 2 MnO(OH) Eo = + 1,51 


complessiva  + 2 NH3  V 

Il cloruro d'ammonio, oltre a fornire gli ioni H+ per la reazione di riduzione, ha anche il compito di
complessare gli ioni zinco prodotti dalla reazione di ossidazione

Zn2+ + 2 NH4+ + 2 OH- → [Zn(NH3)2]2+ + 2 H2O 

mantenendo quindi bassa la concentrazione degli ioni Zn2+ liberi, e quindi mantenendo elevato il
potenziale della reazione di ossidazione, legato alle concentrazioni delle specie ossidata e ridotta
secondo l'equazione di Nernst.

L'ammoniaca che si libera al catodo tende a formare un velo gassoso sulla sua superficie, che
impedisce il flusso degli elettroni. Quando questo avviene, la pila smette di erogare corrente e diviene
scarica.

Pile secondarie o accumulatori (ricaricabili)


 

Pile di diverso tipo (in senso orario da in basso a sinistra): due 9‐volt, due "AA", una "D", pila di un telefono 
cordless, pila di una telecamera, pila di una radio portatile, pila a bottone, una "C" e due "AAA", più un quarto 
di dollaro, per confronto 

Le pile secondarie, o accumulatori, sono quelle pile le cui reazioni chimiche interne sono reversibili. A
differenza delle pile primarie, somministrando energia elettrica a questi dispositivi si inverte il senso
della reazione completa ottenendo la riformazione dei reagenti iniziali a spese dei prodotti finali. Di
fatto, quindi, la pila si ricarica.

[modifica] Accumulatore al piombo 

La cella piombo-acida è il costituente fondamentale dei comuni accumulatori per auto. Utilizzano un
anodo fatto di polvere di piombo (Pb) spugnosa e un catodo di diossido di piombo (PbO2). L’elettrolita
è una soluzione di acido solforico (H2SO4) 4,5 M. La differenza di potenziale ai poli è di 2,1 V infatti
negli accumulatori per automobili troviamo sei celle piombo-acide in serie, che generano una
differenza di potenziale complessiva di 12 V.

Negli accumulatori moderni, infine, si utilizza una lega di piombo che inibisce l’elettrolisi dell’acqua,
potenzialmente pericolosa in quanto producendo idrogeno e ossigeno gassosi è a rischio di esplosioni.

Reazione chimica all'anodo (ossidazione)

Pb + HSO4- -> PbSO4 + H+ + 2e- 

Reazione chimica al catodo (riduzione)

PbO2 + 3H+ + HSO4- + 2e- -> PbSO4 + 2H2O 

Reazione completa

PbO2 + Pb + 2H2SO4 -> 2PbSO4 + 2H2O 

Usi: Alimentazione automobili e camion 

Vantaggi: Eroga correnti molto elevate, affidabile e di lunga vita, funziona bene a basse temperature 

Svantaggi: Il piombo è un metallo pesante ed è tossico. Perdita di capacità dovuta a stress meccanici. 
LAMPIONI FOTOVOLTAICI PER ILLUMINAZIONE STRADALE

Eseguiamo la fornitura di Lampioni Fotovoltaici per illuminazione stradale


dotati di batterie di accumulo e pannelli fotovoltaici in silicio monocristallino

LAMPIONE SOLARE LP150W

cliccare per ingrandire le immagini

I lampioni fotovoltaici sono strutture autoalimentate che


consentono di creare, in zone non elettrificate, una rete di
illuminazione che sfrutta l'energia solare, in alternativa alla
alimentazione di rete a 220 V consentendo così una veloce
installazione di punti luce ed una grande versatilità nella
realizzazione degli impianti di illuminazione stradale.

Descrizione Generale

Il lampione solare, è un sistema autoalimentato con i pannelli fotovoltaici, è particolarmente adatto ad illuminare strade in zone
rurali e/o periferiche.
La produzione di energia elettrica è assicurata da un solo pannello fotovoltaico tipo H150, in silicio monocristallino, avente una
potenza massima nominale di 150 W ed una superficie attiva captante di 1,17mq.
Ogni lampione è comandato da una centralina che provvede alla ricarica dell'accumulatore e all'attivazione automatica della
lampada, che si accende al crepuscolo e si spegne dopo un tempo predeterminato mediante timer programmabile.
Lampada, pannello e centralina sono montati su di un palo in acciaio zincato a caldo, rastremato, con altezza di 7 metri.
Il sistema di accumulo e' costituito da una batteria semistazionaria a piastre piane al piombo da 12V/176 Ah, C100 a ridotta
manutenzione.
La batteria viene alloggiata in un pozzetto interrato, fornito a corredo completo di coperchio; questo tipo di soluzione, consente
alla batteria di subire minori escursioni termiche ed in particolare di non essere sottoposta alle basse temperature notturne
invernali che provocano una sensibile diminuzione della capacità reale e di conseguenza dell’autonomia di funzionamento del
lampione.

Aspetti ambientali

Dal punto di vista ambientale si ricorda che ogni kWh prodotto con fonte fotovoltaica consente di evitare l'emissione nell'atmosfera di 0,3 - 0,5 kg di CO2 (gas
responsabile dell’effetto serra, prodotto con la tradizionale produzione termoelettrica che, in Italia, rappresenta l’80% circa della generazione elettrica nazionale).

VANTAGGI:

Il sistema di illuminazione solare fotovoltaico ha alcune importanti peculiarità:

• Non ha bisogno di energia elettrica di rete, quindi ogni palo e' autonomo e non ha alcun collegamento fisico con gli
altri.

L'energia e' ricavata esclusivamente dalla luce del sole; immagazzinata di giorno ed erogata di notte.

• Non richiede intervento di alcun operatore, in quanto la centralina elettronica, una volta programmata, comanda le
accensioni e gli spegnimenti autonomamente.

Il sistema e' altamente affidabile, perché e' realizzato totalmente con componentistica allo stato solido. Il guasto di un
palo non influisce sul corretto funzionamento degli altri.
DIMENSIONAMENTO DEL SISTEMA

Il lampione è acceso, nelle ore notturne, per tutti i giorni dell'anno; nel dimensionamento del sistema
fotovoltaico infatti è stato preso in considerazione il periodo dicembre/gennaio, in cui l'insolazione e' minima e
statisticamente equivalente a circa 2,7 ore medie giornaliere (in realtà, in giornate con cielo non nuvoloso, le ore
di insolazione sono almeno 6).
In tali condizioni, l'accumulatore avrà una carica giornaliera (statistica media) di circa 350 Wh (pari alla potenza
utile resa dai moduli, moltiplicata 2,7 ore/giorno di sole sul piano dei moduli, corrispondenti alla media
giornaliera nel periodo di minor soleggiamento).

CONSUMO ENERGETICO:

Il consumo energetico del lampione è costituito da:


• Consumo della lampada, che assorbe 31 W effettivi per il periodo di accensione (10 ore)
• Consumo dell'inverter accenditore, pari a circa 2 W per il periodo di accensione (10 ore)
• Dispersioni nel circuito caricabatteria e nei cavi, pari a circa 2,3W per tutto il periodo medio di soleggiamento ipotizzato (2,7 ore)
• Assorbimento dei circuiti della centralina (interruttore crepuscolare, temporizzatore, circuiti di protezione batteria, alimentatore per tensioni di servizio), che
consumano circa 0,5 W per tutte le 24 ore.

L'energia totale giornaliera necessaria per il funzionamento di ogni singolo lampione è :


• Energia per la lampada 31x10 = 310 Wh
• Energia per l'inverter 2x10 = 20 Wh
• Energia per circuiti caricabatteria e cavi 2,3x 2,7 = 6 Wh
• Energia per circuiti centralina 0,5x24 = 12 Wh

PRODUZIONE TOTALE circa 350 Wh/gg


CONSUMO TOTALE circa 348 Wh/gg

Anche nel caso peggiore, ovvero con insolazione di sole 2,7 ore, la produzione di energia sarà lievemente superiore al necessario. Considerato il sistema
di accumulo possiamo quindi garantire circa 6 giorni di autonomia in assenza totale di sole

Container 
Da Wikipedia, l'enciclopedia libera. 
Vai a: Navigazione, cerca 

Questa voce è collegata al 
Portale Trasporti  

(Coordinamento del:Progetto Trasporti)


Sezione Trasporti
Trasporto di passeggeri
Trasporto di merci - Leggi
Trasporto su:
strada - rotaia - in cielo - per mare
Aziende del mondo dei trasporti
Persone del mondo dei trasporti
Sezione Veicoli

Mezzi di trasporto
: Case e Modelli
: Case e Modelli
: Case e Modelli
: Case e Modelli
: Case e Modelli

Il container è una attrezzatura specifica dei trasporti, in special modo del trasporto intermodale.

Indice
[nascondi] 

• 1 La storia 
• 2 Il container ISO 
• 3 Gli altri container 
• 4 Le caratteristiche tecniche  
o 4.1 Container 20' box  
ƒ 4.1.1 Pesi 
ƒ 4.1.2 Misure 
o 4.2 Container 40' box  
ƒ 4.2.1 Pesi 
ƒ 4.2.2 Misure 
o 4.3 Container 40' high cube  
ƒ 4.3.1 Pesi 
ƒ 4.3.2 Misure 
o 4.4 Container 20' reefer (refrigerato)  
ƒ 4.4.1 Pesi 
ƒ 4.4.2 Misure 
• 5 Le maggiori compagnie di container 
• 6 Voci correlate 
• 7 Collegamenti esterni 

[modifica] La storia
 

Nave portacontainer nel Porto di Copenaghen 

La richiesta di un contenitore multiuso, adatto per essere utilizzato nei vari tipi di trasporto di merci, è
nato nel primo dopoguerra negli USA ed utilizzato per primo nei trasporti verso Porto Rico. L'idea
originale si fa abitualmente risalire ad una intuizione, degli anni '30, di un imprenditore americano nel
campo dei trasporti, Malcolm Mclean. La comodità di una attrezzatura che consentiva di caricare le
merci e non doverle più movimentare singolarmente sino a destinazione è risultata subito evidente; di
conseguenza l'idea di containerizzare ha avuto un impulso notevole nel campo del trasporto marittimo
e negli scambi tra America ed Europa fin dagli anni '60. Oggi in qualsiasi porto è usuale la visione di
enormi colonne di container pronte ad essere imbarcate per ogni destinazione nel Mondo. Specialmente
sulla direttrice di traffico tra Estremo Oriente ed Europa è oggi il modo di trasporto sicuramente più
importante.

[modifica] Il container ISO

Classico container da 20 piedi 

Il più diffuso tra i contenitori è il container ISO (acronimo di International Organization for
Standardization); si tratta di un parallelepipedo in metallo le cui misure sono state stabilite in sede
internazionale nel 1967. A fronte di una larghezza comune di 8 piedi (cm 244) e una altezza comune di
8 piedi e 6 pollici (cm. 259), sono diffusi in due lunghezze standard di 20 e di 40 piedi (cm.610 e cm
1220). Ogni container è anche regolarmente numerato e registrato nella forma 4 lettere (delle quali le
prime 3 corrispondono alla sigla della compagnia proprietaria) - 6 numeri - 1 numero (denominato
"check-digit"). Da questa standardizzazione è nata anche l'abitudine di valutare la capacità di carico di
una nave portacontainer in TEU (acronimo di Twenty-feet Equivalent Unit).
Sono anche omogenei gli attacchi, presenti sugli angoli del contenitore, specifici per il fissaggio sui
vari mezzi di trasporto. In questo modo, tramite carrelli elevatori, carriponte, Straddle Carrier e gru
sono facilmente trasferibili tra una nave (dove possono essere facilmente sovrapposti verticalmente), un
vagone o un autocarro. Le caratteristiche di questi attacchi, unita alla robustezza intrinseca del
contenitore, ne consentono l'impilazione l'uno sull'altro, migliorando l'utilizzazione dei moli, delle
banchine e dei magazzini.

Il container ISO classico presenta le superfici laterali piene e una chiusura posteriore con due battenti
facilmente sigillabili per evitare effrazioni. Forse la sua maggiore limitazione consiste nelle misure
interne di carico che non consentono il carico affiancato di 2 pallet EUR.

Lo sviluppo del mercato ha portato, negli ultimi anni, alla particolarità che più della metà dei container
del mondo sono fabbricati in Estremo Oriente, soprattutto in Cina.

Per usi particolari e non molto frequenti, sono stati predisposti anche dei container ISO cisterna,
frigoriferi, open top (con tetto apribile) e container con pareti laterali apribili.

Attualmente l'importanza del container nel campo dei trasporti marittimi è giunta ad un livello tale che
le stime parlano di circa il 90% delle merci cargo trasportate attraverso l'uso di c.ca 200 milioni di TEU
all'anno.

[modifica] Gli altri container

Container aereo 

Pur essendo un'idea validissima, la containerizzazione con i classici modelli da 20 e 40 piedi è risultata
da subito non applicabile in alcuni casi specifici e, di conseguenza, dall'idea originale sono nate alcune
varianti specifiche. Una delle limitazioni riguarda le dimensioni, troppo grandi per una stiva aerea; per
sopperire al problema sono stati studiati dei container appositi di dimensioni più ridotte.

Cassa mobile per trasporti terrestri 
Nel caso invece del trasporto su strada la ricerca della massima capacità di carico e l'utilizzo precipuo
dei pallet da cm 120 * 80 di base (non affiancabili all'interno di un container ISO) ha fatto nascere una
soluzione ibrida, quella delle casse mobili, contenitori di solito forniti anche di zampe, con pareti
laterali più sottili e pertanto una superficie utile interna maggiore, ma con la possibilità, essendo un
accessorio, di non dover essere immatricolati singolarmente.

Un altro utilizzo particolare è quello dei container abitativi; partendo dalle misure standard di un
container da 40 piedi si è ricavato un minimo spazio abitativo, utilizzabile ad esempio nei casi di
calamità naturali, con la facilità di poter essere spostato velocemente da una località ad un'altra
utilizzando gli stessi attacchi standard. Con lo stesso spirito si sono visti nascere anche container
attrezzati internamente per l'uso in cantieri di lavoro oppure corredati di macchinari medici per ottenere
velocemente degli ospedali da campo.

Differenziale (meccanica) 
Da Wikipedia, l'enciclopedia libera. 
Vai a: Navigazione, cerca 

Un differenziale di automobile parzialmente aperto 

Nelle automobili e altri veicoli il differenziale è un organo meccanico che distribuisce equamente il
momento torcente tra le due ruote motrici anche se queste ruotano a differente velocità. Nell'ingegneria
meccanica viene considerato un tipo particolare di rotismo epicicloidale, analogamente allo schema
meccanico impiegato nella maggiorparte dei cambi automatici.

In alcuni veicoli, come ad esempio i veicoli ferroviari, alcune macchine operatrici ed i kart, non
esistono differenziali e quindi il momento torcente risulta applicato nella stessa misura alle due ruote
motrici solidali all'asse, che ruotano sempre alla stessa velocità. Tale soluzione non presenta particolari
problemi nella marcia su percorsi rettilinei, ma quando si deve effettuare una curva, dove la ruota
esterna dovrebbe ruotare più velocemente della ruota interna poiché deve percorrere una traiettoria
curva di lunghezza maggiore rispetto alla seconda. In assenza di differenziale una delle due ruote (o
entrambe) deve slittare rispetto al piano di rotolamento, provocando notevole usura dello stesso e della
ruota stessa e il veicolo tenderà a mantenere la direzione rettilinea.

Indice
[nascondi] 

• 1 Struttura e Funzionamento 
• 2 Differenziale attivo 
• 3 Storia 
• 4 Collegamenti esterni 

[modifica] Struttura e Funzionamento

In questo differenziale la rotazione è applicata alla corona (blu) e i pignoni (rosso e giallo) trasmettono la forza 
alle due ruote. Se le ruote girano alla stessa velocità, l'ingranaggio satellite (verde) non ruota sul suo asse 

Se la ruota di sinistra (pignone rosso) è frenata o bloccata, il satellite (verde) rotola sul pignone di sinistra 
fornendo una velocità di rotazione maggiore al pignone di destra 

Il differenziale è tipicamente costituito da una ruota ad anello, detta corona, che riceve il movimento
rotatorio dal cambio attraverso un sistema di ingranaggi conici o a corona ipoide chiamato coppia
conica. Il rapporto fra il diametro dell'ingranaggio solidale all' albero di trasmissione (pignone) e quello
della corona, determina un ulteriore aumento del rapporto di rotazione fra il motore e le ruote motrici.
All'interno della corona sono presenti due pignoni collegati attraverso due alberi alle corrispondenti
ruote. I pignoni sono montati in una gabbia solidale con la corona e in cui sono presenti due o più
ingranaggi detti satelliti liberi di ruotare. Normalmente la rivoluzione dei satelliti trascinati dalla corona
trascina i pignoni facendo ruotare egualmente le ruote.

Se una ruota incontra resistenza o comunque ruota più lentamente, per esempio in curva, i satelliti
entrano in rotazione in modo che maggiore velocità angolare venga trasmessa al pignone opposto.

Il semplice differenziale descritto presenta il grave problema che se una ruota slitta mentre l'altra
rimane in trazione, la prima riceve la maggior parte della potenza rendendo inefficace la potenza del
motore. Questo comporta che se in un'automobile una ruota si trova sul ghiaccio, tentare di accelerare
provoca semplicemente una rotazione più veloce di questa ruota, senza ottenere una spinta utile
dall'altra. La stessa cosa si verifica se una ruota rimane sollevata da terra, situazione che può capitare
nei veicoli fuoristrada.

Una soluzione a questo problema è l'impiego di frizioni tra i due pignoni che, in caso di superamento di
una certa differenza di velocità mette in collegamento gli alberi delle due ruote riducendo la differenza
di coppia.

Un'altra soluzione è il differenziale autobloccante, in cui un meccanismo percepisce la differenza di


coppia e interviene bloccando i satelliti, eliminando in pratica l'effetto del differenziale e facendo girare
le ruote alla stessa velocità.

Un veicolo a quattro ruote motrici deve avere almeno due differenziali (uno anteriore ed uno
posteriore) più eventualmente un terzo al centro per distribuire la potenza tra gli assi anteriori e
posteriori. Un veicolo senza differenziale intermedio non può circolare su strade asfaltate, poiché una
minima differenza di velocità tra le ruote anteriori e posteriori causa una torsione sulla trasmissione che
può causare danni. In questo caso un apposito comando permette di disinserire la trazione integrale. Su
strada sterrata le differenze di velocità sono assorbite da slittamenti delle ruote. Un'alternativa al
differenziale centrale è rappresentata dal giunto viscoso, utilizzato principalmente nelle auto a trazione
integrale di tipo stradale e nei SUV.

[modifica] Differenziale attivo


L'evoluzione della tecnologia ha permesso la realizzazione di differenziali attivi, in cui un computer
analizza i dati forniti da diversi sensori, tra cui sensori di deriva, angolo di sterzata e accelerazione
laterale, e regolano la distribuzione della coppia per ridurre effetti indesiderati come il sottosterzo. I
differenziali attivi sono comunemente usati nei campionati di rally, anche se potrebbero essere
eliminati in futuro.

Il primo impiego del differenziale attivo su una automobile fu l'Active Torque Transfer System sulla
Honda Prelude SH nel 1997. Si trattava però di un sistema aggiuntivo ad un differenziale normale. Un
differenziale semi-attivo completamente integrato è stato usato per la prima volta nel 2005 sulla Ferrari
F430 e su tutti i modelli a quattro ruote motrici Acura RL.

[modifica] Storia
• 2634 AC ‐ secondo una leggenda, l'imperatore cinese Huang Di utilizzò un carro con uno speciale 
dispositivo differenziale collegato alle ruote che faceva sì che una statua puntasse sempre nella stessa 
direzione nonostante le curve compiute dal veicolo. 
• I secolo AC ‐ Il meccanismo di Antikytera usava un sistema di ingranaggi per calcolare la differenza tra 
due rotazioni in ingresso, una relativa alla posizione del Sole e l'altra alla posizione della Luna nello 
zodiaco, fornendo in uscita indicazioni sulle fasi lunari. 
• 1810 ‐ Rudolph Ackerman inventore di un sistema a quattro ruote sterzanti, fu erroneamente citato 
come inventore del differenziale. 
• 1827 ‐ Il differenziale moderno viene brevettato dall'orologiaio francese Onésiphore Pecqueur (1792‐
1852) per l'uso in un veicolo a vapore. 
• 1832 ‐ L' inglese Richard Roberts brevetta l'ingranaggio di compensazione, un sistema differenziale per 
locomotive stradali. 
• 1876 ‐ James Starley inventò un differenziale basato su catene da usarsi su biciclette, impiegato più 
tardi da Carl Benz sulle sue automobili. 
• 1897 ‐ Primo uso del differenziale su un veicolo a vapore australiano da parte di David Shearer. 

Il "diesel­elettrico" 
 

Le due soluzioni estreme cui usualmente ci si riferisce nell'ambito del TPL, allorché si impieghino
propulsori elettrici per la trazione adottando per la produzione dell'energia elettrica necessaria un
motore termico, sono costituite dalla modalità ibrida, la cui unica applicazione nel campo del
TPL è quella di tipo serie, e dalla tipologia diesel-elettrica.

La fondamentale differenza fra i due tipi di veicoli che ne derivano è costituita dall'adottare il
primo un motogeneratore funzionante a punto fisso, ossia a regime di giri costante, dimensionato
per mantenere carichi i pacchi batterie cui è demandata l'alimentazione del motore di trazione; il
secondo deve prevedere necessariamente un gruppo motogeneratore (motore a combustione
interna ed alternatore) di dimensioni maggiori, a regime di giri variabile, che fornisca direttamente
l'energia necessaria alla trazione, in maniera analoga a quanto avviene da anni nella trazione
ferroviaria.

Il motore a combustione interna in un veicolo ibrido ed il suo regime di rotazione a punto fisso è
ottimizzato sulla potenza media di missione del veicolo stesso. Nel caso in cui la potenza media
richiesta dalla linea sia inferiore alla potenza media erogata dal gruppo motogeneratore, occorrerà
per alcuni intervalli di tempo spegnere il motore a combustione interna, opzione particolarmente
interessante quando si voglia comunque attraversare zone di particolare pregio ambientale in
modalità "tutto elettrica". La tendenza attuale è quella di demandare tale funzione ad un sistema
elettronico di controllo in grado di valutare l'effettivo stato di carica degli accumulatori. Viceversa
nel caso in cui la potenza media riferita al tempo di missione sia superiore a quella erogata dal
gruppo motogeneratore si ha un progressivo decadimento dello stato di carica degli accumulatori
richiedendo quindi cicli di ricarica in rimessa e non solo le operazioni periodiche di
equalizzazione dei pacchi batteria.

Tra le soluzioni ibrida serie tradizionale e diesel-elettrica sono ipotizzabili, almeno dal punto di
vista teorico, diversi gradi di "ibridizzazione" proprio per consentire una vasta gamma di impieghi
al variare delle tipologie delle linee e del servizio. Va rilevato che la tecnologia ibrida permette un
forte abbattimento delle emissioni inquinanti dovuto proprio al regime costante di rotazione del
motore a combustione interna ed agli intervalli di spegnimento dello stesso. Per contro, i sistemi
ibridi risultano penalizzati nel caso sia richiesta l'adozione di impianti di condizionamento, che
impongono il funzionamento del motogeneratore ad un numero di giri superiore a quello
ottimizzato.

La soluzione diesel-elettrica presenta anch'essa, nel complesso, una minor quantità di emissioni
inquinanti rispetto ad un normale autobus a trazione termica, in quanto viene razionalizzata la
catena energetica consentendo al motore diesel di fornire la sola potenza necessaria al
mantenimento delle prestazioni imposte. Tuttavia i parametri caratteristici dei veicoli diesel-
elettrici continuano ad essere analoghi a quelli degli autobus tradizionali: per tale motivo la
CIVES ritiene che "essi non siano compresi nella categoria dei mezzi a basso impatto ambientale
a cui fa riferimento l'art. 2, comma 6, della Legge n.194/98".

Le tecnologie diesel-elettriche si vanno in ogni caso diffondendo per la versatilità che caratterizza
tali veicoli, presentati sul mercato da diversi costruttori. Peraltro l'adozione della trasmissione
elettrica apre la strada all'adozione di tecnologie avanzate quali la "motoruota"; essa consente di
realizzare pianali interamente ribassati grazie all'eliminazione del differenziale di tipo meccanico
sostituito da una centralina elettronica di controllo.

Schema di un ibrido in serie 

 
 

Schema di un ibrido in parallelo 

Schema di un ibrido misto 

Candela (meccanica) 
Da Wikipedia, l'enciclopedia libera. 
Vai a: Navigazione, cerca 

Questa voce riguardante un argomento di trasporti non è ancora stata 
tradotta completamente dalla lingua inglese. Terminala o riscrivila tu, 
eliminando il testo in lingua straniera quando hai finito.  
 

Traduzione iniziata: marzo 2006 • Vedi le altre voci da tradurre dalla  Non usare
stessa lingua e dello stesso argomento.  traduttori
automatici!
Nota: il testo da tradurre potrebbe essere nascosto: vai in modifica per
visualizzarlo. Prima di salvare la pagina, non dimenticare di eliminare o
spostare i segni <!-- e --> che delimitano il testo da nascondere.

candela d'accensione 

candeletta 

I Motori a combustione interna alternativi (in seguito indicati come MCIA) possono essere divisi
in motori ad accensione spontanea (detti anche a ciclo Diesel) ed in motori ad accensione
comandata (detti anche a ciclo Otto). I primi sono caratterizzati da una cambustione che viene
avviata attraverso meccanismi interni alla miscela aria-combustibile (e perciò spontanei), causati
dalle condizioni a cui essa viene portata durante la fase di compressione; i secondi invece
richiedono un dispositivo esterno capace di energizzare la miscela al termine della fase di
compressione in modo da indurre la generazione di un nucleo di fiamma in seno ad essa. Sebbene
siano stati sperimentati storicamente diversi meccanismi per l'energizzazione esterna della carica,
l'unico metodo ormai adottato è costituito dall'indurre una scintilla in seno al fluido.

La candela in Ingegneria Meccanica è un dispositivo elettrico inserito nella testa (scorrettamente


chiamata anche testata) di ognuno dei cilindri di un MCIA ad accensione comandata atto a
generare questa scintilla. Infatti, a diretto contatto con la carica fresca (miscela di aria e
combustibile compressa ad opera dello stantuffo durante il suo moto ascendente), ha il compito di
stimolarne la combustione per mezzo di un arco elettrico generato tra due elettrodi disposti nella
sua parte terminale (riconoscibili in figura al di sotto della parte filettata). I motori ad accensione
spontanea possono usare le cosiddette candelette per riscaldare in precamera il solo combustibile
durante le fasi di avviamento a freddo.

Indice
[nascondi] 

• 1 Costruzione della candela 
• 2 Funzionamento 
• 3 Parti della candela  
o 3.1 Terminale 
o 3.2 Corpo 
o 3.3 Isolatore 
o 3.4 Variazioni sul modello di base 
• 4 Altri progetti 

[modifica] Costruzione della candela


Una candela è composta da un involucro, un isolante e da un conduttore. Il conduttore è un
elettrodo assiale che la percorre internamente, contenuto nell'isolante, un corpo in porcellana
(parte bianca in figura), il tutto racchiuso nell'involucro. Il conduttore viene collegato mediante
un cavo altamente isolato ad una bobina: questa induce tra la sua estremità e la parte metallica a
linguetta che si vede inferiormente al corpo filettato un arco voltaico che scarica a massa
attraverso il blocco motore. Questo corpo filettato è indispensabile poiché la candela si trova in un
foro della testa: ha pertanto il compito di sigillarla date le alte pressioni e temperature raggiunte
all'interno della canna cilindro durante il processo di combustione senza deteriorarsi se non dopo
lunghi periodi di tempo, fino a richiederne la sostituzione.

I primi brevetti riguardanti un sistema di sincronizzazione di accensione risalgono al 1898 a nome


di Nikola Tesla (USA), Richard Simms (Gran Bretagna) e Robert Bosch (Germania), ma
l'invenzione viene attribuita anche a Carl Benz (Germania).

[modifica] Funzionamento
La candela è attraversata da una tensione di migliaia di volt generata dalla bobina. La differenza di
tensione fra i due elettrodi è crescente fino a superare la capacità isolante della miscela di aria e
benzina, che al ridursi della resistenza dielettrica incomincia a ionizzarsi. Un gas ionizzato diviene
conduttore, generando una breve ma intensissima scarica di elettroni (con un meccanismo analogo
a quello dei fulmini), inducendo un riscaldamento locale della carica fresca fino a temperature che
vanno dai 700 ai 1000 C° (a seconda della bontà della candela).
Le candele possono essere utilizzate anche in altri campi, come i forni e le fornaci, nei quali la
miscela combustibile può dover essere innescata. In questo caso, vengono detti "candele" gli
innescatori a fiamma.

[modifica] Parti della candela


[modifica] Terminale 

La parte superiore della candela ha un terminale connesso al sistema d'ignizione. La costruzione


del terminale varia in funzione dell'impiego della candela stessa.

[modifica] Corpo 

Il corpo, realizzato in ceramica, presenta il tipico aspetto dotato di risalti circonferenziali


smussati. Essi hanno la funzione di incrementare il potere isolante e di impedire che una scarica
elettrica si instauri tra il terminale e l'involucro metallico muovendosi parallelamente alla
superficie del corpo isolante. Infatti, i risalti allungano il percorso che la scarica dovrebbe seguire
e lo rendono tortuoso, in modo da incrementare la resistenza incontrata.

[modifica] Isolatore 

L'isolatore è generalmente realizzato in ossido di alluminio e ceramica, in modo da resistere a


550° C e 60.000 V.Esso si estende dal corpo metallico sino alla camera di combustione. La
particolare composizione e lunghezza dell'isolatore influenzano l'energia associata alla scintilla e
quindi l'efficienza della candela.

[modifica] Variazioni sul modello di base 

Nel corso degli anni le modifiche progettuali e costruttive sulle candele sono state indirizzate ad
ottenere una migliore ignizione o una maggiore durata (o entrambe). Queste modifiche includono
l'uso di due, tre, o quattro elettrodi di terra equamente distanziati fra di loro e posti intorno ad un
elettrodo centrale.

Struttura dei motorini di avviamento (starter)


I motorini di avviamento sono costituiti generalmente dai seguenti gruppi di componenti:
Motorino elettrico (1)
(descritto alle pagine
seguenti)
Relè di innesto (2)
(descritto nella lezione
successiva)
Gruppo di innesto (3)
(descritto nella lezione
successiva)

Descrizione:

Il circuito di avviamento del motore è costituito dalla batteria, dal contattore di accensione e dal
motore di avviamento.
Il motore di avviamento consiste in un motore a corrente continua alimentato dalla batteria ed un
elettromagnete di comando e di innesto.
Ruotando il contattore di accensione la tensione proveniente dalla batteria alimenta gli
avvolgimenti del motore, generando forze elettromagnetiche che fanno ruotare il pignone del
motore stesso, contemporaneamente viene eccitato l'elettromagnete che aziona il meccanismo di
innesto del pignone nella corona dentata del volano, mettendo così in rotazione l'albero motore.

MACCHINE E SISTEMI ENERGETICI


 

 
 

 
1. PRINCIPI GENERALI 
 

1.1 Finalità del corso 
 

Lo scopo del corso di Macchine per allievi ingegneri è di fornire quegli elementi che consentono di
definire i criteri di progetto e le caratteristiche di funzionamento di una vasta categoria di componenti
ingegneristici, parte di un impianto oppure parti individuali, che sono sede di una trasformazione
energetica ed in cui operano uno o più fluidi in azione dinamica o cinematica, fluidi che sono i vettori
energetici della trasformazione stessa.
Questi componenti vengono chiamati genericamente “macchine” e con tale dizione si comprendono 
le  macchine  a  flusso  continuo,  dette  turbomacchine  (pompe,  compressori,  turbine),  le  macchine  a 
flusso  periodico,  dette  volumetriche  (pompe,  compressori,  espansori  volumetrici)  e  le  macchine  a 
scambio termico (generatori di vapore, condensatori, scambiatori di calore). 

Dunque le macchine operano con fluidi che, durante il loro moto all’interno della macchina e tra le 
pareti di opportuni passaggi, subiscono trasformazioni termodinamiche e tali processi energetici sono 
governati  dalle  leggi  della  fisica.  Elemento  fondamentale  nella  trattazione  teorica  delle  macchine  è 
perciò  la  conoscenza  delle  proprietà  termodinamiche  e  fisiche  dei  fluidi  e  delle  equazioni  della 
fluidodinamica e della termofluidodinamica. 

Sulla base di questa conoscenza si possono quindi progettare e studiare nel loro funzionamento tutte 
le  macchine  in  funzione  dello  scopo  cui  sono  destinate,  cioè  in  definitiva  a  ricevere  energia  da  un 
fluido  per  trasformarla  in  lavoro  (macchine  motrici)  oppure  a  ricevere  lavoro  dall’esterno  per 
trasformarlo in energia di un fluido (macchine operatrici) oppure infine per scambiare energia termica 
da un fluido ad un altro (macchine a scambio termico). Quando queste macchine risultano parte di un 
impianto allora si può parlare più propriamente di “Sistemi energetici”, cioè di insiemi più complessi 
destinati  sempre  a  realizzare  delle  trasformazioni  energetiche,  però  ora  secondo  una  visione  più 
globale del processo energetico (cicli combinati, impianti cogenerativi). 

1.2 Dimensioni e Unità di misura 
 

Nel Sistema Internazionale le grandezze fondamentali sono:


 
Massa [kg] 

Lunghezza [m] 

Tempo [s] 

Temperatura [K] 

e quindi le grandezze derivate risultano: 

Peso [N] ≡ [kgm/s2] 

Pressione [Pa] ≡ [N/m2] oppure [bar] ≡ [105 N/m2] oppure [ata] ≡ [0.9806 bar] oppure  

                [atm] ≡ [1.033 ata] ≡ [1.013 bar] 

Lavoro [J] ≡ [Nm] oppure [kcal] ≡ [4186 J] 

Potenza [W] ≡ [J/s] 

1.3 Proprietà dei fluidi 
 

Si  definiscono  fluidi  quelle  sostanze  (liquidi  o  aeriformi)  che  non  possono  sostenere  alcuno  sforzo 
tangenziale  τ, per quanto piccolo, in condizioni di equilibrio statico. Le loro proprietà fisiche sono le 
seguenti: 

Densità e volume specifico 
Densità media di una certa quantità di fluido è il rapporto tra la sua massa ed il volume occupato. Se la
densità varia con la posizione, la densità in un punto è definita come
∆m
ρ = Lim [kg/m3]
∆V →0 ∆ V
In un mezzo omogeneo la densità è costante.
L’inverso della densità è il volume specifico:
1
v= [m3/kg].
ρ

Pressione
Il suo valor medio è il rapporto tra la forza che agisce su di una superficie e l’area della superficie
stessa. La pressione in un punto (calcolata come limite) risulta indipendente dall’orientamento
considerato:
∆F
p = Lim [N/m2].
∆A→0 ∆ A
La pressione è assoluta se riferita al vuoto assoluto; relativa se riferita alla pressione atmosferica locale:
p ass = p rel + p atm
Atmosfera standard è la pressione corrispondente a 760 mm di colonna di mercurio oppure a 10330 
mm di colonna d’acqua. 

Temperatura 
E’ la misura del senso di caldo o di freddo. Due corpi isolati posti uno in contatto con l’altro si portano, 
dopo  un  sufficiente  lasso  di  tempo,  alla  stessa temperatura  (equilibrio  termico).  Due  sistemi  isolati, 
ciascuno  in  equilibrio  termico  con  un  terzo  sistema,  sono  essi  pure  in  equilibrio  termico  (stessa 
temperatura). 

La temperatura è misurata in gradi Celsius (°C) o gradi Kelvin (K), legati tra loro dalla relazione: 

K = °C + 273.15   

I  gradi  Celsius  hanno  come  origine  la  temperatura  del  ghiaccio  fondente  a  pressione  atmosferica.  Il 
punto triplo dell’acqua (solido + liquido + vapore), più preciso da riprodurre, si trova a + 0.01 °C. 

1.4 Equazioni di stato 
 

Gli  stati  di  equilibrio  di  una  sostanza  pura  (sostanza  semplice  comprimibile,  omogenea  e  di 
composizione  chimica  invariabile)  sono  completamente  definiti  una  volta  specificate  due  proprietà 
intensive indipendenti. Se le grandezze sono ad esempio p, v e T allora  esiste una  equazione, detta 
equazione di stato, tale che: 

f ( p ,v ,T ) = 0   

oppure: 

T = T ( p ,v )  

oppure: 

p = p( v ,T )  
oppure: 

v = v( p ,T ) . 

E’ indifferente esplicitare una o l’altra delle tre grandezze se la sostanza si manifesta in una sola fase; 
se la sostanza si manifesta in più fasi (ad esempio miscela liquido e vapore) l’ultima espressione non 
può essere usata (v indefinito assegnando p e T). 

Le  relazioni  tra  p,  v  e  T  per  una  sostanza  pura  possono  essere  rappresentate  come  superfici  in  un 
sistema  a  coordinate  rettangolari  pvT.  Superfici  per  fasi  singole  corrispondono  ad  esempio 
all’equazione di stato 

v = v( p ,T ) ; 

le superfici per miscugli di fasi sono descritte ad esempio da equazioni del tipo 

T = T ( p ) . 

          
  

             Fig. 1 Superficie p‐v‐T per una sostanza         Fig. 2 Superficie p‐v‐T per una sostanza 

che si contrae congelando. che si espande congelando.


 

Le due figure rappresentano diagrammi schematici per una sostanza semplice comprimibile. La Fig. 1 
è tipica di una sostanza (come l’anidride carbonica) che si contrae gelando; la Fig. 2 è invece tipica di 
una sostanza (come l’acqua) che si espande gelando. 

La  superficie  pvT  mostra  chiaramente  l’esistenza  di  una  sola  fase  per  certi  campi  delle  variabili. 
Mostra anche le regioni  in cui entrambe  le fasi possono  esistere simultaneamente. Lungo  una linea 
chiamata linea tripla tutte e tre le fasi possono coesistere. In più la superficie pvT contiene il punto 
critico. (o stato critico) al di là del quale non può avvenire la trasformazione liquido vapore. Al punto 
critico si ha così pressione critica pc, volume specifico critico vc e temperatura critica Tc. 

Nella  regione  liquido‐vapore  in  equilibrio,  il  vapore  si  chiama  vapore  saturo  ed  il  liquido  si  chiama 
liquido saturo. Lungo le linee  di  cambiamento di stato,  pressione (di  saturazione) e  temperatura (di 
saturazione) si mantengono costanti ed un certo valore di pressione identifica univocamente un certo 
valore di temperatura (e viceversa). 

Diagrammi termodinamici 

Sono ottenuti proiettando la superficie pvT su diversi piani, cioè particolarmente i piani principali: p‐T; 
p‐v; T‐v. 

I  due  diagrammi  che  seguono  sono  costruiti  per  un  certo  v  =  cost  e  si  differenziano  per  la  diversa 
pendenza della curva solido‐liquido. 

 
 

Fig. 3 Sostanza che si contrae congelando.        Fig. 4 Sostanza che si espande congelando. 

Per  le  altre  due  figure  che  seguono  (Figg.  5  e  6),  la  figura  di  destra  risulta  più  usata  perché  le  aree 
sottese alle varie linee rappresentano i lavori. 

   
 
Fig. 5 Curva a campana nel piano T‐v.             Fig. 6 Curva a campana nel piano p‐v. 

La  curva  a  campana  si  chiama  curva  di  Andrews.  Le  linee  a  T  =  cost  diventano  iperboli  equilatere  a 
sufficiente distanza dal punto critico. 

Forme semplificate dell’equazione di stato 
Per i gas 

In condizioni particolari vale la legge:


pv = RT    

dove R è la costante del gas, definita come: 


R=  
M

essendo  ℜ  la costante universale dei gas, che vale 8314.3 J/kmole⋅K, ed M la massa molecolare del 
gas. 

Un gas che ubbidisce a questa legge si chiama gas perfetto. La teoria cinetica dei gas porta allo stesso 
risultato, con grandissimo numero di particelle che interagiscono solo con urti elastici (cioè in assenza 
di campi di forze). I due principali effetti di gas reale sono uno indotto dalle forze intermolecolari (alte 
densità), l’altro dovuto a fenomeni di dissociazione o ricombinazione (variazione di M medio). 

Per i liquidi 
Con buona approssimazione vale la legge:
v = cos t  . 

Anche in questo caso, un liquido che ubbidisce a questa legge si chiama liquido perfetto. 

Comportamento dei gas reali 
Un metodo semplice per descrivere il comportamento di un gas reale è quello che implica l’uso del 
fattore di comprimibilità z così definito: 

pv
z=  
RT
fattore  che  vale  l’unità  per  un  gas  perfetto  oppure  è  molto  prossimo  all’unità  per  gas  reali  a  bassa 
pressione e alta temperatura. 

Per  definizione,  z  è  pure  una  proprietà  termodinamica,  per  cui  esisterà  una  equazione  di  stato  del 
tipo: 

z = z (T , p )  . 

Si  possono  quindi  costruire  carte  che  danno  il  fattore  di  comprimibilità  z  in  funzione  di  p,  T  preso 
come parametro. Per non dover ricorrere a carte separate per ogni tipo di gas, si può far riferimento 
al  principio  degli  stati  corrispondenti,  principio  empirico  che  afferma  che  tutte  le  sostanze 
obbediscono  alla  stessa  equazione  di  stato,  espressa  in  termini  di  proprietà  ridotte  (valore  attuale 
delle proprietà diviso per il suo valore al punto critico). 

Si ha così: 

p
pR =
pC
T
TR =  
TC
v
vR =
vC

per cui sperimentalmente per molti gas vale la relazione: 

z = z ( p R ,TR )  

che  è  alla  base  di  una  carta  di  comprimibilità  generalizzata,  con  z  funzione  di  pR  e  con  TR  come 
parametro. 

Sostituendo si ottiene: 

pR vR p v
z= z C     in cui   z C = C C  
TR RTC

La  carta  rappresentata  in  Fig.  7  è  valida  per  valori  di  zC  compresi  tra  0.25  e  0.30  (valore  comune  a 
molte sostanze) e con buona approssimazione è valida per tutti i fluidi. 
 
                    

           

                 Fig. 7 Andamento del coefficiente di comprimibilità z in funzione 

                           di pressione e temperatura ridotte.  

  

1.5 Primo principio della termodinamica 

Un  sistema  termodinamico  isolato  e  in  equilibrio  termodinamico  non  cambia  di  stato 
spontaneamente.  Se  lo  fa  è  a  seguito  di  azioni  esterne  o  interne:  azioni  esterne  possono  essere 
trasferimenti di massa o di energia, come calore o lavoro; azioni interne possono essere distributive, 
come conduzione di calore, oppure locali, come reazioni chimiche. 

L’azione che produce un permanente cambiamento di stato in un sistema chiuso che non trasferisca 
lavoro,  in  condizioni  di  equilibrio  termodinamico,  è  definita  calore.  Siccome  l’azione  è  esterna  ed  il 
sistema  è  chiuso,  il  calore  deve  essere  una  forma  di  energia.  Si  è  osservato  in  tutti  i  casi  che  il 
trasferimento di calore in tale sistema è accompagnato da un cambiamento in temperatura. 

L’unità  di  misura  del  calore,  come  storicamente  definita,  è  l’ammontare  del  calore  richiesto  per 
innalzare l’unità di massa dell’acqua di un grado in temperatura, ottenendosi così la cal (per 1 gr di 
acqua ed 1 °C) oppure la kcal (per 1 kg di acqua ed 1 °C). 

Difficoltà  sperimentali  nelle  misure  col  calorimetro  hanno  portato  ad  una  definizione  alternativa  di 
unità di calore, derivata dall’associazione con il lavoro. Gli esperimenti di Joule dimostrarono che gli 
stessi effetti potevano essere prodotti in un fluido mediante trasferimento sia di lavoro che di calore e 
che l’ammontare del lavoro, ottenuto meccanicamente, richiesto per produrre un certo cambiamento 
di  stato,  era  proporzionale  all’ammontare  del  calore,  misurato  calorimetricamente,  richiesto  per 
produrre  lo  stesso  cambiamento.  La  costante  di  proporzionalità  fu  osservata  essere  la  stessa 
indipendentemente dall’ammontare del cambiamento o dal processo interessato. Questa costante è 
chiamata l’equivalente meccanico del calore e vale 0.239 cal/J (e quindi 1 kcal equivale a 4186 J). 

La stessa definizione di calore implica che il trasferimento di energia possa avvenire sia sotto forma di 
calore  che  di  lavoro  e  che  quindi  calore  Q  e  lavoro  L  possono  essere  considerati  come  due  diversi 
aspetti  della  stessa  quantità  o  grandezza,  cioè  trasferimento  di  energia.  L’equivalenza  tra  calore  e 
lavoro può essere estesa dal caso semplice di un singolo processo con trasferimento di calore o lavoro 
a situazioni dove un sistema è assoggettato a diversi processi con vari ammontare di calore o lavoro 
trasferiti. 

L’azione totale che produce un certo cambiamento di stato corrisponderà al trasferimento di energia, 
indipendentemente  dalla  specifica  distribuzione  di  calore  e  lavoro  durante  una  certa  sequenza  del 
processo. 

Tale circostanza è formalizzata come segue nel Primo principio della termodinamica: 

“Se  un  sistema  chiuso  è  assoggettato  ad  un  cambiamento  di  stato  tra  A  e  B,  concernente 
trasferimento di energia in vari ammontare di calore Qi e lavoro Li, la somma netta di calore e lavoro 

∑ Qi − ∑ Li  , 
i i

cioè il netto trasferimento di energia, sarà lo stesso per tutti i processi o sequenze di processi tra A e 
B.” 

Il  trasferimento  di  energia  netto  sarà  positivo  o  negativo  a  seconda  che  ci  sia  una  netta  aggiunta 
oppure una netta sottrazione di energia ed il contenuto di energia E del sistema sarà perciò cambiato 
di un ammontare pari all’energia trasferita: 

∆E = ∑ Qi − ∑ Li   
i i

∆E = Q − L  
dove il segno meno (‐) indica che è positivo il lavoro che lascia il sistema. Siccome il primo principio 
afferma che il lato destro dell’uguaglianza di queste equazioni dipende solo dagli stati iniziali e finali A 
e B e non dal percorso tra essi, allora la variazione di energia vale la differenza di due quantità 

∆E = E B − E A  

determinate dai rispettivi stati: E è quindi una funzione di stato. Di natura estensiva, essa diventa di 
natura intensiva quando è riferita all’unità di massa del sistema. 

Il  contenuto  di  energia  di  un  sistema  può  essere  separato  in  termini  dipendenti  da  grandezze 
estrinseche  (come  posizione  e  velocità)  e  in  termini  dipendenti  da  grandezze  intrinseche  (come 
pressione e temperatura): si può parlare così di energia estrinseca Ex e energia interna U: 

E = Ex + U  

L’energia estrinseca sarà somma dell’energia cinetica e dell’energia potenziale: 

1
E x = Ek + E p = mV 2 + gmz  
2

Esisterà un cambiamento di stato in Ex solo in presenza di forze che agiscono sul sistema producendo 
un cambiamento in velocità o in posizione. Se nessuna di queste azioni interviene, il cambiamento in E 
coincide con la variazione di U: 

∆E = ∆U = Q − L  

ed in termini differenziali: 

dU = dQ − dL  

Un sistema così separato da effetti estrinseci viene chiamato sistema stazionario. 

Conformemente  all’esperienza  di  Joule,  si  verifica  sperimentalmente  che  un  gas  (perfetto)  che 
espanda in un recipiente vuoto e isolato non presenta variazione di temperatura: siccome il sistema è 
isolato (Q = 0) e non fa lavoro (L = 0), allora  ∆U = 0. Risultando anche dT = 0, si può dimostrare come 
per i gas perfetti l’energia interna dipenda solo dalla temperatura, cioè: 

u = u (T )  

Si definisce poi entalpia la somma dell’energia interna e del prodotto pressione per volume specifico: 

h = u + pv  

Da questa stessa definizione segue che pure l’entalpia è una funzione di stato ed inoltre che, sempre 
per i gas perfetti, essa è funzione della sola temperatura: 

h = h(T )  
 

1.6 Irreversibilità e Secondo principio della termodinamica 
 

Il fenomeno dell’irreversibilità è sempre presente quando si parla di perdita in qualità. Oltre a tipi di 
irreversibilità più comuni (attrito, che comporta un lavoro in uscita minore di quello in entrata, oppure 
scambio termico attraverso una parete, il cui flusso non può essere invertito), ne esistono altri, come 
il mescolamento di due gas diversi oppure l’avvenire spontaneo di una reazione chimica. 

Un sistema termodinamico è assoggettato ad un processo reversibile passando dallo stato A allo stato 
B,  se  il  passaggio  può  essere  invertito,  procedendo  da  B  ad  A,  in  maniera  tale  che  gli  stati  di  tutti  i 
sistemi che hanno interagito con il sistema assunto possono in ogni modo ritornare pure essi alla loro 
configurazione originaria. 

Se questa procedura, che riporti alle origini tutti i sistemi interagenti, non esiste, allora il processo è 
irreversibile. E’ sempre possibile comunque riprendere lo stato originario, ma in generale questo può 
essere fatto solo a spese di alcuni cambiamenti nei sistemi esterni. 

Per arrivare ad una definizione o misura della irreversibilità conviene fare riferimento al Principio di 
Carnot, che recita: 

“Tutti  i  sistemi  di  Carnot  operanti  tra  gli  stessi  livelli  di  temperatura  hanno  gli  stessi  rapporti  tra  le 
quantità di calore trasferito ai due livelli di temperatura.” 

Per sistema di Carnot si è inteso un dispositivo ciclico operante reversibilmente che riceve calore ad 
una temperatura costante e trasmette calore ad un’altra temperatura pure costante, mentre si può 
poi  dimostrare  come  esista  una  temperatura  termodinamica  (coincidente  con  quella  a  suo  tempo 
definita per il gas perfetto), tale che dal principio di Carnot si possa alla fine ricavare la relazione: 

T1 Q1
=  
T2 Q2

dove  T1  e  T2  sono  rispettivamente  le  temperature  delle  due  sorgenti  calda  e  fredda  e  Q1  e  Q2  le 
corrispondenti quantità di calore scambiato. 

Tenendo  in  conto  anche  i  segni  (il  calore  ceduto  risulta  di  segno  negativo),  la  relazione  precedente 
diviene: 

Q1 Q2
=  
T1 T2

ed anche, generalizzando: 

Qi
∑ =0 
i Ti
Se  ora,  invece  di  considerare  solo  trasformazioni  reversibili,  si  allarga  il  campo  a  sistemi  chiusi  in 
generale  (con  trasformazioni  reversibili  o  irreversibili)  assoggettati  a  cambiamenti    ciclici  di  stato,  si 
può  stabilire  una  base  che  porti  alla  misura  della  irreversibilità,  facendo  riferimento  al  Secondo 
principio della termodinamica, secondo il quale: 

“Esiste una scala assoluta di temperatura T tale che, se un


sistema chiuso è assoggettato ad un cambiamento ciclico di stato,
la somma:
Qi
∑  
i Ti

è negativa o nulla a seconda che il ciclo sia irreversibile o reversibile.” 

Quanto sopra può essere scritto anche nella forma modificata: 

Qi
∑ + I = 0 
i Ti

dove  I  è  appunto  chiamata  la  misura  della  irreversibilità,  o  semplicemente  irreversibilità,  che  deve 
soddisfare la condizione: 

I ≥0 

L’irreversibilità così definita quantitativamente è dunque misurata dal rapporto tra il calore trasferito 
attraverso  il  bordo  del  sistema  e  la  temperatura  alla  quale  il  trasferimento  occorre,  nel  ciclo 
considerato. 

Quando un sistema è assoggettato ad un processo che non sia ciclico, l’irreversibilità non dipenderà 
solo dalla quantità 

Qi
∑  
i Ti

ma anche in qualche modo dal tipo di cambiamento di stato. 

In un generico processo adiabatico (a scambio di calore globalmente nullo), irreversibile e non ciclico, 
la sommatoria scritta dovrà essere nulla, ma in presenza di una irreversibilità positiva associata con 
qualche  cambiamento  di  stato.  Questo  cambiamento  di  stato  può  sempre  essere  riferito  ad  un 
processo ciclico mediante l’aggiunta di un processo reversibile che faccia tornare il sistema allo stato 
originario. 

L’esistenza, e la misura, di una nuova proprietà può essere provata ad esempio facendo riferimento 
ad  un  sistema  che  possa  cambiare  il  suo  stato  da  A  a  B  mediante  una  varietà  di  percorsi  tutti 
reversibili. Se di questi percorsi se ne prendono due a caso ed uno di essi viene invertito, si ottiene un 
ciclo  nel  quale  il  sistema  ritorna  al  suo  stato  originario.  Per  entrambi  i  percorsi  l’irreversibilità  sarà 
nulla (sono percorsi reversibili per definizione) e, per il secondo principio, si potrà scrivere: 

Qi' Qi"
∑ −∑ = 0 
i Ti' i Ti"

dove con l’apice ‘ si intende il percorso da A a B, mentre con l’apice “ ci si riferisce invece al percorso 
invertito (e per questo preso con il segno meno) da B ad A. 

Si può poi scrivere: 

Qi' Qi"
∑ =∑  
i Ti' i Ti"

Siccome  i  due  percorsi  reversibili  erano  stati  scelti  in  modo  del  tutto  arbitrario,  la  relazione 
precedentemente scritta implica automaticamente che la somma: 

Qi
∑  
i Ti

sia la stessa per tutti i percorsi reversibili tra gli stessi due punti corrispondenti ad un certo stato, per 
un  dato  sistema:  essa  quindi,  non  dipendendo  dal  tipo  di  percorso  (reversibile),  dipende  solo  dallo 
stato  dei  punti  estremi.  Tale  sommatoria  dunque  definisce  e  misura  una  proprietà  del  sistema, 
calcolata nei due punti estremi, che viene indicata con S e chiamata funzione di stato Entropia, e che 
vale, per processi reversibili: 

Qi
∆S = ∑  
i Ti

La restrizione a processi reversibili può essere rimossa quando si consideri per il percorso da A a B un 
percorso di tipo irreversibile, mentre, per completare un ciclo, si può sempre introdurre un percorso 
inverso (da B ad A) di tipo invece reversibile. 

Essendo ora il ciclo irreversibile, si può scrivere il secondo principio nel modo seguente: 

⎛ Qi Qi' ⎞
⎜∑ − ⎟ + I = 0   
⎜ i T i ∑i T ' ⎟
⎝ i ⎠

dove il primo addendo in parentesi si riferisce al processo irreversibile mentre il secondo (cambiato di 
segno perché invertito) al processo reversibile, per il quale si è prima vista la definizione di entropia. 

Sostituendo tale definizione nell’espressione precedente, si può scrivere alla fine: 
Qi
∆S = ∑ +I 
i Ti

Questa  equazione  risulta  essere  completamente  generale,  finché  i  valori  della  proprietà  S  possano 
essere ottenuti noti gli stati del sistema e la sommatoria delle quantità Qi/Ti possa essere calcolata in 
base al tipo di processo: essa è nota come equazione generale dell’entropia per i sistemi chiusi. 

Per ogni processo adiabatico la sommatoria è nulla, per cui (dal secondo principio): 

∆S = I ≥ 0  

cioè l’irreversibilità è data direttamente dal cambiamento di entropia e quindi per un sistema chiuso 
ed isolato l’entropia non può diminuire. Inoltre, un processo adiabatico reversibile è una isentropica, 
cioè un processo ad entropia costante, dacché: 

∆S = 0  

I valori numerici dell’entropia per ogni stato di un sistema possono essere ottenuti una volta nota la 
sommatoria  delle  quantità  Qi/Ti  lungo  un  percorso  reversibile  a  partire  da  un  determinato  stato  di 
riferimento prescelto. Una volta ottenuti tali valori, essendo l’entropia proprietà di stato, essi possono 
essere applicati a tutti i processi, siano essi reversibili o irreversibili. L’entropia di un sistema è infine 
una grandezza estensiva e può quindi essere riferita all’unità di massa. 

Per inciso, il riferimento a processi reversibili implica che ciascun punto dove viene calcolato il valore 
dell’entropia debba essere uno stato di equilibrio, dacché deve essere capace di costituire un punto 
su di un percorso reversibile. 

Di  conseguenza,  i  punti  estremi  di  percorsi  irreversibili  devono  essere  stati  di  equilibrio  o  almeno 
idealizzati mediante stati di equilibrio, anche se possono essere presenti stati di non equilibrio. 

Una sufficiente approssimazione può essere ottenibile nella maggior parte dei casi pratici riportando 
tutti gli stati di non equilibrio a stati di equilibrio aventi tutte le grandezze definibili identiche. 

1.7 Funzioni termodinamiche: relazioni fondamentali 

Le trasformazioni occorrenti in processi di vario tipo possono


essere descritte facendo riferimento a variazioni di energia e
trasferimento di calore e lavoro, ricorrendo a funzioni che si
rifanno al primo principio, mentre considerazioni che tengano in
conto irreversibilità o reversibilità e equilibrio termodinamico si
rifanno ad entropia, o altre funzioni, correlate al secondo
principio
Per ogni dato materiale o fluido, tutte queste funzioni sono
proprietà intrinseche e di conseguenza dipendono soltanto da
coordinate termodinamiche, come pressione e temperatura,
mentre coordinate estrinseche, come velocità e posizione, non
vengono prese in considerazione. I dati delle funzioni
coinvolgeranno solo la dipendenza da coordinate
termodinamiche ed i valori numerici delle funzioni
dipenderanno solo dai valori numerici delle coordinate.
In particolare, conviene fare riferimento ad un sistema
idealizzato che soddisfi alle seguenti condizioni:
• Il sistema è chiuso
• Il sistema è uniforme, cioè i valori delle coordinate e proprietà termodinamiche non cambiano con 
la posizione 
• Il sistema è sede solo di processi reversibili. 
Primo e secondo principio della termodinamica, scritti in termini differenziali, sono espressi nel modo 
seguente: 

du = dQ − dL   

dQ
dS =  
T

Nella  prima  equazione,  il  lavoro  reversibile  può  essere  espresso  generalmente  in  termini  di  forze 
reversibili moltiplicate per il corrispondente spostamento: 

dL = ∑ Fr dx r   
r

Nel  caso  più  comune,  quando  la  pressione  è  la  singola  forza  reversibile  per  unità  di  superficie,  si 
ottiene (con riferimento all’unità di massa): 

dL = pdv  

Nella seconda equazione, il differenziale dell’entropia assume la forma indicata dacché la condizione 
di uniformità implica che la temperatura sia la stessa (in quanto uniforme) in tutti i punti del bordo, 
cosicché: 
Qi dQ
d∑ =  
i Ti T

Le equazioni sopra scritte diventano poi: 

dQ = du + pdv  

dQ = TdS             da cui 

1
TdS = du + pdv    oppure    dS = (du + pdv )  
T

Questa  equazione  esprime  l’entropia  in  termini  di  energia  interna  ed  altre  proprietà.  Siccome 
intervengono  solo  quantità  dipendenti  da  coordinate  termodinamiche  e  siccome  due  stati 
termodinamici  qualsiasi  possono  sempre  essere  connessi  mediante  un  percorso  reversibile  in  un 
sistema chiuso e uniforme, questa equazione fornisce una relazione generale relativa ad entropia ed 
energia interna come funzioni di coordinate termodinamiche. 

Facendo poi riferimento alla definizione di entalpia, si ottiene la seguente espressione alternativa per 
l'entropia: 

1
dS = (dh − vdp )  
T

Calore specifico 
La  quantità  di  calore  trasferito  è  una  misura  base  associata  con  le  funzioni  termodinamiche.  In  più, 
essa è fondamentale per l’analisi di tutti i processi termodinamici. L’effetto solito di un trasferimento 
di calore è il cambiamento di temperatura del sistema. 

Questo è misurato in generale dall’equazione: 

Q = c∆T  

dove  c  è  definito  come  il  calore  specifico  (capacità  termica)  del  sistema  per  qualsiasi  processo  che 
intervenga. 

In generale, il calore specifico dipende non solo dalla descrizione del dello stato del sistema, ma anche 
dal  completo  percorso  termodinamico  seguito  durante  il  trasferimento  di  un  ammontare  finito  di 
calore.  Se  si  considera  solo  un  elemento  differenziale  di  percorso,  l’equazione  del  calore  specifico 
diviene: 

dQ = c ⋅ dT  
In questo caso, il calore specifico dipende soltanto dallo stato in un dato punto del percorso e dalla 
direzione del percorso in quel punto: si è definito così un calore specifico locale. 

Per un sistema chiuso e uniforme soggetto a processi reversibili, i calori specifici locali possono essere 
espressi esplicitamente in termini di proprietà e loro differenziali. 

Sostituendo nella definizione si ha: 

cdT = du + pdv         e 

cdT = TdS  

Le proprietà differenziali in queste equazioni non sono indipendenti, dacché, quando il calore viene 
trasferito,  il  sistema  seguirà  un  qualche  percorso  termodinamico.  Quando  certi  percorsi  delimitati 
sono specificati, il calore specifico diviene una proprietà del sistema. 

Perciò  un  percorso  a  volume  costante  definisce  un  calore  specifico  a  volume  costante  cv  dato 
dall’equazione: 

cv dT = du  

Siccome  l’energia  interna  è  una  proprietà  termodinamica  dipendente  solamente  dalle  coordinate 
termodinamiche, il suo differenziale può essere scritto in generale come: 

⎛ ∂u ⎞ ⎛ ∂u ⎞
du = ⎜ ⎟ dT + ⎜ ⎟ dv     
⎝ ∂T ⎠ v ⎝ ∂v ⎠T

in cui dv = 0 e perciò:  

⎛ ∂u ⎞
du = ⎜ ⎟ dT  
⎝ ∂T ⎠ v

Confrontando si ha: 

⎛ ∂u ⎞
cv = ⎜ ⎟  
⎝ ∂T ⎠ v

Analogamente,  considerando  il  differenziale  dell’entropia  lungo  un  percorso  a  volume  costante,  si 
ottiene: 

⎛ ∂S ⎞
cv = T ⎜ ⎟  
⎝ ∂T ⎠ v

Siccome  queste  due  equazioni  esprimono  il  calore  specifico  in  termini  di  derivate  parziali  delle 
funzioni  termodinamiche  u  ed  S,  il  calore  specifico  diviene  esso  stesso  una  proprietà  del  materiale 
costituente il sistema e può essere usato al posto delle derivate parziali. 
Inoltre, se un sistema chiuso è sede di un processo reversibile a volume costante, esso possiede in più 
una relazione col calore trasferito. 

Un  secondo  calore  specifico  può  essere  definito  considerando  processi  reversibili  a  pressione 
costante,  sempre  per  un  sistema  chiuso.  Analogamente  al  caso  precedente,  si  possono  scrivere 
ancora due relazioni: 

c p dT = du + pdv = du + d ( pv ) = d (u + pv ) = dh    e 

c p dT = TdS  

Prendendo in questo caso p e T come coordinate termodinamiche, si ha: 

⎛ ∂h ⎞ ⎛ ∂h ⎞
dh = ⎜ ⎟ dT + ⎜⎜ ⎟⎟ dp  
⎝ ∂T ⎠ p ⎝ ∂p ⎠T

in cui ora è dp = 0 e quindi: 

⎛ ∂h ⎞
dh = ⎜ ⎟ dT  
⎝ ∂T ⎠ p

per cui confrontando: 

⎛ ∂h ⎞
cp = ⎜ ⎟     e analogamente 
⎝ ∂T ⎠ p

⎛ ∂S ⎞
cp = T⎜ ⎟   
⎝ ∂T ⎠ p

Il  calore specifico a pressione costante cp, essendo esprimibile come  derivata parziale delle funzioni 


termodinamiche, è esso pure una proprietà del materiale. In più, se il sistema è chiuso ed uniforme ed 
è sede di un processo reversibile a pressione costante, cp è legato al calore trasferito dalla relazione: 

dQ = c p dT   

1.8 Gas perfetto e gas ideale 
 

Per  un  gas  perfetto  (per  il  quale  vale  la  pv  =  RT)  l’energia  interna  dipende  solo  dalla  temperatura, 
come pure l’entalpia, che prende così la forma: 

h = u + pv = u + RT  
Analogamente, entrambi i calori specifici a volume e a pressione costante, che sono derivate rispetto 
alla  temperatura  rispettivamente  dell’energia  interna  e  dell’entalpia,  risultano  funzione  solamente 
della temperatura. 

L’entropia di un gas perfetto dipende invece sia da T che da p, secondo la relazione: 

dS =
1
(du + pdv ) = 1 ⎛⎜ cv dT + RT dv ⎞⎟ = cv dT + R dv  
T T⎝ v ⎠ T v

Più  comunemente  si  fa  riferimento  all’entalpia  invece  che  all’energia  interna  per  il  calcolo 
dell’entropia. 

Si ottiene allora la seguente relazione: 

dS =
1
(dh − vdp ) = 1 ⎛⎜⎜ c p dT − RT dp ⎞⎟⎟ = c p dT − R dp  
T T⎝ p⎠ T p

Le funzioni termodinamiche sopra definite possono poi essere integrate per dare: 

T
u − u0 = ∫ cv dT  
T0

T
h − h0 = ∫ c p dT  
T0

T
dT p
s − s0 = ∫ c p − R ln  
T0
T p0

Differenziando infine la definizione di entalpia, si ottiene: 

dh − du = d ( pv ) = RdT  

c p dT − cv dT = RdT  

e quindi: 

c p − cv = R  

Si  vede  così  che  basta  la  conoscenza  dei  calori  specifici  per  poter  calcolare  direttamente  le  diverse 
funzioni termodinamiche. 

Quando i calori specifici si mantengono costanti (al variare della temperatura) allora un gas perfetto 
viene definito gas ideale. Questa approssimazione può essere molto utile in diversi casi, almeno per 
un moderato campo di temperatura. 
Per un gas che soddisfi le caratteristiche di un gas ideale l’energia interna può esprimersi in funzione
dei gradi di libertà delle molecole, assumendo una equiripartizione del termine:
1
RT  
2

dovuto all’energia cinetica legata al singolo grado di libertà della molecola.  

Quindi, se n è il numero dei gradi di libertà, si ottiene: 

1
u = n RT  
2

Ad esempio, per un gas monoatomico ogni singola molecola possiede tre gradi di libertà (traslazione 
secondo i tre assi), per cui: 

3
u= RT     e quindi 
2

du 3
cv = = R    ed anche 
dT 2

5
c p = cv + R = R 
2

Indicando poi con  γ il rapporto tra calore specifico a pressione costante e calore specifico a volume 
costante si ottiene: 

cp 5
γ = = = 1.67  
cv 3

Una  molecola  biatomica  o  pluriatomica  presenterà  altri  addizionali  gradi  di  libertà,  dovuti  alla 
rotazione attorno agli assi principali d’inerzia. 

Per un gas a molecola biatomica (ad esempio O2 oppure N2), siccome un asse d’inerzia coincide con la 
congiungente  i  due  atomi,  con  momento  d’inerzia  praticamente  nullo,  mentre  gli  altri  due  assi 
presentano  i  rispettivi  momenti  d’inerzia  non  nulli  e  quindi  possono  assorbire  energia  cinetica 
rotazionale, i gradi di libertà diventano cinque. 

Assumendo  sempre  una  equiripartizione  dell’energia  tra  i  cinque  gradi  di  libertà  a  disposizione, 
l’energia interna assumerà ora l’espressione: 

5
u= RT  
2

e quindi: 
5
cv = R   
2

7
cp = R    ed anche 
2

7
γ = = 1.4  
5

Infine,  per  un  gas  pluriatomico,  essendo  sei  i  gradi  di  libertà  (tre  traslazionali  e  tre  rotazionali),  si 
ottiene: 

1
u =6 RT  
2

6
cv = R 
2

8
cp = R 
2

4
γ = = 1.33  
3

I  valori  ottenuti  sono  molto  soddisfacenti  per  ossigeno,  azoto  ed  aria  (come  miscela  dei  due)  a 
temperatura  ambiente.  Per  gas  con  molecole  più  complesse  o  sopra  un  più  ampio  campo  di 
temperatura, il calore specifico dipende dalla temperatura e quindi varierà con essa. 

Quando il calore specifico può essere assunto costante, allora: 

u − u0 = cv (T − T0 )  

h − h0 = c p (T − T0 )  

T v
s − s0 = cv ln + R ln   oppure 
T0 v0

T p
s − s0 = c p ln − R ln  
T0 p0

1.9 Liquido perfetto e liquido ideale 
 
Per  un  liquido  tutti  i  processi  avvengono  necessariamente  a  v  =  cost  e  quindi  si  definisce  un  unico 
calore specifico, quello appunto a volume costante: 

⎛ ∂u ⎞ du
cl = c v = ⎜ ⎟ =  
⎝ ∂T ⎠ v dT

Dalla relazione: 

TdS = du + pdv  

essendo dv = 0, si ottiene: 

TdS = du  

Si ha quindi che entropia, energia interna e temperatura sono univocamente legati (ed indipendenti 
dalla pressione). Il diagramma temperatura‐entropia di un liquido perfetto si riduce perciò ad una sola 
linea, rappresentativa di tutte le isobare. 

Le funzioni termodinamiche, integrate, danno luogo alle seguenti relazioni: 

T
u − u0 = ∫ cl dT  
T0

T T T
h − h0 = ∫ du + ∫ d ( pv ) = ∫ cl dT + v( p − p0 )  
T0 T0 T0

T dT
s − s0 = ∫ c l  
T0 T

Quando il calore specifico può essere ritenuto costante, allora il liquido perfetto viene definito liquido 
ideale. Le funzioni termodinamiche prima scritte possono essere calcolate più facilmente mediante le 
seguenti espressioni: 

u − u0 = cl (T − T0 )   

h − h0 = cl (T − T0 ) + v( p − p0 )  

T
s − s0 = cl ln  
T0

Quando il calore specifico non è costante esso può essere sostituito da un opportuno valore medio: 
medio aritmetico per energia interna ed entalpia, medio tipo logaritmico per l’entropia. 

2.0 Gas reali 
 

Per i gas reali non sono più valide le relazioni ricavate per i gas perfetti (e tanto meno quelle relative 
ai gas ideali), in quanto il calore specifico del fluido risulta dipendente dalla pressione, oltre che dalla 
temperatura. 

Il calore specifico è un indice della capacità di un fluido di immagazzinare energia. Infatti, se si fornisce 
un calore dQ ad una mole di gas perfetto secondo una trasformazione a volume costante, tale energia 
viene  ripartita  fra  i  vari  gradi  di  libertà  delle  molecole  (traslazionali,  rotazionali  ed  eventualmente 
vibrazionali); l’aumento di temperatura dT che ne consegue è legato al solo incremento della velocità 
media di agitazione molecolare; si ha quindi che: 

⎛ ∂Q ⎞
cv = ⎜ ⎟  
⎝ ∂T ⎠ v

risulta tanto più elevato quanto maggiore è il numero di gradi di libertà della molecola. 

Per un gas reale invece, una introduzione di calore va solo in parte ad aumentare l’energia legata ai 
gradi  di  libertà  delle  molecole,  perché  deve  anche  contribuire  a  vincere  le  forze  di  attrazione 
intermolecolari  che  si  manifestano  ad  elevata  densità.  Si  osserva  di  conseguenza  un  incremento  di 
temperatura, a parità di calore introdotto, minore di quanto si avrebbe con un gas perfetto. 

Tali  campi  di  forze  influenzano  di  fatto  il  comportamento  volumetrico  del  fluido  reale,  che  tende 
generalmente  ad  occupare  un  volume  minore  di  quanto  si  riscontri  nel  corrispondente  caso  di  gas 
perfetto (coefficiente di comprimibilità z inferiore all’unità). 

Quanto sopra fornisce una spiegazione intuitiva dello stretto legame esistente fra il comportamento 
volumetrico (o equazione di stato) e quello termodinamico di un fluido. Questo legame è ricavabile 
analiticamente, facendo riferimento, per le funzioni termodinamiche alle condizioni di gas perfetto ed 
introducendo poi debite correzioni per tener conto dell’effetto di gas reale. 

Le grandezze termodinamiche dei gas reali possono essere rese note più semplicemente ed anche più 
precisamente facendo riferimento a diagrammi del tipo T‐s oppure h‐s, derivati dalla superficie p‐v‐T 
già vista per sostanze comprimibili semplici. 

Diagrammi T­s e h­s 
Le  figure  seguenti  mostrano  nel  piano  T‐s  oppure  h‐s  il  comportamento  di  un  fluido  nella  zona  di 
cambiamento di fase (curva a campana). 

 
                            
 

Fig. 8 Curva a campana in un diagramma T‐s. 

                                    
 

Fig. 9 Curva a campana in un diagramma h-s.

Per vedere come entropia (o entalpia) sono legate ai valori di p, v


e T, e quindi come si possano costruire diagrammi come quelli di
Fig. 8 e Fig. 9, basta applicare in generale le leggi della
termodinamica.
Ad esempio, per un processo a pressione costante, si ottiene
lungo una isobara:
dQ = dh  

per cui la variazione di entalpia si valuta semplicemente misurando la quantità di calore scambiato. 

Se il processo è quasi statico, si ha anche: 
dQ = TdS  

da cui si vede che la variazione di entropia è pure legata alla quantità di calore scambiato. 

Di  conseguenza,  in  esperimento  in  cui  si  somministri  calore  a  pressione  costante  fornirà  in  linea  di 
principio i dati per la costruzione di un diagramma T‐s avente linee a pressione costante come pure 
linee  ad  entalpia  costante.  Poiché  dQ  =  TdS,  l’area  sottesa  ad  un    percorso  quasi  statico  nel 
diagramma T‐s è proprio la quantità di calore scambiato. 

Per un ciclo reversibile, fatto di parecchi processi reversibili, il trasferimento netto di calore è allora 
dato dall’area racchiusa tra i processi considerati. Per il primo principio, applicato ai cicli, quest’area 
racchiusa è pure il lavoro netto del ciclo. 

Il  calore  latente  di  vaporizzazione  a  pressione  costante  è  dato  dall’area  sotto  la  linea  a  pressione 
costante, che è pure una linea a temperatura costante, nella regione liquido‐vapore, area che è data 
anche dalla differenza tra entalpia del vapore saturo e del liquido saturo alla stessa pressione. 

Per una trasformazione a p = cost si ha ancora: 

dh = TdS  

⎛ ∂h ⎞
T =⎜ ⎟  
⎝ ∂S ⎠ p

che è semplicemente, nel piano h‐s, la pendenza, in un certo punto, di una linea, appunto a pressione 
costante. 

All’interno  della  campana  le  linee  a  pressione  costante  sono  segmenti  di  retta,  come  pure  quelle  a 
temperatura costante, con pendenza che cresce con p (e quindi con T). Nella zona del vapore le linee 
a  pressione  costante  tendono  verso  l’alto  (in  quanto  aumenta  T),  mentre  quelle  a  temperatura 
costante tendono ad essere orizzontali (h tende a dipendere solo da T). 

  

2.1 Primo principio della termodinamica per sistemi aperti 

Un sistema dapprima chiuso (cioè limitato nello spazio da un confine) diventa un sistema aperto
quando questo confine consente passaggio di massa e possibilità di trasferimento di calore e lavoro.
Si introduce così il concetto di Volume di controllo, che è semplicemente una regione nello spazio su 
cui si pone l’attenzione. Il confine di questo volume di controllo è noto come Superficie di controllo. 
Un  volume  di  controllo  può  essere  analizzato  come  un  sistema  aperto  e  rappresentato 
schematicamente come in Fig. 10. 
 
 

                         

  

Fig. 10 Rappresentazione schematica di un sistema aperto 
 

Per  il  principio  di  conservazione  dell’energia  (Primo  principio),  la  differenza  tra  energia  entrante  ed 
energia uscente fornisce la variazione di energia immagazzinata nel volume di controllo: in figura si è 
ammesso semplicemente di avere una sola corrente entrante ed una sola corrente uscente. 

Si può così scrivere: 

(Ein + QCV ) − (Eout + LCV ) = (E 2 − E1 )CV  


dove:
Ein Energia entrante nel volume di controllo dovuta alla corrente entrante alle condizioni di
ingresso
Eout Energia uscente dal volume di controllo dovuta alla corrente uscente alle condizioni di uscita
QCV Calore trasferito al volume di controllo attraverso la superficie di controllo
LCV Lavoro trasferito dal volume di controllo attraverso la superficie di controllo
(E2-E1) Variazione di energia immagazzinata nel volume di controllo.

Con LCV si è inteso tutto il lavoro fatto e cioè il lavoro del flusso (che il fluido fa per entrare o per
uscire) più il lavoro trasferito all’esterno (che non sia quello del flusso). Per far spazio nel volume di
controllo per il fluido che vuole entrare, bisogna creare un foro e fare un certo lavoro del flusso, che
incontra una certa pressione p nel punto di entrata, dove la sezione di passaggio vale ad esempio A,
come appare dallo schizzo di Fig. 11.

Fig. 11 Schema per la valutazione del lavoro del flusso

Si ha così una forza che vale p⋅A che, spostandosi della dimensione l, produce un lavoro dato da:
pAl = pV
Se al posto del volume V si introduce il volume specifico v, ci si riferisce automaticamente all’unità di
massa. Il lavoro del flusso vale perciò, alle condizioni di ingresso:
min ⋅ ( pv )in
mentre alle condizioni di uscita vale:
mout ⋅ ( pv )out
Considerando positivo il lavoro uscente ed indicando con Ls la differenza tra il lavoro totale LCV ed il
lavoro del flusso, si può ora scrivere:
Ein + QCV = (E 2 − E1 )CV + Ls + mout ( pv )out − min ( pv )in + Eout
Ricordando che l’energia del fluido (in ingresso o in uscita) deve intendersi come somma di energia
interna, energia cinetica ed energia potenziale, si può scrivere:
⎛ V2 ⎞ ⎛ V2 ⎞
QCV = (E 2 − E1 ) + Ls + mout ⎜ u + pv + + gz ⎟ − min ⎜ u + pv + + gz ⎟
⎜ 2 ⎟ ⎜ 2 ⎟
⎝ ⎠ out ⎝ ⎠ in
Infine, tenendo anche conto della definizione di entalpia, si ottiene:
⎛ V2 ⎞ ⎛ V2 ⎞
QCV = (E 2 − E1 ) + Ls + mout ⎜ h + + gz ⎟ − min ⎜ h + + gz ⎟
⎜ 2 ⎟ ⎜ 2 ⎟
⎝ ⎠ out ⎝ ⎠ in
L’equazione scritta non è altro che il primo principio scritto per un sistema aperto in generale, con un
flusso entrante ed uno uscente (se i flussi sono di più basta introdurre la loro sommatoria).
Quando si faccia riferimento all’unità di tempo, in termini differenziali, si ottiene poi:
dQCV dECV dLs dmout ⎛⎜ V2 ⎞ dmin ⎛⎜ V2 ⎞
= + + h+ + gz ⎟ − h+ + gz ⎟
dt dt dt dt ⎜⎝ 2 ⎟
⎠ out dt ⎜⎝ 2 ⎟
⎠ in
oppure, con notazione equivalente:
⎛ V2 ⎞ ⎛ V2 ⎞
& & &
QCV = ECV + Ls + mout h + & ⎜ + gz ⎟ ⎜
− min h +
& + gz ⎟
⎜ 2 ⎟ ⎜ 2 ⎟
⎝ ⎠ out ⎝ ⎠ in
Questa equazione può essere semplificata quando il sistema è in condizioni stazionarie e con flusso
stazionario, e cioè:
• Trasferimento di calore e lavoro costante nel tempo
• Velocità costante nella sezione di ingresso e nella sezione di uscita
• Portata costante nella sezione di ingresso e nella sezione di uscita (e portata uscente pari alla portata
entrante)
per cui si ottiene:
⎡⎛ V2 ⎞ ⎛ V2 ⎞ ⎤
Q& CV = L& s + m& ⎢⎜ h + + gz ⎟ − ⎜ h + + gz ⎟ ⎥
⎢⎣⎜⎝ 2 ⎟
⎠ out ⎝
⎜ 2 ⎟ ⎥
⎠ in ⎦
dove rimangono costanti massa ed energia del sistema.
Volendo infine fare riferimento all’unità di massa che attraversa il sistema basta dividere entrambi i
membri per la portata massica, per cui in generale:
V2 V 2
Q + h1 + gz1 + 1 = L + h2 + gz 2 + 2
2 2
ottenendosi così una equazione che è valida per tutti i fluidi e con trasformazioni sia ideali che reali (e
quindi anche in presenza di attriti).
Questa equazione può essere scritta in modo da ricavare una espressione per il lavoro che comprenda
solo termini di natura meccanica.
Dalla definizione di entropia:
Qi
∆S = ∑ +I
i Ti
e considerando l’irreversibilità come originata dagli attriti interni al fluido (e che tendono quindi a
riscaldarlo), si ha, in termini differenziali:
dQ dLw
dS = +
T T
dove con dQ si intende il calore che arriva dall’esterno e con dLw il lavoro prodotto dalle forze di attrito
(equivalente al calore da tali forze generato e come tale misura della irreversibilità).
Integrando si ottiene poi:
2
∫ TdS = Q + Lw
1
Parallelamente, integrando la nota relazione:
TdS = du + pdv = dh − vdp
si ottiene:
2 2
∫ TdS = h2 − h1 − ∫ vdp
1 1
Il confronto tra le due espressioni porta a scrivere:
2
h2 − h1 = Q + Lw + ∫ vdp
1
che, sostituita nell’equazione generale prima scritta, porta a:
V2 2 V 2
Q + gz1 + 1 = L + Q + Lw + ∫ vdp + gz 2 + 2
2 1 2
che si riduce alla seguente definizione di lavoro (positivo se fatto dal sistema), facendo riferimento a
termini di sola natura meccanica:
⎛ V2⎞ ⎛ V 2⎞ 2
L = ⎜ gz1 + 1 ⎟ − ⎜ gz 2 + 2 ⎟ − ∫ vdp − Lw
⎜ 2 ⎟⎠ ⎜⎝ 2 ⎟⎠ 1

Nel caso dei fluidi incomprimibili (per i quali è v = cost), la stessa espressione si semplifica
ulteriormente nel modo seguente:
⎛ V1 ⎞ ⎛
2
V2 ⎞
2

⎟ − ⎜ gz 2 + 2 ⎟ + v( p1 − p 2 ) − Lw

L = ⎜ gz 1 + ⎟ ⎜ ⎟
⎝ 2 ⎠ ⎝ ⎠
La storia termica della trasformazione (sempre per fluidi incomprimibili)si può ottenere facilmente
dalla già vista relazione:
2
h2 − h1 = Q + Lw + ∫ vdp = Q + Lw + v( p 2 − p1 )
1
ove si ricordi che:
h2 − h1 = (u 2 − u1 ) + ( p 2 v 2 − p1v1 ) = (u 2 −u1 ) + v( p 2 − p1 )
per cui confrontando:
u 2 − u 1 = Q + Lw
Come si vede, per i fluidi incomprimibili, essendo il volume specifico insensibile alle variazioni di
temperatura, la storia termica e quella meccanica risultano indipendenti luna dall’altra.
La situazione è invece ben diversa per i fluidi comprimibili, per i quali il termine:
2
∫ vdp
1
presente nella storia meccanica, risulta funzione della temperatura e grandemente variabile con essa.

2.2 Principio di conservazione dell’energia nel sistema di riferimento relativo

In presenza di turbomacchine, cioè di macchine costituite da elementi fissi (detti statorici) e da


elementi mobili (detti rotorici), il moto compiuto da questi ultimi è un moto di tipo rotatorio, che
avviene intorno all’asse di rotazione della macchina.
In condizioni di regime, la velocità angolare ω del rotore si mantiene costante, per cui pure costante
diviene la velocità periferica o di trascinamento u con cui si muovono le parti mobili della macchina,
alla distanza radiale r dall’asse di rotazione:
u =ω ⋅r
In un sistema di riferimento relativo, un osservatore (relativo), solidale con gli elementi rotorici della
macchina, ruota esso stesso intorno all’asse del rotore con velocità angolare costante ω e di
r
conseguenza vede il fluido muoversi con velocità relativa w .
Le velocità che intervengono a definire il moto del fluido sono legate dalla nota relazione vettoriale:
r r r
V =u+w
ed il triangolo definito da questi tre vettori prende il nome di triangolo delle velocità e può essere
rappresentato come indicato nella seguente Fig. 12:

Fig. 12 Principali componenti delle velocità in una turbomacchina

Si tratta ora di scrivere il principio di conservazione dell’energia nel sistema di riferimento relativo,
applicandolo sempre tra due sezioni a monte ed a valle di un elemento rotorico della macchina.
Nel moto relativo le pareti fisiche della macchina appaiono ferme e quindi il lavoro L scambiato è ora
nullo; inoltre, l’energia di posizione non cambia (rispetto al sistema di riferimento fisso), mentre
l’energia cinetica è espressa in termini di velocità relativa w. Deve però comparire in più il termine
relativo all’energia potenziale corrispondente al campo di forze centrifughe, dovuto al moto rotatorio
del sistema di riferimento assunto.
In un campo conservativo di forze, ad ogni spostamento di una massa m, da una superficie
equipotenziale ad un’altra, corrisponde uno scambio di lavoro: il lavoro fatto dall’esterno sulla massa
ne aumenta l’energia potenziale.
Quando la distanza r dall’asse di rotazione aumenta, è il sistema che fa lavoro (lavoro verso l’esterno,
da prendersi con il segno meno):
dU pot = −mω 2 rdr
Integrando e considerando una massa m unitaria, si ha:
r2 1
U pot = −ω 2 + cos t = − u 2 + cos t
2 2
In definitiva, l’equazione completa di tutti i termini diviene:
w2 u 2 w 2 u 2
h1 + 1 + gz1 − 1 + Q = h2 + 2 + gz 2 − 2
2 2 2 2
Facendo sistema con l’equazione corrispondente in termini di riferimento assoluti, si ottiene (basta
sottrarre membro a membro) l’espressione del lavoro in funzione delle sole velocità:
V 2 − V2 2 w2 2 − w1 2 u1 2 − u 2 2
L= 1 + +
2 2 2
lavoro che risulta positivo quando è uscente dal sistema (macchina motrice).
Siano ora usati gli indici r, a e t per indicare rispettivamente le componenti radiale, assiale e
tangenziale dei vettori velocità; si può allora scrivere (sia per la sezione 1 che per la sezione 2):
V 2 = Vr 2 + Va 2 + Vt 2
w 2 = wr 2 + wa 2 + wt 2
ed inoltre
V a = wa
V r = wr
Vt = wt + u
Utilizzando queste uguaglianze nella definizione data di lavoro si ottiene in definitiva la seguente
relazione:
L = u1V1t − u 2V2 t
ove i termini Vt sono positivi quando diretti come la velocità periferica u.
L’espressione di L così ricavata prende il nome, per ragioni storiche, di Lavoro Euleriano; si può
dimostrare che a questa stessa espressione si può arrivare in maniera più generale ricorrendo al teorema
delle Quantità di moto e al teorema del Momento delle quantità di moto, applicati ad una portata di
fluido che attraversa un determinato volume di controllo che comprenda l’elemento di macchina
interessato.
Così come fornito dall’equazione di Eulero, il lavoro scambiato fra macchina e fluido è dunque
funzione delle componenti tangenziali delle velocità assolute, a monte e a valle, e delle velocità di
trascinamento.
La portata elaborata dipende invece dalla componente meridiana, definita come la componente del
vettore V (oppure del vettore w) proiettata sul piano definito dall’asse di rotazione e dall’origine di V
(oppure di w), cioè come risultante di Va e Vr (oppure di wa e wr).
In conclusione, le prestazioni della macchina dipendono direttamente dalla forma assunta dai triangoli
delle velocità.
Le ipotesi su cui si basa l’equazione del lavoro euleriano sono tanto più verificate nella realtà quanto
più i vari filetti fluidi che rappresentano il moto del fluido di lavoro lungo i canali risultano identici tra
di loro.
2.3 Moto in condotti a sezione variabile

Il comportamento di un fluido nel passaggio attraverso i canali di un elemento di macchina (in cui non
si compia lavoro) è definito da equazioni di moto che, almeno per quanto riguarda la comprensione dei
fenomeni fisici che intervengono, possono essere determinate sulla base di opportune ipotesi
semplificative.
Per quanto segue si suppongono dunque valide le seguenti ipotesi:
• Moto monodimensionale: velocità e condizioni termodinamiche del fluido costanti in ogni sezione
trasversale del canale
• Moto permanente: derivata nulla delle varie grandezze in funzione del tempo
• Condotto adiabatico: calore Q scambiato uguale a zero
• Trasformazioni reversibili: lavoro Lw delle resistenze passive uguale a zero
• Fluido come gas perfetto a calori specifici costanti
• Effetti gravitazionali trascurabili.
In queste condizioni e muovendosi il fluido all’interno di condotti dove non si fa lavoro, per la
conservazione dell’energia si ha:
V2
h+ = cos t = h0
2
L’entalpia h0 così definita è l’entalpia che il fluido assume quando la vena fluida si arresta (V = 0); essa
viene chiamata entalpia totale o entalpia di ristagno. Siccome per ipotesi l’entropia S si mantiene
costante in ogni punto del canale, assegnati S ed h0 risulta individuato lo stato termodinamico del
flusso nelle condizioni di ristagno.
Dall’equazione precedente si ha poi:
V2
T0 = T +
2c p
La definizione di velocità del suono
⎛ ∂p ⎞
a 2 = ⎜⎜ ⎟⎟
⎝ ∂ρ ⎠ s
può essere scritta diversamente ricorrendo all’equazione dell’isentropica
p ⋅ ρ −γ = cos t
e all’equazione di stato dei gas perfetti
p = ρRT
Si ha infatti, differenziando e sostituendo:
ρ −γ dp + p(− γ )ρ −γ −1 dρ = 0
dp ρ −γ −1 p
= γp −γ = γ = γRT
dρ ρ ρ
e quindi:
a 2 = γRT
Inoltre, sostituendo il Numero di Mach così definito:
V
M =
a
nell’espressione della temperatura di ristagno, si ottiene in definitiva:
T0 γ −1 2
= 1+ M
T 2
Tenendo poi conto dell’equazione dell’isentropica si ottiene anche:
γ
p0 ⎛ γ − 1 2 ⎞ γ −1
= ⎜1 + M ⎟
p ⎝ 2 ⎠
1
ρ 0 ⎛ γ − 1 2 ⎞ γ −1
= ⎜1 + M ⎟
ρ ⎝ 2 ⎠
Le equazioni scritte non fanno altro che mostrare il legame esistente, per flussi adiabatici e reversibili,
tra numero di Mach e rapporto tra grandezze termodinamiche in condizioni di ristagno e locali.
L’equazione di continuità consente poi di scrivere, con riferimento alle condizioni di ristagno:
⎛ a ⎞⎛ ρ ⎞⎛ V ⎞
m& = ρAV = Aa0 ρ 0 ⎜⎜ ⎟⎟⎜⎜ ⎟⎟⎜ ⎟
⎝ a0 ⎠⎝ ρ 0 ⎠⎝ a ⎠
da cui si ricava in definitiva:
1 γ +1

m& ⎛ γ −1 ⎞ 2 γ −1
= M ⎜1 + M2⎟
a0 ρ 0 A ⎝ 2 ⎠
L’andamento della portata così adimensionalizzata in funzione del numero di Mach è rappresentato
nella seguente Fig. 13 (per γ = 1.4).

Fig. 13 Portata adimensionalizzata in funzione del numero di Mach

Da tale figura si può vedere come:


• Note le condizioni di ristagno (ρ0, a0 oppure p0, T0), per ogni valore del numero di Mach risulta
definita l’area A della sezione di passaggio necessaria per consentire lo smaltimento della portata
m& ;
• Note le condizioni di ristagno, per ogni valore del rapporto m& /A sono invece possibili due diversi
tipi di flusso: uno per M < 1 (flusso subsonico), l’altro per M > 1 (flusso supersonico);
• Note le condizioni di ristagno, il rapporto m& /A ammette un massimo (massimo valore della portata
m& che può passare attraverso l’area A) per M = 1, cioè in condizioni soniche.
In condizioni soniche (dette anche condizioni in gola o condizioni critiche), i rapporti delle grandezze
termodinamiche assumono poi i seguenti valori:
T0 γ + 1
=
Tcr 2
γ
p 0 ⎛ γ + 1 ⎞ γ −1
=⎜ ⎟
p cr ⎝ 2 ⎠
1
ρ 0 ⎛ γ + 1 ⎞ γ −1
=⎜ ⎟
ρ cr ⎝ 2 ⎠
Il legame tra variazione di velocità e variazione di area della sezione di passaggio per i vari tipi di
flusso può essere ottenuto differenziando l’equazione di continuità:
m& = ρAV = cos t
e cioè:
dρ dA dV
+ + =0
ρ A V
Come si è visto, il principio di conservazione dell’energia, nelle ipotesi assunte, si traduce nella
costanza dell’entalpia totale, cioè:
V2 ⎛ p⎞ V2
h0 = h + = ⎜⎜ u + ⎟⎟ + = cos t
2 ⎝ ρ⎠ 2
da cui, differenziando, si ottiene:
1 1
du + pd + dp + VdV = 0
ρ ρ
Essendo ora per ipotesi nulli sia Qe che Lw (cioè dS = 0), si ha poi:
1
TdS = du + pd = 0
ρ
per cui, sostituendo, si ha:
1
dp + VdV = 0
ρ
Ricordando ora la definizione di velocità del suono:
⎛ ∂p ⎞
a 2 = ⎜⎜ ⎟⎟
⎝ ∂ρ ⎠ S
si ottiene:
dρ 2
a + VdV = 0
ρ
che si può anche scrivere:
dρ V 2 dV dρ dV
= 2 oppure = −M 2
ρ a V ρ V
Sostituendo questa espressione nell’equazione di continuità, si ottiene in definitiva quella che si chiama
equazione di Hugoniot:
dA
A
(
+ 1− M 2 )
dV
V
=0

Il significato fisico dell’equazione di Hugoniot, che lega le variazioni di sezione con quelle di velocità
in un condotto, risulta immediatamente chiaro: dV e dA hanno segno uguale od opposto a seconda che
il flusso sia supersonico (V > a) oppure subsonico (V < a). In gola (dA = 0), si può avere sia un
massimo o un minimo per la velocità (dV = 0), sia la velocità sonica (V = a).
Nel caso in cui la velocità in gola sia subsonica, nel tratto convergente dell’ugello, a monte della gola,
la velocità deve aumentare secondo la direzione del flusso, mentre nel tratto divergente, a valle della
gola, deve diminuire: di conseguenza il flusso deve essere ovunque subsonico e si è quindi in presenza
di un tubo di Venturi classico.
Analogamente, è chiaro che, se la velocità in gola è invece supersonica, il flusso deve essere
supersonico ovunque e la velocità in gola deve ammettere un minimo (tubo di Venturi supersonico).
Nel caso infine in cui la velocità in gola sia sonica, allora il flusso può essere sia subsonico che
supersonico da entrambi i lati. Risultano così possibili i seguenti quattro casi:
1. Subsonico a monte, supersonico a valle. E’ il caso di un ugello di espansione (ad es. di turbina) da
un serbatoio ad alta pressione verso un ambiente a bassa pressione.
2. Subsonico a monte, subsonico a valle. E’ il caso estremo di un Venturi classico.
3. Supersonico a monte, supersonico a valle. E’ il caso estremo di un Venturi supersonico.
4. Supersonico a monte, subsonico a valle. E’ il caso di un ugello di compressione, col fluido che
arriva ad alta velocità dall’ambiente a bassa pressione per scaricarsi a bassa velocità in un serbatoio
dove regna una pressione maggiore.
Il primo caso e l’ultimo sono interessanti perché forniscono modelli semplici rispettivamente di turbina
e di compressore. Un ben noto risultato di questa analisi è che si rende necessario un ugello
convergente-divergente (ugello di De Laval) affinché il flusso possa passare da subsonico a
supersonico, o viceversa, e che in tale passaggio la velocità è esattamente sonica in gola. Se l’ugello è
semplicemente convergente, allora la velocità può essere al massimo sonica nella sezione più stretta. Si
può infine verificare facilmente che il valore della velocità del fluido in un punto qualsiasi dell’ugello
(cui corrisponde una certa temperatura T oppure una certa pressione p) risulta dato dalla seguente
espressione:
γ −1
⎡ ⎤
2 ⎛ T ⎞ 2 ⎢ ⎛ ⎞
p γ ⎥
V = a0 ⎜⎜ 1 − ⎟⎟ = a0 1−⎜ ⎟
γ − 1 ⎝ T0 ⎠ γ − 1 ⎢ ⎜⎝ p0 ⎟⎠ ⎥
⎣⎢ ⎦⎥
Con riferimento alla Fig. 13, assegnate certe condizioni di ristagno, se la gola risulta essere sonica,
allora, in tale sezione, il rapporto m& /A si è visto essere ad un massimo: essendo poi in tale sezione A =
Ag, cioè ad un minimo, risulta di conseguenza che la portata massica sia ad un massimo.
Assegnato dunque un ugello con una certa sezione di gola e con determinate condizioni di ristagno, se
la gola è sonica, anche se si continua a diminuire la pressione di scarico (pressione a valle), la portata
che lo attraversa non può comunque andare oltre questo valore limite, essendo esso imposto appunto
dalle condizioni in gola.
Quando invece la gola non è sonica (e quindi la pressione in gola è maggiore della pressione critica),
allora la portata risulta essere funzione della pressione allo scarico ed aumenta al suo diminuire (è nulla
quando la pressione allo scarico è pari alla pressione di ristagno, mentre diviene massima quando la
pressione allo scarico assume un determinato valore cui corrisponde in gola un valore di pressione
uguale a quello critico).
Se quindi l’ugello ha gli stessi valori di ρ0, a0 e Ag e se con f si indica il valore della portata
adimensionalizzata, le due situazioni di gola sonica e subsonica sono identificabili da due valori distinti
di f, di cui uno massimo quando la gola è sonica.
Sussiste cioè nei due casi la seguente relazione:
f
m& = m& max
f max
L’andamento di f/fmax in funzione del rapporto di espansione dell’ugello p/p0 (con p che varia da p0 a pt
= pcr) può essere dedotto dalla relazione:
1 γ +1

⎛ γ −1 ⎞2 γ −1
M ⎜1 + M2⎟ γ +1 γ +1
⎡ γ −1

f ⎝ 2 ⎠ 2 ⎛ γ + 1 γ ⎛
⎞ ⎜ ⎟ ⎢ 0 γ
p ⎞ γ ⎛ p ⎞
⎜⎜ ⎟⎟ − 1⎥
− 1
= = ⎜ ⎟ ⎜ ⎟
f max 1 γ +1
γ − 1 ⎝ 2 ⎠ ⎝ 0⎠ p ⎢ p ⎥
⎢⎝ ⎠

⎛ γ + 1 ⎞ 2 γ −1 ⎣ ⎦⎥
⎜ ⎟
⎝ 2 ⎠
ed è rappresentato in Fig. 14.

Fig. 14 Portata adimensionalizzata di un ugello in funzione del rapporto p/p0

Diagramma analogo può essere derivato rappresentando la portata adimensionalizzata in funzione della
minima pressione raggiunta rapportata alla pressione di ristagno, come appare in Fig. 15.

Fig. 15 Portata adimensionalizzata in funzione della minima pressione raggiunta


rapportata alla pressione di ristagno

Come si vede, all’aumentare della pressione minima che si incontra lungo l’ugello (da zero a pt = pcr),
la portata si mantiene costante; oltre questo punto il valore della portata continua a diminuire, fino ad
annullarsi quando le pressioni si eguagliano. Si noti come la pressione p1’ non sia necessariamente
uguale alla pressione in uscita p1 (l’ugello si comporta come un Venturi; se in gola si sono raggiunte le
condizioni soniche, la congruenza tra le pressioni è ripristinata con l’intervento di un’onda d’urto).
Risultato comunque importante è che, per un dato ugello e con prefissate condizioni di ristagno, esiste
un massimo per la portata massica che non può essere superato, comunque bassa sia la pressione allo
scarico. L’ugello è detto essere in condizioni di saturazione (choke).
In Fig. 16 è riportato l’andamento della pressione locale nell’ugello rapportata alla pressione di ristagno
lungo l’asse del condotto.
Fig. 16 Andamento di p/p0 lungo l’asse dell’ugello

Come si può dedurre dalla Fig. 16, si possono verificare i seguenti casi:
• La contropressione p1 è uguale alla pressione di ristagno (p1/p0 = 1). La portata è nulla in quanto
non si ha variazione di pressione tra monte e valle.
• Al diminuire della contropressione la velocità aumenta nel condotto convergente e diminuisce nel
condotto divergente, senza che si raggiungano in gola le condizioni soniche (Venturi classico).
• La contropressione raggiunge un valore tale per cui la gola diviene sonica, pur rimanendo
subsonico il tratto divergente (Venturi limite).
• Al diminuire della contropressione la gola rimane sempre sonica e l’espansione diventa supersonica
solo per un certo tratto del condotto divergente. Essendo la contropressione ancora troppo elevata,
si forma un’onda d’urto (normale) con pressione a valle che tende ad avvicinarsi alla
contropressione secondo una espansione subsonica: l’ugello si dice super-espanso.
• La contropressione ha raggiunto un valore tale per cui il flusso può mantenersi supersonico per
tutto il tratto divergente, senza formazione di onda d’urto: l’ugello supersonico si dice adattato.
• Per un’ulteriore diminuzione della contropressione la pressione sulla sezione di uscita dell’ugello si
mantiene comunque costante: la caduta di pressione rimanente avviene ora al di fuori dell’ugello,
attraverso la formazione di onde d’urto (oblique): l’ugello si dice sub-espanso.
Se il flusso è isentropico è anche reversibile, per cui quanto affermato per un ugello in espansione è 
valido  anche  per  un  ugello  in  compressione,  con  condizioni  di  ristagno  in  uscita.  Se  non  si  riesce  a 
convertire  tutta  l’energia  cinetica  in  pressione,  allora  la  compressione  può  completarsi  ad  una 
pressione qualsiasi inferiore a quella di ristagno, a spese del rendimento della trasformazione (il flusso 
può, ad esempio, separarsi dalle pareti del diffusore). 

                  

2. MACCHINE A FLUIDO INCOMPRIMIBILE

2.1 Energia idraulica


E’ l’energia che viene messa a disposizione da un fluido incomprimibile (caso di una macchina motrice
o turbina) o che viene fornita ad un fluido incomprimibile (caso di una macchina operatrice o pompa).
L’equazione di Bernoulli afferma che, nel moto stazionario di un fluido senza attrito, l’energia totale
(per unità di massa) si mantiene costante (costanza del Trinomio di Bernoulli):
p1 V1 2 p 2 V2 2
gz1 + + = gz 2 + +
ρ 2 ρ 2
Tra le sezioni 1 e 2 si può sottrarre (turbina) o fornire (pompa) energia, come pure, nel caso reale, si
può sottrarre energia come lavoro perso per superare gli attriti che si oppongono al moto del fluido.
Se L è il lavoro scambiato tra macchina e fluido (positivo se uscente) ed Y la perdita di carico per
dissipazioni, si ha:
p V 12 p V 2
gz1 + 1 + = L + gz 2 + 2 + 2 + Y
ρ 2 ρ 2
da cui in definitiva:
1
ρ
( 1
)
L = g (z1 − z 2 ) + ( p1 − p 2 ) + V1 2 − V2 2 − Y
2
dove la perdita di carico Y è equivalente al lavoro Lw perso per attrito, calcolabile in base alla storia
termica del fluido:
u 2 − u 1 = Q + Lw
Praticamente però è più facile determinare Y come perdita di carico che come variazione di energia
interna, in quanto il sistema a regime si porta a temperatura costante e la quantità di calore Q dispersa
in ambiente non risulta facilmente quantificabile, anche se certamente diversa da zero (è Q < 0 in
quanto il calore lascia il sistema).

Impianto con macchina motrice


Siano ora e ed u due sezioni qualsiasi del condotto (comunque lontane a monte e a valle della
macchina) e siano poi 1 e 2 le sezioni di entrata ed uscita della macchina stessa; siano poi Ycond’ e
Ycond’’ le perdite nei tratti a monte e a valle.
Si può allora scrivere (T è il trinomio di Bernoulli nel sistema MKS):
Te = T1 + Ycond '
Tu = T2 − Ycond ' '
Ponendo:
Ycond = Ycond ' +Ycond ' '
si ha poi:
T1 − T2 = Te − Tu − Ycond
La differenza:
E n = T1 − T2 = gH m
prende il nome di Energia netta disponibile (En) o Salto motore (Hm), a seconda che venga espressa in
J/kg oppure in m di colonna di fluido.
L’energia netta risulta perciò definita in base alle seguenti espressioni:
1
ρ
(1
)
E n = g (z e − z u ) + ( p e − p u ) + Ve 2 − Vu 2 − Ycond
2
1
ρ
(1
)
E n = g (z 1 − z 2 ) + ( p1 − p 2 ) + V1 2 − V 2 2
2
Si definisce rendimento di condotta il rapporto:
T1 − T2 En
η cond = =
Te − Tu Te − Tu
Se le sezioni e ed u corrispondono ai bacini superiore e inferiore, allora:
pe ≅ pu ≅ p atm
Ve ≅ Vu ≅ 0
e quindi:
En Hm
η cond = =
g (z e − z u ) z e − zu

Impianto con macchina operatrice


Le sezioni 1 e 2 come pure e ed u mantengono lo stesso significato anche per la macchina operatrice,
che in questo caso però aumenta l’energia idraulica del fluido.
In questo caso perciò la differenza:
E n = T2 − T1 = Tu − Te + Ycond = gH
viene trasmessa al fluido e prende il nome Energia netta fornita al fluido o Prevalenza della pompa. La
prevalenza, così come è stata definita, si dice anche prevalenza manometrica, perché la differenza di
pressione può essere facilmente misurata mediante lettura di due manometri posizionati in 1 e in 2.
Si ha poi:
1
ρ
( 1
)
E n = g ( z u − z e ) + ( pu − p e ) + Vu 2 − Ve 2 + Ycond
2
1
ρ
( 1
)
E n = g ( z 2 − z1 ) + ( p 2 − p1 ) + V2 2 − V1 2
2
Si definisce ora rendimento di condotta il rapporto:
T −T T −T
η cond = u e = u e
T2 − T1 En
Con bacini alla stessa pressione (magari atmosferica) e velocità trascurabili si ha poi:
g (zu − z e ) zu − z e
η cond = =
En H

Perdite nelle condotte


Le perdite nelle condotte possono essere localizzate (o concentrate) oppure continue; solitamente si
esprimono in termini di proporzionalità con l’altezza cinetica:
Le perdite localizzate sono del tipo:
V2
Yloc = ∑ ξ i i
i 2
dove ξi è un coefficiente che tiene conto del tipo di perdita (riduzione di sezione, variazione di
direzione, etc.).
Le perdite continue sono del tipo:
V 2 Li
Ycont = ∑ λi i
i 2 Di
e risultano dipendenti sia dalla lunghezza Li del tratto di tubazione considerato che dal suo diametro
interno Di (o diametro idraulico a seconda del tipo di profilo bagnato).
Il coefficiente λi si chiama fattore di attrito e si determina mediante il diagramma di Moody in funzione
del numero di Reynolds e della scabrezza relativa del tratto di tubo considerato (la scabrezza relativa è
la scabrezza o ruvidità assoluta rapportata al diametro Di della tubazione).
Il numero di Reynolds è definito come:
ρVD
Re =
µ
dove D è il diametro della tubazione (pari a quattro raggi idraulici, essendo raggio idraulico il rapporto
tra area della sezione di passaggio e profilo bagnato in sviluppo) e µ la viscosità del fluido, mentre la
scabrezza relativa è definita appunto come rapporto ε/D con ε scabrezza assoluta della superficie.
Il diagramma di Moody, rappresentato in Fig. 1, fornisce λ in funzione di Re, come parametro essendo
il rapporto ε/D.

Fig. 1. Diagramma di Moody

2.2 Rendimenti

Al netto dei rendimenti di condotta, il rendimento di una macchina viene al solito definito come
rapporto tra la potenza che si ottiene e la potenza che si fornisce.
Si possono distinguere tre componenti principali del rendimento: rendimento idraulico (frazione di
lavoro), rendimento volumetrico (frazione di portata) e rendimento organico (frazione di lavoro
meccanico o organico).
Turbina
Il rendimento idraulico ηy è il rapporto tra il lavoro En-Y effettivamente trasferito alla girante ed il
lavoro disponibile En (dove Y comprende solo le perdite di lavoro relative alla macchina), cioè:
E −Y
ηy = n
En
Se T1 è il trinomio di Bernoulli in entrata e T2 quello in uscita, si ha per il lavoro disponibile:
Ld = T1 − T2 = E n
e per il lavoro della girante:
L g = T1 − T2 − Y = E n − Y
per cui:
Lg En − Y H m − y
ηy = = =
Ld En Hm
dove Hm è chiamato salto motore (espresso in m di colonna di liquido) ed è legato all’energia netta
disponibile dalla relazione:
E n = gH m
mentre anche le perdite y (espresse in m di colonna di fluido) sono ricavabili da:
Y = g⋅y
Il rendimento volumetrico è il rapporto tra la portata massica m& − ∆m& che effettivamente svolge lavoro
e la portata totale di fluido m& che attraversa la macchina ( ∆m& sono le perdite di fluido attraverso le
tenute o le perdite per ricircolazione), cioè:
m& − ∆m&
ηv =
m&
Il rendimento organico è il rapporto tra la potenza utile all’albero e la potenza interna alla girante, cioè:
P P
ηo = a = a
Pg Pi
Le perdite Pi – Pa sono perdite ai cuscinetti e perdite per ausiliari.
Come rendimento totale in turbina si intende infine il rapporto tra potenza utile all’albero e potenza
messa a disposizione dal fluido:
Pa η o Pi (m& − ∆m& ) ⋅ (E n − Y )
ηT = = = ηo
m& (T1 − T2 ) m& (T1 − T2 ) m& ⋅ E n
per cui, in base alle definizioni:
ηT = η yη vη o
Tenendo poi conto anche delle perdite nell’alternatore si ottiene la seguente definizione di rendimento
globale del gruppo turboalternatore:
η g = ηT η alt = η yη vη oη alt

Pompa
Il rendimento idraulico ηy è il rapporto tra lavoro En effettivamente ricevuto dal fluido e lavoro En + Y
fatto dalla girante, cioè:
En
ηy =
En + Y
In questo caso En sarebbe negativo (in quanto entra nel sistema), per cui valgono le seguenti relazioni:
− E n = T1 − T2
E n = T2 − T1
T2 − T1 En H
ηy = = =
En + Y En + Y H + y
dove H è la prevalenza della pompa (espressa in m di colonna di fluido) e y sono le perdite di carico
nella pompa (sempre espresse in m di colonna di fluido).
Il rendimento volumetrico è il rapporto tra la portata m& mandata dalla pompa e la portata m& + ∆m& che
effettivamente interessa la girante ( ∆m& è la portata che passa attraverso le tenute o che torna indietro in
ricircolazione), cioè:
m&
ηv =
m& + ∆m&
Il rendimento organico è il rapporto tra potenza interna:
Pi = (m& + ∆m& ) ⋅ (E n + Y )
e potenza assorbita all’asse, cioè:
P
ηo = i
Pa
Le perdite Pa – Pi sono perdite ai cuscinetti e perdite per ausiliari.
Come rendimento totale in pompa si intende infine il rapporto tra la potenza acquisita dal fluido e la
potenza assorbita all’asse della pompa:
(T − T ) ⋅ m& E ⋅ m& E n ⋅ m&
ηP = 2 1 = ηo n = ηo
Pa Pi (E n + Y ) ⋅ (m& + ∆m& )
per cui, in base alle definizioni:
η P = η yη vη o
Tenendo poi anche conto delle perdite del motore elettrico, il rendimento globale del gruppo
motopompa diviene:
η g = η Pη m = η yη vη oη m
 

2.3 Teoria della similitudine 

Curve caratteristiche 

Le  prestazioni  di  una  turbomacchina  possono  essere  ottenute  senza  necessariamente    conoscere  in 
dettaglio  il  contenuto  della  macchina  stessa:  interessa  infatti  semplicemente  sapere  quali  sono  gli 
effetti  trasmessi  al  contorno  attraverso  l'albero  e  mediante  la  corrente  di  fluido.  Se  il  rotore  è 
racchiuso in una cassa (cioè la macchina è una macchina chiusa e non aperta, come è ad esempio il 
caso di un'elica marina), si possono misurare per il fluido portata e variazioni delle proprietà fisiche tra 
ingresso  ed  uscita,  mentre  per  l'albero  coppia  trasmessa  e  velocità  angolare.  Se  la  macchina  è  ad 
esempio  una  pompa,  diverse  condizioni  di  funzionamento  si  possono  creare  agendo  sul  motore  di 
trascinamento  (coppia  fornita)  e  sul  volantino  della  valvola  posta  sul  tubo  di  mandata  (prevalenza 
richiesta). Si ottengono così di conseguenza determinati valori per la portata, in funzione di un certo 
numero  di  giri  del  motore:  al  variare  delle  grandezze  Q  (m3/s)  e  N  (rad/s),  scelte  come  variabili 
indipendenti di controllo, tutte le altre variabili in gioco rimangono definite (variabili dipendenti). 

Al di là della scelta, puramente arbitraria, delle variabili di controllo, rimane comunque certo il fatto
che due sono queste variabili necessarie per condizionare tutte le altre.
Se  però  si  cambia  il  fluido,  appare  subito  chiaro  come  le  sue  proprietà  fisiche  debbano  influenzare 
operativamente  la  turbomacchina;  quindi,  ad  esempio,  bisognerà  prendere  in  considerazione anche 
densità, pressione, viscosità, etc. (variabili del fluido).  

Infine,  differenti  turbomacchine  daranno  luogo  a  prestazioni  diverse  in  funzione  di  come  sono 
dimensionate  (variabili  geometriche).  Si  può  ad  esempio  far  riferimento  ad  una  misura  assoluta 
(diametro significativo D del rotore) ed a tante dimensioni ad essa legate attraverso un numero più o 
meno elevato di rapporti adimensionali (α, β, ...).  
Le prestazioni della turbomacchina risultano dunque a questo punto definite, nel senso che sono state 
individuate tutte le variabili fisiche, mediante le variabili di controllo, le variabili del fluido e le variabili 
geometriche.  

Ad esempio per una pompa si può esprimere l'energia netta fornita al fluido En secondo la seguente 
espressione: 

En = f ( Q , N ,ρ , ν ,..., D ,α ,β ,... ) .                                                                                              

Per  il  teorema  Π  di  Buckingham,  quando  in  un  fenomeno  fisico  intervengono  n  quantità  e  le 
dimensioni  sono  in  numero  di  m,  tutte  queste  quantità  possono  essere  raccolte  in  n  ‐  m  parametri 
adimensionali indipendenti.  

Nel caso portato ad esempio le grandezze fondamentali sono tre ed è quindi possibile ridurre appunto 
di tre il numero delle variabili, per cui si può in definitiva scrivere: 

En ⎛ Q ND 2 ⎞
= f ⎜ , ,...,α , β ,...⎟                                                                                                         
2 2
N D ⎜ 3
ν ⎟
⎝ ND ⎠

dove compaiono in ordine il coefficiente di carico, il coefficiente di portata ed il numero di Reynolds, 
che sono tutte grandezze adimensionali. 

L'equazione  scritta  può  essere  chiamata  legge  di  prestazione  della  turbomacchina.  A  causa  del 
numero  praticamente  infinito  di  variabili  che  compaiono  nell'equazione,  il  suo  uso  in  questa  forma 
sarebbe praticamente inattuabile.  

Per ridurre il numero di variabili si può o ignorarne alcune oppure mantenerne altre costanti. In una 
famiglia di macchine geometricamente simili tutti i rapporti geometrici sono costanti e possono quindi 
essere  lasciati  fuori  dall'equazione.  Delle  proprietà  del  fluido  solo  alcune  rivestono  pratica 
importanza: gli effetti del numero di Reynolds nelle macchine idrauliche sono ad esempio di un ordine 
di grandezza più piccolo degli effetti del coefficiente di flusso, mentre altre proprietà del fluido non 
sono importanti del tutto, assunto la cavitazione assente.  

In prima approssimazione allora la legge di prestazione di turbomacchine idrauliche simili assume la 
forma:  

En ⎛ Q ⎞
2 2
= f⎜ 3⎟
                                                                                                                              
N D ⎝ ND ⎠

che è ora sufficientemente semplice per una pratica applicazione e può essere rappresentata da una 
singola curva (curva caratteristica della turbomacchina).  

Equazioni  simili  possono  essere  scritte  scegliendo  altre  variabili  dipendenti  al  posto  dell'energia 
scambiata. 

 
Curve caratteristiche reali 
Come  visto,  le  leggi  adimensionali  di  prestazione  si  riducono  nei  casi  più  semplici  a  ad  essere 
rappresentate da una singola curva. Oltre alle grandezze già viste, importanti variabili in uscita sono il 
rendimento η, la coppia M, la potenza P, etc. 

Tutte  le  leggi  adimensionali  di  prestazione  assumono  la  forma  ad  un  parametro  in  questa  prima 
approssimazione, valida per fluidi incomprimibili, non viscosi e non cavitanti: 

y = f (x )                                                                                                                            

dove  y  è  una  combinazione  adimensionale  contenente  una  variabile  dipendente.  Le  altre  variabili 
fisiche in x e y sono considerate variabili indipendenti e cioè le due variabili di controllo (ad esempio Q 
ed N), la variabile del fluido (densità  ρ) e la variabile dimensionale (diametro del rotore D). La legge è 
valida  per  tutta  una  famiglia  di  turbomacchine  simili  ed  è  sufficientemente  approssimata  solo  fin 
tanto che si possono ignorare taluni effetti, come ad esempio la viscosità.  

Frequenti scelte per y ed x sono: 

η                rendimento, 

F
      coefficiente di forza, 
ρD 4 N 2

M
      coefficiente di coppia, 
ρD 5 N 2

Q
          coefficiente di flusso,  
ND3

En
       coefficiente di carico (prevalenza o salto motore), 
N 2 D2

P
       coefficiente di potenza,  
ρD 5 N 3

1
NQ 2
       velocità specifica,  
3
En 4

1
N ⎛⎜ P ⎞⎟
2

⎝ ρ⎠
5
   velocità specifica alla potenza.            
En 4

Da  un  punto  di  vista  pratico  l'importante  risultato  della 


rappresentazione adimensionale è che quella che sarebbe altrimenti 
apparsa  come  una  serie  di  curve  di  prestazione  collassa  ora 
(approssimativamente)  in  una  singola  curva,  come  è  mostrato  ad 
esempio in Fig. 2, dove è rappresentato il coefficiente di carico in funzione di quello di flusso per una 
pompa  centrifuga.  In  una  rappresentazione  dimensionale  invece  i  punti  ottenuti  a  diverse  velocità 
sarebbero giaciuti su curve largamente separate. Una pompa geometricamente simile, ma di diverse 
dimensioni, presenterebbe poi ancora (approssimativamente) la stessa curva.  

                             
Fig. 2. Curva caratteristica adimensionale di                        Fig. 3. Curva caratteristica dimensionale di una  

            una pompa centrifuga                                                           pompa centrifuga  

Mentre  una  rappresentazione  adimensionale  è  preferibile  da  un  punto  di  vista  teorico,  curve 
caratteristiche  dimensionali  sono  pure  necessarie  ad  esempio  per  uso  immediato  da  parte  di 
personale d'impianto. Da un diagramma adimensionale, come quello rappresentato in Fig. 2, è facile 
passare  ad  una  curva  del  tipo  En  =  f(Q)  per  una  data  pompa,  ad  una  data  velocità  (D,  N  =  cost.). 
Viceversa,  una  curva  caratteristica  prevalenza‐portata  ottenuta  a  velocità  costante  stabilisce 
approssimativamente la curva caratteristica adimensionale.  

E' possibile poi estrapolare la curva En = f(Q) ottenuta per un dato N = cost per tracciare altre linee a N 
= cost sulla base che la curva adimensionale rimanga la stessa. 

In  Fig.  3  si  vede  come  sia  possibile  in  via  di  principio  trovare  per  ciascun  punto  di  questa  curva  un 
coefficiente  di  flusso  Q/ND3  ed  un  coefficiente  di  carico  En/N2D2.  Sulla  curva  per  una  differente 
velocità un punto corrispondente sarà caratterizzato dagli stessi coefficienti di flusso e di carico, per 
cui per tali punti corrispondenti En varierà col quadrato della velocità N, mentre Q varia linearmente 
con N. 

Di  conseguenza,  nel campo dimensionale prevalenza‐portata, punti  corrispondenti saranno collegati 


da parabole, del tipo: 

En
= cos t ⋅ Q2  . 
g

La costruzione di altre curve a N = cost diviene così immediata. 

Esiste  un  altro  metodo  per  arrivare  allo  stesso  risultato  relativamente  ai  punti  corrispondenti.  Nel 
caso  di  una  legge  di  prestazione  ad  un  solo  parametro,  la  costanza  di  un  numero  adimensionale 
significa  costanza  di  tutti  gli  altri,  perchè  ciascuno  di  tali  numeri  può  essere espresso  in  funzione  di 
ogni altro. 

Da qui una combinazione adimensionale del tipo: 

En
4
N 2 D 2 = En D  
2
⎛Q ⎞ Q2
⎜ ⎟
⎝ ND 3 ⎠

si mantiene pure costante. 

Per la stessa pompa perciò (D = cost) si ha per punti corrispondenti: 

En = cos t ⋅ Q2  . 

Simili  relazioni  possono  essere  ottenute  imponendo  costanti  altre  combinazioni  adimensionali. 
Particolarmente  interessante  è  poi  che,  per  punti  corrispondenti,  si  ha  η   =  cost,  numero 
adimensionale alla stessa stregua degli altri che si mantengono costanti. 

Similitudine e analisi dimensionale 
Il  fatto  che  una  legge  di  prestazione  sia  valida  per  una  famiglia  di  turbomacchine  geometricamente 
simili rende possibile stabilire la legge di misura su modelli in piccola scala.  

Nel progetto di macchine molto grandi la possibilità di effettuare esperimenti su modelli si rivela di 
grande utilità, anche se estrapolando verso l'alto i risultati sul modello la semplice approssimazione 
della legge ad un solo parametro risulta influenzata da due fattori di disturbo: effetti dovuti al numero 
di Reynolds ed anche deviazioni dalla rigorosa similitudine, chiamati effetto scala. Queste ultime sono 
legate  principalmente  a  differenti  scabrezze  relative,  essendo  le  superfici  interne  delle  grandi 
macchine relativamente più lisce, anche i giochi possono essere tenuti relativamente più piccoli. 

Le  leggi  di  modellazione  possono  essere  in  prima  approssimazione  stabilite  sulla  base  del  semplice 
principio  che  per  punti  corrispondenti  tutte  le  combinazioni  adimensionali  sono 
(approssimativamente) costanti. 

Ad esempio: 

Q = cos t ⋅ ND3
En = cos t ⋅ N 2 D2                                                                                                                 
P = cos t ⋅ ρN 3 D5

Il concetto di punti di lavoro corrispondenti testé introdotto acquista significato fisico quando viene 
sviscerata  l'intima  connessione  tra  similitudine  fisica  ed  analisi  dimensionale.  Le  grandezze 
adimensionali sono sempre rapporti di quantità fisiche: il rendimento è il rapporto tra due misure di 
energia ed il numero di Reynolds è il rapporto di forze d'inerzia e forze viscose. Quando tali rapporti 
sono  ovunque  costanti,  il  campo  delle  forze  o  il  campo  delle  velocità  sono  fisicamente  simili.  Per 
esempio,  la direzione  del  flusso,  oppure  l'angolo  del  vettore  velocità,  sono  dati  dal  rapporto  di  due 
componenti della velocità. Quando i parametri adimensionali indipendenti esterni  (come ad esempio 
x  nella legge di  prestazione, tipo  Q/ND3) sono costanti, tutte le  velocità e le forze interne e gli altri 
rapporti saranno pure costanti, essendo dipendenti dai parametri esterni (ignorando nel caso effetti 
dovuti  a  variazioni  per  fluttuazioni  in  velocità  per  turbolenza).  Cioè  la  costanza  dei  parametri 
adimensionali  esterni  indipendenti  garantiranno  similitudine  fisica  (in  questo  caso  similitudine 
dinamica).  Inoltre,  tutte  le  variabili  adimensionali  esterne  indipendenti  saranno  naturalmente  pure 
costanti. Da ciò punti di lavoro corrispondenti sono quelli che sono collegati da similitudine dinamica. 

Classificazione delle turbomacchine 
La Fig. 4 mostra tipiche curve caratteristiche dimensionali per una pompa. Si può notare come esista 
un punto di lavoro di ottimo (valore massimo del rendimento), per una certa combinazione velocità‐
portata. Punti corrispondenti ad altre velocità possono essere trovati per il principio che per tali punti 
tutte le variabili adimensionali rimangono costanti. I valori numerici delle variabili adimensionali nel 
punto  di  ottimo  possono  essere  visti  come  dati  caratteristici  quantitativi  di  una  certa  macchina  (o 
meglio  di  una  famiglia  di  macchine  simili)  e  sono  estremamente  importanti  nella  pratica, 
particolarmente nel progetto e nella selezione di macchine per nuove applicazioni.  

 
 

Fig.4. Tipiche curve caratteristiche dimensionali di una pompa centrifuga (100 % Q = 100 lt/s). 
 

Si  deve  riconoscere  che  questi  numeri  (velocità  specifica,  numero  di  flusso,  coefficiente  di  carico, 
rendimento, tutti ai punti di ottimo) forniscono una base quantitativa per la classificazione di tutte le 
turbomacchine.  Macchine  che  presentano  simili  caratteristiche  di  progetto  mostrano  di  avere 
approssimativamente  gli  stessi  valori  di  ottimo  per  velocità  specifica,  coefficiente  di  carico,  etc.,  in 
campi  largamente  diversi  per  applicazione.  Macchine  idrauliche  e  pneumatiche,  per  esempio,  sono 
portate ad un comune denominatore da questo concetto. Il più noto nella pratica è un certo fattore 
proporzionale alla velocità specifica nel punto di ottimo, così definito: 

1
NQ 2
Ω= 3
 
En 4
opt

Questa  è  una  combinazione  adimensionale  e  quindi  si  devono  usare  unità  coerenti  per  la  sua 
determinazione. Il termine velocità specifica ha la sua giustificazione nel fatto che  Ω  sia direttamente 
proporzionale ad N. Purtroppo nella pratica viene usata una varietà di combinazioni, che differiscono 
da  Ω  di  un  fattore  numerico  costante.  La  velocità  specifica  riferita  alla  potenza  precedentemente 
definita è legata alla velocità specifica riferita alla portata dalla relazione: 
1
N ⎛⎜ P ⎞⎟
2
1
⎝ ρ⎠ =η
1
2
NQ 2 1
= η 2 Ω  . 
5 3
En 4 En 4

Variazioni  nella  forma  delle  giranti  sono  necessarie  per  tener  conto  delle  portate  relativamente  più 
alte  per  grandi  Ω,  come  pure  delle  altezze  relativamente  maggiori  per  piccoli  Ω.  Per  valori  molto 
piccoli di Ω si devono usare macchine alternative, per poi passare a singoli getti per il fluido di lavoro, 
prima  di  poter  utilizzare  macchine  completamente  immerse  nella  corrente  a  valori  maggiori  della 
portata. La scelta della particolare combinazione adimensionale  Ω  come base della  classificazione è 
un passo comunque arbitrario, dovuto più che altro alla tradizione. Valori di ottimo di qualche altro 
parametro sono ugualmente caratteristici di una particolare macchina.  

L'esame di turbomacchine reali mostra ad esempio che si possono scegliere altrettanto bene per una 
classificazione le seguenti combinazioni: 

Q
Φ=      coefficiente di flusso 
ND3

En
Ψ=    coefficiente di carico 
N 2 D2

1
DEn 4
∆= 1
   diametro specifico. 
Q 2
I  valori  di  ottimo  di  una  qualsiasi  di  queste  variabili  potrebbero  essere  usati  in  maniera  analoga  a 
quanto fatto  per  Ω.  In  altre  parole,  Φ,  Ψ,  e  ∆ sono  più  o meno  ben  definite funzioni  di  Ω (tutte  al 
punto  di  ottimo).  In  merito  parecchi  autori  hanno  proposto  relazioni  empiriche  colleganti  Ω  a 
parametri  geometrici  (come  ad  esempio  il  rapporto  altezza  di  paletta/diametro  ruota)  ed  a  fattori 
proporzionali a  Φ,  Ψ, oppure  ∆. Abbastanza nota è ad esempio la rappresentazione dovuta a Cordier 
che mostra (Fig. 5) un grafico di natura empirica del tipo: 

Ω = f (∆ )  

con piccole dispersioni per i punti relativi a macchine ad alto rendimento: la curva può essere utile ad 
esempio per trovare la dimensione di una macchina per un determinato compito.  

 
Fig. 5. Diagramma di Cordier: velocità specifica        Fig. 6. Rendimento in funzione della velocità specifica 

           in funzione del diametro specifico.                             per diverse turbomacchine.  

  

Non  ci  si  può  naturalmente  attendere  che  tutte  le  macchine  offrano  prestazioni  di  ottimo 
esattamente  come  previsto  dal  diagramma  di  Cordier:  il  diagramma  è  infatti  vero  solo  in  senso 
statistico,  cioè  è  comunque  possibile  progettare  una  macchina  ad  alta  efficienza  i  cui  dati  siano 
deducibili  dal  diagramma  di  Cordier.  Bisogna  però  sempre  tenere  in  mente  che  non  è  detto  che  il 
rendimento sia l'unica grandezza da considerare nella progettazione di una macchina. In taluni casi, 
infatti,  altri  fattori  possono  essere  altrettanto  determinanti  nella  scelta,  come  ad  esempio  costi 
oppure  riduzione  dei  rumori  e  così  via,  con  dimensionamenti  risultanti  che  possono  scostarsi 
abbastanza da quelli suggeriti ad esempio dal suddetto diagramma. 

Fissati  Ω e  ∆, si possono poi facilmente calcolare altri parametri adimensionali di prestazione, come 


ad esempio: 

Φ = 1 Ω∆3
 
Ψ = 1 Ω 2 ∆2
Molto  utili  per  il  progettista  sono  pure  i  grafici  che  danno  il  rendimento  in  funzione  di  Ω ,  come 
mostrato ad esempio in Fig. 6. 

Leggi a due parametri 
Quando  il  numero  delle  variabili  indipendenti  aumenta,  ad  esempio  di  uno,  si  può  formare  un 
secondo parametro indipendente adimensionale; le leggi di prestazione assumono allora la forma: 

y = f ( x, z )                                                                                                                       

Un esempio di seconda variabile indipendente è fornito dalle turbine Kaplan, a pale orientabili, per le 
quali deve essere introdotto l'angolo di palettatura  β (già adimensionale). Per un assegnato valore di 
β si ottiene una legge di prestazione con un solo parametro adimensionale, come prima visto. Per un 
altro valore di β si ha in un certo senso una macchina diversa con una differente legge di prestazione. 
Si possono poi ad esempio riportare in grafico le curve per diversi valori dell'angolo di calettamento, 
ottenendosi  alla  fine  una  curva  inviluppo  per  i  vari  punti  di  ottimo.  Ciascuna  curva  di  un  tale 
diagramma, in coordinate adimensionali, può ovviamente essere espansa in un campo carattersitico 
dimensionale  e  per  ogni  punto  sul  diagramma  adimensionale  si  avrà  ora  un  certo  numero  di  punti 
corrispondenti che sono tali, come noto, solo per macchine simili. 

Da un altro punto di vista si può dire poi che la corrispondenza (ad esempio la similitudine dinamica) 
richiede  ora  la  costanza  di  due  parametri  adimensionali  indipendenti.  Da  qui,  conformemente  alle 
leggi  di  prestazione  nella  forma  di  un’equazione  come  quella  scritta,  tutte  le  altre  variabili 
adimensionali  saranno  pure  costanti.  Questo  risultato  è  naturalmente  vero  anche  se  il  secondo 
parametro non è l'angolo di calettamento ma il numero  di  Reynolds oppure  qualsiasi  altra  variabile 
indipendente. 

Effetti della viscosità 
Come visto precedentemente, per poter descrivere più accuratamente le prestazioni di una macchina 
è  necessario  prendere  in  considerazione  la  viscosità.  Questo  è  già  vero  perfino  per  l'acqua,  che 
presenta una viscosità molto bassa, ma diviene alla fine imperativo quando si considerino macchine 
che trattano ad esempio prodotti petroliferi. Nel caso di ventilatori, espansori e turbine a vapore, forti 
effetti viscosi appaiono quando si lavori con vuoto spinto. Ad esempio, il vapor d'acqua a 20 °C e 0.03 
bar presenta una viscosità cinematica equivalente a quella di un leggero olio lubrificante.  

Prendendo dunque in considerazione anche la viscosità, si deve introdurre come secondo parametro 
indipendente il numero di Reynolds (Re), in una delle seguenti forme (µ è la viscosità,  ν  la viscosità 
cinematica): 
ρND2 ND2 Q
;         ;           . 
µ ν νD

Anche  in  questo  caso  una  legge  a  due  parametri  che  tenga  conto  della  viscosità  è  meglio 
rappresentata mediante una serie di linee a Reynolds costante. In funzione del coefficiente di flusso, 
ad  esempio  per  una  pompa,  si  può  vedere  come  all'aumentare  di  Re  aumentano  rendimento  e 
coefficiente di carico, mentre ovviamente diminuisce il coefficiente di potenza. Una rappresentazione 
grafica di tipo dimensionale diverrebbe poi notevolmente più complicata.  

Come si vede ad ogni modo dai risultati sperimentali, le curve caratteristiche sono più o meno simili; 
cioè, per scopi pratici, si può vedere che due curve simili possono al limite essere portate a coincidere 
mediante opportuna variazione di scala degli assi. 

Un altro aspetto caratteristico è poi che non è quasi richiesta alcuna distorsione dell'ascissa se come 
variabile x si sceglie la velocità specifica al posto del coefficiente di flusso.  

Esistono cioè casi per i quali la legge a due parametri può assumere la forma funzionale: 

y = f 1 ( x ) f 2 ( z )  . 

In altre parole, y può calcolarsi come un fattore del numero di Reynolds moltiplicato per una legge di 
prestazione non viscosa, cioè più esplicitamente: 

η = fη f (Ω )
     
Ψ = f H f (Ω )

dove: 

fη = fη (Re )
 
f H = f H (Re )

sono rispettivamente fattori del numero di Reynolds per il rendimento e per il coefficiente di carico. 

Sperimentalmente, ad esempio, il primo fattore è ottenuto come rapporto dei rendimenti misurati in 
"punti corrispondenti", cioè a velocità specifica costante (si noti che questa è una nozione estesa di 
punti  corrispondenti  derivante  dalla  similitudine  di  curve  di  prestazione  a  numero  di  Reynolds 
costante, e che questo non implica completa similitudine dinamica). 

Da  un  punto  di  vista  fisico  generale  ci  si  attende  che  questi  fattori  del  numero  di  Reynolds  si 
comportino in maniera simile per tutte le turbomacchine e questo viene per la verità riscontrato nella 
realtà.  Si  trova  infatti  che  l'andamento  del  fattore  per  il  rendimento  è  concorde  con  quanto  ci  si 
aspetta  in  analogia  con  i  fattori  di  attrito  per  i  tubi:  oltre  un  certo  valore  di  Re  il  flusso  diviene 
"totalmente  turbolento"  ed  il  fattore  di  perdita,  definito  come  1  ‐  η,  si  mantiene  costante.  Al 
diminuire di Re il fattore di perdita dapprima aumenta lentamente per poi aumentare sempre di più. 
La maggioranza delle turbomacchine (con acqua, aria, vapore, o gas come fluido) opera normalmente 
nella  regione  totalmente  turbolenta.  Il  numero  critico  di  Reynolds,  al  quale  il  flusso  diviene 
totalmente turbolento, varia con la dimensione della macchina (dipende dalla scabrezza relativa) e la 
sua  esatta  posizione  per  una  data  macchina  è  difficile  da  prevedere.  Bisogna  comunque  sempre 
tenere  in  mente  che  è  importante,  quando  si  confrontano  macchine  diverse,  usare  dimensioni  che 
siano in un certo senso equivalenti e rilevanti nei confronti delle perdite viscose. 

Effetti "scala" 
Quando si considerano le prestazioni di una famiglia di macchine simili diventa evidente che oltre al 
numero di Reynolds si deve considerare anche una ulteriore variabile: la scabrezza relativa. 

Il  flusso  turbolento  è  "sensibile"  (nel  senso  che  piccole  variazioni  producono  grandi  effetti)  alla 
superficie della struttura e la similitudine geometrica non può essere praticamente estesa a elementi 
di scabrezza. 

Piuttosto, la dimensione assoluta degli elementi di scabrezza rimane più o meno costante nei processi 
di lavorazione, per cui la scabrezza relativa k/D (k è la dimensione caratteristica della scabrezza) varia 
inversamente alla dimensione della macchina.  

Perciò,  anche  se  il  flusso  è,  come  di  regola,  totalmente  turbolento  nella  macchina,  i  coefficienti  di 
attrito dipendono dalla dimensione.  

L'approccio convenzionale nella pratica ha portato all'uso di formule del tipo: 
α
1 − η1 ⎛ D 2 ⎞
=⎜ ⎟  
1 − η 2 ⎜⎝ D1 ⎟⎠

dove  η1  e  D1  sono  rendimento  e  dimensione  di  una  macchina,  η2  e  D2  dell'altra.  L'esponente  α  è 
solitamente compreso tra 0.15 e 0.25, anche se si è riscontrato sperimentalmente per esso un campo 
di variazione un po' più vasto (ad esempio da 0.05 a 0.5). 

2.4 Cavitazione 

Un'altra variabile del flusso che frequentemente assume notevole importanza per turbomacchine che 
trattano  liquidi  è  la  pressione  assoluta  del  fluido,  o  piuttosto  la  differenza  tra  pressione  assoluta  e 
tensione di vapore del liquido alla temperatura di lavoro. Specificamente, quando questa differenza di 
pressione  è  convertita  in  altezza  cinetica,  qualsiasi  ulteriore  aumento  di  velocità  richiederebbe,  per 
l'equazione  di  Bernoulli,  l'esistenza  di  sforzi  di  trazione  (pressione  negativa)  nel  liquido.  Si  formano 
invece  in  pratica  cavità  riempite  di  vapore  ed  inizia  una  forma  di  ebollizione;  poiché  i  liquidi 
contengono  normalmente  aria  disciolta,  l'abbassamento  della  pressione  ad  un  valore  vicino  alla 
tensione di vapore libera prima quest'aria. Il fenomeno consiste sia nella liberazione dell'aria disciolta 
che nell'evaporazione del liquido e prende il nome di cavitazione. 

L'inizio  della  cavitazione  appare  dunque  associato  all'esistenza  di  microscopici  nuclei  di  gas  che 
possono appunto dar luogo, in condizioni opportune, a cavitazione. Una teoria suggerisce che questi 
nuclei  siano  presenti  nei  pori  del  materiale  solido  al  confine  con  il  fluido;  a  causa  della  presenza  di 
questi  nuclei  il  fluido  non  può  resistere  a  trazione:  si  ritiene  infatti  che,  in  loro  assenza,  trazioni 
equivalenti a 10.000 bar potrebbero essere trasmesse dall'acqua. I nuclei danno luogo alla formazione 
di  bolle  durante  l'inizio  della  cavitazione,  bolle  che  crescono  e  collassano  producendo  onde  di 
pressione  di  elevata  intensità,  continuamente  seguite  da  formazione  di  bolle  successive.  Ogni  ciclo 
dura  solo  pochi  millisecondi,  ma  si  raggiungono  pressioni  locali  enormi  (dell'ordine  anche  di  4000 
bar);  anche  le  temperature  locali  possono  aumentare,  raggiungendo  perfino  800  °C.  In  presenza  di 
cavitazione si nota inoltre rumore di spaccature ed anche debole emissione di luce. 

In  un  sistema  fluente  variazioni  di  velocità  nel  fluido  producono  variazioni  di  pressione:  quando  la 
velocità  aumenta  la  pressione  diminuisce  fino  a  raggiungere  eventualmente  valori  così  bassi  da 
produrre formazione  di  bolle.  Queste  possono poi  essere  trascinate  dalla  corrente  fino  a  trovarsi  in 
regioni a pressione più elevata, dove collassano. 

Perciò  la  cavitazione  può  insorgere  non  solo  all'ingresso  di  una  pompa  o  nel  tubo  diffusore  di  una 
turbina, ma anche in hydrofoils, eliche, tubi di Venturi, sifoni, etc. In generale, gli effetti macroscopici 
della cavitazione sono rumore, erosione di superfici metalliche e vibrazione del sistema. 

Gli effetti invece della cavitazione sulle prestazioni idrauliche sono molti e differenti, dipendendo essi 
dal  tipo  di  macchinario  o  struttura  in  considerazione  e  dallo  scopo  perseguito  dal  progetto;  essi 
possono comunque essere schematizzati ad esempio come segue: 

• La presenza di una zona di cavitazione può cambiare le perdite per attrito in un sistema fluente, 
sia alterando il coefficiente di attrito superficiale sia variando la resistenza di forma. In generale, 
l'effetto è di aumentare la resistenza, sebbene questo non sia sempre vero. 
• La  presenza  di  una  zona  di  cavitazione  può  produrre  variazioni  nella  direzione  locale  del  flusso 
dovute  a  variazioni  nella  forza  laterale  che  un  dato  elemento  della  superficie  di  contorno  può 
esercitare sul flusso appena esso è interessato dalla cavitazione. 
• Con cavitazione ben sviluppata la diminuzione nella effettiva sezione trasversale dei passaggi del 
flusso  liquido  può  diventare  così  grande  da  causare  parziale  o  completa  interruzione  del  flusso 
normale. 
Lo  sviluppo  della  cavitazione  può  seriamente  interessare  la  conduzione  di  tutti  i  tipi  di  strutture  e 
macchine idrauliche. 

Per esempio, può cambiare la portata attraverso portali o vie d'uscita, può condurre ad indesiderati o 
distruttivi  flussi  pulsanti,  o  anche  può  portare  a  distorcere  l'azione  di  valvole  di  controllo  o  altre 
apparecchiature  similari.  Tuttavia,  il  maggior  inconveniente  da  effetti  di  cavitazione  è  stato 
riscontrato in macchinari rotanti, che sono stati di conseguenza i più studiati da questo punto di vista. 
Già  agli  inizi,  nello  studio  degli  effetti  della  cavitazione  sulle  prestazioni  di  macchine  idrauliche,  si  è 
vista  la  necessità  di  definire  in  maniera  soddisfacente  le  condizioni  operative  in  riferimento  alla 
cavitazione. Per esempio, per la stessa macchina operante sotto diversi salti ed a differenti velocità, si 
è cercato di specificare le condizioni sotto cui il grado di cavitazione doveva essere simile. Le stesse 
necessità  si  sono  poi  riscontrate  per  specificare  condizioni  di  similitudine  in  cavitazione  tra  due 
macchine dello stesso progetto ma di diversa dimensione.  

Un parametro quasi universalmente adottato per definire la tendenza alla cavitazione (in pompa) è
rappresentato dall’altezza netta positiva di aspirazione NPSH che misura, in metri, l’altezza richiesta
all’ingresso della pompa per impedire l’insorgere della cavitazione nel liquido:
p − pv
NPSH = serb − za − ya
ρg
dove:
pserb = pressione assoluta sul pelo libero del serbatoio da cui aspira la pompa
pv = tensione di vapore dell’acqua alla temperatura di esercizio
za = altezza geodetica di aspirazione
ya = perdita di carico complessiva in aspirazione.
L’NPSH così definito è quello disponibile, cioè quello dell’impianto.

Fig. 7. Schema di impianto di aspirazione.

Con riferimento alla Fig. 7, applicando l’equazione di Bernoulli tra serbatoio e ingresso pompa
(sezione 1), si ha:
p serb p1 V1 2
= + + za + ya da cui:
γ γ 2g
p serb ⎛V 2 p ⎞
za = − ⎜ 1 + 1 + ya ⎟
γ ⎜ 2g γ ⎟
⎝ ⎠
Per evitare l’insorgere della cavitazione occorre che sia:
p1 ≥ pv + p g + ∆p
dove pv è la tensione di vapore dell’acqua a quella temperatura e pg la tensione dei gas disciolti; ∆p è un
margine di sicurezza (una ulteriore caduta di pressione all’interno della bocca di aspirazione).
Sostituendo si ottiene:
p ⎛ V 2 pv + p g ⎞
z a ≤ serb − ⎜ 1 + + y a + ∆z ⎟
γ ⎜ 2g γ ⎟
⎝ ⎠
Questa equazione può essere riscritta portando a sinistra l’NPSH della pompa (necessario) e a destra
l’NPSH dell’impianto (disponibile):
V1 2 p ⎛ pv + p g ⎞
+ ∆z ≤ serb − ⎜⎜ z a + + y a ⎟⎟
2g γ ⎝ γ ⎠
Solitamente l’NPSH richiesto da una pompa di tipo centrifugo è compreso tra 1 e 4 m (comprensivo di
∆z che vale circa 0.5 m).
Molto spesso la pressione del serbatoio è la pressione atmosferica, cioè:
p serb p atm
= = 10.33 m
γ γ
Per le turbine che scaricano invece in un diffusore di altezza Hs sul pelo libero, viene solitamente
utilizzato un coefficiente σ riferito alla condizione di cavitazione incipiente:
H
σ sv = sv
Hm
dove Hm è il salto motore, mentre Hsv è l’NPSH in un determinato punto (solitamente la sezione di
uscita della turbina), cioè altezza piezometrica totale assoluta diminuita dell’altezza corrispondente alla
tensione di vapore.
Si ha così:
2
p s Vs p
H sv = + − v
γ 2g γ

Fig. 8. Schema di un diffusore di scarico di una turbina.

Con riferimento alla Fig. 8, scrivendo Bernoulli tra la sezione di scarico s e la sezione di uscita u del
diffusore, si ha:
2 2
p s Vs p atm Vu
+ + Hs = + + y diff
γ 2g γ 2g
da cui:
p p V 2
H sv = atm − H s − v + u + y diff
γ γ 2g
Quando vengono trascurate le altezze cinetiche e le perdite di carico nel diffusore (peraltro abbastanza
piccole), il coefficiente di cavitazione σsv diviene il coefficiente σT del Thoma e vale perciò la
relazione:
2
Vu
+ y diff
2g
σ T = σ sv −
Hm
Solitamente sono forniti diagrammi di prestazione della macchina (H, Q, P, η) in funzione del
coefficiente di cavitazione, come appare nelle Figg. 9 e 10.

Fig. 9. Curve di sigma per una pompa centrifuga a velocità e portata costanti
(normali prevalenza e portata sono i valori al massimo di rendimento e a sigma alto)
Fig. 10. Curve di sigma per turbina idraulica sotto costante salto motore, velocità e apertura di porta
(normali coppia, salto motore e portata sono i valori al massimo di rendimento e a sigma alto)
2.5 Le pompe

Classificazione
Le pompe possono essere classificate in due maggiori categorie: pompe dinamiche, in cui l’energia è
fornita in modo continuo al fluido attraverso variazioni di velocità, e pompe volumetriche, in cui
l’energia è invece aggiunta periodicamente mediante l’applicazione di forze ad uno o più confini mobili
contenenti un certo volume di fluido.
Le pompe dinamiche (o turbopompe) possono poi essere ulteriormente suddivise ad esempio in pompe
centrifughe, assiali o a flusso misto, a seconda della direzione meridiana che il flusso assume
all’interno della pompa stessa.
Le pompe volumetriche sono essenzialmente di tipo alternativo oppure rotativo, in funzione del
movimento assunto dagli elementi che producono l’aumento di pressione.
La geometria di una pompa ottimizzata può essere rappresentata in funzione della velocità specifica
(valutata nel punto di ottimo):
1
NQ 2
Ω= 3
En 4
opt
come appare in Fig. 11.

Fig. 11 Geometria di una pompa in funzione della velocità specifica.

Il coefficiente di carico
E
Ψ = 2n 2
N D
risulta decrescente al crescere della velocità specifica Ω e del coefficiente di portata
Q
Φ=
ND 3
Appare evidente dalla Fig. 11 come si passi, all’aumentare della velocità specifica, dalle pompe
alternative a pistoni via via alle pompe centrifughe e alle pompe assiali, passando a portate
volumetriche sempre più grandi.
Prevalenza
In Fig. 12 è rappresentata una installazione tipica di una pompa, utilizzata in un impianto generico di
trasferimento di fluido da un livello più basso ad uno più alto. I due ambienti in aspirazione ed in
mandata possono trovarsi alla stessa pressione oppure a due valori diversi di pressione. L’energia
trasferita dalla pompa al fluido En (in J/kg) oppure H (in m di colonna di fluido) è la prevalenza
richiesta alla pompa per trasferire il fluido dall’ambiente alle condizioni di aspirazione a quello alle
condizioni di mandata.

Fig. 12 Schema di impianto di sollevamento

Indicando con ζ le perdite di carico (in aspirazione o in mandata) espresse in m di colonna di fluido, si
possono scrivere le seguenti espressioni:
p V 2 p V2
gz a + a + a = gz1 + 1 + 1 + gζ a
ρ 2 ρ 2
p1 V1 2 p V 2
gz1 + + + E n = gz 2 + 2 + 2
ρ 2 ρ 2
p2 V2 2 p V 2
gz 2 + + = gz m + m + m + gζ m
ρ 2 ρ 2
ζ =ζa +ζm
Raccogliendo si ottiene alla fine la seguente espressione per la prevalenza:
p − p a Vm 2 − Va 2
E n = g (z m − z a ) + m + + gζ
ρ 2
Quando le due altezze cinetiche in aspirazione e in mandata risultano trascurabili (oppure molto simili)
e quando le pressioni degli ambienti in aspirazione e in mandata risultano identiche, allora la
prevalenza risulta essere pari alla somma del dislivello geodetico e delle perdite di carico:
E n = g ( z m − z a ) + gζ oppure
H = zm − za + ζ
Al solito, se Q è la portata volumetrica, la potenza da fornire al gruppo motopompa vale:
ρQE n
P=
ηg
Pompe centrifughe
Una tipica pompa centrifuga è rappresentata sezionata longitudinalmente in Fig. 13.
In essa d1 e d2 sono rispettivamente i diametri in ingresso (medio) e in uscita della girante, mentre p1 e
p2 sono i corrispondenti valori delle pressioni. La velocità in ingresso V1 risulta diretta come l’asse di
rotazione (e quindi perpendicolare alla girante) mentre la velocità in uscita V2 è giacente in un piano
perpendicolare all’asse di rotazione e presenta due componenti V2t e V2r dirette rispettivamente in modo
tangenziale e radiale, come rappresentato nei triangoli di velocità schematizzati in Fig. 14 (il piano di
rappresentazione può essere diverso in ingresso ed in uscita).

Fig. 13 Sezione longitudinale di una pompa centrifuga

Fig. 14 Triangoli delle velocità per una pompa centrifuga

Nel caso ideale la girante non presenta perdite, per cui la relazione di Eulero fornisce la seguente
espressione:
E n = u 2V2t − u1V1t
Siccome V1 non ha componente tangenziale si può anche scrivere:
E n = u 2V2 t = u 2 (u 2 − w2 cos β 2 )
Se S è la sezione di uscita della girante, data da:
S = ξπb2 d 2
dove ξ è un opportuno coefficiente di ingombro frontale della palettatura, si ha poi:
Q
wr =
S
per cui, sostituendo, si ottiene alla fine:
Q
E n = u 2 − u 2 cot gβ 2
2

S
La curva caratteristica di una pompa ideale è rappresentata in Fig. 15. Come si può notare, la
prevalenza aumenta linearmente per palettatura in avanti (β2 > 90°), si mantiene costante per palettatura
radiale (β2 = 90°) e diminuisce infine linearmente per palettatura all’indietro (β2 < 90°).
Passando dal caso ideale al caso reale si devono introdurre le perdite Y inerenti alla girante, sulla quale
arriva, come visto il lavoro per unità di massa En + Y.

Fig. 15 Curva caratteristica di una pompa centrifuga ideale

Nelle perdite Y si devono comprendere perdite localizzate Y’ (che si hanno all’ingresso della palettatura
e presentano un minimo alle condizioni nominali), perdite continue Y’’ (che si incontrano lungo lo
sviluppo della pala) ed anche, in misura minore, perdite Y’’’ dovute allo slip factor (che derivano da
effetti di inerzia e si traducono in una non uniforme distribuzione delle velocità nei singoli canali della
girante).
L’andamento delle perdite Y’ e Y’’ in funzione della portata Q è mostrato in Fig. 16.

Fig. 16 Perdite in una girante di pompa centrifuga


Nel caso reale (con velocità quindi assunte reali), l’equazione di Eulero diviene:
E n + Y = u 2V2 t
per cui la prevalenza reale della pompa En (che coincide con l’energia trasferita all’unità di massa del
fluido) si ottiene sottraendo tutte le perdite di Fig. 16 alle curve caratteristiche di Fig. 15, ottenendosi
così le curve caratteristiche reali di una piompa centrifuga come rappresentate in Fig. 17.
Fig. 17 Curve caratteristiche reali di una pompa centrifuga

Punto di funzionamento e stabilità


La curva caratteristica di una pompa si chiama anche curva caratteristica interna; la curva caratteristica
dell’impianto si chiama anche curva caratteristica esterna e presenta andamento di tipo parabolico
crescente con la portata Q. Se il circuito è chiuso la parabola esce dall’origine; se il circuito è aperto,
per portata nulla la prevalenza richiesta è il dislivello geodetico (eventualmente aumentato della quota
corrispondente alla differenza di pressione tra mandata e aspirazione); all’aumentare delle perdite la
pendenza della parabola aumenta (ad esempio regolando in chiusura eventuali valvole).
Il punto di funzionamento è dato dall’intersezione tra le due curve caratteristiche (l’energia fornita dalla
pompa eguaglia l’energia richiesta dall’impianto).
Questo punto di funzionamento è stabile quando la pendenza della curva caratteristica esterna è
maggiore della pendenza della curva caratteristica interna. Infatti, se una perturbazione comporta un
certo aumento di portata, allora la prevalenza della pompa non riesce a soddisfare le richieste
dell’impianto, per cui il punto di funzionamento si riporta automaticamente a valori inferiori di portata;
viceversa, se la perturbazione comporta una certa diminuzione di portata, allora la prevalenza della
pompa risulta in eccesso rispetto alle richieste dell’impianto ed il punto di funzionamento si riporta
automaticamente a valori superiori di portata.
Il discorso è esattamente l’opposto quando la pendenza della curva caratteristica esterna è invece
minore della pendenza della curva caratteristica interna: in questo caso allora il punto di funzionamento
tende ad allontanarsi e ne nasce di conseguenza una situazione di instabilità (detta instabilità di tipo
statico, per distinguerla da quella di tipo dinamico che si può incontrare invece nel funzionamento dei
compressori), come mostrato in Fig. 18.

Fig. 18 Instabilità nelle pompe


Collegamenti in serie ed in parallelo
Due o più pompe possono essere collegate in serie (per aumentare la prevalenza), oppure in parallelo
(per aumentare la portata). Le due situazioni sono mostrate rispettivamente in Fig. 19 ed in Fig. 20; nel
primo caso la curva caratteristica risultante è ottenuta sommando le prevalenze a pari portata; nel
secondo caso, la curva caratteristica risultante si ottiene sommando le portate a pari prevalenza.

Fig. 19 Curva caratteristica di pompe in serie Fig. 20 Curva caratteristica di pompe in parallelo

Regolazione della portata


La regolazione della portata può ottenersi sostanzialmente o agendo sulla caratteristica esterna (ad
esempio mediante strozzamento della valla valvola di regolazione) o modificando la caratteristica
interna (ad esempio variando il numero di giri).
Nel primo caso (mostrato in Fig. 21), si varia la pendenza della curva caratteristica dell’impianto,
variando di conseguenza il punto di funzionamento (la pratica non è però molto conveniente perché si
aumentano le dissipazioni).
Nel secondo caso (rappresentato in Fig. 22), si varia il regime di rotazione della pompa, mantenendo
praticamente inalterato il rendimento.

La pompa viene infatti a funzionare in regime di similitudine, mantenendo costanti le grandezze


adimensionali (e quindi anche il rendimento), ad esempio:
Q
Φ= = cos t
ND 3
E
Ψ = 2 n 2 = cos t
N D
Essendo la pompa sempre la stessa, non cambia il diametro D, per cui due diverse condizioni di
funzionamento sono caratterizzate dalle relazioni:
QI N
= I e
QII N II
2
E n ,I H ⎛N ⎞
= I = ⎜⎜ I ⎟⎟
E n ,II H II ⎝ N II ⎠
I corrispondenti punti di funzionamento vengono così a trovarsi su delle parabole (almeno fintantoché
si mantiene valida la similitudine)

Fig. 21 Regolazione per strozzamento Fig. 22 Regolazione per variazione del numero di giri

Prestazioni e velocità specifica


Al variare della velocità specifica cambia sia la geometria della pompa che la forma della curva
caratteristica interna.
Le figure che seguono (da Fig. 23 a Fig. 26) mettono in rilievo queste differenze, passando da pompe
fortemente centrifughe a pompe praticamente assiali.
In taluni casi, variazioni non molto forti possono ottenersi semplicemente montando in uno stesso
corpo giranti con diametro esterno diverso. Se per esempio la pompa è di tipo radiale, allora la
prevalenza varia con il quadrato della velocità periferica in uscita, cioè con d22; se poi il diametro non
varia molto rispetto al valore di progetto, si può assumere che la sezione S in uscita si mantenga
abbastanza costante (ad esempio se diminuisce d2 aumenta b2, per come è fatto il profilo di una girante
centrifuga), per cui la portata varia in prima approssimazione con d2 (che è proporzionale alla velocità
periferica e quindi alle velocità in uscita in generale).

In prima approssimazione si può dunque scrivere:


QI D
= I
QII DII
2
E n ,I H ⎛D ⎞
= I = ⎜⎜ I ⎟⎟ e quindi
E n ,II H II ⎝ DII ⎠
3
PI ⎛ DI ⎞
=⎜ ⎟
PII ⎜⎝ DII ⎟⎠
La Fig. 27 mostra, per diversi valori del diametro esterno di una girante reale di pompa centrifuga allo
stesso regime di rotazione, le prestazioni in funzione della portata. Sono pure indicate le curve di
NPSH, così come è stato definito in precedenza.
Fig. 23 Rendimento di una pompa in funzione di Fig. 24 Prevalenza in funzione della portata
velocità specifica, forma e dimensioni per diverse velocità specifiche

Fig. 25 Potenza in funzione della portata Fig. 26 Rendimento in funzione della portata
Fig. 28 Prestazioni di una pompa con stesso corpo e giranti di diverso diametro
Pompe assiali
Sono la naturale evoluzione delle pompe a flusso misto (non più propriamente centrifugo) quando la
portata assume valori sempre più grandi. Il lavoro euleriano deve ora tener conto del fatto che la
velocità periferica si mantiene praticamente costante, per cui:
E n = u 2V2t − u1V1t = u (V2t − V1t )
in cui la componente V1t si annulla in presenza di ingresso perfettamente assiale.
La pompa assiale, a parità di sezione e velocità di ingresso (e quindi di portata), presenta una
prevalenza fortemente ridotta rispetto alla corrispondente pompa centrifuga, in quanto non può
beneficiare della quota di lavoro derivante, per quest’ultima, dal forte aumento di diametro in uscita.
Le pompe assiali perciò sono molto adatte per forti portate e piccole prevalenze.
La Fig. 29 mostra tipici triangoli di velocità per una pompa assiale con velocità in ingresso a direzione
praticamente assiale.

Fig. 29 Triangoli di velocità per una pompa assiale

Pompe volumetriche
Le pompe volumetriche possono essere di tipo rotativo (a ingranaggi, a capsulismi, a segmenti-alette,
etc) oppure alternativo (a stantuffo) e sono quindi caratterizzate da un certo volume fisso che viene
pompato un determinato numero di volte nell’unità di tempo: la quantità forzatamente limitata relativa
ad ogni ciclo porta queste pompe ad essere adatte per piccole portate ed elevate prevalenze (in teoria la
prevalenza è indipendente dalla portata ed è funzione solo della potenza messa a disposizione).
Le piccole dimensioni (e quindi portate) sono più a favore delle pompe di tipo rotativo, mentre per le
maggiori dimensioni si preferiscono le alternative.
Le pompe di tipo rotativo danno portate praticamente costanti e non richiedono presenza di valvole,
mentre quelle alternative danno sempre luogo a portate più o meno pulsanti e richiedono valvole in
aspirazione e in mandata.
La Fig. 30 mostra diversi tipi di pompe volumetriche presenti sul mercato.

a), b)
c), d)

e)

f)

g), h)
i), l)

Fig. 30 Diversi tipi di pompe volumetriche:


a) a capsulismi
b) a capsulismi
c) a capsulismi con setti elastici
d) a capsulismi
e) a capsulismi
f) a vite
g) a ingranaggi
h) a membrana
i) a tubo deformbile (a rullo)
j) rotodinamica Root

Una pompa alternativa a stantuffo a semplice effetto dà portata sinusoidale solo per metà ciclo; se a
doppio effetto la variazione è sempre sinusoidale, però per entrambe le metà ciclo. La situazione
migliora ancora in presenza di più corpi pompa (oppure per pompe a piattello rotante con più
pistoncini), oppure inserendo sia a monte che a valle opportune casse d’aria, come ad esempio mostrato
in Fig. 31.

Fig. 31 Schema di pompa alternativa a semplice effetto

Con riferimento alla stessa Fig. 31, assumendo per semplicità un manovellismo con lunghezza di biella
l molto grande rispetto alla corsa dello stantuffo s, la velocità massima del piede di biella risulta pari a
ωr, con ω velocità angolare ed r braccio di manovella (pari a metà della corsa s) e quindi la sua
velocità istantanea vale:
s
Vi = ω sen ωt
2
Se T è il periodo, definito mediante la relazione:

ω=
T
allora la portata istantanea vale:
πD 2 s
q= ω sen ωt
4 2
dove D è il diametro dello stantuffo.
La portata media, nel tempo T, viene integrata nel solo tempo T/2 (tempo attivo di spinta, essendo il
pistone a semplice effetto), per cui:
T T T
1 2 1 πD 2 s 2 ω2 2 1 2 1
Q = Qm = ∫ qdt = ω ∫ sen ωtdt = D s − cos ωt = ωsD 2
T 0 2π 4 2 0 16 ω 0 8
Il valore della portata, nella semicorsa di spinta, varia sinusoidalmente da 0 ad un massimo dato da:
1
Qmax = πωsD 2
8
per poi ritornare a 0 durante tutta la corsa di ritorno.
Ad esempio per una pompa a tre corpi a semplice effetto l’andamento della portata nel tempo è
mostrato in Fig. 32.

Fig. 32 Andamento della portata in funzione del tempo per una pompa alternativa
a tre corpi a semplice effetto

L’andamento della prevalenza in funzione della portata per una pompa volumetrica (in particolare
rotativa) è rappresentato in Fig. 33 (e confrontato con quello di una pompa centrifuga).

Fig. 33 Andamento della prevalenza in funzione della portata (m = ft·0.3048; m3/h = gpm/4.403)
(confronto pompa rotativa con pompa centrifuga)
La pendenza (negativa) della linea per la pompa rotativa è funzione della viscosità del fluido pompato,
diminuendo al suo aumentare.
Questo comportamento è messo in maggior evidenza in Fig. 34, dove si vede come le perdite in
rendimento volumetrico diminuiscano all’aumentare della viscosità del fluido (un fluido molto viscoso
ha difficoltà a trafilare tra i giochi delle parti in movimento relativo; un fluido poco viscoso trafila tra i
giochi tanto più quanto più è forte la differenza di pressione).
La potenza richiesta poi aumenta non solo all’aumentare della differenza di pressione (è proporzionale
al prodotto della portata per la pressione), ma anche all’aumentare della viscosità (in quanto aumentano
le resistenze di attrito).

Fig. 34 Curve di portata e potenza in funzione dell’incremento di pressione


per una pompa rotativa
(bar = psi/14.5; kW = hp/0.746;
50, 500, 5000 SSU = 7, 106, 1080 centistokes rispettivamente)

2.6 Le turbine idrauliche

Classificazione
Le turbine idrauliche vengono solitamente distinte in turbine ad azione (ruote Pelton) e a reazione
(ruote Francis e Kaplan). Ruote ad azione sono quelle che girano in ambiente a pressione costante
(solitamente pressione atmosferica); ruote a reazione sono quelle per le quali la pressione diminuisce
passando dall’ingresso all’uscita della girante.
Per una turbina idraulica si definisce grado di reazione χ il rapporto tra la parte di salto motore
elaborata nella girante ed il salto motore totale. Nel distributore, organo fisso che precede la girante,
avviene una parte di trasformazione del salto motore in energia cinetica (il fluido esce dal distributore
con velocità V1), per cui il grado di reazione risulta essere definito come segue:
V2
En − 1 2 2
χ= 2 = 1 − V1 = 1 − V1
En 2 En 2 gH m
Nelle macchine ad azione, l’energia netta messa a disposizione En (salto motore) viene trasformata
completamente in energia cinetica nel distributore (chiamato ugello), mentre sulla girante (nel moto
relativo) non può avvenire alcun aumento di velocità (la pressione si mantiene costante); di
conseguenza per le macchine ad azione il grado di reazione vale zero. Nelle macchine a reazione, una
parte del salto motore viene elaborata anche nella girante, con grado di reazione χ che cresce al
crescere di questa parte rispetto al totale.

Turbine idrauliche ad azione tipo Pelton


Una ruota Pelton è costituita da un distributore (ugello a spina mobile per la regolazione, Fig. 35),
situato al termine della condotta forzata, che orienta opportunamente il getto di liquido (acqua) verso la
girante costituita da un certo numero di pale a forma di doppio cucchiaio (Fig. 36).

Fig. 35 Distributore di ruota Pelton Fig. 36 Girante di ruota pelton

Il getto d’acqua di diametro d investe tangenzialmente la girante di diametro medio D di palettatura; V1


è la velocità dell’acqua all’uscita dal distributore ed u la velocità periferica della girante in
corrispondenza del diametro D.
Nel caso ideale tutto il salto motore si converte in energia cinetica nel distributore, per cui:
V1 2 Vid 2
En = =
2 2
Il triangolo delle velocità in ingresso è un triangolo degenere in quanto Vid, u e w1 si trovano tutti
allineati e tali che, algebricamente, risulta:
Vid = u + w1
Siccome la girante ruota in ambiente a pressione costante, la vena fluida non può essere accelerata nel
moto relativo, per cui risulta:
w2 = w1
La direzione di w2 è tale da consentire al fluido di non urtare il dorso della pala successiva, per cui w2
forma con u un angolo β2 abbastanza piccolo (da 9° a 12° circa), secondo il diagramma di Fig. 37.
Fig. 37 Triangoli di velocità per una ruota Pelton

Il lavoro euleriano (energia trasferita dal fluido alla girante) vale perciò:
Le = u 1V1t − u 2V2 t = u (V1 cos α 1 − V2 cos α 2 ) = u (V1 − V2 cos α 2 )
dove:
V2 cos α 2 = u − w2 cos β 2 = u − w1 cos β 2 = u − (V1 − u ) cos β 2
Sostituendo si ottiene:
2 u ⎛ u ⎞
Le = u[(V1 − u ) + (V1 − u ) cos β 2 ] = u (V1 − u )(1 + cos β 2 ) = V1 ⎜⎜ 1 − ⎟⎟(1 + cos β 2 )
V1 ⎝ V1 ⎠
Indicando ora con kp il coefficiente di velocità periferica, definito dal rapporto:
u u
kp = =
Vid V1
si ottiene in definitiva:
Le = Vid k p (1 − k p )(1 + cos β 2 )
2

Il rendimento idraulico (ideale) è definito come rapporto tra il lavoro euleriano testè ricavato ed il salto
motore già introdotto:
2
V
Lid = E n = gH m = id
2
per cui si ottiene:
η y ,id = e = 2k p (1 − k p )(1 + cos β 2 )
L
Lid
Questa funzione, ad andamento parabolico, si annulla per kp = 0 e per kp = 1 ed ammette un massimo
per kp = 0.5, cui corrisponde un volore massimo del rendimento (ideale) dato dall’espressione:
1
η y ,id ,opt = (1 + cos β 2 )
2
Il fatto che il rendimento idraulico sia inferiore all’unità anche nel caso ideale non deve stupire, in
quanto bisogna ricordare che l’energia cinetica allo scarico è comunque un’energia persa.
Quanto sopra appare subito evidente quando si ricorra all’espressione equivalente del lavoro euleriano,
in cui compaiono le altezze cinetiche relative a velocità assolute, relative e periferiche e si tiene
presente che per una macchina assiale ad azione non si hanno variazioni di velocità relativa e
periferica; si può allora scrivere l’espressione:
2 2
V1 − V2
Le =
2
cui corrisponde una definizione di rendimento idraulico data da:
2 2 2
V −V V
η y ,id = 1 2 2 = 1 − 2 2
V1 V1
Le due relazioni sopra scritte mostrano in modo evidente come, nel caso ideale, l’unica perdita in gioco
sia l’altezza cinetica allo scarico. Applicando poi il teorema di Carnot al triangolo delle velocità in
uscita, si può facilmente dimostrare l’equivalenza di queste due relazioni con le corrispondenti
precedentemente ricavate.
Passando ora dal caso ideale al caso reale (con perdite che vanno a ridurre il rendimento idraulico),
occorre tener conto delle perdite che si incontrano sia nell’ugello (riduzione della velocità da Vid a V1)
che nella girante (riduzione dalla velocità relativa da w1 a w2).
Per quanto riguarda l’ugello, il getto che lascia la spina diminuisce prima di diametro (fino alla sezione
contratta, dove la pressione al suo interno assume distribuzione uniforme con valore pari alla pressione
atmosferica) per poi aumentare in quanto frenata dall’aria (prima di investire il doppio cucchiaio).
Se En = gHm è sempre il salto motore a monte dell’ugello, allora si può scrivere:
2 2
V V
E n = id = c + Yc
2 2
dove Vc è la velocità del getto nella sezione contratta e Yc sono le perdite che si hanno nell’ugello e fino
alla sezione contratta.
Solitamente si assume:
Vc = χVid
dove il coefficiente di riduzione della velocità χ assume mediamente il valore 0.98.
Analogamente, considerando tutto il tratto fino ad incontrare il coltello del profilo a doppio cucchiaio,si
può scrivere:
2
V
E n = 1 + Y1
2
dove V1 è ora la velocità del getto che arriva sulla pala e Y1 le perdite totali (nell’ugello e per la
resistenza dovuta all’aria).
Anche qui solitamente si assume:
V1 = ϕVid
dove il coefficiente di riduzione della velocità ϕ assume mediamente il valore 0.97.
Si verifica poi mediamente che:
V1 ≅ 0.99Vc
Infine, per quanto riguarda la velocità relativa in uscita dalla pala, si scrive:
w2 = ψw1
dove il coefficiente di riduzione della velocità ψ è mediamente compreso tra i valori 0.97 e 0.98.
L’espressione del lavoro euleriano nel caso reale diviene così:
Le = u (V1 − V2 cos α 2 )
Inoltre:
V2 cos α 2 = u − w2 cos β 2 = u − ψ (V1 − u ) cos β 2
per cui, sostituendo:
Le = u[ϕVid − u + ψ (ϕVid − u ) cos β 2 ] = u (ϕVid − u )(1 + ψ cos β 2 )
Ricordando poi la definizione di kp, si ottiene in definitiva:
Le = Vid (ϕ − k p )(1 + ψ cos β 2 )
2

L’espressione del rendimento idraulico nel caso reale vale quindi:


η y = e = 2k p (ϕ − k p )(1 + ψ cos β 2 )
L
En
Tale funzione parabolica si annulla per kp = 0 e per kp = ϕ e presenta um massimo per:
u ϕ
k p = k p ,opt = =
Vid 2
cui corrisponde un massimo di rendimento dato dall’espressione:
1
η y ,opt = ϕ 2 (1 + ψ cos β 2 )
2
Si verifica immediatamente che si ritrova il caso ideale quando si ponga: ϕ = ψ = 1.
Il grafico di Fig. 38 mostra l’andamento del rendimento in funzione della velocità periferica u
(dividendo l’ascissa per Vid l’andamento del rendimento sarebbe in funzione del coefficiente kp).

Fig. 38 Rendimento idraulico in funzione della velocità periferica

Nel grafico F è la spinta tangenziale sulla girante, che si annulla per u = V1 (e quindi per w1 = 0),
quando cioè la macchina ha raggiunto quella che si chiama la sua velocità di fuga, in corrispondenza
della quale il lavoro utile sviluppato è completamente assorbito dalle resistenze passive (condizione che
si verifica in pratica quando ad esempio crolla il carico).
Onde evitare che si possano raggiungere tali velocità pericolose, è previsto l’intervento di un tegolo
deviatore, che allontana il getto dalle pale lasciando così tempo alla spina di chiudere in modo da
evitare l’insorgere di colpi d’ariete.

Velocità specifica di una ruota Pelton


Con riferimento alla potenza, nell’espressione della velocità specifica:
P
ρ
ΩP = N 5
En 4
si possono esplicitare e sostituire le singole grandezze.
Se con i si indica il numero dei getti che interessano la stessa girante (in numero da 1 ad un max di 6),
si può scrivere così (dove Cj sono opportune costanti):
P = ηρQE n = C1QE n
πd 2 πd 2
Q=i V1 = i ϕ 2 E n = C 2 id 2 E n
4 4
2u 2 En
N= = k p 2 En = C3
D D D
La velocità specifica vale perciò:
En C1C 2 id 2 E n E n d
Ω P = C3 5
=C i
D En 4 D
dove la costante C vale mediamente circa 1.2 ed il rapporto d/D risulta compreso tra 1/18 (grandi salti,
piccole portate) e 1/8 (salti più piccoli, portate più grandi).
Le turbine Pelton comunque non sono adatte per grandi valori di portata, in quanto sono macchine
fortemente parzializzate, cioè macchine per le quali il fluido viene ammesso solo parzialmente sulla
circonferenza della girante (per motivi di interferenza come visto il numero dei getti è al massimo pari
a 6). Esse sono invece molto indicate a funzionare sotto salti di parecchie centinaia di metri (tra i casi
realizzati un salto netto di 1750 m). Le potenze, pur non elevatissime, superano frequentemente i
100.000 kW.
Alti valori di salto motore e bassi valori di portata comportano bassi valori per la velocità specifica, che
relegano la turbina Pelton alla categoria delle turbine lentissime (ΩP risulta infatti compreso tra 0.1 e
0.4 circa).
I rendimenti infine sono di poco inferiori al 90 % per ruote di piccola o media potenza e di poco
superiori al 90 % per ruote di grande potenza.
In Fig. 39 è mostrata a titolo di esempio una turbina Pelton ad asse orizzontale a due getti (quando i
getti sono più di due la macchina è quasi sempre ad asse verticale).

Fig. 39 Turbina Pelton ad asse orizzontale a due getti

Turbine idrauliche a reazione


Le turbine idrauliche a reazione, come visto, elaborano nella girante quella parte di salto motore
rimasta disponibile a valle del distributore. Poichè la pressione diminuisce tra entrata ed uscita della
girante, la ruota non può essere parzializzata e quindi è una ruota a piena ammissione (se così non fosse
il liquido tenderebbe ad occupare disordinatamente le zone in cui non si ha flusso proveniente dal
distributore). Le turbine a reazione sono quindi macchine che possono elaborare anche grandi portate,
passando cioè da quelle a minor portata (ad effetto sempre meno centripeto, dette turbine Francis) a
quelle alla fine totalmente assiali (ad elica o a pale mobili, dette queste ultime turbine Kaplan).
Il grado di reazione aumenta passando dalle macchine più centripete a quelle in definitiva assiali,
presentando le prime forti variazioni di velocità assoluta tra ingresso ed uscita della girante e le seconde
altrettanto forti variazioni di velocità relativa, come messo in evidenza rispettivamente in Fig. 40 e in
Fig. 41.
Fig. 40 Triangoli delle velocità per ruota Francis Fig. 41 Triangoli delle velocità per ruota Kaplan

Si può mostrare come il grado di reazione aumenti passando dalle macchine più centripete (con angolo
α1 piccolo, pari cioè a 15° circa e angolo β1 grande, pari cioè a 120° circa) alle macchine assiali (con
angolo α1 grande, pari ad esempio a 60° circa e angolo β1 piccolo, pari a 30° circa).
Sostituendo nella definizione del grado di reazione:
2
V1
χ = 1−
2 Le
l’espressione del lavoro euleriano:
Le = u 1V1 cos α 1 − u 2V2 cos α 2
in cui in prima approssimazione e per semplificare i calcoli si sia trascurata la componente tangenziale
della velocità assoluta in uscita (del resto solitamente molto piccola in condizioni di ottimo in modo da
minimizzare le perdite allo scarico), si ottiene:
V1
χ = 1−
2u 1 cos α 1
Per il teorema dei seni si ha poi:
V1 senβ 1 senβ 1
= =
u 1 sen(180° − α 1 − β 1 ) sen(α 1 + β 1 )
per cui in definitiva:
senβ 1
χ = 1−
2 cos α 1 sen(α 1 + β 1 )
Sostituendo ad esempio i valori numerici prima indicati si ottiene rispettivamente χ = 0.37 (per la ruota
Francis) e χ = 0.5 (per la ruota Kaplan).
Per inciso, quando l’angolo α1 vale zero ed il coefficiente di velocità periferica kp vale 0.5 (caso della
ruota Pelton), il grado di reazione χ vale zero, a conferma che la Pelton è una macchina ad azione.
Rimane infine da osservare come per le ruote ad azione la velocità periferica sia univocamente
determinata una volta fissata la velocità V1 (cioè in definitiva il salto motore), mentre per le ruote ad
azione la velocità V1 risulta dipendere anche dal grado di reazione (decrescendo al crescere di χ, a pari
salto motore): quindi u1 e V1 non sono vincolate rigorosamente, ma si possono scegliere assegnando
opportuni valori di χ.

Turbina a reazione Francis


Come per la ruota Pelton, anche la ruota Francis è costituita da un distributore e da una girante, però
ora il distributore (essendo la macchina a piena ammissione) è costituito da più pale direttrici che
orientano opportunamente il flusso verso i canali della girante, come mostrato in Fig. 42.
Fig. 42 Sezione assiale e trasversale di una ruota Francis

Per poter più facilmente valutare il rendimento della macchina risulta più semplice scrivere il lavoro
euleriano come somma dei tre effetti di azione, reazione e centripeto:
2 2 2 2 2 2
V1 − V2 w2 − w1 u1 − u 2
Le = + +
2 2 2
Il rendimento idraulico risulta dato, come visto, dal rapporto tra il lavoro euleriano reale e quello
ideale, computati questi una volta in base alle velocità reali e l’altra appunto in base a quelle ideali.
Nel rendimento idraulico entrano a far parte sia le perdite legate ad una minor velocità V1 all’uscita del
distributore, in quanto:
V1 = ϕV1,id
che quelle dovute ad una minor velocità w2 all’uscita dalla girante che vale:
w2 = ψw2 ,id
Nelle turbine a reazione la velocità assoluta allo scarico (altezza cinetica persa) risulta essere una
percentuale non insignificante del salto motore (questo sia perchè, per contenere le dimensioni, V2 non
può essere esageratamente piccola e poi perchè il salto motore assume valori sempre più piccoli più la
macchine tendono ad essere veloci, in termini di velocità specifica), per cui diviene necessario far
seguire alla macchina un opportuno diffusore, come schematizzato in Fig. 43.

Fig. 43 Schema di tubo diffusore per turbine a reazione

La velocità V2 nella sezione di scarico della girante diviene VS < V2 nella sezione di scarico del
diffusore; applicando Bernoulli tra le due sezioni di scarico si ha:
2 2
p 2 V2 p atm Vs
+ + gH a = + + Ydiff
ρ 2 ρ 2
dove le perdite nel diffusore sono date da:
2 2
V − VS
Ydiff = (1 − η diff ) 2
2
in cui ηdiff è il rendimento del diffusore, pari a circa 0.8. Come già visto, la pressione p2 non può
risultare inferiore alla tensione di vapore del liquido (ed eventualmente anche dei gas disciolti) onde
evitare che insorga il fenomeno della cavitazione.
Per la valutazione del rendimento idraulico bisogna in definitiva sottrarre al lavoro euleriano ideale le
seguenti altezze:
2
V
( )
Yd = 1 − ϕ 2 1,id
2
perdita nel distributore
2
2 w2 ,id
(
Yg = 1 − ψ ) 2
perdita nella girante
2 2
V − VS
Ydiff = (1 − η diff ) 2 perdita nel diffusore
2
2
V
Ys = S perdita allo scarico.
2

Velocità specifica di una ruota Francis


Partendo dalle relazioni:
senβ 1
V1 = u 1
sen(α 1 + β 1 )
η y E n = u1V1 cos α 1
si può mostrare come alla fine si possa arrivare alla seguente definizione di coefficiente di velocità
periferica, funzione del rendimento idraulico e dei due angoli che definiscono il triangolo di velocità in
ingresso:
u1 ηy ⎛ tgα 1 ⎞
kp = = ⎜⎜ 1 + ⎟
2 En 2 ⎝ tgβ 1 ⎟⎠
Questa relazione, assieme alle definizioni:
2u
N= 1
D1
P = ηρQE n
Q = ξπD1 B1V1 senα 1
dove ξ è il coefficiente di ingombro frontale delle pale della girante e B1 l’altezza della pala in ingresso
girante, porta alla fine alla seguente espressione per la velocità specifica:
B
Ω P ≅ 3.9 k p 1 tgα 1
D1
Si può così vedere come per alte cadute (macchina fortemente centripeta), ponendo ad esempio: α1 =
15°, β1 = 120° e B1/D1 = 0.05 risulta:
Ω P = 0.36
mentre per basse cadute (macchina con tendenza al flusso assiale), ponendo a titolo d’esempio: α1 =
40°, β1 = 60° e B1/D1 =0.4 risulta:
Ω P = 2.06
dove si vede come la ruota Francis si allacci alle ruote Pelton più veloci.
Come la turbina a reazione evolva dalle Francis più lente alle più veloci è chiaramente mostrato in Fig.
44. La fig. 45 mostra infine come esempio la sezione principale di una turbina Francis.

Fig. 44 Evoluzione delle ruote Francis in funzione della velocità specifica (nc = 185ΩP)

Fig. 45 Sezione principale di una turbina Francis ad asse verticale


Turbina a reazione Kaplan
La turbina Kaplan è la naturale evoluzione della turbina Francis veloce (come si può evincere dalla Fig.
44), quando le portate diventano così grandi da portare la macchina ad essere totalmente assiale. Per la
verità, la naturale evoluzione porterebbe più propriamente alla turbina ad elica, soluzione molto più
semplice in quanto le pale rotoriche presentano angolo di calettamento non modificabile.
Il grande vantaggio delle ruote Kaplan consiste infatti appunto nel poter adeguare la posizione delle
pale rotoriche al variare delle condizioni di carico (in coniugazione con un opportuno orientamento
delle pale direttrici statoriche), in modo da ottenere una curva di rendimento abbastanza piatta in
funzione delle diverse esigenze dell’utenza, come mostrato in Fig. 46.

Fig. 46 Andamento del rendimento per ruote Francis, ad elica e Kaplan in funzione del carico
Uno schema di turbina Kaplan in cui si vede come le pale statoriche e rotoriche possano essere
opportunamente regolate è mostrato in Fig. 47.

Fig. 47 Schema di turbina Kaplan

L’effetto della regolazione delle pale rotoriche è messo particolarmente in evidenza nella Fig. 48, dove
si vede appunto come variano i triangoli delle velocità per una assegnata rotazione della pala attorno al
proprio asse di calettamento (ed in funzione anche di un diverso valore della velocità assoluta in
ingresso).

Fig. 48 Triangoli di velocità per due diversi angoli di calettamento


In una ruota Kaplan i triangoli delle velocità sono notevolmente diversi passando dal mozzo alla
periferia, cioè dalla radice all’apice di ogni pala, in quanto le corrispondenti velocità periferiche (pur
costanti nella stessa sezione) variano in proporzione al diametro considerato. La Fig. 49 mette in
evidenza la forte differenza esistente tra i due triangoli delle velocità.

Fig. 49 Variazione dei triangoli di velocità tra mozzo e periferia di una pala rotorica

Per vedere come si possano correlare i triangoli di velocità di due diverse sezioni, si consideri dapprima
una sezione generica, per la quale, nel caso reale, si può ora scrivere:
2 2 2 2
V − V2 w − w1
η y En = 1 + 2
2 2
oppure:
Le = uV1t − uV2 t
Si supponga poi per semplicità che la velocità V2t sia nulla (si è comunque nell’intorno delle condizioni
di ottimo in quanto così facendo si rende minima l’energia perduta allo scarico).
Uno dei criteri che si può adottare per il dimensionamento è quello di mantenere costante il lavoro
euleriano al variare del raggio (criterio del vortice libero). Si può così scrivere:
ωrV1t = cos t
ed essendo pure costante la velocità angolare ω, alla fine si ha:
r ⋅ V1t = cos t
Questa relazione consente di costruire facilmente, a partire da un triangolo di velocità noto per un certo
raggio (ad esempio al mozzo), gli altri triangoli di velocità in corrispondenza di assegnati valori del
raggio. Lo schizzo di Fig. 50 mostra come sulla base ad esempio del triangolo delle velocità al mozzo
si possa costruire quello ad esempio alla periferia, una volta noti i due valori della corrispondente
velocità periferica. La nuova V1t è ottenuta dalla prima semplicemente moltiplicandola per l’inverso
delle due velocità periferiche, mentre le nuove velocità relative sono subito note per chiusura dei
triangoli (sulla base dell’ipotesi che per semplicità la velocità V2 si mantenga pure costante).

Fig. 50 Triangoli di velocità al mozzo (a) e alla periferia (b) secondo il criterio del vortice libero
Per quanto riguarda la velocita specifica per le ruote Kaplan, valendo la stessa espressione ricavata per
le ruote Francis, si può comunque notare come le Kaplan siano turbine ancora più veloci, cioè con
velocità specifiche ΩP ancora più elevate, che possono raggiungere anche valori superiori a 5. Ad
esempio, assumendo valori un pò al limite come: α1 = 60°, β1 = 15° e B/Dmax = 0.6, si ottiene: ΩP =
5.4.
Valori così elevati di ΩP significano anche valori molto alti del grado di reazione (superiori a 0.7) e
quindi grande peso delle altezze cinetiche relative. Come conseguenza (e come del resto appare anche
esaminando i triangoli delle velocità di Fig. 50), la velocità assoluta di scarico V2 risulta molto
prossima alla V1 e quindi abbastanza pesante percentualmente (come altezza cinetica persa) nei
confronti del salto motore.
Si verifica infatti praticamente come l’altezza cinetica valutata nella sezione di scarico delle turbine a
reazione (a valle delle pale rotoriche) sia dell’ordine del 2-3 % per le Francis lente, del 20 % per le
Francis veloci e addirittura del 50 % e più per le Kaplan.
Si comprende così facilmente come il recupero dell’altezza cinetica allo scarico sia di fondamentale
importanza per le turbine a reazione veloci e come quindi il diffusore di scarico meriti particolare
attenzione in questi casi, con realizzazione di opere civili di peso tutt’altro che trascurabile (molto
spesso infatti l’aumento di sezione richiesto è così forte che buona parte del diffusore prosegue
annegata secondo un percorso quasi orizzontale, come mostrato in Fig. 51).

Fig. 51 Diffusore verticale-orizzontale per turbina a reazione veloce


La Fig. 52 mostra infine la sezione verticale di una significativa realizzazione di ruota Kaplan (Hm =
9.3 m, P = 14.5 MW).

Fig. 52 Sezione verticale di turbina Kaplan a 4 pale


3. MACCHINE A FLUIDO COMPRIMIBILE

3.1 Equazioni fondamentali

Il primo principio della termodinamica per sistemi aperti, per un fluido comprimibile, porta a scrivere
(in condizioni stazionarie e con flusso stazionario) tra le sezioni 1 (ingresso) e 2 (uscita) di una
macchina il seguente bilancio energetico:
V2 V 2
Q + h1 + gz1 + 1 = L + h2 + gz 2 + 2
2 2
dove Q è il calore (positivo) che entra nel sistema e L il lavoro (positivo) fatto dal sistema.
Se poi Lw è il lavoro prodotto dalle forze di attrito (equivalente al calore da tali forze generato),
sostituendo la relazione:
2 2
∫ TdS = Q + Lw = h2 − h1 − ∫ vdp
1 1
nel bilancio precedente, si ottiene ancora un bilancio, ma scritto in termini di sola natura meccanica:
V1 2 2 V2 2
gz1 + = L + Lw + ∫ vdp + gz 2 +
2 1 2
Il lavoro fatto dal sistema, in termini energetici generali oppure energetici solo meccanici, può essere
così valutato mediante l’una o l’altra delle due espressioni seguenti:
1
(
L = Q + (h1 − h2 ) + g ( z1 − z 2 ) + V1 2 − V2 2
2
)
oppure

( 1
) 2
L = g ( z1 − z 2 ) + V1 2 − V2 2 − Lw − ∫ vdp
2 1
Molto spesso la variazione di quota è abbastanza ininfluente; inoltre, o le altezze cinetiche sono in sé
trascurabili oppure le sezioni di ingresso e di uscita sono tali per cui:
A2 ρ 1
=
A1 ρ 2
e quindi V2 = V1.
Se queste ipotesi semplificative risultano applicabili, allora per il calcolo del lavoro fatto dal sistema
possono essere usate le seguenti espressioni:
LT = h1 − h2 + Q oppure
2
LT = − Lw − ∫ vdp
1

3.2 Termodinamica di una macchina operatrice o compressore

Nel caso di un compressore, per evitare di avere un lavoro negativo, si preferisce assumere positivo il
lavoro fatto sul sistema, per cui si hanno le due seguenti scritture equivalenti:
LC = h2 − h1 − Q oppure
2
LC = Lw + ∫ vdp
1
La Fig. 1 mostra la rappresentazione schematica di un compressore e la convenzione adottata per
lavoro e calore positivi.

Fig. 1 Rappresentazione schematica di compressore

Tra le trasformazioni più significative vengono di solito considerate: l’isoterma reversibile, l’adiabatica
isentropica e l’adiabatica reale o politropica.

Trasformazione isoterma reversibile


Per ipotesi valgono le due posizioni seguenti:
h2 − h1 = c p (T2 − T1 ) = 0
Lw = 0
per cui le due equazioni fondamentali divengono:
LC = −Q e
2
LC = ∫ vdp
1
Per un gas perfetto vale la relazione:
pv = RT = cos t
per cui il lavoro di compressione può essere facilmente calcolato mediante la seconda equazione
fondamentale:
2 dp p2
LC = RT ∫ = RT ln = ln β
1 p p1
dove con β si è indicato il rapporto di compressione.
Le Figg. 2 e 3 rappresentano, rispettivamente nei piani p-v e T-s, l’andamento della trasformazione ed
il calore scambiato.

Fig. 2 Compressione isoterma nel piano p-v Fig. 3 Compressione isoterma nel piano T-s

Compressione adiabatica isentropica


Per ipotesi valgono ora le posizioni:
Q =0
Lw = 0
e quindi le due equazioni fondamentali divengono:
LC = h2 − h1 e
2
LC = ∫ vdp
1
Una adiabatica isentropica ha esponente γ, per cui:
pv γ = cos t
e quindi
γ −1
T2 ⎛ p 2 ⎞ γ
=⎜ ⎟ = βφ
T1 ⎜⎝ p1 ⎟⎠
ed inoltre, da:
cp γ −1
R = c p − cv = c p − = cp = c pφ
γ γ
da cui
R
cp =
φ
Il lavoro di compressione può essere così facilmente calcolato mediante ad esempio la prima
equazione:
⎛T ⎞ RT1 φ
LC = h2 − h1 = c p (T2 − T1 ) = c p T1 ⎜⎜ 2 − 1 ⎟⎟ =
φ
(β − 1)
⎝ T1 ⎠
Le Figg. 4 e 5 rappresentano, rispettivamente nei piani p-v e T-s, l’andamento della trasformazione ed
il lavoro di compressione.

Fig. 4 Compressione isentropica nel piano p-v Fig. 5 Compressione isentropica nel piano T-s
Nel piano T-s le aree per la verità sono dei calori e non dei lavori (anche se le unità di misura sono le
stesse). Però, essendo:
LC = h2 − h1 = h2 t − h1
e risultando l’area sottesa alla trasformazione isobarica 2t-2 pari al calore scambiato uguale a sua volta
alla differenza di entalpia, ne viene di conseguenza l’identità assunta.

Compressione adiabatica politropica


L’ipotesi di adiabaticità comporta ora solo Q = 0, per cui le due equazioni fondamentali divengono:
LC = h2 − h1
2
LC = Lw + ∫ vdp
1
assieme all’espressione:
pv n = cos t
in cui risulta n > γ.
In una trasformazione reale (che può essere rappresentata solo in modo approssimativo in un piano
termodinamico), i fenomeni dissipativi generano, come visto, calore all’interno del fluido stesso; tale
calore, che non può passare all’esterno essendo la trasformazione per definizione adiabatica, porterà
alla fine ad un aumento di entropia.
Le Figg. 6 e 7 riportano rispettivamente nei piani p-v e T-s trasformazioni e lavori per una
politropica.
Fig. 6 Compressione politropica nel piano p-v Fig. 7 Compressione politropica nel piano T-s

Nel piano p-v di Fig. 6 l’area P1-1-2p-P2 rappresenta solamente il lavoro tecnico, cioè:
2

∫ vdp = L
1
C − Lw

Per quanto riguarda il piano T-s di Fig. 7 invece, l’area A-2t-2p-C rappresenta il lavoro reale di
compressione, in quanto:
LC = h2 p − h1 = h2 − h1
Inoltre, l’area sottesa alla trasformazione isobara 2t-2p è un calore che coincide appunto colla differenza
di entalpia. Il lavoro di compressione ideale (isentropica), poi, è dato, per lo stesso motivo, dall’area A-
2t-2i-B.
Nell’ipotesi di adiabaticità Q = 0 l’area sottesa alla trasformazione reale è proprio il calore ricevuto dal
fluido, cioè Lw.
Da notare che l’area suddetta rappresenta in generale il calore ricevuto dal fluido durante la
trasformazione, per cui, se la trasformazione non è adiabatica, essa rappresenta il calore totale Lw + Q
(oppure solo Q se la trasformazione è ideale), senza poter distinguere tra i due calori.
Per la congruenza delle aree, l’area 1-2i-2p è un supplemento di lavoro (che pesa su LC) dovuto al fatto
che nella compressione avviene introduzione di calore a causa degli attriti interni, supplemento di
lavoro dovuto al fatto che il fluido si dilata di più nel caso reale rispetto al caso ideale. Questo
supplemento di lavoro viene chiamato controrecupero LCR.
Si scriverà così in definitiva:
LC = Lid + Lw + LCR
Se si indica con v’ il volume specifico ad una certa pressione p per la trasformazione ideale e con v il
corrispondente volume per la trasformazione reale, siccome:
p2

Lid = ∫ v' dp e
p1
p2

LC − Lw = ∫ vdp
p1

LC − Lw = Lid + LCR
si ha per il lavoro di controrecupero la seguente espressione:
p2

LCR = (LC − Lw ) − Lid = ∫ (v − v' )dp ≥ 0


p1
dove, per una trasformazione reale, v > v’.
Lo schizzo di Fig. 8 mostra quanto sopra affermato e cioè come la realzione v > v’ venga di fatto
automaticamente confermata risultando T > T’ (ed essendo i punti rappresentativi situati sulla stessa
generica isobara). Il fatto che nel piano T-s la pendenza delle isocore sia maggiore della pendenza delle
isobare può dimostrarsi ricordando la definizione di calore specifico nei due casi e notando che cv < cp.

Fig. 8 Trasformazione reale nel piano T-s


Per il calcolo del lavoro reale di compressione basta ricordare che:
n −1
n −1
T2 ⎛ p 2 ⎞ n
=⎜ ⎟⎟ =β n
T1 ⎜⎝ p1 ⎠
per cui:
γ ⎛ nn−1 ⎞
LC = h2 − h1 = c p (T2 − T1 ) = RT1 ⎜⎜ β − 1⎟⎟
γ −1 ⎝ ⎠

Rendimenti
Si definisce rendimento adiabatico di compressione ηad il rapporto tra il lavoro di compressione ideale
(isentropico) Lid ed il lavoro di compressione reale LC, cioè:
γ −1

Lid β −1 γ
η ad = = n −1
LC
β n −1
dove si vede come il rendimento adiabatico dipenda, oltre che dal tipo di politropica (cioè dal suo
esponente n), anche dal rapporto di compressione β.
Ricordando come il lavoro di controrecupero dipenda dalla differenza di volume specifico tra caso
reale e caso ideale e quindi in sostanza dalla comprimibilità del fluido, un fluido a comprimibilità nulla
e quindi incomprimibile presenterà lavoro di controrecupero nullo.
Si può così definire un rendimento idraulico o politropico quando si faccia riferimento ad un lavoro di
compressione ideale per la cui definizione si assuma LRC = 0, cioè:
Lid L =0 L − L
ηy = RC
= C w

LC LC
Dalla definizione:
n
pv n = p1 v1
si ha:
1 1
vp = v1 p1 n = cos t
n

per cui:
2
1 1
2 2 1 1−
v1 p 1 n 1 2 − 1 p n
LC − Lw = ∫ vdp = ∫ dp = v1 p1 n ∫ p n dp = p1 v1 p1 n
−1
=
1
1
1 1
p n 1 1−
n 1

⎡ n −1

n n −1
⎛ n −1 n −1
⎞ n ⎛p ⎞ n
RT1 ⎢⎜⎜ 2 ⎟⎟ − 1⎥ =

= RT1 p1 n ⎜ p 2 n − p1 n ⎟ =
n−1 ⎝ ⎠ n −1 ⎢⎝ p1 ⎠ ⎥
⎢⎣ ⎥⎦
n ⎛ nn−1 ⎞
= RT1 ⎜⎜ β − 1 ⎟⎟
n−1 ⎝ ⎠
da cui in definitiva:
n
ηy = n −1
γ
γ −1
Dall’essere ηy ≤ 1 ne consegue che n ≥ γ, come del resto già noto.
Si vede allora come il rendimento politropico dipenda solo dal tipo di trasformazione e sia quindi molto
più significativo nell’indicare la bontà di una macchina, indipendentemente dal suo rapporto di
compressione, come invece avviene per il rendimento adiabatico, che può ora scriversi anche nel
seguente modo:
βφ −1
η ad = φ
ηy
β −1
Il diagramma rappresentato in Fig. 9 mostra l’andamento di ηad in funzione di β, assunto come
parametro ηy.

Fig. 9 Rendimento adiabatico in funzione del rapporto di compressione


(rendimento politropico come parametro)

Come si vede dal diagramma, ηad diminuisce al crescere di β, a pari valore di ηy. Inoltre, si può
dimostrare che i due rendimenti coincidono per β = 1.
 

Compressione frazionata ed interrefrigerata 
Per  avvicinarsi  alla  compressione  isoterma,  che  è  quella  che  richiede  il  minimo  lavoro  di 
compressione, si ricorre ad un compressore a più stadi con raffreddamento intermedio. 

Si  può  dimostrare  che,  tornando  dopo  ogni  interrefrigerazione  alla  stessa  temperatura  iniziale,  il 
lavoro  di  compressione  per  un  tale  compressore  multistadio  risulta  essere  minimo  quando  i  singoli 
rapporti  di  compressione  di  stadio  sono  uguali  tra  loro,  cioè,  con  riferimento  alle  Figg.  10  e  11, 
quando: 

p2 p p
= 3 = 4 =β 
p1 p 2 p3

Siccome: 

p4 p p p
= 4 3 2 = β 3     e quindi: 
p1 p 3 p 2 p1

1
⎛ p ⎞3
β = ⎜⎜ 4 ⎟⎟  
⎝ p1 ⎠

si può affermare in generale che, se il compressore ha z stadi, risulta: 
1
⎛ p finale ⎞z
β = ⎜⎜ ⎟⎟    
⎝ piniziale ⎠

           
    Fig. 10 Compressione interrefrigerata nel piano p‐v      Fig. 11 Compressione interrefrigerata nel piano T‐s 

3.3 Termodinamica di una macchina motrice o espansore 

 
Nel caso di un espansore o turbina, per avere un lavoro positivo fatto dal sistema verso l’esterno, le 
due equazioni fondamentali sono come visto: 

LT = h1 − h2 + Q      oppure 

2
LT = − Lw − ∫ vdp  
1

La  Fig.  12  mostra  la  rappresentazione  schematica  di  un  espansore  e  la  convenzione  adottata  per 
lavoro e calore positivi. 

                                                               
Fig. 12 Rappresentazione schematica di espansore 

Tra le trasformazioni più significative vengono  qui considerate l’adiabatica isentropica  e l’adiabatica 


reale o politropica, duali di quelle già trattate per il compressore. 

Espansione adiabatica isentropica 

Valgono anche qui le ipotesi: 

Q =0 

Lw = 0  

per cui in definitiva, dalla prima equazione fondamentale, si ha: 

⎛ T ⎞ RT1
LT = h1 − h2 = c p (T1 − T2 ) = c p T1 ⎜⎜ 1 − 2
T1
⎟⎟ =
φ
( )
1 − β −φ  
⎝ ⎠

Le  Figg.  4  e  5  possono  ancora  rappresentare  l’andamento  della  trasformazione  ed  il  lavoro  di 
espansione, purchè vengano invertiti tra loro i punti di inizio e fine trasformazione. 

Espansione adiabatica politropica 
Le due equazioni equazioni fondamentali, essendo Q = 0, si possono ora scrivere come segue: 

LT = h1 − h2  

1
LT = ∫ vdp − Lw  
2

assieme all’espressione: 

pv m = cos t  

in cui però m < γ, come si vedrà in seguito. 

La  trasformazione  avviene  sempre  con  aumento  di  entropia,  però,  essendo  una  espansione,  la 
rappresentazione grafica cambia, come mostrato nelle Figg. 13 e 14. 

          
          Fig. 13 Espansione politropica nel piano p‐v      Fig. 14 Espansione politropica nel piano T‐s 

Nel piano p‐v di Fig. 13 l’area P1‐1‐2‐P2 rappresenta sempre solo il lavoro tecnico: 
1

∫ vdp = L
2
T + Lw  

Per quanto riuarda il piano T‐s di Fig. 14, il lavoro reale di espansione è rappresentato dall’area D‐2t‐1‐
B, in quanto: 

LT = h1 − h2 = h1 − h2 t  

con le stesse considerazioni su calore e lavoro. 

Il  lavoro  ideale  di  espansione  è  sempre  dato  dall’area  A‐2t’‐1‐B,  come  pure  l’area  sottesa  alla 
trasformazione reale è sempre il calore ricevuto dal fluido Lw (essendo Q = 0). 
Notando poi che le due aree A‐2t’‐2t‐D e B‐2’‐2‐C sono uguali (il calore sotteso a due isobare dipende 
solo dalla differenza delle temperature), si vede poi che, per la congruenza delle aree, l’area 1‐2’‐2 è 
un  supplemento  di  lavoro  (che  avvantaggia  LT)  dovuto  al  fatto  che  il  fluido  si  dilata  di  più  nel  caso 
reale rispetto a quello ideale. Questo supplemento di lavoro si chiama lavoro di recupero LRT. 

Si scriverà così in definitiva: 

LT = Lid − Lw + LRT  

Poichè si ha: 
1
Lid = ∫ v' dp  
2

ed inoltre: 
1
LT + Lw = ∫ vdp  
2

LT + L w = Lid + LRT  

risulta per il lavoro di recupero turbina la seguente espressione: 
p1

LRT = (LT + Lw ) − Lid = ∫ (v − v' )dp ≥ 0  


p2

positiva in quanto p aumenta da p2 a p1 ed inoltre v > v’, come evidenziato nello schizzo di Fig. 15. 

                                             
Fig. 15 Trasformazione reale nel piano T‐s 

Per il calcolo del lavoro reale di espansione basta ricordare che: 
m −1
− m −1
T2 ⎛ p1 ⎞ m −
=⎜ ⎟ =β m
 
T1 ⎜⎝ p 2 ⎟⎠

per cui: 

⎛ γ

m −1

LT = h1 − h2 = RT1 ⎜ 1 − β m ⎟⎟  

γ −1 ⎝ ⎠

Rendimenti 

Si definisce rendimento adiabatico di espansione  ηad il rapporto tra il lavoro di espansione reale LT ed 
il lavoro di espansione ideale (isentropico) Lid: 
m −1

LT 1 − β m
η ad = = γ −1
 
Lid −
1− β γ

dove  si  vede  come  il  rendimento  adiabatico  dipenda,  oltre  che  dal  tipo  di  politropica  (cioè  dal  suo 
esponente m), anche dal rapporto di espansione β. 

Si può anche per un espansore definire un rendimento idraulico o politropico per il quale non entri in 
gioco  la  comprimibilità  del  fluido  e  per  il  quale  quindi  si  possa  far  riferimento  ad  un  lavoro  di 
espansione ideale nella cui definizione si assuma come logica conseguenza LRT = 0, cioè: 

LT LT
ηy = =  
Lid LRT =0
LT + Lw

Siccome risulta: 
1
1 1
1 1 1 1−
v1 p 1 m 1 1 − 1 p m
LT + Lw = ∫ vdp = ∫ dp = v1 p1 m ∫ p
−1
m
dp = p1 v1 p1 m =
1
1
2 2
p m 2 1−
m 2

⎡ −
m −1

m m −1
⎛ m −1 m −1
⎞ m ⎛p ⎞ m
RT1 ⎢1 − ⎜⎜ 1 ⎟⎟ ⎥=

= RT1 p1 m ⎜ p1 m − p 2 m ⎟ =  
m−1 ⎝ ⎠ m−1 ⎢ ⎝ p2 ⎠ ⎥
⎣⎢ ⎦⎥
m ⎛ −
m −1

= RT1 ⎜ 1 − β m ⎟⎟

m−1 ⎝ ⎠

da cui in definitiva: 
γ
γ −1
ηy =  
m
m−1

Dall’essere ηy ≤ 1, ne consegue che m ≤ γ, come del resto già visto. 

Si  vede  allora  come  il  rendimento  politropico  dipenda  solo  dal  tipo  di  trasformazione  e  sia  quindi 
molto più significativo nell’indicare la bontà di una macchina, indipendentemente dal suo rapporto di 
espansione,  come  invece  avviene  per  il  rendimento  adiabatico,  che  può  ora  scriversi  anche  nel 
seguente modo: 
−φη
1− β y
η ad =  
1 − β −φ

Il  diagramma  rappresentato  in  Fig.  16  mostra  l’andamento  di  ηad  in  funzione  di  β,  assunto  come 
parametro ηy. 

                                              
Fig. 16 Rendimneto adiabatico in funzione del rapporto di espansione 

(rendimento politropico come parametro) 

Come  si  vede  dal  diagramma,  ηad  aumenta  al  crescere  di  β,  a  pari  valore  di  ηy.  Inoltre,  si  può 
dimostrare che i due rendimenti coincidono per β = 1. 

Infine, siccome il rendimento politropico dipende solo dalla bontà della macchina, ne consegue che un 
compressore ed un espansore di pari qualità presentano lo stesso valore di rendimento politropico, 
indipendentemente dai rispettivi valori del rapporto di compressione o di espansione. 

Se poi anche il valore di  β è lo stesso per le due macchine, il rendimento adiabatico sarà minore del 
rendimento politropico per il compressore e maggiore per l’espansore.  

3.4 Teoria della similitudine per fluidi comprimibili 

 
Per  un  fluido  comprimibile,  se  si  fa  l’assunzione  che  il  fluido  sia  un  gas  perfetto,  le  grandezze 
pressione, densità e temperatura sono legate dall’equazione generale di stato: 

p
= RT  
ρ

in cui: 


R= = c p − cv  
M

e si possono poi calcolare velocità del suono a, energia interna per unità di massa u ed entalpia per 
unità di massa h: 

γp
a2 = = γRT  
ρ

1 p
u= = cvT  
γ −1 ρ

γ p
h= = c pT  
γ −1 ρ

equazioni che per la verità andrebbero scritte in termini differenziali, dacché  γ, cv e cp sono funzione 
della temperatura. 

Appare  comunque  chiaro  che,  anche  se  il  fluido  si  può  assimilare  ad  un  gas  perfetto  o  ideale,  si 
debbono considerare, oltre alla densità, altre due variabili indipendenti del fluido (ad esempio riferite 
alla sezione di ingresso della macchina): come le quantità T/M e γ. 

Tutte le altre variabili termodinamiche possono poi a loro volta essere espresse in termini di ρ, T/M e 
γ, usando le relazioni viste. 

Una  conveniente  variabile  adimensionale  contenete  il  rapporto  T/M  è  il  numero  di  Mach,  così 
definito: 

ND M
M1 = = ND     
a1 γℜT1

Perciò la prestazione di una turbomacchina è ora descritta da una legge a tre parametri. Ad esempio il 
coefficiente di carico può essere così espresso: 

En ⎛ Q ⎞
2 2
= f ⎜ 1 3 ; M 1 ;γ ⎟  
N D ⎝ ND ⎠
dove  l’indice  1  si  riferisce  alle  condizioni  di  ingresso;  sia  la  portata  che  la  temperatura  variano  ora 
infatti lungo la macchina.  

Quando si rappresenta ψ (coefficiente di carico) in funzione di Φ (coefficiente di flusso), solitamente il 
parametro che compare è però il solo numero di Mach, in quanto un flusso comprimibile a velocità 
subsoniche o, al limite, transoniche risulta relativamente insensibile a variazioni in γ. Si è così di nuovo 
in presenza di una legge di prestazione a due parametri, almeno finché si parla di macchine a singolo 
stadio oppure di macchine con relativamente piccoli rapporti di compressione o di espansione. 

Le curve caratteristiche: 

Ψ = f (Φ ; M 1 )   

rappresentate in Fig. 17 per un compressore ad un solo stadio, mostrano ad esempio come finché M1 
si mantiene inferiore a 0.5 la rappresentazione sia univoca, mentre per valori maggiori di 0.5 le linee 
comincino ad intersecarsi in maniera irregolare. 

                                     
Fig. 17 Curve caratteristiche di un compressore ad uno stadio 

(numero di Mach in ingresso come parametro) 

L’inconveniente  può  essere  evitato  ricorrendo  ad  altre  grandezze  adimensionali,  come  ad  esempio 
esprimendo  il  rapporto  di  compressione  (o  di  espansione)  β  in  funzione  della  portata  massica 
adimensionale Ga1/p1D2 e mantenedo sempre M1 come parametro. 

Essendo gli effetti della comprimibilità poco significativi per bassi numeri di Mach, i risultati conseguiti 
nel  campo  dei  fluidi  incomprimibili  rimangono  validi,  purché  appunto  i  numeri  di  Mach  non  siano 
molto  elevati.  Anche  il  diagramma  di  Cordier  rimane  valido  per  macchine  operanti  con  fluidi 
comprimibili: occorre però ricordare che ora, per il calcolo dei parametri adimensionali, si deve usare 
l’energia trasferita per stadio e la portata volumetrica in ingresso. Infine, anche gli effetti di viscosità e 
gli effetti di scala possono essere valutati come nel caso incomprimibile. 

  

  
3.5 Classificazione dei compressori 

Come  per  le  pompe  anche  i  compressori  possono  essere  suddivisi  in  compressori  volumetrici, 
compressori  centrifughi  e  compressori  assiali,  passando  dalle  portate  più  piccole  alle  portate  più 
grandi.  La  scelta  del  tipo  più  adatto  di  compressore  può  essere  fatta,  in  base  alla  teoria  della 
similitudine, con riferimento alla velocità specifica Ω, calcolata in funzione della portata entrante (per 
un fluido comprimibile la portata volumetrica varia tra ingresso ed uscita) e del lavoro per stadio. La 
Fig.  18  mostra  ad  esempio  un  diagramma  che  può  essere  usato  per  la  scelta  del  tipo  più  adatto  di 
compressore. 

                    
Fig. 18 Diagramma per la scelta dei compressori 

Nel diagramma le fasce caratteristiche sono definite in base al valore di: 
1
Φ 2
An = Ω = 3
 
Ψ 4

dove però il coefficiente di portata e quello di carico sono stati definiti nel modo seguente: 

V&
Φ=  
S ⋅u

gLad
Ψ =  
u2
2

in cui  V& è la portata volumetrica in ingresso (in m3/s), S la sezione frontale (in m2, data da πD22/4 con 


D2 diametro in uscita), u = u2 la velocità periferica (in m/s) in corrispondenza di D2, Lad il lavoro ideale 
di compressione dello stadio (espresso in kgp∙m/kg, dove 1 kcal equivale a 427 kgp∙m oppure 4186 J). 
Con riferimento ad una velocità di rotazione n (espressa in giri/min), il parametro An non risulta più 
adimensionale come la velocità specifica  Ω; dopo opportune sostituzioni e semplificazioni, esso può 
essere calcolato in base all’espressione: 
1
n V& 2
An = 6.33  
1000 L 43
ad

Nel diagramma di Fig. 17 in coordinate logaritmiche le rette rispondono all’equazione: 
2
3 6.33 1 ⎛ n ⎞
log Lad = log + log V& ⎜ ⎟  
4 An 2 ⎝ 1000 ⎠

In base a risultati pratici, si è visto che statisticamente per valori di An inferiori a 0.1 la scelta cade sui 
compressori  volumetrici,  per  valori  compresi  tra  0.1  e  0.5  sui  compressori  centrifughi  e  per  valori 
superiori a 0.5 sui compressori assiali. 

Compressore volumetrico 

Le  Figg.  19,  20  e  21  mostrano  alcuni  tra  i  più  diffusi  compressori  volumetrici,  che  ricordano  nella 
forma  le  corrispondenti  pompe.  Questi  compressori  vengono  usati  quando  le  portate  sono 
relativamente piccole ed i rapporti di compressione per stadio abbastanza elevati (per i compressori 
rotativi le portate sono di qualche m3/s ed i rapporti di compressione mediamente non superiori a 5‐
6; per i compressori alternativi le portate sono un pò inferiori però i rapporti di compressione possono 
anche arrivare a 10, con valori di alcune centinaia quando si tratti di macchine a più stadi). 

                                                  
Fig. 19 Compressore rotativo a palette 
             

Fig. 20 Compressore a lobi diritti 

                    

Fig. 21 Compressore a due stadi a doppio effetto con due cilindri in tandem 

(con refrigerazione intermedia) 

Le  curve  di  prestazione  per  un  compressore  volumetrico  (in  particolare  rotativo,  come  quelle 
mostrate  in  Fig.  22)  sono  simili  a  quelle  per  le  pompe  dello  stesso  tipo,  con  curve  caratteristiche 
abbastanza verticali e con portate crescenti appunto con il numero di giri. 

Il  rendimento  tende  sensibilmente  a  diminuire  quando  i  rapporti  di  compressione  diventano  un  pò 
troppo elevati. 

 
Fig. 22 Curve caratteristiche per un compressore rotativo
Compressore centrifugo
E’ costituito da una presa d’aria, da una girante e da un diffusore, analogamente a quanto si è visto per
una pompa centrifuga. La Fig. 23 mostra in prospettiva una girante ad ingresso assiale ed uscita radiale
(uscita che può però avere in generale palette rivolte in avanti oppure all’indietro).

Fig. 23 Girante di compressore centrifugo

Grado di reazione.
Con riferimento al lavoro espresso in funzione delle diverse altezze cinetiche:
V 2 − V1 2 w1 2 − w2 2 u 2 2 − u1 2
LC = 2 + +
2 2 2
si può definire, per una macchina ad ingresso assiale, grado di reazione il seguente rapporto:
w 2 − w2 2 + u 2 2 − u 1 2
χ= 1
2u 2V2t
cioè il rapporto tra la parte di lavoro che interessa la girante ed il lavoro totale (euleriano).
Per una macchina ad ingresso assiale si ha:
w1 2 = V1 2 + u1 2
per cui la definizione di grado di reazione diventa:
u 2 2 + V1 2 − w2 2
χ=
2u 2V2t
Se in prima approssimazione la velocità meridiana si mantiene abbastanza costante (cioè se
V1 = V2m = V2r = w2r, ipotesi che comunque è molto più significativa per una macchina assiale), allora
si ha:
u 2 + w2 r 2 − w2 2
χ= 2
2u 2V2t
Dall’analisi del triangolo delle velocità in uscita si ha poi:
V 2 t = w2 t + u 2
w2t = w2 r cot gβ 2
w2t 2 = w2 2 − w2 r 2
Sostituendo queste relazioni nella definizione di χ si ottiene la semplice espressione:
u 2 − w2t 2 u 2 2 − (V2t − u 2 )2 V
χ= 2 = = 1 − 2t
2u 2V2t 2u 2V2t 2u 2
la quale, pur nell’approssimazione fatta notare, mostra come il grado di reazione risulti crescente
passando da una palettatura in avanti (V2t > u2), a palettatura radiale (V2t = u2 e quindi χ = 0.5) a
palettatura indietro (V2t < u2), con analogia a ruote Pelton e Francis, però con flusso invertito.

Curva caratteristica.
La curva caratteristica, dapprima ideale, di un compressore centrifugo può ricavarsi partendo dalla
relazione di Eulero:
E n = u 2V2t − u1V1t
In essa si ha (ingresso assiale ed uscita comunque diretta):
V1t = 0
V2t = u 2 + w2t = u 2 + w2 cos β 2
Dall’espressione della portata volumetrica in uscita:
Q = S ⋅ w2 sen β 2 = ξπD2 h2 ⋅ w2 sen β 2
in cui ξ è il coefficiente di ingombro frontale delle palette, si ottiene in definitiva:
Q
Lc = E n = u 2 2 + u 2 cot gβ 2
S
La rappresentazione di questo lavoro in funzione della portata volumetrica in uscita è la curva
caratteristica ideale, a giri costanti, riportata in Fig. 24, per palettatura all’indietro, radiale e in avanti.
Al diminuire o all’aumentare del numero di giri le curve si abbassano o si alzano di conseguenza.

Fig. 24 Curva caratteristica ideale di un compressore centrifugo

Analogamente a quanto si è visto per le pompe, quando si considerano anche le varie perdite
(concentrate all’imbocco delle pale, distribuite lungo i canali delle stesse e in relazione allo slip factor,
per deviazione in uscita a causa di una certa ricircolazione all’interno dei canali stessi), la curva
caratteristica reale assume l’andamento mostrato in Fig. 25 (in cui non è però evidenziata la perdita
dovuta allo slip factor).

Fig. 25 Curva caratteristica reale di un compressore centrifugo


Rendimenti.
Per una valutazione più specifica del rendimento è opportuno considerare la macchina suddivisa nei
suoi tre componenti: presa d’aria o distributore 0-1 (intake), girante 1-2 (impeller) e diffusore 2-3
(diffuser), come indicato schematicamente in Fig. 26.

Fig. 26 Rappresentazione schematica di un compressore

Risulta poi molto utile rappresentare le singole trasformazioni in un piano h-s, con riferimento anche
alle grandezze totali. Non possono più ovviamente essere trascurate in questa trattazione le varie
altezze cinetiche.

Presa d’aria.
In Fig. 27 è rappresentata la trasformazione adiabatica, ideale e reale, con le altezze cinetiche coinvolte.

Fig. 27 Trasformazione adiabatica in una presa d’aria

Per la conservazione dell’energia si può scrivere:


V 2 V2
H 0 = h0 + 0 = h1 + 1 = H 1
2 2
equazione valida sia nel caso ideale che in quello reale (nel caso ideale si avrebbe h1is e V1is).
Ovviamente l’espansione che si ha nella presa d’aria non è desiderata, in quanto mette a disposizione
della girante una pressione inferiore; però è inevitabile che questo avvenga in quanto nella maggior
parte dei casi il compressore aspira da un ambiente a pressione p0 con velocità V0 praticamente
trascurabile.
Si definisce poi rendimento della presa d’aria il rapporto:
2 2
h −h V −V
η distr = 0 1 = 1 2 0 2
h0 − h1 is V1is − V0

Girante.
La Fig. 28 rappresenta la trasformazione adiabatica, ideale e reale, che avviene nella girante.

Fig. 28 Trasformazione adiabatica in una girante

La conservazione dell’energia si esprime ora con l’equazione:


V 2
H 1 + Lis = H 2is = h2is + 2is oppure
2
V2 2
H 1 + LC = H 2 = h2 +
2
Il rendimento della girante può essere definito ad esempio come rapporto tra salti entalpici tra le due
pressione totali iniziale p1t e finale p2t, cioè:
h −h h −h h − H1
η gir = A 1t = A 1t = A
LC h2 t − h1t H 2 − H 1

Diffusore.
Nel diffusore avviene un certo recupero dell’energia cinetica all’uscita della girante, come
rappresentato in Fig. 29.
Fig. 29 Trasformazione adiabatica in un diffusore
Anche qui la conservazione dell’energia porta a scrivere:
2 2
V V
H 2 = h2 + 2 = h3 + 3 = H 3
2 2

valida nel caso ideale ed in quello reale (nel caso ideale si avrebbe h3is e V3is).
Se la velocità in uscita è praticamente trascurabile, il rendimento del diffusore vale:
h − h2
η diff = 3is
h3 − h2
Il diffusore può essere a sezione crescente con chiocciola non palettata oppure palettata (il primo caso è
preferibile per portate abbastanza variabili in quanto dà luogo a minori perdite). Nel caso di diffusore
palettato (schizzo di Fig. 30) si può adottare l’ipotesi di vortice libero che, assieme all’equazione di
continuità, consente di scrivere:
V2t ⋅ r2 = cos t
ξ 2πr2 b2 ρV2 r = cos t

Fig. 30 Triangoli di velocità per diffusore palettato

Per un raggio generico r > r2, e supponendo che la densità ρ si mantenga abbastanza costante, le due
equazioni scritte si riducono a:
Vt ⋅ r = cos t e
Vr ⋅ r = cos t
Rapportando ora le due equazioni si ottiene in definitiva:
Vr
= cos t = tgα 2
Vt
La paletta presenta perciò uno sviluppo con profilo a spirale di tipo logaritmico (almeno finché si
mantengono valide le ipotesi assunte).
Il rendimento adiabatico totale non può essere espresso come prodotto dei singoli rendimenti, a causa
della divergenza delle isobare.
Esso può essere invece valutato come rapporto dei due ∆h misurati con riferimento alla stessa
pressione finale p3t a partire dal livello entalpico H0 per arrivare il primo al punto sull’isentropica
iniziale ed il secondo al punto corrispondente all’uscita dal diffusore.
Cioè in definitiva:
∆his h − H0
η ad = = 3is ,t
∆hreale H3 − H0
La Fig. 31 mostra una mappa di prestazione di un compressore centrifugo, espressa come rapporto di
compressione β in funzione della portata adimensionale Ga1/p1D2, con curve di isorendimento a diversi
regimi di rotazione (rapportati alle condizioni nominali). La linea di pompaggio (come verrà meglio
spiegato più avanti) è una linea limite per le condizioni di funzionamento stabile.

Fig. 31 Mappa di prestazione per un compressore centrifugo

La Fig. 32 mostra infine un esempio di girante centrifuga radiale per turbina a gas di tipo aeronautico.

Fig. 32 Girante di compressore centrifugo radiale

Compressore assiale
In un compressore assiale i filetti fluidi si mantengono praticamente alla stessa distanza dall’asse di
rotazione, per cui risulta u2 = u1 = u. Un compressore assiale, non potendo beneficiare della parte di
energia trasferibile al fluido per effetto centrifugo, è generalmente costituito da un notevole numero di
stadi atti a produrre alla fine il richiesto rapporto di compressione. Ciascuno stadio, costituito da una
parte rotorica e da una parte statorica, ha un rapporto di compressione mediamente intorno a 1.2, onde
non andare incontro a fenomeni di instabilità (stallo).
Una sezione longitudinale di compressore assiale è ad esempio rappresentata in Fig. 33.

Fig. 33 Sezione longitudinale di compressore assiale


Grado di reazione.
Il lavoro euleriano per una macchina assiale può scriversi nel seguente modo:
LC = u (V2t − V1t ) = u ⋅ ∆Vt = u ⋅ ∆wt
Se la macchina è dimensionata in modo che la sua velocità meridiana si mantenga costante (per cui: Va
= wa = cost) i triangoli di velocità appaiono come rappresentati nello schizzo di Fig.33.

Fig. 33 Triangoli di velocità per un compressore assiale

Il grado di reazione assume la seguente espressione:


w 2 − w2 2
χ= 1
2 LC
Essendo poi:
2 2 2
w1 = w1t + wa
w2 2 = w2 t 2 + wa 2
w1 2 − w2 2 = w1t 2 − w2t 2
ed inoltre potendo poi considerare una velocità relativa media così definita:
w + w2 t
w∞t = 1t
2
si ottiene in definitiva la seguente espressione per il grado di reazione:
(w + w2t )(w1t − w2t ) w∞t ⋅ ∆wt w∞t
χ 1t = =
2u ⋅ ∆wt u ⋅ ∆wt u
 

Triangoli di velocità tipici. 

Nei  compressori  assiali  il  flusso  di  ingresso  e  di  uscita  può  essere  sia  assiale  che  obliquo,  dacché  la 
direzione assiale si può sempre ottenere mediante palettature fisse (statori) in entrata e/o in uscita. 
Caso  abbastanza  frequente  è  quello  di  un  flusso  che  arrivi  in  modo  assiale  direttamente  sul  rotore, 
collo  statore  che  ha  il compito  di riportare  la velocità  in  condizioni  assiali,  incrementando  al tempo 
stesso ancora un pò la pressione, come mostrato nello schizzo di Fig. 34.                           

                          
                          Fig. 34 Triangoli di velocità per un compressore assiale (χ = 0.5‐1) 

Siccome risulta: 

∆Vt
w∞t = u −  
2

sostituendo nella definizione del grado di reazione si ottiene nel caso specifico: 

∆Vt
u−
χ= 2 = 1 − ∆Vt  
u 2u

che risulta essere inferiore all’unità (compreso tra 0.5 e 1). 

Un  altro  tipo  di  palettatura  che  è  molto  usato,  negli  stadi  intermedi  di  compressori  multistadio,  è 
quello  che  presenta  soluzione  speculare  (w∞  =  V∞),  ragion  per  cui  l’espressione  (w∞2  +  V∞2)  diventa 
minima  (a  pari  altre  condizioni),  con  minimizzazione  delle  perdite  proporzionali  al  quadrato  delle 
velocità. 

Questi triangoli di velocità sono rappresentati nello schizzo di Fig. 35. 
 

                              

                         Fig. 35 Triangoli di velocità per un compressore assiale (χ = 0.5) 

 
Siccome risulta: 

u
w∞t =  
2

il grado di reazione nel caso in esame diviene: 

u
χ = 2 = 0.5  
u

e quindi il salto entalpico viene ugualmente ripartito tra rotore e statore. 

Per un compressore assiale la soluzione adottata come si vede non comporta la coincidenza V1  ≡ w2, 
in quanto ciò porterebbe ad una deviazione del flusso nei canali troppo elevata (con quasi certezza di 
stallo). Queste due velocità vengono quindi imposte uguali solo in modulo e perciò ancora speculari, 
con grado di reazione sempre pari a 0.5. 

Rendimenti. 

Per il calcolo dei rendimenti ci si può ancora riferire alla trattazione vista per i compressori centrifughi, 
tenendo  anche  qui  presente  come  si  debba  di  fatto  rappresentare  una  di  seguito  all’altra  le 
compressioni  nei  singoli  stadi,  per  tenere  in  debito  conto  l’effetto  causato  dalla  divergenza  delle 
isobare, che produce alla fine (a causa dei vari lavori di controrecupero) un peggioramento dei singoli 
rendimenti adiabatici di stadio.  

La Fig. 36 mostra una mappa di prestazione di un compressore assiale, espressa come rapporto di
compressione β in funzione della portata adimensionale Ga1/pD2, con curve di isorendimento a diversi
regimi di rotazione (rapportati alle condizioni nominali). La linea di pompaggio (come verrà meglio
spiegato più avanti) è una linea limite per le condizioni di funzionamento stabile.

Fig. 36 Mappa di prestazioni per un compressore assiale


 

La Fig. 37 infine mostra un rotore di compressore assiale in fase di montaggio, senza la semicassa di 
copertura. 

 
                          

Fig. 37 Rotore di compressore assiale con semicassa inferiore 

3.6 Fenomeni di instabilità nelle macchine 

L'instabilità, che è funzione di una determinata distribuzione di velocità lungo i profili delle palettature 
di turbomacchine, si può presentare, da un punto di vista del comportamento globale della macchina, 
in modo alquanto severo in particolare per i compressori, sotto forma di un fenomeno che prende il 
nome di stallo o pompaggio a seconda della sua gravità. 

Modalità di comportamento in stallo e pompaggio 

Il comportamento tipico dei compressori, conseguenza della forma della curva caratteristica,  prevede 
normalmente  un  aumento  del  rapporto  di  compressione  al  diminuire  della  portata  massica. 
Generalmente si raggiunge un punto per il quale il rapporto di compressione è ad un massimo: ogni 
ulteriore  riduzione  di  portata  conduce  ad  un  improvviso  e  definito  cambiamento  delle  modalità  di 
flusso nel compressore. Oltre questo punto il compressore può andare incontro sia al fenomeno dello 
stallo che a quello del pompaggio; indipendentemente comunque dal tipo di cambiamento avvenuto, 
il punto di instabilità di un flusso nominalmente axisimmetrico viene convenzionalmente denominato 
punto  di  pompaggio  o surge  point  ed  il  luogo  di  questi  punti  (alle  differenti  velocità  di  rotazione) è 
noto come linea di pompaggio o surge line. 

La Fig. 38 mostra tre diverse situazioni di instabilità che si possono incontrare per un compressore (la 
rappresentazione si riferisce più in particolare ad un compressore assiale). 
      
                a) Stallo progressivo                           b) Stallo improvviso                           c) Pompaggio 

Fig. 38 Curve caratteristiche di un compressore per tre differenti tipi di comportamento 

(con portate inferiori a quella di funzionamento stabile) 

Stallo rotante 

Con riferimento alla Fig. 38a, la perdita in prestazione risulta abbastanza piccola e spesso la presenza 
dello  stallo  è  indicata  soltanto  da  un  cambiamento  in  rumore  oppure  dalle  indicazioni  di 
strumentazione  ad  alta  frequenza  posta  all'interno  della  macchina.  Molto  spesso  questa  situazione 
viene chiamata stallo progressivo. Il comportamento illustrato invece in Fig. 38b porta ad una perdita 
molto  più  larga  in  pressione  e  portata;  quando  il  compressore  va  in  stallo,  il  punto  medio  di 
funzionamento si abbassa rapidamente seguendo la linea di regolazione (caratteristica esterna), fino 
ad  arrivare  a  fermarsi  in  un  nuovo  punto  che  presenta  un  incremento  di  pressione  che  può  essere 
anche  solo  una  frazione  del  valore  precedente  lo  stallo.  Questa  situazione  viene  frequentemente 
chiamata stallo improvviso. 

In entrambi  i  casi a) e  b) il flusso non  si  mantiene più axisimmetrico ma presenta una  distribuzione 


cironferenziale  non  uniforme  ruotante  lungo  la  sezione  anulare  di  passaggio,  in  una  condizione  di 
funzionamento denominata stallo rotante.  

La sezione  anulare viene allora  a contenere regioni di flusso in stallo (solitamente chiamate celle) e 


regioni di flusso non in stallo, come mostrato in Fig. 39. 

                                    
Fig. 39 Differenti tipi di stallo rotante 

(regioni a bassa velocità assiale (celle) tratteggiate) 

Lo stallo rotante è un meccanismo attraverso il quale il compressore riesce ad adattarsi ad un flusso 
che  risulta  troppo  piccolo:  invece  di  arrivare  a  distribuire  questo  flusso  contenuto  lungo  l'intera 
sezione circolare, si giunge invece a suddividere il flusso in maniera non uniforme, di modo che alcuni 
canali (o parti di canali) siano interessati da un flusso relativamente grande, mentre altri da un flusso 
relativamente piccolo.  

Nel funzionamento in stallo rotante  il flusso massico, totale o mediato nel  tempo, rimane costante, 


mentre il flusso massico locale viene a cambiare come la cella rotante interessata si trovi a  passare 
davanti al punto di osservazione. 

All'interno di una cella di stallo la velocità, assiale o meridiana, risulta assai inferiore rispetto a quella 
del flusso non in stallo, mentre la velocità circonferenziale può essere ben più elevata. 

Si  possono  avere  parecchie  celle  in  stallo  oppure  soltanto  una;  le  celle  possono  poi  estendersi 
attraverso  tutta  la  sezione  anulare  (stallo  completo)  o  soltanto  sopra  una  parte  di  esso  (stallo 
parziale). Quando la cella è in stallo completo sembra che possa formarsi normalmente solo una cella, 
altrimenti, quando la cella è in stallo parziale, possono esistere celle multiple. Lo stallo improvviso di 
Fig.  38b  è  caratteristico  di  un  compressore  funzionante  in  stallo  completo,  mentre  lo  stallo 
progressivo di Fig. 38a è più probabilmente tipico di un compressore per il quale si sia instaurato uno 
stallo  parziale.  Se  si  effettua  una  ulteriore  parzializzazione  già  in  presenza  di  stallo  parziale,  il 
compressore può arrivare a funzionare in stallo completo, con una improvvisa perdita in prestazione. 
Le celle di stallo ruotano sempre nello stesso verso del rotore. Celle di stallo parziale ruotano molto 
spesso  a  circa  il  50  %  della  velocità  del  rotore;  celle  di  stallo  completo  ruotano  solitamente  più 
lentamente, intorno al 20‐40 %, con una velocità che aumenta con il numero degli stadi. 

Le  celle  di  stallo  completo  si  estendono  assialmente  lungo  l'intera  lunghezza  di  un  compressore 
assiale, mentre lo stallo parziale può esistere anche in una sola parte del compressore e perfino in un 
singolo stadio. Questa differenza si manifesta perchè gli stadi sono normalmente troppo vicini fra loro 
perchè  nasca  una  significante  ridistribuzione  circonferenziale  di  flusso  tra  regioni  in  stallo  e  non  in 
stallo.  La  portata  massica  netta  in  entrata  o  in  uscita  per  una  cella  di  stallo  completo  è  molto 
contenuta  e  la  larghezza  della  cella  deve  perciò  essere  confrontabile  in  ingresso  e  in  uscita.  Al 
contrario,  nella  cella  di  stallo  parziale  nasce  una  possibilità  di  ridistribuzione  del  flusso  in  direzione 
radiale.  Inoltre,  ci  sono  solitamente  parecchie  celle  di  stallo  parziale  ed  il  loro  numero  può  quindi 
rendere possibile anche una certa ridistribuzione circonferenziale. 

Pompaggio 
 

Il  tipo  di  comportamento  illustrato  invece  in  Fig.  38c  appare  abbastanza  differente.  Ora  infatti  la 
portata  massica  mediata  su  tutta  la  sezione  anulare  varia  nel  tempo,  così  che  l'intero  compressore 
passi più o meno in fase dal non essere in stallo all'essere in stallo e così di seguito. 

Questo processo è noto col nome di pompaggio e può presentarsi in modo così violento da invertire il 
segno  della  portata  massica  durante  la  fase  di  ritorno  e  del  gas  precedentemente  compresso  può 
fuoriuscire  dall'entrata.  Ovvero,  il  processo  può  essere  anche  molto  leggero,  così  che  il  punto  di 
funzionamento  orbita  intorno  al  punto  più  alto  della  curva  caratteristica  e  la  principale 
manifestazione  del  pompaggio  diviene  un  borbottìo  appena  percettibile;  questo  comportamento  è 
abbastanza tipico per piccoli turbocompressori prima che un più severo pompaggio dia luogo ad una 
totale  inversione  di  flusso.  Durante  alcune  parti  del  ciclo  di  pompaggio,  mentre  il  compressore  è 
forzato ad operare a basse portate, il flusso può essere transitoriamente in stallo rotante.  

La  scala  dei  tempi  per  il  pompaggio  è  molto  più  lunga  che  per  lo  stallo  rotante;  per  una  moderna 
turbina  a  gas  ad  uso  aeronautico,  la  frequenza  di  uno  stallo  rotante,  rilevata  da  uno  strumento  in 
postazione  fissa,  è  tipicamente  intorno  a  50‐100  Hz,  mentre  la  corrispondente  frequenza  di 
pompaggio è intorno a 3‐10 Hz. La frequenza dello stallo rotante dipende dalla velocità con cui esso 
ruota e dal numero delle celle, il tutto determinato dall'andamento del flusso all'interno e nei dintorni 
del  compressore.  La  frequenza  del  ciclo  di  pompaggio  è  stabilita  dai  tempi  di  riempimento  e 
svuotamento del volume a disposizione. 

Sebbene il processo del pompaggio possa essere effettivamente axisimmetrico una volta totalmente 
sviluppato,  esso non si presenta  certamente così nel transitorio iniziale. Infatti, uno  degli effetti  più 
dannosi del pompaggio in compressori assiali ad alto rapporto di compressione è il carico trasversale 
molto elevato, applicato a rotore e cassa, conseguente alla natura non axisimmetrica del pompaggio e 
capace di produrre severi strisciamenti della palettatura, oltre a danni di altra natura. L'origine della 
asimmetria assiale risiede nel fatto che nella fase iniziale del pompaggio l'inversione del flusso deve 
pur partire da qualche punto di inizio e la lunghezza assiale del compressore è molto probabilmente 
alquanto più piccola della sua circonferenza. 

La rotazione delle celle in stallo 

Una spiegazione di base per la natura dello stallo è fornita in Fig. 40, prima per uno stallo iniziale che 
interessi solo un canale palare e poi quando un'ampia cella di stallo si sia ormai stabilita interessando 
ben  più  di  un  canale  (recenti  lavori  hanno  comunque  mostrato  che  nella  fase  iniziale  i  canali 
interessati non sono soltanto uno bensì parecchi, estendentisi sopra il 15 % circa della circonferenza). 
                           
Fig. 40 Meccanismo della rotazione dello stallo, all'inizio e per una larga cella di stallo. 

Il blocco causato dalla cella porta ad una riduzione dell'angolo di incidenza della pala da un lato e ad 
un  aumento  dall'altro.  La  pala  per  cui  l'angolo  di  incidenza  aumenta  tende  ad  andare  in  stallo.  Lo 
stallo tende perciò a correre nella direzione in cui l'incidenza aumenta: per uno stadio rotorico questo 
vuol  dire  che  la  cella  muove  all'indietro  relativamente  al  rotore,  mentre  per  uno  stadio  statorico 
muove nella direzione stessa del rotore. Vista da un osservatore fisso, la rotazione delle celle di stallo 
è perciò sempre nello stesso senso di quella del rotore, ma ad una velocità che deve essere sempre 
inferiore a quella del rotore. Il blocco di una cella di stallo larga o completamente sviluppata produce 
anche  una  deflessione  del  flusso  in  arrivo  in  modo  da  aumentare  l'incidenza  da  un  lato  e  ridurla 
dall'altro, producendo una rotazione del disturbo.      

Instabilità del flusso 

Il  punto  di  funzionamento  per  il  quale  il  flusso  nel  compressore  diventa  instabile  e  progredisce  in 
stallo rotante  o pompaggio dipende non  soltanto dal  compressore ma dal sistema  nel quale  esso si 
trova ad operare: il condotto, il volume e la valvola, in una semplice configurazione di prova. Viene 
trattato qui per semplicità solo un tipo di instabilità: una discontinuità monodimensionale del flusso. Il 
pompaggio  ha  un  andamento  monodimensionale,  ma  in  alcuni  casi  la  discontinuità 
monodimensionale  può  alla  fine  risultare  in  stallo  rotante,  una  instabilità  multidimensionale. 
L'ottenere  stallo  rotante  oppure  pompaggio  e,  nel  primo  caso,  stallo  rotante  parziale  o  completo 
dipende poi sempre dal tipo di sistema. 

La Fig. 41 mostra tre sistemi idealizzati a complessità crescente.   
                                  
Fig. 41 Tre differenti modelli di instabilità per un compressore 

(caratteristica del compressore in linea continua, quella di regolazione in linea a tratti) 

La  Fig.  41a  mostra  il  sistema  più  semplice  possibile,  con  il  compressore  seguito  da  una  valvola.  La 
valvola è per ipotesi così vicina all'uscita del compressore da potersi effettivamente trascurare sia il 
gas compresso immagazzinato che l'inerzia del flusso, però al tempo stesso sufficientemente lontana 
da  non  subire  campi  di  flusso  asimmetrici  da  parte  di  compressore  e  valvola.  Tutta  l'inerzia  del 
condotto  di  afflusso  è  pure  assunta  trascurabile.  Un  qualsiasi  punto  "a"  di  funzionamento  sul 
diagramma risulta incondizionatamente stabile: considerata infatti ad esempio una piccola riduzione 
di flusso, questa conduce ad un aumento della pressione lungo la caratteristica del compressore e ad 
una diminuzione della stessa lungo la caratteristica di regolazione, in modo da accelerare il flusso che 
così aumenta finchè l'equilibrio originale viene ripristinato. Per una piccola variazione relativamente al 
punto  "b",  una  riduzione  di  portata  non  altera  sostanzialmente  l'incremento  di  pressione  dato  dal 
compressore, però la caduta di pressione nella valvola è considerevolmente ridotta, cosicchè il flusso 
si mantiene ancora stabile. Perfino nel punto "c" il flusso è stabile, perchè, come si può vedere, una 
piccola  riduzione  in  portata  produce  una  caduta  di  pressione  nella  valvola  più  grande  di  quella  del 
compressore, cosicchè il flusso viene di nuovo accelerato verso l'equilibrio originale.  

Il  punto  limite  per  la  stabilità  è  il  punto  "d",  dove  le  pendenze  delle  curve  del  compressore  e  della 
valvola  sono  le  stesse  e  perfino  una  piccola  riduzione  in  portata  può  iniziare  una  instabilità  che 
conduca allo stallo rotante. In mancanza di serbatoio non si può avere  immagazzinamento di massa 
ed  il  compressore  non  può  andare  in  stallo  nel  senso  di  causare  oscillazioni  di  flusso,  però  il  flusso 
collassa  e  si  riaggiusta  in  uno  stallo  rotante:  una  situazione  di  questo  tipo  è  talvolta  chiamata 
instabilità statica. 
Un sistema differente è mostrato in Fig. 41b, questa volta comprensivo di massa immagazzinata in un 
serbatoio,  ma  con  il  compressore  operante  in  un  condotto  molto  corto  cosicchè  l'inerzia  del  flusso 
tenda  a  zero.  Si  supponga  che  il  compressore  funzioni  nel  punto  "b"  e  che  avvenga  una  piccola 
riduzione di portata. La pressione del compressore diminuisce di poco, mentre la caduta di pressione 
della  valvola  è  sostanziale  e  sulla  base  di  una  stabilità  di  tipo  statico,  come  mostrato,  il  sistema 
dovrebbe essere stabile. Questo non è però il caso, a causa del gas immagazzinato nel serbatoio. 

Se il punto di funzionamento del compressore si muove transitoriamente leggermente a sinistra del 
punto "b", l'aumento di pressione non è più sufficiente a confinare il gas nel volume a disposizione, 
con  conseguente  accelerazione  del  fluido  all'indietro  attraverso  il  compressore,  ulteriormente 
riducendo la portata: il flusso è dunque instabile. Per la configurazione illustrata in Fig. 41b il punto di 
instabilità è al picco della curva caratteristica, per il quale tende a zero il gradiente: 

∂ ( p 2 − p1 )
=0 
∂m&

Nella realtà, per la maggior parte delle installazioni di compressori sono presenti sia effetti di inerzia 
per  il  fluido  che  volumi  in  cui  il  fluido  possa  essere  immagazzinato;  si  incontra  allora  una 
configurazione  più  simile  a  quella  illustrata  in  Fig.  41c,  per  la  quale  il  punto  di  instabilità  giace  alla 
sinistra del picco della curva caratteristica, senza però una corrispondente semplice espressione del 
caso. E’ possibile comunque mostrare, con una simulazione teorica, come il sistema divenga di fatto 
normalmente  instabile  solo  a  poca  distanza  a  sinistra  del  picco  della  caratteristica,  cosicchè  il  picco 
stesso possa fornire una conveniente approssimazione di lavoro per il punto di stallo o di pompaggio. 

In una configurazione di prova è possibile identificare separatamente i componenti del sistema, i più 
importanti dei quali, a parte compressore e valvola, sono l'inerzia del flusso nei condotti di entrata e 
uscita del compressore ed il volume del serbatoio di contenimento del gas compresso, come appunto 
illustrato  schematicamente  in  Fig.  41c.  In  configurazioni  fortemente  compattate,  come  la  turbina  a 
gas, non risulta più possibile una così semplice separazione dei componenti: i condotti sono ora così 
corti  che  l'inerzia  del  fluido  nel  compressore  stesso  può  avere  la  sua  importanza;  analogamente  la 
regione  in  cui  è  compressa  l'aria  può  richiedere  di  includere  anche  il  volume  del  condotto  e  del 
compressore.  Per  una  turbina  a  gas  la  valvola  è  sostituita  dalla  caduta  di  pressione  nel  sistema  di 
combustione  e  nell'espansore.  Nonostante  questi  problemi,  la  modellazione  di  un  sistema  reale 
mediante componenti discreti ha introdotto un proficuo modo di considerare il flusso.   

Comportamento di compressori centrifughi e assiali 

Lo stallo rotante fu per primo riscontrato in compressori centrifughi (nel 1945), ma da allora maggior 
interesse ed attività sono stati dedicati allo stallo di compressori assiali. Nei compressori centrifughi è 
possibile  funzionare  abbastanza  soddisfacentemente  in  presenza  di  stallo  rotante;  i  compressori 
centrifughi  possono  perfino  funzionare  con  stallo  axisimmetrico  nei  pressi  dei  punti  di  apice 
dell'inducer o con stallo stazionario non axisimmetrico prodotto da asimmetria a valle, in particolare 
dalla  voluta.  Questa  tolleranza  nei  confronti  di  regioni  in  stallo  è  largamente  dovuta  al  fatto  che  la 
maggior parte dell'incremento di pressione è prodotto da effetti centrifughi che hanno luogo anche in 
presenza di celle di stallo rotante o di altre forme di flusso separato.  

Margine di pompaggio 

Esistono  molte  incertezze  relativamente  a  stallo  e  pompaggio;  le  più  importanti  sono  comunque 
quelle  associate  alle  condizioni  operative:  distorsione  all'ingresso  (anche  transitoria);  variazioni 
transitorie  di  carico  (ad  esempio  quando  la  turbina  a  gas  viene  accelerata);  variazioni  transitorie  di 
geometria  (come  variazioni  dei  giochi  radiali  e  assiali  a  seguito  di  cambiamenti  in  velocità);  e  danni 
meccanici  al  compressore,  includendo  erosione  delle  palette  ed  effetti  legati  all'ingestione  di  grossi 
corpi estranei. 

Per tener conto di queste incertezze è d'uso definire una quantità nota come margine di pompaggio 
(anche  se  il  compressore  può  non  entrare  in  pompaggio  ma  in  stallo  rotante,  è  convenzione  far 
riferimento a margine di pompaggio e linea  di pompaggio  sulla  mappa operativa del  compressore). 
Esitono diversi modi di definire il margine di pompaggio, ma uno dei più semplici è quello illustrato in 
Fig. 42, con margine di pompaggio definito dalla seguente espressione: 

PRS − PRW
SM =                                                                                                           
PRW

dove PRW è il rapporto di compressione sulla linea di lavoro per una data velocità di rotazione e PRS è 
il  rapporto  di  compressione  sulla  linea  di  pompaggio  per  lo  stesso  valore  di  portata  della  linea  di 
lavoro. Ad esempio, in un compressore multistadio ad uso turbogetto è prassi insistere su un margine 
di pompaggio pari a circa il 25 %.  

                                         
Fig. 42 Curva caratteristica di un compressore e definizione di margine di pompaggio 

 
Conseguentemente  alla  definizione  data,  la  velocità  corretta  risulterà  però  più  alta  per  i  punti  sulla 
linea  di  pompaggio  che  non  per  quelli  sulla  linea  di  lavoro.  Se  il  funzionamento  è  a  valor  fisso  di 
velocità sarebbe più appropriato definire un margine di pompaggio in termini di portata in ingresso 
sulla  linea  di  lavoro  e  sulla  linea  di  pompaggio  per  lo  stesso  valore  della  velocità  corretta.  Secondo 
questo  criterio  si  otterrebero  però  formule  più  complesse,  per  cui  alla  fine  risulta  comodo  agire 
direttamente sui valori numerici dettati dall’esperienza. 

Per  un  dato  compressore  il  margine  di  pompaggio  può  essere  arbitrariamente  aumentato 
semplicemente abbassando la linea di lavoro, cioé riducendo il rapporto di compressione. In pratica 
questo non è molto attraente, perché riduce la grandezza più qualificante per in compressore, che è 
appunto  il  suo  rapporto  di  compressione.  Il  margine  di  pompaggio  necessario  può  essere  ridotto 
garantendo minor distorsione all'ingresso del compressore e richiedendo che ogni innalzamento della 
linea di lavoro durante i transitori, come un'accelerazione del motore, debba essere piccolo. Sviluppi 
nel campo dell'aerodinamica, nel senso di un miglioramento della palettatura, possono consentire un 
innalzamento della linea di pompaggio, come pure miglioramenti meccanici come riduzione dei giochi 
radiali.  Speciali  peculiarità  di  tipo  progettuale,  come  particolari  finiture  superficiali,  possono  pure 
portare allo stesso risultato. 

Isteresi 

Molti compressori richiedono una portata molto più grande per uscire dallo stallo di quanto non fosse 
al  momento  in  cui  lo  stallo  si  era  originariamente  manifestato.  Questo  effetto  viene  solitamente 
chiamato isteresi e può divenire un problema operativo serio per compressori che abbiano una certa 
probabilità di finire in stallo.  

La presenza dell'isteresi causa ulteriori complicazioni in compressori multistadio in quanto fa sì che la 
curva caratteristica rapporto di compressione‐portata non sia più unica. Se, ad esempio, si manifesta 
uno stallo rotante nei primi stadi con compressore ruotante a bassa velocità, è possibile che lo stallo 
si mantenga fino alla velocità di progetto se il compressore viene accelerato lungo una linea di lavoro 
alta. Viceversa, se l'accelerazione ha luogo lungo una linea di lavoro più bassa, allora lo stallo rotante 
potrebbe anche scomparire. 

Instabilità e formazione di stallo 

Predire  la  condizione  in  cui  si  avrà  instabilità  in  un  compressore  è  parte  essenziale  nel  processo  di 
progettazione ed in generale con instabilità si intenderà la presenza di stallo, anche se rimane inteso 
che si potrà avere sia stallo che pompaggio.  
L'argomento  presenta  una  certa  confusione  in  quanto  con  il  termine  stallo  si  comprendono  più 
significati,  che  vanno  da  uno  stallo  rotante  completamente  sviluppato  ad  un  transitorio 
fluidodinamico che è indice di inizio pompaggio oppure ad uno stadio con flusso in condizioni di totale 
separazione. 

Risulta  da  comune  esperienza  come  i  compressori  possano  spesso  lavorare  abbastanza 
soddisfacentemente  con  regioni  estese  di  flusso  separato  e  che  l'apparire  di  separazione  (spesso 
chiamata stallo) per una fila di palette non sia necessariamente indicazione di imminente instabilità o 
stallo.  La  confusione  può  divenire  ancora  maggiore  perchè  il  comportamento  di  una  fila  o  di  uno 
stadio  può  essere  abbastanza  diverso  se  preso  singolarmente  oppure  se  considerato  parte  di  un 
completo compressore multistadio. Molti compressori assiali operano in determinate condizioni con 
stadi  mal  combinati  così  che  alcuni  stadi  si  trovano  a  funzionare  ad  una  portata  adimensionale  più 
bassa ed altri ad una più alta rispetto ai valori di progetto. Gli stadi a bassi valori di portata presentano 
spesso larghe regioni di flusso separato e sarebbero incapaci di operare in modo indipendente senza 
entrare  in  stallo  rotante.  L'accoppiamento  degli  stadi  può  mantenere  l'intera  macchina  fuori  dallo 
stallo finché l'intero compressore non venga interessato da instabilità.  

La prestazione di un compressore, particolarmente se assiale, può essere seriamente influenzata da 
distorsione, cioé non uniformità, del flusso in ingresso. La distorsione può essere in pressione statica o 
in  temperatura  di  ristagno,  ma  più  comunemente  in  pressione  di  ristagno.  Tali  distorsioni  spesso 
accadono naturamente a causa di un non soddisfacente ingresso o a causa di effetti operativi, come 
presenza  di  venti  laterali  per  le  prese  d'aria  di  un  motore  d'aereo.  Molto  spesso  la  distorsione  è  di 
carattere  transitorio,  per  esempio  quando  un  colpo  di  vento  interessa  una  presa  d'aria;  è 
generalmente  riconosciuto  come  una  distorsione  abbia  poco  o  nessun  effetto  a  meno  che  essa 
persista  per  almeno  un  giro  di  rotore.  Se  essa  persiste  per  un  tempo  più  lungo,  allora  viene 
normalmente  trattata  come  quasi  stazionaria,  cioé  il  processo  è  lungo  in  relazione  al  tempo  di 
passaggio delle palette rotoriche. La forma della distorsione è normalmente non uniforme sia in senso 
circonferenziale  che  in  senso  radiale,  anche  se  sembra  che  la  distorsione  circonferenziale  sia  la  più 
seria (la distorsione radiale può in talune circostanze portare ad un miglioramento nella prestazione, 
compreso un aumento del margine di sicurezza al pompaggio).   

Attualmente il metodo più affidabile per determinare il punto di stallo o pompaggio è quello di usare 
informazioni  ottenute  o  sperimentalmente  o  da  macchine  similari.  Solo  quando  un  progetto  è 
radicalmente  diverso  da  un  predecessore,  allora  questo  non  potrà  fornire  la  più  accurata  delle 
previsioni e sarà magari necessario far riferimento a trattazioni teoriche.      

3.7 Classificazione degli espansori o turbine 

Anche  nel  caso  delle  macchine  a  fluido  incomprimibile  si  può  parlare  di  macchine  volumetriche, 
centripete  o  assiali.  Di  queste,  le  prime  (cioè  in  sostanza  le  motrici  a  vapore)  sono  praticamente 
scomparse, le centripete sono praticamente solo a gas mentre le assiali sono a gas oppure a vapore, 
seppure con diverse caratteristiche. 

La  scelta  del  tipo  più  adatto  di  compressore  può  essere  fatta,  in  accordo  con  la  teoria  della 
similitudine, sulla base ad esempio del diagramma di Balje (rielaborazione del diagramma di Cordier), 
cioè del diametro specifico ∆ (o DS) in funzione della velocità specifica Ω, come appare in Fig. 43. 

                              
 

Fig. 43 Diagramma per la scelta degli espansori  

Nel diagramma di Fig. 43 sono indicate anche le curve di isorendimento, come pure le linee indicanti il 
grado di reazione (Rs), che aumenta con la velocità specifica, ed il rapporto altezza di paletta diametro 
(h/D). 

Curva caratteristica di una turbina 

Per una turbina è significativo il paragone con il comportamento di un ugello; come si è visto, infatti, 
per un dato ugello e con prefissate condizioni di ingresso, esiste un massimo per la portata massica 
che non può essere superato, comunque bassa sia la pressione allo scarico. L'ugello è detto essere in 
condizioni di choke. 

L'equazione che rappresenta la legge di prestazione dell'ugello: 

⎛p ⎞
G = ρ 0 a0 A ⋅ f ⎜⎜ 1 ⎟⎟  
⎝ p0 ⎠
può essere scritta anche nel modo seguente: 

Ga0 ⎛p ⎞
2
= f ⎜⎜ 1 ; γ ⎟⎟  
p0 D ⎝ p0 ⎠

dove ρ0a0 è stato ora sostituito con γp0/a0 e At con D2. 

In  una  turbomacchina,  come  appunto  una  turbina,  si  deve  poi  tener  conto  di  un'altra  variabile 
indipendente, la velocità angolare N. 

In definitiva si ha la seguente espressione per al legge di prestazione (che può confrontarsi con quella 
già vista a proposito del compressore): 

Ga0 ⎛p ND ⎞
= f ⎜⎜ 1 ; γ ; ⎟                                                                                                      
p0 D 2
⎝ p0 a0 ⎟⎠

In analogia con l'ugello, la turbomacchina, per valori sufficientemente piccoli del rapporto p1/p0 (cioè 
sufficientemente  grandi  del  rapporto  di  espansione  β=p0/p1)  andrà  in  choke  (saturazione),  cioè  il 
coefficiente  di  portata  massica  così  definito  tenderà  ad  un  valore  costante.  In  una  turbomacchina 
multistadio  il  valore  del  rapporto  critico  delle  pressioni  (per  il  quale  si  va  in  saturazione)  risulta 
ovviamente molto più piccolo che in un ugello (in quanto il rapporto p1/p0 di ciascuno stadio è molto 
più grande del rapporto totale ed è il singolo stadio che va in saturazione). 

Per  una  turbina  multistadio  vale  approssimativamente  la  cosiddetta  legge  dell'ellisse  (già 
sperimentata a suo tempo da Stodola per le turbine a vapore), che può essere definita nel seguente 
modo: 

2 2
Ga0 ⎛p ⎞ ⎛1⎞
= B 1 − ⎜⎜ 1 ⎟⎟ = B 1 − ⎜⎜ ⎟⎟                                                                                                              
⎝β ⎠
2
p0 D ⎝ p0 ⎠
dove B è una costante adimensionale. 

                                                
Fig. 44 Portata massica in una turbina (rapportata alla portata in saturazione) 
in funzione del rapporto di espansione 

La  Fig.  44  rappresenta  la  legge  di  prestazione  di  una  turbina  (con  portata  riferita  alla  portata  in 
saturazione)  ed  approssimativamente  la  legge  dell'ellisse,  anche  se  a  rigore  tale  equazione  sarebbe 
valida  solo  finchè  p1=p0  (dopo  di  che  la  portata  diverrebbe  costante).  Siccome  solitamente  pt<<p0, 
l'errore che si commette supponendo valida l'equazione scritta è alla fine trascurabile. Si noti infine 
come nell'equazione dell'ellisse non intervenga la velocità di rotazione. Le deviazioni nei confronti di 
casi reali sono nell'ordine del 10 %. 

Grado di reazione 

Secondo  la  definizione  classica,  il  grado  di  reazione  è  dato  dal  rapporto  tra  salto  entalpico  nella 
girante e salto entalpico totale, cioè: 

χ=
∆h g
=
h1 − h2 w − w + u −u (
= 2 2 2 1 2 1 2 2 2   
2 2
) ( 2 2
)
∆htot ⎛ V ⎞
2
⎜ h0 + 0 ⎟ − h2
V1 + w2 − w1 + u 1 −u 2 ( ) ( )
⎜ 2 ⎠⎟

Nell’espressione scritta si è assunta per definizione trascurabile l’energia cinetica in uscita. 

Il grado di reazione risulta così compreso tra i due limiti: 
2 2
u1 − u 2
χ min = Lim χ =
w2 → w1 1
V1 + u1 − u 2( 2 2
)        e 
χ max = Lim χ = 1  
V1 →0

che corrispondono il primo ad una macchina ad azione ed il secondo ad una macchina a reazione pura 
(con portata che tende però a zero). 

Per una macchina assiale si ha in particolare: 
2 2
u1 − u 2
=0 
2

per cui: 
2 2
w2 − w1
χ = χ ax = 2
(
V1 + w2 − w1
2 2

con i due casi limite: 

χ min = Lim χ = 0         e 


w2 → w1

χ max = Lim χ = 1  
V1 →0

Il grado di reazione non dipende dal tipo di trasformazione che avviene in turbina; infatti la velocità in 
uscita dal distributore (ugello) data da: 

V1 = 2(h0 − h1 ) + V0   
2

può essere ottenuta al limite da una espansione da condizioni di quiete (con V0 = 0) oppure da una 
semplice  deviazione  della  velocità  V0  (con  h0  –  h1  =  0).  Sono  quindi  solo  i  triangoli  delle  velocità  a 
stabilirne il valore, senza distinzione tra stadi iniziali, intermedi o finali. 

Rendimenti 

Risulta  più  chiaro  rappresentare  l’espansione  in  un  piano  h‐s,  partendo  in  generale  dalle  seguenti 
espressioni: 
2 2
V − V2
L = (h1 − h2 ) + 1  
2
2 2 2 2 2 2
V1 − V2 w − w1 u − u2
L= + 2 + 1  
2 2 2
2 2 2 2
w2 − w1 u − u2
h1 − h2 = + 1  
2 2

dove l’ultima equazione è ottenuta per sottrazione della prima dalla seconda. 

L’ultima espressione comunque non è altro che la conservazione dell’energia scritta in un riferimento 
relativo; in essa non compare il lavoro trasferito all’esterno in quanto girante e sistema ruotano allo 
stesso modo (e quindi sono fermi nel moto relativo), annullando di conseguenza qualsiasi possibilità 
di compiere lavoro. 

In  generale  (con  espansione  sia  nel  distributore  che  nella  girante  e  quindi  con  un  generico  stadio  a 
reazione) la trasformazione avviene come mostrato in Fig. 45). 

Con la definizione di lavoro adiabatico come rappresentata, il rendimento adiabatico vale: 
L
η ad =   
Lad

                                      
Fig. 45 Rappresentazione di espansione in turbina a reazione 

Nel  caso  di  stadio  ad  azione,  siccome  non  si  ha  espansione  nella  girante,  i  punti  1  e  2  di  Fig.  45 
vengono  a  coincidere  (e  di  conseguenza  p1  =  p2  ed  anche  w2  =  w1)  e  l’espansione  può  essere 
rappresentata come in Fig. 46, con la stessa definizione di rendimento. 
 

                                        
Fig. 46 Rappresentazione di espansione in turbina ad azione 

Rapporto caratteristico 

Il rapporto caratteristico u/V1 vincola tra di loro le due velocità: 

D
u = ωR = ω      e 
2
V1 = 2 ⋅ ∆hd + V0  
2

la  prima  legata  alla  geometria  ed  al  regime  di  rotazione  della  macchina  e  la  seconda  legata 
all’espansione che avviene nel distributore. Dalla definizione di grado di reazione: 
2
V1
∆h g ∆htot − 2

χ= = 2 = 1 − V1  
∆htot ∆htot 2 ∆htot

da cui è possibile ricavare il valore del salto entalpico elaborabile: 
2
V1 u2
∆htot = =  
2(1 − χ ) ⎛u ⎞
2

2(1 − χ )⎜⎜ ⎟⎟
⎝ V1 ⎠

Da  questa  relazione  si  vede  come,  fissato  un  valore  massimo  per  la  u  (legato  alla  resistenza  del 
materiale), il salto entalpico elaborabile viene individuato scegliendo χ e u/V1. 

Turbina centripeta 

Le  turbine  centripete  sono  solitamente  usate  in  impianti  di  modesta  potenza:  esse  sono  simili 
ovviamente ad un compressore centrifugo, ma con il flusso invertito, cioè diretto dalla periferia verso 
il  centro,  e  con  il  distributore  al  posto  del  diffusore.  La  turbina  centripeta  (proprio  perchè  può 
regolare  il  distributore)  mantiene  rendimenti  elevati  pur  in  condizioni  di  funzionamento  lontane  da 
quelle di progetto (contrariamente alle turbine assiali, più difficili da regolare) ed anche se realizzata 
con dimensioni molto contenute. 

Risulta inoltre più robusta e meno costosa della turbina assiale, per cui trova più frequente impiego 
nel campo della trazione stradale e ferroviaria. 

Un esempio di turbina centripeta è illustrato in Fig. 47. 
 

                                               

 
Fig. 47 Turbina centripeta radiale 

Turbina assiale 

Una  turbina  assiale  è  normalmente  costituita  da  un  numero  più  o  meno  elevato  di  stadi,  ciascuno 
composto  da  uno  statore  (distributore)  e  da  un  rotore  (ruota  o  girante).  Quando  il  salto  entalpico 
viene  elaborato  interamente  nello  statore  il  salto  entalpico  è  ad  azione;  quando  invece  viene 
elaborato parte nello statore e parte nel rotore lo stadio è a reazione. 

A  seconda  del  fluido  di  lavoro,  gli  espansori  vengono  poi  meglio  specificati  come  turbine  a  vapore 
oppure  come  turbine  a  gas.  Queste  due  classi  di  macchine  presentano  caratteristiche  abbastanza 
diverse in quanto i due fluidi, già di per sé diversi, si trovano a lavorare in condizioni di pressione e 
temperatura non paragonabili, per non parlare dei grossi salti entalpici che entrano in gioco quando si 
tratta  di  vapor  d’acqua.  Turbine  a  vapore  e  turbine  a  gas  verranno  quindi  trattate  più  in  dettaglio 
quando viste nel contesto più ampio del ciclo termodinamico in cui vengono ad operare. 

Le  Figg.  48  e  49  che  seguono  mostrano  rispettivamente  un  esempio  di  turbina  a  gas  e  di  turbina  a 
vapore. 

                                    
Fig. 48 Girante di turbina a gas assiale   
                                    

Fig. 49 Montaggio di turbina a vapore a due cilindri  

 
 

4. RISORSE ENERGETICHE E TECNOLOGIE DI CONVERSIONE 

4.1 Il fabbisogno di energia 

Sviluppo industriale e miglioramento nella qualità della vita sono fortemente dipendenti da una
abbondante disponibilità di energia relativamente a basso costo. La dipendenza da solo lavoro manuale
posizionerebbe una nazione nella classe delle società più primitive.
L’energia può quindi essere vista al riguardo come un fattore di moltiplicazione che aumenta
grandemente la capacità dell’uomo a trasformare materia prima in prodotti utili ed a provvedere una
grande varietà di servizi essenziali.
L’energia totale consumata annualmente in un paese è una misura del livello raggiunto dall’economia
nazionale e tale energia ha mantenuto negli anni una tendenza generale alla crescita, interrotta solo
durante gli anni della depressione (anni ’30) e nei primi anni della decade ’70, quando furono adottate
misure per la conservazione dell’energia. Per parecchie decadi, la produzione di energia elettrica (in
particolare negli U.S.A.) si è essenzialmente duplicata ogni dieci anni, con aumento dei consumi
praticamente in ogni settore dell’economia (domestica, commerciale e industriale), indicando in tal
modo un continuo miglioramento nella produttività di una nazione.
Vari tipi di centrali per la produzione di energia si sono così sviluppati negli anni, anche in maniera
disordinata e non molto rispettosa dell’ambiente; oggi, con restrizioni in termini di inquinamento, si
comincia a cercare di influenzare anche in grado elevato il progetto, la dislocazione e la conduzione di
virtualmente tutte le centrali di potenza.
 

4.2 Classificazione dei sistemi di conversione dell’energia 

Potenza  può  essere  prodotta  mediante  diversi  sistemi  di  conversione  dell’energia,  i  più  importanti  dei  quali 
sono riportati nello schema che segue: 

1.  Termici 
a) Impianti a vapore (motrici alternative, turbine a vapore) 
b) Motori alternativi a combustione interna 
c) Motori alternativi a combustione esterna 
d) Turbine a gas 
 

2. Idroelettrici
a) Fiumi come sorgente d’acqua
b) Maree come sorgente d’acqua

3.  Vento 
 

4.  Conversione diretta di energia 
a) Celle a combustibile 
b) Fotovoltaica 
c) Termica (magnetoidrodinamica, termoionica, termoelettrica)  
 

In generale, impianti di potenza di tipo commerciale e industriale sono progettati e condotti in modo da essere 
conformi  al  principio  economico  di  raggiungere  un  accettabile  ritorno  per  l’investimento  effettuato.  In  altri 
termini, il costo totale, cioè i costi di capitale e di conduzione per la produzione di potenza, deve trovarsi in un 
campo  di  competitività,  anche  se  l’aspetto  economico  potrebbe  non  essere  la  considerazione  primaria  per 
impianti di potenza costruiti per speciali applicazioni.  

Potenza dal vento 
Attualmente, l’ammontare di potenza prodotta per mezzo del vento appare trascurabile. Nonostante diffusi a 
livello mondiale per parecchi secoli, gli impianti per la produzione di potenza dal vento erano di scopo limitato 
e confinato ad installazioni di piccola potenza. 

Attualmente  si  costruiscono  turbine  con  potenze  fino  a  2.5  –  3  MW,  con  velocità  del  vento  mediamente 
comprese tra 20 e 50 km/h e velocità del rotore tra 30 e 40 rpm. Le pale sono previste a passo variabile per 
adeguarsi  alle  variabili  condizioni  operative  ed  hanno  lunghezze  che  di  solito  non  superano  i  40  m.  Il 
rendimento  globale  (energia  utile  rispetto  all’energia  cinetica  del  vento)  si  aggira  intorno  al  40  %,  con  un 
fattore di utilizzo (rapporto tra energia prodotta in un anno ed energia producibile alla massima potenza e per 
8760 ore all’anno) che normalmente si aggira intorno al 40 %. 

Come per l’energia solare, anche l’energia dal vento viene supportata dai vari Dipartimenti dell’Energia, perché 
energia  pulita  e  di  tipo  rinnovabile.  Entrambe  queste  energie  sono  disponibili  in  modo  intermittente  ed  in 
quantità variabile, in funzione della locazione geografica e delle condizioni locali. Mentre però l’energia solare 
può essere raccolta solo durante un periodo limitato di tempo durante il giorno, il vento può soffiare in ogni 
momento ed in talune località le più alte velocità sono riscontrate nei mesi invernali e primaverili 

A  causa  di  costi  e  limitati  impianti  per  l’immagazzinamento  dell’energia  prodotta,  gruppi  turbogeneratori  a 
vento  devono  essere  solitamente  integrati  con  esistenti  impianti  idro  o  termo  elettrici.  Esistendo  dunque  la 
tecnologia per poter realizzare queste macchine, la decisione di costruire su larga scala impianti con turbine a 
vento è legata alla convenienza economica, cioè al costo del kWh prodotto. Questo costo risulta alla fine essere 
più  alto  del  costo  di  produzione  dell’energia  elettrica  in  impianti  nucleari  o  a  carbone,  ma  più  basso  se 
confrontato con impianti ad energia solare. 

A causa dell’impatto ambientale esiste comunque opposizione alla costruzione di migliaia di turbine eoliche, a 
partire  principalmente  dall’aspetto  estetico  e  per  finire  con  problemi  di  interferenza  con  segnali  da 
trasmettitori TV e di rumore emesso a frequenze molto basse.    

Potenza dall’acqua 

Questo termine solitamente significa potenza generata da acqua fluente (da una diga, in un fiume o per effetto 
di maree). Il percorso che normalmente si segue per lo sviluppo di un impianto idroelettrico è di utilizzare la 
cascata esistente di un fiume per costruire una diga in un opportuno punto del fiume e creare di conseguenza 
un certo salto motore disponibile.  

L’energia potenziale di acqua immagazzinata è energia ad alto livello, nel senso che è energia completamente 
disponibile. Il tipo di turbina installata  in un particolare progetto sarà poi funzione del salto motore messo a 
disposizione, con rendimenti globali compresi tra 82 e 93 %. 

Un  impianto  idroelettrico  è  in  generale  un  sistema  di  conversione  dell’energia  ad  alta  efficienza.  Non  esiste 
inquinamento  dell’ambiente,  anche  se  obiezioni  possono  essere  portate  all’eventuale  allagamento  di 
appezzamenti di terreno di valore o di aree sceniche. 

Decidere  se  una  particolare  installazione  idroelettrica  sia  economicamente  competitiva  con  impianti  a 
combustibile  fossile  o  nucleare  risulta  dipendente  da  un  certo  numero  di  fattori,  in  particolare  costi  di 
combustibile  e  di  costruzione  dell’impianto.  In  numerosi  casi,  un  impianto  idroelettrico  è  chiaramente 
economicamente superiore rispetto ad un equivalente impianto termoelettrico. Purtroppo la maggior parte dei 
siti importanti per potenza di tipo idroelettrico sono ormai sfruttati e rimangono solo scarse opportunità, per 
piccole potenze (mini turbine, con potenze fino a 5 MW) o per recupero di impianti smessi, comunque sempre 
di potenza limitata. 

Per quanto riguarda lo sfruttamento delle maree, qualche impianto è stato realizzato (ad esempio in Francia, a 
La Rance) per sfruttare riempimento e svuotamento di bacini, con maree che variano da 6 a 14 m; il costo delle 
opere edili incide però parecchio, in quanto si devono costruire dighe della lunghezza di parecchie centinaia di 
metri.  Per  lo  sfruttamento  infine  delle  correnti  oceaniche  e  di  vari  effetti  mare  motori è  invece  al  momento 
ancora  difficile  prevederne  la  convenienza  economica,  anche  se  come  confronto  si  prendono  altre  fonti  non 
convenzionali di energia, come solare, eolica o geotermica. 

Potenza dal vapore 

La motrice a vapore è divenuta una importante fonte di potenza verso la fine del 18esimo secolo (dal
1764) e di conseguenza l’industria correlata ha avuto pieno successo nel mantenere un programma
continuo di sviluppo ed espansione. La motrice a vapore, pur sostanzialmente migliorata, è stata poi
sostituita da altri tipi di macchine, principalmente dalla turbina a vapore, introdotta alla fine del
19esimo secolo (dal 1880). Anche i macchinari per la produzione del vapore sono avanzati dal
semplice bollitore agli attuali generatori di vapore, altamente complessi e di enormi dimensioni.
La turbina a vapore, con le sue generalmente superiori caratteristiche, ha sostituito in fretta la motrice a
vapore, particolarmente in accoppiamento con generatori elettrici. Nel suo secolo abbondante di
esistenza, miglioramenti nel progetto e nelle procedure operative hanno contribuito ad un
sostanzialmente continuo aumento nel rendimento degli impianti termoelettrici a vapore, aumento che
si è riscontrato nella tendenza verso il basso ad esempio dei consumi di carbone in questi impianti.

Motori a combustione interna


Il primo motore a combustione interna di un qualche significato commerciale fu costruito nel 1876, del
tipo ad accensione per fiamma o per candela. Lo sviluppo di questo primo impianto ha prodotto il
leggero ed efficiente motore a benzina che ha trovato così larga applicazione nel campo del trasporto su
strada. Il motore Diesel è stato introdotto alcuni anni più tardi ed opera con un combustibile a base
petrolio. In generale, i pesanti e lenti motori Diesel sono impiegati in generatori stazionari di potenza e
nella propulsione marina. Attualmente comunque esistono motori Diesel a media ed alta velocità, usati
nel trasporto sia su gomma che su rotaia.

Turbine a gas
Il  primo  impianto  di  turbina  a  gas  fu  costruito  nel  1903,  ma  a  causa  della  limitazioni  imposte  dal  basso 
rendimento  del  compressore  e  dalla  insufficiente  qualità  dei  materiali  disponibili  per  resistere  agli  effetti 
dell’alta  temperatura,  questa  macchina  non  è  stata  in  grado  di  produrre  lavoro  utile.  A  seguito  dei 
miglioramenti  tecnologici,  queste  limitazioni  sono  state  nel  tempo  largamente  superate  e  lo  sviluppo  della 
turbina  a  gas  è  proceduto  velocemente,  soprattutto  nella  categoria  dei  motori  ad  uso  aeronautico,  dove  ha 
sostituito  il  motore  alternativo  a  combustione  interna  per  la  propulsione  di  grandi  e  medio  grandi  aerei. 
Attualmente, i relativamente nuovi motori di turbina a gas vengono usati, oltre che per la propulsione aerea, 
anche  per  generare  energia  elettrica,  per  la  propulsione  navale  e  per  trainare  macchine  industriali. 
Contrariamente  alle  prime  ottimistiche  previsioni,  la  turbina  a  gas,  per  un  certo  numero  di  motivi,  non  è 
riuscita a penetrare nel campo dell’automobile. 
 

Potenza dal nucleare 

Dopo la prima fissione dell’atomo di uranio nel 1939, anche la generazione di potenza attraverso una reazione 
controllata di fissione è diventata una possibile realtà. Gli attuali impianti di potenza nucleare sono dei motori 
termici e l’energia rilasciata nel cuore del reattore è trasferita come calore direttamente al fluido di lavoro, o ad 
fluido intermedio e quindi al fluido di lavoro. Il fluido di lavoro è solitamente acqua (poi espansa come vapore 
in un convenzionale turbogeneratore), mentre sodio liquido, acqua pressurizzata o elio gassoso possono essere 
impiegati  come  fluido  intermedio.  Il  reattore  tipo  breeder,  che  produce  tanto,  o  più,  combustibile  quanto 
consuma,  ha  ricevuto  considerevole  attenzione  a  causa  delle  sue  superiori  caratteristiche,  anche  se  forti 
opposizioni  alla  costruzione  di  impianti  nucleari  di  questo  tipo  si  sono  sviluppate  a  causa  dai  maggiori  costi 
iniziali e del rischio potenziale nell’uso del plutonio. 

Dagli anni ’90 decine di impianti sono stati costruiti con singole potenze installate anche maggiori di
1000 MW. Il futuro dell’energia nucleare è in qualche modo incerto in attesa che siano risolti aspetti
quali sicurezza operativa d’impianto e destinazione dei rifiuti a lungo termine. Comunque, l’energia
nucleare continua ad offrire una delle forme meno inquinanti disponibili per generazione di potenza
elettrica su larga scala.
 

4.3 Combustibili 

La  maggior  parte  dei  combustibili  usati  oggi  sono  di  origine  fossile  o  nucleare;  ad  essi  vanno  poi  aggiunti 
combustibili come biomasse, combustibili non naturali e combustibili derivati da rifiuti. 

Combustibili fossili 

I combustibili fossili non appartengono alle fonti rinnovabili: una volta consumati non possono essere
sostituiti e di conseguenza essi esistono in depositi di capacità limitata. Essi si trovano in natura nelle
tre fasi della materia: solida (carbone), liquida (petrolio) e gassosa (gas naturale).

Combustibili solidi
Il carbone è rimasto il combustibile dominante a causa della sua abbondante reperibilità in molti paesi.
In Canada, ad esempio, la provincia dell’Ontario ha avuto una rapida crescita negli anni ’60 e ’70 con
una grossa richiesta di potenza, tanto che è stata costruita una stazione che, con le sue otto unità da 500
MW, rimane tuttora il più largo impianto operativo alimentato a carbone esistente al mondo.
La maggior parte del carbone è estratta meccanicamente e, dopo pulizia e classificazione, bruciata in
centrali di potenza situate vicino alla miniera oppure trasportata per essere consumata altrove.
Dal punto di vista dell’inquinamento ambientale, il contenuto di zolfo e la forma sotto cui si presenta in
un combustibile sono importanti caratteristiche. Inizialmente, durante la combustione, lo zolfo viene
ossidato prima a biossido e poi in parte a triossido.
Quest’ultimo composto si combina con vapor d’acqua condensato nei gas al camino per formare acido
solforico a bassa concentrazione. Corrosione alle superfici di scambio può essere evitata mantenendo la
temperatura superficiale al di sopra del punto di rugiada del gas.
La temperatura del punto di rugiada del gas comunque aumenta con l’aumentare del contenuto di zolfo
nel combustibile, che quindi a sua volta influenzerà la temperatura minima alla quale le superfici di
scambio possono essere mantenute.
Lo scarico di ossidi di zolfo nell’atmosfera circostante è limitato da misure di controllo
dell’inquinamento dell’aria, un fattore di cui si deve tener conto nella selezione del combustibile.
Bruciare un carbone a basso contenuto di zolfo risulta vantaggioso dal punto di vista della
minimizzazione dell’inquinamento atmosferico, sebbene altre caratteristiche del combustibile possano
creare problemi in termini di difficoltà operative.
Altre due possibilità esistono comunque per l’utilizzo del carbone, anche se ancora in fase abbastanza
sperimentale: un metodo prevede la gassificazione sotterranea del carbone, mentre l’altro effettua la
conversione di carbone in combustibile liquido o gassoso.
L’utilizzo commerciale di questi due metodi dipende ancora dalla soluzione di numerosi problemi di
natura sostanzialmente tecnica, anche se l’aspetto della competitività in termini economici è quello
sicuramente preponderante.

Combustibili liquidi
I combustibili liquidi in commercio sono prodotti principalmente dal petrolio, liquido che si incontra in
natura e che consiste principalmente in una miscela di vari idrocarburi, con piccole quantità di zolfo,
azoto, ossigeno ed anche presenza di ceneri.
L’olio crudo è comunemente classificato in base al tipo di residuo che rimane da una non distruttiva
distillazione. La distillazione frazionata di olio crudo produce, secondo punti di ebollizione crescenti:
benzina, kerosene, olio combustibile e olio lubrificante. Il taglio di olio combustibile provvede alla
maggior parte di combustibile per motori Diesel, di olio per fornaci ed il materiale grezzo di cracking
per la preparazione delle benzine. Gli oli combustibili pesanti usati per la generazione del vapore sono
normalmente oli residui dai processi di cracking.

Combustibili gassosi
Vari combustibili gassosi sono reperibili per uso industriale e domestico. In confronto con i
combustibili solidi e liquidi, un combustibile gassoso è meno difficile da maneggiare ed il processo di
combustione è relativamente libero da problemi operativi. Le caratteristiche della fase gassosa pongono
però limiti ad una conveniente commercializzazione di alcuni di questi combustibili (ad esempio
problemi di trasporto o di immagazzinamento in grandi quantità).
Il gas naturale è alla lunga il più importante combustibile gassoso. Le tubazioni di gas naturale si
estendono per centinaia di chilometri dai campi di produzione alle aree per un mercato industriale o
domestico. Compressori sistemati nelle stazioni di pompaggio lungo le linee provvedono all’aumento
di pressione necessario per compensare alle perdite di carico lungo la linea. In parecchi casi si fa
ricorso a stoccaggio di gas naturale in caverne o pozzi in disuso.
Il gas naturale è pure trasportato in forma liquefatta (LNG) in serbat