Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Il potere calorifico superiore (Hs) è la quantità di calore che si rende disponibile per effetto della
combustione completa a pressione costante della massa unitaria del combustibile, quando i prodotti
della combustione siano riportati alla temperatura iniziale del combustibile e del comburente. Per i
combustibili liquidi l'unità di misura usualmente addottata per la massa è il kg mentre per i
combustibili gassosi si fa riferimento al metro cubo in condizioni normali cioè alla massa di gas
combustibile secco contenuta in 1 m3 quando la sua temperatura sia O°C e la pressione sia 760 mmHg
(1,013 bar). Se, nel riportare i prodotti della combustione alla temperatura iniziale di combustibile e
comburente, il vapore d'acqua contenuto nei gas di combustione e ottenuto dalla combustione
dell'idrogeno del combustibile non viene condensato e non rilascia quindi il proprio calore di
condensazione, la quantità di calore complessivamente resa disponibile è minore, e si definisce pertanto
potere calorifico inferiore (Hi) "il potere calorifico superiore diminuito del calore di condensazione
del vapore d'acqua durante la combustione". Il vapore d'acqua non viene condensato nei processi di
combustione in un motore quindi è al potere calorifico inferiore che si fa riferimento. La
determinazione del potere calorifico si può ottenere col calcolo in base all'analisi elementare del
combustibile, oppure direttamente mediante l'uso di appositi strumenti calorimetrici. Nel primo caso si
determina la massa degli elementi combustibili, carbonio (C), idrogeno (H), zolfo (S) contenuta in un
chilogrammo di combustibile mediante l'analisi chimica elementare, quindi si valuta l'apporto di calore
fornito da ciascuno di essi e si sommano i risultati. Sapendo che, ad esempio, 1 kg di carbonio sviluppa
nella combustione 8.130 kcal e che 1 kg di idrogeno sviluppa 34.500 kcal, se si ha un olio combustibile
con un tenore di carbonio dell'85,5% in massa (cioè 0,855 kg per kg di olio), e di idrogeno dell'11,5%
(cioè 0,115 kg per kg di olio), detti KG comb, KGC, KGH2 le masse espresse in kg di combustibile e
rispettivamente di carbonio e idrogeno contenuti, il suo potere calorifico superiore sarà:
Rugosità
Igrometro
L'igrometro é uno strumento che misura l'umidità relativa dell'aria, ovvero il rapporto tra l'umidità
assoluta, definita come la quantità di vapore acqueo presente nell'atmosfera in un dato istante, e
l'umidità di saturazione, cioè la quantità massima di vapore acqueo che può essere presente ad una data
temperatura e pressione. Entrambe si esprimono in termini di peso del vapore acqueo per unità di
volume (kg/m3). Il genere più comune di igrometro è l'igrometro a capello, anche se i modelli
commerciali usano sistemi diversi. Uno strumento analogo, l'igrografo, misura la variazione
dell'umidità in un dato intervallo di tempo.
1° Legge di Ohm
La legge di Ohm, che prende nome dal fisico Georg Ohm che l'ha enunciata, afferma che la differenza
di potenziale V ai capi di un conduttore ad una data temperatura T è proporzionale alla corrente elettrica
I che lo attraversa per mezzo di una quantità costante e tipica del conduttore detta resistenza, R:
e quindi
I dispositivi per i quali la legge è soddisfatta sono detti resistori ideali o ohmici; tuttavia, per ragioni
storiche, si continua ad attribuire all'enunciato il rango di legge. Si noti che la legge di Ohm esprime
unicamente la relazione di linearità fra la corrente elettrica I e la differenza di potenziale V applicata.
L'equazione indicata è semplicemente una forma dell'espressione che definisce il concetto di resistenza
ed è valida per tutti i dispositivi conduttori.
Formalismo matematico
Sappiamo che la densità di corrente è proporzionale al campo elettrico tramite la:
Scrivendo la corrente elettrica come integrale della sua densità di corrente, si ottiene:
Si supponga ora σ costante, E perpendicolare alla superficie S ovvero parallelo a da, e di modulo
costante. In questo semplice caso si ottiene:
dove A è l'area della sezione di conduttore attraversato dalla carica elettrica e d la lunghezza del
conduttore.
v(t) = Vmsin(ωt + φ)
i(t) = Imsin(ωt + φ)
dove Vm,Im sono le grandezze effettive, ω è la pulsazione e φ la fase. Ognuno dei componenti passivi
resistenza, capacità e induttanza hanno una forma analoga alla legge di Ohm, premettendo di
considerare le grandezze come complesse:
VR = RI
VL = jωLI
ZR = RI è l'impedenza resistiva;
ZL = jωL impedenza induttiva;
impedenza capacitiva;
è in generale un numero complesso. I circuiti in corrente alternata usano questo tipo di formalismo
perché molto elegante e immediato, in definitiva la legge di Ohm e tutte le leggi quali Teorema di
Norton, thevenin e Millman hanno analoghe forme per circuiti in corrente alternata.
Resistività elettrica
Da Wikipedia, l'enciclopedia libera.
La resistività ρ, la cui unità di misura nel sistema internazionale è ohm per metro, è data da:
dove:
dove:
Nei semiconduttori
Nei superconduttori
Alcuni materiali, detti superconduttori, quando vengono portati a temperature sufficientemente basse ,
assumono un resistività uguale a zero.
Resistività comuni
Nella seguente tabella sono riportate le resistività caratteristiche di alcuni materiali alla temperatura di
20°. (10-6 Ωm = Ω·mm²/m)
Nickelcromo
1.50 × 10-6
(Una lega di nichel e cromo usata negli elementi riscaldanti)
Nitinol
0.80 × 10-6
(Una lega a memoria di forma a base di nichel e titanio)
Carbonio 35 × 10-6
Germanio 0.46
Silicio 640
Zolfo 1015
Osservando la tabella si può intuire perché il rame è ampiamente usato per realizzare linee elettriche.
L'argento è leggermente migliore ma decisamente più costoso.
Unità di misura
L'unità di misura della resistività è l'ohmxmetro (Ω x m)
Carburatore
Da Wikipedia, l'enciclopedia libera.
Il carburatore è una parte meccanica del motore a combustione interna ad accensione comandata che
si occupa di preparare la miscela di aria e carburante da immettere nella camera di combustione. Il
carburatore è l'elemento principale dell'insieme denominato sistema di alimentazione dei motori a c.i. .
I carburatori spesso sono però costituiti, oltre che dal condotto principale, dal altri condotti secondari e
ulteriori ingressi carburante con diversi calibri. Tutto per migliorare e adattare il rapporto
stechiometrico in funzione della richiesta delle diverse entità di rotazione del motore. Questi problemi
sono stati per lo più risolti dall'introduzione dell'iniezione elettronica che grazie ad un controllo
software ed apposito hardware riesce a modificare il rapporto stechiometrico all'istante.
Il carburatore viene congiunto con il gruppo termico grazie al collettore d'aspirazione che rappresenta
un prolungamento ideale del condotto principale. Per garantire l'ingresso di aria pulita e preservare la
durata del motore viene applicato un apposito sistema filtrante dal lato dell'apirazione del condotto.
Questi filtri hanno però l'inconveniente di limitare l'ingresso di aria fresca e per questo nei vecchi
motori da competizione o elaborati sono presenti filtri speciali che consentono l'ingresso di un flusso
maggiore di aria; in modo più spartano il filtro viene eliminato del tutto.
Sistemi filtranti, carburatore, e collettori d'aspirazione sono i componenti del sistema d'alimentazione
del motore a scoppio
Si ricorda che per facilitare l'ingresso ed il transito della massa d'aria il condotto deve essere
opportunamente conformato.
Spesso per aumentare le prestazioni di un motore a scoppio si riccorre alla sostituzione del carburatore
con uno dalle caratteristiche diverse da quelle prevista dall'assemblatore originale del motore, e questa
operazione ha come conseguenza anche l'inevitabile incremento di consumo di carburante.
Iniezione (motore)
Da Wikipedia, l'enciclopedia libera.
L'iniezione si pone in alternativa alla miscelazione per carburazione e si può distinguere in due
tipologie diverse: l'iniezione indiretta e l'iniezione diretta.
L'iniezione si realizza tramite l'iniettore. Questo può essere unico e alimentare tutti i cilindri del motore
(iniezione single point) oppure ogni cilindro può essere dotato di un apposito iniettore (iniezione multi
point) posizionato nel condotto di aspirazione per i sistemi ad iniezione indiretta o affacciata
direttamente sulla camera di combustione per i sistemi ad iniezione diretta.
A sua volta il sistema d'iniezione indiretta multi point può essere fasato o non fasato a seconda che
l'iniezione avvenga solo in certe fasi del ciclo termico o sia continua.
Elettrodiesel
Da Wikipedia, l'enciclopedia libera.
Il motore elettrodiesel è un motore che combina un motore a combusione interna a ciclo Diesel con un
generatore elettrico, il quale a sua volta, alimenta uno più motori elettrici.
Questa particolare architettura viene adottata al fine di semplificare i meccanismi di trasmissione tra il
motore Diesel e le ruote di trazione.
Termocoppia
Da Wikipedia, l'enciclopedia libera.
Principio di funzionamento
Nel 1821 Thomas Johann Seebeck, un fisico di provenienza estone, scoprì che un conduttore elettrico
sottoposto ad un gradiente termico genera una differenza di potenziale. Questo fenomeno, chiamato
effetto Seebeck è sfruttato dalle termocoppie.
Una termocoppia è costituita da una coppia di conduttori elettrici di diverso materiale uniti tra loro in
due punti distinti, convenzionalmente denominati giunzione fredda e giunzione calda. È possibile
risalire alla differenza di temperatura esistente tra questi due punti misurando la differenza di
potenziale presente fra gli stessi. Se, anziché la differenza di temperatura, occorra misurare la
temperatura assoluta, una giunzione è mantenuta ad una temperatura fissa e nota. Essa prende allora il
nome di giunzione di riferimento, mentre l'altra è la giunzione di misura.
La relazione tra la differenza di temperatura e la differenza di potenziale prodotta non è lineare. Essa
può essere approssimata dalla seguente equazione polinomiale:
I valori an variano in relazione ai materiali utilizzati. A seconda della precisione desiderata, è possibile
scegliere n compreso tra 5 e 9.
Tipi di termocoppia
Esiste una grande varietà di termocoppie, distinguibili in base ai due conduttori elettrici che
compongono la giunzione ed al campo di applicazione (industriale, scientifico, alimentare, medico,
ecc.).
Sono termocoppie di uso generale, economiche e disponibili in una grande varità di formati. Il loro
intervallo di misura va da -200°C a 1260°C. La sensibilità è di circa 41 µV/°C.
Il loro intervallo di misura va da -40°C a 750 °C ed essendo più limitato del tipo K, le rende meno
diffuse di queste ultime. Sono utilizzate in vecchi apparati che non funzionano con il tipo K. Le
termocoppie tipo J sono caratterizzate da un basso costo ed una notevole sensibilità (51,7 µV/°C), ma
non possono essere utilizzate sopra i 760°C a causa di una transizione magnetica che fa perdere loro la
calibrazione.
Presentano caratterisitiche simili alle termocoppie in ferro/costantana (tipo J). Presentano una
sensibilità di 48,2 µV/°C. Utilizzabili nell'intervallo di temperature comprese tra -200°C e 400°C.
Hanno una elevata sensibilità (68 µV/°C) che le rende adatte ad applicazioni a bassa temperatura
(criogeniche). Sono inoltre amagnetiche.
L'intervallo di misura utile è compreso tra i 650°C e i 1250°C. La loro stabilità e la resistenza
all'ossidazione a caldo le rendono un ottimo sostituto a basso costo delle termocoppie a base di platino
(tipi B, R, S) per le misure di alta temperatura. Progettate per essere una evoluzione del tipo K, sono
oggigiorno sempre più popolari.
Le termocoppie B, R, S, sono tutte composte da metalli nobili ed hanno caratteristiche simili. Sono le
più stabili fra le termocoppie, ma la loro bassa sensibilità (10 µV/°C) ne limita l'uso a misure di alte
temperature (>300°C).
Adatte per alte temperature fino a 1600°C. Grazie alla loro particolare stabilità, sono utilizzate come
standard di calibrazione per il punto di fusione dell'oro (1064,43°C).
Le termocoppie vanno scelte in base all'intervallo di temperatura di lavoro del sistema ed all'ambiente
in cui devono operare (presenza di acidi, agenti chimici aggressivi ecc.). Si noti che le termocoppie con
resistività minore sono anche meno sensibili. Bisogna inoltre precisare che il range di misura utile delle
termocoppie può variare anche sensibilmente in funzione a come viene dimensionata la stessa.
Battito in testa
Da Wikipedia, l'enciclopedia libera.
Con l'espressione battito in testa si indica il caratteristico rumore provocato dall'esplosione anomala
della miscela combustibile nella camera di scoppio dei motori endotermici a benzina. Questo avviene
quando la miscela è sottoposta ad eccessive pressioni o temperature per cui esplode prima dell'innesco
da parte della candela.
Le cause possono essere diverse, ma specialmente un rapporto di compressione troppo alto oppure un
basso numero di ottano possono far insorgere il problema, che può portare a gravi avarie per il
propulsore, in particolare alla guarnizione della testata, ai pistoni, alle valvole di aspirazione e scarico e
ai supporti di banco.
Distribuzione (meccanica)
Da Wikipedia, l'enciclopedia libera.
Il complesso della distribuzione, o più semplicemente distribuzione è l'insieme degli organi meccanici
predisposti al controllo dei gas che entrano ed escono nei cilindri e comprende le valvole di scarico e di
aspirazione e i sistemi preposti al regolare funzionamento di esse, cioè l'albero a camme, le punterie, le
aste e i bilancieri quando presenti.
Il nome "desmodromico" deriva dalle parole greche "desmos"=controllata e "dromos"=corsa. Già dal
nome, quindi, si intuisce che si tratta di un sistema di distribuzione dove la corsa della valvola è
controllata sia durante la fase di apertura che in quella di chiusura.
È molto poco diffuso (produzioni di serie vengono fatte solo dall'italiana Ducati) in quanto si preferisce
l'utilizzo del meccanismo con ritorno a molla.
Nella distribuzione desmodromica la molla che fa rientrare la valvola chiudendo l'apertura del cilindro
viene tolta e viene usato un complesso meccanismo con due braccetti (bilancieri), collegati all'albero a
camme, che presenta oltre alla solita camma a forma di ovulo la camma complementare, comandando
la valvola sia in apertura che in chiusura.
Il vantaggio consiste nel fatto che si possono raggiungere regimi di rotazione più elevati rispetto ai
motori con molle senza tuttavia dover ricorrere al più complesso e molto costoso sistema a "valvole
pneumatiche, tecnologia di derivazione Formula 1, sperimentata di recente anche su una moto da gran
premio, la 4 cilindri 800 Ilmor del motorista tedesco (con passato in F1) Mario Illien.
Infatti, il limite dei motori con distribuzione tradizionale, ovvero con il ritorno - valvola a molla,
consiste nel fatto che ad elevati regimi di rotazione si manifestano fenomeni di sfarfallamento
(irregolare chiusura delle valvole, fuorigiri).
Non è, quindi, casuale l'utilizzo del sistema "desmo" in motori motociclistici, che raggiungono
tipicamente regimi superiori rispetto ai motori automobilistici.
Tipico della distribuzione desmodromica è il caratteristico rumore di "ferraglia". Uno svantaggio e' l'
obbligo, se si vogliono evitare serie conseguenze per gli organi meccanici, di periodiche revisioni. Ciò
a causa dell'elevata precisione che i meccanismi debbono mantenere. In passato, più volte si sono avute
applicazioni della distribuzione desmodromica nei motori da competizione.
Calore specifico
Da Wikipedia, l'enciclopedia libera.
Il calore specifico di una sostanza è definito come la quantità di calore necessaria per aumentare di 1
Kelvin la temperatura di un'unità di massa (generalmente un grammo o un chilogrammo) del materiale.
Una grandezza analoga è il calore specifico molare definito come la quantità di calore necessaria per
aumentare di 1 Kelvin (K) la temperatura di una mole di materiale. Esistono due modi per esprime il
calore specifico per lo stato aeriforme: il calore specifico a pressione costante, simboleggiato con Cp, e
il calore specifico a volume costante, Cv. Mentre per la materia in fase condensata Cp e Cv sono
praticamente coincidenti, per un aeriforme, invece, il calore specifico a pressione costante differisce da
quello a volume costante per il lavoro di espansione. Il teorema di equipartizione dell'energia permette
di calcolare agevolmente il calore specifico di un gas con comportamento ideale, su basi di meccanica
classica. La legge di legge di Dulong Petit stabilisce classicamente che il calore specifico molare di
tutti i solidi è lo stesso,indipendentemente dalla temperatura.
Il calore specifico dipende dalla natura chimica della sostanza considerata e dalla temperatura. Si può
ritenere costante solo per piccole variazioni di temperatura e lontanto dalle temperature di transizione
di fase. Brusche variazioni del calore specifico vengono infatti prese come indice di una transizione di
fase solido-liquido, liquido-vapore e anche transizioni cristalline o transizioni strutturali di una
molecola.
Anche se per scopi pratici questa definizione è sufficientemente precisa, dal punto di vista teorico, si
tratta solo di un'approssimazione poiché in realtà il calore specifico dipende dalla temperatura stessa.
Per una trattazione più rigorosa ci si può basare sulla capacità termica e definire il calore specifico
come la capacità termica per unità di massa.
Nel Sistema Internazionale l'unità di misura è il J/kg×K (nel Sistema tecnico kcal/kg°C).
L'acqua a 15°C ha un calore specifico di 1 cal/g x°C mentre l'alcol etilico 0.581cal/g x°C.
Calore specifico
Sostanza Stato
J·g-1·K-1
gas 2.020
Condizioni standard
se non indicato diversamente. Per i gas il valore dato corrisponde a cp
L'effetto Doppler
è un cambiamento apparente della frequenza o della lunghezza d'onda di un'onda percepita da un
osservatore che si trova in movimento rispetto alla sorgente delle onde. Per quelle onde che si
trasmettono in un mezzo, come le onde sonore, la velocità dell'osservatore e dell'emettitore vanno
considerate in relazione a quella del mezzo in cui sono trasmesse le onde. L'effetto Doppler totale può
quindi derivare dal moto di entrambi, ed ognuno di essi è analizzato separatamente.
Storia
L'effetto fu analizzato per la prima volta da Christian Andreas Doppler nel 1845. Procedette quindi a
verificare la sua analisi in un famoso esperimento: si piazzò accanto ai binari della ferrovia, e ascoltò il
suono emesso da un vagone pieno di musicisti, assoldati per l'occasione, mentre si avvicinava e poi
mentre si allontanava. Confermò che l'altezza del suono era più alta quando l'origine del suono si stava
avvicinando, e più bassa quando si stava allontanando, dell'ammontare predetto. Hippolyte Fizeau
scoprì indipendentemente lo stesso effetto nelle onde elettromagnetiche nel 1848 (in Francia, l'effetto è
a volte chiamato "effetto Doppler-Fizeau").
Spiegazione
È importante notare che la frequenza del suono emesso dalla sorgente non cambia. Per comprenderne il
funzionamento, consideriamo la seguente analogia: qualcuno lancia una palla ogni secondo nella nostra
direzione. Assumiamo che le palle viaggino con velocità costante. Se colui che le lancia è fermo,
riceveremo una palla ogni secondo. Ma, se si sta invece muovendo nella nostra direzione, ne
riceveremo un numero maggiore perché esse saranno meno spaziate. Al contrario, se si sta allontanando
ne riceveremo di meno. Ciò che cambia è quindi la lunghezza d'onda; come conseguenza, l'altezza del
suono percepito cambia.
Se una sorgente in movimento sta emettendo onde con una frequenza f0, allora un osservatore
stazionario (rispetto al mezzo di trasmissione) percepirà le onde con una frequenza f data da:
dove v è la velocità delle onde nel mezzo e vs, r è la velocità della sorgente rispetto al mezzo
(considerando solo la direzione che unisce sorgente ed osservatore), positiva se verso l'osservatore, e
negativa se nella direzione opposta).
Un'analisi simile per un osservatore in movimento e una sorgente stazionaria fornisce la frequenza
osservata (la velocità dell'osservatore è indicata come vo):
In generale, la frequenza osservata è data da:
dove vo è la velocità dell'osservatore, vs è la velocità della sorgente, vm è la velocità del mezzo, e tutte le
velocità sono positive se nella stessa direzione lungo cui si propaga l'onda, o negative se nella direzione
opposta.
Il primo tentativo di estendere l'analisi di Doppler alle onde luminose fu fatto poco dopo da Fizeau. Ma
le onde luminose non richiedono un mezzo per propagarsi, e un corretto trattamento dell'effetto
Doppler per la luce richiede l'uso della Relatività speciale. Vedi effetto Doppler relativistico.
Astronomia
L'effetto Doppler, applicato alle onde luminose, è fondamentale in astronomia. Interpretandolo come
dovuto ad un effettivo moto della sorgente (esistono anche interpretazioni alternative, ma meno
diffuse), è stato usato per misurare la velocità con cui stelle e galassie si stanno avvicinando o
allontanando da noi, per scoprire che una stella apparentemente singola è, in realtà, una stella binaria
con componenti molto vicine tra loro, e anche per misurare la velocità di rotazione di stelle e galassie.
L'uso dell'effetto Doppler in astronomia si basa sul fatto che lo spettro elettromagnetico emesso dagli
oggetti celesti non è continuo, ma mostra delle linee spettrali a frequenze ben definite, correlate con le
energie necessarie ad eccitare gli elettroni di vari elementi chimici. L'effetto Doppler è riconoscibile
quando le linee spettrali non si trovano alle frequenze ottenute in laboratorio, utilizzando una sorgente
stazionaria. La differenza in frequenza può essere tradotta direttamente in velocità utilizzando apposite
formule. Poiché i colori posti ai due estremi dello spettro visibile sono il blu (per lunghezze d'onda più
corte) e il rosso (per lunghezze d'onda più lunghe), l'effetto Doppler è spesso chiamato in astronomia
spostamento verso il rosso se diminuisce la frequenza della luce, e spostamento verso il blu se
l'aumenta.
L'effetto Doppler ha condotto allo sviluppo delle teorie sulla nascita ed evoluzione dell'Universo come
il Big Bang, basandosi sul sistematico spostamento verso il rosso mostrato da quasi tutte le galassie
esterne. Tale effetto è stato codificato nella legge di Hubble.
Radar
L'effetto Doppler è anche usato in alcune forme di radar per misurare la velocità degli oggetti rilevati.
Un fascio radar è lanciato contro un oggetto in movimento, per esempio un'automobile, nel caso dei
radar in dotazione alle forze di polizia di molti Paesi del mondo. Se l'oggetto si sta allontanando
dall'apparecchio radar, ogni onda di ritorno ha dovuto percorrere uno spazio maggiore della precedente
per raggiungere l'oggetto e tornare indietro, quindi lo spazio tra due onde successive si allunga, e la
frequenza delle onde radio cambia in modo misurabile. Usando le formule dell'effetto Doppler si può
risalire alla velocità dell'oggetto.
Legge 626
Da Wikipedia, l'enciclopedia libera.
La legge 626 è un decreto legislativo introdotto in Italia nel 1994 per regolamentare la sicurezza sui
luoghi di lavoro. Il decreto non fu il primo a regolamentare la sicurezza nei luoghi di lavoro ma una
norma che superò alcune legge precedenti dando una forma organica alle normative sulla sicurezza nei
luoghi di lavoro.
Edilizia
Di particolare importanza è il settore dell'edilizia dato l'elevato numero di infortuni sul lavoro che si
verificano nel settore. Nel campo delle costruzioni il decreto guida è il 494/96 e le varie norme
collegate. Per quanto riguarda i luoghi di lavoro in generale il decreto guida e' il 626/94. Per questo
quandi si parla di 626 si parla di sicurezza, perché è il decreto guida cioè quel decreto che é stato più
volte modificato con successive modificazioni ed integrazioni al fine di ottenere il testo unico sulla
sicurezza. In attesa del Testo Unico in materia recentemente apparso in bozza, la produzione normativa
riguardante l'igiene e la sicurezza sul lavoro è talmente vasta che è necessario mantenersi sempre
aggiornati e disporre di una base dati che consenta la consultazione di quanto può essere necessario per
adeguarsi alla disciplina in oggetto.
Stato attuale
un RSPP, Responsabile del Servizio di Prevenzione e Protezione. l'RSPP può essere il Datore di Lavoro stesso
per tutte le aziende che rientrano nell'articolo 10 della 626.
Il Datore di Lavoro che vuole assumere l'incarico di RSPP deve frequentare uno specifico corso di formazione
della durata di 16 ore presso una qualunque Società che è in grado di fornire tale servizio attraverso personale
qualificato.
Se invece il Datore di Lavoro non può o non vuole assumere tale incarico, dovrà rivolgersi ad una Società di
consulenza esterna per avere tale Servizio.
In tal caso un RSPP esterno sistemerà tutte le problematiche inerenti alla Sicurezza sul Lavoro e farà visita
all'azienda con cadenza almeno mensile.
Attenzione però: il Datore di Lavoro, pur prendendo un RSPP ESTERNO, è sempre il Responsabile della sua
Azienda, cioè è l'unico che verrà indagato penalmente in caso di incidente.
Se un professionista qualunque, che non sia il datore di lavoro, vuole abilitarsi come RSPP, deve frequentare un
corso suddiviso nei 3 moduli, A, B e C. Il modulo B ha durata variabile in base al settore di appartenenza
dell'azienda ("Macrosettore ATECO"). Complessivamente occorre frequentare almeno 60 ore di corso e si è
abilitati solo per essere RSPP nelle aziende appartenenti al Macrosettore che si è frequentato.
Materiale composito
Da Wikipedia, l'enciclopedia libera.
Un materiale composito è, nella sua accezione più generale, qualunque tipo di materiale caratterizzato
da una struttura non omogenea, costituita dall'insieme di due o più sostanze diverse, fisicamente
separate e dotate di proprietà differenti.
Nella pratica si attribuisce il nome di composito al materiale che risponde a queste caratteristiche:
• È costituito da una fase omogenea, detta matrice, che può essere costituita da
o una materia plastica (termoplastici come il nylon e l'ABS o termoindurenti come le
resine epossidiche) o le resina poliestere;
o un metallo (generalmente alluminio, o titanio e loro leghe, più raramente magnesio o
altri)
o un materiale ceramico, generalmente carburo di silicio o allumina
Nella grande maggioranza dei casi le matrici sono polimeriche perché garantiscono bassa densità (e
quindi leggerezza del materiale finale): hanno però il difetto di calare drasticamente le performances al
salire della temperatura.
• All'interno della matrice è dispersa (in varie modalità) una fase discontinua (generalmente
fibrosa, ma a volte anche particellare), detta rinforzo o carica, ed ha in genere il compito di
assicurare rigidezza e resistenza meccanica, assumendo su di sé la maggior parte del carico
esterno applicato al materiale. A questo scopo fondamentale è la cura dell'adesione interfacciale
tra fibre e matrice.
Le fibre più usate sono la fibra di vetro, la fibra di carbonio e le fibre aramidiche, come il kevlar, anche
se ne esistono numerose di altri tipi, tra cui anche ceramiche.
L'insieme di queste due parti costituisce un prodotto in grado di garantire proprietà meccaniche
elevatissime e massa volumica decisamente bassa: per questo motivo i compositi sono largamente usati
nelle applicazioni dove la leggerezza è cruciale, aeronautica in primis.
Il fatto che si utilizzino materiali fibrosi come rinforzo fa in modo che spesso i materiali compositi
presentino una spiccata anisotropia. Questa anisotropia non si riscontra (o per lo meno è molto minore)
nei compositi particellari, nella misura in cui dette particelle sono equiassiche. L'anisotropia, se
controllata, può costituire un vantaggio: il materiale viene rinforzato in quelle direzioni dove si sa verrà
caricato e dunque le prestazioni vengono ottimizzate (caso dei compositi a fibre lunghe o continue). Se,
invece, è dovuta a fenomeni più difficilmente controllabili (flusso plastico del materiale in uno stampo
ad esempio, caso dei compositi a fibre corte) diviene problematica perché l'orientazione delle direzioni
di massimo rinforzo difficilmente coincide con quella desiderata.
Applicazioni
Le proprietà maccaniche dei materiali compositi risultano in continua crescita e investono ormai tutti
quei settori della produzione dove è necessario soddisfare esigenze di basso peso ed elevate
caratteristiche meccaniche.
Le industrie aeronautica, navale e automobilistica fanno larghissimo uso di materiali compositi per la
costruzione di strutture alari, fusoliere, carrelli, barche, canoe, pannelli di carrozzeria, telai di formula
1, balestre, parti di motore e accessori vari.
Le industrie aerospaziale e bellica utilizzano questi materiali per componenti strutturali di stazioni di
lancio e di macchine semoventi nello spazio, oltre che per caschi e giubbotti antiproiettile.
Nel settore dello sport quesa tecnologia viene utilizzata per sci, bob, racchette da tennis, biciclette,
canne da pesca, aste per il salto in alto ecc.
In medicina si costruiscono protesi di ogni tipo.
Nel settore dell' impiantistica vengono impiegati per tubazioni e serbatoi.
I materiali compositi, per come vengono prodotti, costituiscono infine la base per la preparazione dei
cosiddetti materiali intelligenti (Smart Materials).
I materiali intelligenti si ottengono annegando all'interno del composto, in fase di costruzione, delle
fibre ottiche che, collegate ad un computer, costituiscono il sensore capace di trasformare i segnali in
funzione degli stati di sollecitazione e di deformazione presenti.
Un esempio applicativo di notevole interesse potrebbe essere il telaio di autovetture, costruito in
materiale composito intelligente, che può essere tenuto costantemente sotto controllo da un computer di
bordo. Con questo tipo di monitoraggio il pilota sarebbe in grado di valutare, in ogni momento,
l'efficienza della struttura e l'insorgere di situazioni pericolose.
I limiti che rallentano la diffusione su larga scala dei materiali compositi sono rappresentati dalla loro
scarsa resistenza superficiale all'usura e ai carichi concentrati e dall'elevato costo.
Saldatura TIG
La Saldatura TIG (Tungsten Inert Gas) o GTAW (Gas Tungsten Arc Welding), secondo la
terminologia AWS, è un procedimento di saldatura ad arco con elettrodo infusibile (di tungsteno), sotto
protezione di gas inerte, che può essere eseguito con o senza metallo di apporto. La saldatura TIG è uno
dei metodi più diffusi, fornisce giunti di elevata qualità, ma richiede operatori altamente specializzati.
Postazione per saldatura TIG. vedi nel testo il significato delle scritte
Il procedimento si basa su una torcia in cui è inserito l'elettrodo in tungsteno, attorno a cui fluisce il gas
di protezione che, attraverso un bocchello di materiale ceramico, è portato sul bagno di fusione.
L'operatore muove la torcia lungo il giunto per spostare il bagno di fusione, mentre, nel caso che sia
richiesto materiale d'apporto, contemporaneamente sposta la bacchetta del materiale in modo tale da
tenerla costantemente con l'estremità entro l'arco e comunque sotto la protezione del gas. L'attrezzatura
per effettuare una saldatura TIG quindi è composta da:
Uno dei principali vantaggi di questa tecnologia è che l'apporto di materiale nel bagno di saldatura è
indipendente dall'apporto termico nella saldatura, a differenza di quanto accade nelle saldature a filo o a
elettrodo consumabile. Questo procedimento può essere automatizzato, sotto questo aspetto è
largamente usato per la produzione di tubi saldati partendo da nastro metallico e per la saldatura dei
tubi alle piastre tubiere degli scambiatori di calore.
Il procedimento TIG è particolarmente indicato quando devono essere saldati piccoli spessori di
materiale, a partire da pochi decimi di mm, tuttavia non è possibile saldare spessori superiori a qualche
mm (2-3 mm per gli acciai) con una singola passata (perciò, in generale, non si usa per saldare spessori
superiori a 5-6 mm), quindi, considerando la bassa produttività, spesso viene usato per effettuare la
prima passata di un giunto, mentre il riempimento viene effettuato successivamente con procedimenti a
produttività più elevata. Date le sue caratteristiche il procedimento può essere utilizzato in qualsiasi
posizione e può essere usato per saldature continue o per saldature a punti. Non è consigliabile l'uso di
questo procedimento in luoghi aperti, dato che anche un vento leggero può disperdere il gas di
protezione.
Gli elettrodi
Gli elettrodi, dovendo essere di un materiale capace di resistere alle temperature dell'arco elettrico,
sono, ormai da molti anni solo in tungsteno o sue leghe, ai primordi di questa tecnologia (anni '40)
venivano usati anche elettrodi di grafite. Il tungsteno, oltre ad avere caratteristiche termiche
meccaniche miglieri, è preferito per il suo elevato potere termoelettrico (capacità di emettere elettroni
ad elevata temperatura), che stabilizza l'arco. Per aumentare il potere termoelettrico del W, talvolta gli
elettrodi sono legati con piccole percentuali (1-2%) di Th (elettrodi toriati).
Gli elettrodi possono essere trovati in commercio a diversi diametri da 0,25 a 6,4 mm. In genere sono
utilizzati in corrente continua (cc), polarità diretta (pd), cioè con il polo positivo sul pezzo. L'uso della
polarità inversa (pi), cioè con il polo negativo sul pezzo, è utilizzato per la saldatura di metalli leggeri
(Al e Mg) o quando è importante la stabilità dell'arco. Tuttavia, dato che la ccpi fornisce meno energia
al bagno, quindi richiede correnti d'arco più elevate, spesso è preferibile sostituirla con la saldatura in
corrente alternata (ca), che può essere simmetrica o dissimmetrica.
L'elettrodo, prima di essere utilizzato in ccpd, deve essere affilato perché la punta assuma una forma
conica, con un'altezza del cono circa 1,5 volte il diametro, in questo modo si aumenta la sua capacità di
emettere elettroni, quindi si ottiene un buon riscaldamento del bagno anche con correnti relativamente
basse. Invece in ccpi si deve tendere a far assumere all'elettrodo una forma piatta (e, naturalmente, per
questi usi si evita di usare elettrodi toriati), proprio per limitare l'emissione di elettroni, che
richiederebbero una maggiore tensione a parità di corrente d'arco.
I gas di protezione
Generalmente il gas di protezione viene immesso su entrambe le facce del giunto (naturalmente se
questo è accessibile su entrambi i lati), mentre sulla faccia dove si trova il bagno (al dritto) il gas è
portato direttamente dalla torcia, sull'altra faccia (al rovescio) viene insufflato in condizioni controllate,
in modo da assicurare una protezione dall'ossidazione anche alla radice della saldatura.
I gas usati più comunemente sono Ar o He, usati separatamente o in miscele. In alcune applicazioni
speciali vengono usate miscele di Ar con H. In genere si preferisce Ar puro alle altre soluzioni, per i
seguenti vantaggi:
L'He viene utilizzato per la saldatura di lamiere di forte spessore (maggiore conducibilità termica,
quindi maggiore penetrazione), viene usato in miscela con l'Ar per bilanciare le caratteristiche dei due
gas.
L'uso di H in miscela con Ar è limitato agli acciai austenitici ed alle leghe a base di Ni, a causa dei
danni metallurgici che potrebbe portare agli acciai ferritici (cricche a freddo). Il limite pratico di
concentrazione dell'H nell'Ar è di circa l'8%, anche se sono state usate miscele con 1/3 H e 2/3 Ar. La
presenza di H nel gas di protezione aumenta l'energia trasferita dall'arco nel materiale da saldare,
inoltre l'H agisce come materiale riducente, inibendo la formazione di ossidi e quindi lasciando
superfici di saldatura molto pulite. Per questi motivi viene usato (quasi esclusivamente in saldatura
automatica) per saldatura di tubi per impianti chimici o nucleari o di tubi a piastre tubiere.
Le portate di gas di protezione devono essere stabilite dal tecnico di saldatura, basandosi soprattutto
sulla propria esperienza e su prove finalizzate al particolare lavoro ed alla particolare geometria.
Un difetto relativemente frequente nelle saldature TIG è la mancanza di protezione che può essere sia
al dritto sia al rovescio. La mancanza di protezione si manifesta come fiorette, cioè con spot circolari
ossidati sul materiale. Questi difetti possono essere evitati effettuando prove appropriate prima di
effettuare la saldatura.
Altri difetti riscontrabili in queste saldature sono porosità, mancanze di fusione o cricche, questi difetti
devono essere evitati effettuando accurate prove di qulifica del procedimento.
Saldatura MIG/MAG
La saldatura MIG (Metal-arc Inert Gas) o MAG (Metal-arc Active Gas) (l'unica differenza fra le due
è il gas che viene usato per la protezione del bagno di saldatura), indicate entrambe nella terminologia
AWS come GMAW (Gas Metal Arc Welding - Saldatura ad arco con metallo sotto protezione di gas),
è un procedimento di saldatura sviluppato dopo la Seconda Guerra Mondiale che ha assunto un peso, in
termini di prodotto saldato per anno, sempre crescente. Uno dei principali motivi che hanno permesso
questo sviluppo è stata la riduzione dei costi nei prodotti di elettronica, per cui sono state sviluppate
macchine per saldatura semiautomatiche a costi accessibili anche per ditte di dimensioni medio-piccole
(il costo attuale - 2006 - di una macchina MIG/MAG nuova è poco meno di 10000 EUR).
1. Torcia con duplice funzione: far scoccare l'arco fra il filo ed il pezzo e portare il gas di
protezione sul bagno di saldatura
2. Pezzo da saldare
3. Generatore di corrente d'arco (nelle macchine moderne il controllo della caratteristica d'arco è
effettuato elettronicamente)
4. Meccanismo di avanzamento e controllo del filo
5. Aspo avvolgifilo
6. Bombola del gas di protezione
La presenza di tutti questi componenti, naturalmente, aumenta notevolmente il prezzo di una macchina
per saldatura MIG/MAG nei confronti di una macchina per saldatura a elettrodo (che, praticamente, è
poco più di un generatore di tensione con caratteristica cadente).
Aspo portafilo
Inoltre con i fili continui è possibile avere densità di corrente più elevate di quelle sopportabili dagli
elettrodi rivestiti (in questi ultimi una densità di corrente eccessiva provoca la fessurazione del
rivestimento, a causa dei coefficienti di dilatazione diversi fra anima metallica e rivestimento stesso),
quindi è possibile ottenere penetrazioni maggiori, cioè riempimento del giunto con un numero minore
di passate.
La saldatura MIG/MAG, come tutti i procedimenti a filo continuo, è un procedimento derivato dall'arco
sommerso, ma, nei confronti quest'ultimo, ha il vantaggio che l'operatore può tenere l'arco sotto
osservazione diretta, quindi può controllare l'esecuzione della saldatura come nei procedimenti a
elettrodo (elettrodo rivestito e TIG), altri vantaggi nei confronti dell'arco sommerso sono la mancata
formazione di scoria e la possibilità di saldare anche in posizioni non piane.
A fianco è riportato un spaccato di una torcia per saldatura MIG/MAG. Nello spaccato è possibile
individuare le parti principali che compongono la torcia:
1. Impugnatura
2. Isolante (in bianco) e inserto filettato per la guida del filo (in giallo)
3. Ugello per il gas di protezione
4. Pattino di contatto fra alimentazione elttrica e filo
5. Bocchello di alimentazione del gas di protezione
I gas di protezione
Il gas di protezione ha la funzione di impedire il contatto del bagno di fusione con l'atmosfera, quindi
deve essere portato sul bagno di fusione direttamente dalla torcia. Inzialmente il procedimento
prevedeva solo l'uso di Argon (gas inerte), quindi veniva usato solo per la saldatura di acciai
inossidabili austenitici, dato il costo elevato del gas di protezione. Successivamente si vide che
l'aggiunta di un gas ossidante (inizialmente Ossigeno e, successivamente, Anidride carbonica) non solo
permetteva una protezione analoga, ma aveva effetti favorevoli sul trasferimento di metallo dal filo al
bagno di fusione, quindi si diffuse la tecnica MAG, che utilizza un gas attivo per la protezione ed il
procedimento fu esteso anche alla saldatura di acciai al carbonio.
I gas di protezione inerti più utilizzati sono Ar ed He, entrambi sono gas monoatomici inerti, ma,
mentre l'Ar è più pesante dell'aria, quindi stagna sul bagno di fusione, garantendo una maggiore
protezione, l'He è più leggero dell'aria, quindi fornisce una protezione minore, tuttavia, avendo una
conduttività termica circa 10 volte quella dell'Ar, permette una penetrazione della saldatura maggiore.
Per questo motivo l'utilizzo di He è limitato a giunti di elevato spessore o a materiali aventi elevata
conducibilità termica (Cu o Al).Invece i gas attivi sono generalmente miscele di Ar e CO 2, con
l'anidride carbonica che, in casi estremi sostituisce l'Ar (comunque raramente viene usata in
percentuale superiore al 25%). La presenza di CO2 aumenta la stabilità di posizionamento dell'arco su
materiali ferromagnetici (acciai al carbonio o bassolegati). Inoltre la presenza di gas attivo permette
una maggiore penetrazione del giunto. D'altra parte la presenza di CO 2 provoca un aumento della
corrente necessaria per avere un trasferimento di metallo a spruzzo fra il filo ed il bagno, aumenta gli
schizzi (spatter)e diminuisce la stabilità elettrica dell'arco. Quindi per poter usare gas attivi con
trasferimento a spruzzo, generalmente si utilizza una corrente pulsata, cioè una corrente che presenta
picchi di intensità di durata e frequenza prestabilite, per avere un'immissione di energia continua, ma il
distacco della goccia metallica solo durante la fase ad alta intensità di corrente.
Corrente e tensione d'arco nel corso del trasferimento del metallo per corto circuito
Nel primo caso la corrente che percorre il filo non è abbastanza alta da portarlo alla temperatura di
fusione, quindi il filo viene a contatto con il bagno, provocando un corto circuito fra i due metalli che,
facendo aumentare la corrente, fonde l'estremità del filo, cioè il metallo non viene trasferito attraverso
l'arco. In genere la frequenza con cui avvengono i corti circuiti è mantenuta fra 20 e 200 per secondo.
In questo modo vengono generate una serie di piccole "pozzanghere" che solidificano velocemente,
data la temperatura relativamente bassa. Quindi questa modalità di trasferimento è particolarmente
adatta a saldature su piccoli spessori, saldature in posizione (verticale o sopratesta) o per chiudere
aperture formate in seguito a lavorazioni o riparazioni. In genere si evita di usare questa forma di
trasferimento, dato che provoca livelli molto alti di spatter.
Nel secondo caso il filo fonde in gocce con diametro superiore a quello dell'elettrodo, che vengono
trasferite nel bagno essenzialmente per effetto della forza di gravità, quindi questo metodo di
trasferimento può essere usato solo in posizione piana. Con questo metodo di trasferimento si deve
avere un arco abbastanza lungo per permettere alla goccia di cadere nel bagno senza provocare corti
circuiti, che, disintegrandola, provocherebbero spruzzi sul metallo adiacente.
Trasferimento di gocce di metallo in funzione della corrente (questo diagramma varia con metallo d'apporto,
diametro del filo e gas di protezione)
Nell'ultimo caso il filo fonde formando un gran numero di gocce di piccole dimensioni, con correnti più
alte di quelle richieste per il trasferimento a gocce. In questo modo si ottiene un trasferimento in un
arco molto stabile, praticamente privo di spatter. La corrente sopra la quale avviene questo tipo di
trasferimento è indicata conme corrente di transizione a spruzzo, sopra questa corrente la velocità di
trasferimento passa da poche gocce per secondo a 200-300 gocce per secondo. Dato che le dimensioni
delle gocce sono molto più piccole di quelle generate nel trasferimento a gocce, la forza di gravità è
inferiore alle forze elettriche provocate dall'arco, quindi questa modalità può essere usata (con
difficoltà) anche in posizioni diverse da quella orizzontale. Questa modalità di trasferimento,
richiedendo correnti elevate, e quindi un elevato apporto termico, non è consigliabile quando vengono
saldati piccoli spessori.
Per superare le difficoltà collegate all'elevato apporto termico che caratterizza il trasferimento a
spruzzo le macchine per saldare MIG/MAG sono state modificate in modo da lavorare con corrente
pulsata. In pratica la macchina genera per una certa percentuale (generalmente il 70%, ma può essere
aumentata o ridotta a seconda delle circostanze) del periodo (fissato sulla macchina) una corrente
inferiore alla corrente di transizione a spruzzo. In questa fase il filo si scalda, ma non produce gocce
che vengono trasferite, e contemporaneamente viene mantenuto l'arco che scalda il bagno di saldatura.
Dopo la pausa, la corrente viene innalzata (generalmente a gradino) ad un valore superiore a quello
della corrente di transizione, quindi per un certo tempo (qualche ms) trasferisce il filo nel bagno in
modalità a spruzzo. Nelle macchine di saldatura più moderne è possibile modificare la forma d'onda
(per esempio, gestendo la riduzione di corrente dopo il trasferimento a spruzzo). Questo modo di
impiego della macchina per saldare ha notevolmente ridotto la difficoltà di saldare con questa
tecnologia, ed il basso costo dei componenti elettronici ha permesso di contenere entro limiti accettabili
il costo delle macchine stesse.
I difetti geometrici più comuni sono la penetrazione eccessiva o gli intagli marginali (undercut),
entrambi sempre legati all'elevato apporto termico o, se l'apporto termico è troppo basso, il difetto
opposto, cioè la mancanza di fusione ai lembi o al core del cordone (quando la saldatura è ripresa al
rovescio). In condizioni di portata del gas di protezione troppo bassa è facile la formazione di porosità.
Saldabilit
Tipo di acciaio Note
à
Acciai al C 5
Acciai inossidabili
5
austenitici
Acciai inossidabili
2 Richiedono un preriscaldo, talvolta fino a 600°C
martensitici
Baricentro
Da Wikipedia, l'enciclopedia libera.
Centro di massa di un sistema di quattro punti di massa diversa
Il baricentro (chiamato anche centro di massa o centro d'inerzia) di un insieme di punti materiali è
definito come la media pesata della posizione dei punti, con peso pari alla sua massa di ciascun punto.
Per una massa che è distribuita in modo continuo su un volume V nello spazio con una densità
dipendente dalla posizione, le sommatorie sono sostituite da integrali:
La tensione di snervamento
(indicata di solito con σs) è il valore della sollecitazione alla quale è sottoposto un materiale per la quale
il comportamento passa dal tipo elastico al tipo plastico. Da un punto di vista microscopico al suo
raggiungimento parte il movimento delle dislocazioni già presenti.
Nella fase elastica il materiale, se scaricato della sollecitazione a cui è sottoposto, ritorna nelle
condizioni iniziali. Nella fase plastica il materiale, anche se scaricato, non ritorna più nelle condizioni
iniziali.
Lo snervamento è una caratteristica peculiare dei materiali metallici. Altri tipi di materiale, o non
presentano la fase plastica o, addirittura, come ad esempio quelli polimerici od il terreno, non
presentano la fase elastica (se non per un piccolo tratto).
Il valore della tensione di snervamento è facilmente desumibile dalla cosiddetta prova di trazione, in
cui un provino di forma normata, realizzato con il materiale da esaminare, viene sollecitato
esclusivamente a trazione. Il risultato di questa prova è detta curva caratteristica sforzo-deformazione
del materiale, da cui si può appunto ricavare la tensione di snervamento: convenzionalmente è pari al
valore che produce una deformazione permanente dello 0,2%.
Attrito
Da Wikipedia, l'enciclopedia libera.
L'attrito (o forza d'attrito) è la forza che si esercita tra due superfici a contatto tra loro e si oppone al
loro moto relativo. La forza d'attrito che si manifesta tra superfici in quiete tra loro è detta di attrito
statico, tra superfici in moto relativo si parla invece di attrito dinamico.
Grafico del valore della forza di attrito radente in funzione della forza applicata. Si noti il passaggio da attrito
statico ad attrito dinamico, coincidente con l'inizio del moto del corpo
(1)
Il coefficiente d'attrito è una grandezza adimensionale e dipende dai materiali delle due superfici a
contatto e dal modo in cui sono state lavorate. Il coefficiente di attrito statico µrs è sempre maggiore o
uguale al coefficiente d'attrito dinamico µrd per le medesime superfici. Dal punto di vista microscopico,
esso è dovuto alle forze di interazione tra gli atomi dei materiali a contatto.
La forza di attrito definita dall'eq. (1) rappresenta la forza di attrito massima che si manifesta nel
contatto tra due superfici. Se la forza di motrice Fm è minore di µrs Fp, allora l'attrito è pari a Fm e il
corpo non si muove; se Fm supera µrsFp, il corpo inizia a muoversi; per valori di F m ancora maggiori,
l'attrito (dinamico) è sempre costante e pari a µrd Fp.
Alcuni valori del coefficiente di attrito radente. Per una lista più completa si veda [1]
Superfici μrs (statico) μrd (dinamico)
Attrito volvente
L'attrito volvente si presenta quando un corpo cilindrico o una ruota rotola senza strisciare su una
determinata superficie. Il rotolamento è reso possibile dalla presenza di attrito radente tra la ruota e il
terreno; se questo attrito non ci fosse, o fosse minimo (come nel caso di un terreno ghiacciato), la ruota
striscerebbe senza riuscire a rotolare.
Se si applica un momento alla ruota, essa inizia a rotolare senza strisciare fintanto che il momento
applicato è minore di , dove R è il raggio della ruota. Se il momento supera questo
valore, la forza motrice applicata alla superficie della ruota supera l'attrito statico massimo e la ruota
slitta mentre rotola; è la classica "sgommata" ottenuta accelerando da fermi in modo repentino.
L'attrito volvente è determinato soprattutto dall'attrito sull'asse di rotazione della ruota e dall'area di
contatto tra la ruota e il terreno; è espresso da un'equazione simile alla (1),
(2)
Alcuni valori del coefficiente di attrito volvente. Per una lista più completa si veda [2]
Superfici μv
Attrito viscoso
Quando un corpo si muove all'interno di un fluido (liquido o gas) è soggetto ad una forza di attrito
dovuta all'interazione del corpo con le molecole del fluido.
Se il corpo si muove a bassa velocità, così che il flusso attorno ad esso possa essere considerato
laminare, allora la forza di attrito è proporzionale alla velocità del corpo nel fluido; nel caso di una
sfera, la forza di attrito è data in questo caso dalla legge di Stokes,
(3)
L'equazione (3) è valida se il flusso è laminare e non turbolento, ovvero quando il numero di Reynolds
è minore di 2000-2300. In tale caso l'attrito è dovuto soprattutto alla viscosità. Per una sfera di 1 cm di
raggio, il flusso è laminare se la sua velocità è minore di 0.2 m/sec in acqua e di 3 m/sec in aria (alla
pressione di un'atmosfera). Se la velocità del corpo è superiore, il moto inizia a diventare turbolento e
l'attrito (che diventa molto più grande) è soprattutto causato dalla dispersione di energia nei vortici del
fluido. In tale caso è possibile approssimare la forza di attrito con la formula
(4)
essendo ρ la densità del fluido, S l'area della sezione frontale del corpo e cx un coefficiente
aerodinamico di resistenza (adimensionale) che tiene conto della forma e del profilo del corpo in moto
nel fluido. I valori di cx riportati per una sfera variano tra 0.4 e 0.5, mentre può assumere valori
maggiori di 1 per oggetti di forma irregolare. Per un profilo alare cx può anche essere
significativamente minore di 0.1.
Controlli non distruttivi sono indagini sperimentali finalizzate alla identificazione e caratterizzazione
di discontinuità nel componente testato, che siano potenzialmente in grado di comprometterne le
prestazioni per le quali è stato progettato. Il punto comune alle tecniche di controllo non distruttivo è la
loro capacità di non influenzare in alcun modo le caratteristiche chimiche, fisiche e funzionali
dell'oggetto analizzato. Si usa spesso l'acronimo NDT, derivato dal termine inglese Non Destructive
Testing.
Tra le metodologie di controlli non distruttivi sono citabili, in riferimento alla UNI EN 473 le presenti
• PT - Liquidi penetranti, si basa sull'esaltazione della visibilità di difetti superficiali mediante contrasto
cromatico tra una sostanza liquida che penetra per capillarità nei difetti (penetrante) ed uno sfondo
(rivelatore)
• RT - Radiografia, comprendente i sistemi Raggi X e Raggi gamma
• UT - Ultrasuoni, tecnica che fa impiego di onde acustiche ad alta frequenza (nell'ordine dei MHz per i
materiali metallici, dei kHz per materiali più eterogenei quali quelli lapidei ed i conglomerati cementizi)
• ET - Correnti indotte, tipologia di controllo basato sullo studio della variazione di Impedenza di una
bobina in funzione del campo magnetico indotto
• VT - Visual test, sistema di controllo visivo
• MT - Flusso Magnetico, Verifica delle alterazioni di flusso del campo magnetico in prossimità della
superficie del particolare posto sotto esame
• AT - Emissione Acustica, sistema per l'identificazione di propagazione delle difettologie
• TIR - Termografia Infrarossa, analisi della risposta termica in presenza di discontinuità del materiale.
Le metodologie volumetriche possono essere divise fra metodologie per trasmissione e metodologie
per riflessione. I RT sono sempre per trasmissione, cioè devono attraversare tutto il pezzo per essere
rivelati sulla faccia opposta a quella da cui sono entrati. Gli UT possono essere effettuati per
trasmissione, nel caso di controlli particolari, utilizzando due sonde poste su due facce opposte
dell'oggetto, ma, generalmente, sono effettuati per riflessione. TIR e AT si basano sull'emissione di
energia da parte del pezzo in condizioni particolari, quindi devono essere classificati a parte. I vantaggi
dei metodi per trasmissione sono la minore attenuazione del segnale, che deve attraversare lo spessore
dell'oggetto solo una volta, tuttavia richiedono che entrambe le superfici dell'oggetto siano accessibili,
mentre i metodi per riflessione permettono che sia accessibile una sola superficie dell'oggetto. Le
metodologie di controllo superficiali, ovviamente, richiedono l'accessibilità della superficie su cui
vengono effettuati i controlli.
Differenza duttilità-malleabilità
La duttilità è una proprietà fisica della materia che indica la capacità di un corpo o di un materiale di
deformarsi sotto carico prima di giungere a rottura, ovvero la capacità di sopportare deformazioni
plastiche. Un corpo è tanto più duttile quanto maggiore è la deformazione raggiunta prima della rottura.
Proprietà opposta alla duttilità è la fragilità, ovvero l'incapacità di deformarsi sotto carico e giungere ad
improvvisa rottura (anche detta rottura fragile).
Tale proprietà è legata anche all'età del materiale e ai cicli di carico. In generale, essa tende a ridursi
con l'invecchiamento del materiale e con l'uso.
La malleabilità è una proprietà fisica della materia che indica la capacità di un corpo o di un materiale
(in perticolare di un metallo) di essere facilmente deformabile e riducibile in strati laminiformi sottili.
Il termine deriva dal latino "malleum", che vuol dire martello.
Inverter
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
• nei gruppi di continuità convertono la tensione fornita dalla batteria in corrente alternata;
• nell'industria sono usati per regolare la velocità dei motori elettrici;
• nella trasmissione di energia elettrica convertono l'energia in corrente continua trasferita in alcuni
elettrodotti per essere immessa nella rete in corrente alternata.
Il tipo più semplice di inverter consiste in un oscillatore che pilota un transistor, il quale aprendo e
chiudendo un circuito genera un'onda quadra. L'onda è quindi applicata ad un trasformatore che
fornisce all'uscita la tensione richiesta arrotondando in qualche misura l'onda quadra. Spesso al posto
del transistor comune sono utilizzati dispositivi più efficienti quali il MOSFET, il tiristore o l'IGBT.
La forma d'onda quadra generata da questi dispositivi ha il problema di essere ricca di armoniche
superiori, mentre l'onda sinusoidale della rete elettrica ne è priva. Ciò comporta una minore efficienza
delle apparecchiature alimentate, maggiore rumorosità sia sonora che elettrica, e seri problemi di
compatibilità elettromagnetica.
Inverter più complessi utilizzano diversi approcci per produrre in uscita una forma d'onda quanto più
possibile sinusoidale. Un circuito elettronico produce una tensione a gradini mediante modulazione di
ampiezza di impulso (PAM) quanto più possibile vicina ad una sinusoide. Il segnale, detto sinusoide
modificata, viene livellato da condensatori e induttori posti all'ingresso ed all'uscita del trasformatore
per sopprimere le armoniche. Gli inverter migliori e più costosi basano il loro funzionamento sulla
modulazione di larghezza di impulso (PWM). Il sistema può essere retroazionato in modo da fornire
una tensione in uscita stabile al variare di quella di ingresso. Per entrambi i tipi di modulazione la
qualità del segnale è determinato dal numero di bit impiegati. Si va da un minimo di 3 bit a un massimo
di 12 bit, in grado di descrivere con ottima approssimazione la sinusoide.
Nei motori asincroni e a maggiore ragione nei motori sincroni la velocità di rotazione è direttamente
legata alla frequenza della tensione di alimentazione. Ovunque sia necessario nell'industria variare la
velocità di un motore vengono usati inverter da corrente alternata a corrente alternata (CA-CA). In
questi sistemi la tensione in entrata viene dapprima convertita in corrente continua da un raddrizzatore
e livellata da condensatori, quindi applicata alla sezione di inversione. Lo scopo di questo doppia
operazione è unicamente quello di variare la frequenza a piacere entro un intervallo prestabilito e non è
necessaria la presenza di un trasformatore, poiché non è necessario variare il valore della tensione in
uscita che rimane uguale a quella in ingresso.
La frequenza di uscita è determinata nei casi più semplici da un segnale analogico fornito all'inverter
per esempio da un potenziometro, oppure da un segnale digitale inviato da un PLC.
Un inverter per immissione in rete: a sinistra gli ingressi di 2 stringhe, al centro l'uscita AC monofase
Si tratta di un tipo particolare di inverter progettato espressamente per convertire l'energia elettrica
sotto forma di corrente continua prodotta da modulo fotovoltaico, in corrente alternata da immettere
direttamente nella rete elettrica. Queste macchine estendono la funzione base di un inverter generico
con funzioni estremamente sofisticate e all'avanguardia, mediante l'impiego di particolari sistemi di
controllo software e hardware che consentono di estrarre dai pannelli solari, la massima potenza
disponibile in qualsiasi condizione metereologica. Questa funzione prende il nome di MPPT, un
acronimo di origine Inglese che sta per Maximum Power Point Tracker. I moduli fotovoltaici infatti,
hanno una curva caratteristica V/I tale che esiste un punto di lavoro ottimale, detto appunto Maximum
Power Point, dove è possibile estrarre tutta la potenza disponibile. Questo punto della caratteristica
varia continuamente in funzione del livello di radiazione solare che colpisce la superficie delle celle. E'
evidente che un inverter in grado di restare "agganciato" a questo punto, otterrà sempre la massima
potenza disponibile in qualsiasi condizione. Ci sono svariate tecniche di realizzazione della funzione
MPPT, che si differenziano per prestazioni dinamiche (tempo di assestamento) e accuratezza. Sebbene
la precisione dell'MPPT sia estremamente importante, il tempo di assestamento lo è, in taluni casi,
ancor più. Mentre tutti i produttori di inverter riescono ad ottenere grande precisione sull'MPPT
(tipicamente tra il 99-99,6% della massima disponibile), solo in pochi riescono ad unire precisione a
velocità. Sono infatti nelle giornate con nuvolosità variabile che si verificano sbalzi di potenza solare
ampi e repentini. E' molto comune rilevare variazioni da 100W/mq a 1000-1200W/mq in meno 2
secondi. In queste condizioni, che sono molto frequenti, un inverter con tempi di assestamento minori
di 5 secondi riesce a produrre fino al 15%-20% di energia in più di uno lento. Alcuni inverter
fotovoltaici sono dotati di stadi di potenza modulari, e alcuni sono addirittura dotati di un MPPT per
ogni stadio di potenza. In questo modo i produttori lasciano all'ingegneria di sistema la libertà di
configurare un funzionamento master/slave o a MPPT indipendenti. In genere l'impiego di MPPT
separati fa perdere qualche frazione di punto percentuale di rendimento elettrico medio della macchina,
che è costretta a funzionare a pieno regime anche con irraggiamento scarso. Tuttavia non è infrequente
che la superficie dei pannelli solari non possa essere esposta al sole uniformemente su tutto il campo
perché disposto su due diverse falde del tetto, oppure che i moduli non possano essere distribuiti su
stringhe di uguale lunghezza. In questo caso l'utilizzo di un solo MPPT porterebbe l'inverter a lavorare
fuori dal punto di massima potenza e conseguentemente la produzione di energia ne sarebbe
danneggiata. In genere la piccola perdita di efficienza elettrica introdotta da ingressi multipli viene
sempre compensata dalla maggiore efficacia degli MPPT indipendenti.
Nel primo, dell'aria spillata dal compressore viene immessa a circolare nelle palette cave, operando
quindi un raffreddamento dall interno
Nel Film Cooling la palettatura presenta dei piccoli forellini, direzionati in maniera assolutamente
calcolata, attraverso i quali dell'aria spillata da uno stadio di compressore (a pressione superiore a
quella dello stadio di turbina che andrà a raffreddare), che passa nella paletta cava raffreddandola
dall'interno, fuoriesce e segue una direzione che gli permette di essere aderente alla superficie della
lama e di creare uno strato (Film) che faccia da isolante tra i gas incandescendi e la superficie della
pala.
Legge di Stevino
Da Wikipedia, l'enciclopedia libera.
La legge di Stevino è uno dei principi fondamentali della statica dei fluidi. Venne enunciata da Simon
Stevin (1548-1620) nel suo trattato del 1586 De Beghinselen des Waterwichts dedicato all'idrostatica.
Afferma che la pressione esercitata da una colonna di fluido di altezza h (distanza dal pelo libero del
fluido, ossia la parte in alto nella colonnina aperta, a contatto con l'ambiente esterno) e densità costante
δ è direttamente proporzionale a h,
essendo l'accelerazione di gravità g = 9.8 m/sec²; se la superficie della colonna di liquido è esposta alla
pressione atmosferica PA allora la legge viene così modificata:
essendo PA = 101325 Pascal la pressione atmosferica standard.
dove rappresenta la forza di volume agente sul fluido, p è la pressione e ρ la densità. Nel caso di
un fluido fermo, la condizione di equilibrio è tradotta in , quindi:
Questa equazione significa che nel caso statico le forze di volume devono uguagliare le forze di
superficie. Se le forze cui è soggetto il fluido sono conservative allora la precedente equazione diventa:
dove U = ρgz + cost è l'energia potenziale dovuta alla forza di volume. L'equazione indica tralaltro, che
le superfici equipotenzali nel caso di fluido ideale sono anche superfici isobare. Supponendo che il
fluido sia incomprimibile (come nel caso dei liquidi):
p2 − p1 = ρg(z2 − z1)
Nel caso dell'acqua (δ=1000 kg/m³) la pressione aumenta di 9800 Pascal per ogni metro di profondità,
ovvero di circa 1 atmosfera ogni 10 metri di profondità. Nel caso dell'acqua, la pressione del liquido
eguaglia quella atmosferica ad una profondità critica di 10 metri:
Supposto il liquido omogeneo, la pressione idrostatica è in ogni suo punto interno direttamente
proporzionale alla distanza dalla superficie libera, alla densità del liquido e all'accelerazione di gravità.
A questa va sommata la pressione atmosferica alla superficie del liquido, che si trasmette in tutto il
fluido per il principio di Pascal. In forma differenziale, la legge diventa
dP = δgdu
Si deduce quindi che la differenza di pressione tra due punti di uno stesso liquido ad altezze diverse è
dato semplicemente dal prodotto del peso specifico per la loro distanza:
Trafilatura
Da Wikipedia, l'enciclopedia libera.
Il processo di trafilatura è un processo di formatura che induce un cambiamento nella forma del
grezzo di partenza attraverso la deformazione plastica dovuta all’azione di forze impresse da
attrezzature e matrici. La trafilatura realizza in continuo lunghi fili o barre, con una sezione circolare
oppure a profilo complesso con 3 o più lati. Le sue origini risalgono all’XI° secolo e la sua continua
evoluzione ha portato ad oltrepassare i limiti dimensionali progressivamente raggiunti.
Microtrafilatura
La crescita esponenziale del mercato mondiale di micro componenti richiede fili con un diametro
sempre inferiore e con ottime finiture e proprietà da impiegare nella realizzazione di componenti
elettronici e meccanici miniaturizzati. La trafilatura mirata alla produzione di microfili con un diametro
di pochi micrometri viene nominata microtrafilatura. Come il diametro dei fili anche i lati delle barre
possono essere di pochi micrometri, le quali prendono il nome di microfili a profilo complesso. Le
caratteristiche generali sopra dette rendono la trafilatura una tecnologia in grado di realizzare una
produzione di massa di microfili e quindi di soddisfare le nuove esigenze della miniaturizzazione. Ma il
passaggio dal macro al micromondo crea problemi anche alla trafilatura: le nuove dimensioni hanno
conseguenze nel comportamento del materiale, nel processo, nelle matrici, nella manipolazione, nelle
attrezzature e nei macchinari. I costi da sostenere per la produzione di microfili aumentano e sono
legati all’acquisto di nuovi impianti dedicati, alla Ricerca e Sviluppo (necessaria per raggiungere
l’ulteriore miniaturizzazione e la produzione industriale di massa dei nuovi prodotti), all’esigenza di un
filo di partenza di qualità superiore (più puro e con un’accuratezza superficiale e dimensionale
migliore) e di personale più qualificato.
Descrizione generale
Il processo di trafilatura possiede le stesse peculiarità viste più in generale nella formatura ossia è:
Paragonata alle altre tecniche di formatura massiva, la trafilatura è simile all’estrusione a differenza che
nell’estrusione il pezzo in lavorazione è sottoposto a forze di compressione mentre nella trafilatura a
forze di trazione e che nell’estrusione l’attrito si manifesta nella matrice e nel contenitore della
preforma di partenza invece nella trafilatura solo nella matrice; però entrambe sono tecniche di
deformazione senza superfici libere.
Prodotti di trafilatura
I fili metallici sono ampiamente impiegati nella realizzazione di tessiture e funi strutturali, cavi elettrici
e componenti elettronici, attrezzature mediche, strumenti musicali, prodotti orafi, materiale edile,
componenti metallici per i più svariati settori (automobili, giocattoli, giardinaggio, ecc.).
Nel macromondo le funi ottenute da più fili intrecciati o attorcigliati sono utilizzate nelle tensostrutture
negli ascensori, nelle reti da pesca, nel sollevamento speciale nei porti e nei cantieri, ecc.
Con i macro fili singoli si realizzano molle e ganci, viti, recinzioni, cesti, armature per cemento, fibre
per il calcestruzzo, fili per il taglio del marmo, per gli impianti elettrici, ecc.
Nel micromondo i microfili sono impiegati nel campo dell’elettronica, dei componenti IT (Information
Technology), dei micro sistemi elettro-meccanici (micro electro-mechanical systems MEMS) ma anche
in campo medico, automobilistico, delle telecomunicazioni e della radiofonia; vengono utilizzati sotto
forma di molle di contatto, spirali, viti, mandrini, punzoni, fili elettrici, schermature, cavi di segnale per
allarmi.
I fili metallici sono prevalentemente in rame, in leghe di rame, in acciaio, in leghe di nichel, in
alluminio e spesso sono rivestiti.
Il processo di trafilatura
In questo paragrafo vengono descritti i processi di trafilatura e di ricottura con i loro componenti, i
difetti e le rotture che possono verificarsi e gli adeguamenti osservati nella produzione di fili capillari
dal confronto tra la letteratura esistente sulla Trafilatura tradizionale e le realtà visitate di alcune
trafilerie di fili sottili e capillari. Nella lavorazione di trafilatura il filo subisce dei passaggi forzati
attraverso delle matrici (filiere) con dei fori di diametro progressivamente decrescente che ne riducono
la sezione. Il volume del filo rimane costante dal momento che la trafilatura è un processo senza
asportazione di materiale; con la riduzione diametrale ottengo l’incremento della sua lunghezza. Il filo
da lavorare viene fatto passare attraverso la prima filiera dopo aver subito una riduzione all’estremità
da infilare. Tale estremità è resa conica da un’operazione di swagging (Formatura a martellamento
rotante) oppure, nel caso di microfili, da una rottura a trazione in corrispondenza della zona di
strizione. Dopo il passaggio nella prima filiera, segue l’analogo inserimento in tutte le filiere
successive.
Più in generale i microfili hanno un diametro d di pochi micrometri. I fili più fini realizzati in Europa
presentano un diametro di 6 µm, sono in lega d’oro e vengono impiegati in componenti elettronici;
nella produzione industriale di massa i fili più sottili sono in rame ed hanno un diametro di 10 μm.
Per una trafilatura ottimale con una buona finitura ed accuratezza dimensionale nei fili, bisogna
selezionare accuratamente i parametri di processo, progettare adeguatamente il profilo delle filiere ed il
loro angolo, scegliere la riduzione per passo, il lubrificante e i materiali delle matrici e delle
attrezzature.
Il rapporto di riduzione ottimale per passo è inferiore a quello ideale ed è compreso tra il 10% e il 45%.
L’angolo e la riduzione per passo ideali si riducono, oltre che per la lavorazione di materiali duri, anche
per la produzione di microfili al fine di evitare una cattiva finitura superficiale, maggiori difficoltà di
lubrificazione e la possibile rottura. Quindi per ottenere il diametro desiderato si deve incrementare il
numero di passaggi progressivi. Per ridurre una vergella di 8 mm ad un filo di 2 mm di diametro si
operano una decina di passaggi attraverso filiere decrescenti. Invece per passare da un filo di 2 mm ad
uno sottile di 0,2 mm di diametro sono necessari una ventina di passaggi, da un filo di 1 mm ad uno
capillare di 0.1 mm una trentina.
Il filo è trainato da un cabestano finale e da più anelli di tiro posti tra una filiera e l’altra e compie due
o tre giri attorno ad ogni anello di tiro in rotazione per diminuire la tensione di trafilatura. Nel tratto che
va da una filiera all’altra, il filo è in trazione prima dell’anello e a riposo tra l’anello e la filiera
successiva. Grazie al moto degli anelli di tiro è possibile applicare la tensione back spiegata
precedentemente. Il cabestano finale è collocato dopo l’ultima filiera all’esterno della macchina
trafilatrice. Solitamente la velocità del cabestano di tiro è regolata in modo tale da avere uno
slittamento sugli anelli di tiro i quali trasmettono la tensione di trafilatura. La velocità del cabestano è
al massimo di 30 m/s per i fili sottili e capillari mentre arriva a 50 m/s per i fili con un diametro
maggiore. La temperatura del filo aumenta durante la lavorazione a causa dell’attrito, dello slittamento
sugli anelli e dell’elevata velocità a cui viene trafilato. L’uso di un lubrificante adeguato è
indispensabile per ridurre l’attrito, per attenuare il riscaldamento del filo, per diminuire l’usura delle
filiere e per evitare l’asportazione di materiale o del rivestimento dal filo.
In seguito ai molteplici passi di trafilatura, il filo incrudito subisce una ricottura per ripristinare le
proprietà meccaniche ed elettriche di partenza. I fili in acciaio per le corde degli strumenti musicali e le
molle sono gli unici ad essere sottoposti a trattamenti a caldo prima e dopo la lavorazione. Dopo la
ricottura avviene un raffreddamento in emulsione, seguito da un’asciugatura ad aria che predispone il
filo alla bobinatura.
Il bobinatore avvolge un filo o più fili insieme formando le bobine. Un ballerino/sensitivo pneumatico
o a peso si muove regolando la velocità di avvolgimento della bobina per mantenere la tensione del filo
costante. L’unico parametro monitorato in questa fase è la tensione del filo controllata con un
tensimetro. Per calcolare la tensione (N/mm²) di bobinatura da applicare si usa la formula
= d² · π/4 · n°fili · k
Successivamente i fili vengono sbobinati per andare a formare i cavi elettrici, le piattine per il
computer, le schermature oppure per ottenere, con un’ulteriore lavorazione, molle e spirali. Nella
creazione dei cavi elettrici i fili vengono attorcigliati mentre, per realizzare delle schermature contro i
disturbi elettrici, vengono disposti parallelamente (ad esempio 6-12 fili concentrici attorno a quello da
schermare) o anche intrecciati (ad esempio più gruppi di 4 fili paralleli intrecciati attorno ad un cavo). I
fili per tali applicazioni vengono avvolti con una bobinatura statica in bobine disposte verticalmente.
Invece le bobine dei fili che in seguito non devono subire delle torsioni sono in posizione
orizzontalmente per evitare di torcere i fili una volta arrivati ad una estremità; qui il braccio guidafilo
inverte la sua direzione di movimento ed i fili continuano ad avvolgersi senza torsione. Le bobine di
microfilo singolo possono servire a realizzare fili elettrici con schermature, molle ecc. Se il filo non è
sub-millimetrico può diventare un monofilo per gli impianti elettrici in Germania e nel Nord-Europa,
dove i fili elettrici sono rigidi al contrario di quelli flessibili del Sud-Europa (ad esempio cavi con 1-7
fili contro i 126 nostri).
Le macchine trafilatrici sono classificate secondo diversi criteri. Il primo criterio si basa sul diametro
finale del filo lavorato: in commercio ci sono “sbozzatori” per fili da 4 mm a 1 mm di diametro a
partire da una vergella, macchine “intermedie” per fili da 2 mm a 0.5 mm di diametro con un filo di
partenza di circa 4 mm, macchine “per fili sottili” da 0.5 mm a 0.15 mm di diametro con un diametro di
partenza di circa 2 mm ed infine macchine “per fili capillari” da 0.15 mm a 0.05 mm di diametro con
un diametro di partenza di circa 1.5 mm. Le dimensioni dell’intero impianto di trafilatura per fili
capillari si dimezza rispetto a quelle dell’impianto per fili sottili. Il secondo criterio è quello del numero
di fili lavorati contemporaneamente: se il filo è singolo la macchina è detta monofilo, se i fili sono più
di uno è multifilo (v. fig. 3.20). Nella tipologia multifilo, grazie a molteplici serie di filiere poste in
parallelo e su più piani, è possibile lavorare ad esempio 32 fili contemporaneamente divisi in quattro
piani da 8 fili; nella tipologia monofilo troviamo sia macchine con la struttura di quelle multifilo sia
macchine con coni di tiro (invece di anelli di tiro cilindrici).
Un metodo diverso di lavorazione multifilo è quello di Brunswick in cui un fascio di fili è introdotto in
uno strato di copertura duttile e trafilato insieme con esso: si ottengono diametri fino a 5 µm.
Il terzo criterio è basato sulla tecnica di avanzamento dei fili, che può essere a slittamento sugli anelli o
non a slittamento. Le macchine senza slittamento sono dotate di un cabestano e di anelli motorizzati
che ruotano ad una velocità periferica uguale a quella del filo in uscita dalla filiera. La velocità è
variabile e regolata attraverso appositi sistemi. Invece il cabestano delle macchine a slittamento ha
velocità periferica superiore di quella lineare del filo in uscita, causando così lo slittamento del filo su
di esso e conseguentemente sugli altri anelli di tiro (che ruotano alla stessa velocità del filo in uscita).
Quasi tutte le macchine intermedie in uso sono a slittamento perché riducono le rotture legate all’usura
delle filiere. La riduzione diametrale del filo, che implica un aumento della sua lunghezza, deve essere
accompagnato dall’aumento della velocità del filo (che altrimenti non sarebbe più in tensione attorno
agli anelli situati tra una filiera e l’altra). Se le riduzioni di sezione fossero calcolate nello stesso
rapporto dell’aumento delle velocità periferiche degli anelli di tiro, nel caso in cui avvenisse una
minore riduzione del diametro per l’usura di una filiera ed il conseguente minore allungamento del filo,
quest’ultimo si romperebbe sotto l’azione della tensione generata dalla velocità costante dell’anello di
tiro. Invece nelle macchine a slittamento, l’eventuale usura della filiera dà luogo ad una variazione
dello slittamento e non alla rottura del filo. Lo slittamento percentuale dovuto al ritardo del filo è:
Vanello – Vfilo %
Vanello
Lo slittamento deve in ogni caso essere controllato perché se eccessivo provoca vibrazioni del filo ed
accavallamenti, un elevato riscaldamento, una rigatura precoce degli anelli di trafilatura e un’eccessiva
formazione di polverino. Spesso, per evitare di raggiungere il limite cinematico, viene imposta una
percentuale di riduzione della sezione maggiore sia nelle macchine con slittamento sia in quelle senza:
nelle prime si ha una variazione dello slittamento, nelle seconde si verifica l’apertura delle spire per la
maggiore lunghezza del filo in uscita dalla filiera rispetto a quella prevista. Questa minore tensione
viene compensata nelle filiere successive. Nelle macchine per fili capillari non è produttivo lavorare
con lo slittamento e con una riduzione percentuale maggiore della sezione del filo: si verificherebbero
troppe rotture a trazione.
• La velocità in uscita dalla trafilatrice (ad esempio di 20 m/s per fili con un diametro di 0.1 mm) e quindi
di rotazione del cabestano;
• Il diametro finale;
• Il diametro prefinale corrispondente al penultimo passo.
Quando si verifica la necessità di ottenere un diametro maggiore di quello per cui è programmata la
macchina, si escludono le filiere nella parte finale (“salto passi”) senza dover spostare le filiere ed
infilare nuovamente l’intera trafilatrice. Se la linea trafila fili sottili o intermedi, è possibile escludere le
ultime filiere e posizionare quella con il diametro finale desiderato come ultima filiera prima
dell’uscita. Invece per i fili capillari, è necessario saltare dei passi e mantenere gli ultimi perché meno
rischioso nella messa in moto dell’impianto. Sia nelle zone di salto passi per fili sottili sia in quelle per
fili capillari, vengono posizionate delle filiere in ottone con l’inserto in ceramica ed un foro maggiore
del diametro del filo a quel punto della lavorazione per guidare e controllare le oscillazioni dei fili. Il
tempo occorrente per escludere le filiere nella parte finale della trafilatrice è circa il 25% del tempo
impiegato ad infilare tutta la linea. Grazie al sincronismo tra i due motori, è sufficiente selezionare i
passi da saltare e la macchina aumenta automaticamente la velocità degli anelli, lasciando fissa quella
del cabestano; il disinnesto degli assi interni avviene attraverso un azionamento elettro-pneumatico
automatico.
Qualora avvenga una rottura del filo durante il funzionamento, un’estremità tocca la macchina che si
blocca e scarica a terra; se la rottura avviene dopo le ultime filiere, due sonde elettriche posizionate
nella zona del cabestano provocano l’arresto immediato della macchina.
Un’alternativa agli anelli di tiro cilindrici, sono i coni di trafilatura monofilo, citati prima. Invece di
disporre gli anelli e le filiere in successione, gli anelli di tiro con diametri diversi in funzione delle
riduzioni necessarie sono riuniti su uno stesso albero. Si ottiene un albero che porta numerosi anelli
accostati tra loro in modo da formare un cono di trafilatura a gradini.
Dal momento che la velocità angolare del cono di trafilatura é costante, gli anelli con diametro minore
avranno una velocità periferica inferiore e quindi su di essi si dovranno avvolgere i fili di diametro
maggiore. Al crescere del diametro degli anelli e quindi della loro velocità periferica, il diametro dei fili
diminuisce. La macchina è costruita in modo da avere due coni adiacenti con le filiere poste tra loro: il
filo che attraversa le filiere tra un cono e l’altro si avvolge su anelli con diametro progressivamente
maggiore per aumentare la sua velocità di trafilatura e subisce una lavorazione sia nel tratto di andata
sia in quello di ritorno. Lavorando in queste condizioni, il filo non si dispone mai perpendicolarmente
agli assi di rotazione degli anelli ed é sottoposto ad un ulteriore slittamento (laterale) non trascurabile.
Alcuni costruttori, allo scopo di diminuire le conseguenti sollecitazioni irregolari sul trafilato, hanno
realizzato degli anelli leggermente conici che permettono al filo di spostarsi più facilmente e di uscire
dagli anelli già angolato secondo la nuova posizione da assumere. Un altro accorgimento può essere
quello di dotare i portafiliere di un moto alternato parallelo agli assi degli anelli: in questo modo la
posizione di uscita del filo cambia continuamente, l’usura dei coni diviene più uniforme e la loro durata
nel tempo aumenta.
La riduzione per passo percentuale da una filiera all’altra è costante nelle macchine con anelli di tiro
cilindrici e non lo è nelle macchine che lavorano con i coni di tiro. Nella prima tipologia ogni anello ha
una velocità maggiore del precedente della stessa percentuale, a discapito della flessibilità ma con il
vantaggio della costanza: se una filiera usurata riduce meno il diametro del filo o se un anello gira ad
una velocità non appropriata, il difetto si compensa da una filiera all’altra attraverso lo slittamento o la
riduzione maggiore della sezione del filo. Nella seconda tipologia l’allungamento non è costante, ma lo
sono la velocità di rotazione dei coni e la riduzione dei diametri degli anelli consecutivi, in relazione
alla riduzione per passo.
Le filiere
Le filiere di trafilatura sono composte di tre parti:
1. . un inserto molto resistente che costituisce l’utensile vero e proprio. I materiali usati sono acciai alto
legati, carburi sinterizzati oppure, per velocità più elevate, leghe dure o diamante naturale monocristallo
o sintetico (policristallino PCD o monocristallo). Per trafilare fili capillari si preferisce il diamante
naturale, per lavorare fili sottili il diamante sintetico policristallino (PCD con grani di pochi µm ottimali
per una buona finitura superficiale) e per fili di diametro maggiore metallo duro. L’inserto di diamante
sintetico policristallino consiste in un film sottile di cristalli di diamante, fissato su un substrato di
carburo di tungsteno sinterizzato. Questa struttura è ottenuta mediante un processo di sintesi del
diamante ad alta pressione ed alta temperatura (HPHT) che crea un diamante PCD noto per le ottime
proprietà fisiche. L’inserto presenta una resistenza all’usura e all’urto più elevate rispetto al diamante
naturale e l’usura della zona di contatto con il filo più uniforme.
1. . un telaio cilindrico in acciaio, che contiene le altre due parti. La sua altezza è in funzione della
dimensione dell’inserto e il suo diametro in funzione del portafiliere dell’impianto di trafilatura
(standardizzato per consentire l’intercambiabilità delle filiere nei vari impianti). Il telaio permette di
supportare lo sforzo assiale che subisce l’inserto durante la trafilatura, di dissipare il calore che si genera
per attrito durante il passaggio del filo e di prolungare il cono di entrata dell’inserto per favorire
l’ingresso del lubrificante nel foro. Da un punto di vista più pratico, permette di manipolare e
posizionare senza difficoltà la matrice e di imprimere su di essa codici e nomi per le specifiche di
riconoscimento.
Analizzando l’aspetto del foro interno di una filiera (v. fig. 3.25) secondo il verso di trafilatura, si
osserva un cono di entrata, un cono di riduzione, un tratto parallelo, uno di rilascio ed infine un cono di
uscita. Le dimensioni scelte per ciascuna di queste parti che formano il profilo interno della filiera sono
in funzione delle proprietà fisiche del metallo da trafilare e contribuiscono ad ottenere migliori
prestazioni e una elevata qualità. Il rispetto di queste dimensioni è fondamentale, soprattutto nelle
macchine multifilo, per avere una costanza nella riduzione diametrale e nella tensione del filo.
• La zona di entrata conica consente l’entrata del lubrificante nella zona di trafilatura; l’angolo del cono é
di 70° ± 20°.
• La zona di riduzione conica, in cui avviene la riduzione plastica del filo, ha un’altezza minima
determinata in modo che il diametro della base maggiore sia almeno uguale al diametro del filo
all’entrata nella filiera. L’angolo è in funzione della riduzione da operare e varia di ± 2°. Si impiegano
angoli minori (circa 14°) per metalli duri e meno duttili (come il ferro, l’acciaio, le leghe di alluminio) e
angoli più aperti (16° - 18°) per metalli teneri come il rame.
• La zona di calibratura è il tratto che calibra il diametro finale. La lunghezza di questo tratto cilindrico é
in funzione del diametro di uscita; solitamente è circa il 20%-50% del diametro per metalli teneri ed il
40%-80% per quelli più duri. La calibratura è un’operazione eseguita da una calibratrice a filo allo scopo
di ottenere il diametro del foro voluto [la calibratrice a filo, utilizzata per la lavorazione della zona
cilindrica di calibratura della filiera e per raccordare tale zona con quella di uscita, si basa sul
movimento assiale di un tratto di filo di acciaio inossidabile (per filiere con un diametro finale inferiore
a 1 mm) oppure di una barretta di acciaio ramato (per diametri superiori), inseriti nel foro della filiera
insieme alla polvere abrasiva. Al movimento assiale del filo si combina la rotazione della filiera e
l’inclinamento di questa in modo da arrotondare l’angolo di uscita ed evitare spigoli vivi. Con
quest’ultima operazione si ottiene la zona di back relief]
La zona di rilascio (back relief) è un piccolo arrotondamento che rende il raccordo tra la zona di
calibratura e di uscita più dolce; evita graffiature e il grippaggio del filo in uscita dalla filiera. La sua
lunghezza è pari al 10% del diametro del filo. °La zona di uscita non influisce sul diametro finale del
filo ma rende possibile l’arrotondamento dello spigolo di uscita. Il contatto del filo con lo spigolo causa
delle vibrazioni che si propagano nella macchina e che portano ad un’ulteriore usura della filiera, ad
una qualità inferiore del filo e addirittura alla rottura del trafilato. Per tale motivo e per impedire la
produzione di scagliature che rischierebbero di accumularsi all’entrata della filiera successiva o di
inquinare il lubrificante, lo spigolo viene arrotondato e prende il nome di zona di rilascio. L’angolo
della zona di uscita, in generale, é di 40° ± 10°.
Attraverso il foro della filiera viene fatto passare il filo da lavorare, il quale si deforma plasticamente
sotto l’azione di una forza di trazione e una di compressione: la forza di trazione è dovuta alla tensione
di tiro applicata, la forza di compressione è conseguenza della geometria delle zone di riduzione e di
calibratura del profilo. L’inserto della filiera può lavorare solo in compressione perché in trazione si
romperebbe. Con la miniaturizzazione l’angolo e la riduzione per passo sono minori e quindi anche la
lunghezza della zona di riduzione; diviene necessario considerare l’attrito pure nella zona di
calibratura, la quale incide maggiormente rispetto a quella di riduzione sull’estensione dell’area di
contatto tra il filo e la matrice.
L’usura è rilevabile mediante un’osservazione al microscopio oppure grazie ad una misurazione del
diametro del filo trafilato con un calibro laser o con un micrometro meccanico munito di comparatore.
Le filiere si mantengono inalterate per mesi e vengono cambiate quando si rischia di ottenere fili con
una tolleranza maggiore di quella consentita dalle norme in vigore (v. Appendice 1). La loro vita utile è
determinata su una media di tonnellate di filo trafilato. Il tempo di fermo necessario per cambiare metà
delle filiere di una macchina multifilo a trenta passi e infilarle nuovamente è di circa 10 ore.
L’anello è di acciaio e sulle fasce è presente una lega di carburo di tungsteno sinterizzato dello spessore
di pochi decimi di millimetro compenetrato perfettamente nel supporto di acciaio in modo da formare
con esso un corpo unico. Il carburo di tungsteno offre risultati eccellenti contro l’usura e l’abrasione
nelle più svariate condizioni di Trafilatura. Invece sugli anelli di tiro per i fili sottili e capillari vengono
predisposti riporti ceramici per avere un’aderenza maggiore tra il filo e l’anello ed una minore forza di
Trafilatura. Le fasce di lavoro, ricavate sull’anello, hanno una conicità di 1°-5° per consentire al filo di
scorrere meglio durante la Trafilatura. Quando la macchina lavora a regime, le spire si spostano verso il
punto in cui la fascia ha diametro maggiore, secondo il grado di lubrificazione: se questa è troppo
elevata le spire si posizionano dove il diametro è minore, se troppo bassa traslano dove il diametro è
maggiore.
I cabestani finali hanno la stessa struttura e composizione degli anelli di tiro. Nelle macchine
intermedie e per fili sottili vi è un solo cabestano, mentre in quelle per fili capillari i cabestani sono
due. Impiegando due cabestani si può ridurne le dimensioni e quindi il momento d’inerzia, si può
avvicinarli alle ultime filiere ed evitare ai fili percorsi lunghi senza lubrificazione (come avviene tra
l’uscita delle ultime filiere ed il cabestano singolo di diametro maggiore nonché più lontano). A volte
nella parte inferiore del cabestano è installata una serie di carrucole di rinvio per favorire il distacco
delle spire, poiché i cabestani non sono lubrificati.
Gli intagli che si verificano sulla superficie delle fasce di lavoro sono conseguenza dell’attrito continuo
e dell’elevata temperatura del filo (anche se attenuati dal lubrificante), dell’elevata velocità di
Trafilatura e della tensione che stringe le molteplici spire di filo attorno all’anello. Nella Trafilatura di
fili capillari, attorno ai primi anelli della trafilatrice, viene fatto un giro in più di filo rispetto agli ultimi:
il filo diventa più fragile man mano che si assottiglia e solo un giro o due usurano meno la ceramica
degli anelli. Nelle macchine di Trafilatura a slittamento e con una riduzione percentuale maggiore della
sezione del filo, il continuo scivolamento in senso assiale tra il filo e gli anelli di tiro e tra il filo ed il
cabestano provoca delle rigature precoci. Per limitare tale usura viene innescato sul cabestano un
movimento trasversale attraverso un apparecchio meccanico azionato dalle oscillazioni della macchina.
Invece sugli anelli di rinvio verso il forno di ricottura, lo scivolamento trasversale è dovuto sia ad un
congegno elettro-meccanico che muove gli anelli sia ad un pettine che movimenta i fili trasversalmente
e assialmente. Il pettine ha anche la funzione di mantenere i fili separati tra loro.
Gli anelli di rinvio al forno di ricottura e quelli di ricottura sono in acciaio e non hanno fasce ricavate
sulla superficie esterna; alcuni sono ricoperti da uno strato di ceramica. Quando si presentano rigature
sulla superficie vengono sottoposti ad una lucidatura o ad una rettifica (se le rigature sono incisioni
troppo profonde). Come gli anelli di tiro ed i cabestani, hanno uno spessore dimensionato in modo tale
da impedire ovalizzazioni o deformazioni.
I lubrificanti
La lubrificazione è indispensabile nella Trafilatura: durante la lavorazione la superficie del filo è
ricoperta da un lubrificante, scelto a seconda delle caratteristiche di resistenza ed attrito dei materiali a
contatto. Un comune lubrificante è il sapone ed un altro molto usato è l’emulsione: olio emulsionato
con una percentuale dell’1-2% di acqua che passa al 5% nella lavorazione di fili capillari perché una
eccessiva lubrificazione porterebbe le spire di filo a slittare sugli anelli e di conseguenza a rovinarne la
ceramica o a rompersi (il filo che entra nelle filiere è minore, ma il cabestano ruota ad una velocità
costante e richiede la stessa lunghezza di filo da mandare al forno di ricottura). Il lubrificante arriva a
contatto delle spire dei fili capillari e sottili per caduta dai numerosi ugelli di un condotto situato sopra
ad ogni serie di anelli. Ulteriori ugelli sono posti prima di ogni filiera e, spruzzandovi contro,
permettono al lubrificante di accompagnare il filo nella matrice (facilitato dalla zona di entrata del
profilo). Nelle trafilatrici per fili sottili l’emulsione spesso non viene iniettata per caduta ma attraverso
due tipi di ugelli: il primo tipo posto come nelle macchine per fili capillari prima della filiera e l’altro
dopo la filiera diretto verso l’anello di tiro successivo.
Le ultime filiere prima del cabestano sono le meno lubrificate dato che sono posizionate sulla parete
che divide l’impianto di Trafilatura dal forno di ricottura e quindi sono bagnate solo da un lato. Il
maggior numero di rotture avviene in queste ultime filiere a causa dell’attrito eccessivo, dell’accumulo
di polverino in uscita e quindi del danneggiamento dell’inserto della filiera o della superficie del filo
(nei fili sottili e capillari il rapporto tra la superficie ed il volume è molto elevato quindi avviene la
rottura).
Il lubrificante può anche essere solido per fili ad alta resistenza (in acciaio, in acciaio inossidabile, in
lega alto legata): viene fatto aderire sotto forma di un rivestimento di metallo più tenero, ad esempio di
rame o di stagno, depositato chimicamente sulla superficie. Per la Trafilatura del titanio vengono
utilizzati dei polimeri come lubrificanti solidi
Nelle macchine con coni di Trafilatura monofilo, i coni e le filiere sono completamente immersi nel
lubrificante liquido che può essere olio o emulsione (contenente additivi grassi o clorurati oppure altri
composti chimici). Non ci sono macchine trafilatrici che lavorano a secco: l’attrito eccessivo
porterebbe al surriscaldamento del filo, ad un’usura precoce delle filiere e della superficie del filo e per
di più ad un’alterazione delle proprietà del trafilato che, se in rame, verrebbe quasi ricotto e ossidato.
Con una lavorazione a secco si arriverebbe alla rottura del filo in brevissimo tempo.
• lubrificare,
• raffreddare,
• detergere,
• proteggere il filo di rame e la macchina dall’ossidazione.
e devono:
In particolare, l’emulsione utilizzata nel forno di ricottura deve garantire una efficace protezione del
filo dall’ossidazione in quanto è l’ultimo bagno a contatto del filo prima della bobinatura. I fattori che
possono creare difficoltà all’emulsione nel corretto svolgimento dell’azione lubrificante possono
essere:
• una temperatura inferiore o superiore a quella di utilizzo ideale (30°C-40°C) dell’emulsione;
• un attacco batterico che può causare la separazione dell’olio dall’acqua e la conseguente diminuzione
dell’effetto lubrificante oltre che la perdita della proprietà antiossidante e la diminuzione del valore del
pH accompagnato da uno sgradevole odore;
• i sali minerali nell’acqua;
• la schiuma dovuta alle bolle d’aria che penetrano all’interno dell’emulsione durante l’agitazione creata
dagli anelli in rotazione.
L’impianto di ricottura
L’impianto di ricottura continua è indispensabile per la purificazione, la ricottura [38] ed il
raffreddamento dei fili trafilati. Nella lavorazione la tensione iniziale del filo deve superare il carico di
snervamento per determinare la deformazione e la tensione finale del filo deve essere inferiore al carico
di snervamento che porterebbe a rottura. Questa situazione si verifica solo se il filo incrudisce durante
la trafilatura.
I fili presentano una struttura cristallina modificata in seguito alla trafilatura: i grani, durante la
lavorazione, ruotano in maniera da allungarsi determinando delle orientazioni preferenziali (textures)
che causano il comportamento anisotropo del metallo di cui sono costituiti. Si ha una conseguente
alterazione delle proprietà fisiche del metallo: una riduzione della duttilità, della conduttività, della
resistenza alla corrosione, della deformazione a rottura ed un incremento del carico di rottura. Il filo
incrudito non è utilizzabile senza un’opportuna ricottura di ricristallizzazione (ad esempio il rame non
sarebbe sufficientemente flessibile per i cavi elettrici e per di più presenterebbe una conducibilità
limitata). La ricottura di ricristallizzazione è un trattamento termico utilizzato per eliminare
l’incrudimento e le tensioni residue e per dare la possibilità di effettuare una successiva lavorazione a
freddo. La ricottura è costituita da tre stadi:
• Recovery o “ricottura di distensione” in cui le dislocazioni si muovono e vanno a formare i bordi di una
struttura di sottograni poligonalizzati. Si verifica la riduzione delle tensioni residue ed il ripristino della
conduttività elettrica;
• Ricristallizzazione in cui nucleano nuovi grani ai bordi delle celle della struttura poligonalizzati con un
minor numero di dislocazioni, producendo una fine struttura ricristallizzata. Si ha un minore carico di
rottura ma una duttilità migliorata. Questa seconda fase avviene ad una temperatura uguale al 40% della
temperatura assoluta di fusione del metallo e si riduce tanto più, quanto più è deformato il metallo. La
temperatura di ricristallizzazione del rame è compresa tra i 200°C e i 250°C;
• Ingrossamento del grano, meno rapido delle prime due fasi, porta dalla nuova struttura instabile a grani
più grandi.
I fili trafilati entrano nel forno di ricottura, una struttura monoblocco in lamiera d’acciaio, e dopo il
passaggio sul cabestano vengono rinviati nella cassa E verde situata tra gli anelli B - D e l’anello C.
Tale cassa ha le pareti laterali apribili ed è bagnata nella parte inferiore dall’emulsione di ricottura; la
parete di sinistra viene lasciata aperta quando il filo è rivestito perché nella lavorazione si creano più
residui di materiale, che possono accumularsi e divenire potenziali inclusioni. Le emulsioni di ricottura
contengono degli antiossidanti oppure è possibile aggiungervi dei prodotti antiossidanti specifici.
L’interno della cassa E è mantenuta in atmosfera modificata da un’altissima percentuale di azoto che
evita il contatto dei fili con l’acqua e quindi l’ossidazione.
• Dall’anello di rinvio A al primo anello di ricottura B avviene un preriscaldamento iniziale (tra 160°C e
280°C).
• Dal primo anello B al secondo anello di ricottura C si effettua la ricottura per effetto Joule (nel tratto
dall’anello B al livello dell’emulsione refrigerante) cioè dovuta al passaggio di corrente secondo la legge
P=VI² ed al conseguente riscaldamento del filo per conduzione, e l’inizio del raffreddamento
nell’emulsione. L’emulsione, necessaria per raffreddare e pulire il filo, è regolata ad una altezza non
casuale perché determina la lunghezza del tratto di ricottura del filo e quindi il tempo di ricottura.
• Infine dall’anello C all’anello D avviene la seconda parte del raffreddamento nell’emulsione e
l’asciugatura ad aria compressa.
Nel forno di ricottura solo l’anello C è bagnato dall’emulsione di ricottura invece gli anelli di rinvio e
l’altro anello B di ricottura non sono lubrificati. Per tale motivo subiscono periodicamente una
lucidatura o una rettifica.
I due parametri monitorati nella fase di ricottura sono la corrente I e la tensione V. La tensione di
ricottura si calcola con la seguente formula
V = k · radice di v
dove v è la velocità del cabestano in m/s e k è una costante del forno. Nei fili sottili e capillari i valori
della corrente ed il tempo di ricottura sono molto ridotti a causa della sezione minima da sottoporre a
ricottura. La temperatura di ricottura del rame è tra i 500°C e i 550°C mentre l’emulsione viene
mantenuta a 37-40°C. E’ necessario controllare attentamente la temperatura del filo di rame all’uscita
del forno di ricottura in quanto, se elevata (> 50° C), si ha a contatto dell’aria la formazione di ossidi.
Le rotture nel processo di trafilatura possono essere dovute a difetti nel materiale o a difetti nella
Trafilatura.
La rottura del filo avviene quando l’inclusione occupa il 40-50% della sezione. Si verificano differenti
profili di rotture a seconda che l’inclusione sia trattenuta o non trattenuta, solitamente in rapporto 1 a 3.
E’ importante individuare la provenienza dell’inclusione: se introdotta durante la Trafilatura è bene
controllare tutte le filiere, gli anelli ed i cabestani, se già presente prima della Trafilatura è
fondamentale non destinare i fili in cui si trovano alla realizzazione di fili sottili o capillari. Nei fili
capillari il 96% delle rotture avviene a causa di inclusioni. Per facilitare l’individuazione della natura
dell’inclusione, è opportuno stilare una lista dei materiali con cui viene a contatto il filo durante la
Trafilatura ed il trasporto.
• Difetti di saldatura, eseguita per creare continuità tra i fili provenienti da bobine diverse, portano a
rotture a bocca di pesce.
• Difetti superficiali come rigature longitudinali o pieghe nel materiale che possono aprirsi durante
un’ulteriore lavorazione a freddo; possono essere conseguenza di un’impropria selezione dei parametri
di processo (ad esempio della velocità del cabestano e della temperatura) o del lubrificante. Invece le
rigature dovute al contatto occasionale con materiali più duri si possono definire dei danneggiamenti
meccanici.
°Tensioni residue dovute alla deformazione plastica non omogenea. Nel caso di una riduzione
veramente leggera, la deformazione tende a limitarsi sulle zone esterne. In questo caso le tensioni
residue superficiali sono compressive e si ha un miglioramento del limite di fatica. Le tensioni residue
possono influire sulla formazione di cricche nel tempo dovute alla tensione o alla corrosione oppure
possono portare all’incurvatura del filo dopo la rimozione di uno strato superficiale di materiale (in
ulteriori lavorazioni o in seguito ad una rettifica). °Chevron cracking, cricche interne influenzate
dall’angolo di riduzione della matrice, dalla riduzione per passo, dall’attrito e dalla presenza di
inclusioni nel materiale. Le cricche al centro, ulteriormente allungate e sottoposte alla tensione di
Trafilatura, portano a rotture a coppa e cono.
Le rotture a trazione nella Trafilatura possono essere identificate dalla forma conica identica delle due
estremità e sono conseguenza di:
°Errata geometria o posizione delle filiere; °Usura delle filiere; °Insufficiente lubrificazione;
°Accumulo di polverino, impurità o corpi estranei all’ingresso della filiera che possono causare rigature
o divenire delle inclusioni;
• Accavallamento e sovrapposizione delle spire del filo che possono essere evitati con un basso numero di
spire ed una adeguata tensione back, che mantenga le spire in trazione attorno all’anello e che non
permetta l’allentamento;
La rottura nel forno, dove il filo viene ricotto in atmosfera controllata, avviene a causa della formazione
di zone fuse che operano come inclusioni o difetti superficiali nel filo. La formazione di zone fuse può
avvenire anche a causa della presenza di vere inclusioni che riducono la sezione di passaggio della
corrente causandone un surriscaldamento. E’ necessario controllare periodicamente il corretto stato del
forno e degli anelli di ricottura.
Nei fili utilizzati rispettivamente per la realizzazione di fili sottili e capillari è essenziale l’assenza di
inclusioni di ossigeno (che causano cavità, cricche o fessure), porosità gassose, inclusioni metalliche,
impurità superficiali. Il prodotto finale deve presentare particolari caratteristiche dimensionali
(diametro nominale ed effettivo, tolleranza, ovalizzazione), meccaniche (allungamento percentuale a
rottura, carico di rottura) ed elettriche (resistenza elettrica).
Trasformatore
Il trasformatore è una macchina elettrica statica (perché non contiene parti in movimento)
appartenente alla categoria più ampia dei convertitori. In particolare il trasformatore consente di
convertire i parametri di tensione (simbolo V unità di misura [V] Volt) e corrente (simboli I unità di
misura [A] Ampere) in ingresso rispetto a quelli in uscita. Il trasformatore è una macchina in grado di
operare solo in corrente alternata, perché sfrutta i principi dell'elettromagnetismo legati ai flussi
variabili.
Il trasformatore ha importanza fondamentale nel mondo di oggi: senza di esso le grandi reti di trasporto
dell'energia elettrica che collegano le centrali elettriche a milioni di industrie e di case non potrebbero
funzionare.
Introduzione
Le enormi quantità di energia elettrica richieste dalla società moderna fanno sì che questa debba essere
prodotta in grandi quantità presso centri di produzione denominati centrali elettriche. Un parametro
utile per determinare la dimensione e la quantità di energia prodotta da una centrale è la potenza
(simbolo P unità di misura [W] Watt) la quale può aggirarsi dalle decine di kW (1 kW = 1000 W) di
piccole centrali idroelettriche o solari alle centinaia di MW (1 MW = 1.000.000 W) delle grandi centrali
termoelettriche e nucleari. Questa energia deve essere trasportata anche per centinaia di km. La potenza
elettrica è legata in maniera diretta ai parametri di tensione e corrente, secondo la formula
dove , detto fattore di potenza, è il correttivo dovuto allo sfasamento.Ciò significa che a parità
di potenza aumentando la tensione V diminuisce la corrente I. Ciò è molto importante in quanto la
corrente I genera al suo passaggio nei conduttori elettrici calore (Effetto Joule), più la corrente è alta e
più calore si genera; per ovviare a questo bisogna aumentare la sezione dei conduttori, ma viene da se
che c'è un limite economico e tecnologico nel dimensionamento delle linee elettriche, legato anche al
fenomeno della caduta di tensione delle linee stesse. Al fine quindi di abbassare la corrente I si effettua
una trasformazione aumentando la tensione V a parità di potenza P. Naturalmente diminuendo le
distanze da percorrere e la potenza da trasportare viene anche meno l'esigenza di avere tensioni alte, se
a questo si associa l'altra esigenza che è quella di avere per l'uso domestico e industriale un livello di
tensione compatibile con le esigenze di sicurezza ne conviene che dalla produzione alla distribuzione è
opportuno effettuare un numero adeguato di trasformazioni verso tensioni più basse.La macchina che si
occupa di effettuare tali trasformazioni è appunto il trasformatore. A titolo di esempio citiamo alcune
delle tensioni tipiche dei esercizio degli impianti elettrici ovvero:
Invenzione
Le principali tappe che hanno portato all'attuale trasformatore ricordiamo:
• Michael Faraday inventò il 29 agosto 1831 l'anello a induzione, il primo trasformatore. Egli lo usò però
solamente per dimostrare i principi dell'induzione elettromagnetica e non ne intravide un uso pratico.
• Lucien Gaulard e John Dixon Gibbs presentarono a Londra nel 1881 un dispositivo chiamato generatore
secondario e vendettero l'idea alla società americana Westinghouse. Fu il primo trasformatore di uso
pratico, ma impiegava un nucleo lineare, abbandonato poi in favore del nucleo circolare. Fu anche
presentato a Torino nel 1884, dove fu adottato per un sistema di illuminazione.
• William Stanley, un ingegnere della Westinghouse, costruì un modello di trasformatore nel 1885 dopo
che George Westinghouse acquistò l'invenzione di Gaulard e Gibbs. Egli utilizzò per il nucleo due ferri
sagomati a forma di E ed il modello entrò in commercio nel 1886.
• Ottó Bláthy, Miksa Déri e Károly Zipernowsky, ingegneri ungheresi della società Ganz di Budapest
svilupparono nel 1885 un efficiente modello "ZBD" basato sul progetto di Gaulard e Gibbs.
• Nikola Tesla nel 1891 inventò la bobina di Tesla, un trasformatore risonante con avvolgimenti
sintonizzati in aria per produrre altissime tensioni ad alta frequenza.
Il trasformatore più semplice è costituito da due conduttori elettrici (solenoidi) avvolti su un anello di
materiale ferromagnetico detto nucleo magnetico. L'avvolgimento al quale viene fornita energia viene
detto primario, mentre quello dalla quale l'energia è prelevata è detto secondario. I trasformatori sono
macchine reversibili, per cui questa classificazione non corrisponde ad un avvolgimento fisico unico.
Quando sul primario viene applicata una tensione elettrica alternata sinusoidale, per effetto
dell'induzione magnetica si crea nel nucleo un flusso magnetico con andamento sinusoidale. Per la
legge di Faraday-Neumann-Lenz, questo flusso variabile induce nel secondario una tensione
sinusoidale.
La tensione prodotta nel secondario è proporzionale al rapporto tra il numero di spire del primario e
quelle del secondario secondo la relazione:
dove Vp è la tensione applicata sul primario, Vs la tensione indotta sul secondario, Np il numero di
spire del primario e Ns il numero di spire del secondario.
Per una tensione sinusoidale di ampiezza massima E_m il valore efficace E vale:
Trascurando le perdite, la relazione tra tensione, numero di spire, intensità di flusso e sezione del
nucleo è data dalla relazione:
Dove E è il valore efficace (RMS) della tensione indotta, f è la frequenza in Hertz, N è il numero di
spire dell'avvolgimento al quale si fa riferimento, S è la sezione del nucleo e B è il valore dell'induzione
Tesla.
Dal trasformatore ideale al reale
Per trasformatore ideale in figura si assume la convenzione degli utilizzatori alla porta 1 (primario) e
quella dei generatori alla porta 2 (secondario). Questo è governato dalle equazioni simboliche:
Usiamo l'ipotesi si accoppiamento perfetto cosi da concatenare lo stesso flusso di induzione magnetica:
Le tensioni ai morsetti coincidono con le f.e.m. indotte valgono:
quindi la relazione che lega tensioni e correnti del trasformatore ideale diviene:
Oltre alla corrente di di magnetizzazione va aggiunta la componente dovuta a perdite per isteresi e
correnti parassite detta corrente a vuoto:
Per considerare le perdite per isteresi e correnti parassite che si producono nel nucleo
L'accoppiamento imperfetto tra gli avvolgimenti è dovuto a linee di flusso che abbandonano il nucleo
per richiudersi attraverso percorsi in aria, si avranno cosi altri 2 flussi:
posso definire:
Considera la resistenza dei conduttori che costituiscono gli avvolgimenti R1 e R2 poste in serie con le
perdite per accoppiamento non perfetto.
Eliminate tutte le ipotesi di idealità, le f.e.m. indotte dal solo flusso di mutua induzione
mentre le differenze di potenziale effettivamente presente alle porte del trasformatore reale valgono:
Il trasformatore reale
VpIp = VsIs
Un trasformatore reale però non è una macchina perfetta e per questo presenta delle perdite, ovvero la
potenza assorbita dal primario è sempre superiore a quella fornita dal secondario. I diversi motivi di
perdita sono:
• Effetto Joule prodotto dalla corrente che scorre negli avvolgimenti (dette perdite nel rame);
• Induzione di correnti parassite nel nucleo che possono a loro volta dissipare energia per effetto Joule
(dette perdite nel ferro);
• Perdita di flusso magnetico al di fuori del nucleo che può indurre correnti su oggetti vicini al
trasformatore;
• Perdite per isteresi magnetica;
• Perdite per movimenti meccanici dovuti a forze magnetiche o magnetostrizione, solitamente percettibili
come il classico ronzio del trasformatore;
Per contrastare questi problemi si adottano avvolgimenti con il minimo numero di spire possibile, di
sezione quadrata o (meglio ancora, dove possibile) circolare per minimizzare la lunghezza complessiva
del filo; i nuclei magnetici devono avere una sezione adeguata, una lunghezza minore possibile e
devono essere costituiti da materiale ferromagnetico che abbia una resistenza elettrica il più possibile
alta, per minimizzare le perdite per effetto Joule, e una forza coercitiva il più possibile bassa, per avere
un ciclo di isteresi il più possibile stretto (e quindi delle perdite magnetiche minori possibili). In genere
si adottano nuclei fatti di pacchi di lamierini di acciaio magnetico al silicio, per ridurre al minimo le
correnti parassite.
La forma può essere quella di un toro (trasformatori toroidali) oppure, più comunemente, quadrata o di
due rettangoli uniti per un lato. In questo caso gli avvolgimenti sono posti sul lato comune. Il nucleo
non è realizzato in metallo compatto, ma è costituito da sottili lamierini incollati a formare pacchetti.
Questo ha lo scopo di impedire che nel nucleo circolino correnti parassite. Nei trasformatori operanti a
frequenze elevate, il nucleo è costituito da polveri metalliche agglomerate con collanti. Più un
trasformatore è grande, maggiore è il suo rendimento: i trasformatori di potenza molto piccola (da 1 a
10 Watt) hanno una efficienza dell'80% appena, mentre i trasformatori più grandi (oltre i 20 kW)
arrivano ad un rendimento del 99% circa. Per queste potenze però l'1% della potenza dissipata è
comunque notevole e perciò sono necessari sistemi di raffreddamento molto efficienti: trasformatori
così grandi lavorano in un bagno di olio dentro involucri metallici opportunamente sagomati per
facilitare la dispersione del calore; in alcuni casi sono previste pompe per la circolazione forzata
dell'olio e un sistema di ventilatori esterni per aumentare l'asportazione di calore. La potenza assorbita
da queste funzioni accessorie è considerata tra le perdite.
Funzionamento a vuoto
Si quando non ci sono carichi alimentati dal circuito secondario, quindi I2 = 0 e quindi è anche nulla
anche I12 mentre circola solo corrente nella prima parte del circuito primario quindi I1 = I10.
• si trascura:
• la resistenza e l'induttanza al secondario non sono attraversate da corrente quindi vengono sostituite con
un corto circuito.
Questo schema è interessante perché ci da un idea delle perdite nel ferro perché legate all'impedenza
Z10 e quindi della relativa perdita di potenza che ci sarà utile per il calcolo del rendimento del
trasformatore.
Si ha una configurazione di corto circuito quando si chiude il circuito del secondario senza applicare
nessun carico: in questo caso si annullerà la tensione U2 = 0 e le correnti vengono chiamate correnti di
cortocircuito:
Per l'analisi del trasformatore in corto circuito, partendo dalla configurazione di trasformatore reale, di
riportano al primario la resistenza e l'induttanza del secondario, mettendole in parallelo con Z10 e in
serie con R1ejX1
Adesso prendiamo in considerazione la prima parte dello schema proposto e definiamo l'impedenza al
primario:
dove:
Considerando la parte di destra dello schema, possiamo trasportare l'impedenza del primario al
secondario e ottenere:
dove:
dove:
Configurazione in parallelo
se
3. Dalla precedente condizione si ha che i due trasformatori lavorino entrambi alla loro potenza nominale,
quella massima consentita di progetto:
4. Per poter verificare la precedente condizione si deve avere che le due correnti in uscita dai trasformatori
siano in fase tra loro.
5. I due trasformatori debbono avere i rapporti di trasformazione uguali (condizione di utilizzo a vuoto)
6. Devono avere i triangoli di corto circuito uguali (condizione di funzionamento in corto circuito).
n rapporto di trasformazione
Tipi
Sebbene basati sullo stesso principio, esistono trasformatori di tutte le dimensioni, da quelli grandi
pochi millimetri usati in elettronica a grandi macchine alte diversi metri e con potenze di gigawatt usati
nella distribuzione di energia elettrica.
La classificazione può essere fatta in base alla potenza trasferita, al rapporto di trasformazione, al fatto
che primario e secondari siano isolati, al tipo di segnale su cui operano.
Di tensione
Di isolamento
Sono trasformatori con rapporto unitario (o leggermente maggiore per compensare le perdite) ma con
isolamento elettrico tra gli avvolgimenti particolarmente curato. Sono usati per disaccoppiare la massa
di un apparecchio di misura dalla massa del circuito in esame quando entrambi siano messi a terra.
Sono anche usati per aumentare la sicurezza delle apparecchiature mediche connesse alla rete.
Trasformatore trifase
Sono macchine in grado di convertire una tensione trifase e sono comunemente usati nella rete di
distribuzione elettrica. Possono essere costituiti da tre trasformatori monofasi indipendenti, ma spesso
sono realizzati con tre avvolgimenti primari e tre secondari montati su un unico nucleo con tre rami
paralleli. Gli avvolgimenti possono essere collegati a stella, a triangolo o a zig-zag.Vengono di solito
abbinati a degli Isoltester o chiamati anche Controllori di isolamento che permettono di regolare
tramine pannello sinottico le varie soglie di resistenza verso terra.
Autotrasformatore
Di corrente
Forniscono sul secondario una corrente proporzionale alla corrente circolante nel primario. Sono spesso
usati nei sistemi di misura per correnti elevate al fine di ridurle a valori più facilmente misurabili. Sono
costituiti da un nucleo toroidale al cui interno passa il cavo (anche isolato) su cui compiere la misura e
su cui è avvolto il filo del secondario. È importante che il secondario sia sempre in cortocircuito sullo
strumento di misura per evitare la formazione di tensioni pericolosamente elevate. Sono usati nei
sensori di una pinza amperometrica.
A corrente costante
Questi trasformatori mantengono costante entro certi limiti la corrente fornita sul secondario piuttosto
che la tensione. In pratica la tensione prodotta si regola automaticamente per mantenere una corrente
costante sul carico. Sono costituiti da nucleo interrotto da un traferro la cui apertura è regolata da una
sezione mobile del nucleo tirata da un contrappeso. La presenza del traferro determina un aumento
della riluttanza, ovvero il rapporto tra la forza magnetomotrice generata dal primario e il flusso di
induzione prodotto nel nucleo.
Questi trasformatori sono usati per alimentare le lampade di illuminazione pubblica collegate in serie a
corrente costante.
Versioni con traferro regolabile manualmente sono usati nelle saldatrici elettriche: In questo caso
l'apertura del traferro non è automatica ma impostata dall'utilizzatore con una manopola. La corrente è
quindi limitata ad un valore prefissato ma non regolata.
Risonante
Un trasformatore risonante opera alla frequenza di risonanza di uno (o più) avvolgimenti, solitamente il
secondario, sfruttando la capacità parassita fra una spira e l'altra dell'avvolgimento. Se il primario è
alimentato con una tensione periodica ad onde quadre o dente di sega, ad ogni impulso viene fornita
energia sul secondario, che sviluppa progressivamente una tensione molto elevata alla frequenza di
risonanza del circuito oscillante. La tensione prodotta è limitata da fenomeni di scarica distruttiva fra le
spire dell'avvolgimento risonante e la corrente è molto più elevata di quella ottenuta dai generatori
elettrostatici come il Generatore Van de Graaff e il Generatore Wimshurst. Di solito questi trasformatori
lavorano a frequenze piuttosto elevate, per cui non hanno bisogno di nucleo magnetico. La bobina di
Tesla è un tipico trasformatore risonante.
Di impulso
Per limitare la distorsione nella forma dell'impulso, il trasformatore deve avere basse perdite, bassa
capacità distribuita ed alta induttanza a circuito aperto. Nei modelli di potenza deve essere bassa la
capacità di accoppiamento tra primario e secondario, per proteggere i circuiti collegati al primario dagli
impulsi di elevata tensione creati dal carico. Per la stessa ragione deve essere elevato l'isolamento.
D'uscita
Durezza
Da Wikipedia, l'enciclopedia libera.
• Brinell
• Vickers
• Rockwell
• Mohs
Le prove di durezza si eseguono con macchine provviste di penetratori con forme diverse e con diverse
metodologie.
Brinell
Si basa, nel calcolo della durezza, sulla misura del diametro dell’impronta lasciata dal penetratore.
Anche la Vickers si basa sullo stesso principio e le prove Brinell-Vickers vengono chiamate anche
Prove di microdurezza.
Penetratore: sferico
D = diametro penetratore
d = diametro dell’impronta
P = carico prova
Vantaggi
Rapida, economica, non distruttiva (oggetto riutilizzabile). Se si moltiplica per 3,3 la durezza Brinell di
un acciaio si ottiene il suo carico di rottura.
Svantaggi
Difficili confronti tra diverse misure Brinell (a parità di carico applicato il penetratore può affondare in
misure diverse, cambia anche però l’inclinazione delle facce ed è quindi anche diversa la distribuzione
degli sforzi).
Condizioni di valenza
Vantaggi
L’inclinazione delle facce è costante; si usano anche carichi piccoli per fare misure di durezza
ravvicinate, precisione della misurazione. La scala è unica per tutti i materiali.
Svantaggi
Costosa, notevole perdita di tempo nella lettura delle impronte che si può fare solo al microscopio.
Condizioni di valenza
Rockwell
Si basa sull’affondamento diretto dell’impronta e non sulla durezza misurata come pressione. Le scale
di durezza ottenute sono convenzionali.
Vantaggi
Svantaggi
È una misura di durezza solo convenzionale. La durezza Vickers e Brinell si possono confrontare
perché utilizzano le stesse unità di misura, mentre non possono essere stabiliti confronti empirici con la
prova Rockwell.
Numero di Reynolds
Da Wikipedia, l'enciclopedia libera.
Il numero di Reynolds (Re) è un gruppo adimensionale usato in fluidodinamica, dato dal rapporto tra
le forze d'inerzia e le forze viscose.
oppure:
dove:
dove
• S = area sezione
• P = perimetro bagnato.
Il tubo di Pitot è uno strumento utilizzato per misurare la velocità di un fluido (tipicamente un gas). Fu
inventato nel 1732 dallo scienziato francese Henri Pitot.
Funzionamento e taratura
Il tubo di Pitot basa il suo funzionamento sulla definizione di pressione totale.
Un tubo di Pitot è infatti fornito di due prese di pressione, una all'estremità anteriore disposta
perpendicolarmente alla corrente (presa totale) e una sul corpo del tubo disposta tangenzialmente al
fluido (presa statica). Come da definizione, la differenza tra queste due pressioni (la pressione
dinamica, ottenibile con l'utilizzo di un manometro differenziale opportunamente collegato alle due
prese) risulta proporzionale al quadrato del modulo della velocità del fluido, quindi:
Il fatto che le prese di pressione siano due e separate sembrerebbe rendere inutilizzabile il Pitot (infatti
la definizione di pressione totale richiede che le pressioni statica, dinamica e totale siano misurate nello
stesso punto nello stesso istante di tempo).
Affinché il tubo di Pitot non fornisca quindi una misura approssimata, la pressione totale dovrebbe
mantenersi costante nel campo di moto del fluido (cioè dovrebbe valere il Teorema di Bernoulli nel suo
primo o almeno secondo enunciato). Siccome generalmente i tubi di Pitot sono costruiti in modo da
non perturbare eccessivamente il campo di moto intorno a loro, questa approssimazione è accettabile.
Può essere però evitata se si provvede al tracciamento di una curva di taratura per il Pitot utilizzato.
La taratura del Pitot si effettua immettendo il tubo in una corrente di fluido di cui siano perfettamente
note le proprietà del fluido stesso e la velocità. Per un numero sufficiente di valori di velocità si
andranno a registrare le corrispondenti differenze di pressione tra le due prese del Pitot, ottenendo una
successione di punti che rappresentano la funzione di trasferimento dello strumento. Durante l'utilizzo
quindi, invece della formula derivante dalla definizione di pressione totale si potrà utilizzare questa
funzione di trasferimento (al giorno d'oggi, peraltro, facilmente implementabile in un codice di calcolo
che interpoli la curva di taratura) per assegnare ad ogni valore di Δp la velocità corretta.
In particolari situazioni potrebbe succedere che il campo di moto del fluido in cui è immerso il Pitot
presenti gradienti di velocità talmente elevati da determinare una grande differenza di velocità del
fluido tra le due prese. In questo caso la lettura della velocità andrà riferita al fluido che passa sulla
presa statica.
Utilizzi
Il tubo di Pitot è utilizzato su tutti gli aeroplani e in automobilismo (tipicamente Formula Uno) come
sensore per la determinazione della velocità rispetto all'aria e nelle gallerie del vento per la misurazione
della velocità della corrente d'aria. Viene inoltre utilizzato nell'impiantistica delle bonifiche ambientali,
in particolare per impianti tipo SVE (Soil Vapour Extraction), per monitorare le depressioni indotte
dalle pompe di aspirazione nel terreno oggetto della bonifica.
Frizione (meccanica)
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
La frizione è un organo meccanico che ha la funzione di connettere a comando due alberi per
permettere o meno ed eventualmente modulare la trasmissione del moto rotatorio.
L'apertura o chiusura della frizione può essere effettuata per via meccanica, tramite leve e cavi tiranti,
per via idraulica, pneumatica o elettrica.
Esistono poi frizioni automatiche, in grado di aprirsi se il momento torcente supera un valore limite
(limitatori di coppia) o chiudersi al superamento di una certa velocità angolare.
In una trasmissione a ruote di frizione è necessario che una ruota sia motrice e l'altra condotta, non è
possibile avere due ruote di frizione entrambe motrici o entrambe condotte. Avendo una ruota motrice e
l'altra condotta, dal momento che il punto di frizione è singolo (in un sistema ideale, nel sistema reale
la differenza è trascurabile) si ha una velocità periferica costante.
Semplificando la formula si ottiene un uguaglianza tra il prodotto del numero di giri e del diametro di
ciascuna ruota.
D1n1 = D2n2 Si arriva così a definire il rapporto di trasmissione indicato con la lettera greca τ (tau),
ovvero il rapporto tra il diametro della prima ruota e il quello della seconda, equivalente al rapporto tra
il numero di giri della seconda ruota e quello della prima; possiamo affermare quindi che in una
trasmissione con ruote di frizione il numero di giri di una ruota è inversamente proporzionale al
diametro della stessa.
Frizione dell'automobile
Il disco di attrito di una frizione di automobile. L'albero primario del cambio è connesso al centro del disco con
le molle.
Una applicazione tipica è nell'automobile, dove la frizione inserita nella trasmissione tra il motore ed il
cambio permette il temporaneo disinserimento del momento torcente prodotto dal motore per
permettere il cambio della velocità e scollega le ruote dal motore quando il veicolo è fermo,
mantenendo acceso il propulsore.
La comune frizione a secco è costituita da un disco di materiale di attrito, simile a quello usato nei
freni, solidale all'albero di trasmissione. Il disco è tenuto premuto da molle contro il volano del motore
in modo che avvenga la trasmissione del moto. Quando viene premuto il pedale di comando (il pedale
più a sinistra), attraverso un cavo tirante o un sistema idraulico il disco viene allontanato dal volano,
sconnettendo le due parti. Il cambio di velocità non è più soggetto a forza e gli ingranaggi possono
liberamente cambiare configurazione. Nelle motociclette la frizione viene aperta per mezzo di una leva
posta sulla maniglia di sinistra del manubrio.
Il materiale abrasivo è soggetto ad usura, in particolare nei momenti in cui il pedale è leggermente
premuto, pur senza staccare. In queste condizioni la forza delle molle è ridotta e il disco slitta
leggermente surriscaldandosi e deteriorandosi. Anche il rilascio della frizione contemporaneamente a
una brusca accelerata è causa di maggiore usura.
Esistono frizioni in olio, in cui l'elemento di attrito è immerso in un liquido refrigerante e lubrificante,
che ne migliora le prestazioni e allunga la durata.
Negli scooter senza marce, nelle motoseghe ed altri utensili a motore a scoppio, sono usate frizioni
automatiche, che per effetto di masse soggette alla forza centrifuga, sono in grado di innestarsi quando
la velocità angolare supera un certo limite.
In altri apparecchi, per esempio alcuni tagliaerba, sono impiegate frizioni che si aprono se la coppia
resistente supera un valore limite, per esempio se la macchina incontra un ostacolo.
Le molle presenti sulla frizione, insieme all'inerzia del volano, hanno la scopo di ridurre le fluttuazioni
di velocità angolari classiche del moto dell'albero a gomiti dei motori; in questo modo evitiamo di
eccitare la trasmissione.
Esistono frizioni a doppio e triplo disco il cui scopo è di trasmettere maggiore coppia rispetto a quelle
singole; vengono montate ovviamente su vetture performanti.
Materie plastiche
Da Wikipedia, l'enciclopedia libera.
Sono dette materie plastiche quei materiali artificiali con struttura macromolecolare che in
determinate condizioni di temperatura e pressione subiscono variazioni permanenti di forma. Si
dividono in termoplastici, termoindurenti ed elastomeri. Le gomme, pur avendo chimicamente e
tecnologicamente molti punti di contatto con le materie plastiche, non sono normalmente considerate
tali.
• Termoplastiche: sono dette termoplastiche un gruppo di materie plastiche che acquistano malleabilità,
cioè rammolliscono, sotto l'azione del calore.
In questa fase possono essere modellate o formate in oggetti finiti e quindi per raffreddamento tornano
ad essere rigide. Questo processo,teoricamente,può essere ripetuto più volte in base alle qualità delle
diverse materie plastiche.
• Termoindurenti: sono un gruppo di materie plastiche che,dopo una fase iniziale di rammollimento
dovute al riscaldamento,induriscono per effetto di reticolazione tridimensionale.
Nella fase di rammollimento per effetto combinato di calore e pressione risultano formabili. Se questi
materiali vengono riscaldati dopo l'indurimento non ritornano più a rammollire, ma si decompongono
carbonizzandosi.
• Elastomeri: la loro caratteristica principale è una grande deformabilità ed elasticità: possono essere sia
termoplastiche che termoindurenti.
A tale base polimerica vengono poi aggiunte svariate sostanze (dette "cariche") in funzione
dell'applicazione cui la materia plastica è destinata. Tali sostanze possono essere plastificanti, coloranti,
antiossidanti, lubrificanti ed altri componenti speciali atti a conferire alla materia plastica finita le
desiderate proprietà di lavorabilità, aspetto e resistenza.
Caratteristiche
Le caratteristiche vantaggiose delle materie plastiche rispetto ai materiali metallici e non metallici sono
la grande facilità di lavorazione, l'economicità, la colorabilità, l'isolamento acustico, termico, elettrico,
meccanico (vibrazioni), la resistenza alla corrosione e l'inerzia chimica, nonché l'idrorepellenza e
l'inattaccabilità da parte di muffe, funghi e batteri.
Lo smaltimento dei rifuti plastici, quasi tutti non biodegradabili, avviene di solito per riciclaggio o per
stoccaggio in discariche: bruciando materiali plasitici negli inceneritori infatti si genera diossina(solo
per quanto riguarda i polimeri che contengono atomi di cloro nella loro molecola come ad esempio il
PVC), un gas molto velenoso. Queste difficoltà hanno incentivato negli ultimi anni la diffusione della
bioplastica.
Molte materie plastiche (nylon, teflon, plexiglass ecc.) si prestano bene per processi di produzione
industriale con macchine utensili in modo del tutto analogo ai materiali metallici; per questo vengono
spesso prodotte in semilavorati (barre, profilati, lastre eccetera) da cui i prodotti finiti (ad esempio
boccole, rulli, anelli, perni, ruote) vengono ricavati con lavorazioni meccaniche.
La lavorazione più usata per produrre in serie oggetti di qualsiasi forma è lo stampaggio ad iniezione.
Si fa con speciali presse, le presse per iniezione termoplastica che fondono i granuli di materia
plastica e la iniettano ad alta velocità e pressione negli stampi.
Un altro processo che ha una buona applicazione nella produzione di prodotti in plastica è la
termoformatura, dove si parte da granuli di polistirolo o polipropilene. Si tratta dell'estrusione di film o
di lastre che vengono fatte passare, a temperatura adeguata, in uno stampo nel quale l'oggetto voluto
viene forgiato con la pressione dell'aria compressa o dell'aria atmosferica, con attrezzature di
produzione molto economiche.
Polimeri termoplastici
Possono esseri fusi e rimodellati più volte.
Polietilene
• PET (Polietilene Tereftalato): Consente di ottenere fogli sottili e leggeri. Resistente al calore fino a
250°C ed impermeabile ai gas.
o Usi: Contenitori per liquidi, vaschette per frigo e forno.
• PEHD (Polietilene ad alta densità): È resistente agli urti.
o Usi: Cosmetici, contenitori per detersivi, tubi per l'acqua
• PELD (Polietilene a bassa densità): Impermeabile ai gas e flessibile.
o Usi: Sacchetti, imballaggi, pellicole per alimenti
Polistirene
Polimeri termoindurenti
Possono essere formati una sola volta, perché, se sottoposti al calore una seconda volta, carbonizzano.
Resine termoindurenti
• Resine fenoliche: Le caratteristiche dipendono dai materiali con cui sono mescolate.
o Usi: Settore casalingo, mobili per televisori.
• Resine ureiche: Dure e colorate. Hanno buone proprietà meccaniche e sono facilmente lavorabili.
o Usi: Spine, prese, elettrodomestici, interruttori.
• Resine melamminiche: Buona resistenza alle alte temperature e all'umidità.
o Usi: Laminati, settore casalingo, arredamenti, vernici.
• Resine poliesteri insature: Sono leggere, facilmente lavorabili e resistenti agli agenti atmosferici.
o Usi: Piscine, coperture per tetti.
Ingranaggio
Da Wikipedia, l'enciclopedia libera.
Serie di ruote dentate in una macchina agricola
Un ingranaggio è una ruota dentata studiata per trasmettere momento torcente ad un altra ruota o
elemento dentato. La ruota più piccola è comunemente chiamata pignone, mentre la grande è chiamata
corona.
I denti sono progettati per minimizzare l'usura, le vibrazioni ed il rumore, e massimizzare l'efficienza
nel trasferimento di energia.
Ingranaggi di diversa dimensione sono spesso usati in coppia per aumentare il momento torcente
riducendo nel contempo la velocità angolare, o viceversa aumentare la velocità diminuendo il
momento. È il principio alla base del cambio di velocità delle automobili.
Data una coppia di ingranaggi, il rapporto di conversione della velocità è inversamente proporzionale al
rapporto tra il numero dei rispettivi denti:
Perché gli ingranaggi possano correttamente ingranarsi tra loro, è necessario che il passo, ovvero la
distanza tra le creste, sia uguale. Questo comporta che il diametro di una ruota dentata è in relazione
con il numero di denti atraverso il passo.
Gli ingranaggi sono fabbricati intagliando i denti per mezzo di speciali macchine fresatrici, dette
dentatrici.
Tipi di ingranaggi
Ruota dentata semplice
Il tipo più comune di ingranaggio è quello a denti dritti. La ruota dentata è piatta, l'asse dei denti si
proietta radialmente dal centro di rotazione dell'ingranaggio e le creste dei denti decorrono
trasversalmente al piano di rotazione e parallelamente tra loro. Questi ingranaggi possono accoppiare
solamente assi paralleli, inoltre soffrono del problema del gioco: quando la rotazione avviene in un
senso, un dente spinge contro un lato del corrispondente dente dell'altra ruota; se la rotazione si inverte,
la faccia opposta deve spingere sulla corrispondente e questo comporta un momento in cui i denti si
spostano senza trasmettere movimento. Questo comporta che per un attimo dopo avere applicato
rotazione in entrata non si ha rotazione in uscita. Per questo motivo sono state ideate soluzioni
alternative per eliminare il problema ove necessario.
Esistono anche ruote dentate cave in cui la dentatura è ricavata sulla superficie interna di un cilindro
scavato nella ruota stessa, che offrono il vantaggio di avvicinare gli assi paralleli di corona e pignone.
La ruota elicoidale è un miglioramento rispetto a quella semplice. I denti sono tagliati con un certo
angolo rispetto al piano, in modo che la superficie di spinta tra i denti sia maggiore e il contatto
avvenga più dolcemente, eliminando lo stridore caratteristico degli ingranaggi semplici.
Progettando opportunamente l'angolo dei denti, è possibile accoppiare ingranaggi con gli assi sghembi
o anche perpendicolari.
Lo svantaggio di questa soluzione è la produzione di una forza risultante lungo l'asse dell'ingranaggio,
che deve essere sostenuta da un apposito cuscinetto a sfere. Un altro svantaggio è un maggiore attrito
tra i denti causato dalla maggiore superficie di contatto, che deve essere ridotto con l'uso di lubrificanti.
L'ingranaggio a doppia elica supera il problema precedentemente accennato grazie all'uso di denti con
cresta a forma di V. Si può immaginare questo ingranaggio come costituito da due ruote elicoidali
distinte ma speculari affiancate, in modo che le forze assiali si annullino vicendevolmente.
Ruote coniche
Nelle ruote coniche la corona della ruota è smussata e le creste dei denti giacciono sulla superficie di un
cono ideale. In questo modo due ingranaggi possono essere affiancati con un certo angolo tra gli assi.
Se l'inclinazione dei denti di ciascuna ruota è di 45°, l'angolo tra gli assi è di 90°. Questo sistema è
usato per esempio tra planetari e satelliti nel differenziale delle automobili.
La corona ipoide è un particolare ingranaggio conico in cui i denti sono ruotati fino a diventare
paralleli al piano di rotazione della ruota. Si ingrana con un pignone a denti paralleli o elicoidali di
piccole dimensioni.
Una variante di questo sistema è usata in diversi sistemi di scappamento per orologi meccanici.
Un'altra variante, la coppia conica ipoide, è formata da una corona ed un pignone (con denti a spirale)
i cui assi non giaciono sullo stesso piano. Per questo motivo l'angolo medio della spirale della corona è
molto inferiore a quello del pignone. Tale coppia conica è stata introdotta nel campo dell'autotrazione
per molti pregi: è più silenziosa, trasmette piu momento torcente avendo più ricoprimento tra i denti di
entrambe i membri, permette di ridurre l' altezza del tunnel dove corre l'albero di trasmissione del moto
dal motore anteriore al ponte posteriore aumentando l'abitabilita' dell'auto, aumentando nel contempo la
luce tra il terreno e la scatola del differenziale.
Cremagliera e pignone
Il sistema a cremagliera (o dentiera) e pignone permette di convertire una rotazione in moto lineare. Il
pignone è una semplice ruota dentata, mentre la cremagliera è una barra dentata di lunghezza arbitraria.
La si può considerare equivalente ad una ruota dentata di raggio infinito.
Questo sistema è usato nelle automobili per convertire la rotazione dello sterzo in moto lineare laterale
degli organi che agiscono sulle ruote.
Lo stesso principio è sfruttato in alcune ferrovie dette a cremagliera, in cui i treni sono in grado di
risalire forti pendenze grazie al contatto tra una ruota dentata sporgente sotto il locomotore ed una
lunga cremagliera solidale al binario, posta in mezzo alle rotaie dello stesso.
Ingranaggio settoriale
Un ingranaggio settoriale è semplicemente un settore di una ruota dentata comune, per esempio un
quarto o metà circonferenza, collegata allo stesso modo all'asse. Naturalmente questo ingranaggio
lavora solamente sulla parte dentata è non può superare i limiti del settore. È impiegata dove non è
necessario avere una rotazione di 360° ma è importante risparmiare peso e spazio.
Gli ingranaggi non circolari sono ingranaggi speciali appositamente progettati per particolari impieghi.
Mentre in un ingranaggio normale si cerca di massimizzare la trasmissione di energia con un rapporto
costante, in un ingranaggio non circolare l'obiettivo è di avere un rapporto di trasmissione variabile
durante la rotazione oppure lo spostamento dell'asse o altre funzioni. La sagoma dell'ingranaggio può
essere di qualunque forma adatta allo scopo, limitatamente all'immaginazione dell'inventore o
dell'ingegnere. Ruote con minime variazioni di rapporto possono avere forma quasi circolare, oppure
l'asse può non corrispondere con il centro geometrico della ruota.
Normalmente sono usati per questi ingranaggi i denti paralleli, a causa in particolare della
complicazione del moto. La fabbricazione non avviene come per i normali ingranaggi per fresatura, ma
in genere per fusione, sinterizzazione o taglio da una lastra (al plasma o laser).
Il sistema a vite senza fine ha lo scopo di trasferire moto e momento torcente con elevato rapporto e tra
due assi perpendicolari non intersecantisi. È costituito da una ruota (pignone) con incisa una spirale con
lungo passo per tutta la lunghezza a formare una vite, accoppiata ad una ruota di grande diametro con
denti elicoidali. Per ogni giro del pignone corrisponde l'avanzamento di un solo dente nell'altra ruota, e
questo permette rapporti molto elevati.
A differenza di altri ingranaggi, il sistema non è reversibile a causa del notevole attrito. La vite senza
fine può azionare la ruota ma non il contrario. Questo è vantaggioso dove si voglia che il sistema
collegato all'uscita sia frenato quando non azionato.
Sistemi epicicloidali
Una serie di ingranaggi epicicloidali è usata in questa illustrazione per aumentare la velocità. Il planetario porta-
satelliti (verde) è messo in rotazione da un momento entrante, il pignone solare (giallo) costituisce l'uscita,
mentre la corona internamente dentata (in rosso) è fissa. Si notino i segni rossi prima e dopo che l'ingresso ha
subito una rotazione di 45° in senso orario
Un caso si ha quando il planetario (in verde nell'illustrazione a lato) è fermo e il pignone (giallo)
costituisce l'ingresso I satelliti (blu) ruotano con un rapporto determinato dal numero di denti in ogni
ruota. Se il pignone ha S denti e ogni satellite P denti, il rapporto è uguale a -S/P. Nell'illustrazione il
rapporto è -24/16 ovvero -3/2: ogni rotazione del pignone produce una rotazione e mezza dei satelliti in
direzione opposta. se all'esterno viene applicata una corona con C denti, questa ruoterà P/C volte la
rotazione dei satelliti. Poiché la rotazione dei satelliti è -S/P la rotazione del pignone, ne consegue che
il rapporto tra corona e pignone è pari a: -S/C.
Un'altra possibilità è che la corona sia fissa, con l'ingresso applicato al planetario e l'uscita sul pignone.
Questa configurazione produce un incremento di velocità con rapporto 1+C/S.
Diverse unità epicicloidali possono essere collegate in serie, con ogni planetario solidale con il pignone
successivo (tranne ovviamente il primo e l'ultimo elemento). Si realizza così un gruppo motoriduttore
(in diminuzione o in aumento) compatto, con rapporti molto elevati e con gli alberi di ingresso e uscita
allineati.
Un sistema di cambio di velocità epicicloidale è utilizzato in alcune biciclette al posto del più comune
cambio a deragliamento.
Freno a disco
Da Wikipedia, l'enciclopedia libera.
Primo piano di un freno a disco di un'automobile
Sulle automobili, i freni a disco sono spesso posizionati all'interno della ruota
Il freno a disco è un dispositivo il cui scopo è rallentare o fermare la rotazione di una ruota. Un freno a
disco è solitamente costruito in ghisa, ed è collegato alla ruota o all'asse. Per frenare la ruota, una o più
coppie di pastiglie (montate all'interno delle pinze dei freni) sono premute contro il disco da entrambi i
suoi lati. Questo movimento è realizzato con dispositivi meccanici o idraulici (che forniscono
prestazioni migliori); in ogni caso l'attrito risultante causa il rallentamento del disco e della ruota ad
essa solidale.
Storia
I primi esperimenti con freni a disco iniziarono in Inghilterra negli ultimi anni del diciannovesimo
secolo; i primi freni a disco vennero brevettati da Frederick William Lanchester di Birmingham nel
1902. Passò un quarto di secolo prima che il sistema venisse adottato.
Il primo freno a disco, quello che si è poi trasformato nel sistema attualmente in uso, apparve in
Inghilterra a cavallo tra gli anni quaranta e gli anni cinquanta del secolo scorso. Offrivano una capacità
frenante decisamente superiore ai fino ad allora utilizzati freni a tamburo, ma quello non era il solo
vantaggio. Anche la resistenza al "fading" (cioè la caratteristica di mantenere immutata o quasi la forza
frenante dopo azionamenti ripetuti, limitando il surriscaldamento dei componenti) e la notevole
efficacia frenante da bagnati (utile per la sicurezza su strada in caso di maltempo ed indispensabile per
uso fuoristradistico) erano dei "plus" non indifferenti. La semplicità meccanica del sistema a disco, il
minor numero di componenti utilizzato e la facilità di riparazione costituivano altri ulteriori ed
innegabili vantaggi.
Come spesso avviene il primo impulso alla diffusione dei freni a disco venne dalle competizioni
automobilistiche, dove le qualità sopra menzionate costituivano un grande vantaggio competitivo.
Le primissime implementazioni di questo sistema frenante prevedevano un solo disco montato vicino al
differenziale, solo successivamente vennero montati all'interno delle ruote. La ragione del disco unico
montato in posizione centrale scaturiva dal presupposto di avere minori masse sospese, concentrazione
della massa vicino al baricentro e minor riscaldamento degli pneumatici, fattore di vitale importanza
per le Formula 1 di allora.
I freni a disco sono oggi diventati indispensabili sulle autovetture di serie, anche se alcune auto (specie
quelle più piccole e leggere) a tutt'oggi montano sulle ruote posteriori dei freni a tamburo per ragioni di
costo, di semplicità di implementazione del freno di stazionamento (il cosiddetto "freno a mano").
Essendo la forza frenante delle auto concentrata in larghissima parte sulle ruote anteriori questa
soluzione può comunque essere considerata un ragionevole compromesso.
I Dischi
Alcuni sono in ghisa pieno e doppia faccia di contatto, altri sono costituiti da due dischi con una sola
faccia di contatto uniti tra loro in modo da lasciare comunque un passaggio per l'aria. Sono i dischi
denominati "ventilati", il passaggio d'aria al loro interno durante il movimento serve a dissipare una
maggior quantità di calore.
Molte motociclette ed auto sportive presentano anche parecchie forature (in senso trasversale) della
superficie del disco. Queste forature hanno sia lo scopo di dissipare calore (con efficacia inferiore
rispetto al disco ventilato) che di aumentare l'efficacia frenante. Infatti provvedono con il bordo a
"raschiare" la pastiglia aumentando la forza frenante, pur accelerandone l'usura. Inoltre allontanano più
velocemente il velo d'acqua che si forma sulla superficie frenante durante la marcia sul bagnato.
Altri dischi presentano delle leggere scavature o canali (baffature) che aiutano a rimuovere il materiale
consumato delle pastiglie freno. Quest'azione meccanica previene la vetrificazione delle stesse
(fenomeno dovuto all'eccessivo calore che modifica la superficie d'attrito in modo permanente,
riducendone notevolmente il coefficiente d'attrito) e inoltre aumentano la forza frenante raschiandole in
maniera analoga alle forature trasversali. Questo tipo di disco non viene generalmente utilizzato sulle
auto di produzione in quanto troppo aggressivo verso le pastiglie freno, la cui durata ne viene
fortemente inficiata.
Naturalmente possono esistere dischi che combinano due o più di queste caratteristiche.
I dischi freno sono normalmente soggetti a piu tipi di danneggiamento: la deformazione, la rigatura, la
rottura, vetrificazione. In aggiunta, talvolta si può rendere necessaria una rilavorazione meccanica dei
dischi che ne può ridurre notevolmente la durata.
Deformazione
• La deformazione dei dischi freno può essere causata da un eccessivo riscaldamento degli stessi; il
rammollimento del metallo può generare ondulazioni od ovalizzazioni che il successivo raffreddamento
rende permanenti. Naturalmente questo fenomeno è notevolmente più improbabile nel caso di dischi
ventilati.
La deformazione può inoltre essere generata da una impropria coppia di serraggio dei bulloni che
fermano la ruota.
Le auto dotate di cambio automatico di tipo epicicloidale necessitano di essere frenate durante le pause
di marcia, avendo questo tipo di trasmissione uno strisciamento che genera un avanzamento anche al
regime di minimo del motore. Nelle zone di contatto tra pastiglia e disco la temperatura scende più
lentamente, per cui nella frenata successiva si potrebbero generare discontinuità dell'azione frenante
dovuta alle diverse temperature delle diverse aree del disco. Anche questo effetto, seppur transitorio
nelle auto moderne, introduce le stesse sensazioni di un disco deformato.
La deformazione del disco può essere evitata utilizzando i freni in maniera appropriata. Utilizzando
spesso il freno motore, evitando frenate troppo prolungate (sempre se possibile a seconda del traffico, è
preferibile frenare più forte e rilasciare ad intermittenza) si può efficacemente diminuire le probabilità
di surriscaldamento.
Rigatura
• La rigatura di solito è conseguenza diretta della mancata sostituzione delle pastiglie freno quando queste
sono consumate. Il materiale d'attrito viene consumato con l'utilizzo, quando termina la base delle
pastiglie (solitamente in acciaio) viene a contatto con il disco rigandolo. In queste condizioni, acciaio
contro acciaio, la forza frenante è oltretutto quasi nulla.
Se la rigatura non è troppo profonda si può rilavorare meccanicamente il disco asportandone la parte
superficiale fino a renderlo nuovamente liscio.
La verifica dello stato di usura delle pastiglie è relativamente semplice in quanto normalmente in vista.
Quasi sempre esse hanno una tacca di riferimento, una scanalatura, che indica quando le pastiglie
necessitano di sostituzione.
Rottura
• La rottura è un fenomeno generalmente limitato ai dischi forati, si localizza normalmente verso il bordo
del disco, quando un utilizzo troppo violento dei freni crea differenze di dilatazione termica amplificate
dalle forature (sul cui bordo si creano le prime fessurazioni). Da quel momento le crepe si
ingigantiscono molto velocemente e possono portare fino alla rottura definitiva del disco. Un disco
crepato (ovviamente anche rotto), non si può riparare in nessun modo.
La necessità di forare i dischi, oltre che per smaltire più velocemente il calore, può anche essere dovuta
ad una precisa scelta progettuale (limitazione della superficie d'attrito e quindi di forza frenante in
funzione della destinazione del mezzo, oppure per limitare le masse sospese ed il peso complessivo).
Vetrificazione
La ghisa sottoposta ad alte teperature si trasforma in acciaio cementato, questo ha uno scarso
coefficiente d'attrito e un durezza molto elevata. Sul disco si presentano delle chiazze.
Rilavorazione meccanica
• La rilavorazione meccanica ha tre fini: ripianare dischi deformati (ricreandone la planarità), eliminare
rigature profonde, ripulire la superficie del disco (consigliabile quando vengono montate nuove pastiglie
freno). Quest'ultima operazione si può eseguire efficacemente con delle macchine utensili appositamente
concepite per questa operazione.
Pinza freno
La pinza freno è l'insieme delle pastiglie freno e delle componenti che le muovono (pistoncini o
cilindretti). I cilindretti sono costruiti generalmente in alluminio o acciaio cromato.
Una pinza freno fissa non ha nessun movimento in relazione al disco freno. Utilizza uno o più coppie di
cilindretti che schiacciano le pastiglie freno verso il disco su entrambe le facce dello stesso, è più
complessa e più costosa del tipo flottante.
Una pinza freno flottante ha libertà di movimento rispetto al disco freno. Il cilindretto da un lato del
disco freno spinge una pastiglia verso il disco, quando avviene il contatto esso comincia a tirare la
pinza rendendo possibile anche il contatto della pastiglia dal lato opposto del disco.
Una pinza flottante a singolo pistone può provocare l'incollamento della pastiglia sul disco, a causa
dello sporco o della corrosione che può intervenire quando il mezzo non viene utilizzato a lungo.
L'incollamento è ovviamente deleterio per la durata del sistema frenante e per la stabilità del mezzo.
Pistoncini e Cilindretti
Il più diffuso sistema di pinza freno comprende un singolo pistoncino attivato idraulicamente che si
muove all'interno di un cilindretto. Il numero di pistoncini può aumentare a seconda delle necessità
frenanti richieste dal progetto, fino a normalmente un massimo di 8. Le auto moderne hanno il circuito
idraulico dei freni (che muove i pistoncini) sdoppiato per ragioni di sicurezza.
Problematiche relative a questi componenti possono essere dovute al grippaggio del pistoncino che
quindi non rientra più nella posizione di riposo. Questo fenomeno è frequente in auto utilizzate per
lungo tempo in condizioni ambientali sfavorevoli.
Pastiglie freno
Le pastiglie freno sono costituite da una base (che viene spinta dai pistoncini) ed una strato d'attrito
composto da materiali vari. Lo strato d'attrito genera una frizione sul disco freno quando viene premuto
su di esso, in effetti la superficie a contatto subisce delle modificazioni generando una frizione di tipo
semi-liquido. A seconda delle proprietà e della composizione del materiale d'attrito si può privilegiare
l'efficienza (la forza frenante) o la durata delle pastiglie. Le pastiglie vanno sostituite regolarmente
essendo materiale d'usura, e sono stati sviluppati sistemi in grado di rendere visibile quando arriva
questo momento. Alcune semplicemente hanno un intaglio nello strato d'attrito: quando le pastiglie
sono così consumate da raggiungere il fondo dell'intaglio (che diviene quindi non più visibile) è giunto
il momento di procedere alla sostituzione. Altre (ma si tratta di un sistema ormai in disuso) hanno un
sottile pezzo di metallo dolce (per non incidere i dischi) al proprio interno che genera uno stridìo
avvertibile. Altre ancora hanno un'aletta sempre di metallo dolce al proprio interno che, quando viene a
contatto del disco freno, chiude un circuito elettrico accendendo una spia di avvertimento sul cruscotto.
Esistono anche più sofisticati e costosi sensori elettronici allo scopo.
Le prime pastiglie freno erano costituite preminentemente di amianto, i cui pericoli dovuti
all'inalazione sono noti da tempo. Al giorno d'oggi l'utilizzo di tale elemento è scomparso.
Giunto cardanico
Da Wikipedia, l'enciclopedia libera.
Giunto cardanico
Esso permette di trasmettere il moto tra due assi in rotazione i cui prolungamenti sono incidenti in un
punto. È costituito (oltre che da gli assi tra cui si trasmette il moto, i quali non fanno parte propriamente
del giunto) da due coppie rotoidali disposte su un stesso membro piegato a 90°, ognuna su un lato,
collegata ad un asse. Il giunto cardanico è molto utilizzato in meccanica per le sue proprietà, ma anche
per la relativa semplicità ed economicità rispetto ad altre tipologie di connessione tra alberi della
tipologia suddetta. Il rapporto di trasmissione, cioè il rapporto tra le velocità angolari dell'albero motore
e dell'albero condotto è dato dalla formula:
τ = ω2/ω1 = cos(α)/[1-sen2(α)*cos2(θ)]
Dove: ω2 e ω1 sono le rispettive velocità angolari dell’albero 2 e dell’albero 1; α è l’angolo formato dai
due alberi; θ è l’angolo descritto dal lato del membro collegato all’albero 1 durante la rotazione dello
stesso albero.
Il giunto cardanico non è omocinetico, non permette cioè di trasmettere la stessa velocità angolare tra i
due alberi, ma ciò può essere ottenuto utilizzando due giunti cardanici in serie tra loro.
In meccanica viene utilizzato generalmente negli alberi dello sterzo e nella trasmissione Nelle
macchine agricole viene utilizzato un albero telescopico con due giunti cardanici per trasmettere il
moto rotatorio dalla presa di potenza del trattore agli attrezzi collegati.
Giunto omocinetico
Da Wikipedia, l'enciclopedia libera.
Un giunto omocinetico è un qualunque dispositivo, scollegabile, di trasmissione del moto rotatorio tra
due alberi (o altri elementi rotanti) che mantenga unitario e costante nel tempo il rapporto di
trasmissione.
In pratica, la velocità angolare dei due alberi collegati risulta uguale istante per istante.
Ve ne sono di svariati tipi, dai più semplici, che collegano rigidamente due alberi disposti sullo stesso
asse di rotazione, ai più complessi che trasmettono il moto tra alberi disallineati e in moto relativo (cioè
i cui assi di rotazione, formano un angolo che varia nel tempo).
Ad esempio, nelle automobili a trazione anteriore, giunti di questo tipo sono utilizzati per connettere i
semialberi ai mozzi delle ruote sterzanti da un lato e al differenziale dall'altro.
Tutto ciò si rende necessario per il moto relativo, consentito dalla sospensione, tra il gruppo mozzo-
ruota e il telaio , che si verifica durante la marcia del veicolo.
L'impiego di due giunti cardanici che colleghino due alberi paralleli, equivale all'utilizzo di un giunto
omocinetico.
Giunto viscoso
Da Wikipedia, l'enciclopedia libera.
Si tratta di un organo meccanico con lo scopo di collegare due alberi non in maniera rigida, ma
permettendo piccole differenze di velocità di rotazione. Due serie di dischi collegate alle estremità
dell'albero uscente ed entrante sono poste a distanza ravvicinata in una scatola che contiene un
particolare liquido siliconico che ha la caratteristica di aumentare notevolmente la sua viscosità con la
temperatura. Quando le velocità dei due alberi sono diverse il liquido si scalda e, aumentando l'attrito
con i dischi, limita lo slittamento relativo dei due fino ad impedirlo (con tempi di intervento dell'ordine
del secondo). Quando la tendenza ad avere velocità diverse diminuisce il liquido si raffredda e torna a
permettere piccole differenze di velocità di rotazione.
Il giunto viscoso viene utilizzato principalmente come sistema di bloccaggio automatico del
differenziale centrale (o, meno frequentemente, posteriore) degli autoveicoli a trazione integrale,
principalmente dalle auto sportive e dai SUV dalle caratteristiche più stradali che fuoristradistiche. In
alcuni casi può direttamente sostituire il differenziale centrale.
Nell'uso stradale l'intervento progressivo del bloccaggio dovuto al tempo necessario al liquido per
riscaldarsi è da considerarsi un vantaggio sia per non cogliere impreparato il conducente sia per
questioni di confort. Nelle competizioni invece si preferisce ricorrere ad altre soluzioni che riducano il
tempo di bloccaggio.
I processi di produzione industriale si distinguono secondo il tipo di lavorazione del materiale o pezzo
di partenza. L'Ente Nazionale Italiano di Unificazione (UNI) non ha, sinora, presentato una
nomenclatura scientifica dei diversi processi di produzione industriale.
Nella DIN 8580 si tenta una suddivisione dei processi di produzione industriale in diverse categorie, a
seconda del tipo di effetto che il singolo processo ha sulla coesione fra le parti o particelle che
compongono il corpo solido soggetto a lavorazione (pezzo da lavorare), o materiale grezzo. Tale
coesione, infatti, mediante la tecnologia del processo produttivo, può essere creata ex novo, può esistere
già e cambiare caratteristiche, può essere aumentata oppure essere diminuita o addirittura eliminata. In
virtù di queste possibilità, la DIN 8580 prevede le seguenti categorie di processi, talvolta astratte, per le
quali nell'italiano tecnico non sempre è stato possibile trovare dei termini inequivocabili:
Galvanizzazione
Da Wikipedia, l'enciclopedia libera.
Tale termine, che richiama evidentemente gli studi di Luigi Galvani, è stato usato per la prima volta dal
francese Albert Sorel che nel 1837 ottenne i primi brevetti per la zincatura a caldo. I primi
procedimenti furono effettuati con la corrente elettrica prodotta da una pila voltaica.
Tempra
Da Wikipedia, l'enciclopedia libera.
Il trattamento di tempra consiste in un brusco raffreddamento del metallo dopo averlo portato ad alta
temperatura; l'elevata velocità di raffreddamento inibisce l'azione diffusiva atta al ripristino
dell'equilibrio e il numero di vacanze (e quindi di cluster, cioè raggruppamenti di difetti puntuali) che
compete alla temperatura di tempra è conservato a temperatura ambiente. Più in generale si può dire
che la tempra, inibendo i processi diffusivi necessari alla stabilizzazione termodinamica, trasferisce a
temperatura ambiente uno stato termodinamicamente competente a temperatura maggiore.
Un monocristallo così trattato ha resistenza meccanica maggiore rispetto al monocristallo raffreddato
lentamente.
Grazie alla tempra, per esempio, si trasforma la struttura perlitica del ferro in martensitica: si porta il
ferro da temprare a una temperatura di circa 50°C sopra quella di austenizzazione e lo si raffredda
molto rapidamente fino a temperatura ambiente; non avendo così il tempo per diffondere, il carbonio
rimane intrappolato all'interno della cella gamma, che si trasforma in cella alfa a temperatura ambiente;
ciò porta ad avere una struttura tetraedrica, che è appunto la martensite.
Note. L'acciaio con concentrazione di C superiore allo 0,3-0,5% presenta un alto livello di rischio di
criccature. La presenza di elementi leganti rallenta la dissoluzione dei carburi durante
l'austenitizzazione. L'uso di acciai legati in organi sollecitati a fatica o a flessione può essere pericoloso
per il rischio di criccature ed è quindi sconsigliato se non indispensabile.
Tempra di durezza
È un trattamento termico che sopprime la trasformazione eutectoidica e conduce alla formazione di
martensite per raffreddamento continuo. Considerando il grafico delle curve CCT, la curva della
velocità di raffreddamento in ogni punto del pezzo non deve incrociare le curve CCT, così che si arrivi
alla sola formazione di martensite.
Si deve quindi tenere presente che la curva di raffreddamento dipende da
• bagno di tempra
• caratteristiche termiche dell'acciaio
• caratteristiche geometriche del pezzo trattato
La profondità di tempra è rilevabile mediante due metodi, basati sul principio che la durezza dipende
unicamente dalla quantità di martensite e dal tenore di carbonio.
• Diametro ideale. Si misura il diametro critico (diametro della barra che dopo tempra ha 50% di
martensite al centro), ricavandolo dal diamentro ideale di una barra temprata in un bagno ideale di
tempra, con indice di drasticità H infinito, grazie al diagramma proposto da Grossmann.
• Curva di Jominy. Un provino cilindrico viene temprato e raffreddato secondo un metodo standard, segue
quindi la misurazione della durezza Rockwell C lungo il suo asse e la costruzione di un grafico durezza -
distanza dall'estremo; quest'ultimo consente di valutare e confrontare la temprabilità di diversi acciai (ad
esempio il 40CrMo4 è più temprabile del C40); la penetrazione di tempra è ricavabile nel momento in
cui si conosce la durezza corrispondente al 50% di martensite.
É possibile ricavare i risultati del primo metodo da quelli del secondo, grazie a correlazioni standard
codificate in normative ISO.
Ambiente di riscaldamento
Bisogna evitare l'ossidazione e la decarburazione del pezzo temprato. Si può quindi proteggerlo con:
• sostanze solide (trucioli di ghisa grigia, carbone), adatte in forni elettrici, per acciai al carbonio, basso-
legati fino a 0,6% di C, ad alto cromo (ad esempio X210Cr13) e temperatura di tempra inferiore a
1050°C;
• sostanze liquide (sali fusi) per pezzi pregiati, ad esempio utensili da taglio o parti di macchine, in cui si
richieda uniformità e precisione del riscaldamento;
• sostanza gassose (CO, CO2, H2, N2, gas inerti) per trattamenti economici su larga scala; un caso
particolare è il vuoto.
Velocità di riscaldamento
Temperatura di tempra
Permanenza in temperatura
Mezzo di tempra
I mezzi più usati sono acqua, olio, sali fusi e aria e sono classificati in base all'indice di severità H.
Si distinguono 3 stadi di raffreddamento per liquidi soggetti a ebollizione:
1. al primo contatto del mezzo col pezzo si forma una pellicola di vapore (calefazione), con raffreddamento
relativamente lento;
2. nel momento in cui essa si rompe, nuovo liquido tocca il pezzo, assorbe il calore latente di evaporazione
e si raggiunge così la massima asportazione di energia;
3. con il passaggio sotto alla temperatura di ebollizione, si ha un calo nell'asportazione di calore.
L'acqua è il mezzo di spegnimento più diffuso, soprattutto per acciai al carbonio e alcuni bassolegati,
ma non è il fluido ideale. La sua azione può essere migliorata con l'aggiunta di sostanze che ne
innalzino il punto di ebollizione, per esempio con NaCl o NaOH.
L'olio minerale è adatto ad acciai basso e medio legati, cioè suscettibili di formare austenite stabile e
quindi trasformabile con bassa velocità critica di tempra. Si avvicina maggiormente al fluido ideale,
riducendo le tensioni interne e i difetti di tempra.
L'aria è consigliata per acciai alto legati e quelli basso e medio legati in pezzi complessi.
I sali fusi, adatti a pezzi non troppo grossi e di acciaio ben temprabile, eccellono soprattutto nei
trattamenti isotermici sostitutivi della tempra.
Tempra ad induzione
Un corpo buon conduttore di elettricità, posto entro un campo magnetico alternato, si riscalda per
effetto Joule grazie alle correnti indotte: questo fenomeno permette di portare ad alta temperatura, e
quindi austenitizzare, un oggetto di acciaio.
A causa dell'effetto pelle della corrente alternata, lo spessore dello strato riscaldato varia con la
frequenza della corrente (ma dipende anche dalla conducibilità del materiale); industrialmente si
utilizzano generatori a bassa frequenza (inferiore a 5 kHz), media frequenza (da 5 a 30 kHz) e alta
frequenza (200 kHz); lo strato di materiale interessato dal riscaldamento è inversamente proporzionale
alla frequenza generata (bassa frequenza corrisponde a strati più profondi).
Segue la fase di raffreddamento, localizzato o progressivo, in olio, acqua o soprattutto in una emulsione
di acqua e polimero. Se il riscaldamento è localizzato, il raffreddamento può avvenire per immersione o
spruzzamento; esempi di tempra localizzata sono: lame per forbici o falciatrici, taglienti di pinze
troncatrici, vomeri, denti di ingranaggi e soprattutto pezzi ruotabili durante il riscaldamento.
La tempra progressiva comporta invece lo scorrimento del pezzo rispetto alla bobina e immediato
raffreddamento della superficie in uscita. Il metodo è usato per guide di bancali, lame per seghetti,
denti di ingranaggi di grandi dimensioni, alberi di trasmissione, steli per attuatori pneumatici, cuscinetti
a rotolamento...
Ultima fase del processo è il rinvenimento ad induzione, a 160-200°C.
Per evitare criccature, gli acciai sottoponibili a tale trattamento sono gli acciai al carbonio o poco legati
(39NiCrMo3) con C = 0,30-0,50% (classificabili negli acciai da bonifica) (eccezione: se la tempra deve
raggiungere il cuore del pezzo, possono essere usati il 100Cr6 e il 100CrMn4, ad esempio nei cuscinetti
a rotolamento). La bonifica serve ad ottenere una struttura di partenza con carburi fini, che si
disciolgano presto nell'austenite durante il veloce riscaldamento, e un cuore tenace; per motivi inversi
si escludono gli acciai ricotti (carburi grossolani e cuore scarsamente tenace).
Patentamento
É una variante dell'austempering, consistente nel far passare con movimento continuo un filo di acciaio
armonico all'interno di un bagno termale di piombo fuso a 500°C. Si ottiene perlite fine, adatta alla
trafilatura.
Martempering
Il rinvenimento a bassa temperatura non elimina sempre adeguatamente cricche e distorsioni. Conviene
ricorrere allora al martempering, cioè alla sosta isotermica a temperatura leggermente superiore a Ms, in
un bagno di sali, per il tempo strettamente necessario a uniformare la temperatura del pezzo ma non
sufficiente alla formazione di bainite. Segue il raffreddamento in aria e il rinvenimento.
Vantaggi: formazione contemporanea di martensite, nessuna ossidazione o decarburazione se il
raffreddamento finale avviene in atmosfera protettiva, maggiore tenacità a scapito di un po' di durezza.
Svantaggi: maggiori costi di impianto, più austenite residua.
Tensioni termiche. Sono determinate dalla contrazione non contemporanea di strato interno e strato
esterno di un pezzo. Sono proporzionali alla drasticità del raffreddamento, alla temperatura di tempra e
allo spessore, mentre sono inversamente proporzionali alla resistenza del metallo; particolarmente
evidenti sono nei metalli privi di trasformazione di fase solida, come acciai al carbonio extradolci,
inossidabili ferritici e austenitici.
La situazione più favorevole vede la sollecitazione a compressione del guscio esterno e a trazione del
cuore, attuando una sorta di "deformazione sferica" che non solo non presenta motivi di pericolo, ma
anzi favorisce la resistenza a fatica e a flessione (dato che si sommano algebricamente ai carichi
esterni).
Si considerino gli acciai legati: le loro curve CCT sono molto spostate a destra rispetto alle curve di
raffreddamento e questo facilità la creazione di tensioni elastiche residue non adeguatamente
distribuite. Pertanto il loro uso nel caso di organi sollecitati a fatica o a flessione deve essere
adeguatamente valutato. Di solito migliore distribuzione delle tensioni residue risulta negli acciai al
solo carbonio.
Si pone infine l'attenzione su ulteriori elementi da valutare al fine del contenimento delle tensioni di
tempra: velocità di riscaldamento, percentuale di carbonio superiore allo 0,3 - 0,5%, ambiente di
riscaldamento che possa provocare ossidazione o decarburazione, temperatura di tempra eccessiva che
infragilisca la martensite prodotta, velocità di raffreddamento, austenite residua, bagno di tempra che
non assicuri uniformità di temperatura (per gli acciai alto legati si consiglia l'aria calma).
Interruttore
Da Wikipedia, l'enciclopedia libera.
Introduzione
Esiste una varietà immensa di interruttori. Nella forma più elementare l'interruttore è costituito da due
contatti metallici che possono essere mossi per entrare in contatto o separati. Dispositivi più complessi
possono agire contemporaneamente su più circuiti, per esempio per interrompere contemporaneamente
le tre linee nel sistema trifase. Ogni contatto di un circuito separato è chiamato polo. Alcuni interruttori
hanno una configurazione complessa di contatti, in cui per esempio quando un contatto viene aperto la
linea corrispondente è collegata ad un altro circuito. In questo caso si ha un deviatore. Esistono
interruttori, detti commutatori, in cui una linea può essere collegata a più di una uscita in alternativa.
In altri modelli il ritorno alla posizione precedente dopo l'intervento dell'operatore viene effettuata da
una molla. e si ha un pulsante. In genere i punti di contatto sono rivestiti con metalli nobili quali il
platino, allo scopo di proteggerli dall'ossidazione che potrebbe dare origine a giunzioni inaffidabili e
pericolosi surriscaldamenti.
Il sezionatore è un particolare interruttore progettato per manovrare solamente in condizioni circuitali
di regime, non in presenza di sovracorrente dovuta a guasti o sovraccarichi.
• Tensione nominale: è la massima tensione sopportabile tra i contatti in posizione aperta. È determinata
anche in base all'isolamento del dispositivo rispetto all'ambiente esterno.
• Corrente massima nominale: è la massima intensità di corrente elettrica che può attraversare
l'interruttore senza danneggiarlo in seguito al surriscaldamento prodotto per effetto Joule.
• Potere di interruzione: è la corrente massima che il dispositivo è in grado di interrompere. Per correnti
superiori i contatti potrebbero non essere in grado di aprirsi.
• Grado di protezione IP: indica il livello di protezione verso il contatto con il corpo umano e contro
l'acqua.
Da un punto di vista costruttivo un interruttore è estremamente diverso a seconda che debba operare a
bassa, media o alta tensione, e anche in funzione della corrente nominale gestita. Si passa dai
piccolissimi interruttori presenti all'interno di dispositivi elettronici, fino ai mastodontici sezionatori
delle cabine elettriche di alta tensione.
Lo spegnimento d'arco
All'apertura di un contatto e fino al raggiungimento di una certa distanza tra le parti, esiste un periodo
in cui il campo elettrico presente può superare il valore di rigidità dielettrica dell'aria o comunque del
mezzo in cui i contatti sono immersi. In questo momento si può innescare un arco voltaico che si può
mantenere anche ad un successivo aumento della distanza tra i contatti.
Nel momento in cui un circuito con presente un carico induttivo viene aperto, per effetto
dell'autoinduzione si genera ai capi dell'interruttore una tensione superiore a quella di esercizio
(sovratensione).
Per effetto dell'arco il flusso di corrente non viene interrotto, venendo a mancare lo scopo
dell'interruttore, ma soprattutto la temperatura del plasma causa il danneggiamento del dispositivo. Per
questo motivo è importante provvedere ad una quanto più rapida possibile estinzione dell'arco.
Estinzione in aria
In interruttori con formazione di archi modesti l'estinzione si ottiene con un rapidissimo allungamento
dell'arco in normale aria atmosferica. La forma dei contatti può essere configurata per sfruttare le forze
elettrodinamiche prodotte dalla corrente per accelerare la separazione.
In alcuni modelli si impiegano delle camere di estinzione oppure baffi divergenti dai due contatti, in cui
l'arco viene trasferito dopo l'innesco, spinto dal calore generato dal plasma verso le parti più larghe e
quindi stirato fino ad esaurimento.
Soffiatura pneumatica
Lo spazio compreso fra i contatti viene investito da un potente getto di aria che soffia via gli ioni
dell'arco. La pressione può essere fornita da un pistone azionato da una molla, precaricata dal
movimento della leva di chiusura dell'interruttore.
Soffiatura magnetica
La zona di contatto è sottoposta ad un forte campo magnetico che per effetto della forza di Lorentz
devia gli ioni dalla loro traiettoria nell'arco. Il campo viene spesso prodotto da un solenoide che può
essere percorso dalla stessa corrente da interrompere.
I contatti vengono immersi in un liquido isolante che presenta una rigidità dielettrica elevata, ed ha
l'effetto di raffreddare rapidamente il plasma per conduzione e convezione. Viene impiegato olio
minerale oppure esafluoruro di zolfo (SF6). Quest'ultimo ha la proprietà, se scaldato ad alta
temperatura, di decomporsi in zolfo e fluoro, che cattura gli elettroni dell'arco.
Interruttori speciali
A rottura forzata
Di sicurezza
Gli interruttori di sicurezza sono usati per prevenire situazioni di pericolo su circuiti e macchinari. Per
esempio nei vani corsa degli ascensori sono presenti interruttori di sicurezza, detti di fine corsa per
bloccare il motore in caso di emergenza. Nei macchinari industriali devono essere presenti interruttori
che fermino immediatamente i motori se viene aperto o smontato un elemento che possa essere causa di
infortuni. È evidente che questi dispositivi devono avere una affidabilità elevata e costante nel tempo.
Automatici
Interruttore differenziale
Da Wikipedia, l'enciclopedia libera.
Principio di funzionamento
Schema di principio del differenziale. In rosso è indicata una dispersione
Considerando il circuito da proteggere come un singolo nodo, si può affermare che la somma algebrica
delle correnti entranti in esso deve essere zero (prima legge di Kirchhoff). In pratica se si misura
l'intensità della corrente in un sistema monofase, si osserverà che la corrente entrante equivale a quella
uscente. In un sistema trifase la somma delle correnti, dando segno positivo per i flussi entranti e
negativo per gli uscenti, risulta nulla.
Se una apparecchiatura connessa all'impianto si guasta, è possibile che venga a crearsi un collegamento
più o meno efficace tra la linea elettrica e la carcassa metallica (tecnicamente definita massa), la quale
può diventare causa di folgorazione se toccata. Se il collegamento è precario è possibile anche che si
produca calore per effetto Joule con conseguente sviluppo di un incendio.
Poiché nelle centrali di distribuzione della rete elettrica e nelle cabine di trasformazione MT/BT il
punto neutro è collegato a terra, qualunque collegamento tra una fase della linea elettrica e terra subisce
un passaggio di corrente. Questa corrente dispersa non ritorna attraverso l'interruttore differenziale a
monte dell'impianto, il quale rivela che la somma delle correnti di nodo non è più nulla ed interviene.
Per evitare che sia un corpo umano a realizzare il ponte fase-terra e agevolare il lavoro dell'interruttore
differenziale è necessario che gli apparecchi con carcassa metallica siano collegati ad un adeguato
impianto di messa a terra. Si parla, in questo caso, di protezione contro i contatti indiretti.
Invece, nel caso in cui una persona tocchi una parte che è normalmente in tensione, come ad esempio
un conduttore elettrico non isolato, si parla di contatto diretto. Anche in questo caso l'interruttore
differenziale fornisce, nella maggior parte dei casi, una buona protezione, purché sia del tipo ad alta
sensibilità, cioè con corrente differenziale nominale minore o uguale a 30 mA, ed abbia un tempo di
intervento sufficientemente breve (pochi millisecondi). Da notare che la presenza dell'interruttore
differenziale non esime assolutamente dall'obbligo di predisporre un impianto di terra realizzato a
regola d'arte.
In caso di impianti elettrici con più derivazioni in parallelo si possono installare più differenziali a
protezione di ciascun ramo derivato, in modo da realizzare una protezione selettiva, tale, cioè, da
isolare solo il ramo interessato al guasto, senza disalimentare gli altri rami. Se, in aggiunta alle
protezioni dei singoli rami, si installa anche una protezione differenziale generale comune a tutti i rami,
si ricorre solitamente ad un differenziale di tipo ritardato, per evitare che questo, intervenendo prima di
quelli posti a valle, disalimenti anche i circuiti non guasti.
Struttura e funzionamento
Interruttore differenziale aperto:
1 Morsetti di ingresso
2 Morsetti di uscita (verso il carico)
3 Pulsante di inserimento
4 Contatti di interruzione
5 Solenoide che tiene chiusi i contatti
6 Trasformatore di corrente (sensore)
7 Circuito elettronico amplificatore
8 Pulsante di test
9 Filo (arancio) che alla pressione di test è attraversato da una corrente sbilanciata
Per verificare la continuità di funzionamento è prescritta l'effettuazione di un test con cadenza mensile,
premendo un apposito pulsante presente sull'apparecchio.
Impiantistica
Poiché un impianto reale presenta inevitabilmente piccoli squilibri dovuto a dispersioni ed anche
perché esistono dei limiti minimi di sensibilità praticamente realizzabili, ma nello stesso tempo per
assicurare un adeguato livello di protezione in caso di folgorazione, sono definite precise soglie di
intervento. Per gli impianti in abitazioni civili la differenza massima ammissibile, indicata con la lettera
greca Δ, deve essere minore o uguale a 30 milliAmpere.
In ambiti industriali e commerciali si usa suddividere gli impianti in zone per realizzare una protezione
selettiva, in modo tale che un guasto in una zona provochi l'intervento del solo differenziale a
protezione della zona stessa, senza coinvolgere l'intero impianto.
A tale scopo si utilizzano più interruttori differenziali con diversi valori di delta e diversi tempi di
intervento (differenziali ritardati).
Esistono anche differenti classi di interruttori differenziali che si distinguono per il tipo di corrente di
guasto a cui sono sensibili:
Normativa
L'impiego dell'interruttore differenziale è disciplinato dalle normative:
Interruttore magnetotermico
Da Wikipedia, l'enciclopedia libera.
Per legge in Italia, negli impianti attuali deve essere installato anche un interruttore differenziale.
Funzionamento
I due fenomeni considerati, cortocircuito e sovraccarico hanno caratteristiche ben diverse e devono
essere considerati separatamente. Come si evince dal nome, all'interno di un interruttore magneto-
termico sono presenti due ben distinte sezioni che rilevano i due fenomeni per mezzo di differenti
principi fisici.
Inizialmente l'interruttore deve essere chiuso agendo sul comando manuale oppure, nei modelli più
grandi, per mezzo di motori elettrici. In questo modo viene caricata una molla che tende a provocare
l'apertura dei contatti, ma è trattenuta da un'ancorina. Quando una sezione del dispositivo rileva un
guasto, la molla viene liberata e si ha lo scatto, cioè l'apertura dell'interruttore. La forza prodotta dalla
molla deve essere tanto più elevata quanto maggiore è l'intensità della corrente da interrompere, ovvero
il potere di interruzione del dispositivo.
Questo tipo di guasto si verifica quando due fili conduttori a differente potenziale (nel caso generale
della corrente alternata trifase: fase - neutro; fase R - fase T; fase S - fase T; fase R - fase S) entrano in
diretto contatto tra loro, provocando un elevatissimo ed istantaneo flusso di corrente, nell'ordine di
migliaia di Ampere.
La rilevazione di questo evento avviene per mezzo di un solenoide avvolto su una barra magnetica, in
pratica un relè. L'elevato impulso di corrente induce un campo magnetico che attira una ancorina la
quale provoca l'apertura dell'interruttore.
Questo problema si verifica quando l'intensità di corrente supera un valore prefissato a causa per
esempio di troppi carichi accesi contemporaneamente. Il limite di corrente è determinato da limiti
costruttivi dell'impianto e in particolare dalla capacità dei fili conduttori di smaltire il calore prodotto
per effetto Joule.
La rilevazione avviene per mezzo di una resistenza elettrica abbinata ad una lamina bimetallica. A
causa della differenza nella dilatazione termica di due metalli accoppiati, la lamina si piega fino a
provocare lo scatto dell'interruttore. Il tempo di intervento non è istantaneo ma dipende, con funzione
caratteristica dei diversi modelli di magnetotermici, dall'inverso dell'entità del superamento del valore
di soglia.
Alcuni apparecchi più moderni impiegano sistemi elettronici. Esistono in commercio dispositivi con
valori limite prefissati da pochi a centinaia di Ampere ed altri in cui il valore è regolabile
dall'installatore.
Protezione selettiva
In un impianto esteso è vantaggioso suddividere il sistema in zone di protezione separate, in modo tale
che l'intervento di un dispositivo di protezione in caso di sovraccarico o guasto isoli un'area limitata
senza lasciare "al buio" l'intero edificio. Questa caratteristica è definita selettività dell'impianto o
protezione selettiva.
A questo scopo si usa strutturare l'impianto secondo una logica gerarchica, con un interruttore generale
a monte, seguito da diversi apparecchi a protezione di macrozone, a loro volta seguiti da altri
apparecchi a protezione del ramo finale del circuito. L'interruttore generale deve avere una soglia di
intervento sufficientemente elevata da garantire l'assorbimento massimo di tutto l'impianto, mentre gli
apparecchi di zona devono avere una soglia inferiore in funzione dell'assorbimento previsto per il ramo
protetto.
É necessario inoltre che i dispositivi siano tra loro coordinati in modo tale che in caso di guasto
intervenga solamente l'elemento voluto e non gli apparecchi a monte.
Per consentire la realizzazione della protezione selettiva vengono prodotti apparecchi con differenti
curve di intervento (velocità di intervento in funzione del superamento della soglia nominale), in
modo tale che impiegando apparecchi differenti il progettista sia in grado di coordinarne le priorità di
intervento. Le curve di intervento standard sono contraddistinte da una lettera alfabetica e le più usate
sono, in ordine decrescente di sensibilità: Z,B,C,D,U,K.
La curva C è in grado di tollerare sovracorrenti fino a cinque-dieci volte la corrente di intervento per
brevi periodi ed è largamente usata negli impianti domestici. La curva K consente ampi superamenti
della soglia per tempi brevi (10-14 volte), ed è utile per evitare interventi indesiderati nel caso in cui i
carichi protetti assorbano elevate correnti di spunto all'avvio (es. motori elettrici industriali). Z è la
curva che presenta la maggiore sensibilità.
Estensimetro
Da Wikipedia, l'enciclopedia libera.
Principio di funzionamento
L'estensimento viene incollato sul corpo di cui si vuole misurare la deformazione. La deformazione
della struttura e quindi dell'estensimetro provoca una variazione di resistenza elettrica dalla cui
misurazione, per esempio tramite un ponte di Wheatstone, si può risalire all'entità della deformazione.
È un ottimo strumento sia per l'elevata sensibilità (si riescono a misurare anche deformazioni di
1/1000000) che per la risposta in frequenza dell'ordine del kHz. È adatto a misure puntuali di
deformazione non per analizzare deformazioni a campo intero.
Resistenza aerodinamica
Da Wikipedia, l'enciclopedia libera.
Un corpo che si muove in un fluido, in questo caso l'aria, incontra una forza di direzione uguale e erso
contrario al suo movimento chiamata resistenza.
Nel caso delle ali degli aerei la resistenza è di due tipi: la resistenza di profilo e la resistenza causata
dalla parte di ala esposta al vento, e cresce con il quadrato della velocità. La resistenza indotta e
causata invece dai vortici che partono dall'estremità delle ali, perché l'aria sotto l'ala, con pressione alta,
tende a passare sopra dove la pressione è minore; la resistenza indotta cresce in modo inversamente
proporzionale alla velocità, ed è presente solo se le ali fanno portanza.
Per ridurre la resistenza di profilo bisogna migliorare il profilo e ridurre la sezione esposta al vento, per
ridurre la resistenza indotta bisogna costruire ali più lunghe e strette possibile, con le alette alle
estremità (winglets).
La somma della resistenza indotta e di quella di profilo è la resistenza aerodinamica, che è facilmente
visualizzabile in un grafico. La resistenza totale minima, contrariamente a quanto si potrebbe pensare
non corrisponde alla velocità minima (di stallo), ma ad una velocità leggermente superiore (+10-20%).
Rischio
Da Wikipedia, l'enciclopedia libera.
Il rischio è un concetto connesso con le aspettative umane. Indica un potenziale effetto negativo su un
bene che può derivare da determinati processi in corso o da determinati eventi futuri. Nel linguaggio
comune, rischio è spesso usato come sinonimo di probabilità di una perdita o di un pericolo. Nella
valutazione del rischio professionale il concetto di rischio combina la probabilità del verificarsi di un
evento con l'impatto che questo evento potrebbe avere e con le sue differenti circostanze di
accadimento. Secondo la teoria dei prezzi Black-Scholes quando si tratta di beni quotati sul mercato
tutte le probabilità e gli impatti sono incorporati nel prezzo. Ci sono molte definizioni di rischio; queste
dipendono dalle applicazioni e dal contesto. Più in generale, ogni indicatore di rischio è proporzionale
al danno atteso, il quale è in relazione alla sua probabilità di accadimento. Le denominazioni dipendono
quindi dal contesto del danno e dal suo metodo di misura; ad esempio, nella perdita di una vita umana,
il rischio è focalizzato sulla probabilità dell'evento, sulla sua frequenza e circostanza. Possiamo
distinguere due tipi di rischio: il primo basato su stime tecnico-scientifiche ed il secondo, denominato
"rischio reale", dipendente dalla percezione umana del rischio. In pratica, queste due definizioni sono in
continuo conflitto tra di loro.
Rischio ingegneristico
Il «rischio» è definito come combinazione di probabilità e di gravità (severità) di possibili lesioni o
danni alla salute, in una situazione pericolosa; la «valutazione del rischio» consiste nella valutazione
globale di tali probabilità e gravità; tutto allo scopo di <scegliere le adeguate misure di sicurezza.
Il "rischio finanziario" è definito come la variabilità indefinita (o volatilità) degli investimenti,
includendo ovviamente perdite potenziali come allo stesso modo inaspettati guadagni.
Viscosità
Da Wikipedia, l'enciclopedia libera.
La viscosità è una proprietà dei fluidi che indica la resistenza allo scorrimento. Dipende dal tipo di
fluido e dalla temperatura e viene solitamente indicata con la lettera greca μ ("mi"). Nei liquidi la
viscosità decresce all'aumentare della temperatura, nei gas invece cresce.
Un fluido con viscosità nulla (μ=0) e densità costante al variare della pressione, cioè non viscoso e
incomprimibile, si chiama fluido ideale. Un fluido la cui viscosità è trascurabile può essere definito
anche inviscido. Si può inoltre parlare di superfluidità quando la viscosità è pari a 0. Tale caratteristica
è nota in riferimento ai due isotopi dell'elio: nell'He 4 al di sotto dei 2,17 K, mentre per l'He 3 ad una
temperatura circa 1000 volte minore.
La viscosità misura in qualche modo la "coesione" del fluido: ad esempio il vetro può essere
interpretato come un fluido ad altissima viscosità (il vetro non ha un "punto di fusione" definito, non
possedendo una struttura cristallina - vedi anche calore di fusione).
Da un punto di vista matematico è possibile pensare di misurare la forza che occorrerebbe applicare ad
uno straterello di fluido per modificarne la velocità rispetto ad un altro straterello posto ad una distanza
fissa (h):
dove si intende:
μ = coefficiente di viscosità
L'equazione di Newton rimane comunque alla base della definizione e della misura del coefficiente di
viscosità. Poiché però è impossibile applicare (e soprattutto misurare!) una forza applicata ad uno
straterello fluido infinitesimale, la misura della viscosità si esegue ponendo il fluido tra due "piattelli",
posti ad una distanza regolabile. Uno dei due piattelli viene mantenuto fisso mentre viene fatto ruotare
il secondo. In questo modo invece di una forza si misura la coppia applicata (momento torcente) e,
posto della velocità lineare, la risultante velocità angolare. Il nome di uno siffatto strumento è
viscosimetro. Esisitono anche viscosimetri che sfruttano diversamente le caratteristiche dei fluidi per
misurare la viscosità. Ad esempio un viscosimetro "a coppa" (utilizzato per le vernici) è composto da
un contenitore graduato con un foro calibrato sul fondo. Più il fluido è viscoso, più tempo impiegherà a
fluire attraverso il buco. Misurando il tempo di svuotamento della coppa è possibile (tramite opportune
tabelle) risalire alla viscosità del fluido. La misura della viscosità è ritenuta dagli "addetti ai lavori"
come molto soggettiva, in quanto lo strumento di misura non riesce ad applicare correttamente la
definizione della grandezza (una per tutte: usare un piattello, ad esempio di acciaio, introduce uno
strato di fluido in prossimità di esso che non si comporta come fluido libero e questo influenza la
misura). Normalmente, infatti, accanto ad ogni misura di viscosità, occorre indicare in che condizioni e
con quale strumento (inclusi marca e modello) è stata realizzata.
In base alla sua definizione matematica, la viscosità è dimensionalmente espressa da una forza su una
superficie per un tempo, ovvero da una pressione per un tempo e, in termini di grandezze fondamentali,
da M·L-1·T-1 (massa diviso lunghezza e tempo).
Pertanto l'unità di misura SI della viscosità è il Pa·s.
1 Pa·s equivale a 1kg·1s-1·m-1 e a 10 poise (da Jean Louis Marie Poiseuille) che è la vecchia unità del
sistema cgs:
1 poise = 1/10 Pa * s = 1g·1s-1·cm-1;
Per la misura della viscosità assoluta o dinamica è comunque molto usato il centipoise, cP,
corrispondente al millipascal per secondo, mPa·s. In queste unità la viscosità dell'acqua a temperatura
ambiente è circa 1 cP (1,001 cP a 20 °C). ==Viscosità cinematica== == == Un'altro tipo di viscosità è
quella cinematica (ν = "nu"), cioè il rapporto tra la viscosità dinamica di un fluido e la sua densità. Da
essa dipende la velocità con cui un fluido riesce, grazie alla forza di gravità, a percolare lungo un
capillare.
La viscosità cinematica è una misura della resistenza a scorrere di una corrente fluida sotto l'influenza
della gravità. Questa tendenza dipende sia dalla viscosità assoluta o dinamica che dal peso specifico del
fluido. Quando due fluidi di uguale volume sono messi in viscosimetri capillari identici e lasciati
scorrere per gravità, il fluido avente maggior viscosità cinematica ci mette più tempo a scorrere rispetto
a quello meno viscoso.
Ad esempio il mercurio risulta avere una viscosità dinamica 1,7 volte maggiore di quella dell'acqua, ma
a causa del suo elevato peso specifico, esso percola molto più rapidamente da uno stesso foro a parità
di volume. In effetti la viscosità cinematica dell'acqua è circa otto volte maggiore di quella del
mercurio a temperatura ambiente.
Poiché la viscosità cinematica si ricava semplicemente dal rapporto tra viscosità dinamica e densità,
dmensionalmente è espressa da L2/T dove L è una lunghezza e T è il tempo.
L'unità di misura della viscosità cinematica è lo stokes (St) (da George Gabriel Stokes), ma
comunemente viene usato il sottomultiplo centistoke (cSt).
Nel SI la viscosità cinematica è espressa al m2/s, che corrisponde a 106 cSt.
Altre comuni, ma obsolete, unità di misura della viscosità cinematica sono il Saybolt Universal
Seconds (SUS), Saybolt Furol Seconds (SFS). Queste unità possono essere convertite in cSt seguendo
le indicazioni della ASTM D2161.
Ciclo di Carnot
Da Wikipedia, l'enciclopedia libera.
In termodinamica il ciclo di Collins è il ciclo più semplice ottenibile tramite il minor numero di
sorgenti, di un gas generico (teoricamente un gas perfetto) costituito da 4 trasformazioni
termodinamiche. Il nome deriva da quello del fisico francese Sadi Carnot.
Il ciclo di Carnot ha la proprietà di essere il ciclo termodinamico di rendimento maggiore che evolve
tra le due sorgenti. Non esiste nessun altro ciclo, che abbia come temperature estreme le stesse isoterme
del ciclo di Carnot, che abbia rendimento maggiore del rendimento del ciclo di Carnot.
Il ciclo di Carnot è un ciclo puramente teorico e la sua realizzazione richiede lo studio di una macchina
altrettanto teorica. Questa affermazione lascia intendere che è impossibile realizzare una macchina
termica reale a cui si può applicare il ciclo di Carnot.
La macchina teorica in oggetto che esegue il ciclo si dice macchina di Carnot. Una macchina del
genere necessita di due sorgenti, cioè di due fonti di calore a temperature differenti e si schematizza
generalmente come un cilindro chiuso con un pistone con le pareti isolate adiabaticamente contenente
del gas che può scambiare calore solo attraverso il fondo del cilindro.
Le quattro trasformazioni
Grafico della pressione in funzione del volume delle quattro trasformazioni del ciclo di Carnot
Dunque il ciclo di Carnot di un gas perfetto è composto da due isoterme (1-2) e (3-4) a temperature
rispettivamente T1 > T2 e due adiabatiche (2-3) e (4-1):
• Espansione isoterma (1-2): il gas preleva la quantità di calore Q1 dalla sorgente più calda T1 e questo
provoca un aumento di volume del gas e diminuzione della pressione. La tendenza della temperatura del
gas ad abbassarsi viene contrastata, limitatamente alla prima parte della corsa, dall’effetto del
riscaldatore (sorgente termica), ne risulta che essa rimane costante.
• Espansione adiabatica (2-3): quando il gas finisce di prelevare energia termica, esso viene mantenuto
in modo che non scambi energia con l'esterno tramite un'adiabatica, pur continuando ad espandersi: ne
consegue un abbassamento della temperatura.
• Compressione isoterma (3-4): il gas viene messo a contatto con la sorgente a temperatura T2 < T1
cedendo una quantità di calore Q2: questo provoca una compressione.
• Compressione adiabatica (4-1): quando il gas finisce di cedere calore al refrigeratore continua a
comprimersi, ma viene mantenuto in modo che non scambi energia con l'esterno.
Il risultato di questo ciclo è dimostrare che avendo a disposizione una macchina di Carnot ideale e un
fluido perfetto, è possibile ottenere del lavoro riportando il sistema nelle condizioni iniziali.
La caratteristica fondamentale della macchina di Carnot è che il suo rendimento non dipende dal fluido
impiegato che compie il ciclo, ma solo dalla temperatura delle due sorgenti con le quali scambia il
calore: questo teorema va sotto il nome di Teorema di Carnot.
Il rendimento di una macchina termica è, in generale, il rapporto tra il lavoro utile che la macchina
riesce a compiere e il calore totale assorbito dal sistema. Se un ciclo viene eseguito n volte, il
rendimento della macchina sarà allora:
dove nL è il lavoro totale compiuto dalla macchina, e nQ1 il calore totale assorbito da questa.
Da quest'ultima espressione è possibile far discendere che il rendimento dipende solo dalle temperature
T1 e T2 poiché lo scambio di calore avviene solo durante le isoterme (rendimento di Carnot):
Si vede subito che il rendimento sarebbe massimo (100%), solo se T2 = 0K, ma tale valore della
temperatura non è raggiungibile da nessun corpo. Questa uguaglianza è anche alla base del secondo
principio della termodinamica e all'impossibilità di produrre il moto perpetuo.
Il rendimento di Carnot può essere ricavato o mediante l'applicazione della legge dei gas perfetti, o
mediante il bilancio complessivo dell'entropia.
Oltre a dimostrare la correttezza del rendimento di Carnot, si può verificare come il rapporto di
compressione delle due trasformazioni isoterme che costituiscono il ciclo (si considera qui il rapporto
considerando entrambe le trasformazioni isoterme come trasformazioni di espansione o compressione,
affinché i volumi finali siano quelli più grandi o più piccoli) coincidano.
Se la trasformazione parte dal punto 1 (in figura), la prima trasformazione è una espasione isoterma.
Per la legge dei gas perfetti, i volumi nei quattro punti sono dati da:
Per una trasformazione adiabatica vale pVγ = k, dove k è una costante. Essendo due le trasformazioni
adiabatiche, si avranno due valori diversi di k. Quindi si avrà
il lavoro di una isoterma è dato dall'integrale , che ha come risultato W = nRTlnVf / Vi.
Pertanto il rendimento diventa
i logaritmi naturali hanno come argomento il medesimo numero (rapporto di compressione), come visto
in precedenza, pertanto esso può essere messo in evidenza a numeratore, e semplificato con in
denominatore, ottenendo in definitiva
Le trasformazioni adiabatiche non comportano scambi di calore. Tracciare il loro grafico su un piano T-
S produrrebbe una isoentropica, ovvero una retta verticale, che indica una variazione nulla
dell'entropia. Per una trasformazione isoterma, la variazione di entropia è semplicemente il rapporto tra
il lavoro compiuto e la temperatura, costante. Pertanto
e il calore sarà dato da (per una isoterma la variazione di energia interna è nulla, pertanto il calore
equivale al lavoro)
che coincide con quella calcolata in precedenza con l'applicazione della legge dei gas perfetti.
Indici di prestazione
Per il ciclo di Carnot inverso il coefficiente di effetto utile ε e il coefficiente di prestazione COP
dipendono dalle sole temperature delle isoterme tra cui evolve il ciclo, in quanto il rapporto tra il calore
scambiato con una sorgente e la relativa temperatura è costante:
Fatica
Da Wikipedia, l'enciclopedia libera.
La fatica è un fenomeno meccanico per cui un materiale sottoposto a carichi variabili nel tempo (in
maniera regolare o casuale) si danneggia fino a rottura nonostante l'intensità massima dei carichi in
questione sia sensibilmente inferiore a quella di rottura o di snervamento statico del materiale stesso.
Storicamente scoperta e studiata come fenomeno prettamente metallurgico, in seguito il termine
"fatica" è stato usato anche per le altre classi di materiali, come i polimeri o i ceramici.
Esempio di generica curva di Wohler: si nota che per numero di cicli nullo la curva interseca l'asse delle ordinate
in corrispondenza del carico di rottura statica
I primi studi intorno alla fatica vennero compiuti alla fine del secolo XIX, in seguito a una serie di
rotture "inspiegabili" di assali ferroviari progettati per resistere a carichi (statici) ben superiori a quelli
cui invece avveniva la loro rottura improvvisa in esercizio. In questo senso fondamentale è l'opera del
Wohler, che intuì che il fenomeno era dovuto alla natura ciclica del carico cui l'assale era sottoposto
(flessione rotante) e tentò di ricostruire lo stato di sollecitazione in laboratorio, mettendo in relazione
l'ampiezza massima del ciclo di sollecitazione con il numero di cicli che il pezzo sopportava prima
della rottura: ne ricavò una serie di curve su base statistica che ancora oggi sono chiamate diagrammi
di Wohler e costituiscono lo strumento base per la progettazione di componenti
meccanici a fatica. Da questi diagrammi si evidenzia per alcuni materiali l'esistenza di un limite
inferiore di sforzo massimo al di sotto del quale il materiale non si rompe per effetto di fatica nemmeno
per un numero "molto alto" (idealmente infinito) di cicli. Questo valore dello sforzo è detto limite di
fatica del materiale.
• composizione: per Rm non troppo elevato, la composizione non influisce particolarmente, mentre con R m
elevato si nota una maggiore resistenza a fatica degli acciai legati;
• dimensione della grana cristallina: mediamente una struttura fine comporta l'aumento di Rm e quindi
del limite di fatica;
• morfologia: strutture globulari e lamellari (al decrescere della distanza delle lamelle) sono favorite; la
struttura migliore è quella della sorbite; l'austenite residua e le inclusioni non metalliche sono fattori
negativi;
• la fibratura comporta una minore resistenza a fatica per un provino ricavato trasversalmente alla
direzione di laminazione;
• incrudimento: nonostante esso provochi l'aumento di Rm, non è consigliabile in quanto collateralmente
causa l'aumento della difettosità e quindi delle microcricche.
• La concentrazione di tensioni, dovuta a intagli previsti o a irregolarità superficiali o interne non volute,
permette alla cricca di fatica di originarsi con maggiore facilità, direttamente dal secondo stadio.
• Dato che la cricca inizia spesso sulla superficie del pezzo, l'estensione di quest'ultima è proporzionale
alla probabilità d'innesco.
• É necessario eliminare i solchi lasciati dagli utensili di lavorazione, in quanto in essi si crea una
concentrazione di tensioni. Comunque una superficie ben levigata apporta significativi vantaggi solo su
pezzi in acciai ad alta resistenza, per i quali è quindi indinspensabile una accurata lavorazione. Si
sottolinea poi che è importante pure evitare che una successiva corrosione crei irregolarità superficiali.
• Si può ridurre l'effetto degli sforzi di trazione creando una compressione superficiale sul pezzo:
mediante pallinatura, rullatura o smerigliatura. Bisogna solo porre attenzione a non favorire la
formazione di microcricche sotto pelle.
• I trattamenti superficiali possono essere negativi o positivi: la decarburazione riduce Rm proprio in
superficie (e quindi la resistenza a fatica), viceversa la carbocementazione, la nitrurazione, la fiammatura
e la tempra ad induzione.
• Al crescere della temperatura diminuisce Rm e quindi la resistenza a fatica (solo l'acciaio al carbonio
porta un'eccezione, quando tra i 100 e i 300°C presenta un aumento di resistenza); se però essa
diminuisce troppo i vantaggi sono ridotti o annullati dall'aumento del coefficiente di sensibilità
all'intaglio.
Trattamenti preventivi
Le cricche di fatica nucleano quasi sempre (eccetto alcuni casi tipici, come la fatica per contatto
ciclico negli ingranaggi) su una superficie libera del pezzo in questione: questo per un concorso di
cause (in superficie sono in genere massimi gli sforzi dovuti a flessione o torsione; in superficie sono in
genere presenti difetti microscopici come la rugosità superficiale che fungono da microintagli e
favoriscono l'innesco...). Per prevenire il danneggiamento per fatica o per migliorare la resistenza ad
esso in genere si ricorre a trattamenti quali:
-rullatura o pallinatura, che creano sforzi residui di compressione sulla superficie, i quali tendono a
richiudere eventuali microcricche e rallentano l'evoluzione del danneggiamento;
-cementazione, nitrurazione o tempra superficiale, per indurire (e quindi rinforzare) lo strato
superficiale del pezzo senza infragilirne il cuore;
-rettifica o lappatura, per ridurre al minimo le rugosità superficiali.
É inoltre necessario, in fase di progettazione di un componente che dovrà resistere a fatica, curare bene
il disegno dello stesso in modo che non presenti intagli o brusche variazioni di sezione che possano
amplificare localmente gli sforzi e in tal modo favorire la nucleazione di cricche di fatica.
cricca su di un pistone
Un pistone in alluminio di un motore diesel ad iniezione diretta, presenta una cricca all'interno di una
cava del segmento, in prossimità si trova pure un foro di lubrificazione. La causa di innesco della cricca
può ragionevolmente essere la concentrazione degli sforzi, infatti localmente sono presenti piu di uno
spigolo vivo.
Sezionando il pezzo in questione ed osservando la superficia fessurata si possono notare i segni
caratteristici di una rottura per fatica: le linee di cresta e le linee di arresto frontali (linee di spiaggia).
La zona di cedimento fragile non si nota in quanto non si è avuta rottura completa del pezzo: infatti la
sezione resistente a geometria toroidale ha conservato la sua integrità per un settore ben maggiore di
quello fessurato.
Evidentemente i carichi statici non hanno superato il limite di resistenza della sezione residua quindi
non si è avuto una rottura di schianto.
Estratto da "http://it.wikipedia.org/wiki/Fatica"
Bonifica (metallurgia)
Da Wikipedia, l'enciclopedia libera.
In metallurgia la bonifica è il processo di lavorazione dell'acciaio che consiste nella tempra e nel
rinvenimento di esso.
Nel corso della tempra degli acciai si ha formazione di martensite, che è una struttura ad elevata
durezza (e quindi con elevato carico di rottura), ma ha una tenacità estremamente bassa (cioè è soggetta
a fenomeni di rottura fragile). Data la pericolosità di questi fenomeni, che comportano un collasso
praticamente istantaneo della struttura, si sottopone l'acciaio ad un trattamento termico di rinvenimento,
per trasformare parte della martensite in ferrite. Infatti la martensite è una fase metastabile, cioè si
forma solo perché gli atomi di ferro non riescono a passare dal reticolo dell'austenite a quello della
ferrite e vengono "congelati" in una posizione intermedia.
Dato che la martensite, in assenza di elementi di lega, si forma solo con una percentuale di carbonio
superiore allo 0,2%, sotto questo limite gli acciai praticamente non possono essere temprati, quindi non
ha senso effettuare un trattamento di bonifica, che è tanto più utile quanto più alta è la percentuale di
carbonio (in genere gli acciai destinati a questo trattamento hanno lo 0,4-0,6% di C).
Il rinvenimento dopo tempra consiste in un riscaldamento per un priodo di tempo dipendente dalle
dimensioni del pezzo da bonificare a 600°C (evitando di superare la temperatura di austenitizzazione
dell'acciaio, a 727°C), in questo modo viene creata una struttura chiamata sorbite che accomuna
un'elevata resistenza meccanica ad una tenacità accettabile.
Rinvenimento
Da Wikipedia, l'enciclopedia libera.
Il rinvenimento è un trattamento termico di un metallo eseguito al fine di ridurre gli effetti negativi
della tempra sul materiale, nel caso questo presenti eccessiva durezza e quindi fragilità.
Nel rinvenimento si riscalda a temperatura T < Ac1 sufficiente a ripristinare la diffusività di un
elemento presente in minore quantità nel metallo, in modo che tale elemento possa separarsi dalla
matrice in forma finemente dispersa.
Un'applicazione tipica è la trasformazione della martensite e dell'eventuale austenite residua per
riscaldamento di un acciaio. Gli stadi di questo processo, per un acciaio al solo carbonio, sono elencati
di seguito.
• Primo stadio 80-160°C: la martensite con C < 0,2% non ha trasformazioni di fase, ma solo un
addensamento del C presso le dislocazioni; se C > 0,2%, la martensite si porta a una concentrazione di C
dello 0,2% grazie alla precipitazione del carburo ε di composizione Fe2,4C, riducendo così le sue
distorsioni reticolari e quindi la fragilità.
• Secondo stadio 100-300°C: l'austenite residua si trasforma in bainite inferiore, con aumento del volume
dell'acciaio.
• Terzo stadio 250-400°C: la martensite con C = 0,2% e il carburo ε cominciano a trasformarsi in ferrite e
cementite, formando la troostite di rinvenimento(simile alla Bainite) dove avviene il completo
recupero dell'Austenite residua.
• Quarto stadio 400-700°C: gli sferoidi minori di cementite accrescono quelli maggiori, dando origine alla
sorbite di rinvenimento, e, continuando oltre i 600°C, la ferrite ricristallizza in cristalli equiassici: si
ottiene la perlite globulare, la struttura più stabile e lavorabile alle macchine utensili.
Per un acciaio legato si può avere un quinto stadio: per temperature di rinvenimento oltre i 500°C e
tenori elevati di elementi si ha la precipitazione di carburi dei soli elementi metallici M (ad esempio
MC o M2C), con conseguente nuovo aumento della durezza.
Rinvenimento multiplo
Computer-Aided Manufacturing
Da Wikipedia, l'enciclopedia libera.
Tale espressione indica una categoria di prodotti software che analizzano un modello geometrico
bidimensionale o tridimensionale, e generano le istruzioni per una macchina utensile a controllo
numerico computerizzato (CNC) atte a produrre un manufatto avente la forma specificata nel modello.
Il CAD/CAM
Il modello geometrico è normalmente generato da un programma di CAD. Molti programmi integrano
la funzione di CAD con quella di CAM, nel senso che permettono all'utente sia di disegnare modelli
geometrici, che di generare le istruzioni per una macchina utensile corrispondenti a tali modelli. Questi
programmi sono detti di CAD/CAM. I programmi di CAD/CAM non hanno bisogno di usare un file di
scambio per passare il modello geometrico dalla funzione di CAD a quella di CAM.
Tipi di lavorazione
I principali tipi di lavorazione generati da un sistema di CAM sono i seguenti:
• Incisione.
• Taglio.
• Svuotamento di percorsi chiusi.
• Svuotamento di bitmap.
• Modellazione di superfici.
Incisione
L'incisione è una lavorazione in cui l'utensile penetra solo di pochi decimi di millimetro nel pezzo,
seguendo un percorso definito da linee. Ne è un tipico esempio l'incisione di targhe o di medaglie.
Il modello geometrico è costituito da spezzate aperte o chiuse, e forature. Una spezzata è una sequenza
di linee (tipicamente segmenti di retta, archi, b-spline, o bezier) in cui ogni linea inizia dove la linea
precedente finisce. Le forature sono da ritenersi spezzate particolarmente semplici, in quanto hanno un
solo punto.
Per effettuare la lavorazione, l'utensile deve, per ogni spezzata, posizionarsi rapidamente sopra il primo
punto, scendere nel pezzo, seguire la spezzata, risalire dal pezzo.
La compensazione consiste nel fatto che, dato che l'utensile ha un raggio non nullo, se si vuole che
l'utensile passi rasente alla spezzata, il reale percorso utensile deve avere uno scostamento rispetto al
percorso originale pari al raggio dell'utensile. Alcuni CNC hanno internamente la capacità di applicare
la compensazione del raggio utensile, altri no. Per questi ultimi è necessario che la compensazione sia
calcolata dal software di CAM.
I vincoli sull'angolo di incidenza si hanno quando la superficie da lavorare non è a quota uniforme. Per
fare in modo che l'utensile sia sempre ortogonale alla superficie da incidere, o comunque che l'angolo
di incidenza non superi una soglia definita, si deve applicare una rotazione all'utensile oppure al pezzo
da lavorare. Questo è possibile solo con macchine aventi più di tre gradi di libertà.
Taglio
Il taglio è una lavorazione in cui l'utensile penetra nel pezzo per una profondità superiore allo spessore
del pezzo, seguendo un percorso definito da linee. Ne è un tipico esempio il taglio di lenti o
mascherine.
Dal punto di vista del software CAM, incisione e taglio sono molto simili. Tuttavia, per il taglio si
possono avere due problemi:
• Se una figura chiusa contiene un'isola (per esempio la lettera "a"), si deve tagliare prima la parte interna,
e poi la parte esterna. Questo perché una figura chiusa, dopo che è stata tagliata, non è più solidale con la
macchina, e quindi non può più essere lavorata.
• Quando il taglio di una figura chiusa è quasi completato, la figura è connessa al resto del pezzo per una
porzione infinitesima. In tale frangente, le vibrazioni della lavorazione possono produrre delle
imperfezioni.
Il problema è lo stesso che ha un giardiniere che deve tagliare l'erba di un prato recintato. Il diametro
dell'utensile corrisponde alla larghezza del tagliaerba.
Svuotamento di bitmap
Lo svuotamento di bitmap consiste nel raggiungere con l'utensile tutti i punti che in una matrice
rettangolare di bit (detta "bitmap") hanno valore uno (oppure zero). Ne è un tipico esempio la
produzione di timbri da disegni acquisiti tramite scanner.
Il problema è analogo a quello dello svuotamento di percorsi chiusi, con la differenza che in questo
caso la superficie da svuotare è definita da una matrice di bit invece che da entità vettoriali.
Modellazione di superfici
La modellazione di superfici consiste nello scolpire forme arbitrarie definite come superfici
parametriche. Ne è un tipico esempio la produzione di stampi.
Una superficie parametrica è una funzione reale di due variabili reali definite in intervalli.
Una possibile rappresentazione in un computer di una superficie parametrica è una matrice rettangolare
di numeri. Il numero alla colonna x della riga y rappresenta la quota che la superficie ha al punto di
coordinate (x, y). Tale istogramma bidimensionale viene comunemente chiamato DEM (Digital
Elevation Model).
Nella sgrossatura, si effettua uno sterrazzamento a più livelli con un utensile di grosso diametro,
ottenenendo un pezzo che somiglia a quello desiderato, ma è scalettato.
Nella rifinitura, si percorre a tappeto la superficie con un utensile di diametro fine, interpolando il
DEM.
Entropia (termodinamica)
Da Wikipedia, l'enciclopedia libera.
In termodinamica l'entropia è una funzione di stato che si introduce insieme al secondo principio della
termodinamica e che viene interpretata come una misura del disordine di un sistema fisico o più in
generale dell'universo. In base a questa definizione possiamo dire che quando un sistema passa da uno
stato ordinato ad uno disordinato la sua entropia aumenta.
Storia e definizione
Il concetto di entropia venne introdotto agli inizi del XIX secolo, nell'ambito della termodinamica, per
descrivere una caratteristica (la cui estrema generalità venne osservata per la prima volta da Sadi
Carnot nel 1824) di tutti i sistemi allora conosciuti nei quali si osservava che le trasformazioni
avvenivano invariabilmente in una direzione sola, ovvero quella verso il massimo disordine.
In particolare la parola entropia venne introdotta per la prima volta da Rudolf Clausius nel suo
Abhandlungen über die mechanische Wärmetheorie (Trattato sulla teoria meccanica del calore),
pubblicato nel 1864. In tedesco, Entropie, deriva dal greco εν, "dentro", e da τρoπή, "cambiamento",
"punto di svolta", "rivolgimento" (sul modello di Energie, "energia"): per Clausius indicava quindi
dove va a finire l'energia fornita ad un sistema. Propriamente Clausius intendeva riferirsi al legame tra
movimento interno (al corpo o sistema) ed energia interna o calore, legame che esplicitava la grande
intuizione del secolo dei Lumi, che in qualche modo il calore dovesse riferirsi al movimento di
particelle meccaniche interne al corpo. Egli infatti la definiva come il rapporto tra la somma dei piccoli
incrementi (infinitesimi) di calore, divisa per la temperatura assoluta durante l'assorbimento del calore.
• Si pensi di far cadere una gocciolina d'inchiostro in un bicchiere d'acqua: quello che si osserva
immediatamente è che, invece di restare una goccia più o meno separata dal resto dell'ambiente (che
sarebbe uno stato completamente ordinato), l'inchiostro inizia a diffondere e, in un certo tempo, si
ottiene una miscela uniforme (stato completamente disordinato). É esperienza comune che, mentre
questo processo avviene spontaneamente, il processo inverso (separare l'acqua e l'inchiostro)
richiederebbe energia esterna.
• Immaginiamo un profumo contenuto in una boccetta colma come un insieme di molecole puntiformi
dotate di una certa velocità derivante dalla temperatura del profumo. Fino a quando la boccetta è tappata,
ossia isolata dal resto dell'universo, le molecole saranno costrette a rimanere all'interno e non avendo
spazio (la boccetta è colma) rimarranno abbastanza ordinate (stato liquido). Nel momento in cui la
boccetta viene stappata le molecole della superficie del liquido inizieranno a staccarsi dalle altre ed
urtando casualmente tra di loro e contro le pareti della boccetta usciranno da questa disperdendosi
all'esterno (evaporazione). Dopo un certo tempo tutte le moleocole saranno uscite disperdendosi. Anche
se casualmente qualche molecola rientrerà nella boccetta il sistema complessivo è ormai disordinato e
l'energia termica che ha messo in moto il fenomeno è dispersa e quindi non più recuperabile.
Il concetto di entropia ha conosciuto grandissima popolarità nell'800 e nel '900, grazie proprio alla
grande quantità di fenomeni che aiuta a descrivere, fino ad uscire dall'ambito prettamente fisico ed
essere adottato anche dalle scienze sociali, nella teoria dei segnali e nell'informatica teorica. È tuttavia
bene notare che esiste tutta una classe di fenomeni, detti fenomeni non lineari (ad esempio i fenomeni
caotici) per i quali le leggi della termodinamica (e quindi anche l'entropia) devono essere
profondamente riviste e non hanno più validità generale.
Definizione termodinamica
L'entropia S come funzione di stato venne introdotta nel 1864 da Rudolf Clausius nell'ambito della
termodinamica come
dove ΔQrev è la quantità di calore assorbito in maniera reversibile dal sistema a temperatura T.
È importante notare come, mentre δQrev non è un differenziale esatto, dividerlo per la temperatura T lo
rende tale: è dunque il fattore d'integrazione. Occorre sottolineare che dS è un differenziale esatto
solo se è valido il secondo principio della termodinamica.
In una delle sue diverse formulazioni, il secondo principio della termodinamica afferma che in un
sistema isolato l'entropia può solo aumentare, o al limite rimanere costante per trasformazioni
termodinamiche reversibili.
] Gas perfetti
Un'applicazione termodinamica basilare del concetto di entropia è quella legata alle trasformazioni di
gas perfetti.
Considerando una qualsiasi trasformazione da uno stato A ad uno B, con definite pressione, temperatura
e volume occupato, è possibile calcolare la variazione di entropia eseguendo l'integrale di Clausius
su di un qualsiasi cammino reversibile, ad esempio sulla composizione di una isocora reversibile con
una isoterma reversibile. Si ottiene (dipendentemente solo dagli stati A e B)
da cui, applicando la nozione di funzione di stato si ottiene una formulazione analitica per l'entropia in
funzione delle variabili di stato, a meno di costante additiva:
S = nCVlogT + nRlogV
Essa è equivalente, tramite l'equazione di stato dei gas perfetti, alle altre due forme, talvolta utili,
Si nota così che nelle trasformazioni adiabatiche reversibili l'entropia rimane costante.
Definizione matematica
Accanto a questa trattazione dell'entropia, ne esiste un'altra (matematica) che tratta l'entropia come una
funzione di stato della sola temperatura, ossia una funzione che dipende esclusivamente dallo stato
iniziale e dallo stato finale del sistema e non dal particolare cammino seguito (definita a meno di una
costante arbitraria; come l'energia interna, anch'essa funzione di stato).
In quanto funzione continua e monotona crescente della sola temperatura essa ammette un massimo e
un minimo assoluti (teorema di Weierstrass) cui l'universo converge con continuità (per il principio di
aumento dell'entropia).
Dunque, dell'universo si conosce lo stato inziale a entropia nulla, non lo stato finale a cui converge (a
entropia e temperatura massime); la funzione entropia non dipende e non dà informazioni sul cammino
che è stato e che sarà seguito per arrivarci, ovvero non ci dice il futuro termodinamico dell'universo.
Tuttavia, è possibile inferire alcune ipotesi riguardo al destino ultimo dell'Universo da considerazioni
termodinamiche.
Tolleranza (ingegneria)
Da Wikipedia, l'enciclopedia libera.
Rispetto al concetto di tolleranza, l'attributo in esame non viene quindi classificato come più o meno
preciso, ma piuttosto come in tolleranza (ossia rientrante nei limiti stabiliti) o fuori tolleranza (non
rientrante).
Storia
Porrò allora una tolleranza sul diametro dell'albero; ad esempio, stabilirò che il diametro nominale sia
19,8 mm, con una tolleranza di un decimo di millimetro in più o in meno (tolleranza facilmente
ottenibile con macchine moderne). Si scrive solitamente
Ø 19.8±0.1
Questa condizione, se rispettata, assicura la completa intercambiabilità tra i miei alberi e le mie
bussole, così da consentire una produzione nettamente più veloce ed economica.
Tolleranze dimensionali
Nel caso delle tolleranze dimensionali meccaniche, nella pratica corrente si distingue tra i vari tipi di
accoppiamento che si intende ralizzare. Per restare al caso precedente, stabilito il diametro esterno Ø
19.8±0.1 dell'albero, e ad esempio Ø 20±0.05 per la bussola, risulta che, considerando tutti i casi possibili,
il gioco minimo sarà 0.05 mm e quello massimo 0.25 mm. Un accoppiamento di questo tipo, adatto al
caso di albero rotante nella bussola, è detto libero. Se avessimo stabilito dei diametri Ø 20±0.05 e Ø
19.9±0.05, i nostro gioco varierà tra 0 e 0.2 mm: in alcuni casi, l'albero gripperebbe o comunque non
potrebbe girare nella bussola.
Sono state quindi definiti dei campi di tolleranza, definiti da lettere, e dei valori di tolleranza, definiti
da numeri. Nel caso delle tolleranze foro base (vedi sotto) a parità di diametro di foro, i campi da a a g
sono accoppiamenti liberi, quelli da i a z accoppiamenti forzati. H è utilizzato per un accoppiamento
con tolleranza (per l'albero) tutta in meno. I valori sono definiti da numeri, che indicano la tolleranza
con un valore proporzionale alla misura nominale. Ad esempio, un accoppiamento 20 h4 è di estrema
precisione, con tolleranza tutta in meno, e si può esprimere, con il vecchio sistema, come 20 -0.006 se
fosse un 20 h7, sarebbe 20-0.021: il primo è ottenibile solo con una accurata rettifica, il secondo con una
buona tornitura.
L'equazione di stato dei gas perfetti, nota anche come legge dei gas perfetti, descrive le condizioni
fisiche di un "gas perfetto" o di un gas "ideale", correlandone le funzioni di stato: quantità di sostanza,
pressione, volume e temperatura.
in cui
Il valore di R nel Sistema Internazionale è 8,314472 J/(mol·K); nei calcoli si utilizza spesso anche il
valore di 0,0821 L·atm/(mol·K).
Questa equazione rappresenta una generalizzazione delle leggi empiriche osservate da Boyle (in un gas,
in condizioni di temperatura costante, il volume è inversamente proporzionale alla pressione), Charles
(in un gas a volume costante, la pressione è proporzionale alla temperatura assoluta) e Gay-Lussac (in
un gas a pressione costante, il volume è proporzionale alla temperatura assoluta), ottenibili
rispettivamente per T = costante, p = costante e V = costante.
L'equazione di stato dei gas perfetti descrive bene il comportamento dei gas reali per pressioni non
troppo elevate e per temperature non troppo vicine alla temperatura di liquefazione del gas. In questi
casi, una migliore descrizione del comportamento del gas è dato dall'equazione di stato di Van der
Waals
Formulazione alternativa (microscopica)
Spesso in meccanica statistica si preferisce utilizzare una forma alternativa per la legge che contenga il
numero di molecole di gas piuttosto che il numero di moli.
Dimostrazione
L'equazione di stato dei gas perfetti è dimostrabile a partire dalle leggi empiriche di Boyle, Charles e
Gay-Lussac.
N.B.: Per il significato dei simboli, ove non altrimenti specificato, v. sopra
Si consideri una trasformazione isobara (a pressione costante) applicata a questo volume di gas: il
volume alla fine dalla trasformazione sarà:
e la temperatura sarà t.
Se poi si fa andare il volume così ottenuto incontro ad una trasformazione isoterma otterremo:
Quindi:
;
Dove ha carattere di universalità ed è la costante R. Adottando questa notazione abbiamo
che:
Dove nv è il volume di n moli, indicato con V. Utilizzando questa notazione otteniamo infine:
Irraggiamento termico
Da Wikipedia, l'enciclopedia libera.
L'irraggiamento è uno dei tre modi attraverso cui avviene la propagazione del calore. E’ un fenomeno
che si presenta ad ogni temperatura e interessa ogni aggregato materiale, non importa se solido, liquido
o gassoso.
La quantità di calore emessa da un corpo per irraggiamento è proporzionale a T4, cioè alla quarta
potenza della sua temperatura: perciò a basse temperature l'irraggiamento è responsabile di una
frazione trascurabile del flusso di calore rispetto alla convezione e alla conduzione, ma al crescere della
temperatura la sua importanza aumenta rapidamente fino a diventare il principale artefice della
trasmissione del calore per temperature medio-alte.
La temperatura di colore indicata nelle regolazioni dei monitor, degli schermi televisivi e nei profili
cromatici dei dispositivi grafici si riferisce precisamente allo spettro di radiazione emesso per
irraggiamento da un corpo nero alla temperatura specificata.
Corpo nero
Da Wikipedia, l'enciclopedia libera.
In fisica un corpo nero è un oggetto che assorbe tutta la radiazione elettromagnetica incidente (e quindi
non ne riflette). Nonostante il nome, il corpo nero irradia comunque, e deve il suo nome solo
all'assenza di riflessione. Lo spettro (intensità della radiazione emessa ad ogni lunghezza d'onda) di un
corpo nero è caratteristico, e dipende unicamente dalla sua temperatura.
• La luce emessa da un corpo nero viene detta radiazione del corpo nero e la densità di energia irradiata
spettro di corpo nero.
• La differenza tra lo spettro di un oggetto e quello di un corpo nero ideale, permette di individuare la
composizione chimica di tale oggetto.
Un corpo nero è un radiatore ideale, emettendo il maggior flusso possibile per unità di superficie, ad
ogni lunghezza d'onda per ogni data temperatura. Un corpo nero inoltre, assorbe tutta l'energia radiante
incidente su di esso: ovvero nessuna energia viene riflessa o trasmessa.
Il termine "corpo nero" venne introdotto da Gustav Kirchhoff nel 1862. Lo spettro di un corpo nero
venne correttamente interpretato per la prima volta da Max Planck, il quale dovette assumere che la
radiazione elettromagnetica può propagarsi solo in pacchetti discreti, o quanti, la cui energia era
proporzionale alla frequenza dell'onda elettromagnetica.
L'intensità della radiazione di un corpo nero alla temperatura T è data dalla legge della radiazione di
Planck:
dove I(ν)δν è la quantità di energia per unità di superficie per unità di tempo per unità di angolo solido,
emessa nell'intervallo di frequenze copreso tra ν e ν+δν; h è la costante di Planck, c è la velocità della
luce e k è la costante di Boltzmann.
L'andamento delle curve di Planck per il corpo nero. In ascissa la lunghezza d'onda, in ordinata l'intensità.
La lunghezza d'onda alla quale l'intensità della radiazione emessa dal corpo nero massima è data dalla
legge di Wien ( ), e la potenza totale emessa per unità di
superficie (appunto, l'intensità) è data dalla legge di Stefan-Boltzmann I = σT4 (con
). Entrambe queste leggi sono deducibili dalla legge
dell'irraggiamento di Planck, la prima cercandone il massimo in termini della lunghezza d'onda, la
seconda integrando su tutte le frequenze.
In laboratorio, l'oggetto più simile a un corpo nero è un un corpo cavo sul quale è praticato un piccolo
foro rispetto alla superficie interna, quest'ultima nera e ruvida. In astronomia alcuni oggetti come le
stelle sono approssimativamente dei corpi neri. Uno spettro da corpo nero quasi perfetto viene esibito
dalla radiazione cosmica di fondo, la cui temperatura è di circa 2.7 kelvin.
La densità di energia è chiaramente una energia per unità di volume. L'intensità è una energia per unità
di superficie e di tempo, quindi in pratica una densità per una velocità. Segue che la dipendenza da T
non cambia e si può scrivere
F(T) = σT4
Costante di Boltzmann
Da Wikipedia, l'enciclopedia libera.
La costante di Boltzmann, kB, fu introdotta da Planck, che la chiamò così in onore di Ludwig
Boltzmann. È una grandezza che si incontra spessissimo in meccanica statistica ed è relazionata ad altre
due costanti di grande importanza quali la costante universale dei gas, R, e il numero di Avogadro, NA,
dalla seguente espressione:
Quindi le unità di misura con cui viene espressa nel sistema internazionale sono i J/K, le stesse unità
dell'entropia e della capacità termica. Il valore raccomandato dal CODATA nel 2002 è
Val la pena segnalare due casi in cui compare questa costante, nel primo si mostra come permetta di
relazionare l'energia con la temperatura, mentre nel secondo ci si limita a segnalare la definizione
statistica di entropia.
Il teorema di equipartizione dell'energia afferma che se i gradi di libertà di una molecola (per molecola
si intende un generico sistema microscopico) sono f, allora in un sistema macroscopico costituito da tali
molecole, in condizioni di equilibrio alla temperatura T, l'energia media delle molecole è data da
Per esempio in un gas atomico alla temperatura T, l'energia media degli atomi è
dove:
T è la temperatura assoluta.
poiché in quel caso gli unici gradi di libertà saranno i tre traslazionali. Questa stessa espressione può
essere ricavata dalla teoria cinetica dei gas.
Si nota quindi che la costante di Boltzmann è la costante di proporzionalità tra la temperatura e
l'energia media di una molecola. Questo teorema è valido solo nei casi in cui non vi è quantizzazione
dell'energia o in quelli in cui è trascurabile, cioè quando la separazione dei livelli energetici è
notevolmente inferiore a kT.
In meccanica statistica l'entropia viene definita come il logaritmo naturale di Ω, il numero di microstati
coerenti con le condizioni al contorno del sistema:
La costante di proporzionalità è ancora k. Questa equazione, che relaziona i dettagli microscopici del
sistema con il suo stato macroscopico, è l'idea centrale della meccanica statistica.
Fu proprio Ludwig Boltzmann a proporla e oggi compare sulla sua tomba come epitaffio.
Legge di Stefan-Boltzmann
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
La legge fu scoperta sperimentalmente da Jožef Stefan (1835-1893) nel 1879 e spiegata teoricamente,
usando la termodinamica, da Ludwig Boltzmann (1844-1906) nel 1884.
Calore
Il calore è la forma macroscopica nella quale l'energia passa da un sistema fisico ad un altro
unicamente a causa di differenze di temperatura.
Si può prendere come corpo di riferimento una massa di acqua e definire il calore assorbito o ceduto
come:
dove è la temperatura iniziale dell'acqua, quella finale e , detto calore specifico, assume un
valore arbitrario nel caso dell'acqua.
In quanto energia, il calore si misura nel Sistema Internazionale in joule. Nella pratica viene tuttavia
ancora spesso usata come unità di misura la caloria. A volte si utilizzando anche unità a carattere
meramente tecnico quali kWh o BTU.
È importante ricordare che la temperatura non è assolutamente la misura del calore. Possono esistere
corpi ad alto calore ma bassa temperatura o viceversa: per esempio uno spillo arroventato è un corpo a
relativamente alta temperatura ma basso calore, mentre una bacinella di acqua tiepida è a bassa
temperatura ma relativamente alto calore.
Alcune equivalenze:
• 1 cal = 4,186 J
• 1 Joule = 0,2388 cal
• 1 CAL = 1 kcal = 1000 cal
• per conduzione: in uno stesso corpo o fra corpi a contatto si ha una trasmissione, per urti, di energia
cinetica tra le molecole appartenenti a zone limitrofe del materiale. Nella conduzione viene trasferita
energia attraverso la materia, ma senza movimento macroscopico di quest'ultima. Effettivamente, a livello
microscopico, il calore è quella porzione di lavoro che non produce spostamenti del centro di massa del sistema: gli
urti con le molecole di un gas possono spostare un pistone (lavoro termodinamico propriamente detto) e nel
contempo aumentare l'energia cinetica delle sue molecole (calore); l'energia del pistone varia quindi come
. In meccanica classica (il pistone viene considerato come un insieme di circa punti
materiali) i due concetti non sono scissi, e vanno sotto il solo nome di lavoro;
• per avvezione e in particolare per convezione: in un fluido in movimento, porzioni del fluido possono
scaldarsi o raffreddarsi per conduzione a contatto di superfici esterne e poi, nel corso del loro moto
(spesso a carattere turbolento), trasferire, sempre per conduzione l'energia così scambiata ad altre
superfici, dando così luogo ad un trasferimento di calore per avvezione. In un campo gravitazionale
quale quello terrestre della forza peso, tale modalità di trasferimento di calore, detta convezione libera,
ed è dovuta al naturale prodursi di correnti avvettive, calde verso l'alto e fredde verso il basso, dovute a
diversità di temperatura e quindi di densità delle regioni di fluido coinvolte nel fenomeno, rispetto a
quelle del fluido circostante;
• per irraggiamento: tra due sistemi la trasmissione di calore avviene (a distanza, anche nel vuoto) per
emissione, propagazione e assorbimento di onde elettromagnetiche: anche in questo caso il corpo a
temperatura inferiore si riscalda e quello a temperatura superiore si raffredda.
Nella pratica tecnica e nell'impiantistica in genere lo scambio di calore senza mescolamento tra fluidi
diversi avviene in dispositivi appositamente progettati chiamati appunto scambiatori di calore.
Fra il calore specifico a volume costante e il calore specifico a pressione costante, per un gas perfetto
esiste la relazione del dottor Mayer:
, dove
Convezione
Da Wikipedia, l'enciclopedia libera.
dove ρ è la densità del fluido, è il vettore velocità del fluido, g è l'accelerazione di gravità e α è la
diffusività termica del fluido in questione.
di Navier e costituisce un bilancio locale della quantità di moto (si noti che con la scrittura si suole
indicare la derivata sostanziale del vettore u), la terza è l'equazione di Fourier estesa alla convezione.
Qualora le differenze di densitè dovute a differenze di temperatura nel fluido hanno un effetto
trascurabile sul moto si parla di convezione forzata. In questo caso il moto è dovuto a cause esterne
quali ventilatori, pompe o in generale differenze di pressione generate fuori dal dominio di studio. In
questo caso è possibile porre la densità del fluido costante e risolvere così ヘ le prime due eqauazioni del
sistema succitato e poi la terza.
Se, al contrario, il moto è causato solo da differnze di densità dovute a differenze di temperatura, si
parla di convezione naturale.
Un terzo caso è quello di convezione mista che, come il nome suggerisce, il moto è dovuto sia a
differze di densità dovute a differenze di temperatura che a cause esterne.
Nei casi di convezione naturale o mista non è possibile porre la densità ρ del fluido costante ed è
necessario risolvere simultaneamente le tre eqazioni differenziali scritte.
Numero di Nusselt
Da Wikipedia, l'enciclopedia libera.
Il numero di Nusselt (Nu) è un gruppo adimensionale utilizzato nello studio dello scambio termico per
convezione ed è definito da:
dove:
• L = dimensione caratteristica
• kf = conducibilità termica del fluido
• h = coefficiente di scambio termico convettivo
E' di particolare importanza nei problemi di convezione termica, in quanto la sua determinazione
permette di conoscere il coefficiente di scambio termico convettivo fra il fluido e la parete.
Generalmente è considerato funzione del numero di Reynolds e del numero di Prandtl, a meno di un
coefficiente C e degli esponenti n ed m a cui sono elevati gli altri due gruppi adimensionali.
Numero di Prandtl
Da Wikipedia, l'enciclopedia libera.
Permette di misurare l'importanza relativa degli effetti viscosi rispetto alla diffusività termica.
Conduzione termica
Da Wikipedia, l'enciclopedia libera.
Per conduzione termica si intende la trasmissione di calore che avviene in un mezzo solido, liquido o
gassoso dalle regioni a più alta temperatura verso quelle con temperatura minore per contatto
molecolare diretto (le altre modalità di passaggio - o trasferimento - del calore sono l'irraggiamento e la
convezione). Il principio alla base della conduzione è diverso a seconda della struttura fisica del corpo:
se la conduzione termica avviene nei gas è dovuta alla diffusione atomica e molecolare, se invece
avviene nei liquidi e nei solidi è a causa di onde elastiche; nei materiali metallici il fenomeno è
principalmente dovuto alla diffusione degli elettroni liberi dato che è trascurabile il contributo
dell'oscillazione elastica del reticolo cristallino. Lo studio delle caratteristiche della conduzione
richiede in primo luogo la conoscenza del campo di temperatura all'interno del corpo: T=f(x,y,z,t)
Quando il campo termico è indipendente dal tempo la conduzione avviene in regime stazionario, se
invece la temperatura è funzione anche del tempo il regime si dice transitorio.
Conduzione nei solidi
Se si riscalda un'estremità di un solido le cui dimensioni sono S la superficie di base e L la sua
lunghezza, si viene a formare una differenza di temperatura finita, diciamo T2 > T1, tra un punto e un
altro del solido. Il calore si diffonde entro il corpo nella direzione ove la temperatura è minore per il
Principio zero della termodinamica, così:
dove K è la costante di conducibilità termica del materiale. Il valore di K dipende dal materiale ma
soprattutto dal tipo di struttura del materiale, cioè dalla forma del reticolo cristallino.
L'equazione fondamentale che regola la conduzione è l'equazione differenziale alle derivate parziali,
detta anche equazione del calore o di Fourier:
• Fra due superfici piane e parallele AB e CD a temperature t 1 > t2, distanti l, di un corpo solido, con
scambio continuo di calore, in regime stazionario, le temperature secondo la retta normale comune alle
due pareti, decrescono con legge lineare.
• Fra le due pareti di superficie S nell'unità di tempo avviene un passaggio di calore dato dalla relazione:
Nella quale il coefficiente K è detto coefficiente di conducibilità del conduttore. Siccome, ponendo nella
formula precedente: S = 1; t1 — t2 = 1° C; 1=1, si ha Q = K, si giunge alla conclusione che il coefficiente
di conducibilità esprime la quantità di calore che, nell'unità di tempo, passa dalla faccia di un cubo di
spigolo unitario a quella opposta, quando la differenza delle temperature fra le due facce è di 1° C . Se si
misura Q in Calorie, S in metri quadrati e l in metri, il valore del coefficiente K risulta misurato in:
Esempio
Mettendo sopra una fiamma l'estremità di una sbarra metallica, dopo qualche tempo anche l'altra
estremità si scalda e può scottare, cioè il calore somministrato dalla sorgente riscalda le molecole della
parte a contatto le quali si muovono oscillando con maggior velocità e perciò vanno ad urtare con
maggior energia le molecole vicine; queste a loro volta urtano le altre successive e così, a poco a poco,
tutta la sbarra si riscalda, senza notevole spostamento di ciascuna molecola che resta ad occupare
sempre la stessa posizione media originaria. Così nella conduzione non si ha trasporto di materia, ma
solo trasmissione di urti molecolari.
Ripetendo l'esperienza con un tubo di vetro si osserva invece che un punto può diventare rosso, mentre
a qualche centimetro di distanza si avverte solo un debole aumento di temperatura, cioè il vetro
conduce il calore meno bene del metallo. Il miglior conduttore di calore è l'argento.
Sono buoni conduttori di calore tutti i metalli, ma non tutti lo trasmettono egualmente bene. Per
esempio, il rame conduce il calore meglio del ferro. Questo fatto si prova riscaldando alle estremità due
sbarre, una di ferro e l'altra di rame, che portano all'estremità opposta una pallina fissata con una goccia
di cera: la sbarra di rame lascia cadere la pallina molto prima della sbarra di ferro. Sono cattivi
conduttori del calore tutti i metalloidi, il vetro, il legno, il sughero, ecc.
È importante notare fin d'ora che il diverso grado di conducibilità dei metalli corrisponde per ordine
alla diversa conducibilità della corrente elettrica. Il fatto non è casuale, ma dipende dalla natura stessa
del fenomeno perché l'elettromagnetismo ci dice che nella conducibilità del calore sono strettamente
interessati non solo le molecole, ma anche alcuni corpuscoli elettrizzati (elettroni) che le costituiscono.
Exergia
Da Wikipedia, l'enciclopedia libera.
L’exergia è una definizione usata in termodinamica per indicare la quantità di energia disponibile (o
energia utilizzabile) di una trasformazione. La trasformazione comporta un salto energetico mediante il
quale è possibile scambiare lavoro o calore.
L’exergia è data dalla differenza tra l’energia e l’anergia (energia non più utilizzabile), ed è data dalla
formula Ex=En-TdS con Ex= exergia En=energia T=temperatura e dS entropia generata.
L’exergia non è una grandezza di stato del sistema termodinamico (come invece lo sono energia
interna, entalpia ed entropia), in quanto è una coproprietà del sistema e dell'ambiente di riferimento: da
qui la necessità di definire tale ambiente (temperatura, pressione, composizione chimica..)
Ad esempio se confrontiamo la quantità di energia consumata per riscaldare l’acqua di una tazza di te
80°C o di una vasca d’acqua per il bagno a 20°C, a parità di energia fornita, l’anergia (energia dispersa)
per riscaldare l’acqua della tazza di te è maggiore perché maggiore è la temperatura a cui avviene la
trasformazione, quindi l’exergia (energia utile) per riscaldare la tazza è minore. La maggior parte
dell’energia fornita viene dispersa sotto forma di entropia. Viceversa per l’acqua della vasca.
Questa necessità nasce dal fatto che, a causa di quanto postulato dal secondo principio della
termodinamica, non tutta l’energia disponibile sotto forma ad esempio di calore può essere trasformata
in lavoro meccanico utile a causa della presenza di irreversibilità nei processi di trasformazioni che
dissipano la possibilità di ottenere lavoro meccanico: si tratta ad esempio dei fenomeni di attrito,
dell’effetto Joule ecc.
Ad esempio in un ciclo di Carnot, date due sorgenti a temperatura prestabilita, si ha un limite massimo
del rendimento di lavoro meccanico ottenibile che dipende solo dalle temperature stesse: il resto del
calore è appunto dissipato nella trasformazione.
In ogni processo naturale non vi è tanto perdita di energia (ciò andrebbe contro quanto postulato dal
primo principio della termodinamica), quanto piuttosto di degradazione dell’energia da exergia ad
anergia, cioè energia dalla quale non è ottenibile lavoro meccanico. Si tratta questo di un processo
irreversibile.
In base a quanto detto finora si può rivedere in questi termine la formulazione dei primi due principi
della termodinamica:
• Primo principio della termodinamica: in ogni processo si mantiene costante la somma di exergia ed
anergia.
• Secondo principio della termodinamica: in ogni processo reversibile si mantiene costante l’exergia; in
ogni processo irreversibile una certa quantità di exergia si trasforma irreversibilmente in anergia.
Effetto Venturi
Da Wikipedia, l'enciclopedia libera.
L'effetto Venturi (o paradosso idrodinamico) è il fenomeno fisico, scoperto e studiato dal fisico
Giovanni Battista Venturi, per cui la pressione di una corrente fluida aumenta con il diminuire della
velocità.
Formula
Effetto Venturi
L'Effetto Venturi viene anche chiamato paradosso idrodinamico poiché si può pensare che la pressione
aumenti in corrispondenza delle strozzature; tuttavia, per la legge della portata, la velocità aumenta in
corrispondenza delle strozzature. Quindi se abbiamo un tubo che finisce contro una piastra come in
figura e il fluido ha una pressione leggermente superiore alla pressione atmosferica, l'aumento di
velocità che la strozzatura crea tra tubo e piastra farà aumentare la velocità a scapito della pressione del
fluido. Se la pressione scende al di sotto della pressione atmosferica, la piastra tenderà a chiudere il
tubo anziché volare via. Da questo nasce il paradosso idrodinamico che è una conseguenza della Legge
di Bernoulli.
Resistenza meccanica
Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento da Resistenza dei materiali)
La resistenza meccanica è la capacità dei materiali di resistere a forze statiche esterne, tendenti a
modificarne la forma e la dimensione. La resistenza meccanica dei materiali ai vari tipi di
sollecitazione statica può essere misurata con prove specifiche di compressione, torsione, flessione,
taglio e trazione.
Compressione (meccanica)
Da Wikipedia, l'enciclopedia libera.
In meccanica, la compressione è uno degli sforzi elementari cui può essere sottoposto un corpo,
insieme alla trazione, la flessione, il taglio e la torsione.
Per semplificare, si può dire che un corpo è soggetto a compressione quando su di esso agisce un
sistema di forze convergenti.
In una generica sezione di una trave soggetta a compressione la tensione unitaria si calcola con la
relazione , in cui:
Torsione
Da Wikipedia, l'enciclopedia libera.
La torsione è uno degli sforzi elementari cui può essere soggetto un corpo, insieme alla compressione,
la trazione, la flessione e il taglio. La sollecitazione che lo provoca è detta momento torcente.
La soluzione del problema della torsione è esatta per travi (o alberi ai quali spesso la letteratura
scientifica americana si riferisce) a sezione circolare (piena o cava) mentre sono necessarie delle
approssimazioni per le sezioni cave a parete sottile, rettangolari e di conseguenza quelle composte da
rettangoli sottili (come i classici profilati in acciaio).
Soluzioni analitiche
L'azione del momento torcente si traduce in un insieme di sforzi elementari che prendono il nome di
tensioni tangenziali τ applicate ad aree elementari che generano un momento equivalente all'azione a
cui la sezione è localmente soggetta.
• Mt : il momento torcente
• τ : tensione tangenziale
• ρ : la distanza dell'area elementare dal centro di torsione
• dA : area elementare su cui agisce la tensione tangenziale
• A : area della sezione considerata
Questa relazione deve essere soddisfatta in qualsiasi sezione, tuttavia non descrive la distribuzione
delle tensioni per la quale è necessaria l'analisi delle deformazioni.
Inoltre per equilibrio esisteranno delle tensioni anche lungo l'asse della trave poiché per solidi continui
non può esserci scorrimento relativo delle fibre parallele che compongono l'asta.
Ovviamente le soluzioni trovate valgono per il campo elastico del materiale nel quale valgono le
relazioni di proporzionalità sollecitazioni-deformazioni e il principio di sovrapposizione degli effetti.
Per le barre a sezione circolare si può determinare una soluzione esatta al problema dell'espressione
dello sforzo tangenziale rispetto alla sollecitazione applicata.
Dalla relazione si evince che la distorsione della trave è la stessa per tutti i punti equidistanti dall'asse e
cresce linearmente con essa.
Con ρ = c, ovvero alla distanza massima dal centro della sezione, si ha - usando la proporzionalità -
Sezioni piene
Sezioni cave
Poiché nelle sezioni più comunemente usate lo spessore della lamina è molto piccolo si può utilizzare
la formula approssimata (con Cm raggio medio tra quello esterno e interno e t spessore
della lamina) e considerare la distribuzione delle τ uniforme lungo lo spessore e pari al valore medio
La soluzione approssimata dei tubolari può essere estesa a barre a sezione cava di forma qualunque
purché lo spessore sia di dimensioni trascurabili rispetto alle restanti dell'elemento.
• l : lunghezza del "circuito" costituito dal perimetro della sezione (considerando il raggio medio)
• t(s) : spessore della barra che può variare a seconda dell'ascissa curvilinea s
• p : braccio della forza τ t dS rispetto al baricentro della sezione
Si pensi ora al caso analogo in idraulica di un canale chiuso nel quale circola un fluido incomprimibile.
Per continuità la portata in due sezioni qualsiasi del circuito deve essere la stessa, ovvero il prodotto
"quantità" per "area" è costante. Idem in questo caso dove il cosiddetto flusso di taglio deve essere
costante, ovvero e quindi è costante.
In questo caso cade l'ipotesi precedente di assial-simmetria pertanto non potranno essere applicate le
relazioni dimostrate. Per i prismi a sezione non circolare infatti la tersione porta all'ingobbamento della
sezione la quale - nella rotazione - cambia aspetto (per il quadrato si ha ovviamente la situazione
invariata per rotazioni di 90° o 180°).
Nelle strutture isostatiche le travi sono libere di ingobbarsi; in quelle iperstatiche invece l'ulteriore
vincolo blocca questo fenomeno quindi insieme alle sollecitazioni tangenziali nasceranno delle
sollecitazioni σ.
Si considerino le sezioni rettangolari. In virtù di quanto detto prima le tensioni non possono più variare
linearmente nella sezione.
Le τ saranno nulle solo negli angoli della sezione. Si consideri infatti un parallelepipedo infinitesimo
sullo spigolo di una barra a sezione quadrata sottoposta a torsione. Per equilibrio con l'esterno
(sollecitazioni nulle sulla frontiera) anche le deformazioni saranno nulle. Allontanandoci queste
cresceranno fino al massimo valore nella linea di mezzeria della barra.
Per una risoluzione approssimata del problema si consideri una sezione rettangolare allungata; per
effetto della torsione sulle pareti nascerà un "circuito" di tensioni analogo alla circolazione di un fluido
(nella parte di mezzo si avrà la "calma"). Per continuità il prodotto delle tensioni per il proprio braccio
è costante, quindi le tensioni massime si hanno sulle pareti più lunghe. Si applica l'equilibrio tra il
momento torcente e la distribuzione delle tensioni:
ovvero la τ sul bordo più lungo porta metà del momento. Nell'equilibrio la forza [F] è data dalla
risultante della distribuzione triangolare delle τ lungo la sezione considerando sia la parte inferiore che
quella superiore (2). Sia a il bordo più lungo e b quello più corto. Si ricava:
e quindi .
Nei calcoli è sovente l'uso della relazione con c1 valore che dipende dal rapporto tra a e b.
L'angolo di torsione è pari a con c2 valore che dipende dal rapporto tra a e b.
a/b c1 c2
0.20
1 0.1406
8
1. 0.21
0.1661
2 9
1. 0.23
0.1958
5 1
0.24
2 0.229
6
2. 0.24
0.249
5 8
0.26
3 0.263
7
0.28
4 0.281
2
0.29
5 0.291
1
0.31
10 0.312
2
0.33
∞ 0.333
3
Per a/b > 5 i due coefficienti sono uguali e si può comunque approssimarli a 1/3.
Sezioni composte
Nel caso di sezioni aperte composte (come i comuni profilati usati per le travi quali IPE o HE) si ha un
problema internamente iperstatico.
Il momento torcente che viene applicato viene assorbito dalle sezioni presenti: . Per
congruenza tutte le sezioni devono ruotare dello stesso angolo . Per sezioni rettangolari si ha
Flessione
Da Wikipedia, l'enciclopedia libera.
La flessione è uno degli sforzi elementari cui può essere soggetto un corpo, insieme alla compressione,
la trazione, il taglio e la torsione. La sollecitazione che la provoca è detta momento flettente.
Per semplicità, si può dire che un corpo è soggetto ad uno sforzo di flessione quando, per effetto dei
vincoli cui è sottoposto, reagisce, opponendosi, ad un sistema di forze ad esso applicate che
tenderebbero a farlo ruotare attorno ad un proprio punto.
Nella pratica una trave è sollecitata a flessione quando è sottoposta ad un sistema di carichi che
possiede una componente perpendicolare all'asse longitudinale, generando un momento flettente che
provoca l'incurvatura della trave stessa.
Nella trave sottoposta a flessione nascono delle tensioni unitarie di trazione e compressione, idealmente
separate da uno strato di fibre detto "asse neutro" (x) che non subisce alcun allungamento o
accorciamento.
In una generica sezione di una trave soggetta a flessione la tensione unitaria si calcola con la relazione:
Taglio
Da Wikipedia, l'enciclopedia libera.
Il taglio è uno degli sforzi elementari cui può essere soggetto un corpo, insieme alla compressione, la
trazione, la flessione e la torsione. La sollecitazione che lo provoca è detta sforzo tagliante.
Flessione e taglio sono spesso sollecitazioni collegate fra loro, e matematicamente correlate mediante
derivata prima.
Lo sforzo di taglio puro, applicato su una trave, può essere rappresentato con due forze di direzione
verticale uguali in modulo, con punti di applicazione molto vicini tra loro. La flessione è pressoché
annullata dal fatto che il braccio di leva tra le due forze è quasi nullo. La deformazione di tipo tagliante,
se non adeguatamente contrastata, tende a far assumere alla trave una forma a "Z", provocando
un'alterazione locale all'asse della trave. La sezione ove è applicata l'azione tagliante è soggetta ad uno
scorrimento trasversale, con la generazione di tensioni tangenziali, secondo la formula di Jourawsky, di
tipo τ.
Le tensioni τ si suddividono in tensioni sollecitanti e tensioni resistenti. Sono forze elementari che
agiscono su aree elementari. Possiamo affermare che in una sezione trasversale di trave, in condizioni
di equilibrio,
Progettare una sezione che resista bene a taglio, data una certa configurazione di carico, implica :
Nella pratica, una trave in acciaio, con sezione a T, cioè caratterizzata da una larga piattabanda e una
lunga anima, per resistere bene a flessione, può essere soggetta a problemi per taglio poiché lo spessore
dell'anima risulta troppo sottile.
Una trave rettangolare in cemento armato, di geometria definita con larghezza b e altezza h, resiste al
taglio in maniera più complicata. Se gli sforzi di taglio sono lievi le armature metalliche saranno
dimensionate per la sola flessione. Se gli sforzi di taglio sono rilevanti si effettua un calcolo
dell'armatura a taglio, ovvero staffe e ferri piegati, in modo da verificare la resistenza alle
configurazioni di carico di progetto.
Trazione (fisica)
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
La trazione è uno degli sforzi meccanici elementari cui può essere soggetto un corpo, insieme alla
compressione, la flessione, il taglio e la torsione.
Per semplificazione si può dire che la trazione è la sollecitazione a cui è sottoposto un corpo che è
soggetto a un sistema di forze divergenti. Data una forza F di trazione applicata ad una sezione generica
di area A si definisce tensione di trazione la grandezza σ, data da:
Un esempio classico di trazione può essere quello di una corda, tirata ai suoi estremi, in equilibrio
statico. Entra in gioco un equilibrio di forze F, uguali in modulo e direzione, ma di verso opposto, da
cui la corda viene tesa. Le fibre che compongono la fune sono idealmente soggette ad una tensione σ
costante. Volendo calcolare l'allungamento della corda, provocato dalle due forze F contrapposte,
possiamo usare il seguente procedimento:
richiamiamo il legame fra tensione {\sigma} e deformazione {\epsilon} ottenuto sperimentalmente per
il materiale impiegato: σ = Eε
La formula che fornisce l'estensione della corda in seguito allo sforzo di trazione F è data da:
Affidabilità
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
In sintesi, l'affidabilità di un assieme (un apparato elettronico, una macchina, etc.), di un sistema
comunque complesso o di un semplice componente (ad esempio una resistenza elettrica) è la misura
della probabilità che l'assieme (od il componente) considerato non si guasti (ovvero non presenti
deviazioni dal comportamento descritto nella specifica) in un determinato lasso di tempo.
Per semplicità, in seguito (se non diversamente indicato) si parlerà di componente riferendosi sia ad un
assieme o sistema complesso sia ad un componente elementare.
Definizioni correlate
Guasto
Un guasto (in inglese fault) è un difetto (cioè la non conformità strutturale o algoritmica alla specifica)
di un componente di un sistema.
Errore
Un errore (in inglese error) è una transizione dello stato globale del sistema, che non è conforme alla
specifica di funzionamento del sistema.
Per stato globale di un sistema si intende qui l'insieme degli stati dei moduli di cui è composto, e per
funzione di transizione globale si intende invece l'insieme dei cambiamenti allo stato globale che sono
definite dalle specifiche di funzionamento del sistema.
Fallimento
Un fallimento (in inglese failure) è un evento per cui un sistema viola definitivamente le specifiche di
funzionamento, interrompendo la disponibilità dei servizi che fornisce.
Aspetto statistico
Definita la probabilità che il guasto si verifichi fra l'istante t e l'istante t + dt, la probabilità di
Aspetto sistemistico
In pratica, ogni assieme (o sistema) è costituito da più sottoassiemi che, da un punto di vista
dell'affidabilità possono essere connessi in parallelo od in serie.
Diremo che tutti i sottoassiemi che, pur guastandosi, non pregiudicano la funzionalità dell'assieme
superiore (che li contiene) sono da un punto di vista dell'affidabilità fra loro collegati in parallelo.
Viceversa, nel caso che sia sufficiente l'avaria di un singolo sottoassieme per determinare l'avaria
dell'assieme superiore, diremo che tale sottoassieme è connesso in serie.
Nell'esempio a lato, è raffigurato un sistema ove l'avaria di uno solo dei blocchi C o D non porta
all'avaria del sistema, mentre l'avaria del blocco A oppure B porta necessariamente all'avaria del
sistema.
In altri termini, per mandare in avaria il sistema si dovrà avere l'avaria contemporanea dei blocchi C-D,
oppure l'avaria del blocco A oppure del blocco B.
A prescindere dai modelli teorici, in pratica si rileva sul campo l'intervallo medio fra i fallimenti (Mean
Time Between Failure, MTBF), definito statisticamente come speranza matematica del tempo di
funzionamento fra due fallimenti.
Caldaia (riscaldamento)
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
La caldaia usata per il riscaldamento degli ambienti e dell' acqua calda sanitaria è un' apparecchiatura
che trasforma l'energia presente nei combustibili in calore e lo rende disponibile in un circuito
contenente acqua od aria che ha la funzione di distribuire il calore negli ambienti ed eventualmente nell'
acqua dell' impianto sanitario. Le caldaie moderne sono costruite in modo da risparmiare spazio e con
un occhio di riguardo al rendimento. Si possono quindi distinguere in base alle dimensioni
(generalmente le caldaie murali sono più piccole di quelle a basamento) oppure in base alla tecnologia
di scambio del calore da camera di combustione a fluido (caldaie tradizionali e caldaie a
condensazione) od, ancora, in base al tipo di scambiatore (a fascio tubiero, a serpentina, a piastra), in
base al numero di bruciatori (mono o multistadio, oppure bivalente), ma anche in base al combustibile
usato (solido, liquido, gassoso) ed in base al sistema di evacuazione dei fumi (a tiraggio naturale,
forzato, a camera stagna).
Struttura
Una caldaia "tipo" è composta da: bruciatore, camera di combustione, scambiatore di calore, sistemi di
controllo e sicurezza.
Tipi di caldaie
Caldaie descrizione generale Per caldaia (o generatore di calore), si intendono quelle apparecchiature
nelle quali avviene il trasfetimento di energia termica dai prodotti della combustione al fluido
termovettore. Nella loro essenzialità esse sono costituite dal focolare, zona in cui avviene la
combustione, dalla parte cirostante nella quale circola il fluido da ruiscaldarsi, a tubi di fumo (almeno
in alcuni tipi) e da un rivestimento esterno realizzato con materiale coibente avente lo scopo di
contenere il calore prodotto e scambiato, e da un mantello in lamiera protettiva. Una caldaia è
caratterizzata da alcuni parametri essenziali che risultano essere: - Potenza al focolare (Pf). Questa
potenza è data dal prodotto del potere calorico inferiore del combustibile impiegato e della sua portata:
L’unità di misura è il Kw. - Potenza termica convenzionale (Pc). Questa potenza è data dalla potenza
termica al focolare diminuita della potenza termica persa al camino, coincidente convenzionalmente
con la perdita per calore sensibile nei fumi: L’unità di misura è il Kw. - Potenza termica utile (Pn):
Questa potenza è data dalla quantità di calore trasferita nell’unità di tempo al fluido termovettore,
corrispondente quindi alla potenza convenzionale diminuita della potenza scambiata dall’involucro
stesso e persa nell’ambiente esterno. L’unità di misura è il Kw. - Rendimento termico utile: è il rapporto
tra la potenza termica utile e la potenza termica al focolare. - Pressione massima di esercizio. E’ la
pressione massima a cui può funzionare la caldaia in regime continuativo. L’unità di misura è il bar. -
Temperatura massima di esercizio. E’ la temperatura massima a cui può essere fatta funzionare la
caldaia, nelle caldaie tradizionale essa deve necessariamente essere inferiore alla temperatura di
ebollizione dell’acqua generalmente tale temperatura risulta essere attorno ai 90° C.
Classificazione: Una possibile classificazione dei generatori di calore può essere fatta considerando: il
materiale di costruzione: - caldaie in ghisa; - caldaie in acciaio; - caldaie in acciaio speciale per
generatori di calore a bassa temperatura e a condensazione; - caldaie in alluminio silicio (caldaie a
copndensazione); la pressione di funzionamento: - caldaie a bassa pressione; - caldaie ad alta pressione;
il combustibile impiegato: - caldaie a combustibile solido; - caldaie a combustibile liquido; - caldaie a
combustibile gassoso; - caldaie policombustibile; - caldaie a funzionamento elettrico; il fluido
termovettore: - caldaia per acqua fino a 100° C.; - caldaia per acqua surriscaldata > 100° C.; - caldaia a
vapore a bassa pressione; - caldaia a vapore ad alta pressione; - caldaia ad olio diatremico; - generatore
di aria calda; la pressione esistente nella camera di combustione: - caldaie con bruciatore atmosferico
(aspirate); - caldaie con bruciatore ad aria soffiata (pressurizzate); il percorso dei prodotti della
combustione: - a tubi di fumo; - a tubi di acqua; la temperatura dei fumi: - caldaie a bassa temperatura;
- caldaie a condensazione;
Usi civili: Negli usi civili le caldaie utilizzate si distinguono in base alla potenza termica in gioco, per
gli appartamentini condominiali con riscaldamento autonomo, in considerazione della ridotta se non
completa assenza di spazi necessari alla posa in opera di caldaie di altro tipo, è invalso, anche per
effetto della crescente metanizzazione in atto sul territorio nazionale, l'uso di caldaie del tipo murale;
Caldaie murali: Queste caldaie son generalmente realizzate con uno scambiatore in acciaio e
consentono la necessaria compattezza dimensionale; Gli scambiatori utilizzati in questi tipi di caldaia
sono in acciaio austenitico atto a resistere alle temperature di fiamma ed alla inveitabile corrosione
legata ad processo di combusìione. Questi tipo di generatore di calore è in molti casi dotato di bollitore
per la produzione di acqua calda sanitaria di ridotte dimensioni ed alta capacità di scambio o, in molti
casi dotato di scambiatore sanitario a scambio rapido (produzione acqua calda di tipo istantaneo).
Anche per effetto della normativa vigente (Legge 10/91 e DPR 412 ) tendente anche a garantire la
necessaria sicurezza relativamente allo scarico dei fumi, il mercato italiano si è andato evolvendo
sull'installazione di caldaie a camera stagna a tiraggio forzato. In questo tipo di caldaia la combustione
avviene in una camera chiusa (stagna) rispetto all'ambiente circostante, ciò comporta la necessità di
prelevaria aria comburente direttamente all'esterni tramite apposite condotte, con conseguente necessità
di dotare la caldaia stessa di un elettroventilatore con funzione di prelievo aria esterna e necessaria per
forzare (tiraggio forzato) in pressione l'espulsione dei fumi verso il camino. Se da un lato quest'ultimo
tipo di caldaia garantisce la sicurezza (ai fini dell'eventuale travaso di fumi all'interno degli ambienti),
dall'altro fà insorgere altre problematiche legate allo scarico dei prodotti della combustione ed alle
relative condotte di fumisteria che risultando essere in pressione e che devono necessariamente
garantire (anche nel tempo) le necessarie doti di tenuta. Le caldaie murali possono essere del tipo per
instlallazione interna o adatte all'installazione esterna in appositi armnadi di contenimento.
Un'evoluzione di questo tipo ci caldaia, si è avuto con l'introduzione sul mercato delle caldaie dette "a
condensazione", questo tipo di generatore di calore, ha la prerogativa di recuperare il calore di
condensazione, è caretterizzato da rendimenti termici eccezzionali con un'emissione di ossido di azoto
e di altri residui inquinanti assai contenuto, queste caldaie sono quasi sempre del tipo a tiraggio forzato
con combustione realizzata premiscenado l'aria al combustibile e rappresentano il futuro nella
realizzazione di generatori di calore. Caldaie a basamento: Questo tipo di caldaia, assai più
ingombrante rispetto alla precedente è generalmente dotata di bollitore di alta capacità, richiede per la
sua collocazione i necessari spazi, può essere del tipo a camera aperta o a camera stagna, generalmente
le caldaie a camera aperta vengono installate in un locale adibito a centrale termica, mentre nel caso di
collocazione all'interno dell'unità abitativa (per effetto della normativa di sicurezza vigenti) si provvede
all'installazione di caldaie a camera stagna; La maggiore capacità del bollitore garantisce una maggiore
possibilità di utilizzo contemporaneo di più punti di prelievo di acqua calda sanitaria. Lo scambiatore di
questo tipo di caldaia pù essere o in acciaio come per quelle muarli o ad elementi di ghisa. Per
funzionamento a gasolio o a combustibile liquido (gasolio) o solido (legno o pellets) data la
conformazione diversa della camera di combustino, la struttura è generalmente realizzata in acciaio con
bollitore incorporato o meno in funzione delle esigenze dello stabile. Per il civile (salvo usi particolari)
le caldaie sono generalmente a tubi di fumo con temperature di funzionamento inferiore a 100 ° C. Il
mercato negli ultimi anni ha subito, sia per effetto delle normative di sicurezza e riparmio energetico,
sia per una l'evolozione tecnologica relativa al controllo della combustione ed alla termoregolazione,
una brusca accelerata. Le soluzione che offre il mercato sono le più diparate, si tratta in questo caso di
adottare la migliore in funzione degli ambienti da riscaldare, degli spazi a disposizione, del tipo di
distribuzione e della tipologia di impianto che si intende realizzare.
R = R! + R2 + .... + Rn
Si può raffigurarsi questo su due resistenze, che si differiscono l'una dall'altra solo nella lunghezza.
Il collegamento in serie da come risultato un corpo di resistenza di lunghezza l_{1}+l_{2}. E' valido
quindi
Circuito in parallelo
Grafia alternativa:
Rp = R1 | | R2 | | ... | | Rn
G = G1 + G2 + ... + Gn
La Conduttanza è il reciproco della Resistenza, la sua unità di misura nel sistema internazionale è il
reciproco dell'Ohm, che porta anche il singolare nome Siemens.Ci si può immaginare questa
connessione con l'unione di due Resistenze, che si differenziano l'una dall'altra solo nel lw e aree delle
sezioni trsversali A.
immagine
Una resistenza si ricava dalla superficie totale (A_1+A_2) delle sezioni trasversali, di conseguenza
vale:
e da ciò
In un collegamento in parallelo siano presenti resistenze del medesimo valore, così la Resistenza totale
può venire calcolata dividendo la resistenza singola per il numero delle resistenze nel circuito.
VA–VB = V0–IR
I generatori hanno una piccola resistenza interna che provoca una caduta di tensione tanto più
grande quanto maggiore è la corrente .
L’amperometro che è inserito in serie, deve avere la resistenza interna più piccola possibile per rendere
minima la caduta di tensione ai suoi capi, mentre il voltmetro che inserito in parallelo deve avere la
resistenza interna più grande possibile per rendere minima la corrente I che lo attraversa.
Potenza dissipata
Si è detto che la presenza di una resistenza determina un riscaldamento del componente. Più
precisamente la potenza dissipata in calore è data dalla relazione:
dove:
P è la potenza misurata in watt (le altre grandezze sono state già definite sopra).
Questo effetto è utile in alcune applicazioni come le lampade ad incandescenza oppure negli apparati
riscaldanti ad energia elettrica (ad esempio: gli asciugacapelli) ma non è certo voluto nelle linee di
distribuzione dell'energia elettrica dove l' effetto joule provoca perdite di potenza elettrica lungo tali
linee che vanno contenute scegliendo opportunamente le dimensioni dei cavi elettrici che traportano l'
energia.
Superconduttività
Al di sotto di una temperatura critica specifica un materiale superconduttivo ha la resistenza ohmica di
valore nullo. Per ciò tale materiale è chiamato superconduttore, la corrente vi scorre con questa bassa
temperatura senza perdite di sorta.
CAD
Da Wikipedia, l'enciclopedia libera.
In informatica, l'acronimo inglese CAD viene usato per indicare due concetti correlati ma differenti:
In questa accezione, la più comune, CAD indica il settore dell'informatica volto all'utilizzo di tecnologie
software e in particolare della computer grafica per supportare l'attività di progettazione (design) di
manufatti sia virtuale che reali. I sistemi di Computer Aided Design hanno come obiettivo la creazione di
modelli, soprattutto 3D, del manufatto. Ad esempio, un sistema Computer Aided Design può essere
impiegato da un progettista meccanico nella creazione di un modello 3D di un motore.
Categorie di CAD
I sistemi CAD possono essere classificati secondo differenti criteri. Guardando all'estensione del
dominio, inteso come campo di utilizzo, si può distinguere tra:
Si tratta di sistemi CAD aventi un dominio molto ampio, utilizzabili con successo in contesti applicativi
differenti, come ad esempio progettazione architettonica e quella meccanica. I comandi offerti da questi
sistemi sono indipendenti da uno specifico contesto applicativo. Si avranno pertanto comandi come
traccia-linea senza alcuna nozione se la linea rappresenta una parete di un edificio o lo spigolo di un
supporto metallico.
Sistemi CAD verticali
Si tratta di sistemi con dominio ristretto, orientati ad un particolare contesto applicativo, con comandi e
funzionalità specifici per quel contesto. Ad esempio, un sistema CAD verticale per la progettazione di
interni offrirà comandi per creare e posizionare differenti tipi di pareti e collocarvi porte e finestre.
Una classificazione alternativa, molto utilizzata in ambito commerciale, suddivide i sistemi CAD in tre
fasce principali sulla base di prezzo e funzionalità:
Sono sistemi CAD tipicamente limitati al disegno 2D, venduti a prezzo contenuto (indicativamente
inferiore ai 300€) e rivolti ad utenti occasionali o non professionisti.
Sono sistemi CAD che integrano la modellazione 3D con il disegno 2D, venduti ad un prezzo medio
(indicativamente inferiore ai 4000€). Questi sistemi sono usualmente rivolti a piccole o medie aziende e
a professionisti.
Sono sistemi CAD complessi che integrano la modellazione 3D con il disegno 2D, e offrono una
gestione avanzata dei dati supportando processi aziendali che si estendono ben oltre l'ufficio tecnico.
Hanno costi elevati e sono tipicamente utilizzati dalle grandi aziende.
Pressoché tutti i sistemi CAD possono essere personalizzati ed estesi al fine di migliorare la
produttività dei progettisti e la qualità e dei progetti. Le principali modalità per estendere un sistema
CAD sono:
Librerie
Collezioni di modelli di oggetti e simboli da utilizzare nel progetto. Per esempio, un CAD per arredatori
può contenere una libreria di mobili. Ogni mobile può essere copiato dalla libreria e posizionato nel
progetto di un arredamento.
Macro
Comandi ottenuti componendo comandi più semplici tramite un linguaggio di programmazione. Per
esempio, in un sistema CAD 2D per fornire la funzione di disegno di muri, una macro può chiedere
all'utente di inserire il punto iniziale, il punto finale e lo spessore del muro, e inserire automaticamente
nel modello due linee parallele che rappresentano il muro.
Cambio (meccanica)
Da Wikipedia, l'enciclopedia libera.
Il cambio o cambio di velocità è un sistema meccanico con la funzione di ridurre, o più raramente
aumentare, la velocità di rotazione fornita da un motore.
È comunemente usato negli autoveicoli allo scopo di potere variare entro ampi limiti la velocità del
mezzo pur mantenendo il motore a scoppio entro un regime di funzionamento ottimale dal punto di
vista del rendimento, della coppia e/o della potenza. Il motore a scoppio infatti mediamente ha una
velocità di rotazione compresa tra 600 e 10.000 giri al minuto, mentre le ruote la hanno tra zero e 2.500
giri (sempre al minuto). Questo richiede una riduzione di velocità. Il motore però presenta alcuni
regimi di rotazione ottimali dal punto di vista del rendimento, della coppia e/o della potenza. In certe
occasioni, per esempio quando si compie un sorpasso, è necessaria la massima potenza, mentre
viaggiando a velocità costante in autostrada è preferibile un rapporto che consenta il minore consumo
di carburante.
Cambi di velocità sono anche impiegati in macchine industriali come per esempio i torni per metalli.
In macchine e veicoli che impiegano una trasmissione di tipo elettrico o idraulico il cambio non è
utilizzato, poiché i motori usati per azionare le ruote presentano una coppia ed un rendimento ottimale
su tutta la gamma di velocità.
Cambio automobilistico
Manuale
Nelle prime automobili il cambio era un semplice sistema di ingranaggi non sincronizzati. Le ruote
dentate venivano spostate dal guidatore mediante i comandi, e richiedevano una buona preparazione e
sensibilità nel capire quando gli ingranaggi stavano ruotando alla giusta velocità; in caso contrario
grattavano rumorosamente e la marcia non si inseriva.
Nel salire di marcia, era necessario rallentare l'ingranaggio motore, e per questo era sufficiente premere
la frizione ed attendere il momento giusto per cambiare. Nello scalare la marcia invece, è necessario
accelerare il motore Si impiegava per questo una tecnica detta doppietta, che comportava di portare il
cambio in folle, quindi rilasciare la frizione, incrementare la velocità del motore al punto giusto e
quindi inserire la marcia inferiore. In effetti era possibile operare su questi cambi anche senza l'uso
della frizione, necessaria solo per la partenza.
I cambi manuali delle moderne automobili sono di tipo sincronizzato. Il meccanismo del cambio è
costituito da due alberi paralleli, quello di entrata connesso alla frizione e quello di uscita, connesso
all'albero di trasmissione. Sui due alberi sono montati parallelamente gli ingranaggi. Tutti gli
ingranaggi sono costantemente ingranati, ma solamente una coppia è connessa all'albero di uscita.
Questo sistema semplifica notevolmente la tecnica di guida.
Il meccanismo di innesto consiste in un collare coassiale all'albero che scorre lateralmente mosso dai
comandi del cambio. Il collare è internamente dentato, e si ingrana sulle superfici dentate esternamente
dell'albero e di un collare solidale all'ingranaggio. Un collare serve per due ingranaggi: in posizione
centrale nessuna ruota è ingranata, mentre scorrendo a destra o a sinistra inserisce l'una o l'altra ruota.
Prima di innestarsi definitivamente, il collare applica una spinta ad una frizione conica di ottone che
riduce la differenza di velocità tra le parti. Questo elemento è il sincronizzatore.
I comandi del cambio sono studiati in modo da evitare che due collari vengano inseriti
contemporaneamente per errore.
Il primo cambio sincronizzato fu introdotto dalla Cadillac nel 1929, mentre l'attuale sistema a coni fu
sviluppato dalla Porsche nel 1952. Negli anni '50 solamente la seconda e terza marcia erano
sincronizzate, ed il manuale d'uso suggeriva, per passare dalla seconda alla prima, di fermare prima
completamente il veicolo. Nei cambi attuali, l'unica marcia non sincronizzata è la retromarcia, che non
ne necessita.
Il cambio sincronizzato presenta diversi svantaggi, tra cui l'usura dei sincronizzatori, il ritardo
introdotto nella cambiata e le perdite di energia per attrito. Per questo motivo nei grandi camion, nei
macchinari e nei cambi speciali per corse automobilistiche si usa un sistema non sincronizzato. Nei
cambi impiegati in gara si usano anche cambi sincronizzati con un numero ridotto di denti sui collari
per avere una velocità di cambiata migliore, avendo però per contro una usura molto rapida.
A partire dagli anni '60 furono introdotte la quarta marcia, la quinta, la sesta ed oltre. In un cambio a
quattro e a cinque marce, in quarta il rapporto del cambio è unitario, cioè la velocità di rotazione del
motore è uguale a quella delle ruote. La quinta marcia fu introdotta con l'aumentare delle velocità dei
veicoli, per economizzare combustibile. Ad elevata velocità infatti le ruote girano ad oltre 2000 giri al
minuto, mentre il motore presenta il migliore rendimento intorno o al di sotto di 2000. Le marce
superiori alla quarta hanno un rapporto che incrementa la velocità del motore, riducendone però la
coppia. Per questo motivo, per avere maggiore potenza e risposta nei sorpassi è necessario scalare.
Le macchine agricole ed i camion hanno molti rapporti di cambio, ed esiste un sistema per cui per ogni
marcia principale è possibile differenziare due rapporti: normale e ridotta. Il comando si effettua per
mezzo di leve distinte.
La retromarcia è realizzata con l'ausilio di un terzo albero con un ingranaggio ausiliario che trasmette il
moto tra due ingranaggi installati sui due alberi principali invertendo il senso di rotazione.
Il comando del cambio è solitamente una leva sporgente dal pavimento dell'auto. muovendo questa leva
lateralmente ed avanti o indietro si ingrana la marcia desiderata. In posizione centrale si ha la posizione
di folle, in cui nessun rapporto è inserito è la ruote sono isolate dal motore. Lo schema seguente illustra
le posizioni di un tipico cambio a cinque marce:
1 3 5
│ │ │
├───N───┤
│ │ │
2 4 R
N sta per Neutral, ovvero Folle in inglese. A volte l'inserimento della retromarcia deve essere sbloccato
agendo su un comando supplementare, questo per ridurre i rischi di inserimento accidentale quando si
scala dalla quinta alla quarta, oppure cercando di salire ad una sesta che non esiste.
R 1 3 5
│ │ │ │
└───┼───N───┘
│ │
2 4
In alcune vecchie auto il comando del cambio era costituito da una leva posta sul piantone dello sterzo.
Il funzionamento era simile a quello a pavimento, ma con i movimenti riportati sul piano verticale
invece che su quello orizzontale.
Sequenziale e semimanuale
In alcune auto e pressoché universalmente nelle motociclette è usato il cambio sequenziale. Due
comandi, che possono essere a pedale (nelle moto), una leva avanti-indietro o in forma di pulsanti sullo
sterzo, effettuano rispettivamente la scalata e la salita di marcia. Ciò elimina la necessità di usare uno
schema di manovra come con l'uso della leva del cambio e in genere automatizza anche la frizione.
Nelle automobili moderne con cambio automatico questa funzione è in genere controllata da un
computer ed è una alternativa alla modalità completamente automatica.
In alcune auto (per esempio alcune BMW e Audi) impiegano un cambio manuale manovrato da un
computer, ed il guidatore agisce semplicemente sui comandi sequenziali.
Automatico
Molte automobili attualmente sul mercato hanno un cambio automatico, in grado di selezionare
automaticamente il rapporto senza l'intervento umano, semplificando notevolmente la guida. Il sistema
più usato è di tipo idraulico, basato sulle variazioni di pressione, che però presenta problemi di costo,
affidabilità e consumo di combustibile. Il cambio automatico infatti è particolarmente diffuso in paesi
dove il costo del combustibile è particolarmente basso, come gli Stati Uniti, dove 19 auto su venti
hanno installato questo dispositivo.
Esiste anche un tipo di cambio, il cambio continuo, in cui non esistono valori fissi, ma il rapporto
varia con continuità entro due limiti estremi.
• Il cambio manuale è più efficiente dal punto di vista energetico soprattutto perché utilizza una frizione
invece di un convertitore di coppia.
• È più semplice costruire cambi manuali robusti ed affidabili.
• I cambi manuali non richiedono sistemi di raffreddamento specifici, mentre i cambi automatici hanno a
volte appositi radiatori.
• Il guidatore ha un controllo maggiore sullo stato del cambio. Un cambio automatico può decidere di
cambiare rapporto in un momento in cui il guidatore non lo desidera.
• Il cambio manuale è più economico, sia all'acquisto che per la manutenzione.
• Secondo alcuni, il cambio manuale impegna maggiormente l'attenzione alla guida e riduce il rischio di
distrazione.
Motore asincrono
Da Wikipedia, l'enciclopedia libera.
Il motore asincrono è un tipo di motore elettrico in corrente alternata in cui la frequenza di rotazione
non è uguale o un sottomultiplo della frequenza di rete, ovvero non è "sincrono" con essa; per questo si
distingue dai motori sincroni. Il motore asincrono è detto anche motore ad induzione in virtù del suo
principio di funzionamento descritto di seguito.
Il motore si compone si una parte fissa detta statore e una parte mobile detta rotore, ambedue di forma
cilindrica. In ambedue le parti, delle quali lo statore contiene il rotore, sono praticati dei fori paralleli
all'asse del cilindro, detti cave, destinati ad ospitare gli avvolgimenti, ovvero l'insieme dei conduttori.
Lo statore ospita normalmente un avvolgimento trifase, i cui conduttori sono distribuiti nelle cave in
modo che una terna di correnti sinusoidali nel tempo produca una distribuzione spaziale di campo
magnetico sinusoidale rotante. Il rotore è dotato di un certo numero di fasi m di norma chiuse in corto
circuito.
Tale rotazione del campo magnetico avviene ad una velocità fissa n legata alla frequenza di
alimentazione f, detta velocità di sincronismo. Per qualunque velocità di rotazione del rotore nr diversa
da quella di sincronismo la velocità dell'onda di campo magnetico di statore rispetto al rotore è nr-n. Il
rotore quindi è soggetto da parte dello statore ad un campo magnetico variabile a frequenza nr-n,
giacché l'onda ruota, e quindi sarà sede di forze elettromotrici indotte, da qui la dizione motore a
induzione, e dunque correnti alla stessa frequenza nr-n. Le correnti di rotore produrranno un'altra onda
di campo magnetico rotante, ma rotante a velocità nr-n rispetto al rotore che ruota a velocità nr rispetto
allo statore, per cui il campo di rotore ruota a velocità n rispetto allo statore ed è dunque sincrono con il
campo di statore. Tale condizione di sincronismo tra le due onde di campo magnetico assicura che il
motore produca una coppia costante. Unica eccezione, se il rotore gira al sincronismo, cioè n=nr, in
esso non vi sono forze elettromotrici quindi non vi sono correnti e dunque la coppia è zero.
Diversamente, la mutua interazione attraverso i relativi campi magnetici tra le correnti di rotore e
quelle di statore produce una coppia risultante netta.
La velocità n alla quale il motore non produce coppia, detta velocità di sincronismo. Essa non viene
usualmente superata ed è legata alla frequenza f di alimentazione e al numero di coppie polari p dalla
relazione:
Per esempio, un motore con tre coppie polari (6 poli totali), alimentato a 50 Hz ha una velocità
angolare di sincronismo di 1000 giri al minuto.
La velocità reale in condizioni nominali è sempre minore di circa il 3-6%, è il fenomeno dello
scorrimento che consente la produzione della coppia. Dalla formula dello scorrimento posso esprimere
la velocità di rotazione effettiva del rotore (nr):
Ovviamente il valore effettivo dello scorrimento dipende dal carico di fatto presente. Il carico non è
mai zero perché sono sempre presenti i fenomeni dell'attrito e della ventilazione che impediscono al
motore di ruotare alla velocità di sincronismo, impegnando una certa coppia.
Gli avvolgimenti statorici sono in genere inglobati in resine che garantiscono un'ottima protezione
dall'acqua e dagli agenti atmosferici. Questi motori sono frequentemente alimentati per mezzo di
inverter elettronici che possono variarne la velocità variando in modo coordinato la frequenza e la
tensione di alimentazione. L'uso di inverter permette di azionare il motore anche a partire da una
corrente continua, come avviene nella trazione ferroviaria.
Gli avvolgimenti statorici trifase possono essere collegati a stella oppure a triangolo, permettendo di
alimentare lo stesso motore con tensioni trifase di 400 e 230 Volt. In alcuni grossi motori si preferisce
avviare a stella e poi commutare a triangolo, al fine di limitare le correnti di spunto, quando non sono
utilizzati gli inverter.
Esistono motori asincroni di potenza usualmente inferiore a 1 kW alimentati anche con tensioni
monofase. Tali motori possono essere dotati di ordinari avvolgimenti a due fasi, dove per alimentare la
seconda fase si usa il ritardo di tempo introdotto da un condensatore. Per potenze piccolissime si usano
i motori in cui la seconda fase è un circuito spazialmente asimmetrico chiuso in corto circuito (motori a
"polo shuntato").
I motori asincroni operano normalmente con gli avvolgimenti di rotore chiusi in corto circuito ma il
rotore può essere eseguito in costruzioni differenti.
A gabbia di scoiattolo
Il circuito rotorico è costituito da barre di alluminio pressofuse direttamente nelle cave collegate tra
loro da due anelli di alluminio. Si tratta quindi di un circuito in cui il numero di fasi è pari al numero di
barre e che è per costruzione in corto circuito.
Storicamente particolari costruzioni della gabbia (doppia gabbia, cava profonda) soddisfacevano le
esigenze di avviamento dei motori di grossa taglia.
A rotore avvolto
Questo tipo di motore è simile al precedente, con la differenza che il rotore è costituito da un ordinario
avvolgimento trifase simile a quello di statore i cui terminali fanno capo a tre anelli coassiali con il
rotore. Su questi anelli strisciano delle spazzole fisse collegate ai morsetti rotorici.
Storicamente i morsetti rotorici venivano collegati ad un reostato. Variando la resistenza elettrica del
reostato si poteva aumentare la resistenza dei circuiti rotorici spostando la coppia massima verso lo
scorrimento unitario (s=1 -> rotore fermo), in modo da disporre in fase di avvio del motore della coppia
di spunto massima disponibile. Questo metodo serve ad avviare motori di medie dimensioni (10-300
kW). Dopo la partenza del motore le resistenze reostatiche vanno staccate dopo aver opportunamente
cortocircuitato i circuiti rotorici. In particolare, se le resistenze reostatiche vengono collegate ai circuiti
rotorici la curva di coppia si modifica perché la coppia massima si sposta verso la scorrimento unitario
e quindi si ottiene un punto di lavoro a velocità inferiore (uso delle resistenze reostatiche per regolare la
velocità).
Attualmente i motori asincroni a rotore avvolto sono applicati convenientemente, insieme ad inverter,
in unità motrici o generatrici a velocità variabile in cui l'intervallo di variazione della velocità è piccolo.
Il caso più tipico e diffuso è quello dei generatori eolici.
Motore sincrono
Da Wikipedia, l'enciclopedia libera.
Il motore sincrono è un tipo di motore elettrico in corrente alternata in cui il periodo di rotazione è
sincronizzato con la frequenza della tensione di alimentazione, solitamente trifase.
È costituito da un rotore (parte rotante solidale all'albero) su cui sono presenti diversi poli magnetici di
polarità alterna creati da magneti permanenti o elettromagneti alimentati in corrente continua (detta
corrente di eccitazione), e da uno statore su cui sono presenti gli avvolgimenti del circuito di
alimentazione. Le espansioni polari dello statore creano un campo magnetico rotante che trascina le
espansioni polari del rotore. La frequenza di rotazione è in relazione con la frequenza di alimentazione
in funzione del numero di terne di espansioni polari presenti nel motore.
L'avviamento di questo tipo di motore è relativamente complesso. A motore fermo, l'applicazione della
tensione alternata fa si che il rotore, per effetto dell'inerzia non abbia il tempo di seguire il campo
magnetico rotante, rimanendo fermo. Il motore viene quindi inizialmente portato alla velocità di
rotazione per mezzo di un motore asincrono, quindi, dopo avere scollegato quest'ultimo, viene
collegata la tensione di alimentazione ed inserito il carico meccanico utilizzatore. Un'altra tecnica di
avviamento sfrutta la possibilità di fare funzionare temporaneamente come asincroni motori
appositamente realizzati, quindi passare al modo sincrono. Se una volta a regime la rotazione viene
frenata o accelerata oltre un certo limite, si innesca una serie di oscillazioni che portano il motore al
blocco e possono provocare forti sovracorrenti tali da danneggiare il motore. Per questo motivo va
prevista una protezione dalle sovracorrenti, ad esempio con un interruttore magnetotermico di
protezione.
A causa della limitata praticità del motore sincrono, il suo uso con alimentazione diretta dalla rete è
limitato a campi di applicazione ove sia richiesta una velocità di rotazione particolarmente precisa e
stabile. È invece molto usato per azionare carichi a velocità variabile ove alimentato da convertitore
statico (inverter).
Esistono anche piccoli motori sincroni ad avvio automatico ed alimentazione monofase utilizzati in
meccanismi temporizzatori quali i timer delle lavatrici domestiche e un tempo in alcuni orologi,
sfruttando la buona precisione della frequenza della rete elettrica.
Se la macchina è provvista di avvolgimenti rotorici, al variare della corrente di eccitazione che circola
sul rotore, la rete elettrica di alimentazione può vedere un carico di tipo resistivo (ohmico), induttivo o
capacitivo:
Il motore si presenta tanto più con caratteristica ohmica tanto maggiore è la coppia resistente del carico
che gli viene applicato all'albero. Se non si applica nessun carico e si alimenta il motore per ottenere la
caratteristica ohmico-capacitiva, si otterrà un compensatore rotante, poiché la caratteristica ohmica
sarà ridotta al minimo. Questo è utilizzato come sistema di rifasamento soprattutto nelle centrali di
trasformazione dell'energia elettrica. La quantità di energia reattiva che può fornire il compensatore
rotante è tanto maggiore quanto maggiore è la sovraeccitazione della macchina. Il compensatore
sincrono, o rifasatore rotante, è oggi perlopiù sostituito da gruppi di rifasamento composti da
condensatori statici.
Pila (chimica)
Da Wikipedia, l'enciclopedia libera.
All'interno di una pila avviene una reazione di ossido-riduzione in cui una sostanza subisce
ossidazione, perdendo elettroni, ed un'altra subisce riduzione, acquistandoli. Data la sua
configurazione, la pila consente di intercettare e sfruttare il flusso di elettroni tra le due sostanze. Tale
flusso genera una corrente elettrica continua il cui potenziale elettrico è funzione delle reazioni di
ossidazione e riduzione che vi avvengono. Una pila si scarica quando dette reazioni chimiche
raggiungono lo stato di equilibrio.
La prima pila
Alessandro Volta nel 1799 riprese gli studi di Luigi Galvani sulla corrente elettrica.
La pila consiste di dischetti di rame e zinco alternati, fra i quali sono interposti dischetti di panno
acidulato, il tutto tenuto a posto dalla struttura di legno esterna.
Una volta disposti i dischetti e il panno sul supporto, collegando il primo e l'ultimo dischetto della
colonna con due fili di rame, si viene a creare tra essi un potenziale elettrico.
Il dispositivo così costituito permise a Volta di produrre una corrente elettrica, di cui osservò il flusso
riuscendo a indurre la contrazione dei muscoli di una rana morta.
Pila Daniell
Successivamente, nel 1836, John Frederic Daniell elaborò una pila, chiamata pila Daniell, sfruttando il
prototipo inventato da Volta e apportando miglioramenti in termini di voltaggio e sicurezza d'uso. La
cella è costituita da un compartimento anodico formato da una barretta di zinco immersa in una
soluzione di solfato di zinco, ZnSO4 e un compartimento catodico formato da una barretta di rame
immersa in una soluzione di solfato rameico, CuSO4. Le due semicelle sono separate da un setto
poroso.La reazione redox sfruttata è
Il potenziale teorico della pila Daniell è 1,1 V, mentre l'uso di un setto poroso migliora il rendimento e
ne allunga la durata contrastando il fenomeno della polarizzazione legata allo sviluppo gassoso.
Pile di diverso tipo (in senso orario da in basso a sinistra): due 9-volt, due "AA", una "D", pila di un telefono
cordless, pila di una telecamera, pila di una radio portatile, pila a bottone, una "C" e due "AAA", più un quarto di
dollaro, per confronto
Le pile secondarie, o accumulatori, sono quelle pile le cui reazioni chimiche interne sono reversibili. A
differenza delle pile primarie, somministrando energia elettrica a questi dispositivi si inverte il senso
della reazione completa ottenendo la riformazione dei reagenti iniziali a spese dei prodotti finali. Di
fatto, quindi, la pila si ricarica.
Accumulatore al piombo
La cella piombo-acida è il costituente fondamentale dei comuni accumulatori per auto. Utilizzano un
anodo fatto di polvere di piombo (Pb) spugnosa e un catodo di diossido di piombo (PbO2). L’elettrolita
è una soluzione di acido solforico (H2SO4) 4,5 M. La differenza di potenziale ai poli è di 2,1 V infatti
negli accumulatori per automobili troviamo sei celle piombo-acide in serie, che generano una
differenza di potenziale complessiva di 12 V.
Negli accumulatori moderni, infine, si utilizza una lega di piombo che inibisce l’elettrolisi dell’acqua,
potenzialmente pericolosa in quanto producendo idrogeno e ossigeno gassosi è a rischio di esplosioni.
Reazione completa
Vantaggi: Eroga correnti molto elevate, affidabile e di lunga vita, funziona bene a basse temperature
Svantaggi: Il piombo è un metallo pesante ed è tossico. Perdita di capacità dovuta a stress meccanici.
Le batterie al nichel-metallo idruro (NiMH) stanno ormai sostituendo le vecchie batterie al nichel-
cadmio (NiCd), più tossiche e meno efficienti. All’anodo abbiamo l’ossidazione dell’idrogeno assorbito
su leghe metalliche di nichel, al catodo abbiamo la riduzione del nichel (III) e l’elettrolita è sempre una
pasta basica di idrossido di potassio. La differenza di potenziale ai poli è di 1,2 V.
Reazione completa
Usi: Apparecchiature elettroniche portatili varie, tra cui telefoni cordless, cellulari, videocamere.
Lentamente sostituita da quella al litio.
Accumulatore al litio
I moderni accumulatori al litio sono potenti e leggeri, anche se ancora relativamente costosi. All’anodo
abbiamo degli atomi di litio “immersi” in strati di grafite, il catodo è un suo sale (solitamente LiMn2O4)
e l’elettrolita è una soluzione di perclorato di litio (LiClO4) in etilencarbonato (C2H4CO3), un solvente
organico. La differenza di potenziale ai poli è di 3,7 V.
Reazione completa
Vantaggi: Estremamente potente e leggera: solo 7 grammi di metallo producono fino ad una mole di
elettroni. Nessun “effetto memoria”.
Bacino idroelettrico
Bacino artificiale
Il bacino idroelettrico ha lo scopo di raccogliere in un bacino le acque di un fiume per poterne poi
utilizzare l'energia potenziale per produrre energia elettrica.
La Cina sta realizzando sul fiume Chang Jang o Yang Tse o Fiume Azzurro il bacino idroelettrico delle
Tre gole, il più grande del pianeta.
Componenti
Il bacino idroelettrico è costituito da una diga che ha il doppio scopo di creare una riserva d'acqua e di
creare un dislivello. Tra il punto di presa e la centrale elettrica l'acqua è trasportata mediante una
condotta che prende il nome di condotta forzata. Nella centrale è presente la turbina che ha lo scopo di
trasformare l'energia cinetica dell'acqua in energia meccanica. Un alternatore è accoppiato alla turbina
per trasformare l'energia meccanica in energia elettrica.
Classificazione
I bacini idroelettrici si posso suddividere in base a:
• portata d'acqua
• dislivello
• la potenza nominale del generatore elettrico
Nella forma tipica della resistenza aerodinamica viene definito a partire dalla seguente espressione:
in cui
R è la resistenza aerodinamica
A è l'area di riferimento
È molto usato in tutti i problemi di fluidodinamica o aerodinamica esterna e trova applicazione sia in
ambito aeronautico (in cui viene indicato con il simbolo Cd, dall'inglese drag - "resistenza") che in
ambito automobilistico, (generalmente indicato in questo caso con il simbolo Cx, in cui la X indica
l'asse coordinato lungo il quale avviene il moto).
Questa voce di fisica è solo un abbozzo: contribuisci a migliorarla secondo le convenzioni di Wikipedia.
Nella forma tipica della resistenza aerodinamica viene definito a partire dalla seguente espressione:
in cui
R è la resistenza aerodinamica
A è l'area di riferimento
È molto usato in tutti i problemi di fluidodinamica o aerodinamica esterna e trova applicazione sia in
ambito aeronautico (in cui viene indicato con il simbolo Cd, dall'inglese drag - "resistenza") che in
ambito automobilistico, (generalmente indicato in questo caso con il simbolo Cx, in cui la X indica
l'asse coordinato lungo il quale avviene il moto).
In ambito aeronautico il coefficiente viene utilizzato in particolare per definire la resistenza generata
dal moto di un velivolo adimensionalizzata rispetto alla superficie alare o di un profilo alare usando, in
tal caso, la corda del profilo come dimensione di riferimento.
Motore in corrente continua
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
Il motore in corrente continua (brevemente motore in CC) è stato il primo motore elettrico
realizzato, ed è tuttora utilizzato ampiamente per piccole e grandi potenze. Sono a corrente continua (o
comunque alimentabili in corrente continua) numerosi motori di piccola potenza per usi domestici,
come anche motori per trazione ferroviaria e marina della potenza di molte centinaia di kW.
Indice
[nascondi]
• 1 Cenni storici
• 2 Motore CC a magneti
permanenti
o 2.1 Motore a spazzole
o 2.2 Motore brushless
• 3 Motore CC con statore a filo
avvolto
• 4 Motore passo-passo
• 5 Voci correlate
Il classico motore in corrente continua ha una parte che gira detta appunto rotore o anche armatura (in
grigio con gli avvolgimenti colorati nelle figure) e una parte che genera un campo magnetico fisso
(nell'esempio i due magneti colorati) detta statore. Un interruttore rotante detto commutatore o
collettore a spazzole (o anello di Pacinotti) (nelle figure l'anello color rame, fissato all'albero rotante del
motore, con i due contatti striscianti + e - collegati alla parte ferma) inverte due volte ad ogni giro la
direzione della corrente elettrica che percorre i due avvolgimenti generando un campo magnetico che
entra ed esce dalle parti arrotondate dell'armatura. Nascono forze di attrazione e repulsione con i
magneti permanenti fissi (indicati con N ed S nelle figure).
• Tensione applicata.
• Corrente assorbita dal rotore.
• Carico applicato (chiamato coppia di carico).
La coppia generata è proporzionale alla corrente. Il controllo più semplice agisce sulla tensione di
alimentazione. Nei sistemi più complessi si usa un controllo in retroazione che legge le variabili
(corrente, velocità di rotazione) per generare, con un alimentatore switching, la tensione da applicare al
motore.
Quando il rotore sarà allineato orizzontalmente, il commutatore invertirà la direzione della corrente
che scorre negli avvolgimenti, invertendo il campo magnetico e inizierà la seconda parte del giro.
Dato che questo tipo di motore può sviluppare una forte coppia a basse velocità di rotazione è stato
usato nella trazione elettrica, come, ad esempio, sulle locomotive. Il motore CC a magneti permanenti
ha un comportamento reversibile: diventa un generatore di corrente continua (una dinamo) se si collega
un altro motore all'albero. Si può allora prelevare l'energia elettrica prodotta collegandosi alle spazzole.
(Da questo si può intuire la sua capacità di agire anche da freno: applicando tra le spazzole un resistore
l'energia meccanica trasmessa all'albero si dissipa su questo resistore). Riassumendo si può affermare
che il motore CC ha tutte le funzioni necessarie per un mezzo mobile: oltre alla funzione di motore può
recuperare l'energia funzionando da dinamo e, quando necessario, può servire da freno.
I problemi illustrati si potrebbero evitare scambiando il rotore con lo statore (cioè se gli avvolgimenti
venissero messi sulla parte fissa e i magneti fossero montati sul rotore). Scomparirebbe il collettore a
spazzole, e gli avvolgimenti elettrici potrebbero smaltire più facilmente il calore generato. È quello che
si fa nei motori brushless (in inglese letteralmente: senza spazzole). Essi permettono inoltre di ridurre
ulteriormente le dimensioni del rotore (e quindi le sue inerzie) usando materiali magnetici più efficienti
come le leghe di samario-cobalto. In questi motori il circuito di alimentazione deve essere più
sofisticato, dato che le funzioni del collettore meccanico sono svolte tramite un controllo elettronico di
potenza.
Si possono avere anche situazioni intermedie utilizzate in passato soprattutto nella trazione elettrica
(dove è richiesta molta coppia allo spunto e maggiore velocità a regime).
Il motore con statore a filo avvolto può essere alimentato sia in corrente continua che in alternata, e per
questo motivo è chiamato anche motore universale; di fatto, nella maggior parte delle applicazioni,
questo tipo di motore è alimentato in corrente alternata. La disponibilità a costi contenuti di dispositivi
elettronici (come circuiti integrati, ponti raddrizzatori, dispositivi di potenza a semiconduttore, ecc.),
alcune applicazioni che in passato sarebbero state realizzate con motori universali ora vengono
sviluppate con motori CC con magneti permanenti, permettendo ad esempio un controllo della velocità
più preciso.
I motori passo-passo, a differenza di tutti gli altri, hanno come scopo quello di mantenere fermo l'albero
in una posizione di equilibrio: se alimentati si limitano infatti a bloccarsi in una ben precisa posizione
angolare. Solo indirettamente è possibile ottenerne la rotazione: occorre inviare al motore una serie di
impulsi di corrente, secondo un'opportuna sequenza, in modo tale da far spostare, per scatti successivi,
la posizione di equilibrio.
Le posizioni di equilibrio dell'albero sono determinate meccanicamente con estrema precisione. Di
conseguenza, per far ruotare l'albero nella posizione e alla velocità voluta, è necessario contare il
numero di impulsi inviati ed impostarne la frequenza.
Il rotore, che appare come una coppia di ruote dentate affiancate e solidali all'albero, permanentemente
magnetizzate, una come NORD e l'altra come SUD. Tra le due ruote è presente uno sfasamento
esattamente pari ad 1/2 del passo dei denti: il dente di una delle due sezioni corrisponde quindi alla
valle dell'altra. Nel rotore non sono presenti fili elettrici e quindi manca completamente ogni
connessione elettrica tra la parte in movimento e quella fissa.
Lo statore presenta piccoli denti che si affacciano esattamente a quelli del rotore. O meglio, sono
esattamente affacciati al rotore solo un gruppo di denti ogni quattro; gli altri sono sfalsati di 1/4, 1/2 e
3/4 del passo dei denti. Avvolti intorno ai poli magnetici dello statore, dei fili generano il campo
magnetico quando vengono percorsi da corrente. In ogni momento, per far compiere un passo al
motore, si applica corrente alla parte di statore esattamente di fronte ai denti del rotore: la forza
repulsiva tra poli magnetici opposti farà spostare il rotore.
Tenacità
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
Consiste essenzialmente nel forzare per compressione il materiale, allo stato pastoso, a passare
attraverso una sagoma (matrice) che riproduce la forma esterna del pezzo che si vuole ottenere. Se la
sezione di questo è cava, sarà presente un'anima che riprodurrà il profilo della cavità interna. All'uscita
dalla matrice il materiale viene raffreddato o, nel caso della gomma, sottoposto a vulcanizzazione. La
compressione del materiale a monte della matrice è ottenuta, per la gomma e la plastica, da
apparecchiature a semplice o doppia vite senza fine, che spingono il materiale verso la testa di
estrusione; nel caso della plastica si introduce il materiale in granuli, il calore prodotto dall'attrito e da
resistenze elettriche ne causa la fusione. Per i metalli si usano macchine a pistone.
Mediante opportuni accorgimenti (matrici con parti mobili) si riescono ad ottenere profilati in gomma a
sezione variabile, come ad esempio alcuni tipi di guarnizione per le porte degli autoveicoli.
Lavorazioni a freddo
Si effettuano solamente su lamiere d'acciaio e d'alluminio. Le lamiere possono essere piegate oppure
lavorate per ottenere pezzi cavi.
[modifica] Imbutitura
La lamiera viene appoggiata su una superficie cava e colpita con un martello, in modo da darle la forma
desiderata.
Vengono prodotti con l'imbutitura oggetti quali pentole, coperchi, esterno di elettrodomestici, portiere e
cofani.
Cogenerazione
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
Col termine cogenerazione si indica la produzione combinata di più fonti di energia secondarie
(energia elettrica ed energia termica) partendo da un'unica fonte (sia fossile che rinnovabile) attuata in
un unico sistema integrato.
Indice
[nascondi]
• 1 Un esempio
• 2 Impieghi della cogenerazione
• 3 Definizione di efficienza
• 4 Tipologie di impianti cogenerativi
o 4.1 Microcogenerazione
[modifica] Un esempio
Un esempio classico è dato dal funzionamento di un'automobile, la potenza prelevata dall'albero
motore è usata per la trazione e la produzione di elettricità, il calore per il riscaldamento dell'abitacolo e
la pressione dei gas di scarico per muovere la turbina... Lo sfruttamento di calore e pressione non
comporta un aumento dei consumi poiché sono "scarti" del processo di conversione da energia chimica
ad energia cinetica attuato dal motore. Il loro sfruttamento consente a parità di energia immessa (il
combustibile) una maggiore quantità di energia sfruttata (calore, movimento).
L'efficienza semplice di un singolo impianto è il rapporto tra l'output elettrico netto e la quantità di
combustibile consumato. Invece la quantità di calore è il rapporto tra i Btu di combustibile consumato
e i kWh prodotti. Dato che i sistemi di cogenerazione producono sia elettricità, sia calore, la loro
efficienza totale è data dalla somma dell'output elettrico netto e termico diviso il combustibile
impiegato.
L'EPA usa preferibilmente un'altra definizione di efficienza nota come "efficacia nell'utilizzazione di
combustibile", rapporto tra l'output elettrico netto e il consumo di combustibile netto (che non tiene
conto del combustibile usato per produrre energia termica utilizzabile, calcolato assumendo
un'efficienza specifica della caldaia dell'80%). Il reciproco di questo rapporto è la quantità netta di
calore.
[modifica] Microcogenerazione
Inarcassa
Inarcassa è stata fondata nel 1961 come ente pubblico per la previdenza e l'assistenza degli
Ingegneri ed Architetti liberi professionisti; dal 1995 è un'associazione privata, basata su uno
Statuto predisposto dal Comitato Nazionale dei Delegati e approvato dai Ministeri vigilanti. E'
dunque un organismo in grado di operare in autonomia in favore della categoria a cui si riferisce,
in particolare potenziando le risorse del suo patrimonio.
Le pensioni vengono calcolate sui redditi professionali prodotti negli ultimi 25 anni precedenti alla
maturazione del diritto alla pensione.
Inarcassa oggi ha più di 130.000 iscritti, di cui circa il 50% ha meno di 40 anni di età; mentre
circa 45.000 contribuiscono solo in termini di contributo integrativo; al contributo integrativo sono
tenute anche le società di ingegneria. Infine gli iscritti e i pensionati Inarcassa versano
annualmente un contributo detto di maternità che ha natura tipicamente solidaristica ed è
finalizzato all'erogazione della relativa indennità.
Attualmente l'Ente eroga circa 14.000 pensioni.
Nel 2005 l'importo totale delle contribuzioni ammontava a circa 520 milioni di Euro, la spesa per le
pensioni a 220 milioni di euro.
Art. 3 - Scopo
3.1 - Inarcassa, ai sensi dell’art. 38 della Costituzione della Repubblica Italiana, provvede ai
compiti di previdenza ed assistenza a favore degli iscritti e degli ulteriori destinatari, individuati
dalle norme del presente Statuto; inoltre, compatibilmente con le disponibilità di bilancio, svolge
attività integrative a favore degli stessi iscritti.
Common rail
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
Il common rail è una versione moderna del motore diesel ad iniezione diretta. È caratterizzato dalla
presenza di un unico condotto ad alta pressione (da 300 al minimo a oltre 1400 bar a pieno carico) per
il combustibile che alimenta le valvole a solenoide sui cilindri. Nei precedenti motori ad iniezione
diretta una pompa a bassa pressione alimenta gli iniettori o dei condotti ad alta pressione fino alle
valvole controllate da un albero a camme o che si aprono grazie alla pressione esercitata dal
combustibile su un corpo conico che ottura l'orifizio di iniezione e nebulizzazione vincendo così la
forza della molla tarata (Tra i 350 e i 450 bar per i grandi motori navali e trai 750 e i 950 bar nei
comuni motori per autotrazione) che lo mantiene in posizione di chiusura. Una terza generazione di
motori diesel common rail utilizza iniettori piezoelettrici che permettono una maggiore accuratezza
della quantità di carburante spruzzata ed una pressione fino a 1900 bar ed oltre .
Nota disambigua - Se stai cercando altre voci che possono riferirsi alla stessa
combinazione di 2 caratteri, vedi SI (disambigua).
Le unità e gli altri elementi del SI vengono stabilite dalla Conférence Générale des Poids et Mesures,
CGPM, organismo collegato con il Bureau International des Poids et Mesures BIPM, chiamato in
italiano Ufficio internazionale dei pesi e delle misure.
Questo sistema di misura nasce nel 1889 con la 1a CGPM ed allora si chiamava "Sistema MKS" perché
comprendeva le unità fondamentali di lunghezza (metro), massa (chilogrammo) e tempo (secondo). Nel
1946, su proposta di Giovanni Giorgi, la CGPM approva l'entrata dell'ampere come unità
fondamentale. Nasce così il "Sistema MKSA", anche chiamato "Sistema Giorgi" in onore del fisico;
anche se de facto la quarta unità da tutti usata era l'ohm. Infine, nel 1954, con l'aggiunta del kelvin e
della candela la 10a CGPM sancisce la nascita del Sistema Internazionale (SI). Nel 1971 la 14a CGPM
aggiunge la mole fra le unità fondamentali di questo sistema.
Oggi, quindi, il SI è basato su sette unità fondamentali, con le quali vengono definite le unità derivate.
Il SI, inoltre, definisce una sequenza di prefissi da premettere alle unità di misura per identificare i loro
multipli e sottomultipli.
Il Sistema Internazionale è un sistema coerente, in quanto le sue unità derivate si ricavano come
prodotto di unità fondamentali.
Unità fondamentali
Ogni altra grandezza (e la relativa unità di misura) è una combinazione di due o più grandezze (unità)
di base, od il reciproco di una di esse. Con l'eccezione del chilogrammo, tutte le altre unità sono
definibili misurando fenomeni naturali. Inoltre, è da notare che il chilogrammo è l'unica unità di misura
di base contenente un prefisso: questo perché il grammo è troppo "piccolo" per la maggior parte delle
applicazioni pratiche.
lunghezza l metro m
massa m chilogrammo kg
tempo t secondo s
temperatura
T kelvin K
termodinamica
Batteria (chimica)
Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento da Batteria elettrica)
Una batteria elettrica (o meglio un pacco batteria) è un dispositivo costituito da diversi elementi
collegati in serie in modo che la tensione dei singoli elementi si sommi.
Ogni singolo elemento può essere costituito da una batteria primaria o secondaria.
Si definisce primaria o "pila" una batteria non ricaricabile, secondaria o "accumulatore" una batteria
ricaricabile.
Sono batterie non ricaricabili, ossia primarie tutte le pile alcaline. I tipi più comuni di pile alcaline
disponibili in commercio sono: AA-stilo, AAA-ministilo, C-mezzatorcia, D-torcia, 9V.
La capacità delle batterie, ovvero la quantità di carica elettrica che può essere immagazzinata, è
comunemente espressa in Amperora (Ah), con 1 Ah equivale a 3600 Coulomb. Per ottenere l'energia in
wattora è necessario moltiplicare la capacità in Ah per la tensione nominale. Una batteria da 1 Ah può
erogare una corrente di 1 ampere per un'ora prima di scaricarsi, oppure 10 A per 6 minuti, o anche 0,1 A
per 10 ore. In realtà la capacità reale è molto dipendente dal tasso di scaricamento, per cui una batteria
da 1Ah probabilmente non arriva ad erogare 10 A per 6 minuti.
Batterie in commercio
Ci sono in commercio dei tester di capacità delle batterie primarie (non ricaricabili) e secondarie
(ricaricabili).
Durante l'assorbimento di corrente una batteria emette calore. Una scarica troppo violenta può
provocare l'esplosione di alcuni tipi di batteria. Per questo motivo è importante fare attenzione a non
mettere in cortocircuito i due poli elettrici della batteria.
Se si cerca di ricaricare una batteria non ricaricabile, si ottiene una produzione di idrogeno e ossigeno
ai due poli delle singole celle, e se la produzione dei due gas è più alta della loro velocità di fuga, la
batteria può esplodere.
Per le batterie ricaricabili è opportuno utilizzare caricabatterie di ottima qualità che prevedono una serie
di protezioni, sia per l'utilizzatore che per la batteria ricaricabile. Le protezioni sono: - individuazione
di batterie primarie (Alcaline) bloccando automaticamente la carica - protezione contro scambio di
polarità - protezione contro riscaldamento della batteria ricaricabile - protezione timer di sicurezza -
individuazione automatica della capacità della batteria ricaricabile
La prima pila a secco, cioè priva di elementi liquidi, prodotta industrialmente e commercializzata su
ampia scala è la pila Leclanché, dal nome del suo inventore Georges Leclanché.
La pila Leclanché è costituita da un anodo di zinco metallico, che funge anche da contenitore, e da un
catodo costituito da una barretta di grafite, sulla cui superficie avviene la riduzione del biossido di
manganese, miscelato a del cloruro d'ammonio a formare una pasta gelatinosa.
La stechiometria della reazione di riduzione non è esattamente nota, tuttavia si può dire che le reazioni
che in una pila Leclanché sono le seguenti
ossidazione Zn → Zn2+ + 2 e- Eo = -
0,76 V
Il cloruro d'ammonio, oltre a fornire gli ioni H+ per la reazione di riduzione, ha anche il compito di
complessare gli ioni zinco prodotti dalla reazione di ossidazione
mantenendo quindi bassa la concentrazione degli ioni Zn2+ liberi, e quindi mantenendo elevato il
potenziale della reazione di ossidazione, legato alle concentrazioni delle specie ossidata e ridotta
secondo l'equazione di Nernst.
L'ammoniaca che si libera al catodo tende a formare un velo gassoso sulla sua superficie, che
impedisce il flusso degli elettroni. Quando questo avviene, la pila smette di erogare corrente e diviene
scarica.
Pile di diverso tipo (in senso orario da in basso a sinistra): due 9-volt, due "AA", una "D",
pila di un telefono cordless, pila di una telecamera, pila di una radio portatile, pila a
bottone, una "C" e due "AAA", più un quarto di dollaro, per confronto
Le pile secondarie, o accumulatori, sono quelle pile le cui reazioni chimiche interne sono reversibili. A
differenza delle pile primarie, somministrando energia elettrica a questi dispositivi si inverte il senso
della reazione completa ottenendo la riformazione dei reagenti iniziali a spese dei prodotti finali. Di
fatto, quindi, la pila si ricarica.
La cella piombo-acida è il costituente fondamentale dei comuni accumulatori per auto. Utilizzano un
anodo fatto di polvere di piombo (Pb) spugnosa e un catodo di diossido di piombo (PbO2). L’elettrolita
è una soluzione di acido solforico (H2SO4) 4,5 M. La differenza di potenziale ai poli è di 2,1 V infatti
negli accumulatori per automobili troviamo sei celle piombo-acide in serie, che generano una
differenza di potenziale complessiva di 12 V.
Negli accumulatori moderni, infine, si utilizza una lega di piombo che inibisce l’elettrolisi dell’acqua,
potenzialmente pericolosa in quanto producendo idrogeno e ossigeno gassosi è a rischio di esplosioni.
Reazione completa
Vantaggi: Eroga correnti molto elevate, affidabile e di lunga vita, funziona bene a
basse temperature
Descrizione Generale
Il lampione solare, è un sistema autoalimentato con i pannelli fotovoltaici, è particolarmente adatto ad illuminare strade in zone
rurali e/o periferiche.
La produzione di energia elettrica è assicurata da un solo pannello fotovoltaico tipo H150, in silicio monocristallino, avente una
potenza massima nominale di 150 W ed una superficie attiva captante di 1,17mq.
Ogni lampione è comandato da una centralina che provvede alla ricarica dell'accumulatore e all'attivazione automatica della
lampada, che si accende al crepuscolo e si spegne dopo un tempo predeterminato mediante timer programmabile.
Lampada, pannello e centralina sono montati su di un palo in acciaio zincato a caldo, rastremato, con altezza di 7 metri.
Il sistema di accumulo e' costituito da una batteria semistazionaria a piastre piane al piombo da 12V/176 Ah, C100 a ridotta
manutenzione.
La batteria viene alloggiata in un pozzetto interrato, fornito a corredo completo di coperchio; questo tipo di soluzione, consente
alla batteria di subire minori escursioni termiche ed in particolare di non essere sottoposta alle basse temperature notturne
invernali che provocano una sensibile diminuzione della capacità reale e di conseguenza dell’autonomia di funzionamento del
lampione.
Aspetti ambientali
Dal punto di vista ambientale si ricorda che ogni kWh prodotto con fonte fotovoltaica consente di evitare l'emissione nell'atmosfera di 0,3 - 0,5 kg di CO2 (gas
responsabile dell’effetto serra, prodotto con la tradizionale produzione termoelettrica che, in Italia, rappresenta l’80% circa della generazione elettrica nazionale).
VANTAGGI:
Trasporto di passeggeri
Trasporto di merci - Leggi
Trasporto su:
strada - rotaia - in cielo - per mare
Aziende del mondo dei trasporti
Persone del mondo dei trasporti
Sezione Veicoli
Mezzi di trasporto
: Case e Modelli
: Case e Modelli
: Case e Modelli
: Case e Modelli
: Case e Modelli
Il container è una attrezzatura specifica dei trasporti, in special modo del trasporto intermodale.
Indice
[nascondi]
• 1 La storia
• 2 Il container ISO
• 3 Gli altri container
• 4 Le caratteristiche tecniche
o 4.1 Container 20' box
4.1.1 Pesi
4.1.2 Misure
o 4.2 Container 40' box
4.2.1 Pesi
4.2.2 Misure
o 4.3 Container 40' high cube
4.3.1 Pesi
4.3.2 Misure
o 4.4 Container 20' reefer (refrigerato)
4.4.1 Pesi
4.4.2 Misure
• 5 Le maggiori compagnie di container
• 6 Voci correlate
• 7 Collegamenti esterni
[modifica] La storia
La richiesta di un contenitore multiuso, adatto per essere utilizzato nei vari tipi di trasporto di merci, è
nato nel primo dopoguerra negli USA ed utilizzato per primo nei trasporti verso Porto Rico. L'idea
originale si fa abitualmente risalire ad una intuizione, degli anni '30, di un imprenditore americano nel
campo dei trasporti, Malcolm Mclean. La comodità di una attrezzatura che consentiva di caricare le
merci e non doverle più movimentare singolarmente sino a destinazione è risultata subito evidente; di
conseguenza l'idea di containerizzare ha avuto un impulso notevole nel campo del trasporto marittimo
e negli scambi tra America ed Europa fin dagli anni '60. Oggi in qualsiasi porto è usuale la visione di
enormi colonne di container pronte ad essere imbarcate per ogni destinazione nel Mondo. Specialmente
sulla direttrice di traffico tra Estremo Oriente ed Europa è oggi il modo di trasporto sicuramente più
importante.
Il più diffuso tra i contenitori è il container ISO (acronimo di International Organization for
Standardization); si tratta di un parallelepipedo in metallo le cui misure sono state stabilite in sede
internazionale nel 1967. A fronte di una larghezza comune di 8 piedi (cm 244) e una altezza comune di
8 piedi e 6 pollici (cm. 259), sono diffusi in due lunghezze standard di 20 e di 40 piedi (cm.610 e cm
1220). Ogni container è anche regolarmente numerato e registrato nella forma 4 lettere (delle quali le
prime 3 corrispondono alla sigla della compagnia proprietaria) - 6 numeri - 1 numero (denominato
"check-digit"). Da questa standardizzazione è nata anche l'abitudine di valutare la capacità di carico di
una nave portacontainer in TEU (acronimo di Twenty-feet Equivalent Unit).
Sono anche omogenei gli attacchi, presenti sugli angoli del contenitore, specifici per il fissaggio sui
vari mezzi di trasporto. In questo modo, tramite carrelli elevatori, carriponte, Straddle Carrier e gru
sono facilmente trasferibili tra una nave (dove possono essere facilmente sovrapposti verticalmente), un
vagone o un autocarro. Le caratteristiche di questi attacchi, unita alla robustezza intrinseca del
contenitore, ne consentono l'impilazione l'uno sull'altro, migliorando l'utilizzazione dei moli, delle
banchine e dei magazzini.
Il container ISO classico presenta le superfici laterali piene e una chiusura posteriore con due battenti
facilmente sigillabili per evitare effrazioni. Forse la sua maggiore limitazione consiste nelle misure
interne di carico che non consentono il carico affiancato di 2 pallet EUR.
Lo sviluppo del mercato ha portato, negli ultimi anni, alla particolarità che più della metà dei container
del mondo sono fabbricati in Estremo Oriente, soprattutto in Cina.
Per usi particolari e non molto frequenti, sono stati predisposti anche dei container ISO cisterna,
frigoriferi, open top (con tetto apribile) e container con pareti laterali apribili.
Attualmente l'importanza del container nel campo dei trasporti marittimi è giunta ad un livello tale che
le stime parlano di circa il 90% delle merci cargo trasportate attraverso l'uso di c.ca 200 milioni di TEU
all'anno.
Pur essendo un'idea validissima, la containerizzazione con i classici modelli da 20 e 40 piedi è risultata
da subito non applicabile in alcuni casi specifici e, di conseguenza, dall'idea originale sono nate alcune
varianti specifiche. Una delle limitazioni riguarda le dimensioni, troppo grandi per una stiva aerea; per
sopperire al problema sono stati studiati dei container appositi di dimensioni più ridotte.
Nel caso invece del trasporto su strada la ricerca della massima capacità di carico e l'utilizzo precipuo
dei pallet da cm 120 * 80 di base (non affiancabili all'interno di un container ISO) ha fatto nascere una
soluzione ibrida, quella delle casse mobili, contenitori di solito forniti anche di zampe, con pareti
laterali più sottili e pertanto una superficie utile interna maggiore, ma con la possibilità, essendo un
accessorio, di non dover essere immatricolati singolarmente.
Un altro utilizzo particolare è quello dei container abitativi; partendo dalle misure standard di un
container da 40 piedi si è ricavato un minimo spazio abitativo, utilizzabile ad esempio nei casi di
calamità naturali, con la facilità di poter essere spostato velocemente da una località ad un'altra
utilizzando gli stessi attacchi standard. Con lo stesso spirito si sono visti nascere anche container
attrezzati internamente per l'uso in cantieri di lavoro oppure corredati di macchinari medici per ottenere
velocemente degli ospedali da campo.
Differenziale (meccanica)
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
Un differenziale di automobile parzialmente aperto
Nelle automobili e altri veicoli il differenziale è un organo meccanico che distribuisce equamente il
momento torcente tra le due ruote motrici anche se queste ruotano a differente velocità. Nell'ingegneria
meccanica viene considerato un tipo particolare di rotismo epicicloidale, analogamente allo schema
meccanico impiegato nella maggiorparte dei cambi automatici.
In alcuni veicoli, come ad esempio i veicoli ferroviari, alcune macchine operatrici ed i kart, non
esistono differenziali e quindi il momento torcente risulta applicato nella stessa misura alle due ruote
motrici solidali all'asse, che ruotano sempre alla stessa velocità. Tale soluzione non presenta particolari
problemi nella marcia su percorsi rettilinei, ma quando si deve effettuare una curva, dove la ruota
esterna dovrebbe ruotare più velocemente della ruota interna poiché deve percorrere una traiettoria
curva di lunghezza maggiore rispetto alla seconda. In assenza di differenziale una delle due ruote (o
entrambe) deve slittare rispetto al piano di rotolamento, provocando notevole usura dello stesso e della
ruota stessa e il veicolo tenderà a mantenere la direzione rettilinea.
Indice
[nascondi]
• 1 Struttura e
Funzionamento
• 2 Differenziale attivo
• 3 Storia
• 4 Collegamenti esterni
Se la ruota di sinistra (pignone rosso) è frenata o bloccata, il satellite (verde) rotola sul
pignone di sinistra fornendo una velocità di rotazione maggiore al pignone di destra
Il differenziale è tipicamente costituito da una ruota ad anello, detta corona, che riceve il movimento
rotatorio dal cambio attraverso un sistema di ingranaggi conici o a corona ipoide chiamato coppia
conica. Il rapporto fra il diametro dell'ingranaggio solidale all' albero di trasmissione (pignone) e quello
della corona, determina un ulteriore aumento del rapporto di rotazione fra il motore e le ruote motrici.
All'interno della corona sono presenti due pignoni collegati attraverso due alberi alle corrispondenti
ruote. I pignoni sono montati in una gabbia solidale con la corona e in cui sono presenti due o più
ingranaggi detti satelliti liberi di ruotare. Normalmente la rivoluzione dei satelliti trascinati dalla corona
trascina i pignoni facendo ruotare egualmente le ruote.
Se una ruota incontra resistenza o comunque ruota più lentamente, per esempio in curva, i satelliti
entrano in rotazione in modo che maggiore velocità angolare venga trasmessa al pignone opposto.
Il semplice differenziale descritto presenta il grave problema che se una ruota slitta mentre l'altra
rimane in trazione, la prima riceve la maggior parte della potenza rendendo inefficace la potenza del
motore. Questo comporta che se in un'automobile una ruota si trova sul ghiaccio, tentare di accelerare
provoca semplicemente una rotazione più veloce di questa ruota, senza ottenere una spinta utile
dall'altra. La stessa cosa si verifica se una ruota rimane sollevata da terra, situazione che può capitare
nei veicoli fuoristrada.
Una soluzione a questo problema è l'impiego di frizioni tra i due pignoni che, in caso di superamento di
una certa differenza di velocità mette in collegamento gli alberi delle due ruote riducendo la differenza
di coppia.
Un'altra soluzione è il differenziale autobloccante, in cui un meccanismo percepisce la differenza di
coppia e interviene bloccando i satelliti, eliminando in pratica l'effetto del differenziale e facendo girare
le ruote alla stessa velocità.
Un veicolo a quattro ruote motrici deve avere almeno due differenziali (uno anteriore ed uno
posteriore) più eventualmente un terzo al centro per distribuire la potenza tra gli assi anteriori e
posteriori. Un veicolo senza differenziale intermedio non può circolare su strade asfaltate, poiché una
minima differenza di velocità tra le ruote anteriori e posteriori causa una torsione sulla trasmissione che
può causare danni. In questo caso un apposito comando permette di disinserire la trazione integrale. Su
strada sterrata le differenze di velocità sono assorbite da slittamenti delle ruote. Un'alternativa al
differenziale centrale è rappresentata dal giunto viscoso, utilizzato principalmente nelle auto a trazione
integrale di tipo stradale e nei SUV.
Il primo impiego del differenziale attivo su una automobile fu l'Active Torque Transfer System sulla
Honda Prelude SH nel 1997. Si trattava però di un sistema aggiuntivo ad un differenziale normale. Un
differenziale semi-attivo completamente integrato è stato usato per la prima volta nel 2005 sulla Ferrari
F430 e su tutti i modelli a quattro ruote motrici Acura RL.
[modifica] Storia
• 2634 AC - secondo una leggenda, l'imperatore cinese Huang Di utilizzò un carro
con uno speciale dispositivo differenziale collegato alle ruote che faceva sì che una
statua puntasse sempre nella stessa direzione nonostante le curve compiute dal
veicolo.
• I secolo AC - Il meccanismo di Antikytera usava un sistema di ingranaggi per
calcolare la differenza tra due rotazioni in ingresso, una relativa alla posizione del
Sole e l'altra alla posizione della Luna nello zodiaco, fornendo in uscita indicazioni
sulle fasi lunari.
• 1810 - Rudolph Ackerman inventore di un sistema a quattro ruote sterzanti, fu
erroneamente citato come inventore del differenziale.
• 1827 - Il differenziale moderno viene brevettato dall'orologiaio francese Onésiphore
Pecqueur (1792-1852) per l'uso in un veicolo a vapore.
• 1832 - L' inglese Richard Roberts brevetta l'ingranaggio di compensazione, un
sistema differenziale per locomotive stradali.
• 1876 - James Starley inventò un differenziale basato su catene da usarsi su
biciclette, impiegato più tardi da Carl Benz sulle sue automobili.
• 1897 - Primo uso del differenziale su un veicolo a vapore australiano da parte di
David Shearer.
Il "diesel-elettrico"
Le due soluzioni estreme cui usualmente ci si riferisce nell'ambito del TPL, allorché si impieghino
propulsori elettrici per la trazione adottando per la produzione dell'energia elettrica necessaria un
motore termico, sono costituite dalla modalità ibrida, la cui unica applicazione nel campo del TPL
è quella di tipo serie, e dalla tipologia diesel-elettrica.
La fondamentale differenza fra i due tipi di veicoli che ne derivano è costituita dall'adottare il
primo un motogeneratore funzionante a punto fisso, ossia a regime di giri costante, dimensionato
per mantenere carichi i pacchi batterie cui è demandata l'alimentazione del motore di trazione; il
secondo deve prevedere necessariamente un gruppo motogeneratore (motore a combustione
interna ed alternatore) di dimensioni maggiori, a regime di giri variabile, che fornisca direttamente
l'energia necessaria alla trazione, in maniera analoga a quanto avviene da anni nella trazione
ferroviaria.
Il motore a combustione interna in un veicolo ibrido ed il suo regime di rotazione a punto fisso è
ottimizzato sulla potenza media di missione del veicolo stesso. Nel caso in cui la potenza media
richiesta dalla linea sia inferiore alla potenza media erogata dal gruppo motogeneratore, occorrerà
per alcuni intervalli di tempo spegnere il motore a combustione interna, opzione particolarmente
interessante quando si voglia comunque attraversare zone di particolare pregio ambientale in
modalità "tutto elettrica". La tendenza attuale è quella di demandare tale funzione ad un sistema
elettronico di controllo in grado di valutare l'effettivo stato di carica degli accumulatori. Viceversa
nel caso in cui la potenza media riferita al tempo di missione sia superiore a quella erogata dal
gruppo motogeneratore si ha un progressivo decadimento dello stato di carica degli accumulatori
richiedendo quindi cicli di ricarica in rimessa e non solo le operazioni periodiche di equalizzazione
dei pacchi batteria.
Tra le soluzioni ibrida serie tradizionale e diesel-elettrica sono ipotizzabili, almeno dal punto di
vista teorico, diversi gradi di "ibridizzazione" proprio per consentire una vasta gamma di impieghi
al variare delle tipologie delle linee e del servizio. Va rilevato che la tecnologia ibrida permette un
forte abbattimento delle emissioni inquinanti dovuto proprio al regime costante di rotazione del
motore a combustione interna ed agli intervalli di spegnimento dello stesso. Per contro, i sistemi
ibridi risultano penalizzati nel caso sia richiesta l'adozione di impianti di condizionamento, che
impongono il funzionamento del motogeneratore ad un numero di giri superiore a quello
ottimizzato.
La soluzione diesel-elettrica presenta anch'essa, nel complesso, una minor quantità di emissioni
inquinanti rispetto ad un normale autobus a trazione termica, in quanto viene razionalizzata la
catena energetica consentendo al motore diesel di fornire la sola potenza necessaria al
mantenimento delle prestazioni imposte. Tuttavia i parametri caratteristici dei veicoli diesel-
elettrici continuano ad essere analoghi a quelli degli autobus tradizionali: per tale motivo la CIVES
ritiene che "essi non siano compresi nella categoria dei mezzi a basso impatto ambientale a cui fa
riferimento l'art. 2, comma 6, della Legge n.194/98".
Le tecnologie diesel-elettriche si vanno in ogni caso diffondendo per la versatilità che caratterizza
tali veicoli, presentati sul mercato da diversi costruttori. Peraltro l'adozione della trasmissione
elettrica apre la strada all'adozione di tecnologie avanzate quali la "motoruota"; essa consente di
realizzare pianali interamente ribassati grazie all'eliminazione del differenziale di tipo meccanico
sostituito da una centralina elettronica di controllo.
Candela (meccanica)
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
Questa
voce
riguarda
nte un
argome
nto di
trasporti
non è
ancora
stata
tradott
a
complet
amente
dalla
lingua
inglese.
Terminal
ao
riscrivila
tu,
elimina
ndo il
testo in
lingua
stranier
a
quando
hai
finito.
Traduzio
ne
iniziata:
marzo
2006 •
Vedi le
altre
voci da
tradurre
dalla
stessa
lingua e
dello
MACCHINE E SISTEMI ENERGETICI
1. PRINCIPI GENERALI
Lo scopo del corso di Macchine per allievi ingegneri è di fornire quegli elementi che consentono di
definire i criteri di progetto e le caratteristiche di funzionamento di una vasta categoria di componenti
ingegneristici, parte di un impianto oppure parti individuali, che sono sede di una trasformazione
energetica ed in cui operano uno o più fluidi in azione dinamica o cinematica, fluidi che sono i vettori
energetici della trasformazione stessa.
Questi componenti vengono chiamati genericamente “macchine” e con tale
dizione si comprendono le macchine a flusso continuo, dette turbomacchine
(pompe, compressori, turbine), le macchine a flusso periodico, dette volumetriche
(pompe, compressori, espansori volumetrici) e le macchine a scambio termico
(generatori di vapore, condensatori, scambiatori di calore).
Dunque le macchine operano con fluidi che, durante il loro moto all’interno della
macchina e tra le pareti di opportuni passaggi, subiscono trasformazioni
termodinamiche e tali processi energetici sono governati dalle leggi della fisica.
Elemento fondamentale nella trattazione teorica delle macchine è perciò la
conoscenza delle proprietà termodinamiche e fisiche dei fluidi e delle equazioni
della fluidodinamica e della termofluidodinamica.
Sulla base di questa conoscenza si possono quindi progettare e studiare nel loro
funzionamento tutte le macchine in funzione dello scopo cui sono destinate, cioè
in definitiva a ricevere energia da un fluido per trasformarla in lavoro (macchine
motrici) oppure a ricevere lavoro dall’esterno per trasformarlo in energia di un
fluido (macchine operatrici) oppure infine per scambiare energia termica da un
fluido ad un altro (macchine a scambio termico). Quando queste macchine
risultano parte di un impianto allora si può parlare più propriamente di “Sistemi
energetici”, cioè di insiemi più complessi destinati sempre a realizzare delle
trasformazioni energetiche, però ora secondo una visione più globale del processo
energetico (cicli combinati, impianti cogenerativi).
Massa [kg]
Lunghezza [m]
Tempo [s]
Temperatura [K]
Pressione [Pa] ≡ [N/m2] oppure [bar] ≡ [105 N/m2] oppure [ata] ≡ [0.9806 bar]
oppure
Pressione
Il suo valor medio è il rapporto tra la forza che agisce su di una superficie e l’area della superficie
stessa. La pressione in un punto (calcolata come limite) risulta indipendente dall’orientamento
considerato:
∆F
p = Lim [N/m2].
∆A→0 ∆A
La pressione è assoluta se riferita al vuoto assoluto; relativa se riferita alla pressione atmosferica locale:
p ass = p rel + p atm
Atmosfera standard è la pressione corrispondente a 760 mm di colonna di
mercurio oppure a 10330 mm di colonna d’acqua.
Temperatura
E’ la misura del senso di caldo o di freddo. Due corpi isolati posti uno in contatto
con l’altro si portano, dopo un sufficiente lasso di tempo, alla stessa temperatura
(equilibrio termico). Due sistemi isolati, ciascuno in equilibrio termico con un terzo
sistema, sono essi pure in equilibrio termico (stessa temperatura).
La temperatura è misurata in gradi Celsius (°C) o gradi Kelvin (K), legati tra loro
dalla relazione:
K = °C + 273.15
1.4Equazioni di stato
Gli stati di equilibrio di una sostanza pura (sostanza semplice comprimibile,
omogenea e di composizione chimica invariabile) sono completamente definiti
una volta specificate due proprietà intensive indipendenti. Se le grandezze sono
ad esempio p, v e T allora esiste una equazione, detta equazione di stato, tale
che:
f ( p , v ,T ) = 0
oppure:
T = T ( p ,v )
oppure:
p = p( v ,T )
oppure:
v = v( p ,T ) .
Le relazioni tra p, v e T per una sostanza pura possono essere rappresentate come
superfici in un sistema a coordinate rettangolari pvT. Superfici per fasi singole
corrispondono ad esempio all’equazione di stato
v = v( p ,T ) ;
le superfici per miscugli di fasi sono descritte ad esempio da equazioni del tipo
T = T( p ) .
Fig. 1 Superficie p-v-T per una sostanza Fig. 2 Superficie p-v-T per una
sostanza
La superficie pvT mostra chiaramente l’esistenza di una sola fase per certi campi
delle variabili. Mostra anche le regioni in cui entrambe le fasi possono esistere
simultaneamente. Lungo una linea chiamata linea tripla tutte e tre le fasi possono
coesistere. In più la superficie pvT contiene il punto critico. (o stato critico) al di là
del quale non può avvenire la trasformazione liquido vapore. Al punto critico si ha
così pressione critica pc, volume specifico critico vc e temperatura critica Tc.
Diagrammi termodinamici
Per le altre due figure che seguono (Figg. 5 e 6), la figura di destra risulta più
usata perché le aree sottese alle varie linee rappresentano i lavori.
Fig. 5 Curva a campana nel piano T-v. Fig. 6 Curva a campana nel piano p-v.
ℜ
R=
M
Un gas che ubbidisce a questa legge si chiama gas perfetto. La teoria cinetica dei
gas porta allo stesso risultato, con grandissimo numero di particelle che
interagiscono solo con urti elastici (cioè in assenza di campi di forze). I due
principali effetti di gas reale sono uno indotto dalle forze intermolecolari (alte
densità), l’altro dovuto a fenomeni di dissociazione o ricombinazione (variazione
di M medio).
Per i liquidi
Con buona approssimazione vale la legge:
v = cos t .
Anche in questo caso, un liquido che ubbidisce a questa legge si chiama liquido
perfetto.
pv
z=
RT
fattore che vale l’unità per un gas perfetto oppure è molto prossimo all’unità per
gas reali a bassa pressione e alta temperatura.
Per definizione, z è pure una proprietà termodinamica, per cui esisterà una
equazione di stato del tipo:
z = z(T , p) .
Si ha così:
p
pR =
pC
T
TR =
TC
v
vR =
vC
z = z ( p R ,TR )
che è alla base di una carta di comprimibilità generalizzata, con z funzione di pR e
con TR come parametro.
Sostituendo si ottiene:
pR vR pC vC
z= zC in cui z C =
TR RTC
La carta rappresentata in Fig. 7 è valida per valori di zC compresi tra 0.25 e 0.30
(valore comune a molte sostanze) e con buona approssimazione è valida per tutti
i fluidi.
L’unità di misura del calore, come storicamente definita, è l’ammontare del calore
richiesto per innalzare l’unità di massa dell’acqua di un grado in temperatura,
ottenendosi così la cal (per 1 gr di acqua ed 1 °C) oppure la kcal (per 1 kg di
acqua ed 1 °C).
∑ Qi − ∑ Li ,
i i
cioè il netto trasferimento di energia, sarà lo stesso per tutti i processi o sequenze
di processi tra A e B.”
Il trasferimento di energia netto sarà positivo o negativo a seconda che ci sia una
netta aggiunta oppure una netta sottrazione di energia ed il contenuto di energia
E del sistema sarà perciò cambiato di un ammontare pari all’energia trasferita:
∆E = ∑ Qi − ∑ Li
i i
∆E = Q − L
dove il segno meno (-) indica che è positivo il lavoro che lascia il sistema. Siccome
il primo principio afferma che il lato destro dell’uguaglianza di queste equazioni
dipende solo dagli stati iniziali e finali A e B e non dal percorso tra essi, allora la
variazione di energia vale la differenza di due quantità
∆E = E B − E A
E = Ex + U
1
E x = Ek + E p = mV 2 + gmz
2
ed in termini differenziali:
dU = dQ − dL
u = u(T )
h = u + pv
Da questa stessa definizione segue che pure l’entalpia è una funzione di stato ed
inoltre che, sempre per i gas perfetti, essa è funzione della sola temperatura:
h = h( T )
Se questa procedura, che riporti alle origini tutti i sistemi interagenti, non esiste,
allora il processo è irreversibile. E’ sempre possibile comunque riprendere lo stato
originario, ma in generale questo può essere fatto solo a spese di alcuni
cambiamenti nei sistemi esterni.
Per arrivare ad una definizione o misura della irreversibilità conviene fare
riferimento al Principio di Carnot, che recita:
“Tutti i sistemi di Carnot operanti tra gli stessi livelli di temperatura hanno gli
stessi rapporti tra le quantità di calore trasferito ai due livelli di temperatura.”
T1 Q1
=
T2 Q2
Tenendo in conto anche i segni (il calore ceduto risulta di segno negativo), la
relazione precedente diviene:
Q1 Q2
=
T1 T2
ed anche, generalizzando:
Qi
∑ =0
i Ti
Qi
∑ +I =0
i Ti
I ≥0
Qi
∑
i Ti
Qi' Qi"
∑ −∑ =0
i Ti' i Ti"
Siccome i due percorsi reversibili erano stati scelti in modo del tutto arbitrario, la
relazione precedentemente scritta implica automaticamente che la somma:
Qi
∑
i Ti
sia la stessa per tutti i percorsi reversibili tra gli stessi due punti corrispondenti ad
un certo stato, per un dato sistema: essa quindi, non dipendendo dal tipo di
percorso (reversibile), dipende solo dallo stato dei punti estremi. Tale sommatoria
dunque definisce e misura una proprietà del sistema, calcolata nei due punti
estremi, che viene indicata con S e chiamata funzione di stato Entropia, e che
vale, per processi reversibili:
Qi
∆S = ∑
i Ti
Essendo ora il ciclo irreversibile, si può scrivere il secondo principio nel modo
seguente:
Qi Q'
∑ − ∑ 'i + I =0
i Ti i T
i
Qi
∆S = ∑ +I
i Ti
∆S = I ≥ 0
∆S = 0
I valori numerici dell’entropia per ogni stato di un sistema possono essere ottenuti
una volta nota la sommatoria delle quantità Qi/Ti lungo un percorso reversibile a
partire da un determinato stato di riferimento prescelto. Una volta ottenuti tali
valori, essendo l’entropia proprietà di stato, essi possono essere applicati a tutti i
processi, siano essi reversibili o irreversibili. L’entropia di un sistema è infine una
grandezza estensiva e può quindi essere riferita all’unità di massa.
Per inciso, il riferimento a processi reversibili implica che ciascun punto dove
viene calcolato il valore dell’entropia debba essere uno stato di equilibrio, dacché
deve essere capace di costituire un punto su di un percorso reversibile.
Una sufficiente approssimazione può essere ottenibile nella maggior parte dei casi
pratici riportando tutti gli stati di non equilibrio a stati di equilibrio aventi tutte le
grandezze definibili identiche.
• Il sistema è chiuso
• Il sistema è uniforme, cioè i valori delle coordinate e proprietà termodinamiche
non cambiano con la posizione
• Il sistema è sede solo di processi reversibili.
Primo e secondo principio della termodinamica, scritti in termini differenziali, sono
espressi nel modo seguente:
du = dQ − dL
dQ
dS =
T
dL = ∑ Fr dx r
r
Nel caso più comune, quando la pressione è la singola forza reversibile per unità
di superficie, si ottiene (con riferimento all’unità di massa):
dL = pdv
Qi dQ
d∑ =
i Ti T
dQ = TdS da cui
1
TdS = du + pdv oppure dS = ( du + pdv )
T
1
dS = ( dh − vdp )
T
Calore specifico
La quantità di calore trasferito è una misura base associata con le funzioni
termodinamiche. In più, essa è fondamentale per l’analisi di tutti i processi
termodinamici. L’effetto solito di un trasferimento di calore è il cambiamento di
temperatura del sistema.
Q = c∆T
dove c è definito come il calore specifico (capacità termica) del sistema per
qualsiasi processo che intervenga.
In generale, il calore specifico dipende non solo dalla descrizione del dello stato
del sistema, ma anche dal completo percorso termodinamico seguito durante il
trasferimento di un ammontare finito di calore. Se si considera solo un elemento
differenziale di percorso, l’equazione del calore specifico diviene:
dQ = c ⋅ dT
In questo caso, il calore specifico dipende soltanto dallo stato in un dato punto del
percorso e dalla direzione del percorso in quel punto: si è definito così un calore
specifico locale.
Per un sistema chiuso e uniforme soggetto a processi reversibili, i calori specifici
locali possono essere espressi esplicitamente in termini di proprietà e loro
differenziali.
cdT = du + pdv e
cdT = TdS
cv dT = du
∂u ∂u
du = dT + dv
∂T v ∂v T
in cui dv = 0 e perciò:
∂u
du = dT
∂T v
Confrontando si ha:
∂u
cv =
∂T v
∂S
cv = T
∂T v
c p dT = du + pdv = du + d ( pv ) = d ( u + pv ) = dh e
c p dT = TdS
∂h ∂h
dh = dT + dp
∂T p ∂p T
∂h
dh = dT
∂T p
∂h
cp = e analogamente
∂T p
∂S
cp = T
∂T p
dQ = c p dT
Per un gas perfetto (per il quale vale la pv = RT) l’energia interna dipende solo
dalla temperatura, come pure l’entalpia, che prende così la forma:
h = u + pv = u + RT
Analogamente, entrambi i calori specifici a volume e a pressione costante, che
sono derivate rispetto alla temperatura rispettivamente dell’energia interna e
dell’entalpia, risultano funzione solamente della temperatura.
dS =
1
( du + pdv ) = 1 cv dT + RT dv = cv dT + R dv
T T v T v
dS =
1
( dh − vdp ) = 1 c p dT − RT dp = c p dT − R dp
T T p T p
Le funzioni termodinamiche sopra definite possono poi essere integrate per dare:
T
u − u0 = ∫ cv dT
T0
T
h − h0 = ∫ c p dT
T0
T
dT p
s − s0 = ∫ c p − R ln
T0
T p0
dh − du = d ( pv ) = RdT
c p dT − cv dT = RdT
e quindi:
c p − cv = R
Si vede così che basta la conoscenza dei calori specifici per poter calcolare
direttamente le diverse funzioni termodinamiche.
1
u = n RT
2
Ad esempio, per un gas monoatomico ogni singola molecola possiede tre gradi di
libertà (traslazione secondo i tre assi), per cui:
3
u= RT e quindi
2
du 3
cv = = R ed anche
dT 2
5
c p = cv + R = R
2
Indicando poi con γ il rapporto tra calore specifico a pressione costante e calore
specifico a volume costante si ottiene:
cp 5
γ = = = 1.67
cv 3
Per un gas a molecola biatomica (ad esempio O2 oppure N2), siccome un asse
d’inerzia coincide con la congiungente i due atomi, con momento d’inerzia
praticamente nullo, mentre gli altri due assi presentano i rispettivi momenti
d’inerzia non nulli e quindi possono assorbire energia cinetica rotazionale, i gradi
di libertà diventano cinque.
5
u= RT
2
e quindi:
5
cv = R
2
7
cp = R ed anche
2
7
γ = = 1.4
5
Infine, per un gas pluriatomico, essendo sei i gradi di libertà (tre traslazionali e tre
rotazionali), si ottiene:
1
u =6 RT
2
6
cv = R
2
8
cp = R
2
4
γ = = 1.33
3
I valori ottenuti sono molto soddisfacenti per ossigeno, azoto ed aria (come
miscela dei due) a temperatura ambiente. Per gas con molecole più complesse o
sopra un più ampio campo di temperatura, il calore specifico dipende dalla
temperatura e quindi varierà con essa.
u − u0 = cv ( T − T0 )
h − h0 = c p ( T − T0 )
T v
s − s0 = cv ln + R ln oppure
T0 v0
T p
s − s0 = c p ln − R ln
T0 p0
∂u du
cl = c v = =
∂T v dT
Dalla relazione:
TdS = du + pdv
essendo dv = 0, si ottiene:
TdS = du
T
u − u0 = ∫ cl dT
T0
T T T
h − h0 = ∫ du + ∫ d ( pv ) = ∫ cl dT + v( p − p0 )
T0 T0 T0
T dT
s − s0 = ∫ c l
T0 T
Quando il calore specifico può essere ritenuto costante, allora il liquido perfetto
viene definito liquido ideale. Le funzioni termodinamiche prima scritte possono
essere calcolate più facilmente mediante le seguenti espressioni:
u − u0 = cl ( T − T0 )
h − h0 = cl ( T − T0 ) + v( p − p0 )
T
s − s0 = cl ln
T0
Per i gas reali non sono più valide le relazioni ricavate per i gas perfetti (e tanto
meno quelle relative ai gas ideali), in quanto il calore specifico del fluido risulta
dipendente dalla pressione, oltre che dalla temperatura.
∂Q
cv =
∂T v
risulta tanto più elevato quanto maggiore è il numero di gradi di libertà della
molecola.
Per un gas reale invece, una introduzione di calore va solo in parte ad aumentare
l’energia legata ai gradi di libertà delle molecole, perché deve anche contribuire a
vincere le forze di attrazione intermolecolari che si manifestano ad elevata
densità. Si osserva di conseguenza un incremento di temperatura, a parità di
calore introdotto, minore di quanto si avrebbe con un gas perfetto.
Quanto sopra fornisce una spiegazione intuitiva dello stretto legame esistente fra
il comportamento volumetrico (o equazione di stato) e quello termodinamico di un
fluido. Questo legame è ricavabile analiticamente, facendo riferimento, per le
funzioni termodinamiche alle condizioni di gas perfetto ed introducendo poi debite
correzioni per tener conto dell’effetto di gas reale.
Le grandezze termodinamiche dei gas reali possono essere rese note più
semplicemente ed anche più precisamente facendo riferimento a diagrammi del
tipo T-s oppure h-s, derivati dalla superficie p-v-T già vista per sostanze
comprimibili semplici.
Diagrammi T-s e h-s
Le figure seguenti mostrano nel piano T-s oppure h-s il comportamento di un
fluido nella zona di cambiamento di fase (curva a campana).
scambiato.
dQ = TdS
da cui si vede che la variazione di entropia è pure legata alla quantità di calore
scambiato.
dh = TdS
∂h
T =
∂S p
che è semplicemente, nel piano h-s, la pendenza, in un certo punto, di una linea,
appunto a pressione costante.
Un sistema dapprima chiuso (cioè limitato nello spazio da un confine) diventa un sistema aperto
quando questo confine consente passaggio di massa e possibilità di trasferimento di calore e lavoro.
Si introduce così il concetto di Volume di controllo, che è semplicemente una
regione nello spazio su cui si pone l’attenzione. Il confine di questo volume di
controllo è noto come Superficie di controllo. Un volume di controllo può essere
analizzato come un sistema aperto e rappresentato schematicamente come in Fig.
10.
Con LCV si è inteso tutto il lavoro fatto e cioè il lavoro del flusso (che il fluido fa per entrare o per
uscire) più il lavoro trasferito all’esterno (che non sia quello del flusso). Per far spazio nel volume di
controllo per il fluido che vuole entrare, bisogna creare un foro e fare un certo lavoro del flusso, che
incontra una certa pressione p nel punto di entrata, dove la sezione di passaggio vale ad esempio A,
come appare dallo schizzo di Fig. 11.
Si ha così una forza che vale p⋅ A che, spostandosi della dimensione l, produce un lavoro dato da:
pAl = pV
Se al posto del volume V si introduce il volume specifico v, ci si riferisce automaticamente all’unità di
massa. Il lavoro del flusso vale perciò, alle condizioni di ingresso:
min ⋅ ( pv ) in
mentre alle condizioni di uscita vale:
mout ⋅ ( pv ) out
Considerando positivo il lavoro uscente ed indicando con Ls la differenza tra il lavoro totale LCV ed il
lavoro del flusso, si può ora scrivere:
Ein + QCV = ( E 2 − E1 ) CV + Ls + mout ( pv ) out − min ( pv ) in + E out
Ricordando che l’energia del fluido (in ingresso o in uscita) deve intendersi come somma di energia
interna, energia cinetica ed energia potenziale, si può scrivere:
V2 V2
QCV = ( E 2 − E1 ) + Ls + mout u + pv + + gz − min u + pv + + gz
2 2
out in
Infine, tenendo anche conto della definizione di entalpia, si ottiene:
V2 V2
QCV = ( E 2 − E1 ) + Ls + mout h +
+ gz
− min h + + gz
2 2
out in
L’equazione scritta non è altro che il primo principio scritto per un sistema aperto in generale, con un
flusso entrante ed uno uscente (se i flussi sono di più basta introdurre la loro sommatoria).
Quando si faccia riferimento all’unità di tempo, in termini differenziali, si ottiene poi:
dQCV dECV dLs dmout V2 dmin V2
= + + h+ + gz − h+ + gz
dt dt dt dt 2
out dt 2
in
oppure, con notazione equivalente:
V2 V2
Q CV = E CV + L s + m out h + + gz − m in h + + gz
2 2
out in
Questa equazione può essere semplificata quando il sistema è in condizioni stazionarie e con flusso
stazionario, e cioè:
• Trasferimento di calore e lavoro costante nel tempo
• Velocità costante nella sezione di ingresso e nella sezione di uscita
• Portata costante nella sezione di ingresso e nella sezione di uscita (e portata uscente pari alla portata
entrante)
per cui si ottiene:
V2 V2
QCV = Ls + m h +
+ gz
− h+ + gz
2
out
2
in
dove rimangono costanti massa ed energia del sistema.
Volendo infine fare riferimento all’unità di massa che attraversa il sistema basta dividere entrambi i
membri per la portata massica, per cui in generale:
V2 V 2
Q + h1 + gz1 + 1 = L + h2 + gz 2 + 2
2 2
ottenendosi così una equazione che è valida per tutti i fluidi e con trasformazioni sia ideali che reali (e
quindi anche in presenza di attriti).
Questa equazione può essere scritta in modo da ricavare una espressione per il lavoro che comprenda
solo termini di natura meccanica.
Dalla definizione di entropia:
Q
∆S = ∑ i + I
i Ti
e considerando l’irreversibilità come originata dagli attriti interni al fluido (e che tendono quindi a
riscaldarlo), si ha, in termini differenziali:
dQ dLw
dS = +
T T
dove con dQ si intende il calore che arriva dall’esterno e con dLw il lavoro prodotto dalle forze di attrito
(equivalente al calore da tali forze generato e come tale misura della irreversibilità).
Integrando si ottiene poi:
2
∫ TdS = Q + Lw
1
Parallelamente, integrando la nota relazione:
TdS = du + pdv = dh − vdp
si ottiene:
2 2
∫ TdS = h2 − h1 − ∫ vdp
1 1
Il confronto tra le due espressioni porta a scrivere:
2
h2 − h1 = Q + Lw + ∫ vdp
1
che, sostituita nell’equazione generale prima scritta, porta a:
V1 2 2 V2 2
Q + gz1 + = L + Q + Lw + ∫ vdp + gz 2 +
2 1 2
che si riduce alla seguente definizione di lavoro (positivo se fatto dal sistema), facendo riferimento a
termini di sola natura meccanica:
V2 V 2 2
L = gz1 + 1 − gz 2 + 2 − ∫ vdp − Lw
2 2 1
Nel caso dei fluidi incomprimibili (per i quali è v = cost), la stessa espressione si semplifica
ulteriormente nel modo seguente:
V
2
V
2
L = gz 1 + 1 − gz 2 + 2 + v( p1 − p 2 ) − Lw
2 2
La storia termica della trasformazione (sempre per fluidi incomprimibili)si può ottenere facilmente
dalla già vista relazione:
2
h2 − h1 = Q + Lw + ∫ vdp = Q + Lw + v( p 2 − p1 )
1
ove si ricordi che:
h2 − h1 = ( u 2 − u1 ) + ( p 2 v 2 − p1v1 ) = ( u 2 −u1 ) + v( p 2 − p1 )
per cui confrontando:
u 2 − u1 = Q + Lw
Come si vede, per i fluidi incomprimibili, essendo il volume specifico insensibile alle variazioni di
temperatura, la storia termica e quella meccanica risultano indipendenti luna dall’altra.
La situazione è invece ben diversa per i fluidi comprimibili, per i quali il termine:
2
∫ vdp
1
presente nella storia meccanica, risulta funzione della temperatura e grandemente variabile con essa.
Si tratta ora di scrivere il principio di conservazione dell’energia nel sistema di riferimento relativo,
applicandolo sempre tra due sezioni a monte ed a valle di un elemento rotorico della macchina.
Nel moto relativo le pareti fisiche della macchina appaiono ferme e quindi il lavoro L scambiato è ora
nullo; inoltre, l’energia di posizione non cambia (rispetto al sistema di riferimento fisso), mentre
l’energia cinetica è espressa in termini di velocità relativa w. Deve però comparire in più il termine
relativo all’energia potenziale corrispondente al campo di forze centrifughe, dovuto al moto rotatorio
del sistema di riferimento assunto.
In un campo conservativo di forze, ad ogni spostamento di una massa m, da una superficie
equipotenziale ad un’altra, corrisponde uno scambio di lavoro: il lavoro fatto dall’esterno sulla massa
ne aumenta l’energia potenziale.
Quando la distanza r dall’asse di rotazione aumenta, è il sistema che fa lavoro (lavoro verso l’esterno,
da prendersi con il segno meno):
dU pot = −mω 2 rdr
Integrando e considerando una massa m unitaria, si ha:
r2 1
U pot = −ω 2 + cos t = − u 2 + cos t
2 2
In definitiva, l’equazione completa di tutti i termini diviene:
w2 u 2 w 2 u 2
h1 + 1 + gz1 − 1 + Q = h2 + 2 + gz 2 − 2
2 2 2 2
Facendo sistema con l’equazione corrispondente in termini di riferimento assoluti, si ottiene (basta
sottrarre membro a membro) l’espressione del lavoro in funzione delle sole velocità:
V 2 − V2 2 w2 2 − w1 2 u1 2 − u 2 2
L= 1 + +
2 2 2
lavoro che risulta positivo quando è uscente dal sistema (macchina motrice).
Siano ora usati gli indici r, a e t per indicare rispettivamente le componenti radiale, assiale e
tangenziale dei vettori velocità; si può allora scrivere (sia per la sezione 1 che per la sezione 2):
V 2 = Vr 2 + Va 2 + Vt 2
w 2 = wr 2 + wa 2 + wt 2
ed inoltre
V a = wa
V r = wr
Vt = wt + u
Utilizzando queste uguaglianze nella definizione data di lavoro si ottiene in definitiva la seguente
relazione:
L = u1V1t − u 2V2 t
ove i termini Vt sono positivi quando diretti come la velocità periferica u.
L’espressione di L così ricavata prende il nome, per ragioni storiche, di Lavoro Euleriano; si può
dimostrare che a questa stessa espressione si può arrivare in maniera più generale ricorrendo al teorema
delle Quantità di moto e al teorema del Momento delle quantità di moto, applicati ad una portata di
fluido che attraversa un determinato volume di controllo che comprenda l’elemento di macchina
interessato.
Così come fornito dall’equazione di Eulero, il lavoro scambiato fra macchina e fluido è dunque
funzione delle componenti tangenziali delle velocità assolute, a monte e a valle, e delle velocità di
trascinamento.
La portata elaborata dipende invece dalla componente meridiana, definita come la componente del
vettore V (oppure del vettore w) proiettata sul piano definito dall’asse di rotazione e dall’origine di V
(oppure di w), cioè come risultante di Va e Vr (oppure di wa e wr).
In conclusione, le prestazioni della macchina dipendono direttamente dalla forma assunta dai triangoli
delle velocità.
Le ipotesi su cui si basa l’equazione del lavoro euleriano sono tanto più verificate nella realtà quanto
più i vari filetti fluidi che rappresentano il moto del fluido di lavoro lungo i canali risultano identici tra
di loro.
2.3 Moto in condotti a sezione variabile
Il comportamento di un fluido nel passaggio attraverso i canali di un elemento di macchina (in cui non
si compia lavoro) è definito da equazioni di moto che, almeno per quanto riguarda la comprensione dei
fenomeni fisici che intervengono, possono essere determinate sulla base di opportune ipotesi
semplificative.
Per quanto segue si suppongono dunque valide le seguenti ipotesi:
• Moto monodimensionale: velocità e condizioni termodinamiche del fluido costanti in ogni sezione
trasversale del canale
• Moto permanente: derivata nulla delle varie grandezze in funzione del tempo
• Condotto adiabatico: calore Q scambiato uguale a zero
• Trasformazioni reversibili: lavoro Lw delle resistenze passive uguale a zero
• Fluido come gas perfetto a calori specifici costanti
• Effetti gravitazionali trascurabili.
In queste condizioni e muovendosi il fluido all’interno di condotti dove non si fa lavoro, per la
conservazione dell’energia si ha:
V2
h+ = cos t = h0
2
L’entalpia h0 così definita è l’entalpia che il fluido assume quando la vena fluida si arresta (V = 0); essa
viene chiamata entalpia totale o entalpia di ristagno. Siccome per ipotesi l’entropia S si mantiene
costante in ogni punto del canale, assegnati S ed h0 risulta individuato lo stato termodinamico del flusso
nelle condizioni di ristagno.
Dall’equazione precedente si ha poi:
V2
T0 = T +
2c p
La definizione di velocità del suono
∂p
a 2 =
∂ρ s
può essere scritta diversamente ricorrendo all’equazione dell’isentropica
p ⋅ ρ −γ = cos t
e all’equazione di stato dei gas perfetti
p = ρRT
Si ha infatti, differenziando e sostituendo:
ρ −γ dp + p ( − γ ) ρ −γ −1 dρ = 0
dp ρ −γ −1 p
= γp −γ = γ = γRT
dρ ρ ρ
e quindi:
a 2 = γRT
Inoltre, sostituendo il Numero di Mach così definito:
V
M =
a
nell’espressione della temperatura di ristagno, si ottiene in definitiva:
T0 γ −1 2
= 1+ M
T 2
Tenendo poi conto dell’equazione dell’isentropica si ottiene anche:
γ
p0 γ − 1 2 γ −1
= 1 + M
p 2
1
ρ 0 γ − 1 2 γ −1
= 1 + M
ρ 2
Le equazioni scritte non fanno altro che mostrare il legame esistente, per flussi adiabatici e reversibili,
tra numero di Mach e rapporto tra grandezze termodinamiche in condizioni di ristagno e locali.
L’equazione di continuità consente poi di scrivere, con riferimento alle condizioni di ristagno:
a ρ V
m = ρAV = Aa0 ρ 0
ρ
0 0 a
a
da cui si ricava in definitiva:
1 γ +1
−
m γ − 1 2 2 γ −1
= M 1 + M
a0 ρ 0 A 2
L’andamento della portata così adimensionalizzata in funzione del numero di Mach è rappresentato
nella seguente Fig. 13 (per γ = 1.4).
Fig. 13 Portata adimensionalizzata in funzione del numero di Mach
Il significato fisico dell’equazione di Hugoniot, che lega le variazioni di sezione con quelle di velocità
in un condotto, risulta immediatamente chiaro: dV e dA hanno segno uguale od opposto a seconda che
il flusso sia supersonico (V > a) oppure subsonico (V < a). In gola (dA = 0), si può avere sia un
massimo o un minimo per la velocità (dV = 0), sia la velocità sonica (V = a).
Nel caso in cui la velocità in gola sia subsonica, nel tratto convergente dell’ugello, a monte della gola,
la velocità deve aumentare secondo la direzione del flusso, mentre nel tratto divergente, a valle della
gola, deve diminuire: di conseguenza il flusso deve essere ovunque subsonico e si è quindi in presenza
di un tubo di Venturi classico.
Analogamente, è chiaro che, se la velocità in gola è invece supersonica, il flusso deve essere
supersonico ovunque e la velocità in gola deve ammettere un minimo (tubo di Venturi supersonico).
Nel caso infine in cui la velocità in gola sia sonica, allora il flusso può essere sia subsonico che
supersonico da entrambi i lati. Risultano così possibili i seguenti quattro casi:
1. Subsonico a monte, supersonico a valle. E’ il caso di un ugello di espansione (ad es. di turbina) da
un serbatoio ad alta pressione verso un ambiente a bassa pressione.
2. Subsonico a monte, subsonico a valle. E’ il caso estremo di un Venturi classico.
3. Supersonico a monte, supersonico a valle. E’ il caso estremo di un Venturi supersonico.
4. Supersonico a monte, subsonico a valle. E’ il caso di un ugello di compressione, col fluido che
arriva ad alta velocità dall’ambiente a bassa pressione per scaricarsi a bassa velocità in un serbatoio
dove regna una pressione maggiore.
Il primo caso e l’ultimo sono interessanti perché forniscono modelli semplici rispettivamente di turbina
e di compressore. Un ben noto risultato di questa analisi è che si rende necessario un ugello
convergente-divergente (ugello di De Laval) affinché il flusso possa passare da subsonico a
supersonico, o viceversa, e che in tale passaggio la velocità è esattamente sonica in gola. Se l’ugello è
semplicemente convergente, allora la velocità può essere al massimo sonica nella sezione più stretta. Si
può infine verificare facilmente che il valore della velocità del fluido in un punto qualsiasi dell’ugello
(cui corrisponde una certa temperatura T oppure una certa pressione p) risulta dato dalla seguente
espressione:
γ −1
2 T 2 p γ
V = a0 1 − = a0 1−
γ − 1 T0 γ − 1 p0
Con riferimento alla Fig. 13, assegnate certe condizioni di ristagno, se la gola risulta essere sonica,
allora, in tale sezione, il rapporto m /A si è visto essere ad un massimo: essendo poi in tale sezione A =
Ag, cioè ad un minimo, risulta di conseguenza che la portata massica sia ad un massimo.
Assegnato dunque un ugello con una certa sezione di gola e con determinate condizioni di ristagno, se
la gola è sonica, anche se si continua a diminuire la pressione di scarico (pressione a valle), la portata
che lo attraversa non può comunque andare oltre questo valore limite, essendo esso imposto appunto
dalle condizioni in gola.
Quando invece la gola non è sonica (e quindi la pressione in gola è maggiore della pressione critica),
allora la portata risulta essere funzione della pressione allo scarico ed aumenta al suo diminuire (è nulla
quando la pressione allo scarico è pari alla pressione di ristagno, mentre diviene massima quando la
pressione allo scarico assume un determinato valore cui corrisponde in gola un valore di pressione
uguale a quello critico).
Se quindi l’ugello ha gli stessi valori di ρ 0, a0 e Ag e se con f si indica il valore della portata
adimensionalizzata, le due situazioni di gola sonica e subsonica sono identificabili da due valori distinti
di f, di cui uno massimo quando la gola è sonica.
Sussiste cioè nei due casi la seguente relazione:
f
m = m max
f max
L’andamento di f/fmax in funzione del rapporto di espansione dell’ugello p/p0 (con p che varia da p0 a pt
= pcr) può essere dedotto dalla relazione:
1 γ +1
−
γ − 1 2 2 γ −1
M 1 + M γ +1 γ +1
γ −1
f 2 2 γ + 1 γ
0 γ
p γ p
− 1
− 1
= =
f max 1 γ +1
γ − 1 2 p0 p
−
γ + 1 2 γ −1
2
ed è rappresentato in Fig. 14.
Diagramma analogo può essere derivato rappresentando la portata adimensionalizzata in funzione della
minima pressione raggiunta rapportata alla pressione di ristagno, come appare in Fig. 15.
Fig. 15 Portata adimensionalizzata in funzione della minima pressione raggiunta
rapportata alla pressione di ristagno
Come si vede, all’aumentare della pressione minima che si incontra lungo l’ugello (da zero a pt = pcr),
la portata si mantiene costante; oltre questo punto il valore della portata continua a diminuire, fino ad
annullarsi quando le pressioni si eguagliano. Si noti come la pressione p1’ non sia necessariamente
uguale alla pressione in uscita p1 (l’ugello si comporta come un Venturi; se in gola si sono raggiunte le
condizioni soniche, la congruenza tra le pressioni è ripristinata con l’intervento di un’onda d’urto).
Risultato comunque importante è che, per un dato ugello e con prefissate condizioni di ristagno, esiste
un massimo per la portata massica che non può essere superato, comunque bassa sia la pressione allo
scarico. L’ugello è detto essere in condizioni di saturazione (choke).
In Fig. 16 è riportato l’andamento della pressione locale nell’ugello rapportata alla pressione di ristagno
lungo l’asse del condotto.
Come si può dedurre dalla Fig. 16, si possono verificare i seguenti casi:
• La contropressione p1 è uguale alla pressione di ristagno (p1/p0 = 1). La portata è nulla in quanto
non si ha variazione di pressione tra monte e valle.
• Al diminuire della contropressione la velocità aumenta nel condotto convergente e diminuisce nel
condotto divergente, senza che si raggiungano in gola le condizioni soniche (Venturi classico).
• La contropressione raggiunge un valore tale per cui la gola diviene sonica, pur rimanendo
subsonico il tratto divergente (Venturi limite).
• Al diminuire della contropressione la gola rimane sempre sonica e l’espansione diventa supersonica
solo per un certo tratto del condotto divergente. Essendo la contropressione ancora troppo elevata,
si forma un’onda d’urto (normale) con pressione a valle che tende ad avvicinarsi alla
contropressione secondo una espansione subsonica: l’ugello si dice super-espanso.
• La contropressione ha raggiunto un valore tale per cui il flusso può mantenersi supersonico per
tutto il tratto divergente, senza formazione di onda d’urto: l’ugello supersonico si dice adattato.
• Per un’ulteriore diminuzione della contropressione la pressione sulla sezione di uscita dell’ugello si
mantiene comunque costante: la caduta di pressione rimanente avviene ora al di fuori dell’ugello,
attraverso la formazione di onde d’urto (oblique): l’ugello si dice sub-espanso.
Se il flusso è isentropico è anche reversibile, per cui quanto affermato per un
ugello in espansione è valido anche per un ugello in compressione, con condizioni
di ristagno in uscita. Se non si riesce a convertire tutta l’energia cinetica in
pressione, allora la compressione può completarsi ad una pressione qualsiasi
inferiore a quella di ristagno, a spese del rendimento della trasformazione (il
flusso può, ad esempio, separarsi dalle pareti del diffusore).
E’ l’energia che viene messa a disposizione da un fluido incomprimibile (caso di una macchina motrice
o turbina) o che viene fornita ad un fluido incomprimibile (caso di una macchina operatrice o pompa).
L’equazione di Bernoulli afferma che, nel moto stazionario di un fluido senza attrito, l’energia totale
(per unità di massa) si mantiene costante (costanza del Trinomio di Bernoulli):
p V2 p V 2
gz1 + 1 + 1 = gz 2 + 2 + 2
ρ 2 ρ 2
Tra le sezioni 1 e 2 si può sottrarre (turbina) o fornire (pompa) energia, come pure, nel caso reale, si
può sottrarre energia come lavoro perso per superare gli attriti che si oppongono al moto del fluido.
Se L è il lavoro scambiato tra macchina e fluido (positivo se uscente) ed Y la perdita di carico per
dissipazioni, si ha:
p V 12 p V 2
gz1 + 1 + = L + gz 2 + 2 + 2 + Y
ρ 2 ρ 2
da cui in definitiva:
1
ρ
( 1
)
L = g ( z1 − z 2 ) + ( p1 − p 2 ) + V1 2 − V2 2 − Y
2
dove la perdita di carico Y è equivalente al lavoro Lw perso per attrito, calcolabile in base alla storia
termica del fluido:
u 2 − u1 = Q + Lw
Praticamente però è più facile determinare Y come perdita di carico che come variazione di energia
interna, in quanto il sistema a regime si porta a temperatura costante e la quantità di calore Q dispersa
in ambiente non risulta facilmente quantificabile, anche se certamente diversa da zero (è Q < 0 in
quanto il calore lascia il sistema).
2.2 Rendimenti
Al netto dei rendimenti di condotta, il rendimento di una macchina viene al solito definito come
rapporto tra la potenza che si ottiene e la potenza che si fornisce.
Si possono distinguere tre componenti principali del rendimento: rendimento idraulico (frazione di
lavoro), rendimento volumetrico (frazione di portata) e rendimento organico (frazione di lavoro
meccanico o organico).
Turbina
Il rendimento idraulico η y è il rapporto tra il lavoro En-Y effettivamente trasferito alla girante ed il
lavoro disponibile En (dove Y comprende solo le perdite di lavoro relative alla macchina), cioè:
E −Y
ηy = n
En
Se T1 è il trinomio di Bernoulli in entrata e T2 quello in uscita, si ha per il lavoro disponibile:
Ld = T1 − T2 = E n
e per il lavoro della girante:
L g = T1 − T2 − Y = E n − Y
per cui:
Lg E n − Y H m − y
ηy = = =
Ld En Hm
dove Hm è chiamato salto motore (espresso in m di colonna di liquido) ed è legato all’energia netta
disponibile dalla relazione:
E n = gH m
mentre anche le perdite y (espresse in m di colonna di fluido) sono ricavabili da:
Y = g⋅y
Il rendimento volumetrico è il rapporto tra la portata massica m − ∆m che effettivamente svolge lavoro
e la portata totale di fluido m che attraversa la macchina ( ∆m sono le perdite di fluido attraverso le
tenute o le perdite per ricircolazione), cioè:
m − ∆m
ηv =
m
Il rendimento organico è il rapporto tra la potenza utile all’albero e la potenza interna alla girante, cioè:
P P
ηo = a = a
Pg Pi
Le perdite Pi – Pa sono perdite ai cuscinetti e perdite per ausiliari.
Come rendimento totale in turbina si intende infine il rapporto tra potenza utile all’albero e potenza
messa a disposizione dal fluido:
Pa η o Pi ( m − ∆m ) ⋅ ( E n − Y )
ηT = = = ηo
m ( T1 − T2 ) m ( T1 − T2 ) m ⋅ E n
per cui, in base alle definizioni:
ηT = η yη vη o
Tenendo poi conto anche delle perdite nell’alternatore si ottiene la seguente definizione di rendimento
globale del gruppo turboalternatore:
η g = ηT η alt = η yη vη oη alt
Pompa
Il rendimento idraulico η y è il rapporto tra lavoro En effettivamente ricevuto dal fluido e lavoro En + Y
fatto dalla girante, cioè:
En
ηy =
En + Y
In questo caso En sarebbe negativo (in quanto entra nel sistema), per cui valgono le seguenti relazioni:
− E n = T1 − T2
E n = T2 − T1
T −T En H
ηy = 2 1 = =
En + Y En + Y H + y
dove H è la prevalenza della pompa (espressa in m di colonna di fluido) e y sono le perdite di carico
nella pompa (sempre espresse in m di colonna di fluido).
Il rendimento volumetrico è il rapporto tra la portata m mandata dalla pompa e la portata m + ∆m che
effettivamente interessa la girante ( ∆m è la portata che passa attraverso le tenute o che torna indietro in
ricircolazione), cioè:
m
ηv =
m + ∆m
Il rendimento organico è il rapporto tra potenza interna:
Pi = ( m + ∆m ) ⋅ ( E n + Y )
e potenza assorbita all’asse, cioè:
P
ηo = i
Pa
Le perdite Pa – Pi sono perdite ai cuscinetti e perdite per ausiliari.
Come rendimento totale in pompa si intende infine il rapporto tra la potenza acquisita dal fluido e la
potenza assorbita all’asse della pompa:
( T2 − T1 ) ⋅ m E n ⋅ m E n ⋅ m
ηP = = ηo = ηo
Pa Pi ( E n + Y ) ⋅ ( m + ∆m )
per cui, in base alle definizioni:
η P = η yη vη o
Tenendo poi anche conto delle perdite del motore elettrico, il rendimento globale del gruppo
motopompa diviene:
η g = η Pη m = η yη vη oη m
Curve caratteristiche
Al di là della scelta, puramente arbitraria, delle variabili di controllo, rimane comunque certo il fatto
che due sono queste variabili necessarie per condizionare tutte le altre.
Se però si cambia il fluido, appare subito chiaro come le sue proprietà fisiche
debbano influenzare operativamente la turbomacchina; quindi, ad esempio,
bisognerà prendere in considerazione anche densità, pressione, viscosità, etc.
(variabili del fluido).
Ad esempio per una pompa si può esprimere l'energia netta fornita al fluido En
secondo la seguente espressione:
En = f ( Q , N ,ρ , ν ,..., D ,α ,β ,... ) .
En Q ND 2
= f , ,...,α , β ,...
2 2
N D 3
ν
ND
En Q
2 2
= f 3
N D ND
che è ora sufficientemente semplice per una pratica applicazione e può essere
rappresentata da una singola curva (curva caratteristica della turbomacchina).
y = f ( x)
η rendimento,
F
ρD 4 N 2
coefficiente di forza,
M
ρD 5 N 2
coefficiente di coppia,
Q
coefficiente di flusso,
ND3
En
coefficiente di carico (prevalenza o salto motore),
N 2 D2
P
ρD 5 N 3
coefficiente di potenza,
1
NQ 2
3
velocità specifica,
En 4
1
N P
2
E' possibile poi estrapolare la curva En = f(Q) ottenuta per un dato N = cost per
tracciare altre linee a N = cost sulla base che la curva adimensionale rimanga la
stessa.
In Fig. 3 si vede come sia possibile in via di principio trovare per ciascun punto di
questa curva un coefficiente di flusso Q/ND3 ed un coefficiente di carico En/N2D2.
Sulla curva per una differente velocità un punto corrispondente sarà
caratterizzato dagli stessi coefficienti di flusso e di carico, per cui per tali punti
corrispondenti En varierà col quadrato della velocità N, mentre Q varia
linearmente con N.
Di conseguenza, nel campo dimensionale prevalenza-portata, punti corrispondenti
saranno collegati da parabole, del tipo:
En
= cos t ⋅ Q2 .
g
Esiste un altro metodo per arrivare allo stesso risultato relativamente ai punti
corrispondenti. Nel caso di una legge di prestazione ad un solo parametro, la
costanza di un numero adimensionale significa costanza di tutti gli altri, perchè
ciascuno di tali numeri può essere espresso in funzione di ogni altro.
En
4
N 2 D 2 = En D
2
Q Q2
3
ND
En = cos t ⋅ Q2 .
Ad esempio:
Q = cos t ⋅ ND3
En = cos t ⋅ N 2 D2
P = cos t ⋅ ρN 3 D5
1
NQ 2
Ω = 3
En 4
opt
En
Ψ= coefficiente di carico
N 2 D2
1
DEn 4
∆= 1 diametro specifico.
Q 2
Ω = f ( ∆)
con piccole dispersioni per i punti relativi a macchine ad alto rendimento: la curva
può essere utile ad esempio per trovare la dimensione di una macchina per un
determinato compito.
Fig. 5. Diagramma di Cordier: velocità specifica Fig. 6. Rendimento in funzione della
velocità specifica
Φ = 1 Ω∆3
Ψ = 1 Ω 2 ∆2
Molto utili per il progettista sono pure i grafici che danno il rendimento in funzione
di Ω , come mostrato ad esempio in Fig. 6.
Leggi a due parametri
Quando il numero delle variabili indipendenti aumenta, ad esempio di uno, si può
formare un secondo parametro indipendente adimensionale; le leggi di
prestazione assumono allora la forma:
y = f ( x, z )
Da un altro punto di vista si può dire poi che la corrispondenza (ad esempio la
similitudine dinamica) richiede ora la costanza di due parametri adimensionali
indipendenti. Da qui, conformemente alle leggi di prestazione nella forma di
un’equazione come quella scritta, tutte le altre variabili adimensionali saranno
pure costanti. Questo risultato è naturalmente vero anche se il secondo
parametro non è l'angolo di calettamento ma il numero di Reynolds oppure
qualsiasi altra variabile indipendente.
ρND2 ND2 Q
; ; .
µ ν νD
Anche in questo caso una legge a due parametri che tenga conto della viscosità è
meglio rappresentata mediante una serie di linee a Reynolds costante. In funzione
del coefficiente di flusso, ad esempio per una pompa, si può vedere come
all'aumentare di Re aumentano rendimento e coefficiente di carico, mentre
ovviamente diminuisce il coefficiente di potenza. Una rappresentazione grafica di
tipo dimensionale diverrebbe poi notevolmente più complicata.
Come si vede ad ogni modo dai risultati sperimentali, le curve caratteristiche sono
più o meno simili; cioè, per scopi pratici, si può vedere che due curve simili
possono al limite essere portate a coincidere mediante opportuna variazione di
scala degli assi.
Un altro aspetto caratteristico è poi che non è quasi richiesta alcuna distorsione
dell'ascissa se come variabile x si sceglie la velocità specifica al posto del
coefficiente di flusso.
Esistono cioè casi per i quali la legge a due parametri può assumere la forma
funzionale:
y = f1 ( x ) f 2 ( z ) .
η = fη f ( Ω )
Ψ = fH f ( Ω)
dove:
fη = fη ( Re )
f H = f H ( Re )
Effetti "scala"
Quando si considerano le prestazioni di una famiglia di macchine simili diventa
evidente che oltre al numero di Reynolds si deve considerare anche una ulteriore
variabile: la scabrezza relativa.
Un'altra variabile del flusso che frequentemente assume notevole importanza per
turbomacchine che trattano liquidi è la pressione assoluta del fluido, o piuttosto la
differenza tra pressione assoluta e tensione di vapore del liquido alla temperatura
di lavoro. Specificamente, quando questa differenza di pressione è convertita in
altezza cinetica, qualsiasi ulteriore aumento di velocità richiederebbe, per
l'equazione di Bernoulli, l'esistenza di sforzi di trazione (pressione negativa) nel
liquido. Si formano invece in pratica cavità riempite di vapore ed inizia una forma
di ebollizione; poiché i liquidi contengono normalmente aria disciolta,
l'abbassamento della pressione ad un valore vicino alla tensione di vapore libera
prima quest'aria. Il fenomeno consiste sia nella liberazione dell'aria disciolta che
nell'evaporazione del liquido e prende il nome di cavitazione.
Perciò la cavitazione può insorgere non solo all'ingresso di una pompa o nel tubo
diffusore di una turbina, ma anche in hydrofoils, eliche, tubi di Venturi, sifoni, etc.
In generale, gli effetti macroscopici della cavitazione sono rumore, erosione di
superfici metalliche e vibrazione del sistema.
Gli effetti invece della cavitazione sulle prestazioni idrauliche sono molti e
differenti, dipendendo essi dal tipo di macchinario o struttura in considerazione e
dallo scopo perseguito dal progetto; essi possono comunque essere schematizzati
ad esempio come segue:
Per esempio, può cambiare la portata attraverso portali o vie d'uscita, può
condurre ad indesiderati o distruttivi flussi pulsanti, o anche può portare a
distorcere l'azione di valvole di controllo o altre apparecchiature similari. Tuttavia,
il maggior inconveniente da effetti di cavitazione è stato riscontrato in macchinari
rotanti, che sono stati di conseguenza i più studiati da questo punto di vista.
Già agli inizi, nello studio degli effetti della cavitazione sulle prestazioni di
macchine idrauliche, si è vista la necessità di definire in maniera soddisfacente le
condizioni operative in riferimento alla cavitazione. Per esempio, per la stessa
macchina operante sotto diversi salti ed a differenti velocità, si è cercato di
specificare le condizioni sotto cui il grado di cavitazione doveva essere simile. Le
stesse necessità si sono poi riscontrate per specificare condizioni di similitudine in
cavitazione tra due macchine dello stesso progetto ma di diversa dimensione.
Un parametro quasi universalmente adottato per definire la tendenza alla cavitazione (in pompa) è
rappresentato dall’altezza netta positiva di aspirazione NPSH che misura, in metri, l’altezza richiesta
all’ingresso della pompa per impedire l’insorgere della cavitazione nel liquido:
p − pv
NPSH = serb − za − ya
ρg
dove:
pserb = pressione assoluta sul pelo libero del serbatoio da cui aspira la pompa
pv = tensione di vapore dell’acqua alla temperatura di esercizio
za = altezza geodetica di aspirazione
ya = perdita di carico complessiva in aspirazione.
L’NPSH così definito è quello disponibile, cioè quello dell’impianto.
Fig. 7. Schema di impianto di aspirazione.
Con riferimento alla Fig. 7, applicando l’equazione di Bernoulli tra serbatoio e ingresso pompa
(sezione 1), si ha:
p serb p V2
= 1 + 1 + za + ya da cui:
γ γ 2g
p serb V1 2 p1
za = − + + ya
γ 2g γ
Per evitare l’insorgere della cavitazione occorre che sia:
p1 ≥ pv + p g + ∆p
dove pv è la tensione di vapore dell’acqua a quella temperatura e pg la tensione dei gas disciolti; ∆ p è un
margine di sicurezza (una ulteriore caduta di pressione all’interno della bocca di aspirazione).
Sostituendo si ottiene:
p V 2 pv + p g
z a ≤ serb − 1 + + y a + ∆z
γ 2g γ
Questa equazione può essere riscritta portando a sinistra l’NPSH della pompa (necessario) e a destra
l’NPSH dell’impianto (disponibile):
V1 2 p pv + p g
+ ∆z ≤ serb − z a + + y a
2g γ γ
Solitamente l’NPSH richiesto da una pompa di tipo centrifugo è compreso tra 1 e 4 m (comprensivo di
∆ z che vale circa 0.5 m).
Molto spesso la pressione del serbatoio è la pressione atmosferica, cioè:
p serb p
= atm = 10.33 m
γ γ
Per le turbine che scaricano invece in un diffusore di altezza Hs sul pelo libero, viene solitamente
utilizzato un coefficiente σ riferito alla condizione di cavitazione incipiente:
H
σ sv = sv
Hm
dove Hm è il salto motore, mentre Hsv è l’NPSH in un determinato punto (solitamente la sezione di
uscita della turbina), cioè altezza piezometrica totale assoluta diminuita dell’altezza corrispondente alla
tensione di vapore.
Si ha così:
2
p s Vs p
H sv = + − v
γ 2g γ
Con riferimento alla Fig. 8, scrivendo Bernoulli tra la sezione di scarico s e la sezione di uscita u del
diffusore, si ha:
2 2
p s Vs p V
+ + H s = atm + u + y diff
γ 2g γ 2g
da cui:
p p V 2
H sv = atm − H s − v + u + y diff
γ γ 2g
Quando vengono trascurate le altezze cinetiche e le perdite di carico nel diffusore (peraltro abbastanza
piccole), il coefficiente di cavitazione σ sv diviene il coefficiente σ T del Thoma e vale perciò la
relazione:
2
Vu
+ y diff
2g
σ T = σ sv −
Hm
Solitamente sono forniti diagrammi di prestazione della macchina (H, Q, P, η ) in funzione del
coefficiente di cavitazione, come appare nelle Figg. 9 e 10.
Fig. 9. Curve di sigma per una pompa centrifuga a velocità e portata costanti
(normali prevalenza e portata sono i valori al massimo di rendimento e a sigma alto)
Fig. 10. Curve di sigma per turbina idraulica sotto costante salto motore, velocità e apertura di porta
(normali coppia, salto motore e portata sono i valori al massimo di rendimento e a sigma alto)
2.5 Le pompe
Classificazione
Le pompe possono essere classificate in due maggiori categorie: pompe dinamiche, in cui l’energia è
fornita in modo continuo al fluido attraverso variazioni di velocità, e pompe volumetriche, in cui
l’energia è invece aggiunta periodicamente mediante l’applicazione di forze ad uno o più confini mobili
contenenti un certo volume di fluido.
Le pompe dinamiche (o turbopompe) possono poi essere ulteriormente suddivise ad esempio in pompe
centrifughe, assiali o a flusso misto, a seconda della direzione meridiana che il flusso assume
all’interno della pompa stessa.
Le pompe volumetriche sono essenzialmente di tipo alternativo oppure rotativo, in funzione del
movimento assunto dagli elementi che producono l’aumento di pressione.
La geometria di una pompa ottimizzata può essere rappresentata in funzione della velocità specifica
(valutata nel punto di ottimo):
1
NQ 2
Ω= 3
En 4
opt
come appare in Fig. 11.
Il coefficiente di carico
E
Ψ = 2n 2
N D
risulta decrescente al crescere della velocità specifica Ω e del coefficiente di portata
Q
Φ=
ND 3
Appare evidente dalla Fig. 11 come si passi, all’aumentare della velocità specifica, dalle pompe
alternative a pistoni via via alle pompe centrifughe e alle pompe assiali, passando a portate
volumetriche sempre più grandi.
Prevalenza
In Fig. 12 è rappresentata una installazione tipica di una pompa, utilizzata in un impianto generico di
trasferimento di fluido da un livello più basso ad uno più alto. I due ambienti in aspirazione ed in
mandata possono trovarsi alla stessa pressione oppure a due valori diversi di pressione. L’energia
trasferita dalla pompa al fluido En (in J/kg) oppure H (in m di colonna di fluido) è la prevalenza
richiesta alla pompa per trasferire il fluido dall’ambiente alle condizioni di aspirazione a quello alle
condizioni di mandata.
Indicando con ζ le perdite di carico (in aspirazione o in mandata) espresse in m di colonna di fluido, si
possono scrivere le seguenti espressioni:
p a Va 2 p1 V1 2
gz a + + = gz1 + + + gζ a
ρ 2 ρ 2
p1 V1 2 p V 2
gz1 + + + E n = gz 2 + 2 + 2
ρ 2 ρ 2
p 2 V2 2 p V 2
gz 2 + + = gz m + m + m + gζ m
ρ 2 ρ 2
ζ = ζa +ζm
Raccogliendo si ottiene alla fine la seguente espressione per la prevalenza:
p − p a Vm 2 − Va 2
En = g ( z m − z a ) + m + + gζ
ρ 2
Quando le due altezze cinetiche in aspirazione e in mandata risultano trascurabili (oppure molto simili)
e quando le pressioni degli ambienti in aspirazione e in mandata risultano identiche, allora la
prevalenza risulta essere pari alla somma del dislivello geodetico e delle perdite di carico:
E n = g ( z m − z a ) + gζ oppure
H = zm − za + ζ
Al solito, se Q è la portata volumetrica, la potenza da fornire al gruppo motopompa vale:
ρQE n
P=
ηg
Pompe centrifughe
Una tipica pompa centrifuga è rappresentata sezionata longitudinalmente in Fig. 13.
In essa d1 e d2 sono rispettivamente i diametri in ingresso (medio) e in uscita della girante, mentre p1 e
p2 sono i corrispondenti valori delle pressioni. La velocità in ingresso V1 risulta diretta come l’asse di
rotazione (e quindi perpendicolare alla girante) mentre la velocità in uscita V2 è giacente in un piano
perpendicolare all’asse di rotazione e presenta due componenti V2t e V2r dirette rispettivamente in modo
tangenziale e radiale, come rappresentato nei triangoli di velocità schematizzati in Fig. 14 (il piano di
rappresentazione può essere diverso in ingresso ed in uscita).
Nel caso ideale la girante non presenta perdite, per cui la relazione di Eulero fornisce la seguente
espressione:
E n = u 2V2t − u1V1t
Siccome V1 non ha componente tangenziale si può anche scrivere:
E n = u 2V2 t = u 2 ( u 2 − w2 cos β 2 )
Se S è la sezione di uscita della girante, data da:
S = ξπb2 d 2
dove ξ è un opportuno coefficiente di ingombro frontale della palettatura, si ha poi:
Q
wr =
S
per cui, sostituendo, si ottiene alla fine:
Q
E n = u 2 − u 2 cot gβ 2
2
S
La curva caratteristica di una pompa ideale è rappresentata in Fig. 15. Come si può notare, la
prevalenza aumenta linearmente per palettatura in avanti (β 2 > 90°), si mantiene costante per
palettatura radiale (β 2 = 90°) e diminuisce infine linearmente per palettatura all’indietro (β 2 < 90°).
Passando dal caso ideale al caso reale si devono introdurre le perdite Y inerenti alla girante, sulla quale
arriva, come visto il lavoro per unità di massa En + Y.
Nelle perdite Y si devono comprendere perdite localizzate Y’ (che si hanno all’ingresso della palettatura
e presentano un minimo alle condizioni nominali), perdite continue Y’’ (che si incontrano lungo lo
sviluppo della pala) ed anche, in misura minore, perdite Y’’’ dovute allo slip factor (che derivano da
effetti di inerzia e si traducono in una non uniforme distribuzione delle velocità nei singoli canali della
girante).
L’andamento delle perdite Y’ e Y’’ in funzione della portata Q è mostrato in Fig. 16.
Fig. 19 Curva caratteristica di pompe in serie Fig. 20 Curva caratteristica di pompe in parallelo
Fig. 21 Regolazione per strozzamento Fig. 22 Regolazione per variazione del numero di giri
Fig. 25 Potenza in funzione della portata Fig. 26 Rendimento in funzione della portata
Fig. 28 Prestazioni di una pompa con stesso corpo e giranti di diverso diametro
Pompe assiali
Sono la naturale evoluzione delle pompe a flusso misto (non più propriamente centrifugo) quando la
portata assume valori sempre più grandi. Il lavoro euleriano deve ora tener conto del fatto che la
velocità periferica si mantiene praticamente costante, per cui:
E n = u 2V2t − u1V1t = u (V2t − V1t )
in cui la componente V1t si annulla in presenza di ingresso perfettamente assiale.
La pompa assiale, a parità di sezione e velocità di ingresso (e quindi di portata), presenta una
prevalenza fortemente ridotta rispetto alla corrispondente pompa centrifuga, in quanto non può
beneficiare della quota di lavoro derivante, per quest’ultima, dal forte aumento di diametro in uscita.
Le pompe assiali perciò sono molto adatte per forti portate e piccole prevalenze.
La Fig. 29 mostra tipici triangoli di velocità per una pompa assiale con velocità in ingresso a direzione
praticamente assiale.
Pompe volumetriche
Le pompe volumetriche possono essere di tipo rotativo (a ingranaggi, a capsulismi, a segmenti-alette,
etc) oppure alternativo (a stantuffo) e sono quindi caratterizzate da un certo volume fisso che viene
pompato un determinato numero di volte nell’unità di tempo: la quantità forzatamente limitata relativa
ad ogni ciclo porta queste pompe ad essere adatte per piccole portate ed elevate prevalenze (in teoria la
prevalenza è indipendente dalla portata ed è funzione solo della potenza messa a disposizione).
Le piccole dimensioni (e quindi portate) sono più a favore delle pompe di tipo rotativo, mentre per le
maggiori dimensioni si preferiscono le alternative.
Le pompe di tipo rotativo danno portate praticamente costanti e non richiedono presenza di valvole,
mentre quelle alternative danno sempre luogo a portate più o meno pulsanti e richiedono valvole in
aspirazione e in mandata.
La Fig. 30 mostra diversi tipi di pompe volumetriche presenti sul mercato.
a), b)
c), d)
e)
f)
g), h)
i), l)
Una pompa alternativa a stantuffo a semplice effetto dà portata sinusoidale solo per metà ciclo; se a
doppio effetto la variazione è sempre sinusoidale, però per entrambe le metà ciclo. La situazione
migliora ancora in presenza di più corpi pompa (oppure per pompe a piattello rotante con più
pistoncini), oppure inserendo sia a monte che a valle opportune casse d’aria, come ad esempio mostrato
in Fig. 31.
Con riferimento alla stessa Fig. 31, assumendo per semplicità un manovellismo con lunghezza di biella
l molto grande rispetto alla corsa dello stantuffo s, la velocità massima del piede di biella risulta pari a
ω r, con ω velocità angolare ed r braccio di manovella (pari a metà della corsa s) e quindi la sua
velocità istantanea vale:
s
Vi = ω sen ωt
2
Se T è il periodo, definito mediante la relazione:
2π
ω=
T
allora la portata istantanea vale:
πD 2 s
q= ω sen ωt
4 2
dove D è il diametro dello stantuffo.
La portata media, nel tempo T, viene integrata nel solo tempo T/2 (tempo attivo di spinta, essendo il
pistone a semplice effetto), per cui:
T T T
1 2 1 πD 2 s 2 ω2 2 1 2 1
Q = Qm = ∫ qdt = ω ∫ sen ωtdt = D s − cos ωt = ωsD 2
T 0 2π 4 2 0 16 ω 0 8
Il valore della portata, nella semicorsa di spinta, varia sinusoidalmente da 0 ad un massimo dato da:
1
Qmax = πωsD 2
8
per poi ritornare a 0 durante tutta la corsa di ritorno.
Ad esempio per una pompa a tre corpi a semplice effetto l’andamento della portata nel tempo è
mostrato in Fig. 32.
Fig. 32 Andamento della portata in funzione del tempo per una pompa alternativa
a tre corpi a semplice effetto
L’andamento della prevalenza in funzione della portata per una pompa volumetrica (in particolare
rotativa) è rappresentato in Fig. 33 (e confrontato con quello di una pompa centrifuga).
Fig. 33 Andamento della prevalenza in funzione della portata (m = ft·0.3048; m3/h = gpm/4.403)
(confronto pompa rotativa con pompa centrifuga)
La pendenza (negativa) della linea per la pompa rotativa è funzione della viscosità del fluido pompato,
diminuendo al suo aumentare.
Questo comportamento è messo in maggior evidenza in Fig. 34, dove si vede come le perdite in
rendimento volumetrico diminuiscano all’aumentare della viscosità del fluido (un fluido molto viscoso
ha difficoltà a trafilare tra i giochi delle parti in movimento relativo; un fluido poco viscoso trafila tra i
giochi tanto più quanto più è forte la differenza di pressione).
La potenza richiesta poi aumenta non solo all’aumentare della differenza di pressione (è proporzionale
al prodotto della portata per la pressione), ma anche all’aumentare della viscosità (in quanto aumentano
le resistenze di attrito).
Classificazione
Le turbine idrauliche vengono solitamente distinte in turbine ad azione (ruote Pelton) e a reazione
(ruote Francis e Kaplan). Ruote ad azione sono quelle che girano in ambiente a pressione costante
(solitamente pressione atmosferica); ruote a reazione sono quelle per le quali la pressione diminuisce
passando dall’ingresso all’uscita della girante.
Per una turbina idraulica si definisce grado di reazione χ il rapporto tra la parte di salto motore
elaborata nella girante ed il salto motore totale. Nel distributore, organo fisso che precede la girante,
avviene una parte di trasformazione del salto motore in energia cinetica (il fluido esce dal distributore
con velocità V1), per cui il grado di reazione risulta essere definito come segue:
V1 2
En − 2 2
χ= 2 = 1 − V1 = 1 − V1
En 2En 2 gH m
Nelle macchine ad azione, l’energia netta messa a disposizione En (salto motore) viene trasformata
completamente in energia cinetica nel distributore (chiamato ugello), mentre sulla girante (nel moto
relativo) non può avvenire alcun aumento di velocità (la pressione si mantiene costante); di
conseguenza per le macchine ad azione il grado di reazione vale zero. Nelle macchine a reazione, una
parte del salto motore viene elaborata anche nella girante, con grado di reazione χ che cresce al
crescere di questa parte rispetto al totale.
Il lavoro euleriano (energia trasferita dal fluido alla girante) vale perciò:
Le = u 1V1t − u 2V2 t = u (V1 cos α 1 − V2 cos α 2 ) = u (V1 − V2 cos α 2 )
dove:
V2 cos α 2 = u − w2 cos β 2 = u − w1 cos β 2 = u − (V1 − u ) cos β 2
Sostituendo si ottiene:
2 u u
Le = u[ (V1 − u ) + (V1 − u ) cos β 2 ] = u (V1 − u )( 1 + cos β 2 ) = V1 1 − ( 1 + cos β 2 )
V1 V1
Indicando ora con kp il coefficiente di velocità periferica, definito dal rapporto:
u u
kp = =
Vid V1
si ottiene in definitiva:
Le = Vid k p (1 − k p )( 1 + cos β 2 )
2
Il rendimento idraulico (ideale) è definito come rapporto tra il lavoro euleriano testè ricavato ed il salto
motore già introdotto:
2
Vid
Lid = E n = gH m =
2
per cui si ottiene:
η y ,id = e = 2 k p (1 − k p )( 1 + cos β 2 )
L
Lid
Questa funzione, ad andamento parabolico, si annulla per kp = 0 e per kp = 1 ed ammette un massimo
per kp = 0.5, cui corrisponde un volore massimo del rendimento (ideale) dato dall’espressione:
1
η y ,id ,opt = ( 1 + cos β 2 )
2
Il fatto che il rendimento idraulico sia inferiore all’unità anche nel caso ideale non deve stupire, in
quanto bisogna ricordare che l’energia cinetica allo scarico è comunque un’energia persa.
Quanto sopra appare subito evidente quando si ricorra all’espressione equivalente del lavoro euleriano,
in cui compaiono le altezze cinetiche relative a velocità assolute, relative e periferiche e si tiene
presente che per una macchina assiale ad azione non si hanno variazioni di velocità relativa e
periferica; si può allora scrivere l’espressione:
2 2
V1 − V2
Le =
2
cui corrisponde una definizione di rendimento idraulico data da:
2 2 2
V1 − V2 V2
η y ,id = 2
= 1− 2
V1 V1
Le due relazioni sopra scritte mostrano in modo evidente come, nel caso ideale, l’unica perdita in gioco
sia l’altezza cinetica allo scarico. Applicando poi il teorema di Carnot al triangolo delle velocità in
uscita, si può facilmente dimostrare l’equivalenza di queste due relazioni con le corrispondenti
precedentemente ricavate.
Passando ora dal caso ideale al caso reale (con perdite che vanno a ridurre il rendimento idraulico),
occorre tener conto delle perdite che si incontrano sia nell’ugello (riduzione della velocità da Vid a V1)
che nella girante (riduzione dalla velocità relativa da w1 a w2).
Per quanto riguarda l’ugello, il getto che lascia la spina diminuisce prima di diametro (fino alla sezione
contratta, dove la pressione al suo interno assume distribuzione uniforme con valore pari alla pressione
atmosferica) per poi aumentare in quanto frenata dall’aria (prima di investire il doppio cucchiaio).
Se En = gHm è sempre il salto motore a monte dell’ugello, allora si può scrivere:
2 2
V V
E n = id = c + Yc
2 2
dove Vc è la velocità del getto nella sezione contratta e Yc sono le perdite che si hanno nell’ugello e fino
alla sezione contratta.
Solitamente si assume:
Vc = χVid
dove il coefficiente di riduzione della velocità χ assume mediamente il valore 0.98.
Analogamente, considerando tutto il tratto fino ad incontrare il coltello del profilo a doppio cucchiaio,si
può scrivere:
2
V1
En = + Y1
2
dove V1 è ora la velocità del getto che arriva sulla pala e Y1 le perdite totali (nell’ugello e per la
resistenza dovuta all’aria).
Anche qui solitamente si assume:
V1 = ϕVid
dove il coefficiente di riduzione della velocità ϕ assume mediamente il valore 0.97.
Si verifica poi mediamente che:
V1 ≅ 0.99Vc
Infine, per quanto riguarda la velocità relativa in uscita dalla pala, si scrive:
w2 = ψw1
dove il coefficiente di riduzione della velocità ψ è mediamente compreso tra i valori 0.97 e 0.98.
L’espressione del lavoro euleriano nel caso reale diviene così:
Le = u (V1 − V2 cos α 2 )
Inoltre:
V2 cos α 2 = u − w2 cos β 2 = u − ψ (V1 − u ) cos β 2
per cui, sostituendo:
Le = u[ϕVid − u + ψ ( ϕVid − u ) cos β 2 ] = u ( ϕVid − u )( 1 + ψ cos β 2 )
Ricordando poi la definizione di kp, si ottiene in definitiva:
Le = Vid (ϕ − k p )( 1 + ψ cos β 2 )
2
Nel grafico F è la spinta tangenziale sulla girante, che si annulla per u = V1 (e quindi per w1 = 0),
quando cioè la macchina ha raggiunto quella che si chiama la sua velocità di fuga, in corrispondenza
della quale il lavoro utile sviluppato è completamente assorbito dalle resistenze passive (condizione che
si verifica in pratica quando ad esempio crolla il carico).
Onde evitare che si possano raggiungere tali velocità pericolose, è previsto l’intervento di un tegolo
deviatore, che allontana il getto dalle pale lasciando così tempo alla spina di chiudere in modo da
evitare l’insorgere di colpi d’ariete.
Si può mostrare come il grado di reazione aumenti passando dalle macchine più centripete (con angolo
α 1 piccolo, pari cioè a 15° circa e angolo β 1 grande, pari cioè a 120° circa) alle macchine assiali (con
angolo α 1 grande, pari ad esempio a 60° circa e angolo β 1 piccolo, pari a 30° circa).
Sostituendo nella definizione del grado di reazione:
2
V
χ = 1− 1
2 Le
l’espressione del lavoro euleriano:
Le = u 1V1 cos α 1 − u 2V2 cos α 2
in cui in prima approssimazione e per semplificare i calcoli si sia trascurata la componente tangenziale
della velocità assoluta in uscita (del resto solitamente molto piccola in condizioni di ottimo in modo da
minimizzare le perdite allo scarico), si ottiene:
V1
χ = 1−
2u 1 cos α 1
Per il teorema dei seni si ha poi:
V1 senβ 1 senβ 1
= =
u1 sen( 180° − α 1 − β 1 ) sen( α 1 + β 1 )
per cui in definitiva:
senβ 1
χ = 1−
2 cos α 1 sen( α 1 + β 1 )
Sostituendo ad esempio i valori numerici prima indicati si ottiene rispettivamente χ = 0.37 (per la ruota
Francis) e χ = 0.5 (per la ruota Kaplan).
Per inciso, quando l’angolo α 1 vale zero ed il coefficiente di velocità periferica kp vale 0.5 (caso della
ruota Pelton), il grado di reazione χ vale zero, a conferma che la Pelton è una macchina ad azione.
Rimane infine da osservare come per le ruote ad azione la velocità periferica sia univocamente
determinata una volta fissata la velocità V1 (cioè in definitiva il salto motore), mentre per le ruote ad
azione la velocità V1 risulta dipendere anche dal grado di reazione (decrescendo al crescere di χ , a pari
salto motore): quindi u1 e V1 non sono vincolate rigorosamente, ma si possono scegliere assegnando
opportuni valori di χ .
Per poter più facilmente valutare il rendimento della macchina risulta più semplice scrivere il lavoro
euleriano come somma dei tre effetti di azione, reazione e centripeto:
2 2 2 2 2 2
V1 − V2 w2 − w1 u1 − u 2
Le = + +
2 2 2
Il rendimento idraulico risulta dato, come visto, dal rapporto tra il lavoro euleriano reale e quello
ideale, computati questi una volta in base alle velocità reali e l’altra appunto in base a quelle ideali.
Nel rendimento idraulico entrano a far parte sia le perdite legate ad una minor velocità V1 all’uscita del
distributore, in quanto:
V1 = ϕV1,id
che quelle dovute ad una minor velocità w2 all’uscita dalla girante che vale:
w2 = ψw2 ,id
Nelle turbine a reazione la velocità assoluta allo scarico (altezza cinetica persa) risulta essere una
percentuale non insignificante del salto motore (questo sia perchè, per contenere le dimensioni, V2 non
può essere esageratamente piccola e poi perchè il salto motore assume valori sempre più piccoli più la
macchine tendono ad essere veloci, in termini di velocità specifica), per cui diviene necessario far
seguire alla macchina un opportuno diffusore, come schematizzato in Fig. 43.
La velocità V2 nella sezione di scarico della girante diviene VS < V2 nella sezione di scarico del
diffusore; applicando Bernoulli tra le due sezioni di scarico si ha:
2 2
p 2 V2 p V
+ + gH a = atm + s + Ydiff
ρ 2 ρ 2
dove le perdite nel diffusore sono date da:
2 2
− VS
Ydiff = (1 − η diff )V 2
2
in cui η diff è il rendimento del diffusore, pari a circa 0.8. Come già visto, la pressione p2 non può
risultare inferiore alla tensione di vapore del liquido (ed eventualmente anche dei gas disciolti) onde
evitare che insorga il fenomeno della cavitazione.
Per la valutazione del rendimento idraulico bisogna in definitiva sottrarre al lavoro euleriano ideale le
seguenti altezze:
2
(
Yd = 1 − ϕ 2 V1 ,id
) 2
perdita nel distributore
2
2 w2 ,id
(
Yg = 1 − ψ ) 2
perdita nella girante
2 2
V − VS
Ydiff = (1 − η diff ) 2 perdita nel diffusore
2
2
VS
Ys = perdita allo scarico.
2
Fig. 44 Evoluzione delle ruote Francis in funzione della velocità specifica (nc = 185Ω P)
Fig. 46 Andamento del rendimento per ruote Francis, ad elica e Kaplan in funzione del carico
Uno schema di turbina Kaplan in cui si vede come le pale statoriche e rotoriche possano essere
opportunamente regolate è mostrato in Fig. 47.
L’effetto della regolazione delle pale rotoriche è messo particolarmente in evidenza nella Fig. 48, dove
si vede appunto come variano i triangoli delle velocità per una assegnata rotazione della pala attorno al
proprio asse di calettamento (ed in funzione anche di un diverso valore della velocità assoluta in
ingresso).
Fig. 49 Variazione dei triangoli di velocità tra mozzo e periferia di una pala rotorica
Per vedere come si possano correlare i triangoli di velocità di due diverse sezioni, si consideri dapprima
una sezione generica, per la quale, nel caso reale, si può ora scrivere:
2 2 2 2
V1 − V2 w2 − w1
η y En = +
2 2
oppure:
Le = uV1t − uV2 t
Si supponga poi per semplicità che la velocità V2t sia nulla (si è comunque nell’intorno delle condizioni
di ottimo in quanto così facendo si rende minima l’energia perduta allo scarico).
Uno dei criteri che si può adottare per il dimensionamento è quello di mantenere costante il lavoro
euleriano al variare del raggio (criterio del vortice libero). Si può così scrivere:
ωrV1t = cos t
ed essendo pure costante la velocità angolare ω , alla fine si ha:
r ⋅ V1t = cos t
Questa relazione consente di costruire facilmente, a partire da un triangolo di velocità noto per un certo
raggio (ad esempio al mozzo), gli altri triangoli di velocità in corrispondenza di assegnati valori del
raggio. Lo schizzo di Fig. 50 mostra come sulla base ad esempio del triangolo delle velocità al mozzo
si possa costruire quello ad esempio alla periferia, una volta noti i due valori della corrispondente
velocità periferica. La nuova V1t è ottenuta dalla prima semplicemente moltiplicandola per l’inverso
delle due velocità periferiche, mentre le nuove velocità relative sono subito note per chiusura dei
triangoli (sulla base dell’ipotesi che per semplicità la velocità V2 si mantenga pure costante).
Fig. 50 Triangoli di velocità al mozzo (a) e alla periferia (b) secondo il criterio del vortice libero
Per quanto riguarda la velocita specifica per le ruote Kaplan, valendo la stessa espressione ricavata per
le ruote Francis, si può comunque notare come le Kaplan siano turbine ancora più veloci, cioè con
velocità specifiche Ω P ancora più elevate, che possono raggiungere anche valori superiori a 5. Ad
esempio, assumendo valori un pò al limite come: α 1 = 60°, β 1 = 15° e B/Dmax = 0.6, si ottiene: Ω P = 5.4.
Valori così elevati di Ω P significano anche valori molto alti del grado di reazione (superiori a 0.7) e
quindi grande peso delle altezze cinetiche relative. Come conseguenza (e come del resto appare anche
esaminando i triangoli delle velocità di Fig. 50), la velocità assoluta di scarico V2 risulta molto
prossima alla V1 e quindi abbastanza pesante percentualmente (come altezza cinetica persa) nei
confronti del salto motore.
Si verifica infatti praticamente come l’altezza cinetica valutata nella sezione di scarico delle turbine a
reazione (a valle delle pale rotoriche) sia dell’ordine del 2-3 % per le Francis lente, del 20 % per le
Francis veloci e addirittura del 50 % e più per le Kaplan.
Si comprende così facilmente come il recupero dell’altezza cinetica allo scarico sia di fondamentale
importanza per le turbine a reazione veloci e come quindi il diffusore di scarico meriti particolare
attenzione in questi casi, con realizzazione di opere civili di peso tutt’altro che trascurabile (molto
spesso infatti l’aumento di sezione richiesto è così forte che buona parte del diffusore prosegue
annegata secondo un percorso quasi orizzontale, come mostrato in Fig. 51).
Il primo principio della termodinamica per sistemi aperti, per un fluido comprimibile, porta a scrivere
(in condizioni stazionarie e con flusso stazionario) tra le sezioni 1 (ingresso) e 2 (uscita) di una
macchina il seguente bilancio energetico:
V1 2 V2 2
Q + h1 + gz1 + = L + h2 + gz 2 +
2 2
dove Q è il calore (positivo) che entra nel sistema e L il lavoro (positivo) fatto dal sistema.
Se poi Lw è il lavoro prodotto dalle forze di attrito (equivalente al calore da tali forze generato),
sostituendo la relazione:
2 2
∫ TdS = Q + Lw = h2 − h1 − ∫ vdp
1 1
nel bilancio precedente, si ottiene ancora un bilancio, ma scritto in termini di sola natura meccanica:
V2 2 V 2
gz1 + 1 = L + Lw + ∫ vdp + gz 2 + 2
2 1 2
Il lavoro fatto dal sistema, in termini energetici generali oppure energetici solo meccanici, può essere
così valutato mediante l’una o l’altra delle due espressioni seguenti:
(
1
L = Q + ( h1 − h2 ) + g ( z1 − z 2 ) + V1 2 − V2 2
2
)
oppure
( 1
) 2
L = g ( z1 − z 2 ) + V1 2 − V2 2 − Lw − ∫ vdp
2 1
Molto spesso la variazione di quota è abbastanza ininfluente; inoltre, o le altezze cinetiche sono in sé
trascurabili oppure le sezioni di ingresso e di uscita sono tali per cui:
A2 ρ 1
=
A1 ρ 2
e quindi V2 = V1.
Se queste ipotesi semplificative risultano applicabili, allora per il calcolo del lavoro fatto dal sistema
possono essere usate le seguenti espressioni:
LT = h1 − h2 + Q oppure
2
LT = − Lw − ∫ vdp
1
Nel caso di un compressore, per evitare di avere un lavoro negativo, si preferisce assumere positivo il
lavoro fatto sul sistema, per cui si hanno le due seguenti scritture equivalenti:
LC = h2 − h1 − Q oppure
2
LC = Lw + ∫ vdp
1
La Fig. 1 mostra la rappresentazione schematica di un compressore e la convenzione adottata per
lavoro e calore positivi.
Tra le trasformazioni più significative vengono di solito considerate: l’isoterma reversibile, l’adiabatica
isentropica e l’adiabatica reale o politropica.
Fig. 2 Compressione isoterma nel piano p-v Fig. 3 Compressione isoterma nel piano T-s
Fig. 4 Compressione isentropica nel piano p-v Fig. 5 Compressione isentropica nel piano T-s
Nel piano T-s le aree per la verità sono dei calori e non dei lavori (anche se le unità di misura sono le
stesse). Però, essendo:
LC = h2 − h1 = h2 t − h1
e risultando l’area sottesa alla trasformazione isobarica 2t-2 pari al calore scambiato uguale a sua volta
alla differenza di entalpia, ne viene di conseguenza l’identità assunta.
Nel piano p-v di Fig. 6 l’area P1-1-2p-P2 rappresenta solamente il lavoro tecnico, cioè:
2
∫ vdp = L
1
C − Lw
Per quanto riguarda il piano T-s di Fig. 7 invece, l’area A-2t-2p-C rappresenta il lavoro reale di
compressione, in quanto:
LC = h2 p − h1 = h2 − h1
Inoltre, l’area sottesa alla trasformazione isobara 2t-2p è un calore che coincide appunto colla differenza
di entalpia. Il lavoro di compressione ideale (isentropica), poi, è dato, per lo stesso motivo, dall’area A-
2t-2i-B.
Nell’ipotesi di adiabaticità Q = 0 l’area sottesa alla trasformazione reale è proprio il calore ricevuto dal
fluido, cioè Lw.
Da notare che l’area suddetta rappresenta in generale il calore ricevuto dal fluido durante la
trasformazione, per cui, se la trasformazione non è adiabatica, essa rappresenta il calore totale Lw + Q
(oppure solo Q se la trasformazione è ideale), senza poter distinguere tra i due calori.
Per la congruenza delle aree, l’area 1-2i-2p è un supplemento di lavoro (che pesa su LC) dovuto al fatto
che nella compressione avviene introduzione di calore a causa degli attriti interni, supplemento di
lavoro dovuto al fatto che il fluido si dilata di più nel caso reale rispetto al caso ideale. Questo
supplemento di lavoro viene chiamato controrecupero LCR.
Si scriverà così in definitiva:
LC = Lid + Lw + LCR
Se si indica con v’ il volume specifico ad una certa pressione p per la trasformazione ideale e con v il
corrispondente volume per la trasformazione reale, siccome:
p2
Lid = ∫ v' dp e
p1
p2
LC − Lw = ∫ vdp
p1
LC − Lw = Lid + LCR
si ha per il lavoro di controrecupero la seguente espressione:
p2
Rendimenti
Si definisce rendimento adiabatico di compressione η ad il rapporto tra il lavoro di compressione ideale
(isentropico) Lid ed il lavoro di compressione reale LC, cioè:
γ −1
L β γ −1
η ad = id = n −1
LC
β n −1
dove si vede come il rendimento adiabatico dipenda, oltre che dal tipo di politropica (cioè dal suo
esponente n), anche dal rapporto di compressione β .
Ricordando come il lavoro di controrecupero dipenda dalla differenza di volume specifico tra caso
reale e caso ideale e quindi in sostanza dalla comprimibilità del fluido, un fluido a comprimibilità nulla
e quindi incomprimibile presenterà lavoro di controrecupero nullo.
Si può così definire un rendimento idraulico o politropico quando si faccia riferimento ad un lavoro di
compressione ideale per la cui definizione si assuma LRC = 0, cioè:
Lid L =0 L − L
ηy = RC
= C w
LC LC
Dalla definizione:
n
pv n = p1 v1
si ha:
1 1
vp n = v1 p1 n = cos t
per cui:
2
1 1
2 2 1 1−
v1 p 1 n 1 2 − 1 p n
LC − Lw = ∫ vdp = ∫ dp = v1 p1 n ∫ p n dp = p1 v1 p1 n
−1
=
1
1
1 1
p n 1 1−
n 1
n −1
n n −1
n −1 n −1
n p n
RT1 2 − 1 =
−
= RT1 p1 n p 2 n − p1 n =
n −1 n −1 p1
n n −1
= RT1 β n − 1
n −1
da cui in definitiva:
n
ηy = n −1
γ
γ −1
Dall’essere η y ≤ 1 ne consegue che n ≥ γ , come del resto già noto.
Si vede allora come il rendimento politropico dipenda solo dal tipo di trasformazione e sia quindi molto
più significativo nell’indicare la bontà di una macchina, indipendentemente dal suo rapporto di
compressione, come invece avviene per il rendimento adiabatico, che può ora scriversi anche nel
seguente modo:
βφ −1
η ad = φ
η
β y −1
Il diagramma rappresentato in Fig. 9 mostra l’andamento di η ad in funzione di β , assunto come
parametro η y.
Come si vede dal diagramma, η ad diminuisce al crescere di β , a pari valore di η y. Inoltre, si può
dimostrare che i due rendimenti coincidono per β = 1.
p2 p p
= 3 = 4 =β
p1 p2 p3
Siccome:
p4 p p p
= 4 3 2 = β3 e quindi:
p1 p 3 p 2 p1
1
p 3
β = 4
p1
LT = h1 − h2 + Q oppure
2
LT = − Lw − ∫ vdp
1
Q=0
Lw = 0
T RT1
LT = h1 − h2 = c p ( T1 − T2 ) = c p T1 1 − 2
T1
=
φ
(
1 − β −φ )
LT = h1 − h2
1
LT = ∫ vdp − Lw
2
assieme all’espressione:
pv m = cos t
Fig. 13 Espansione politropica nel piano p-v Fig. 14 Espansione politropica nel
piano T-s
Nel piano p-v di Fig. 13 l’area P1-1-2-P2 rappresenta sempre solo il lavoro tecnico:
1
∫ vdp = L
2
T + Lw
Per quanto riuarda il piano T-s di Fig. 14, il lavoro reale di espansione è
rappresentato dall’area D-2t-1-B, in quanto:
LT = h1 − h2 = h1 − h2 t
con le stesse considerazioni su calore e lavoro.
Il lavoro ideale di espansione è sempre dato dall’area A-2t’-1-B, come pure l’area
sottesa alla trasformazione reale è sempre il calore ricevuto dal fluido Lw (essendo
Q = 0).
Notando poi che le due aree A-2t’-2t-D e B-2’-2-C sono uguali (il calore sotteso a
due isobare dipende solo dalla differenza delle temperature), si vede poi che, per
la congruenza delle aree, l’area 1-2’-2 è un supplemento di lavoro (che
avvantaggia LT) dovuto al fatto che il fluido si dilata di più nel caso reale rispetto a
quello ideale. Questo supplemento di lavoro si chiama lavoro di recupero LRT.
LT = Lid − Lw + LRT
Poichè si ha:
1
Lid = ∫ v' dp
2
ed inoltre:
1
LT + Lw = ∫ vdp
2
LT + L w = Lid + LRT
per cui:
γ −
m −1
LT = h1 − h2 = RT1 1 − β m
γ −1
Rendimenti
dove si vede come il rendimento adiabatico dipenda, oltre che dal tipo di
politropica (cioè dal suo esponente m), anche dal rapporto di espansione β .
LT LT
ηy = =
Lid LRT =0
LT + Lw
Siccome risulta:
1
1 1
1 1 1 1−
v1 p 1 m 1 1 − 1 p m
LT + Lw = ∫ vdp = ∫ dp = v1 p1 m ∫ p
−1
m
dp = p1 v1 p1 m =
1
1
2 2
p m 2 1−
m 2
−
m −1
m m −1
m −1 m −1
m p m
RT1 1 − 1 =
−
= RT1 p1 m p1 m − p 2 m =
m−1 m−1 p2
m −
m −1
= RT1 1 − β m
m−1
da cui in definitiva:
γ
γ −1
ηy =
m
m−1
Infine, siccome il rendimento politropico dipende solo dalla bontà della macchina,
ne consegue che un compressore ed un espansore di pari qualità presentano lo
stesso valore di rendimento politropico, indipendentemente dai rispettivi valori del
rapporto di compressione o di espansione.
p
= RT
ρ
in cui:
ℜ
R= = c p − cv
M
e si possono poi calcolare velocità del suono a, energia interna per unità di massa
u ed entalpia per unità di massa h:
γp
a2 = = γRT
ρ
1 p
u= = cv T
γ −1 ρ
γ p
h= = c pT
γ −1 ρ
ND M
M1 = = ND
a1 γℜT1
En Q
2 2
= f 1 3 ; M 1 ;γ
N D ND
Le curve caratteristiche:
Ψ = f (Φ ; M 1 )
Essendo gli effetti della comprimibilità poco significativi per bassi numeri di Mach,
i risultati conseguiti nel campo dei fluidi incomprimibili rimangono validi, purché
appunto i numeri di Mach non siano molto elevati. Anche il diagramma di Cordier
rimane valido per macchine operanti con fluidi comprimibili: occorre però
ricordare che ora, per il calcolo dei parametri adimensionali, si deve usare
l’energia trasferita per stadio e la portata volumetrica in ingresso. Infine, anche gli
effetti di viscosità e gli effetti di scala possono essere valutati come nel caso
incomprimibile.
Ψ 4
dove però il coefficiente di portata e quello di carico sono stati definiti nel modo
seguente:
V
Φ=
S ⋅u
gLad
Ψ =
u2
2
in cui V è la portata volumetrica in ingresso (in m3/s), S la sezione frontale (in m2,
data da π D22/4 con D2 diametro in uscita), u = u2 la velocità periferica (in m/s) in
corrispondenza di D2, Lad il lavoro ideale di compressione dello stadio (espresso in
kgp·m/kg, dove 1 kcal equivale a 427 kgp·m oppure 4186 J). Con riferimento ad
una velocità di rotazione n (espressa in giri/min), il parametro An non risulta più
adimensionale come la velocità specifica Ω ; dopo opportune sostituzioni e
semplificazioni, esso può essere calcolato in base all’espressione:
1
n V 2
An = 6.33
1000 L 43
ad
Nel diagramma di Fig. 17 in coordinate logaritmiche le rette rispondono
all’equazione:
2
3 6.33 1 n
log Lad = log + log V
4 An 2 1000
Compressore volumetrico
Le Figg. 19, 20 e 21 mostrano alcuni tra i più diffusi compressori volumetrici, che
ricordano nella forma le corrispondenti pompe. Questi compressori vengono usati
quando le portate sono relativamente piccole ed i rapporti di compressione per
stadio abbastanza elevati (per i compressori rotativi le portate sono di qualche
m3/s ed i rapporti di compressione mediamente non superiori a 5-6; per i
compressori alternativi le portate sono un pò inferiori però i rapporti di
compressione possono anche arrivare a 10, con valori di alcune centinaia quando
si tratti di macchine a più stadi).
Fig. 21 Compressore a due stadi a doppio effetto con due cilindri in tandem
Grado di reazione.
Con riferimento al lavoro espresso in funzione delle diverse altezze cinetiche:
V2 2 − V1 2 w1 2 − w2 2 u 2 2 − u1 2
LC = + +
2 2 2
si può definire, per una macchina ad ingresso assiale, grado di reazione il seguente rapporto:
w 2 − w2 2 + u 2 2 − u 1 2
χ= 1
2u 2V2t
cioè il rapporto tra la parte di lavoro che interessa la girante ed il lavoro totale (euleriano).
Per una macchina ad ingresso assiale si ha:
w1 2 = V1 2 + u1 2
per cui la definizione di grado di reazione diventa:
u 2 2 + V1 2 − w2 2
χ=
2u 2V2t
Se in prima approssimazione la velocità meridiana si mantiene abbastanza costante (cioè se
V1 = V2m = V2r = w2r, ipotesi che comunque è molto più significativa per una macchina assiale), allora si
ha:
u 2 2 + w2 r 2 − w2 2
χ=
2u 2V2t
Dall’analisi del triangolo delle velocità in uscita si ha poi:
V 2 t = w2 t + u 2
w2t = w2 r cot gβ 2
w2 t 2 = w2 2 − w2 r 2
Sostituendo queste relazioni nella definizione di χ si ottiene la semplice espressione:
u 2 2 − w2 t 2 u 2 2 − ( V 2 t − u 2 ) 2 V
χ= = = 1 − 2t
2u 2V2t 2u 2V2t 2u 2
la quale, pur nell’approssimazione fatta notare, mostra come il grado di reazione risulti crescente
passando da una palettatura in avanti (V2t > u2), a palettatura radiale (V2t = u2 e quindi χ = 0.5) a
palettatura indietro (V2t < u2), con analogia a ruote Pelton e Francis, però con flusso invertito.
Curva caratteristica.
La curva caratteristica, dapprima ideale, di un compressore centrifugo può ricavarsi partendo dalla
relazione di Eulero:
E n = u 2V2t − u1V1t
In essa si ha (ingresso assiale ed uscita comunque diretta):
V1t = 0
V2t = u 2 + w2t = u 2 + w2 cos β 2
Dall’espressione della portata volumetrica in uscita:
Q = S ⋅ w2 sen β 2 = ξπD2 h2 ⋅ w2 sen β 2
in cui ξ è il coefficiente di ingombro frontale delle palette, si ottiene in definitiva:
Q
Lc = E n = u 2 2 + u 2 cot gβ 2
S
La rappresentazione di questo lavoro in funzione della portata volumetrica in uscita è la curva
caratteristica ideale, a giri costanti, riportata in Fig. 24, per palettatura all’indietro, radiale e in avanti.
Al diminuire o all’aumentare del numero di giri le curve si abbassano o si alzano di conseguenza.
Analogamente a quanto si è visto per le pompe, quando si considerano anche le varie perdite
(concentrate all’imbocco delle pale, distribuite lungo i canali delle stesse e in relazione allo slip factor,
per deviazione in uscita a causa di una certa ricircolazione all’interno dei canali stessi), la curva
caratteristica reale assume l’andamento mostrato in Fig. 25 (in cui non è però evidenziata la perdita
dovuta allo slip factor).
Risulta poi molto utile rappresentare le singole trasformazioni in un piano h-s, con riferimento anche
alle grandezze totali. Non possono più ovviamente essere trascurate in questa trattazione le varie
altezze cinetiche.
Presa d’aria.
In Fig. 27 è rappresentata la trasformazione adiabatica, ideale e reale, con le altezze cinetiche coinvolte.
Girante.
La Fig. 28 rappresenta la trasformazione adiabatica, ideale e reale, che avviene nella girante.
Fig. 28 Trasformazione adiabatica in una girante
Diffusore.
Nel diffusore avviene un certo recupero dell’energia cinetica all’uscita della girante, come
rappresentato in Fig. 29.
Per un raggio generico r > r2, e supponendo che la densità ρ si mantenga abbastanza costante, le due
equazioni scritte si riducono a:
Vt ⋅ r = cos t e
Vr ⋅ r = cos t
Rapportando ora le due equazioni si ottiene in definitiva:
Vr
= cos t = tgα 2
Vt
La paletta presenta perciò uno sviluppo con profilo a spirale di tipo logaritmico (almeno finché si
mantengono valide le ipotesi assunte).
Il rendimento adiabatico totale non può essere espresso come prodotto dei singoli rendimenti, a causa
della divergenza delle isobare.
Esso può essere invece valutato come rapporto dei due ∆ h misurati con riferimento alla stessa
pressione finale p3t a partire dal livello entalpico H0 per arrivare il primo al punto sull’isentropica
iniziale ed il secondo al punto corrispondente all’uscita dal diffusore.
Cioè in definitiva:
∆his h − H0
η ad = = 3is ,t
∆hreale H3 − H0
La Fig. 31 mostra una mappa di prestazione di un compressore centrifugo, espressa come rapporto di
compressione β in funzione della portata adimensionale Ga1/p1D2, con curve di isorendimento a diversi
regimi di rotazione (rapportati alle condizioni nominali). La linea di pompaggio (come verrà meglio
spiegato più avanti) è una linea limite per le condizioni di funzionamento stabile.
Fig. 31 Mappa di prestazione per un compressore centrifugo
La Fig. 32 mostra infine un esempio di girante centrifuga radiale per turbina a gas di tipo aeronautico.
Compressore assiale
In un compressore assiale i filetti fluidi si mantengono praticamente alla stessa distanza dall’asse di
rotazione, per cui risulta u2 = u1 = u. Un compressore assiale, non potendo beneficiare della parte di
energia trasferibile al fluido per effetto centrifugo, è generalmente costituito da un notevole numero di
stadi atti a produrre alla fine il richiesto rapporto di compressione. Ciascuno stadio, costituito da una
parte rotorica e da una parte statorica, ha un rapporto di compressione mediamente intorno a 1.2, onde
non andare incontro a fenomeni di instabilità (stallo).
Una sezione longitudinale di compressore assiale è ad esempio rappresentata in Fig. 33.
Nei compressori assiali il flusso di ingresso e di uscita può essere sia assiale che
obliquo, dacché la direzione assiale si può sempre ottenere mediante palettature
fisse (statori) in entrata e/o in uscita.
Siccome risulta:
∆Vt
w∞t = u −
2
sostituendo nella definizione del grado di reazione si ottiene nel caso specifico:
∆Vt
u−
χ= 2 = 1 − ∆Vt
u 2u
Un altro tipo di palettatura che è molto usato, negli stadi intermedi di compressori
multistadio, è quello che presenta soluzione speculare (w∞ = V∞ ), ragion per cui
l’espressione (w∞ 2 + V∞ 2) diventa minima (a pari altre condizioni), con
minimizzazione delle perdite proporzionali al quadrato delle velocità.
Siccome risulta:
u
w∞t =
2
u
χ = 2 = 0.5
u
Rendimenti.
Per il calcolo dei rendimenti ci si può ancora riferire alla trattazione vista per i
compressori centrifughi, tenendo anche qui presente come si debba di fatto
rappresentare una di seguito all’altra le compressioni nei singoli stadi, per tenere
in debito conto l’effetto causato dalla divergenza delle isobare, che produce alla
fine (a causa dei vari lavori di controrecupero) un peggioramento dei singoli
rendimenti adiabatici di stadio.
La Fig. 36 mostra una mappa di prestazione di un compressore assiale, espressa come rapporto di
compressione β in funzione della portata adimensionale Ga1/pD2, con curve di isorendimento a diversi
regimi di rotazione (rapportati alle condizioni nominali). La linea di pompaggio (come verrà meglio
spiegato più avanti) è una linea limite per le condizioni di funzionamento stabile.
La Fig. 38 mostra tre diverse situazioni di instabilità che si possono incontrare per
un compressore (la rappresentazione si riferisce più in particolare ad un
compressore assiale).
a) Stallo progressivo b) Stallo improvviso c)
Pompaggio
Stallo rotante
Con riferimento alla Fig. 38a, la perdita in prestazione risulta abbastanza piccola e
spesso la presenza dello stallo è indicata soltanto da un cambiamento in rumore
oppure dalle indicazioni di strumentazione ad alta frequenza posta all'interno della
macchina. Molto spesso questa situazione viene chiamata stallo progressivo. Il
comportamento illustrato invece in Fig. 38b porta ad una perdita molto più larga
in pressione e portata; quando il compressore va in stallo, il punto medio di
funzionamento si abbassa rapidamente seguendo la linea di regolazione
(caratteristica esterna), fino ad arrivare a fermarsi in un nuovo punto che presenta
un incremento di pressione che può essere anche solo una frazione del valore
precedente lo stallo. Questa situazione viene frequentemente chiamata stallo
improvviso.
Nel funzionamento in stallo rotante il flusso massico, totale o mediato nel tempo,
rimane costante, mentre il flusso massico locale viene a cambiare come la cella
rotante interessata si trovi a passare davanti al punto di osservazione.
Si possono avere parecchie celle in stallo oppure soltanto una; le celle possono poi
estendersi attraverso tutta la sezione anulare (stallo completo) o soltanto sopra
una parte di esso (stallo parziale). Quando la cella è in stallo completo sembra che
possa formarsi normalmente solo una cella, altrimenti, quando la cella è in stallo
parziale, possono esistere celle multiple. Lo stallo improvviso di Fig. 38b è
caratteristico di un compressore funzionante in stallo completo, mentre lo stallo
progressivo di Fig. 38a è più probabilmente tipico di un compressore per il quale si
sia instaurato uno stallo parziale. Se si effettua una ulteriore parzializzazione già
in presenza di stallo parziale, il compressore può arrivare a funzionare in stallo
completo, con una improvvisa perdita in prestazione. Le celle di stallo ruotano
sempre nello stesso verso del rotore. Celle di stallo parziale ruotano molto spesso
a circa il 50 % della velocità del rotore; celle di stallo completo ruotano
solitamente più lentamente, intorno al 20-40 %, con una velocità che aumenta
con il numero degli stadi.
Pompaggio
Il tipo di comportamento illustrato invece in Fig. 38c appare abbastanza
differente. Ora infatti la portata massica mediata su tutta la sezione anulare varia
nel tempo, così che l'intero compressore passi più o meno in fase dal non essere
in stallo all'essere in stallo e così di seguito.
Questo processo è noto col nome di pompaggio e può presentarsi in modo così
violento da invertire il segno della portata massica durante la fase di ritorno e del
gas precedentemente compresso può fuoriuscire dall'entrata. Ovvero, il processo
può essere anche molto leggero, così che il punto di funzionamento orbita intorno
al punto più alto della curva caratteristica e la principale manifestazione del
pompaggio diviene un borbottìo appena percettibile; questo comportamento è
abbastanza tipico per piccoli turbocompressori prima che un più severo
pompaggio dia luogo ad una totale inversione di flusso. Durante alcune parti del
ciclo di pompaggio, mentre il compressore è forzato ad operare a basse portate, il
flusso può essere transitoriamente in stallo rotante.
La scala dei tempi per il pompaggio è molto più lunga che per lo stallo rotante;
per una moderna turbina a gas ad uso aeronautico, la frequenza di uno stallo
rotante, rilevata da uno strumento in postazione fissa, è tipicamente intorno a 50-
100 Hz, mentre la corrispondente frequenza di pompaggio è intorno a 3-10 Hz. La
frequenza dello stallo rotante dipende dalla velocità con cui esso ruota e dal
numero delle celle, il tutto determinato dall'andamento del flusso all'interno e nei
dintorni del compressore. La frequenza del ciclo di pompaggio è stabilita dai tempi
di riempimento e svuotamento del volume a disposizione.
Una spiegazione di base per la natura dello stallo è fornita in Fig. 40, prima per
uno stallo iniziale che interessi solo un canale palare e poi quando un'ampia cella
di stallo si sia ormai stabilita interessando ben più di un canale (recenti lavori
hanno comunque mostrato che nella fase iniziale i canali interessati non sono
soltanto uno bensì parecchi, estendentisi sopra il 15 % circa della circonferenza).
Fig. 40 Meccanismo della rotazione dello stallo, all'inizio e per una larga cella di stallo.
Il blocco causato dalla cella porta ad una riduzione dell'angolo di incidenza della
pala da un lato e ad un aumento dall'altro. La pala per cui l'angolo di incidenza
aumenta tende ad andare in stallo. Lo stallo tende perciò a correre nella direzione
in cui l'incidenza aumenta: per uno stadio rotorico questo vuol dire che la cella
muove all'indietro relativamente al rotore, mentre per uno stadio statorico muove
nella direzione stessa del rotore. Vista da un osservatore fisso, la rotazione delle
celle di stallo è perciò sempre nello stesso senso di quella del rotore, ma ad una
velocità che deve essere sempre inferiore a quella del rotore. Il blocco di una cella
di stallo larga o completamente sviluppata produce anche una deflessione del
flusso in arrivo in modo da aumentare l'incidenza da un lato e ridurla dall'altro,
producendo una rotazione del disturbo.
La Fig. 41a mostra il sistema più semplice possibile, con il compressore seguito da
una valvola. La valvola è per ipotesi così vicina all'uscita del compressore da
potersi effettivamente trascurare sia il gas compresso immagazzinato che l'inerzia
del flusso, però al tempo stesso sufficientemente lontana da non subire campi di
flusso asimmetrici da parte di compressore e valvola. Tutta l'inerzia del condotto
di afflusso è pure assunta trascurabile. Un qualsiasi punto "a" di funzionamento
sul diagramma risulta incondizionatamente stabile: considerata infatti ad esempio
una piccola riduzione di flusso, questa conduce ad un aumento della pressione
lungo la caratteristica del compressore e ad una diminuzione della stessa lungo la
caratteristica di regolazione, in modo da accelerare il flusso che così aumenta
finchè l'equilibrio originale viene ripristinato. Per una piccola variazione
relativamente al punto "b", una riduzione di portata non altera sostanzialmente
l'incremento di pressione dato dal compressore, però la caduta di pressione nella
valvola è considerevolmente ridotta, cosicchè il flusso si mantiene ancora stabile.
Perfino nel punto "c" il flusso è stabile, perchè, come si può vedere, una piccola
riduzione in portata produce una caduta di pressione nella valvola più grande di
quella del compressore, cosicchè il flusso viene di nuovo accelerato verso
l'equilibrio originale.
Il punto limite per la stabilità è il punto "d", dove le pendenze delle curve del
compressore e della valvola sono le stesse e perfino una piccola riduzione in
portata può iniziare una instabilità che conduca allo stallo rotante. In mancanza di
serbatoio non si può avere immagazzinamento di massa ed il compressore non
può andare in stallo nel senso di causare oscillazioni di flusso, però il flusso
collassa e si riaggiusta in uno stallo rotante: una situazione di questo tipo è
talvolta chiamata instabilità statica.
∂ ( p 2 − p1 )
=0
∂m
Nella realtà, per la maggior parte delle installazioni di compressori sono presenti
sia effetti di inerzia per il fluido che volumi in cui il fluido possa essere
immagazzinato; si incontra allora una configurazione più simile a quella illustrata
in Fig. 41c, per la quale il punto di instabilità giace alla sinistra del picco della
curva caratteristica, senza però una corrispondente semplice espressione del
caso. E’ possibile comunque mostrare, con una simulazione teorica, come il
sistema divenga di fatto normalmente instabile solo a poca distanza a sinistra del
picco della caratteristica, cosicchè il picco stesso possa fornire una conveniente
approssimazione di lavoro per il punto di stallo o di pompaggio.
Margine di pompaggio
Per tener conto di queste incertezze è d'uso definire una quantità nota come
margine di pompaggio (anche se il compressore può non entrare in pompaggio
ma in stallo rotante, è convenzione far riferimento a margine di pompaggio e
linea di pompaggio sulla mappa operativa del compressore). Esitono diversi modi
di definire il margine di pompaggio, ma uno dei più semplici è quello illustrato in
Fig. 42, con margine di pompaggio definito dalla seguente espressione:
PRS − PRW
SM =
PRW
dove PRW è il rapporto di compressione sulla linea di lavoro per una data velocità
di rotazione e PRS è il rapporto di compressione sulla linea di pompaggio per lo
stesso valore di portata della linea di lavoro. Ad esempio, in un compressore
multistadio ad uso turbogetto è prassi insistere su un margine di pompaggio pari
a circa il 25 %.
Conseguentemente alla definizione data, la velocità corretta risulterà però più alta
per i punti sulla linea di pompaggio che non per quelli sulla linea di lavoro. Se il
funzionamento è a valor fisso di velocità sarebbe più appropriato definire un
margine di pompaggio in termini di portata in ingresso sulla linea di lavoro e sulla
linea di pompaggio per lo stesso valore della velocità corretta. Secondo questo
criterio si otterrebero però formule più complesse, per cui alla fine risulta comodo
agire direttamente sui valori numerici dettati dall’esperienza.
Isteresi
Molti compressori richiedono una portata molto più grande per uscire dallo stallo
di quanto non fosse al momento in cui lo stallo si era originariamente manifestato.
Questo effetto viene solitamente chiamato isteresi e può divenire un problema
operativo serio per compressori che abbiano una certa probabilità di finire in
stallo.
Anche nel caso delle macchine a fluido incomprimibile si può parlare di macchine
volumetriche, centripete o assiali. Di queste, le prime (cioè in sostanza le motrici
a vapore) sono praticamente scomparse, le centripete sono praticamente solo a
gas mentre le assiali sono a gas oppure a vapore, seppure con diverse
caratteristiche.
La scelta del tipo più adatto di compressore può essere fatta, in accordo con la
teoria della similitudine, sulla base ad esempio del diagramma di Balje
(rielaborazione del diagramma di Cordier), cioè del diametro specifico ∆ (o DS) in
funzione della velocità specifica Ω , come appare in Fig. 43.
Fig. 43 Diagramma per la scelta degli espansori
p
G = ρ 0 a0 A ⋅ f 1
p0
Ga0 p
2
= f 1 ; γ
p0 D p0
Ga0 p1 ND
= f
p ; γ ;
p0 D 2 0 a 0
2 2
Ga0 p 1
= B 1 − 1 = B 1 −
β
2
p0 D p0
dove B è una costante adimensionale.
Grado di reazione
Secondo la definizione classica, il grado di reazione è dato dal rapporto tra salto
entalpico nella girante e salto entalpico totale, cioè:
χ=
∆hg
=
h1 − h2 w −w + u −u
= 2 2 2 1 2 1 22 2
( 2 2
) ( 2 2
)
∆htot V
2
h0 + 0 − h2
V1 + w2 − w1 + u 1 −u 2 ( ) ( )
2
χ max = Lim χ = 1
V1 →0
per cui:
2 2
w2 − w1
χ = χ ax = 2
(
V1 + w2 − w1
2 2
)
con i due casi limite:
χ min = Lim χ = 0 e
w2 → w1
χ max = Lim χ = 1
V1 →0
Il grado di reazione non dipende dal tipo di trasformazione che avviene in turbina;
infatti la velocità in uscita dal distributore (ugello) data da:
V1 = 2( h0 − h1 ) + V0
2
Rendimenti
dove l’ultima equazione è ottenuta per sottrazione della prima dalla seconda.
In generale (con espansione sia nel distributore che nella girante e quindi con un
generico stadio a reazione) la trasformazione avviene come mostrato in Fig. 45).
L
η ad =
Lad
Fig. 45 Rappresentazione di espansione in turbina a reazione
Nel caso di stadio ad azione, siccome non si ha espansione nella girante, i punti 1
e 2 di Fig. 45 vengono a coincidere (e di conseguenza p1 = p2 ed anche w2 = w1)
e l’espansione può essere rappresentata come in Fig. 46, con la stessa definizione
di rendimento.
Rapporto caratteristico
D
u = ωR = ω e
2
V1 = 2 ⋅ ∆hd + V0
2
la prima legata alla geometria ed al regime di rotazione della macchina e la
seconda legata all’espansione che avviene nel distributore. Dalla definizione di
grado di reazione:
2
V
∆hg ∆htot − 1 2
2 V1
χ= = = 1−
∆htot ∆htot 2 ∆htot
2( 1 − χ )
V1
Da questa relazione si vede come, fissato un valore massimo per la u (legato alla
resistenza del materiale), il salto entalpico elaborabile viene individuato
scegliendo χ e u/V1.
Turbina centripeta
Risulta inoltre più robusta e meno costosa della turbina assiale, per cui trova più
frequente impiego nel campo della trazione stradale e ferroviaria.
Turbina assiale
A seconda del fluido di lavoro, gli espansori vengono poi meglio specificati come
turbine a vapore oppure come turbine a gas. Queste due classi di macchine
presentano caratteristiche abbastanza diverse in quanto i due fluidi, già di per sé
diversi, si trovano a lavorare in condizioni di pressione e temperatura non
paragonabili, per non parlare dei grossi salti entalpici che entrano in gioco quando
si tratta di vapor d’acqua. Turbine a vapore e turbine a gas verranno quindi
trattate più in dettaglio quando viste nel contesto più ampio del ciclo
termodinamico in cui vengono ad operare.
Sviluppo industriale e miglioramento nella qualità della vita sono fortemente dipendenti da una
abbondante disponibilità di energia relativamente a basso costo. La dipendenza da solo lavoro manuale
posizionerebbe una nazione nella classe delle società più primitive.
L’energia può quindi essere vista al riguardo come un fattore di moltiplicazione che aumenta
grandemente la capacità dell’uomo a trasformare materia prima in prodotti utili ed a provvedere una
grande varietà di servizi essenziali.
L’energia totale consumata annualmente in un paese è una misura del livello raggiunto dall’economia
nazionale e tale energia ha mantenuto negli anni una tendenza generale alla crescita, interrotta solo
durante gli anni della depressione (anni ’30) e nei primi anni della decade ’70, quando furono adottate
misure per la conservazione dell’energia. Per parecchie decadi, la produzione di energia elettrica (in
particolare negli U.S.A.) si è essenzialmente duplicata ogni dieci anni, con aumento dei consumi
praticamente in ogni settore dell’economia (domestica, commerciale e industriale), indicando in tal
modo un continuo miglioramento nella produttività di una nazione.
Vari tipi di centrali per la produzione di energia si sono così sviluppati negli anni, anche in maniera
disordinata e non molto rispettosa dell’ambiente; oggi, con restrizioni in termini di inquinamento, si
comincia a cercare di influenzare anche in grado elevato il progetto, la dislocazione e la conduzione di
virtualmente tutte le centrali di potenza.
Potenza può essere prodotta mediante diversi sistemi di conversione dell’energia, i più
importanti dei quali sono riportati nello schema che segue:
1. Termici
a) Impianti a vapore (motrici alternative, turbine a vapore)
b) Motori alternativi a combustione interna
c) Motori alternativi a combustione esterna
d) Turbine a gas
2. Idroelettrici
a) Fiumi come sorgente d’acqua
b) Maree come sorgente d’acqua
3. Vento
Attualmente, l’ammontare di potenza prodotta per mezzo del vento appare trascurabile.
Nonostante diffusi a livello mondiale per parecchi secoli, gli impianti per la produzione di
potenza dal vento erano di scopo limitato e confinato ad installazioni di piccola potenza.
Attualmente si costruiscono turbine con potenze fino a 2.5 – 3 MW, con velocità del vento
mediamente comprese tra 20 e 50 km/h e velocità del rotore tra 30 e 40 rpm. Le pale
sono previste a passo variabile per adeguarsi alle variabili condizioni operative ed hanno
lunghezze che di solito non superano i 40 m. Il rendimento globale (energia utile rispetto
all’energia cinetica del vento) si aggira intorno al 40 %, con un fattore di utilizzo (rapporto
tra energia prodotta in un anno ed energia producibile alla massima potenza e per 8760
ore all’anno) che normalmente si aggira intorno al 40 %.
Come per l’energia solare, anche l’energia dal vento viene supportata dai vari
Dipartimenti dell’Energia, perché energia pulita e di tipo rinnovabile. Entrambe queste
energie sono disponibili in modo intermittente ed in quantità variabile, in funzione della
locazione geografica e delle condizioni locali. Mentre però l’energia solare può essere
raccolta solo durante un periodo limitato di tempo durante il giorno, il vento può soffiare
in ogni momento ed in talune località le più alte velocità sono riscontrate nei mesi
invernali e primaverili
Potenza dall’acqua
Questo termine solitamente significa potenza generata da acqua fluente (da una diga, in
un fiume o per effetto di maree). Il percorso che normalmente si segue per lo sviluppo di
un impianto idroelettrico è di utilizzare la cascata esistente di un fiume per costruire una
diga in un opportuno punto del fiume e creare di conseguenza un certo salto motore
disponibile.
L’energia potenziale di acqua immagazzinata è energia ad alto livello, nel senso che è
energia completamente disponibile. Il tipo di turbina installata in un particolare progetto
sarà poi funzione del salto motore messo a disposizione, con rendimenti globali compresi
tra 82 e 93 %.
Per quanto riguarda lo sfruttamento delle maree, qualche impianto è stato realizzato (ad
esempio in Francia, a La Rance) per sfruttare riempimento e svuotamento di bacini, con
maree che variano da 6 a 14 m; il costo delle opere edili incide però parecchio, in quanto
si devono costruire dighe della lunghezza di parecchie centinaia di metri. Per lo
sfruttamento infine delle correnti oceaniche e di vari effetti mare motori è invece al
momento ancora difficile prevederne la convenienza economica, anche se come
confronto si prendono altre fonti non convenzionali di energia, come solare, eolica o
geotermica.
La motrice a vapore è divenuta una importante fonte di potenza verso la fine del 18esimo secolo (dal
1764) e di conseguenza l’industria correlata ha avuto pieno successo nel mantenere un programma
continuo di sviluppo ed espansione. La motrice a vapore, pur sostanzialmente migliorata, è stata poi
sostituita da altri tipi di macchine, principalmente dalla turbina a vapore, introdotta alla fine del
19esimo secolo (dal 1880). Anche i macchinari per la produzione del vapore sono avanzati dal semplice
bollitore agli attuali generatori di vapore, altamente complessi e di enormi dimensioni.
La turbina a vapore, con le sue generalmente superiori caratteristiche, ha sostituito in fretta la motrice a
vapore, particolarmente in accoppiamento con generatori elettrici. Nel suo secolo abbondante di
esistenza, miglioramenti nel progetto e nelle procedure operative hanno contribuito ad un
sostanzialmente continuo aumento nel rendimento degli impianti termoelettrici a vapore, aumento che
si è riscontrato nella tendenza verso il basso ad esempio dei consumi di carbone in questi impianti.
Turbine a gas
Il primo impianto di turbina a gas fu costruito nel 1903, ma a causa della limitazioni
imposte dal basso rendimento del compressore e dalla insufficiente qualità dei materiali
disponibili per resistere agli effetti dell’alta temperatura, questa macchina non è stata in
grado di produrre lavoro utile. A seguito dei miglioramenti tecnologici, queste limitazioni
sono state nel tempo largamente superate e lo sviluppo della turbina a gas è proceduto
velocemente, soprattutto nella categoria dei motori ad uso aeronautico, dove ha
sostituito il motore alternativo a combustione interna per la propulsione di grandi e medio
grandi aerei. Attualmente, i relativamente nuovi motori di turbina a gas vengono usati,
oltre che per la propulsione aerea, anche per generare energia elettrica, per la
propulsione navale e per trainare macchine industriali. Contrariamente alle prime
ottimistiche previsioni, la turbina a gas, per un certo numero di motivi, non è riuscita a
penetrare nel campo dell’automobile.
Dopo la prima fissione dell’atomo di uranio nel 1939, anche la generazione di potenza
attraverso una reazione controllata di fissione è diventata una possibile realtà. Gli attuali
impianti di potenza nucleare sono dei motori termici e l’energia rilasciata nel cuore del
reattore è trasferita come calore direttamente al fluido di lavoro, o ad fluido intermedio e
quindi al fluido di lavoro. Il fluido di lavoro è solitamente acqua (poi espansa come vapore
in un convenzionale turbogeneratore), mentre sodio liquido, acqua pressurizzata o elio
gassoso possono essere impiegati come fluido intermedio. Il reattore tipo breeder, che
produce tanto, o più, combustibile quanto consuma, ha ricevuto considerevole attenzione
a causa delle sue superiori caratteristiche, anche se forti opposizioni alla costruzione di
impianti nucleari di questo tipo si sono sviluppate a causa dai maggiori costi iniziali e del
rischio potenziale nell’uso del plutonio.
Dagli anni ’90 decine di impianti sono stati costruiti con singole potenze installate anche maggiori di
1000 MW. Il futuro dell’energia nucleare è in qualche modo incerto in attesa che siano risolti aspetti
quali sicurezza operativa d’impianto e destinazione dei rifiuti a lungo termine. Comunque, l’energia
nucleare continua ad offrire una delle forme meno inquinanti disponibili per generazione di potenza
elettrica su larga scala.
4.3 Combustibili
La maggior parte dei combustibili usati oggi sono di origine fossile o nucleare; ad essi
vanno poi aggiunti combustibili come biomasse, combustibili non naturali e combustibili
derivati da rifiuti.
Combustibili fossili
I combustibili fossili non appartengono alle fonti rinnovabili: una volta consumati non possono essere
sostituiti e di conseguenza essi esistono in depositi di capacità limitata. Essi si trovano in natura nelle
tre fasi della materia: solida (carbone), liquida (petrolio) e gassosa (gas naturale).
Combustibili solidi
Il carbone è rimasto il combustibile dominante a causa della sua abbondante reperibilità in molti paesi.
In Canada, ad esempio, la provincia dell’Ontario ha avuto una rapida crescita negli anni ’60 e ’70 con
una grossa richiesta di potenza, tanto che è stata costruita una stazione che, con le sue otto unità da 500
MW, rimane tuttora il più largo impianto operativo alimentato a carbone esistente al mondo.
La maggior parte del carbone è estratta meccanicamente e, dopo pulizia e classificazione, bruciata in
centrali di potenza situate vicino alla miniera oppure trasportata per essere consumata altrove.
Dal punto di vista dell’inquinamento ambientale, il contenuto di zolfo e la forma sotto cui si presenta in
un combustibile sono importanti caratteristiche. Inizialmente, durante la combustione, lo zolfo viene
ossidato prima a biossido e poi in parte a triossido.
Quest’ultimo composto si combina con vapor d’acqua condensato nei gas al camino per formare acido
solforico a bassa concentrazione. Corrosione alle superfici di scambio può essere evitata mantenendo la
temperatura superficiale al di sopra del punto di rugiada del gas.
La temperatura del punto di rugiada del gas comunque aumenta con l’aumentare del contenuto di zolfo
nel combustibile, che quindi a sua volta influenzerà la temperatura minima alla quale le superfici di
scambio possono essere mantenute.
Lo scarico di ossidi di zolfo nell’atmosfera circostante è limitato da misure di controllo
dell’inquinamento dell’aria, un fattore di cui si deve tener conto nella selezione del combustibile.
Bruciare un carbone a basso contenuto di zolfo risulta vantaggioso dal punto di vista della
minimizzazione dell’inquinamento atmosferico, sebbene altre caratteristiche del combustibile possano
creare problemi in termini di difficoltà operative.
Altre due possibilità esistono comunque per l’utilizzo del carbone, anche se ancora in fase abbastanza
sperimentale: un metodo prevede la gassificazione sotterranea del carbone, mentre l’altro effettua la
conversione di carbone in combustibile liquido o gassoso.
L’utilizzo commerciale di questi due metodi dipende ancora dalla soluzione di numerosi problemi di
natura sostanzialmente tecnica, anche se l’aspetto della competitività in termini economici è quello
sicuramente preponderante.
Combustibili liquidi
I combustibili liquidi in commercio sono prodotti principalmente dal petrolio, liquido che si incontra in
natura e che consiste principalmente in una miscela di vari idrocarburi, con piccole quantità di zolfo,
azoto, ossigeno ed anche presenza di ceneri.
L’olio crudo è comunemente classificato in base al tipo di residuo che rimane da una non distruttiva
distillazione. La distillazione frazionata di olio crudo produce, secondo punti di ebollizione crescenti:
benzina, kerosene, olio combustibile e olio lubrificante. Il taglio di olio combustibile provvede alla
maggior parte di combustibile per motori Diesel, di olio per fornaci ed il materiale grezzo di cracking
per la preparazione delle benzine. Gli oli combustibili pesanti usati per la generazione del vapore sono
normalmente oli residui dai processi di cracking.
Combustibili gassosi
Vari combustibili gassosi sono reperibili per uso industriale e domestico. In confronto con i
combustibili solidi e liquidi, un combustibile gassoso è meno difficile da maneggiare ed il processo di
combustione è relativamente libero da problemi operativi. Le caratteristiche della fase gassosa pongono
però limiti ad una conveniente commercializzazione di alcuni di questi combustibili (ad esempio
problemi di trasporto o di immagazzinamento in grandi quantità).
Il gas naturale è alla lunga il più importante combustibile gassoso. Le tubazioni di gas naturale si
estendono per centinaia di chilometri dai campi di produzione alle aree per un mercato industriale o
domestico. Compressori sistemati nelle stazioni di pompaggio lungo le linee provvedono all’aumento
di pressione necessario per compensare alle perdite di carico lungo la linea. In parecchi casi si fa
ricorso a stoccaggio di gas naturale in caverne o pozzi in disuso.
Il gas naturale è pure trasportato in forma liquefatta (LNG) in serbatoi costruiti all’uopo. Il gas di
petrolio liquefatto (LPG) è un prodotto del processo di raffineria e può anche essere ottenuto dal gas
naturale. Questi gas si comportano egregiamente nei motori a combustione interna a causa delle buone
caratteristiche di combustione e di un minor contributo in fatto di inquinamento.
Grandi quantità di gas naturale sono bruciate nelle fornaci di caldaie per la produzione di vapore in
impianti per potenza elettrica.
Il principale componente del gas naturale è il metano. Quantità trascurabili di etano e idrocarburi
pesanti, assieme ad anidride carbonica ed azoto, completano la composizione. I componenti non
combustibili vanno solitamente da 1 a 5 % in volume.
I rifiuti solidi urbani possono infatti essere convertiti mediante pirolisi (decomposizione
termica di una sostanza in assenza di ossigeno) in gas combustibile. Il prodotto, in questo
caso, è un gas ad energia intermedia (circa il 70 % del contenuto termico del materiale di
rifiuto originario), che può essere usato per generazione di potenza o come fonte di
calore in vari processi.
Una continua domanda per una produzione di potenza sempre più pulita e accettabile da
un punto di vista del rispetto dell’ambiente ha portato allo sviluppo di metodi come la
conversione del carbone o la sua combustione in letto fluido atmosferico, del tipo soffiato
o a ricircolazione, onde ridurre le emissioni, in particolare legate alla presenza di zolfo.
Con una domanda di potenza sempre crescente, diventa necessario costruire molte
stazioni addizionali a vapore e sviluppare i siti che ancora rimangono per uno
sfruttamento di tipo idroelettrico. Alcuni di questi siti non sviluppati non sono però
particolarmente attraenti per la costruzione di impianti di potenza, a causa degli alti costi
di investimento (erezione di lunghi elettrodotti, restrizioni ambientali, acquisizione di
terreni, imponenti opere edilizie per dighe e centrali).
Gli impianti a vapore a loro volta richiedono comunque ampia disponibilità di acqua di
raffreddamento ed adeguate soluzioni per il trasporto del combustibile. Dei due, il più
critico è un quasi illimitato uso di acqua per il raffreddamento negli impianti
termoelettrici, non più consentito nella maggioranza delle località: da qui la necessità di
risolvere il problema ricorrendo al raffreddamento da aria, con alti costi addizionali.
L’impianto di potenza con turbina a gas non può ancora considerarsi una unità primaria
per generazione di potenza, usato com’è per soddisfare picchi di richiesta o in grosse
centrali per servizi ausiliari. La turbina a gas risulta infatti particolarmente adatta a
questo scopo, con tempi di consegna e di installazione comparativamente corti; la
macchina inoltre può essere assoggettata a partenza quasi a freddo e a carico
immediato.
Il continuo aumento nella richiesta di potenza elettrica può essere soddisfatto anche
mediante espansione di impianti a vapore già esistenti, con miglioramenti in termini di
rendimento termico per aumentati valori di pressione e temperatura per il vapore (questo
ancor più possibile in centrali nucleari).
Il ciclo a vapore convenzionale rimane il più diffuso tra i vari impianti, con un aumentato
ricorso ad alte pressioni e temperature del vapore, risurriscaldatori, economizzatori e
preriscaldatori d’aria che ha portato ad aumentati rendimenti nei moderni cicli a vapore.
Un significativo aumento nel rendimento di una centrale termoelettrica può ottenersi
mediante l'introduzione di tipi avanzati di cicli combinati, partendo dal recupero di calore
da motori a combustione interna scaricato su di un impianto a vapore, per arrivare alla
turbina a gas i cui gas di scarico servono (con eventuale ricombustione) ad evaporare
l’acqua del generatore di un impianto a vapore situato a valle.
Da un punto di vista teorico, la sorgente finita di energia del gas di scarico del motore
può essere pensata come energia trasferita ad una serie di motori reversibili elementari,
come mostrato in Fig. 1. Ciascun motore elementare riceve reversibilmente una quantità
di calore dQ alla temperatura T e rigetta reversibilmente una quantità di calore dQr alla
temperatura T0 all’atmosfera.
Il primo motore della serie riceve calore alla temperatura T1 e l’ultimo motore della serie
riceve calore alla temperatura T0 + dT (con T0 = T2 = T3).
T
dL = 1 − 0 dQ dove
T
dQ = c p dT
Sostituendo si ha:
dT
dL = c p dT − T0
T
T T
L = c p ( T2 − T1 ) − T0 ln 2 = c p ( T0 − T1 ) − T0 ln 0
T1 T1
Confrontato con il lavoro fatto dal motore primo, il lavoro L così calcolato risulta di solito
tutt’altro che insignificante, anche se poi nella realtà il recupero di energia da gas di
scarico si manifesta molto meno promettente, a causa delle varie irreversibilità e dei
maggiori costi impiantistici. Il recupero energetico in un ciclo ad esempio combinato con
un motore secondario a ciclo Rankine è comunque una possibilità che non deve essere
scartata a priori, anche se le temperature di scarico di un motore a combustione interna
non sono di solito sufficientemente alte per cui il guadagno conseguibile difficilmente
supera il 10 %, non sempre sufficiente a coprire i maggiori costi di investimento.
Due schemi generali sono disponibili per combinare i cicli di potenza a vapore ed a gas.
Nel primo, i gas caldi di scarico della turbina a gas servono come mezzo di combustione
per il riscaldamento in caldaia. Secondo questo sistema, la combustione del combustibile
è effettuata in due punti del ciclo, cioè nel combustore della turbina a gas e nella fornace
della caldaia, come mostrato in Fig. 2. In taluni casi si può impiegare una caldaia a vapore
in cui non venga bruciato combustibile.
Fig. 2 Impianto di potenza a ciclo combinato turbina a gas/vapore
Nel secondo caso, il processo di combustione per la turbina a gas viene combinato con quello della
caldaia e quindi tutto il combustibile è bruciato nella fornace pressurizzata di caldaia, come mostrato in
Fig. 3.
Il guadagno in rendimento risulta inerentemente più alto nel secondo caso che non nel
primo, mentre per il primo si ha il vantaggio di poter operare indipendentemente le due
parti del sistema, quando richiesto, e di non dover pressurizzare la caldaia.
Lo sviluppo del ciclo combinato di Fig. 2 per applicazioni commerciali ha dato luogo a tre
variazioni rispetto allo schema base e cioè:
Per quanto riguarda il ciclo di Fig. 3, siccome la fornace deve essere pressurizzata a
parecchie atmosfere, la costruzione del generatore di vapore deve necessariamente
differire in modo significativo dalla pratica corrente, per cui la sua diffusione è
commercialmente molto meno estesa.
5. CICLI A VAPORE
Mediante un ciclo Rankine, a vapor d’acqua, è possibile convertire in lavoro parte del
calore fornito al generatore di vapore; il fluido di lavoro, percorrendo le diverse fasi del
ciclo, subisce trasformazioni termodinamiche conformemente allo schema di impianto di
Fig. 1a ed alla rappresentazione nel piano T-s di Fig. 1b (ciclo ideale).
Trasformazioni termodinamiche
Molto spesso per la rappresentazione del ciclo Rankine si ricorre al piano h-s (diagramma
di Mollier), come mostrato in Fig. 2, per comodità nella lettura diretta sia dei calori che
dei lavori.
Gvap
x=
Gvap + Gacq
h7 − h1 = r
∆h = c p ∆T
in quanto un fluido che cambia di stato non rispetta l’equazione dei gas perfetti,
risultando infatti cp → ∞ .
Se poi del kg di acqua evapora solo la quantità x, il calore che deve essere fornito risulta
minore del calore latente di vaporizzazione e vale difatti:
hx − h1 = r ⋅ x
Ad esempio per il punto 6 (in cui il vapore ha titolo x6) si può scrivere:
h6 − h1 = r ⋅ x6 = ( h7 − h1 ) x6
h6 − h1
x6 =
h7 − h1
equazione che si può anche scrivere sostituendo le entropie al posto delle entalpie (in
quanto il segmento 1-7 è un tratto di retta e cioè, all’interno della curva di Andrews,
esiste proporzionalità tra entalpia ed entropia).
In definitiva, all’interno della curva di Andrews, vale la regola della leva, cioè:
h6 = h1 ( 1 − x6 ) + h7 x6
Rendimenti
Con riferimento al caso ideale, si definisce rendimento termico ideale del ciclo il rapporto
fra il lavoro ottenibile idealmente ed il calore speso (entrante nel ciclo):
Lid
η id =
Q1,id
Il lavoro utile ideale è la differenza tra lavoro della turbina e lavoro della pompa, calcolati
lungo trasformazioni isentropiche.
dove:
L' P = ( p 2 − p1 ) ⋅ v
Nel caso reale le trasformazioni non sono più isentropiche, per cui, tenendo conto anche
dei rendimenti organici, si ha:
Lu LT ⋅η ot − LP / η op
η= =
Q1 Q1
dove:
LT = L'T ⋅η T = h5 − h6
L' P ( p 2 − p1 ) ⋅ v
LP = =
ηP ηP
Q1 = h5 − h2
I punti 2’ e 2 sono così vicini tra di loro che solitamente vengono confusi l’uno con l’altro.
Volendo invece essere un pò più precisi, l’energia dissipata nella pompa può calcolarsi
come differenza tra i due lavori, reale e ideale, cioè:
Ldiss = LP − L' P = LP ( 1 − η P )
Se ora si fa l’ipotesi, per eccesso, che tutta l’energia dissipata finisca in calore, si ottiene
il massimo riscaldamento che l’acqua può subire, e cioè:
Ldiss LP
∆Tdiss = = (1 −η P )
cl cl
Si definisce poi consumo specifico di vapore qv il consumo di vapore (in kgv) per unità di
energia prodotta:
1 kg v
qv = kJ
Lu
consumo specifico di calore qc il consumo di calore (kJ) per unità di energia prodotta:
kJ
q c = q v ( h5 − h2 ) kJ
qc kg b
qb = kJ
ηb ⋅ H i
Q1 / η b H i
qb =
Lu
Con riferimento alla Fig. 3 si può vedere come un ciclo Rankine ideale si possa scomporre
in tre cicli, distinguendo così, da un punto di vista del calore fornito al fluido di lavoro, una
parte iniziale di riscaldamento del liquido, una parte centrale di evaporazione ed una
parte finale di surriscaldamento.
Per ciascuno dei tre cicli elementari il rendimento può essere definito come segue:
L'
η' =
Q1'
L' '
η' ' =
Q1' '
L L' + L' ' + L' ' ' η' Q1' +η' ' Q1' ' +η' ' ' Q1' ' '
η= = =
Q1 Q1 Q1
Tenendo come riferimento il ciclo centrale (che è un ciclo di Carnot) avente un calore
entrante Q1’’ (isotermobarica 3-4) ed un calore uscente Q2’’ valutato a temperatura
inferiore ma a pari ∆ s, si vede facilmente come per il ciclo di riscaldamento risulti η ’ <
η ’’ mentre per quello di surriscaldamento si abbia η ’’’ > η ’’. Infatti, nel primo caso, a
pari calore entrante riportato alla temperatura T3 corrisponde alla temperatura T1 un
maggior calore scaricato rispetto al corrispondente ciclo di Carnot (la differenza in più è
l’area tratteggiata a sinistra); similmente, nel secondo caso, a pari calore entrante
riportato sempre alla stessa temperatura T3 corrisponde alla temperatura T1 ora un minor
calore scaricato rispetto al nuovo corrispondente ciclo di Carnot (la differenza in meno è
ora l’area tratteggiata a destra).
Questa semplice analisi mostra come, per migliorare il rendimento globale del ciclo, si
debba agire, per il ciclo centrale, in modo da distanziare tra loro le temperature delle due
sorgenti; per il ciclo di sinistra eliminare l’effetto negativo dovuto alla temperatura di
riscaldo che passa da T2 a T3; per il ciclo di destra innalzare il più possibile la temperatura
di fine surriscaldo. Cioè, in definitiva, mettere in atto i seguenti punti:
Per dimostrare che la pratica è vantaggiosa basterebbe far vedere come il rapporto delle
due aree sia maggiore del rendimento del ciclo di riferimento. Per la verità tale rapporto
risulta addirittura maggiore di uno, per cui tale vantaggio appare fuori discussione. Infatti,
supposto sufficientemente piccolo l’abbassamento di temperatura, si può scrivere:
rk x k
∆L = ∆s ⋅ ∆Tk = ∆Tk
Tk
∆Q1 = cl ∆Tk
∆L rk x k
∆η = =
∆Q1 cl Tk
2409 ⋅ 0.9
∆η = = 1.66
4.186 ⋅ 312
Chiaramente questo valore di rendimento del ciclo addizionale non deve ritenersi assurdo
in quanto il ciclo addizionale risulta separato dal ciclo di riferimento solo in modo del tutto
convenzionale.
Così come ottenuto il vantaggio è indipendente dal ∆ Tk, cioè è sempre conveniente
abbassare la temperatura di condensazione. Dal punto di vista pratico bisogna però tener
conto del fatto che contemporaneamente, diminuendo anche la pressione, aumenta
sensibilmente il valore del volume specifico e quindi aumentano di conseguenza le
dimensioni della macchina negli ultimi stadi di espansione. Inoltre, esiste comunque un
limite dato dalla temperatura del liquido di raffreddamento, che deve essere sempre
inferiore di alcuni gradi centigradi alla temperatura di condensazione.
La Fig. 6 mostra come varia il rendimento globale del ciclo (a trasformazioni ideali) in
funzione della pressione massima, in diverse configurazioni.
Surriscaldamento
L’importanza del surriscaldamento dal punto di vista termodinamico non è normalmente
molto grande (a meno che si possano innalzare di molto i valori massimi sia di
temperatura che di pressione, come mostrato in Fig. 7; la pratica è comunque limitata
dalla resistenza meccanica dei materiali impiegati).
Fig. 7 Rendimento del ciclo limite in funzione della pressione max (temperatura max
come parametro)
Orientativamente si consiglia di non scendere con il titolo al di sotto di 0.85 negli impianti
di piccola taglia e di 0.92 negli impianti di grande potenza. Per rientrare entro tali limiti è
necessario ricorrere ad uno o più risurriscaldamenti intermedi, i quali comportano anche
un certo beneficio nel rendimento rendendo però al tempo stesso più complicato e
costoso l’impianto in generale.
Rigenerazione
Come visto, la fase di riscaldamento del liquido è quella che più pesa nell’abbassare il
rendimento globale del ciclo Rankine, in quanto la temperatura della sorgente superiore è
mediamente alquanto più bassa della temperatura di vaporizzazione, che è la
temperatura della sorgente superiore del ciclo centrale (assimilabile ad un ciclo di
Carnot).
Si consideri ora un ciclo a vapor saturo rigenerativo come quello rappresentato in Fig. 10,
per il quale il fluido di lavoro, dopo aver lasciato la pompa, circola in qualche modo
nell’involucro della turbina, in controcorrente rispetto alla direzione del flusso in turbina.
In uno scambio termico di tipo reversibile, in ogni punto la temperatura del vapore è più
alta di un infinitesimo rispetto alla temperatura del liquido.
In questo caso, la linea 4-5, che rappresenta le condizioni del vapore che fluisce in
turbina, è esattamente parallela alla linea 1-2-3, che rappresenta la trasformazione in
pompa 1-2 e le condizioni del liquido che fluisce nell’involucro di turbina. Di
conseguenza, le aree sottese 2-3-b-a-2 e 5-4-d-c-5 non solo sono uguali, ma anche
congrue e rappresentano il calore trasferito al liquido dal vapore. Da notare che calore
entrante e calore uscente sono gli stessi nei due cicli rigenerativo e centrale, per cui
questo ciclo rigenerativo ideale ha un rendimento esattamente uguale a quello di un ciclo
di Carnot operante tra gli stessi livelli di temperatura di sorgente.
Ovviamente questo ciclo rigenerativo ideale non può essere di pratica applicazione, in
quanto per primo non è possibile effettuare il necessario scambio di calore dal vapore in
turbina al liquido di alimento. Inoltre, il titolo del vapore che lascia la turbina risulta
considerevolmente più basso a causa del calore scambiato, coi noti problemi dovuti
all’eccessiva presenza di acqua nel vapore.
Il ciclo rigenerativo nella pratica corrente presuppone così lo spillamento di una parte del
vapore dopo che questo si è parzialmente espanso in turbina e l’uso di preriscaldatori
dell’acqua di alimento (rigeneratori), come mostrato in Fig. 11.
Il vapore entra in turbina alle condizioni 5 (vapore surriscaldato). Dopo espansione fino
alle condizioni 6, una parte del vapore viene spillata ed entra nel preriscaldatore
dell’acqua di alimento (rigeneratore). Il vapore non spillato espande in turbina fino alle
condizioni 7 e condensa poi nel condensatore. Questo condensato viene pompato fino al
rigeneratore dove viene in contatto con il vapore spillato dalla turbina. La quantità di
vapore spillato coincide esattamente con quella necessaria per portare il liquido che
lascia il rigeneratore ad essere saturato alle condizioni 3. Da notare che il liquido non è
stato pompato fino alla pressione di vaporizzazione del generatore di vapore, ma soltanto
fino ad un valore di pressione intermedia corrispondente a quella del punto 6. Un’altra
pompa si rende quindi necessaria per pompare il liquido che lascia il rigeneratore fino alla
pressione di vaporizzazione del generatore di vapore. Importante notare che la
temperatura media alla quale il calore viene fornito risulta di conseguenza aumentata.
Il rigeneratore cui si è fatto finora riferimento è tipo degasatore, cioè a miscela con
vapore e liquido ovviamente alla stessa temperatura e pressione (liquido in presenza del
proprio vapore). Solitamente i rigeneratori sono previsti in un certo numero, di cui uno
solo è del tipo a miscela mentre gli altri sono del tipo a fluidi separati, in cui il calore è
trasferito dal vapore spillato, che condensa all’esterno dei tubi, all’acqua di alimento, che
fluisce all’interno dei tubi stessi, come mostrato schematicamente in Fig. 12.
In questo schema il condensato può essere pompato nella linea dell’acqua di alimento, o
può essere rimosso attraverso una specie di trappola (dispositivo che consente al liquido
ma non al vapore di fluire verso una regione a più bassa pressione) verso un rigeneratore
a più bassa pressione o verso il condensatore principale.
La scelta delle varie pressioni a cui il vapore deve essere spillato per usi rigenerativi è
fatta in base a criteri di ottimizzazione dell’intero ciclo.
A titolo di esempio si può far riferimento alla Fig. 13 per la quale si assume che l’acqua di
alimento abbia in uscita un valore di temperatura uguale a quello del vapore condensante
(come se il rigeneratore fosse del tipo a miscela o avesse comunque superficie di
scambio infinita).
h2 − h5
∆s1 = ( s 2 − s 5 ) −
T2
h2 − h5 h5 − h1 T T
Σ∆s = ∆s1 + ∆s 2 = s 2 − s1 − − = s 2 − s1 − c pl 1 − 5 + 1 − 1
T2 T5 T2 T5
Imponendo la condizione:
∂Σ∆s
=0
∂T5
−
1
T2
( −2
− T1 − T5 = 0)
da cui si ottiene:
T5 = T1T2
Il metodo di calcolo si può poi estendere a più rigeneratori e si possono infine includere
nei sistemi in cui si produce entropia non solo gli scambiatori ma anche i condotti in cui si
ha passaggio di acqua o di vapore, in modo da tener conto anche delle irreversibilità
dovute alle perdite di carico ed al raffreddamento delle condense.
Non si deve poi dimenticare che non di rado problemi di carattere costruttivo ed
economico possono avere la preminenza sull’aspetto puramente termodinamico del
problema.
Se si vuole infine conoscere il rendimento per un ciclo Rankine di tipo rigenerativo occorre
riscrivere le formule tenendo conto della variabilità della massa che lavora durante
l’intera espansione.
Le frazioni spillate (in numero di z) comportano una diminuzione nel lavoro di turbina che
risulta così proporzionale alla frazione rimanente di massa che lavora; cioè il lavoro totale
della turbina può calcolarsi con l’espressione:
z
k
LT = ∑ 1 − ∑ mi ⋅ ( ∆hT ) k
1 1
in cui mi sono le varie frazioni (rispetto all’unità iniziale) spillate ed i singoli ∆ hT i salti
entalpici (reali) valutati tra i due spillamenti successivi mk ed mk+1.
Se ora ∆ hgv è il calore fornito all’unità di massa del fluido nel generatore di vapore, il
rendimento per un ciclo Rankine rigenerativo (trascurando il lavoro delle varie pompe) si
può calcolare con la relazione:
L ∑ ( 1 − m ) ⋅ ( ∆h )
i T i
η= T = 1
Q1 ∆hgv
Oppure si può fare riferimento al calore scaricato al condensatore, sempre valutato per la
frazione di massa che quivi arriva; se allora r·x è il calore di condensazione e 1-Σ mi la
frazione di massa che interessa il condensatore, il rendimento può esprimersi anche con
la relazione equivalente:
Q2 z
r⋅x
η = 1− = 1 − 1 − ∑ mi
Q1 1 ∆hgv
Anche le espressioni per il calcolo dei vari consumi specifici devono poi adeguarsi alla non
costanza della portata durante l’espansione ed in definitiva alle diverse definizioni di
lavoro utile e calore effettivamente introdotto conformemente alla realtà del ciclo
Rankine rigenerativo adottato.
Nel campo delle motrici a vapore le turbine hanno praticamente soppiantato il motore
volumetrico alternativo, storicamente nato per primo ma caduto ormai in disuso a causa
delle limitate quantità di vapore elaborate e quindi delle piccole potenze erogate.
Dei vari tipi di turbina a vapore (assiale, radiale, mista) verranno di seguito considerate
solo le turbine assiali (di gran lunga le più diffuse), con palettatura ad azione, a reazione,
mista ad azione e reazione.
Una turbina di questo tipo (detta di De Laval e illustrata in Fig. 14) consta
sostanzialmente di un albero sul quale è calettata una ruota che porta le palette su cui
viene ammesso il vapore attraverso uno o più ugelli distributori.
d
2 2
V0 V
h0 + = h1 + 1
2 2
V1id = 2 ∆his
V2 cos α 2 = V1 id cos α 1 − 2u
2
V
E n = 1 id
2
Il rendimento ideale è quindi dato dal rapporto:
1
kp = cos α 1
2
η id ,max = cos 2 α 1
Nel caso ideale nelle condizioni di ottimo si verifica immediatamente che la V2 presenta
direzione assiale ed è quindi minima in modulo (è infatti l’unica perdita in gioco).
Invece di una palettatura simmetrica si adotta in taluni casi una palettatura asimmetrica
(con angolo β 2 > 180° - β 1): tale pratica (un po’ più laboriosa dal punto di vista
costruttivo) produce gli stessi vantaggi e svantaggi dell’aumento dell’angolo α 1.
Nel caso reale bisogna tener conto delle resistenze passive sia nel distributore che nei
canali tra le palette della ruota della ruota, moltiplicando velocità assoluta e relativa per i
rispettivi coefficienti riduttivi:
V1 = ϕ 2 ∆his
w2 = ψw1
Siccome risulta:
Il rendimento si calcola quindi come rapporto tra questo lavoro ed il salto ideale messo a
disposizione, cioè:
u ( 1 + ψ )(V1 cos α 1 − u )
= 2ϕ 2 ( 1 + ψ ) k p ( cos α 1 − k p )
L
η= =2
∆his V1
2
ϕ
1
kp = cos α 1
2
massimo di rendimento che nel caso reale risulta penalizzato dai due coefficienti riduttivi
delle velocità e che perciò vale:
1 +ψ
η max = ϕ 2 cos 2 α 1
2
Sul diagramma di Mollier (piano h-s per il vapor d’acqua) è possibile rappresentare la
linea effettiva di espansione, tenendo conto delle varie perdite, come mostrato in Fig. 17.
Le varie perdite risultano calcolabili una di seguito all’altra, dalle perdite nel distributore,
alle perdite nei canali tra le palette e alla perdita per energia cinetica allo scarico; inoltre,
si sono considerate anche le perdite per attrito sul disco della girante e per effetto
ventilante, in quanto gli ugelli del distributore solitamente non interessano tutta la
circonferenza.
L’espressione della potenza dissipata per attrito sui dischi è del tipo:
' u3d 2
Pw = C1
v
in quanto tale potenza è data dal prodotto della resistenza di attrito, che risulta
proporzionale al quadrato della velocità relativa ad esso (cioè la velocità periferica u), alla
superficie (cioè al quadrato del diametro del disco d) ed alla densità del mezzo (cioè 1/v)
per la velocità periferica u, essendo il moto di tipo rotatorio.
L’espressione della potenza dissipata per effetto ventilante è invece data da:
'' u 3 εdl
Pw = C 2
v
in quanto le palette non attive (l’area degli ugelli interessati dal vapore è una frazione 1 -
ε dell’intera area disponibile) agiscono sul fluido come una grossolana pompa, dissipando
una potenza data dalla prevalenza (proporzionale al prodotto di due velocità o al
quadrato di una di esse, ad esempio la u) moltiplicata per la portata (proporzionale a sua
volta al prodotto di una velocità, ad esempio sempre la u, per la densità 1/v e per l’area
della sezione di passaggio ε dl, con l altezza di paletta).
1 V1 1 V1 2
2
h A − hH = − V
2
= − 1
2 ϕ 2
1 ϕ 2 2
( ) (
2
hB − h A =
1 2
2
2 w
w1 − w2 = 1 − ψ 2 1
2
)
2
V
hC − hB = 2
2
Pw
hD − hC =
G
dove con Pw si è intesa la potenza dissipata, somma di Pw’ e Pw’’ e con G la portata di
vapore che interessa lo stadio.
hO − hD
ηθ =
hO − hH
2u
d=
ω
Se con G si intende la portata massica di vapore, si può allora scrivere:
Gv A = V1a ξπdl
dove vA è il volume specifico del vapore all’uscita dal distributore, V1a la componente
assiale della velocità nello stesso punto, ξ il coefficiente di ingombro frontale delle palette
mobili (la sezione effettiva di passaggio è di fatto ridotta dello spessore delle pale, con
una riduzione dell’ordine di qualche percento) ed l la loro altezza in ingresso, che si può
così calcolare essendo note tutte le altre grandezze.
Quando dai calcoli risulta un’altezza di paletta troppo piccola (deve infatti essere l/d >
0.02 con un minimo per l pari a circa 10-12 mm), si deve limitare la corona degli ugelli
alla sola frazione 1 - ε della periferia (turbina a grado di parzializzazione ε ).
In questo caso l’incognita diviene ε (in quanto l assume il minimo valore consigliato) e
quindi l’equazione della portata assume la seguente espressione:
Gv A = V1a ξπdl ( 1 − ε )
L’arco utile (1 - ε )π d può poi essere suddiviso in più settori, sia per facilità di costruzione
che, e soprattutto, per ragioni di regolazione.
Il salto isentropico elaborabile in uno stadio semplice ad azione, calcolabile in base alla
relazione:
2
Vid 1 u2
∆his = =
2 2ϕ 2 u 2
V1
è limitato dai valori di u imposti dalla resistenza meccanica del materiale (solitamente si
assume u = 250-300 m/s) e dal valore di ottimo del rapporto caratteristico kp = u/V1.
2 C1 u d + C 2 u dlεξ
' ''
Pw + Pw 3 2 3
δηθ = = 2ϕ
G ⋅ ∆his 2
GV1 v
d
C1+ C2ε 3
ξl u
δηθ = 2ϕ 2
π ( 1 − ε ) senα 1 V1
Si vede cioè che queste perdite di rendimento (dovute a Pw’ e Pw’’) sono funzione del cubo
del rapporto caratteristico, che conviene così essere il più piccolo possibile (questo spiega
anche perchè, per inciso, una turbina reale presenti un valore di kp leggermente inferiore
al valore di ottimo).
Una turbina assiale ad azione a salti di velocità consente di riutilizzare l’energia cinetica
di scarico delle palette rotanti, raccogliendo così il vapore in un raddrizzatore che lo invia
con la direzione opportuna ad una seconda serie di palette mobili, secondo una pratica
che può essere ripetuta più volte, come mostrato ad esempio in Fig. 18.
Teoricamente il numero dei salti di velocità può essere esteso a piacere; in pratica però ci
si limita a due o tre salti (onde limitare le perdite che nella realtà tenderebbero poi a
diventare così onerose da sconsigliarne l’uso).
Nella trattazione che segue si fa riferimento, nel caso ideale, a due soli salti di velocità,
per poi estendere il risultato a z salti.
Dando già per scontato che il rendimento, nel caso ideale, sia massimo quando la
velocità allo scarico è diretta radialmente, si può fare riferimento ai triangoli di
velocità di Fig. 19 (costruiti per palettatura simmetrica).
Fig. 19 Triangoli di velocità per turbina Curtis a due salti di velocità
( ' '
) (
Le = u V1t − V2 t + u V1t − V2 t
'' ''
)
Tenendo conto dei segni risulta:
∑k
1
i ,disp = z2
Le = 2 zu (V1 cos α 1 − zu )
2
V1
Lid = Lis =
2
u u
ηθ = 4 z cos α 1 − z
V1 V1
Si ottiene cioè una famiglia di parabole ad asse verticale con η nullo per rapporto
caratteristico nullo oppure pari a:
u cos α 1
kp = =
V1 z
u cos α 1
k p ,opt = =
V1 opt 2z
Nel caso reale occorre tener conto dei vari coefficienti riduttivi delle velocità, cioè:
V1 = ϕ ' 2 ∆his
'
w2 = ψ ' w1
' '
V1 = ϕ '' V2
'' '
w2 = ψ '' w1
'' ''
I triangoli delle velocità sono rappresentati, per una macchina reale a due salti, in Fig. 21.
Fig. 21 Triangoli di velocità per ruota Curtis reale
( )(
Le = 1 + ψ ' V1 cos α 1 − u u
' '
)
( )(
Le = 1 + ψ '' V1 cos α 1 − u u
'' '' ''
)
e quindi sinteticamente:
Le u
ηθ = = 2ϕ' 2 ' A cos α 1' − ( A + B ) u '
Lis V
V1 1
u A cos α 1
'
k p ,opt = =
V1 opt A + B 2
1 A2
η max = ϕ' 2 cos 2 α 1
'
2 A+ B
Come si vede il massimo di rendimento si abbassa sempre di più al crescere del numero
dei salti, perchè si sommano sempre nuove perdite, mentre l’energia disponibile di
confronto rimane sempre la stessa e cioè V1’2/2ϕ ’2.
Il maggior sfruttamento della macchina Curtis viene perciò pagato con una diminuzione di
rendimento, che comporta alla fine un innalzamento delle condizioni termodinamiche del
vapore in uscita.
Linea delle condizioni effettive del vapore per una ruota Curtis a due salti
In Fig. 23 viene mostrata nel piano h-s l’espansione effettiva del vapore, con evidenziate
le varie perdite, definite come segue:
1 V '2
h1' −h1is ' = 2 − 1 1
ϕ 1' 2
w1' 2
(
h2 ' −h1' = 1 − ψ ' 2
) 2
2
(
h1' ' − h2 ' = 1 − ϕ' ' 2 ) V 2'
2
2
(
h2 ' ' −h1' ' = 1 − ψ ' ' 2 ) w 2' '
1
V2 ' ' 2
h A − h2 ' ' =
2
Infine, la perdita hB – hA per attrito del disco rimane praticamente la stessa, mentre la
perdita hC – hB per effetto ventilante deve tener conto del numero delle ruote
parzializzate.
Si può considerare questa disposizione, mostrata in Fig. 24, come un mezzo analogo ai
salti di velocità, ma ancor più vantaggioso nel poter comunque spingere secondo
necessità il frazionamento della caduta termica, aumentando semplicemente il numero
degli elementi in serie.
Ricorrendo a salti di pressione invece che a salti di velocità si possono conseguire migliori
rendimenti termodinamici, in quanto si possono evitare i forti valori di velocità, assoluta e
relativa, tipici delle ruote Curtis, che danno luogo ad altrettanto forti perdite in termini di
lavoro. Risulta inoltre possibile un certo recupero dell’energia cinetica della velocità di
scarico dell’elemento precedente.
Viceversa, la soluzione a salti di pressione introduce una nuova perdita per fughe di
vapore attraverso le imperfette tenute sull’albero e si presenta per questo e per il
maggior numero di piastre ugelli di più complicata realizzazione costruttiva.
Nel calcolo delle condizioni effettive del vapore, alla fine di ciascuno stadio, si deve tener
conto dell’energia cinetica dovuta alla velocità di scarico dell’elemento precedente
(magari una parte come salto entalpico nel distributore e l’altra come perdita effettiva
allo scarico), distinguendo così primo stadio, stadi intermedi e ultimo stadio. Occorre
inoltre tener conto di un aumento di entalpia hD’’ - hC’’ (C’’ sarebbe il punto
rappresentativo, come in Fig. 23, delle condizioni finali del vapore ad una certa pressione
p’’), dovuto al mescolamento nella camera in cui sbocca il vapore scaricato dalla girante,
di questo con il vapore sfuggito attraverso il setto e che ha conservato, laminandosi, la
sua entalpia originaria.
L’entalpia finale hD’’ della miscela risulta uguale alla somma delle entalpie delle due
masse η v e 1-η v che si mescolano (dove η v è il rendimento volumetrico), calcolabile
mediante la seguente espressione:
hD'' = η v hC'' + ( 1 − η v ) hD'
Una soluzione di questo tipo viene usata quando è notevole il salto entalpico a
disposizione e si vogliono quindi raggiungere velocemente condizioni di vapore
sufficientemente espanso per poter abbandonare la parzializzazione e passare di
conseguenza a stadi a reazione (a maggior rendimento). Esistono comunque esempi
anche di macchine di limitata potenza per le quali si adotta questa soluzione più semplice
dal punto di vista costruttivo, pur a scapito di minori rendimenti.
Fattore di recupero
y=
∑h ad
H ad
H e = η ad he
H e = ∑ he
H ad < ∑ had
e quindi in definitiva (se, per semplicità, i singoli rendimenti termodinamici sono uguali
tra loro e pari a η θ ):
η ad > ηθ
η ad
y=
ηθ
Il fattore di recupero solitamente si mantiene tra 1.05 e 1.1 e risulta tanto maggiore
quanto maggiori sono il rapporto di espansione e le perdite in ciascuno stadio, come già
visto a proposito del lavoro di recupero che si manifesta in una espansione in turbina.
In una turbina a reazione sia nello statore che nella girante si ha variazione di pressione
tra monte e valle; anche nei condotti mobili quindi una certa caduta termica viene
trasformata in energia cinetica, con aumento della velocità relativa.
Supponendo di adottare (a velocità meridiana costante, cioè con V2a = V1a) una
palettatura simmetrica, i triangoli di velocità risultano in generale come quelli di Fig. 27.
w2 = V1
V2 = w1
w1 = V1 + u 2 − 2uV1 cos α 1
2 2
∆had =
1 2
2
( 2 2 1 2
2
) ( 1
) [
V1 + w2 − w1 = V1 − u 2 + 2uV1 cos α 1 = V1 + u ( 2V1 cos α 1 − u )
2
]
Il rendimento in queste condizioni, cioè con la sola perdita dell’energia cinetica di scarico,
vale così:
u
2 cos α 1 −
Le 2V1 cos α 1 − u u V1
ηθid = = 2u 2 = 2
∆h ad V1 + u ( 2V1 cos α 1 − u ) V1 u u
1 + 2 cos α 1 −
V1 V1
Il rendimento termodinamico ideale in funzione del rapporto caratteristico non è più una
parabola (come nel caso delle turbine ad azione), ma è pur sempre una curva simmetrica
rispetto ad un asse di ascissa:
u
= cos α 1
V1 opt
In condizioni di ottimo si vede poi che V2 = V2a ed inoltre che il rendimento massimo vale:
2 cos 2 α 1
ηθid ,max =
1 + cos 2 α 1
2
u
∆hg 2
w2 − w1
2 2
V1 − V2
2
u 2
V1 cos 2 α 1
χ= = = = 2 = =
∆had 2 2
V1 + w2 − w1
2 2 2
V1 + V1 − V2
2
V1 + u 2 u
2
1 + cos 2 α 1
1 +
V1
Si vede cioè che, rispetto ad una analoga palettatura ad azione, si ha un aumento del
rendimento termodinamico, a scapito però del rapporto caratteristico, che assume valore
doppio, con grado di reazione intorno a 0.5. Impostato allora un confronto a pari velocità
periferica (ad esempio il massimo valore compatibile con la resistenza meccanica),
poichè risulta, per lo stadio ad azione:
2
V1 1 u2
∆htot ,az = =
2 2 u 2
V1 opt
2
V1 1 u2
∆htot ,reaz = =
2( 1 − χ ) 2 ( 1 − χ ) u 2
V1 opt
se si assume χ = 0.5, risulta una caduta entalpica dimezzata per lo stadio a reazione,
che comunque presenta un rendimento superiore.
Essendo sempre:
∆htot =
2
(
1 2 2 1 2
V1 − V0 + w2 − w1
2
) (
2
)
e potendosi ritenere, se lo stadio è uno stadio iniziale, V0 ≅ 0, si può anche in questo caso
calcolare rendimento e grado di reazione, valendo per il lavoro euleriano l’espressione:
Si ha cioè:
Le V cos α
ηθid = = 2u 2 1 2 1 2 e
∆htot V1 + w2 − w1
∆hgir 2
w2 − w1
2
χ= =
∆htot 2 2
V1 + w2 − w1
2
Osservando ora che:
w1 = V1 + u 2 − 2uV1 cos α 1
2 2
w2 = V2 + u 2 = V1 sen 2α 1 + u 2
2 2 2
2 u
w2 − w1 = V1 2 cos α 1 − cos 2 α 1
2 2
V1
Confrontando questa espressione con l’altra ottenuta dalla definizione stessa di grado di
reazione, cioè:
(
w2 − w1 = χ V1 + w2 − w1 =
2 2 2 2 2
) χ
1− χ
V1
2
si ottiene in definitiva:
χ u
= 2 cos α 1 − cos 2 α 1
1− χ V1
da cui si può ricavare il valore del rapporto caratteristico in condizioni di ottimo (la V2 è
gia stata assunta minima, in quanto coincidente con la Va):
u cos α 1 1 χ
= +
V1 opt 2 2 cos α 1 1 − χ
V1 cos α 1 V1 cos α 1 u
ηθid ,max = 2u χ = 2u χ = 2 ( 1 − χ ) cos α 1 = ( 1 − χ ) cos 2 α 1 + χ
2
w2 − w1
2
χ 2 V1 opt
V1
1− χ
Come si vede dal grafico, all’aumentare del grado di reazione aumenta sì il rendimento,
però aumenta anche il rapporto caratteristico, cioè diminuisce il salto entalpico elaborato,
a parità di velocità periferica, tanto che:
∆hdistr
Lim ∆htot = Lim =0
χ →1 χ →1 1− χ
Inoltre, il coefficiente:
∆htot
k is =
1 2
u
2
definisce la capacità dello stadio di elaborare certi salti entalpici per valore prefissato
della velocità periferica u.
V1 = ϕVid e
w2 = ψw 2 id
Per uno stadio intermedio, la velocità posseduta dal fluido in arrivo è pari alla V2 di
scarico dello stadio precedente; per uno stadio iniziale questa velocità è praticamente
trascurabile, per cui si può assumere:
V0 = V2 ≅ 0
2
V1
h0 − h1 =
2
2
V
h0 − h1' = 1 2
2ϕ
2 2
w w
h1 − h2 = 2 − 1
2 2
2 2
w2 w
h1 − h2 ' = − 1
2ψ 2
2
V1 cos α 1 − V2 cos α 2
η =u 2 2 2
V1 w w
+ 22 − 1
2ϕ 2
2ψ 2
Assumendo per semplicità che in condizioni di ottimo la V2 sia assiale (il che non è a
rigore vero, in quanto esiste, seppur piccola, una sua componente tangenziale) e quindi
risulti:
u
= cos α 1
V1 opt
cos 2 α 1
η max = 2ϕ 2ψ 2
(
ϕ 2 + ψ 2 1 − ϕ 2 sen 2α 1 )
che coincide con il valore già trovato per il caso ideale quando si ponga ϕ = ψ = 1.
Per uno stadio intermedio, una volta posto V0 = V2, si devono variare solo le espressioni
che danno il salto adiabatico nel distributore, mentre rimangono invariate quelle relative
al rotore.
Si ha così:
2 2
V1 V
h0 − h1 = − 2 e
2 2
2 2
V V
h0 − h1' = 1 2 − 2
2ϕ 2
Per uno stadio intermedio il rendimento assume ora, sempre nelle stesse condizioni di
ottimo, il seguente valore massimo:
cos 2 α 1
η max = 2ϕ ψ
2 2
(
ϕ 2 + ψ 2 1 − 2ϕ 2 sen 2α 1 )
Fughe interne
Il succedersi di palette fisse e mobili porta, per l’inevitabile presenza di giochi radiali, alla
formazione di tre correnti distinte:
∆l'
ηv' = 1 −
l
∆l' '
ηv' ' = 1 −
l
h1 A − h1 = ( 1 − η v ' )( h0 − h1 )
hB − h2 = ( 1 − η v ' ' )( h1 A − h2 )
hB − h2 = ( 1 − η v )( h0 − h2 )
Gli ultimi stadi di bassa pressione della turbina trovano vapore umido, cioè vapore con
presenza di acqua. Il triangolo di velocità per il vapore è quello derivante dal profilo delle
pale; il triangolo di velocità per l’acqua è invece quello che risulta in funzione della
effettiva velocità che l’acqua assume all’uscita del distributore; si osserva in pratica che
questa velocità va da 0.1 a 0.7 volte il valore della velocità del vapore (mediamente 0.5),
per cui il comportamento di vapore e acqua risulta quello mostrato in Fig. 33.
Come si vede dalla Fig. 33, sottraendo vettorialmente la velocità periferica u dalla
velocità assoluta dell’acqua V1acq, si nota che la velocità relativa risultante w1acq non solo
si discosta sensibilmente dalla velocità relativa del vapore w1, ma finisce addirittura col
colpire il dorso della paletta: quindi l’acqua presente (in goccioline) non solo non lavora,
ma è causa anche di frenamento per la girante interessata con forti effetti erosivi per il
materiale di cui la paletta è costituita.
G⋅v
l=
ξπdV1a
l
= 0.02
d min
Il valore massimo è imposto sia dagli sforzi (soprattutto di trazione) cui è soggetta la
paletta della girante, che dalle anomalie di comportamento del vapore che, entrando nei
canali tra le pale a distanze assai diverse dall’asse di rotazione, viene trascinato con
velocità periferiche altrettanto diverse ed inoltre si trova in zone di larghezza periferica
(passo) pure assai differente tra radice ed apice della palettatura.
Per quanto riguarda lo stato di sollecitazione meccanica, le palette dei distributori sono
sottoposte fondamentalmente a due ordini di forze: forze assiali (conseguenti alla
variazione di pressione tra monte e valle ed alla variazione della quantità di moto per
variazione delle componenti assiali delle velocità) e forze tangenziali (conseguenti alla
variazione della quantità di moto per variazioni delle componenti tangenziali delle
velocità). Le palette delle giranti, oltre a queste forze, saranno sottoposte anche a forze
dovute all’accelerazione centrifuga.
Supposta una sezione S costante di paletta, la forza centrifuga cui è sottoposta la sua
radice vale:
( )
rT rT rT
1
Fc = ∫ dm ⋅ ω r = ∫ ρSdr ⋅ ω r = ρω S ∫ rdr = ρω 2 S rT − rR
2 2 2 2 2
rR rR rR
2
2
(
1 2 2
rT − rR = T
2
)
r + rR
( rT − rR ) = d l
2
sostituendo si ottiene:
2
d 2 d l l
Fc = ρω S l = 2 ρSω
2
= 2 ρSu 2
2 4 d d
l
σ c = 2 ρu 2
d
Si trova cioè che la sollecitazione centrifuga dipende dalla densità del materiale di cui è
costituita la paletta, dal quadrato della velocità periferica in corrispondenza del diametro
medio e dal rapporto lunghezza di pala su diametro medio, il tutto con un profilo a
sezione costante. Rastremando il profilo (cioè adottando una sezione che diminuisce al
crescere del raggio) si riesce a ridurre anche in modo considerevole lo stato di
sollecitazione.
Il gruppo più semplice è quello relativo alla parte ad azione, perchè ad esso si ricorre
finchè si incontra la necessità di parzializzare: quindi all’inizio una ruota Curtis, seguita
poi da stadi a salti di pressione (questo è vero in generale, con impianti di grossa
potenza), finchè le condizioni del vapore sono tali da consentire stadi a reazione, fino alla
sezione di scarico.
Si procede cioè con l/d = cost nella parte iniziale della trasformazione di espansione,
immediatamente a valle degli stadi ad azione, quando l’altezza di paletta è ai valori
minimi consentiti (e quindi anche il diametro d è ad un minimo): aumenteranno quindi di
elemento in elemento abbastanza rapidamente sia il diametro che la caduta, cosa che
non accadrebbe se, per ridurre le perdite marginali, si aumentasse invece il rapporto l/d.
Raggiunto però un diametro soddisfacente, diventa opportuno, proprio per ridurre le
perdite di trafilamento, praticare l’accorgimento appunto di aumentare il rapporto l/d,
mantenendo ad esempio, per semplicità costruttiva, il diametro interno di = cost (il che
comporta automaticamente come conseguenza l’aumento di l/d). Infine, protraendosi
ancora l’espansione, il volume specifico aumenta così rapidamente che la regola di =
cost conduce a diametri esterni di palettatura eccessivi. Conviene allora diminuire
alquanto, man mano che il volume cresce, il diametro interno, seguendo ad esempio una
via intermedia tra quella a di = cost e quella a d = cost (e caduta pure costante).
Quanto detto è mostrato schematicamente nelle Figg. 34, 35 e 36, in gruppi a elementi
simili.
Fig. 34 Gruppi a l/d e u/V1 cost Fig. 35 Gruppi a di e u/V1 cost Fig. 36 Gruppi a
di=f(x) e u/V1 cost
L’esempio illustrato in Fig. 37 è relativo ad una turbina da 335 MW (con vapore a 170 bar
e 565 °C), divisa in un corpo di alta, un corpo di media e due corpi di bassa pressione con
soluzione su due alberi.
Le prime caldaie erano essenzialmente unità evaporanti di tipo convettivo, che fornivano
solo un leggero surriscaldo al vapore. In seguito, per le maggiori richieste di temperatura
e pressione per il vapore, al surriscaldatore veniva riservata una sempre più elevata
porzione di calore dalla combustione, per cui si passava ad uno scambio termico di tipo
radiante, ben più efficace come trasmissione di calore.
Il surriscaldo del vapore, in generatori di grande potenzialità, viene realizzato sia nel
surriscaldatore che nel risurriscaldatore; sebbene il surriscaldatore sia solitamente ad
elementi convettivi, in grandi installazioni si possono comunque trovare surriscaldatori ad
elementi radianti, posizionati sulle pareti nella zona alta della camera di combustione.
Gv ( hu − he )
η=
Gb H i
η = 1−
∑Q p
=
Gv ( hu − he )
Gb H i Gv ( hu − he ) + ∑ Q p
Qc calore sensibile asportato dai fumi (dato dal prodotto della portata massica dei fumi
per la differenza di entalpia dei fumi tra temperatura di uscita e temperatura
ambiente);
Qv calore scambiato per perdite varie (ad esempio fughe dei prodotti della combustione
prima del camino).
Nell’utilizzo dell’abaco di Fig. 38, in funzione del calore introdotto, si deve tenere conto
del numero delle pareti schermate da tubi d’acqua; le perdite possono anche essere
valutate ai carichi ridotti.
Dalle piccole alle grandi potenzialità, il rendimento del generatore di vapore può variare
dal 78 al 93 %.
Evoluzione storica
Le prime caldaie a vapore sono state del tipo a tubi di fumo (caldaie tipo Cornovaglia o
tipo locomotiva), cioè caldaie per le quali i prodotti della combustione passano all’interno
di tubi riscaldando così l’acqua che si trova al loro esterno, come rappresentato in Fig. 39.
Fig. 39 Caldaia a vapore a tubi di fumo
Le caldaie a tubi di fumo sono generatori di vapore di bassa potenzialità usati di solito per
riscaldamento e per applicazioni di processo (vapore tecnologico). La caldaia a tubi di
fumo manca di una vigorosa circolazione di acqua all’interno del corpo cilindrico ed in più
è inerentemente inadatta per applicazioni con alte pressioni e potenzialità (alte
potenzialità significano grandi diametri che, assieme alle alte pressioni, comportano
spessori di parete sempre più elevati). Nonostante queste limitazioni le caldaie a tubi di
fumo sono state e sono tuttora usate in impianti di riscaldamento ed in impianti di
potenza sia stazionari che marini o su locomotive.
Le caldaie a tubi d’acqua non soffrono di queste limitazioni e una circolazione efficace è
promossa all’interno dei tubi, sistemati esternamente al corpo cilindrico, in posizione
orizzontale o verticale, come mostrato in Fig. 40.
La superficie esterna dei tubi, sulla quale passano i prodotti della combustione, può
essere sufficientemente estesa per provvedere all’area richiesta per il trasferimento di
energia.
Le caldaie a tubi d’acqua a circolazione naturale possono essere del tipo a corpo cilindrico
longitudinale o trasversale, a tubi diritti oppure piegati.
Nella costruzione a corpo cilindrico longitudinale, i tubi sono sistemati al di sotto del
corpo cilindrico, parallelamente al suo asse e con una inclinazione di circa 15° rispetto al
piano orizzontale. Questa soluzione risulta limitata, a causa delle sue caratteristiche
strutturali, ad applicazioni a bassa pressione e potenzialità; inoltre lo spazio a
disposizione risulta in qualche modo inadeguato per l’installazione del surriscaldatore.
Quando si richiedono grandi potenzialità (ed anche alte pressioni) per il vapore, si passa a
generatori di vapore nei quali l’evaporazione dell’acqua avviene nei tubi che
costituiscono le pareti della camera di combustione (fornace) quasi esclusivamente per
assorbimento di energia radiante dai gas di combustione. I gas di combustione passano
poi successivamente dalla fornace attraverso il surriscaldatore secondario, il
risurriscaldatore, il surriscaldatore primario, l’economizzatore ed il preriscaldatore d’aria.
La potenzialità di queste caldaie monotubolari va da 100 fino oltre 4000 t/h di vapore
prodotto, cui corrisponde una potenza pari a circa 1300 MW.
Circolazione in caldaia
L’energia assorbita alla superficie del tubo di risalita viene trasmessa attraverso la parete
del tubo all’acqua, la cui parziale evaporazione produce una miscela di vapore e liquido
all’interno del tubo. Il tubo di caduta è riempito d’acqua che può considerarsi satura (cioè
alla temperatura costante di saturazione) e libera da bolle di vapore.
Quando il sistema è in equilibrio, la portata massica di acqua nel tubo di caduta eguaglia
la portata massica di miscela vapore e acqua nel tubo di risalita. Nella sezione x-x di Fig.
42, la pressione netta pd del fluido nel tubo di caduta è bilanciata dalla pressione netta pr
del fluido nel tubo di risalita.
Se ora p è la pressione esistente nel corpo cilindrico, si possono scrivere le due seguenti
relazioni:
p d = p + gρ d z − ∆p d
p r = p + gρ r z + ∆p r
Cioè la somma delle perdite nel sistema uguaglia la differenza di pressione dovuta alla
differenza di densità dei fluidi nel tubo di caduta e nel tubo di risalita, differenza di
densità che è la causa del moto di circolazione del fluido.
Riducendo il problema all’essenziale, due sono i fattori che devono essere presi in
considerazione per una buona progettazione del circuito di circolazione: uno è il massimo
valore pecentuale di vapore nella miscela bifase che lascia i tubi di caduta, funzione della
pressione di saturazione, come mostrato dal diagramma di Fig. 43.
L’altro fattore è il minimo valore ammissibile della velocità dell’acqua che entra nel tubo.
Per tubi di risalita che sono essenzialmente verticali e che assorbono calore su di un lato
oppure sull’intera circonferenza, questa velocità può essere relativamente bassa, da 0.3 a
1.5 m/s; altrimenti (tubi inclinati, etc) si devono adottare valori un po’ più elevati, da 1.5
a 3 m/s.
In generale, la circolazione naturale in caldaia è soddisfacente per unità che operano con
pressioni del vapore fino a 20 MPa. Per pressioni più alte bisogna o ricorrere a strutture
più elevate in altezza oppure adottare una circolazione forzata, cioè muovere l’acqua nel
circuito mediante l’impiego di pompe, posizionte solitamente alla base dei tubi di discesa,
deve le pompe corrono meno rischi di cavitazione (le condizioni di funzionamento sono
già abbastanza gravose a causa dell’alta temperatura).
Camera di combustione
Le pareti della fornace sono in contatto da una parte con i gas di combustione ad alta
temperatura, mentre dall’altro lato sono in contatto con materiale refrattario, che
impedisce la dispersione del calore ed è protetto a sua volta dalle pareti a tubi d’acqua.
Le principali considerazioni che stanno alla base del progetto della fornace di una caldaia
e del sistema di combustione associato sono la capacità di generare vapore, la stabilità di
funzionamento e la flessibilita di conduzione. La fornace deve essere sufficientemente
ampia da consentire una combustione praticamente completa del combustibile sopra un
ampio campo operativo.
Calore scambiato per unità di volume e temperatura dei prodotti della combustione non
devono raggiungere valori tali da causare rapido deterioramento della struttura della
fornace (valori massimi rispettivamente intorno a qualche GJ/m3h e 1400-1600 °C).
Bruciatori
Un buon bruciatore deve essere progettato per poter bruciare polverino di carbone, olio
combustibile o gas naturale oppure qualsiasi combinazione dei tre combustibili. Di solito
un combustibile gassoso richiede poca preparazione prima di essere bruciato, mentre un
olio combustibile viene atomizzato prima che avvenga l’accensione.
Gli olii più pesanti devono inoltre essere anche preriscaldati per ridurne la viscosità,
mentre il polverino di carbone deve essere convogliato al bruciatore nella corrente di aria
primaria di combustione, opportunamente preriscaldata. Tipici valori dell’eccesso d’aria
per polverino di carbone vanno dal 15 al 20 %, mentre valori un po’più piccoli sono
osservati per olio combustibile e gas naturale, intorno cioè al 5 – 10 %.
I bruciatori sono posizionati ai quattro angoli della fornace e sono diretti secondo una
linea tangente ad una piccola circonferenza che giace in un piano orizzontale al centro
della camera, in modo da ottenere buon mescolamento ed alte velocità di combustione. I
gas di combustione spazzano così la parete della fornace secondo un moto rotatorio in
modo da conseguire anche valori elevati di scambio termico per convezione. Essi sono
infine dotati anche di moto basculante, in modo che, quando sono orientati verso l’alto,
tendono a favorire meglio la cessione di calore ai surriscaldatori nel funzionamento ai
bassi carichi.
Corpo cilindrico
Situato praticamente al di sopra della caldaia e non interessato dai gas di combustione,
esso contiene liquido (occupante circa metà del volume del cilindro) in presenza del
proprio vapore. A regime, l’acqua di alimento che proviene dagli economizzatori uguaglia
in portata massica il vapore saturo che fuoriesce dall’alto, verso i surriscaldatori. Dal
basso fuoriescono i grossi tubi di caduta, mentre un po’ di lato, ma sempre immersi nel
liquido, entrano i più numerosi ma più piccoli tubi di risalita. L’arrivo dei tubi vaporizzatori
e la partenza dei tubi di caduta devono essere fatti in modo tale da non perturbare il
flusso all’interno, mantenendo il livello di liquido il più costante possibile ed utilizzando se
del caso schermi di separazione. Filtri a lamine vengono poi usati per il vapore in uscita
onde trattenere eventuali gocce di liquido in esso presenti, in modo che il titolo del
vapore sia il più possibile vicino ad uno prima del passaggio ai surriscaldatori.
Surriscaldatori
Il surriscaldo del vapore è ormai una pratica ben consolidata nelle centrali di potenza, in
quanto immediatamente giustificata da migliore economia e migliore efficienza termica
d’impianto. Il surriscaldo riduce il numero degli stadi di turbina che operano nella regione
di vapore saturo, dove perdite per contenuto di liquido contribuiscono ad un ridotto
rendimento di macchina. Una riduzione nella erosione delle palette e nella manutenzione
della turbina possono essere ottenute mediante diminuzione del contenuto di umidità nel
vapore.
Le massime temperature di surriscaldo sono correntemente comprese tra 540 e 560 °C. A
causa della resistenza opposta dal film di vapore surriscaldato al trasferimento di calore,
la temperatura di parete del tubo è abbastanza superiore alla temperatura del vapore.
Per temperature del metallo inferiori a 450 °C, acciai a basso tenore di carbonio possono
essere normalmente usati per i tubi surriscaldatori. Quando queste temperature
eccedono i 450°C, allora bisogna ricorrere ad appropriate leghe, se non ad acciai
inossidabili resistenti al calore.
Il motivo principale per la divisione in due del surriscaldatore è di poter provvedere poi
alla pratica del surriscaldamento ripetuto. La temperatura di risurriscaldo è solitamente
uguale alla temperatura di surriscaldamento del vapore. Risurriscaldatori e surriscaldatori
sono simili in costruzione e, in generale, funzionano in maniera analoga.
I tubi dei surriscaldatori radianti sono posizionati sulla parete della fornace, dove l’energia
viene trasferita dai gas ai tubi principalmente per radiazione. I surriscaldatori radianti
sono solitamente usati in combinazione con quelli convettivi mediante collegamento in
serie.
Praticamente si riscontra che la temperatura dei gas all’uscita della fornace aumenta con
l’aumentare del combustibile bruciato. Inoltre, la portata massica dei gas varia
direttamente con il carico di caldaia. L’effetto combinato di questi due fattori fa in modo
che il calore fornito agli elementi convettivi cresca più rapidamente di quanto invece
cresce la portata di vapore. Di conseguenza, l’effetto risultante è un aumento della
temperatura del vapore all’aumentare del carico.
D’altro canto, al crescere del carico di caldaia l’energia assorbita dalle pareti di tubi
d’acqua della fornace non aumenta così rapidamente come la portata di vapore. Perciò,
un surriscaldatore radiante come caratteristica propria mostra una diminuzione nella
temperatura del vapore con un aumento del carico di caldaia.
Comunque, diversi altri metodi sono disponibili per il controllo della temperatura del
vapore surriscaldato, come:
Il flusso di aria e gas di combustione attraverso la caldaia è garantito sia dal naturale
tiraggio del camino che dal tiraggio meccanico di ventilatori prementi e aspiranti. In un
generatore di vapore moderno il camino fornisce solo una piccola parte del tiraggio
necessario. La pressione in camera di combustione, ad eccezione di progetti che
prevedano camere pressurizzate, è mantenuta leggermente al di sotto della pressione
atmosferica, prevenendo così fughe di gas intorno alla caldaia.
Ventilatori prementi muovono l’aria di combustione dal preriscaldatore d’aria fino alle
finestre dei bruciatori, dove viene mantenuta una pressione positiva. Il ventilatore
aspirante fornisce poi la caduta di pressione che produce il flusso di gas dalla fornace,
attraverso i numerosi elementi convettivi incluso il preriscaldatore d’aria, fino alla base
del camino.
L’acqua demineralizzata, che percorre il ciclo termico in circuito chiuso, può contenere
materiali sospesi e gas e sali disciolti. Il materiale sospeso è di norma rimosso mediante
filtrazione. Alcuni sali, principalmente quelli di calcio e magnesio, hanno la tendenza a
formare depositi duri sulle superfici evaporanti. Per rendere minima la formazione di
questi depositi, l’acqua è chimicamente trattata in processi a caldo o addolcitori a zeolite.
Alcuni gas disciolti, come ossigeno e anidride carbonica, causano corrosione interna. Essi
sono espulsi dal sistema per deareazione dell’acqua di alimento in un degasatore o nel
condensatore. Come salvaguardia nei confronti della corrosione, l’acqua di caldaia deve
essere mantenuta con valori di pH tra 9 e 11 circa, mediante addizione di prodotti chimici
neutralizzanti.
5.4 Rigeneratori
Il riscaldatore degasatore è uno scambiatore di calore del tipo a miscela nel quale il
vapore spillato e l’acqua di alimento sono in diretto contatto. Il degasatore opera un po’
al di sopra della pressione atmosferica e serve ad espellere i gas incondensabili dalla
corrente di alimento.
Il vapore scaricato dalla turbina è diretto nel condensatore per due motivi. Il
condensatore è operato ad alto vuoto onde creare una bassa pressione all’uscita della
turbina, intorno a 0.04 bar, ed è solitamente del tipo a superficie a flussi non miscelati. Se
appunto non vi è miscela, il secondo motivo appare evidente e cioè la possibilità di
consentire il ritorno del condensato in caldaia.
Il passaggio del calore di condensazione del vapore al refrigerante avviene attraverso una
parete per i condensatori a superficie. Quando non interessa separare il fluido
condensante dal fluido refrigerante, si può far ricorso ai condensatori a miscela, più
semplici ma meno perfetti.
Il fluido refrigerante deve possedere tre requisiti fondamentali: grande economicità, facile
reperibilità e buone caratteristiche di scambio termico: esso sarà quindi generalmente o
acqua o aria. I condensatori a superficie, se ad acqua, hanno il vapore all’esterno dei tubi;
se ad aria invece all’interno. I condensatori a miscela sono ovviamente solo ad acqua.
Q = G⋅r⋅x
Nella portata G si deve tener conto dell’eventuale vapore che è sfuggito per fughe, di
quello già spillato dalla turbina e di quello che viene estratto assieme agli incondensabili.
Il calore di condensazione è quello corrispondente non proprio alla pressione di
condensazione, ma alla pressione parziale del vapore, che risulta leggermente inferiore (il
calore r dovrebbe perciò essere valutato alla temperatura di condensazione, con un
valore quindi un po’ superiore).
Il calore Q andrebbe infine corretto in più per tener conto del raffreddamento dell’aria
(necessario) e del liquido (dannoso) ed in meno per tener conto della dispersione di
calore verso l’esterno dell’involucro del condensatore.
Q = U tot ⋅ S ⋅ ∆Tm
dove Utot è il coefficiente globale di trasmissione del calore tra vapore condensante e
acqua di raffreddamento; S è la superficie di scambio, funzione del numero e diametro
dei tubi e della loro lunghezza; ∆ Tm e la differenza media logaritmica di temperatura tra i
due fluidi.
1 1 s 1 D
= + + + Re + Ri e
U tot α e D D Di
km m αi i
De De
Il coefficiente liminare lato acqua α i è meno elevato dei primi due e può essere espresso
in funzione dei numeri di Reynolds e di Prandtl, come numero di Nusselt, cioè secondo
l’equazione di Colburn:
dove:
α i Di
Nu =
ki
con ki conduttività dell’acqua. Per valori normali della velocità all’interno dei tubi (Vi circa
2-3 m/s), si ottiene per il coefficiente α i un valore compreso tra 6.000 e 8.000 W/m2K.
Il coefficiente di sporcamente lato interno (resistenza Ri) assume invece valori più elevati,
date le incrostazioni che si formano a causa delle impurità contenute nell’acqua
refrigerante. Ri sarà comunque presente solo per tubi vecchi.
Alla fine il coefficiente globale di scambio Utot risulta compreso tra 4.000 e 5.000 W/m2K.
∆T1 − ∆T2 T − Te
∆Tm = = u
∆T T − Te
ln 1 ln v
∆T2 Tv − Tu
Solitamente si tiene ∆ T1 pari a circa 10-15 °C, funzione della disponibilità, come
temperatura, dell’acqua refrigerante; ∆ T2 pari a circa 3-5 °C, funzione della quantità di
acqua disponibile e delle richieste di potenza per il pompaggio.
Fissata ora la velocità Vi dell’acqua all’interno dei tubi, si può conoscere la sezione totale
di passaggio in base alla relazione:
Q
At = dove:
cl ( Tu − Te ) ⋅ Vi
2
Di
At = nt π
4
Noto così il numero totale dei tubi nt e la superficie di cambio S, risulta subito nota la
lunghezza del fascio tubiero, mediante l’espressione:
S
L=
nt πDe
Dovesse L risultare troppo grande, si potrebbe decidere per condensatori con due o più
passaggi, riducendo così L in proporzione.
In aggiunta ad altri requisiti, per l’installazione di una nuova centrale di potenza il sito
prescelto deve possedere le potenzialità per costituire un mezzo effettivo di smaltimento
del calore. A causa delle restrizioni imposte all’uso di acqua ed anche all’ineguatezza di
trovare abbastanza acqua per lo scopo, si deve sempre più frequentemente rinunciare al
classico ricorso di acqua fluente attraverso un condensatore a superficie, ricorrendo così
a metodi alternativi per dissipare il tutt’altro che indifferente calore scaricato da centrali
termoelettriche a vapore.
Se esiste una certa disponibilità di acqua, comunque inferiore alle necessità, si può
provvedere ad un suo recupero parziale raffreddandola in una torre di evaporazione. Con
torre sufficientemente alta (a profilo iperbolico) si può ottenere un tiraggio sufficiente
all’interno a causa della differenza di densità rispetto all’aria atmosferica esterna, come
mostrato nello schizzo di Fig. 49.
Nella sua discesa dal piano di arrivo all’interno della torre, l’acqua calda proveniente dal
condensatore bagna graticci di legno o mattoni forati, che sono lambiti dalla corrente di
aria: anche se una parte di questa acqua evapora nel processo, si perdono però a questo
modo le corrispondenti calorie.
Per ovviare alle ingenti spese cui si va incontro per la costruzione di una torre che possa
garantire un sufficiente tiraggio naturale oppure se per ragioni di tutela ambientale non è
concessa l’autorizzazione per la sua costruzione, si può ricorrere ad un tiraggio di tipo
meccanico (realizzato mediante ausilio di un ventilatore), che non richiede opere civili di
così grande impegno e forte impatto ambientale. In questo caso bisogna però tener in
debito conto i maggiori costi derivanti dalla potenza impegnata per muovere il ventilatore
di spinta dell’aria di raffreddamento.
Come si è detto, tale quantità è pari al massimo alla portata di vapore condensante, per
cui la portata di acqua refrigerante si riduce di quasi 100 volte rispetto al caso classico di
acqua fluente direttamente nel condensatore a superficie.
Torri di raffreddamento a secco
Quando l’acqua di raffreddamento del condensatore manca del tutto occorre fare totale
affidamento alla sola aria come mezzo refrigerante. Nelle torri di raffreddamento a secco
la sottrazione di calore avviene in maniera indiretta.
Il sistema si presenta particolarmente efficace se, usando come fluido indiretto acqua
demineralizzata, il condensatore è del tipo a miscela, come rappresentato
schematicamente in Fig. 50.
In questo caso l’acqua non viene in diretto contatto con l’aria refrigerante; anzi, per
evitare infiltrazioni, la si mantiene, mediante una pompa, ad una pressione un poco
maggiore di quella ambiente. L’energia spesa per azionare la pompa viene in parte
recuperata in una turbina idraulica che l’acqua stessa attraversa prima di rientrare in
circuito (il conguaglio di energia viene affidato ad un motore ausiliario). La differenza tra
la portata della pompa e la portata della turbina è proprio la portata in arrivo al
condensatore e quindi quella che viene poi inviata alla caldaia.
Il tiraggio nella torre di raffreddamento (che è appunto detta propriamente a secco) può
in qualche caso essere affidato ad un ventilatore, in quanto non sempre sussistono
sufficienti differenze di densità tra interno ed esterno tali da garantire un tiraggio
naturale (e sono comunque valide anche in questo caso le stesse considerazioni dianzi
fatte in merito al forte impatto ambientale di torri di così imponenti dimensioni).
Condensatore aerotermico
Quando si vuole che la trasmissione di calore tra vapore condensante e aria refrigerante
avvenga in maniera diretta, allora il vapore da condensare viene avviato ad una batteria
di tubi, investiti all’esterno dalla corrente d’aria spinta da un ventilatore. Si tratta di solito
di tubi di acciaio zincato, esternamente alettati onde migliorare lo scambio termico lato
aria.
I tubi sono normalmente disposti sulle falde di diedri con una certa inclinazione rispetto
all’orizzontale e ciascun diedro possiede uno o più ventilatori di spinta dell’aria.
Il primo impianto di turbina a gas fu costruito nei primi anni del 1903, ma a causa
principalmente di limitazioni imposte dai bassi rendimenti del compressore ed alla
impossibilità di reperire materiali che resistessero agli effetti dell’alta temperatura,
questa macchina non era in grado di fornire lavoro utile. In seguito ad avanzamenti
tecnologici, queste due principali limitazioni venivano nel tempo largamente eliminate e
la turbina a gas prendeva piede a rapido passo.
Inizialmente, il più rapido ed intensivo sviluppo della turbina a gas è stato nella categoria
turbogetti, dove questo motore ha sostituito il motore alternativo a combustione interna
come propulsore di velivoli di grandi e medie dimensioni. Attualmente, il motore
relativamente nuovo di turbina a gas è usato, oltre che per la propulsione aerea, per
generare energia elettrica, nella propulsione marina e per muovere macchine industriali.
Contrariamente alle prime ottimistiche previsioni, il motore di turbina a gas, per un certo
numero di ragioni, non è riuscito a penetrare nel campo automobilistico.
6.2 Ciclo semplice ideale di TG
Il ciclo semplice ideale (ciclo Brayton) è compreso tra quattro processi termodinamici,
come mostrato nei piani p-v e T-s di Fig. 2: compressione ed espansione adiabatiche
reversibili sono realizzate nei processi 1-2 e 3-4, mentre calore a pressione costante è
fornito in 2-3 e sottratto in 4-1.
Il ciclo ideale è applicabile sia a motori a ciclo aperto che a ciclo chiuso. La maggior parte
dei motori di TG opera in ciclo aperto, per cui la trasformazione 4-1 rappresenta diretto
trasferimento di calore dai gas di scarico all’atmosfera.
Lo schema di impianto, sia secondo un ciclo aperto che secondo un ciclo chiuso, è invece
rappresentato in Fig. 3.
LC = h2 − h1 = c p ( T2 − T1 )
LT = h3 − h4 = c p ( T3 − T4 )
Q1 = h3 − h2 = c p ( T3 − T2 )
Lu LT − LC ( T3 − T4 ) − ( T2 − T1 ) T ( T T − 1)
η id = = = = 1− 1 4 1
Q1 Q1 T3 − T2 T2 ( T3 T2 − 1)
Q1 − Q2 Q
η id = = 1− 2
Q1 Q1
Essendo ora:
T4 T3
= e
T1 T2
γ −1
T2 p 2 γ
= = βφ
T1 p1
sostituendo si ottiene:
η id = 1 − β −φ
Cioè il rendimento termodinamico del ciclo Brayton è funzione solamente del rapporto di
compressione del ciclo. Inoltre, il valore di questo rendimento continua a crescere al
crescere del rapporto di compressione. Esso vale 0 per β = 1 e tende ad 1 per β → ∞ ,
come mostrato in Fig. 4.
Fig. 4 Rendimento del ciclo Brayton in funzione del rapporto di compressione
Il fatto che il rendimento del ciclo ideale dipenda solo dal rapporto di compressione è
legato al fatto che le quantità di calore dipendono, lungo un’isobara, solo dai livelli di
temperatura, per cui il ciclo può essere indifferentemente traslato secondo le ascisse,
come mostrato nello schizzo di Fig. 5.
Inoltre, il ciclo può essere sempre pensato come somma di cicli infinitesimi operanti tra
temperature di sorgente in rapporto costante, in quanto legate allo stesso rapporto β ,
come si vede nello schizzo di Fig. 6.
( ) T
Lu = η id Q1 = ηid c p ( T3 − T2 ) = c p T1 1 − β −φ 3 − β φ
T1
Cioè, in definitiva, il lavoro si annulla per β = 1 e per:
1
T3 φ
β = β 0=
T1
Si può poi vedere che la funzione ammette un massimo per:
1
T 2φ
β = β = 3
T1
come appare nello schizzo di Fig. 7.
T2 T
= βφ = 3 da cui
T1 T1
T2 = T1T3 e quindi
T3 T2
=
T2 T1
cioè T2 risulta essere la media geometrica tra T1 e T3. In queste condizioni si dice che il
ciclo è quadro, in quanto risulta anche T2 = T4, come mostrato in Fig. 8.
Perdite di calore
Sono quelle dovute sia ad imperfetta combustione sia a dispersioni attraverso le pareti (e
al camino se si tratta di TG a ciclo chiuso). Nel caso le palette siano del tipo refrigerato,
occorre tener conto anche di queste perdite di calore. Solitamente le perdite di calore nel
combustore sono di gran lunga le più importanti, per cui si definisce un rendimento di
combustione η b come rapporto tra l’aumento di entalpia dei gas e il prodotto della
quantità di combustibile, spesa per ottenerlo, ed il suo potere calorifico inferiore Hi.
Cadute di pressione
Sono quelle cui si va incontro nel riscaldatore e, se la TG è a ciclo chiuso, nel
refrigeratore. Si tiene conto della caduta di pressione in ciascun apparecchio
moltiplicando la rispettiva pressione di entrata per un coefficiente pneumatico π .
Perdite organiche
Vengono sintetizzate nel rendimento meccanico η m di ciascuna macchina, ad una delle
quali si addebiteranno anche gli eventuali accessori di uso comune.
Solitamente conviene fare riferimento ad un ciclo reale per il quale, nei confronti del ciclo
ideale di riferimento, si mantengono costanti le condizioni iniziali (cioè p1 e T1) e quelle
massime di inizio espansione (cioè p3 e T3), come rappresentato in Fig. 10.
p3
p2 =
πb
Il lavoro di espansione viene invece ridotto sia a causa del rendimento η T che, nel caso di
ciclo chiuso, della pressione p4, data da:
p1
p4 =
πr
p 4 = p1
Qe
Qb =
ηb
dove con Qe si intende il calore entrante nel ciclo reale, si può ottenere la seguente
espressione per il rendimento globale del ciclo semplice reale di TG:
La formula scritta inquadra le soluzioni dei problemi fondamentali delle turbina a gas da
un lato nell’aumento del rapporto LT’/LC’ e dall’altro nell’aumento del prodotto di tutti i
rendimenti termodinamici e meccanici di compressore e turbina.
Qb =
Qe
=
ηb ηb
1
c p ( T3 − T2 ) =
1
ηb
[( ) (
c p T3 − T2' − T2 − T2' )]
1
−1 =
c p ( T2 − T1 ) c p T2' − T1
− =
( )
c p T2 − T2'( )
ηC L'C L'C L'C
(
Q' = c p T3 − T2' )
1 1 −ηC
Qb = Q' − L'C
ηb ηC
T4' T1
=
T3 T2'
L'T c p T3 − T4
=
'
=
( )
T3 1 − T4' T3 T3
=
L'C c p T2' − T1 ( )
T2' 1 − T1 T2' T2'
T 1 Q' 1 − η C
η g = η bη mT η T 3' − ' −
T2 η LC ηC
dove con η si intende il prodotto dei quattro rendimenti (due di compressore e due di
turbina).
La relazione scritta consente di valutare l’influenza del rapporto di compressione nel ciclo
reale. Si vede così che per ogni valore di T3 e dei rendimenti delle due macchine esiste
una T2’ (e quindi un β ) che annulla il rendimento globale di TG, in quanto:
T3 1
− =0
T2' η
T2' = ηT3 = T1 ⋅ β φ
1
T φ
βη =0
= η 3
g
T1
Il rendimento si annulla poi ancora per β = 1 (perché LC’ = 0), quindi tra i due punti la
funzione η g ammetterà un massimo, contrariamente a quanto accadeva per il ciclo
ideale.
Fig. 11 Andamento del rendimento globale in funzione del rapporto di compressione
Come mostrato dalla Fig. 11, il valore del rendimento globale massimo aumenta, per un
ciclo assegnato in T3 e T1, con l’aumentare del prodotto del rendimento delle singole
macchine, aumentando di conseguenza anche il valore di β per il quale il rendimento
globale si annulla.
Il valore del rendimento globale massimo aumenta, per un ciclo assegnato in η e T1, con
l’aumentare della temperatura massima del ciclo, aumentando di conseguenza anche il
valore di β per il quale il rendimento globale si annulla.
Per quanto riguarda poi l’andamento del lavoro utile in funzione del rapporto di
compressione, si può scrivere:
( ) ( )
Lu = η mT η T c p T3 1 − β −φ − c p T1 β φ − 1 η mCη C
ηT3 (1 − β −φ ) = T1 ( β φ − 1)
Supponendo ora:
1 − β −φ ≠ 0
si può scrivere:
T3 βφ −1 βφ −1
η = −φ
= φ = βφ
T1 1 − β β −1
βφ
e quindi in definitiva:
1
T φ
β Lu =0
= η 3
T1
1
T 2φ
β L0 ,max
= η 3
T1
Come si può vedere dalla Fig. 13, l’andamento del lavoro in funzione del rapporto di
compressione è simile a quello del rendimento globale, annullandosi sempre per lo stesso
valore di β . Il valore del massimo di Lu risulta però arretrato rispetto al massimo di η g.
Per quanto riguarda η b, le perdite termiche nel combustore o nella caldaia si risentono tali
e quali nel rendimento globale η g. Le perdite nelle due macchine η T e η C, invece, vedono
accresciuta la loro importanza dal fatto di applicarsi all’uno o all’altro dei termini di una
differenza: l’aumento di importanza è maggiore per η T che per η C perché la turbina fa un
lavoro maggiore di quello assorbito dal compressore.
Lo stesso discorso può applicarsi ai due rendimento meccanici η mT e η mC, che compaiono
assieme a η T e η C. Comportamento analogo avranno i rendimenti pneumatici, assimilati ai
due rendimenti adiabatici.
LC = LC ,id + Lw + LCR
LT = LT ,id − Lw + LRT
Nel ciclo ideale, l’area racchiusa tra le quattro trasformazioni è proprio il lavoro utile,
differenza tra calore entrante e calore uscente. Nel ciclo reale, invece, pur essendo il
lavoro utile sempre la differenza tra calore entrante e calore uscente, il calore entrante,
come si vede in Fig. 14, risulta dato dall’area 202330, mentre il calore uscente risulta dato
dall’area 101440 e quindi la loro differenza sarà l’area 1’234’ (area del ciclo ideale a pari
calore introdotto), cui andranno sottratte le aree 1011’20 e 304’440. Questo equivale a
dire che il lavoro utile è dato dall’area del ciclo 1234 cui si devono sottrarre i due lavori
delle resistenze passive Lw rappresentati dalle aree 101220 e 303440.
Se invece si ritiene più corretto fare un confronto con il ciclo ideale 1’234’ a pari calore
introdotto e se con Lid si intende il lavoro utile di questo ciclo, allora si potrà scrivere:
dove con LRC e LRT si intendono i lavori recuperati pari alle aree 121’ e 4’34.
Fig. 14 Ciclo reale di turbina a gas
Mentre appare ragionevole che la turbina dia un contributo positivo con LRT, può
sembrare strano che anche il compressore intervenga con un LRC pure di segno positivo,
se si tiene presente il significato di controrecupero (si veda la Fig. 15).
in un ciclo di TG
Bisogna però notare che il lavoro delle resistenze passive LwC aumenta sì il lavoro del
compressore (direttamente e anche indirettamente attraverso il controrecupero LCR), però
al tempo stesso diminuisce il calore introdotto nel ciclo della quantità data dall’area
102’220, somma del lavoro delle resistenze passive LwC e del controrecupero LCR.
Però il calore uscente comprende anche l’area 1011’20 e quindi il guadagno effettivo sarà
la differenza, cioè l’area 12’21’, somma del controrecupero LCR e anche del recupero LRC,
sottratto quest’ultimo al lavoro delle resistenze passive LwC, proprio per ottenere l’area
1011’20, unico peso negativo nei confronti del lavoro ottenibile in un ciclo reale
paragonato a quello ideale a pari introduzione di calore.
Nel caso di un ciclo aperto, la massa del gas che attraversa il compressore differisce da
quella che attraversa la turbina per l’apporto della massa del combustibile, nonché per
quanto riguarda le costanti fisiche, per la presenza dei prodotti della combustione.
Con riferimento alla Fig. 16, se α è la portata massica di aria e 1 quella di combustibile, il
rapporto α /1 dovrà risultare più grande del rapporto stechiometrico, per il limite imposto
dalla temperatura T3.
α ⋅ h2 + 1 ⋅ ( hb + η b ⋅ H i ) = ( α + 1) ⋅ h3
Per calcoli sbrigativi si può supporre con buona approssimazione hb ≅ h2 e si può ritenere
inoltre che i calori specifici si mantengano abbastanza costanti, per cui risulta:
(α + 1) ⋅ c p ( T3 − T2 ) = η b ⋅ H i
da cui:
ηb H i
α= −1
c p ( T3 − T2 )
valore che risulta tanto maggiore del rapporto stechiometrico quanto più T3 risulta minore
della temperatura adiabatica di fiamma.
Se ora con LCb si intende il lavoro di compressione del combustibile, allora il lavoro utile
del ciclo, per unità di massa d’aria, sarà espresso da:
1+α 1 1
Lu = η mT η T L'T − L' C − LCb
α η mCη C α
Il lavoro di compressione del combustibile risulta di solito molto piccolo e quasi sempre
trascurabile nei confronti degli altri lavori.
Ciclo ideale
Si consideri ad esempio il caso, rappresentato in Fig. 16, di una compressione suddivisa in
tre stadi, con due interrefrigerazioni intermedie.
Dal punto di vista del lavoro massico, a parità di temperatura T3, la pratica di refrigerare
il fluido di lavoro tra due stadi successivi di compressione comporta un evidente
vantaggio, perché il ciclo base 1B34 viene aumentato come area dell’area di ciascuno
dei due cicli aggiunti.
Dal punto di vista del rendimento invece, confrontando il ciclo ideale interrefrigerato con
uno semplice ideale 1'234 a pari introduzione di calore ed operante tra le due pressioni
estreme p1 e p2, si vede che il primo rigetta in più il calore rappresentato dall’area
tratteggiata 1’1’’’2’’1’’2’1 e quindi possiede minor rendimento.
Alla stessa conclusione si arriverebbe osservando che al ciclo base 1B34, avente un
rendimento ideale pari a 1-β -φ , si aggiunge un primo ciclo 2’’B’B2’ ed un secondo
1’’’2B’2’’ operanti con β successivamente decrescenti e quindi in possesso di rendimenti
minori. Il rendimento globale sarebbe poi la media pesata:
L' + L' ' + L' ' ' η' Q' +η' ' Q' ' +η' ' ' Q' ' '
η= =
Q' +Q' ' +Q' ' ' Q' +Q' ' +Q' ' '
minore di η ’ in quanto sia η ’’ che η ’’’ diminuiscono col diminuire di β . Nel caso ideale
dunque la pratica della interrefrigerazione non porta beneficio alcuno.
Ciclo reale
Per giudicare l’influenza delle perdite del ciclo addizionale nei confronti del ciclo base,
basta calcolare il rendimento η dc del ciclo addizionale e verificare se esso risulta maggiore
o minore del rendimento del ciclo base.
Questo rendimento η dc si può ad esempio esprimere come rapporto tra lavoro utile del
ciclo addizionale (da aggiungersi al lavoro utile del ciclo base) e calore speso in più
(sempre da aggiungersi al calore introdotto nel ciclo base): è chiaro che il rendimento η dc
può aver significato solo in quanto il ciclo aggiunto può esistere perché attaccato al ciclo
base, con una espansione B2’ (per inciso ad entropia decrescente) che si realizza in una
turbina virtuale, come mostrato in Fig. 17.
LT = c p ( TB − T2' )
mentre quello globale della compressione (in presenza di due stadi di compressione,
come esempio) è:
Tenendo poi conto anche del rendimento meccanico e del rendimento della combustione
per il calore introdotto nel ciclo addizionale, si può alla fine scrivere:
in cui si sono supposti per semplicità costanti i calori specifici (in compressione,
espansione e combustione).
Per poter disquisire della convenienza o meno della interrefrigerazione nel caso reale, si
supponga, per semplificare, che si abbia un solo interrefrigeratore e che, con riferimento
alla Fig. 18, le due trasformazioni 1’’2 e 2’B diano luogo ad uno stesso ∆ s, cioè abbiano
lo stesso esponente della politropica, per cui:
n −1 n −1
T2 p 2 n p n TB
= = B =
T1'' p1'' p 2' T2'
T2 p T p
∆s1'' 2 = ∆s1'' 1 '' = c p ln − R ln 2 = c p ln B − R ln B = ∆s 2' B = ∆s 2' 2 '
T1'' p1'' T2' p 2'
In queste ipotesi pure la trasformazione che passa per i punti 1' ' e 2 ' è una
trasformazione isobara, per cui il ciclo 1’’2B2’ diviene equivalente al ciclo ideale 1 2 B 2 '
avente un rendimento dato da:
T1'' T − T1'' Q
η = 1− = η dc* = 1 − 2' = 1− 2
T2 TB − T2 Q1
Stabilita così una certa interrefrigerazione, si può allora dire per quali valori di β del ciclo
addizionale essa possa diventare conveniente nei confronti del ciclo base. Affinché la
soluzione scelta sia la migliore da un punto di vista del rendimento, occorre impostare la
ricerca costruendo il diagramma del rendimento globale del ciclo interrefrigerato in
funzione, ad esempio, del rapporto T2 /T1.
Fig. 19 Ricerca del valore conveniente di T2/T1
Con riferimento alla Fig. 19, il rendimento globale η del ciclo interrefrigerato si può
sempre esprimere come media pesata dei singoli rendimenti, cioè:
Infatti, come si vede dalla Fig. 20, aumentando la temperatura del punto 2 diminuisce la
quantità di calore introdotta però aumenta il lavoro di compressione, e viceversa. Si può
infine osservare come il rapporto T2/TB risulti tanto più grande di (T1/TB)1/2 (e quindi ci si
allontani sempre più dalla interrefrigerazione uniforme), quanto maggiore è il rendimento
del ciclo base.
• Diminuzione della temperatura delle palette (con possibilità di uso di leghe leggere,
meno costose)
• Aumento del lavoro massico (diminuisce il lavoro di compressione, fermo restando
quello di espansione)
• Possibilità di ridurre il numero degli stadi (o la velocità periferica) a parità di β ; oppure,
viceversa, possibilità di raggiungere con lo stesso compressore un più alto β , con certo
giovamento per il rendimento
Tra gli svantaggi bisogna invece annoverare:
Refrigeratori
Il limite a cui si tende con l’interrefrigerazione sarebbe quello di portare la temperatura
del gas (aria) fino a coincidere con quella di ingresso del mezzo refrigerante, con una
sottrazione di calore pari a:
Il calore Q realmente sottratto non potrà quindi essere una frazione ℜ r di Qlim con una
temperatura del gas T1’’ > Tre, secondo lo schema di Fig. 21.
Fissata poi la temperatura Tru di uscita del refrigerante e quindi anche la sua portata,
noto il coefficiente globale di scambio Utot si può infine calcolare la superficie S di
scambio.
6.5 Ciclo a combustione ripetuta
Ciclo ideale
Si vede subito che η dt è inferiore a quello del ciclo base, in quanto (entrambi sono cicli
ideali) diminuisce il rapporto espansione per il ciclo addizionale, cioè:
p4 ' p3
<
p1 p1
Analogamente a quanto si era visto per i cicli ideali con interrefrigerazione, dal punto di
vista del rendimento ideale anche la pratica della ricombustione si presenta sfavorevole.
Ciclo reale
Si considerino in generale, come mostrato in Fig. 23, più combustioni ripetute che portino
ad un ciclo base 123C e ad un ciclo addizionale 4’3’’4’’3’’’4C.
Fig. 23 Ciclo reale addizionale di combustione ripetuta,
Il rendimento del ciclo addizionale è dato dal rapporto tra il lavoro ottenuto in più (pari
alla differenza tra il calore introdotto lungo 4’3’’, 4’’3’’’, etc, ed il calore sottratto lungo
4C, moltiplicata per il rendimento meccanico η mt del turboespansore) ed il calore speso in
più, che è quello introdotto lungo 4’3’’, 4’’3’’’, etc, diviso per il rendimento η b del
combustore, cioè:
Allo stesso risultato si sarebbe pervenuti considerando η dt come rapporto tra il lavoro
utile, differenza tra i lavori di espansione:
c p ( T4' − TC )
Affinché sia conveniente, dal punto di vista del rendimento finale, ripetere la
combustione, occorre che risulti verificata la disuguaglianza η g < η dt, essendo η g il
rendimento del ciclo base.
T − TC T 1 − TC T4
η dt = η bη mt 1 − 4 = η bη mt 1 − 4
T 1−T T
T3'' − T4' 3' ' 4' 3' '
Fig. 24 Equivalenza di un ciclo addizionale di ricombustione reale
Con riferimento alla Fig. 24, per quanto riguarda il ciclo ideale 4' 3' ' 4 C si vede subito che il
rendimento scritto diviene:
T
η dt = η bη mt 1 − 4
T 3' '
TC = TC e T4 = T4
con due espansioni a pari rendimento politropico (cioè con identico ∆ s) e quindi con i
punti C e 4 situati sulla stessa isobara.
Come conseguenza, il rendimento del ciclo addizionale uguaglia quello di un ciclo ideale,
che evolve però secondo un rapporto di espansione questa volta minore.
Anche per la combustione ripetuta, analogamente a quanto già visto per la compressione
interrefrigerata, si possono individuare le condizioni di ottimo, cercando il valore massimo
del rendimento risultante (media pesata dei rendimenti del ciclo base e di quello
aggiunto) in funzione del rapporto delle temperature T4’/TC, come indicato in Fig. 24.
Risulta che il rendimento diventa massimo, da un punto di vista del ciclo, per valori di
T4’/TC (e quindi di p4’/p4) maggiori di quelli che si sarebbero ottenuti per ricombustione
uniforme. Ciò è dovuto al fatto che si deve considerare, nel bilancio globale, la quantità di
calore che si deve introdurre in più per effettuare la ricombustione.
ηb ' H i h3 − hb ηb ' H i
α' = − ≅ −1
h3 − h2 h3 − h2 c p ( T3 − T2 )
Con riferimento ora alla Fig. 25, per la seconda camera sia x’’ il rapporto della massa di
combustibile iniettata nel secondo combustore rispetto a quella (unitaria) iniettata nel
primo; si può allora scrivere:
( 1 + α' ) ⋅ h4' + x' ' ⋅( hb + η b ' ' H i ) = ( 1 + α' + x' ' ) ⋅ h3''
da cui si ricava:
α'
α' ' =
1 + x' '
α' '
α' ' ' =
1 + x' ' '
Il diagramma di flusso di Fig. 26 mostra un impianto tipico equipaggiato allo scopo con
uno scambiatore di calore, comunemente denominato rigeneratore.
Quindi il calore:
c p ( T4 − T2 )
sarebbe il calore rigenerato con una superficie di trasmissione infinita (o una capacità
termica intermediaria infinita). In realtà occorre una differenza finita di temperatura, per
cui i gas usciranno ad una temperatura T6 > T2.
Qs c p ( T4 − T6 ) T4 − T6
ℜs = = ≅
Qlim c p ( T4 − T2 ) T4 − T2
Con riferimento alla Fig. 27, il rendimento del ciclo è per definizione uguale alla differenza
tra il calore introdotto 505340 ed il calore sottratto 101660, divisa per il calore introdotto.
Per la congruenza delle isobare l’area 101660 equivale all’area 50 1 6 40 .
Fig. 27 Ciclo rigenerativo di TG
Dunque il ciclo a rigenerazione totale 1234 equivale al ciclo non rigenerativo 1 536 , il cui
rendimento ideale può essere espresso da:
c p ( T2 − T1 ) T2 1 − T1 T2
η id = 1 − = 1−
c p ( T3 − T4 ) T3 1 − T4 T3
T2
= βφ
T1
T1 φ
η id = 1 − β
T3
Agli effetti del rendimento, come mostrato anche in Fig. 28, la rigenerazione equivale
dunque ad un aumento della compressione, mentre nessuna influenza esercita (almeno
idealmente) sul lavoro massico.
Naturalmente, si può parlare di rigenerazione solo finché T4 > T2, altrimenti si avrebbe
inversione dei flussi termici nello scambiatore.
1
T 2φ
β < 3
T1
che è lo stesso valore che rende massimo il lavoro. L’intercetta per β = 1 è poi 1 – T1/T3.
Il fatto che a causa della rigenerazione il ciclo abbia lo stesso rendimento ideale di un
altro non rigenerativo a maggior β può essere dimostrato nel piano η id - β , sulla base di
quanto mostrato in Fig. 29.
In particolare, il valore limite del rendimento per il ciclo a rigenerazione totale, che vale:
T1
ηid ,lim = 1 −
T3
viene ottenuto per i due cicli, rigenerativo e non, per i due seguenti valori di β :
1
β ℜ=1 = 1 e T φ
β ℜ=0 = 3
T1
che sono anche i due valori di β per i quali si annulla il lavoro massico.
Ciclo ideale a rigenerazione parziale
Quando la rigenerazione è limitata ad un certo grado o efficacia ℜ s < ℜ s,lim, il rendimento
assume un valore intermedio fra quello del ciclo a rigenerazione totale e quello del ciclo a
rigenerazione nulla e può essere calcolato con riferimento alla Fig. 30.
Qs ( ℜs =1) = Q0 − Q1
Qs = Q0 − Q
Qs = ℜ s ( Q0 − Q1 )
Q = Q0 − Qs = Q0 − ℜ s ( Q0 − Q1 ) = ℜ s Q1 + ( 1 − ℜ s ) Q0
Il reciproco del rendimento (consumo specifico di calore) si ottiene come rapporto tra
calore speso Q e lavoro ottenuto L; dividendo l’espressione precedente per L si ha poi:
Q 1 Q Q
= = ℜs 1 + (1 − ℜs ) 0
L η L L
Cioè, il consumo specifico di calore a rigenerazione parziale è la media ponderale dei due
consumi specifici a rigenerazione totale e nulla, quando come peso si assuma l’efficacia
ℜ s (ed il suo complemento all’unità).
A pari valori del rapporto T1/T3, si possono quindi calcolare per ogni β i valori di η 1 (per ℜ s
= 1) e di η 0 (per ℜ s = 0 e T3 qualsiasi) e quindi parametrare in funzione dell’efficacia ℜ s,
come appare in Fig. 31.
(ℜ s come parametro)
Si vede che, sempre per β < β 0, tutte le curve sono comprese tra i due limiti imposti da η
1 e η 0, si può poi dimostrare che tali curve ammettono un massimo per ℜ s > 0.5.
LT ' 1
−
LC ' η
η g = ηbη mT ηT
Q' 1 − ηC
−
LC ' ηC
si devono aggiungere ora solo le cadute di pressione nello scambiatore utilizzato come
rigeneratore, mediante perdite pneumatiche π s’ e π s, che saranno poi conglobate in η T ed
η C, rispettivamente, come mostrato in Fig. 32.
Fig. 32 Ciclo reale di TG rigenerativo
Invece, il calore realmente speso per raggiungere una data T3 sia avvantaggia delle
perdite nelle macchine più nel ciclo rigenerativo che nell’altro.
Dunque, a parità di rendimento termodinamico delle macchine, nei due casi con ℜ s = 1 e
con ℜ s = 0, la diminuzione di calore speso sarà maggiore con ℜ s = 1, perché è maggiore
nell’espansore la variazione entalpica ideale.
Comunque, nel caso totalmente rigenerativo, il calore speso è equivalente, a meno del
rendimento di combustione η b, al lavoro interno effettivo di espansione, cioè:
Q ⋅ η b = LT ' ⋅η T
L ' 1
η g = η bη mT 1 − C
LT ' η mT η T η mCη C
A rigore però tale espressione non sarebbe esatta così come applicata, perché essa
presuppone la costanza del lavoro utile, che risulta invece minore a parità di β (e delle
altre condizioni) per ℜ s = 1, a causa delle maggiori perdite introdotte.
Nel comportamento quindi di η g in funzione di β si deve quindi tener conto caso per caso
(cioè per ogni valore di ℜ s) dell’effettivo valore del lavoro utile, interpolando in maniera
opportuna tra le due curve del lavoro rappresentate in Fig. 34.
Rigenerazione totale
Come indicato in Fig. 36, essendo ℜ s = 1 il calore speso risulta l’equivalente del lavoro di
espansione e quindi lo stesso con o senza interrefrigerazione. Il lavoro utile viene invece
maggiorato in relazione alla diminuzione del lavoro di compressione. Quindi il rendimento
globale viene nettamente migliorato dalla pratica dell’interrefrigerazione, perché
aumenta L a pari Q.
Le conclusioni rimangono inalterate quando si passa da cicli ideali a cicli reali, con perdite
di attrito nelle compressioni e nell’espansione, sempre fintantoché la rigenerazione sia
totale.
Rigenerazione parziale
Si suppone che ℜ s sia lo stesso per il ciclo senza e per il ciclo con interrefrigerazione. Con
riferimento alle Figg. 36 e 37, si dimostra utile l’interrefrigerazione se il rendimento η dc
del ciclo addizionale 12’1’’2’’1’’’…2 è maggiore del rendimento del ciclo base 1B34.
Fig. 37 Rigenerazione parziale in ciclo interrefrigerato
La quantità di calore introdotta non è però ancora quella equivalente all’area 202BB0, in
quanto bisogna tener conto dell’effetto della rigenerazione parziale sul nuovo ciclo
addizionale. Ricordando che ℜ s è la frazione di calore rigenerato, rispetto al massimo
possibile, la frazione di calore comunque da introdurre deve essere 1 - ℜ s.
η dc
η dc ' =
1 − ℜs
1 ℜs 1 − ℜs
= +
η η1 η0
1 1 − ℜs
=0+
η dc ' η dc
Rispetto al caso senza interrefrigerazione, si dimostra che le varie curve si incontrano per
valori di β più elevati; inoltre, al di là di un certo valore di β , tutte le curve risultano
superiori a quelle tracciate senza interrefrigerazione, come mostrato in Fig. 38.
Fig. 38 Curve di rendimento per cicli interrefrigerati rigenerativi
Per quanto riguarda il primo punto, con riferimento alla Fig. 39, basta mettere a confronto
due cicli, uno non interrefrigerativo 1234 e l’altro invece interrefrigerativo
12’1’’2’’3’’4’’, entrambi nella condizione limite di convenienza rigenerativa. Si vede
così, passando da quello senza interrefrigerazione a quello con, il rapporto di
compressione aumenta, cioè si porta verso destra rispetto al valore β 0 di intersezione
delle varie curve a ℜ s = cost.
Per quanto riguarda il secondo punto, basta ricordare che oltre un certo valore di β , a
parità di efficacia della rigenerazione, si troverà sempre un ciclo addizionale che dia η dc’
> η 0, essendo η 0 il rendimento del ciclo base reale a pari efficacia ℜ s. In particolare,
anche per ℜ s = 0 si è visto che si può sempre trovare un β (tanto più alto quanto più è
basso ℜ s e quindi il massimo essendo ℜ s = 0) tale che risulti η dc maggiore di η 0.
Rigenerazione totale
Il rigeneratore viene ora inserito tra il compressore ed il primo combustore: perciò innalza
la temperatura dell’aria compressa da T2 a T5 ed abbassa la temperatura dei gas di
scarico da T4 a T6, come mostrato nel diagramma di flusso di Fig. 40.
Fig. 40 Diagramma di flusso di ciclo rigenerativo con ricombustione
Come illustrato poi in Fig. 41, essendo per ipotesi ℜ s = 1, segue che il rendimento η dt del
ciclo addizionale diventa unitario in quanto richiede una spesa di calore in più pari
all’area 304’3’’40 diminuita del calore risparmiato pari all’area C0’C’550 = 30C440, cioè
una spesa di calore C4’3’’4 coincidente col lavoro Lu.
Alle stesse conclusioni si perviene considerando un ciclo con perdite, in quanto la spesa
di calore in più è pari alla differenza tra le aree 40’4’3’’30’’ e C0’C’550 coincidente con
l’area C0C440. Tale differenza esprime sempre il lavoro utile.
Quindi, prescindendo dalle perdite organiche, dalle perdite pneumatiche e da quelle che
si hanno nel combustore, anche nel caso reale il ciclo addizionale ha rendimento η dt = 1
e la sua aggregazione al ciclo base è benefica.
Rigenerazione parziale
Si suppone che ℜ s < 1 sia lo stesso sia senza ricombustione che con combustioni
ripetute. Sia poi η dt’ il rendimento del ciclo addizionale con riscaldamenti ripetuti, η dt
quello calcolato con ℜ s = 0 (quindi η dt = η 0) ed infine η 1 = 1 quello corrispondente a ℜ s
= 1 (è il precedente η dt = 1).
1 ℜs 1 − ℜs
= +
η η1 η0
1 1 − ℜs
= ℜs + cioè:
η dt ' η dt
η dt
η dt ' =
1 − ℜ s ( 1 − η dt )
Caso ideale
Il caso ideale si svolge senza perdite e con un’efficacia del 100 %, per cui si ha T5 = T4 e
T6 = T2. I due cicli addizionali si svolgono il primo senza introduzione di calore, il secondo
senza rigetto. I vantaggi di entrambe le pratiche sono dunque evidenti e naturalmente
aumentano se le pratiche stesse vengono ripetute più volte.
Si realizza allora il ciclo di Ericsson che, essendo compreso tra due isoterme e due
isoadiabatiche, presenta lo stesso rendimento del ciclo di Carnet, per cui si ha:
T1
η id = 1 −
T3
Caso reale
Il grafico risultante di Fig. 45 è l’insieme dei vantaggi derivanti dal cumulo delle varie
pratiche.
Si vede che oltre un certo β il rendimento η g rimane praticamente costante (cioè η g non
dipende da β ).
Anche il lavoro massico Lu, come si vede in Fig. 46, subisce forti aumenti passando da un
ciclo semplice (curva a) ad un ciclo complesso (curva d).
Fig. 46 Andamento del lavoro massico in funzione del rendimento per vari cicli.
6.10 Combustibili
Vari tipi di combustibili possono essere bruciati nella camera di combustione di un motore di TG,
come: idrocarburi liquidi e gassosi, metanolo, gas a bassa energia derivato dal carbone e polverino di
carbone. Un caso a parte è rappresentato dalle TG di uso aeronautico che impiegano distillati liquidi del
petrolio (kerosene) e per le quali anche in futuro è improbabile l’utilizzazione di prodotti diversi.
I combustibili ottenibili dal petrolio coprono una vasta gamma di prodotti, a partire dal gas naturale
fino a liquidi di alta viscosità. Il gas naturale viene abbastanza usato, specie in impianti fissi, senza
particolari controindicazioni. I combustibili liquidi possono essere suddivisi in tre grandi categorie in
relazione al peso ed alla volatilità e quindi alle temperature di distillazione:
• Gasoline 30-200 °C
• Kerosene 150-300 °C
• Gasoil 200-370°C
ed in più combustibili liquidi residui, non separabili per distillazione.
Per ragioni economiche, in impianti fissi industriali, ci si orienta verso i gasoli ed i liquidi di residuo. I
gasoli, possedendo ancora una viscosità relativamente bassa, non comportano grossi problemi di
impiego; per i residui invece la scelta è limitata ai prodotti di minor viscosità.
Particolare attenzione deve essere posta ai contenuti di zolfo (onde limitare i problemi relativi a
corrosione e inquinamento atmosferico) ed alle quantità di ceneri prodotte (in quanto il buon
funzionamento della macchina ne risente in maniera determinante).
Sempre nel settore delle TG di applicazione industriale, l’impiego dei combustibili solidi rappresenta
una prospettiva particolarmente interessante per via dei bassi costi relativi. L’impiego del polverino di
carbone presenta però sempre l’inconveniente dovuto all’alto contenuto di ceneri nei gas combusti,
dannose per le palette della turbina.
Il compressore centrifugo viene usato per potenze installate inferiori a 0.5 MW; nella
versione a uno o più stadi, esso risulta più compatto, più semplice e con un
funzionamento più stabile rispetto al compressore assiale.
La scelta cade però necessariamente sul compressore assiale, a grande numero di stadi
per poter fornire il rapporto di compressione richiesto, quando le potenze diventano
rilevanti ed importanti divengono i valori di rendimento, a dispetto degli inconvenienti
citati.
Nel caso invece di turbine tipicamente industriali, l’impianto viene equipaggiato con una
singola camera di combustione, come mostrato in Fig. 50.
Fig. 50 Impianto di TG industriale con camera di combustione singola
La turbina
La ripartizione della caduta entalpica fra i diversi elementi, la scelta del tipo dei singoli
elementi, etc riescono in generale più semplici per le turbine a gas che per le turbine a
vapore, in quanto principalmente:
• Il volume specifico varia molto meno per le TG (circa 4-5 volte al massimo) che per le
TV (anche fino a 2000 volte)
• La portata volumetrica è maggiore, a parità di potenza, già a partire dallo stadio ad
alta pressione, sia per il maggior volume specifico del gas (0.5 m 3/kg per le TG, 10
volte tanto per le TV), sia per il minor lavoro massico utile Lu (120 kJ/kg per le TG
contro più di 1250 per le TV); non occorrono quindi ruote parzializzate o a salti di
velocità (che danno rendimenti troppo bassi)
• La caduta entalpica elaborata nel turboespansore è minore (300 kJ/kg per le TG contro
più di 1250 per le TV)
Il tipo di palettatura più comune è quello assiale. Però per piccole potenze sono usate
anche giranti centripete, a pale molto sviluppate radialmente (con forma analoga a quella
dei compressori centrifughi), come si vede in Fig. 51.
La forma delle palette assiali non differisce molto da quella delle TV, se non per una
maggiore cura di aumentare il rendimento termodinamico. Si hanno così profili variabili
lungo il raggio anche per palette con rapporto l/d che nelle TV poteva tollerare un profilo
costante, come si può vedere in Fig. 52. Si ottengono palette con forte torsione,
disegnate solitamente secondo la teoria del vortice libero.
Fig. 52 Turbina assiale multistadio su due assi
7. MOTORI ALTERNATIVI A COMBUSTIONE INTERNA
7.1 Classificazione
Il motore a combustione interna senza dubbio occupa una posizione importante nel
campo della produzione di potenza. I motori a combustione interna sono affidabili,
compatti e realizzati in impianti autosufficienti che consentono buoni rendimenti termici
operativi.
A differenza degli altri motori termici, l’intero ciclo termodinamico per il motore a
combustione interna è completato all’interno di un singolo elemento, comunemente una
macchina con cilindro e pistone. Un equivalente ciclo termodinamico viene utilizzato nel
motore Wankel, che è una macchina rotativa.
Siccome l’intero ciclo operativo del motore a combustione interna si compie all’interno di
un singolo elemento, che è la macchina cilindro-pistone, non esiste trasferimento di
energia tra fluidi primari di sistema. L’assenza di questo tipo di trasferimento di energia
evita un degrado in temperatura ed una corrispondente perdita in energia disponibile.
Per una migliore trattazione, di solito si usano le seguenti categorie per classificare i
motori a combustione interna:
In Fig. 1 sono illustrate le fasi che consentono di realizzare un ciclo a quattro tempi con
accensione comandata.
Nella fase di aspirazione il pistone si muove verso il basso causando una diminuzione di
pressione nel cilindro. Una miscela aria-combustibile viene aspirata nel cilindro attraverso
la valvola di aspirazione. Nella fase successiva del moto del pistone verso l’alto, la
miscela è compressa ad una pressione di circa 10–12 bar. Entrambe le valvole di
aspirazione e di scarico rimangono chiuse durante la compressione.
Poco prima che il pistone raggiunga il PMS (punto morto superiore, punto più alto della
corsa del pistone) una scintilla è scaricata tra gli elettrodi della candela, causando
l’accensione della miscela. La reazione di combustione normalmente continua per un
breve tratto di corsa del pistone dal suo PMS, dando luogo ad un picco di pressione pari a
circa 30 bar. Durante il movimento verso il basso del pistone i gas si espandono
trasferendo energia al sistema meccanico. Nella fase successiva il movimento verso l’alto
del pistone crea un gradiente di pressione tra l’interno del cilindro e l’atmosfera,
consentendo ai gas di essere scaricati attraverso la valvola di scarico.
Durante l’intero ciclo composto di quattro fasi, la manovella dell’albero motore percorre
due giri completi.
In fig. 2 sono invece illustrate le fasi che consentono di realizzare un ciclo a due tempi ad
accensione comandata. I motori a due tempi sono usati principalmente per installazioni di
bassa potenza.
L’operazione di carica viene effettuata coinvolgendo anche la scatola che contiene tutto il
manovellismo. Nella fase di compressione il movimento verso l’alto del pistone fa in
modo che la pressione nella scatola scenda al disotto della pressione atmosferica. A
causa di questa differenza di pressione la miscela aria-combustibile fluisce all’interno
della scatola attraverso la valvola di aspirazione.
Nella fase successiva la miscela è compressa nella scatola. Appena il pistone scopre i
passaggi di scarico i gas di combustione, per effetto di una pressione relativamente
elevata, vengono scaricati dal cilindro. Come il movimento del pistone verso il basso
continua, i passaggi di ingresso del cilindro vengono scoperti e la miscela compressa
passa dalla scatola al cilindro attraverso il passaggio di interconnessione. In aggiunta alla
carica del cilindro, il flusso di miscela contribuisce alla rimozione dei gas di scarico
residui, con una operazione di pulizia.
Teoricamente a pari valori di diametro, corsa e velocità di rotazione, il motore a due tempi
dovrebbe sviluppare potenza doppia rispetto al motore a quattro tempi, in quanto
descrive l’intero ciclo in un solo giro di manovella. In pratica però questo rapporto è ben
inferiore a due, perché nel motore a due tempi la fase di potenza effettiva viene
accorciata a causa dell’anticipata apertura delle porte di scarico in modo da anticipare il
tempo messo a disposizione per l’operazione di pulizia; di conseguenza, le perdite dovute
all’espansione incompleta sono comparativamente più alte. La carica poi non è
particolarmente efficace a causa dell’incompleta pulizia del cilindro e dello scarso
rendimento volumetrico del contributo della scatola. Il rendimento termico del motore è
infine ridotto dalla perdita di combustibile che avviene quando parte della miscela sfugge
dal cilindro assieme ai gas di scarico durante l’operazione di pulizia.
Il ciclo Otto
L’ingegner N. A. Otto costruiva nel 1876 un motore a quattro tempi, basato sui principi
presentati nel 1862 da Beau de Rochas. Con il termine ciclo Otto ci si riferisce solitamente
al ciclo ideale, rappresentato in Fig. 3 nei due piani p-v e T-s.
Q1 = cv ( T3 − T2 )
Q2 = cv ( T4 − T1 )
γ −1
T1 v 2
=
T2 v1
v1 V1
ρ= =
v 2 V2
η id = 1 − ρ 1−γ
Perciò il rendimento del ciclo Otto ideale cresce al crescere del rapporto di compressione
(e del rapporto dei calori specifici γ ), come rappresentato in Fig. 4.
Dal punto di vista del rendimento conviene l’uso di miscele povere (ricchezza di miscela φ
inferiore all’unità), in quanto i vapori dei combustibili ed i gas combusti (che vengono
però presi in considerazione nel ciclo limite) presentano valori di γ inferiori a 1.4.
Motori reali
Il motore reale, ad accensione comandata, per un certo numero di ragioni, non si
comporta in modo così efficiente come indicato dal ciclo teorico corrispondente che serve
come modello termodinamico. Vengono di seguito descritte brevemente la varie
deviazioni dal modello termodinamico.
Una variazione nel rapporto di miscela della carica fornita ai diversi cilindri disturba le
condizioni che favoriscono un’ottima combustione. Una combustione incompleta è frutto
di imperfetta miscelazione, raffreddamento della fiamma e difficoltà di accensione a
causa di miscela eccessivamente povera.
Mentre avviene la dissociazione dei prodotti gassosi, l’equilibrio chimico non è in verità
stabilito. A causa del congelamento, non viene raggiunta una completa ricombinazione
dei prodotti dissociati quando la temperatura dei gas di combustione diminuisce durante
la corsa di espansione.
Le pressioni di aspirazione e scarico sono assunte identiche nel ciclo teorico. Nei motori
aspirati, la pressione di scarico è più elevata della pressione di aspirazione a causa delle
perdite di carico nei condotti, nei passaggi delle valvole e in altri elementi dei sistemi di
aspirazione e scarico. Il lavoro di pompaggio, necessario per muovere il fluido dentro e
fuori del motore, è proporzionale a questa differenza.
I processi di compressione ed espansione sono non adiabatici per un motore reale. Una
relativamente larga quantità di energia nel combustibile è trasferita come calore al
sistema di raffreddamento durante combustione ed espansione e durante la corsa di
scarico. Il calore così trasferito non rappresenta una equivalente perdita in lavoro
potenziale perché molta di questa energia non sarebbe disponibile. Il calore trasferito dal
gas durante la corsa di scarico è interamente non disponibile in quanto l’espansione
all’interno del cilindro è ormai completata. La disponibilità di energia è infatti ad un
massimo quando i gas sono al picco di temperatura di combustione e crolla a zero alla
fine della corsa di espansione.
Le perdite esaminate costituiscono perdite termodinamiche che sono responsabili per una
diminuzione del rendimento termico nei confronti del corrispondente ciclo teorico.
me
ηv =
m st
Nella definizione data, me è la massa di aria effettivamente aspirata dal motore durante
la corsa di aspirazione e mst è la massa di aria che occuperebbe, alle condizioni
atmosferiche, il volume spazzato dal pistone.
Il rapporto tra lavoro del ciclo limite e lavoro del ciclo ideale prende il nome di rendimento
limite:
Ll
ηl =
Lid
I valori di questo rendimento possono essere ricavati dalla Fig. 4 per cicli teorici (limite) al
variare del rapporto di miscela (ricchezza di miscela φ = α st/α ).
Quando anche per il motore cade l’ipotesi di idealità, si può tentare di costruire un ciclo
reale sulla base di tutte le perdite cui si è già fatto riferimento. Solitamente si preferisce
però rilevare sperimentalmente l’andamento delle pressioni in funzione della corsa del
pistone (proporzionale ai volumi spazzati ed anche al volume specifico), ottenendosi
quello che si chiama ciclo indicato, del tipo di quello schematicamente indicato in Fig. 7, a
pieno carico e a carico parziale.
L’area netta del ciclo è il lavoro indicato e si può così definire un rendimento indicato come rapporto
tra lavoro indicato e lavoro limite:
L
ηi = i
Ll
Li
η i* =
Lid
con risultati ovviamente alla fine identici quando non si consideri il rendimento limite.
Con riferimento infine al lavoro effettivo all’asse (o al freno) si può definire un rendimento
organico come rapporto tra questo lavoro ed il lavoro indicato:
Le
ηo =
Li
Le
η= = η id η lη iη o
Q
Si definisce poi pressione media indicata il lavoro indicato per unità di cilindrata e per
ciclo:
Li
p mi =
V
e pressione media effettiva il lavoro effettivo, sempre per unità di cilindrata e per ciclo:
Le
p me =
V
Sia ora Hv la quantità di calore, per unità di cilindrata, che viene fornita al fluido di lavoro
che effettivamente entra nel cilindro; si può allora scrivere:
H i 1 H i λv
Hv = =
α ve α va
H i λv
p mi = η id η lη i e
α va
H i λv
p me = η o p mi = η
α va
Ricordando infine che la pressione media è il lavoro per unità di cilindrata e per ciclo, si
può scrivere l’espressione della potenza come:
n
Pi = p miV e
ε
n
Pe = p meV
ε
dove n/ε è il numero di cicli ripetuti nell’unità di tempo (con ε = 1 per un motore a due
tempi ed ε = 2 per un motore a quattro tempi).
Q 1
qc = =
Le η
qc 1
qb = =
H i ηH i
3.6 ⋅ 10 6
qb =
ηH i
Un certo aumento nel numero di gradi di rotazione della manovella è causato dalla bassa
velocità di fiamma in vicinanza della candela. In questa zone l’alto scambio termico verso
la parete relativamente fredda del cilindro produce un ritardo di combustione, il cui
effetto è appunto quello di dover anticipare di conseguenza l’accensione della candela,
come pure avviene per compensare la diminuzione in velocità di propagazione di fiamma
ai carichi parziali per la ridotta pressione della miscela aria combustibile e per
l’aumentata diluizione dei gas combusti. Inoltre, l’accensione della candela viene
anticipata per compensare un aumento nell’umidità dell’aria di combustione. Le molecole
d’acqua presentano infatti lo stesso effetto diluente delle molecole di gas combusto
inerte.
Detonazione
La detonazione è un fenomeno molto importante associato alla combustione nei motori
ad accensione comandata. Tale fenomeno avviene secondo un processo molto
complesso.
Come il fronte di fiamma avanza, la temperatura della porzione più lontana di carica non
ancora bruciata continua ad aumentare. In determinate condizioni, presenti all’interno del
cilindro, la temperatura della carica non bruciata raggiunge la temperatura di accensione
spontanea della miscela. In parecchi punti di questa porzione non bruciata l’accensione
avviene simultaneamente e l’intera massa brucia molto rapidamente ed in effetti a
volume costante. Il gradiente di pressione è alto e le onde di pressione risultanti
attraversano il gas e colpiscono la parete del cilindro con un udibile rumore: causando
anche vibrazioni nel metallo della parete, la detonazione risulta in perdita di potenza e in
ridotto rendimento termico. Severa detonazione, se continuata, causa danneggiamenti al
motore, in particolare al pistone ed alle valvole di scarico. Distruzione di parti di motore è
apparentemente il risultato di elevate temperature del metallo che sono causate da
aumentato scambio termico associato col fenomeno della detonazione.
Carburazione
La funzione del carburatore è di iniettare combustibile liquido, solitamente benzina, nella
corrente d’aria aspirata nei cilindri di un motore ad accensione comandata. Più
specificamente, il carburatore provvede ad atomizzare il combustibile ed a misurarne il
corretto quantitativo in rapporto ala quantità d’aria.
L’esatta quantità di combustibile dipende dalle condizioni operative del motore, che
possono variare ampiamente e spesso rapidamente. La vaporizzazione delle goccioline di
combustibile avviene nel condotto di aspirazione ed all’interno del cilindro. L’effetto del
variazione del rapporto di miscela sulle prestazioni del motore a mostrato in Fig. 8.
Fig. 8 Effetto del rapporto di miscela sulle prestazioni di un motore
Un semplice carburatore non può fornire il corretto rapporto di miscela richiesto per tutte
le condizioni di carico dal motore. I carburatori tipici per autoveicolo sono alla fine delle
apparecchiature particolarmente complesse, con una combinazione di getti di
combustibile e spillamenti d’aria, una pompa di accelerazione ed una valvola di
strozzamento.
I motori a combustione interna ad accensione non comandata, noti come motori Diesel,
sono normalmente costruiti con rapporti di compressione compreso tra 14 e 22. In questi
motori, caratteristicamente, solo aria viene compressa e, nella fase di compressione,
sono raggiunte nel cilindro pressioni dell’ordine di 35 bar e più, con una corrispondente
temperatura dell’aria di circa 540 °C. Nell’intorno del PMS, il combustibile viene iniettato
nella camera di combustione ed immediatamente si ha accensione e combustione.
Pressioni di iniezione del combustibile sono nell’ordine di 70-700 bar.
Rapporti di compressione dell’ordine di almeno 15 sono richiesti per far partire il motore senza l’uso di
sistemi ausiliari di accensione. Una volta partito, comunque, un motore con un più basso rapporto di
compressione può continuare a funzionare sulla base della sola accensione per compressione.
I motori Diesel sono classificati in base alla loro velocità operativa, cioè: motori lenti, con velocità
sotto i 500 rpm, motori a media velocità, tra 500 e 1000 rpm e motori veloci, con velocità superiore a
1000 rpm. Motori Diesel molto grossi e molto lenti, con diametri di cilindro fin quasi un metro, sono
usati in impianti di potenza fissi e marini. Diametri di cilindro di motori di media velocità sono intorno
a 150-300 mm, per installazioni su locomotive e in piccoli impianti di potenza fissi e marini. Motori
Diesel veloci sono usati diffusamente nel campo autoveicoli e per diversi piccoli impianti di potenza.
Realizzazioni di motori Diesel sono sia a quattro che a due tempi. Entrambi questi cicli sono impiegati
per motori costruiti con diametri di cilindro fino ad un massimo di 600 mm. Per cilindri di diametro
maggiore i motori operano esclusivamente con cicli a due tempi. Un confronto basato a pari potenza
installata mostra che il peso del motore a due tempi consente un risparmio in peso, rispetto al quattro
tempi, di circa 25-35 %.
Un ciclo a due tempi richiede una fasatura che differisce sostanzialmente da quella adottata per un ciclo
a quattro tempi (già mostrata in Fig. 5), che viene rappresentata di seguito in Fig. 9.
Le luci di ingresso sono scoperte durante la corsa di espansione, però dopo l’apertura della valvola di
scarico. A causa del poco tempo a disposizione per il lavaggio, la valvola di scarico si apre molto presto
nella corsa di espansione e si chiude dopo la chiusura delle luci di ingresso.
Una sostanziale porzione di gas viene scaricata attraverso le luci di scarico, prima dell’introduzione di
aria per il completamento del lavaggio. Il lavaggio continua anche dopo la chiusura delle luci di
ingresso.
Il rendimento della corsa di espansione è ridotto dall’apertura della valvola (o delle luci) di scarico,
prima che il pistone raggiunga il PMI.
Il periodo di ritardo di accensione e buona parte del secondo stadio avvengono durante il
movimento verso l’alto del pistone, col secondo stadio di combustione che termina nel
punto dove viene raggiunto il picco di pressione. Il combustibile non ancora bruciato che
rimane dal secondo stadio, assieme al combustibile successivamente iniettato, brucia
durante il terzo stadio, che occorre durante il movimento verso il basso del pistone.
Poiché questo combustibile iniettato viene introdotto in un ambiente a temperatura molto
alta, la combustione inizia immediatamente. Durante il terzo stadio, la combustione è
controllata, fino ad un certo punto, dal modo in cui il gasolio viene iniettato e
dall’aumento di temperatura che avviene con piccole variazioni in pressione. Il terzo
stadio finisce nel punto in cui la combustione è misurabilmente completa, virtualmente
alla fine dell’iniezione.
L’elevato gradiente di pressione durante il secondo stadio può risultare in un rumore che
è caratteristico del motore Diesel. Fino ad un certo punto questo rumore può essere
tollerato, ma, se severo, esso diventa indesiderabile sia dal punto di vista del rumore che
come possibile danno al motore. Questo martellamento è abbastanza simile a quello del
motore ad accensione comandata, in quanto entrambi i fenomeni risultano da
autoaccensione del combustibile. Nel motore Diesel, la comparsa dei colpi avviene nei
primi stadi della reazione di combustione e risulta dalla desiderata caratteristica di
autoaccensione del gasolio. Nel motore ad accensione comandata, la detonazione è
associata con lo stadio finale della reazione come risultato di una proprietà indesiderata
di autoaccensione della benzina.
Il ciclo Diesel
Il ciclo ideale è mostrato in Fig. 11. Siccome il ciclo non è simmetrico, il rendimento
termico del ciclo non risulta funzione solamente del rapporto di compressione.
Fig. 11 Ciclo Diesel nel piano p-v e nel piano T-s
Q1 = c p ( T3 − T2 ) e
Q2 = cv ( T4 − T1 )
Q2 c T T T −1
η id = 1 − = 1− v 1 4 1
Q1 c p T2 T3 T2 − 1
v1 V1
ρ= =
v 2 V2
v 3 T3
τp = =
v 2 T2
ed essendo:
cv 1
=
cp γ
γ −1
T1 v 2 1
= =
T2 v1 ρ γ −1
γ γ γ γ γ γ
T4 p p p v p v v3 v v3 v
= 4 = 2 4 = 1 4 = 1 = 1 = 3 = τ p γ
T1 p1 p1 p 2 v 2 p 3 v 2 v4 v2 v1 v2
η id = 1 − γ −1
ρ γ (τ p − 1)
Il confronto tra i rendimenti dei cicli ideali Otto e Diesel mostra che il secondo differisce
dal primo solo per il termine racchiuso tra le parentesi quadre. Siccome τ p > 1, la
quantità tra parentesi è pure maggiore dell’unità. Perciò, per un assegnato valore del
rapporto di compressione, il rendimento ideale del ciclo Diesel è minore di quello del ciclo
Otto.
L’addizione di calore a pressione costante, responsabile del minor rendimento del ciclo
Diesel nei confronti del ciclo Otto, non è però indicativa del reale processo di combustione
del motore Diesel. Infatti, il combustibile è bruciato sostanzialmente in due stadi che si
avvicinano a combustione a volume costante ed a pressione costante, come avviene ad
esempio nel ciclo Sabathè. Questo ciclo non è comunque di pratica utilità come modello
termodinamico, in quanto non risulta ben definita la suddivisione tra i processi a volume
costante ed a pressione costante.
Motori reali
Passando dal ciclo ideale a quello limite ci si basa, per il ciclo Diesel, sulle stesse
assunzioni che sono state fatte a suo tempo per il ciclo Otto limite, e cioè che il fluido di
lavoro sia una miscela di gas reale e rappresentativa. Vengono usate le proprietà reali del
fluido e viene osservato l’equilibrio chimico nella valutazione del ciclo. La selezione di un
processo rappresentativo di combustione per il ciclo Diesel limite non può essere data
comunque.
L’operazione di un ciclo Diesel reale devia dal ciclo limite (teorico) essenzialmente che
per il ciclo Otto. Valori relativi di rendimento per motori Diesel e Otto sono generalmente
simili.
E’ principalmente a causa dell’operazione con valori più alti del rapporto di compressione
e dell’impiego di rapporti di miscela più magri che in definitiva il rendimento globale al
freno di un motore a combustione non comandata assume valori che cadono in un campo
decisamente al di sopra di quelli del motore ad accensione comandata.
Le curve di prestazione per un motore Diesel sono generalmente simili a quelle osservate
per un motore ad accensione comandata. Le caratteristiche di ogni singolo tipo di motore
influenzano le curve di prestazione e la relativa posizione del punto di massimo o minimo
valore.
La coppia è proporzionale al rapporto potenza al freno/rpm. Per buona parte del campo
operativo la potenza al freno non aumenta così rapidamente come il numero di giri, per
cui la coppia del motore essenzialmente diminuisce all’aumentare della velocità.
Fig. 13 Curve del consumo specifico in funzione del percento di potenza al freno
(a giri costanti)
Tipici valori infine per valori massimi della pressione media effettiva vanno, per motori
aspirati ad accensione comandata e per motori Diesel, da 8.5 a 9.0 bar; per motori turbo
compressi da 12.5 a 13.0 bar.
L’energia sensibile e l’energia latente dei gas combusti e l’energia trasferita come calore
al sistema di raffreddamento rappresentano frazioni sostanziali dell’energia del
combustibile. L’energia dei gas combusti scaricata da grosse macchine industriali è
spesso parzialmente recuperata in applicazioni di riscaldamento o di processo.
Motori supercompressi possono essere sia ad accensione comandata che di tipo Diesel,
sia a quattro che a due tempi. Solitamente si impiega a questo scopo un processo a
bassa pressione che produca un aumento in pressione da 0.2 a 0.4 bar. Tale processo
aumenta la pressione nel cilindro all’inizio della compressione, producendo così un
aumento nei valori massimi di pressione e di temperatura. Per i motori ad accensione
comandata, il problema della detonazione pone un limite alla sovralimentazione. Per
applicazioni ai motori Diesel, la sovralimentazione deve adeguarsi alle limitazioni
termiche e strutturali della macchina.
Compressori centrifughi e volumetrici, sia a lobi che a vani, sono comandati direttamente
dall’albero motore, assorbendo così una parte di potenza. Il turbocompressore, una
macchina ad alta velocità, utilizza l’energia dei gas di scarico per dar potenza alla
turbina, che a sua volta comanda il compressore centrifugo. Durante la compressione, la
temperatura dell’aria aumenta di circa 30 °C, per cui è richiesta l’installazione di un
interrefrigeratore che riporti la temperatura dell’aria praticamente ai valori originali.
Un sostanziale aumento nella pressione media effettiva può essere raggiunto nei motori
Diesel fortemente sovralimentati. Il rapporto di compressione del compressore per motori
Diesel industriali sovralimentati è solitamente limitato a 2.5. L’aumento in pme che ne
consegue produce una riduzione nella massa specifica, misurata in kg/kW, del motore. La
sovralimentazione produce un modesto aumento nella massima pressione del cilindro, un
significativo fattore pertinente al progetto strutturale del motore. In generale, i motori
sovralimentati tendono a mostrare una riduzione nel consumo specifico.
I sistemi di sovralimentazione provvedono in più anche alla fase di lavaggio per i motori
Diesel a due tempi.
8. IMPIANTI PER LA GENERAZIONE DI ENERGIA TERMICA E FRIGORIFERA
Nel suo significato più generale, un impianto a ciclo combinato consiste nell’integrazione di due o più
cicli termodinamici di potenza in modo da convertire più completamente ed efficacemente energia in
lavoro o potenza. Migliorando in affidabilità e disponibilità nelle turbine a gas, il termine impianto a
ciclo combinato oggi si riferisce solitamente ad un sistema composto da turbina a gas, generatore di
vapore a recupero e turbina a vapore, come mostrato schematicamente in Fig. 1.
Molte attività manifatturiere, in cui ad esempio si impieghino macchine per carta o tessuti, richiedono
potenza meccanica od elettrica così come vapore per riscaldamento di processo. Per tali applicazioni, si
devono fare studi dei relativi vantaggi e costi per:
• Un impianto dove la potenza viene acquistata e si genera vapore solo per richieste di
riscaldamento
• Un impianto dove vapore e potenza sono generati nello stesso sistema.
Una appropriata valutazione dei relativi meriti delle due alternative richiede conoscenza
delle richieste di vapore e potenza, abilità nel correlare queste richieste, studi economici
e buon giudizio, sulla base di quanto segue in sommario:
• Il vantaggio economico di base nel generare vapore e potenza nello stesso sistema sta
nell’utilizzo di una più larga porzione di calore fornita dal combustibile. Quando si
genera solo elettricità, fino al 60 % del calore fornito dal combustibile è perso nel
sistema di condensazione, perfino nelle più moderne centrali.
• A dispetto di questo fondamentale vantaggio termodinamico, è frequentemente più
economico acquistare potenza quando questa è disponibile a prezzi ragionevoli da una
fonte affidabile, salvo che:
Combustibile da rifiuti e calore da rifiuti o gas caldi siano disponibili a basso costo da
impianti di processo;
Le domande di calore e potenza da vapore siano ragionevolmente parallele e
relativamente grandi, cioè 20 t/h di vapore e più.
• Due approcci vengono impiegati per la cogenerazione. Dove il gas naturale è poco
costoso e reperibile sul posto, una turbina a gas può essere impiegata per generare
potenza, col calore di scarico della turbine usato per produrre vapore in un generatore
di vapore a recupero. Dove un combustibile da scarti o sottoprodotti (coke o similari) è
il combustibile economico a scelta, si impiega un ciclo di turbina vapore, con vapore
ad alta temperatura prodotto in caldaia e poi passato in turbina per generare potenza.
Dopo di che il vapore in uscita viene condizionato (cioè portato ai valori appropriati di
temperatura e pressione) e quindi inviato al processo.
• Variazioni in domanda di calore di processo e potenza solitamente non coincidono. Per
compensare le differenze si può ricorrere ad una varietà di opzioni, legate alle
seguenti considerazioni economiche:
Il sistema è a base turbina a gas: se la domanda di vapore tipicamente eccede la
domanda di potenza, bruciatori ausiliari sono aggiunti al generatore di vapore a
recupero; se la domanda di carico elettrico tipicamente eccede la domanda di vapore,
la potenza in più richiesta può essere acquistata all’esterno.
Il sistema è a base vapore: se la domanda di vapore tipicamente eccede la domanda
di potenza, questo flusso di vapore dalla turbina può essere aiutato con bruciatori
ausiliari in caldaia e quindi il vapore addizionale può passare attraverso un sistema
per la riduzione di pressione e temperatura; se la domanda di potenza è tipicamente
più alta, si può ricorrere sia ad un sistema con turbina a condensazione che
all’acquisto dall’esterno della potenza in più.
Quando le richieste di processo per vapore e potenza sono ragionevolmente parallele e costanti, la
cogenerazione può risultare vantaggiosa, pur includendo costi di capitale, conduzione e manutenzione.
Attraverso l’impiego del calore scaricato, l’utilizzazione totale dell’energia può avvicinarsi all’80 %
contro il 50 % del miglior sistema a ciclo combinato di turbina a gas.
Quando invece esistono discontinuità di servizio o significative differenze di richieste di
vapore e potenza, allora acquisto di elettricità dalla rete e generazione di vapore sul
posto sono la soluzione più economica.
Generazione di potenza
Con l’eccezione di piccole isolate installazioni, una turbina ad alta velocità è il motore
primo di scelta per la generazione di potenza dal vapore, a causa del suo rendimento,
della sua compattezza e del suo basso costo. Continui miglioramenti in affidabilità,
riduzione di costi e disponibilità di sistemi compatti hanno reso più popolare la
generazione di potenza sul posto. Dove il gas naturale è disponibile ed a buon prezzo,
semplici turbine a gas, specialmente in unità compatte, hanno tendenza a dominare per
bisogni di produzione di potenza in sito. Dove combustibile da rifiuti (o carbone a basso
costo) è disponibile, un sistema a caldaia e turbina a vapore può dimostrarsi il più
economico a fornire potenza sul posto. La selezione di pressione e temperatura del
vapore per tali sistemi dipende da una valutazione tipicamente economica.
Recupero totale
Le motrici degli impianti a recupero totale sono dette a contropressione, perché la
pressione di scarico è imposta dall’impiego tecnologico (e può mancare anche il
condensatore quando gli apparecchi di riscaldamento prendono la sua funzione).
Con riferimento alla Fig.2, sia P la potenza richiesta e G il fabbisogno orario di vapore,
alle condizioni p1 e T1.
Fig. 2 Rappresentazione nel piano T-s del recupero totale
∆h
∆had =
ηt
Siccome il punto 1 è completamente definito sul piano T-s, il punto 0 di inizio espansione
è immediatamente determinato dall’intersezione di una isoentalpica (costruita ∆ h sopra il
punto 1) con una isoentropica che parte dal punto 1’, costruito sull’isobara p1 ad entalpia
∆ had - ∆ h sotto il punto 1.
Il rendimento totale del processo è pari al rendimento meccanico della turbina in quanto
non esistono altre perdite.
Recupero parziale
Con riferimento alla Fig. 3, sia sempre 1 il punto che rappresenta le condizioni del vapore
per uso tecnologico; sia poi G la portata che si utilizza per il riscaldamento a cui si
affianca la portata G’ di vapore che continua ad espandersi in turbina fino alla pressione
pk di condensazione.
P = η m [ G ( h0 − h1 ) + G' ( h0 − hk ) ]
Questa relazione consente di ricavare la portata richiesta in più per soddisfare la richiesta
di potenza:
P h0 − h1
G' = −G
η m ( h0 − hk ) h0 − hk
Se tale ciclo ha come scopo di sottrarre il calore Q2 da una sorgente a bassa temperatura
per scaricarlo come calore ceduto Q1 ad una sorgente a temperatura più alta, fornendo
un certo lavoro L, allora si parla di ciclo frigorifero, la cui efficacia, o effetto utile o COP
(Coefficient of Performance), vale:
Q2 Q2 1 1
ε= = = =
L Q1 − Q2 Q1 T1
−1 −1
Q2 T2
Q1 Q1 1 1
ε= = = =
L Q1 − Q2 Q T
1− 2 1− 2
Q1 T1
Secondo questo ciclo, vapore saturo a bassa pressione entra nel compressore ed in modo isoentropico
giunge alla pressione di condensazione; esce dal condensatore alle condizioni di liquido saturo per
ritornare alla pressione di evaporazione attraverso lo strozzamento (isoentalpico) di una valvola.
Il ciclo percorso differisce dal ciclo di Carnot sia perché, alla fine della compressione, il
fluido di lavoro si trova surriscaldato rispetto alla temperatura di condensazione, sia
perché l’espansione non avviene ad entropia costante, in quanto la turbina
eventualmente usata si troverebbe ad elaborare un fluido liquido soltanto in partenza.
E’ chiaro che in questo caso nella definizione di COP non si possano sostituire le
temperature ai calori.
Nella realtà, la trasformazione di compressione avviene con un certo rendimento
adiabatico (o politropico), con un corrispondente lavoro di compressione maggiore (ed
anche un maggior calore ceduto alla temperatura più elevata).
Visto che il calore scambiato avviene a pressione costante, i cicli frigoriferi sono molto
spesso studiati in un piano p-h.
Secondo questo ciclo, si ferma la trasformazione isoentalpica, iniziata nel punto 1, ad una
pressione intermedia p3 (da determinarsi in seguito secondo un processo iterativo); nel
punto 5 così determinato si ha una parte di vapore x ed una di liquido 1 – x: la fase
vapore viene direttamente aspirata dal secondo stadio del compressore, in quanto non
sarebbe di alcuna utilità per il ciclo, mentre la fase liquida viene ulteriormente espansa in
modo isoentalpico fino al punto 2, da dove prosegue regolarmente fino al punto 3,
raccogliendo calore dall’evaporatore. Nel primo stadio di compressione si esegue così la
trasformazione 3-9 dalla pressione p2 alla pressione p3.
1 ⋅ ( h8 − h7 ) = ( 1 − x )( h9 − h7 ) cioè:
h8 = h9 ( 1 − x ) + h7 x
Una volta definiti tutti i punti del ciclo, è possibile calcolare il COP sulla ipotesi di un certo
valore di p3 assunto in prima approssimazione. Riportando in diagramma COP in funzione
di p3 è poi possibile definire il valore della pressione intermedia che ottimizza il ciclo, sulla
base del punto di massimo COP identificato.
I fluidi frigoriferi solitamente impiegati appartengono alla famiglia dei Freon (idrocarburi
alogenati).
Il ciclo frigorifero ad assorbimento differisce quindi dal ciclo a compressione di vapore per
il modo in cui la compressione viene effettuata. Nel ciclo ad assorbimento vapore a bassa
pressione di ammoniaca è assorbito in acqua e la soluzione liquida viene pompata ad alta
pressione mediante pompa a liquido, secondo quanto mostrato schematicamente in Fig.
8.
Fig. 8 Ciclo frigorifero ad assorbimento di ammoniaca
La caratteristica che distingue il sistema ad assorbimento sta quindi nel fatto che solo un
piccolo lavoro è richiesto, in quanto il processo di pompaggio interessa un liquido. D’altro
canto, una sorgente di calore a temperatura relativamente alta deve essere a
disposizione (da 100 a 200 °C). Il macchinario coinvolto in un sistema ad assorbimento è
abbastanza più grande di quello di un sistema a compressione di vapore e può
solitamente essere economicamente giustificato solo in quei casi dove appare disponibile
una opportuna sorgente di calore che andrebbe altrimenti sprecata.
Alternatore
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
Questa voce o una sua sezione non riportano le relative fonti e i riferimenti utilizzati,
utili per verificare l'attendibilità dei contenuti. Se puoi, aiuta la voce inserendo le
appropriate citazioni, e poi rimuovi questo avviso. Nel caso in cui soltanto alcune
circoscritte affermazioni siano mancanti di fonti, utilizza il template {{citazione
necessaria}}
Un alternatore trifase
L'alternatore è una macchina elettrica rotante, che trasforma energia meccanica in energia elettrica
sotto forma di corrente alternata.
Svolge in pratica l'azione inversa rispetto al motore sincrono e presenta la stessa struttura di base.
La macchina è costituita da una parte cava fissa, chiamata statore, al cui interno ruota una parte
cilindrica mobile, detta rotore. Sullo statore sono presenti gli avvolgimenti elettrici su cui vengono
indotte le forze elettromotrici che sosterranno la corrente elettrica prodotta. Il rotore genera il campo
magnetico rotante per mezzo di elettromagneti. Questi elettromagneti sono a loro volta
opportunanmemte alimentati.
Un esempio sono i generatori delle grosse stazioni di produzione di energia elettrica, quelle
idroelettriche, quelle a vapore o altre; anche le centrali nucleari utilizzano il medesimo principio: la
reazione termonucleare serve solo a generare il calore necessario ad un comune ciclo termico che,
facendo ruotare un albero, mette in movimento l'asse di un alternatore.
In questi grandi alternatori, la tensione prodotta è nell'ordine di migliaia di volt, solitamente trifase alla
frequenza di 50 Hertz (60 negli Stati Uniti e pochi altri paesi).
Un alternatore è presente anche nelle automobili, con la funzione di mantenere carica la batteria ed
alimentare tutte le funzioni elettriche di bordo. Poiché la batteria opera in corrente continua, è presente
un raddrizzatore, con la funzione di trasformare la corrente alternata in continua.
Nelle biciclette è utilizzato un piccolo alternatore per alimentare (in corrente alternata) i fanali.
In entrambi i casi è preferito l'uso dell'alternatore rispetto alla dinamo poiché quest'ultima è meno
affidabile per la presenza di collettore e spazzole, assenti nel primo.
quindi in questo caso, dato che la spira ruota ci saranno variazioni del flusso che attraversa la spira e la
suddetta relazione può essere indicata come:
per α0 si intende l'angolazione iniziale da cui parte l'alternatore; quindi dividendo tutto per R:
La formula trovata quindi descrive l'andamento della corrente o della tensione generata da un
alternatore, essa ha un andamento sinusoidale.
Dinamo
Da Wikipedia, l'enciclopedia libera.
Vai a: Navigazione, cerca
Una dinamo è una macchina elettrica rotante per la trasformazione di lavoro meccanico in energia
elettrica, sotto forma di corrente continua (DC, per gli inglesi, direct current).
Indice
[nascondi]
• 1 Descrizione
• 2 Campi di utilizzo
• 3 Invenzione
• 4 Voci correlate
• 5 Collegamenti
esterni
[modifica] Descrizione
Nella sua forma più semplice consiste di una spira conduttrice immersa in un campo magnetico
(generato ad esempio da una coppia di magneti permanente) messa in rotazione da un albero. Per la
legge di Lenz un conduttore che si muove in un campo magnetico (purché non parallelamente ad esso)
vede nascere una differenza di potenziale (ddp); chiudendo quindi la spira su un carico elettrico (ad
esempio una lampadina, o un accumulatore) si può misurare una corrente scorrere nella spira stessa e
nel carico (la lampadina si accende). Se ci fermassimo qui, però, la dinamo non funzionerebbe. Infatti
fin qui la corrente è tutt'altro che continua: la differenza di potenziale nella singola spira varia con
legge sinusoidale con l'angolo di rotazione e quindi cambia segno ogni mezzo giro (producendo
corrente alternata). È quindi necessario connettere i capi della spira ad un oggetto chiamato "collettore"
o "commutatore", calettato sul rotore e solidale ad esso, che, attraverso un contatto strisciante con
spazzole (dette carboncini), scambia i capi della spira ogni mezzo giro mantenendo la tensione in uscita
sempre dello stesso segno.
Per motivi di corretto funzionamento ed efficienza energetica le realizzazioni reali sono leggermente
più complesse, prevedendo diverse spire avvolte sul rotore lungo i 360° ognuna delle quali deve
commutare i propri capi ogni mezzo giro. Inoltre, per potenze superiori a pochi watt, anche lo statore
(quello che genera il campo magnetico) è "avvolto", cioè il campo magnetico è prodotto da spire
avvolte sui poli statorici, all'interno delle quali scorre la corrente di induzione o di eccitazione.
La dinamo viene anche applicata al telaio della bicicletta così da far funzionare il faro bianco anteriore
e la luce rossa di posizione posteriore senza ricorrere alla pila o a batteria, ma sfruttando
semplicemente il movimento di una delle ruote del mezzo.
[modifica] Invenzione
La prima dinamo basata sui principii di Faraday fu costruita nel 1832 a Parigi da Hippolyte Pixii. La
macchina era costituita da un magnete che veniva fatto ruotare con una manovella. I poli nord e sud del
magnete passavano ripetutamente davanti a un pezzo di acciaio avvolto da un cavo elettrico,
producendo impulsi di corrente in direzioni opposte. Dopo l'aggiunta di un convertitore, Pixii fu capace
di trasformare la corrente alternata in corrente continua. L'apparato fu chiamato dal suo inventore
macchina magnetoelettrica.
Un albero A - B, sostenuto da due bronzine alle estremità, porta una ruota dentata C che trasmette
una potenza N alla velocità di n giri al minuto. Redigere una relazione sui problemi che si devono
affrontare per rendere sicuro l'albero.
E' intuitivo che l'albero deve resistere contemporaneamente a due sollecitazioni: 1) quella dovuta al
peso proprio e al peso portato dovuto alla ruota (o alle ruote) calettata su di esso; 2) quella che,
provenendo da un altro organo meccanico (ruota C'), provoca il movimento rotatorio dell'albero stesso
e in funzione della quale asse e ruota vengono costruite ed usate.
PRELIMINARI
A) AZIONE FLETTENTE
M'=Pl/4 (5)
e ancora zero sugli appoggi.
2) Queste considerazioni si modificano in modo sostanziale quando si tiene conto dei seguenti fatti:
a) l'albero non appoggia su un punto del perno, ma lungo un tratto di generatrice del cilindro che
costituisce l'albero, anzi meglio su una sola parte di tale generatrice in quanto sia l'albero che il
cuscinetto sono deformati: ciò comporta notevoli differenze nel regime di distribuzione delle forze
esterne e delle reazioni dei vincoli (vedi un problema analogo in Progetto di un albero motore).
(NON E' FACILE RAPPRESENTARE LA DEFORMAZIONE!)
b) l'albero non è fermo ma in rotazione più o meno rapida, per cui si deve tener conto delle
sollecitazioni dinamiche che rendono più complicato il problema.
c) lo stato di sforzo principale non è dovuto al momento flettente ma al momento torcente derivante
dall'impiego funzionale della ruota come organo di trasporto di forze tangenziali.
B) AZIONE TORCENTE
a) La sollecitazione semplice di torsione si ottiene per esempio quando un cilindro, tenuto fermo ad
una estremità, viene fatto ruotare applicando all'altro estremo una coppia di forze tangenziali (vedi
figura). In modo banale è l'azione che si esercita sul volante dell'automobile per cambiare direzione.
Il momento della coppia agisce secondo l'asse del cilindro facendo avvolgere le fibre le une sulle altre
come accade ai fili delle funi. Si sviluppano così tensioni interne tangenziali, cioè giacenti sulle sezioni
normali all'asse e tendenti a far ruotare la sezione S' rispetto alla sezione contigua S''. In tal modo i
diametri D' e D'' inizialmente paralleli e verticali si dispongono secondo due direzioni inclinate fra loro
dell'angolo
γ = γ' - γ''
Si definisce angolo di torsione l'angolo di cui ruotano due sezioni distanti 1 m fra loro.
b) Lo sforzo di compressione si esprime con la legge di Hooke
σ=Eε (6)
essendo ε l'accorciamento di una fibra lunga 1 m. In modo analogo si definisce lo sforzo tangenziale
dovuto alla torsione
τ=Gγ (7)
nella quale G è il modulo di elasticità tangenziale di significato simile a quello di E. Ricordando che fra
E, G ed m (coefficiente di Poisson o di contrazione trasversale) esiste la relazione
G = m E / 2 (1 + m) (8)
e che per l'acciaio m = 10 / 3, risulta
G / E = m / 2 (1 + m) = 10 / 3 / 2 (1 + 10 / 3) = 0,385
dalla quale si ricava
G = 0,385 E = 0,385 x 21.000 = 8.100 kg / mm2 (9)
c) Se consideriamo, in un cilindro di raggio R soggetto a torsione, un punto P distante Rx dal centro
(vedi figura) la tensione tangenziale in quel punto vale, essendo Jp il momento d'inerzia polare:
τ x = M t R x / J p = F t R Rx / Jp (10)
dalla quale si ricava che τx è proporzionale alla distanza Rx di P dal centro, per cui la τmax è in
corrispondenza della periferia della sezione, mentre al centro la tensione tangenziale vale zero. E'
evidente l'analogia con la formula che esprime la sollecitazione σ di flessione.
d) di tale distribuzione delle τ possiamo approfittare rendendo gli alberi cavi, cioè vuoti all'interno,
quando il loro diametro è sufficientemente grande(**). Infatti così facendo si toglie il nocciolo poco
sollecitato, diminuendo il peso proprio degli organi da mettere in rotazione e di conseguenza la loro
freccia e inerzia.
e) Per le sezioni circolari l'angolo di torsione fra due sezioni distanti l vale:
Θ = M t l / G Jp (11)
mentre la condizione di resistenza impone che
τmax = Mt R / Jp ≤ τamm
Nella pratica si impone che la tensione tangenziale ammissibile sia una frazione di σamm e cioè:
τamm = (4 / 5) σamm (12)
il che significa che i materiali, compreso l'acciaio, sono meno resistenti a torsione che non a flessione.
C) FORZA RADIALE
Oltre che delle forze P e q occorre tener conto anche della forza radiale Ff, cioè della componente
lungo O1 - O2 della forza F che si trasmette fra i denti a contatto. La forza Ff si aggiunge al peso
proprio della ruota, facendo aumentare il valore del momento flettente e della freccia. Ricordando che
di solito si parte dal valore della potenza in CV, si ottiene immediatamente il valore della forza
tangenziale Ft che è quella che produce la rotazione:
Ft = Mt / R = 716.200 N / n R [kg] (13)
e da Ft si ricava la forza F agente fra i denti lungo la retta d'azione
F = Ft / cosθ
e di conseguenza quello della forza radiale
Ff = F senθ = Ft tangθ
Quindi noto θ, angolo di inclinazione della retta d'azione in base alle tabelle sulle ruote dentate, sono
note le forze F, Ft, Ff. Il momento flettente e la freccia dovute a Ff sono dello stesso tipo di quelle
dovute al peso P.
D) VELOCITA' CRITICA
a) Come si è detto, per effetto del peso proprio q dell'albero, del peso P della ruota calettata, della
forza radiale Ff l'albero si deforma assumendo in prima approssimazione l'andamento di un arco di
cerchio. Per effetto della rotazione l'asse così deformato descrive un fuso intorno all'asse ideale
costituito dall'orizzontale passante per i centri dei supporti. L'apertura α del fuso non è costante ma
crescente al crescere della velocità n di rotazione, poiché al crescere di n cresce la forza centrifuga,
cioè quella forza che tende ad allontanare le masse dal centro di rotazione. Ricordando che
l'accelerazione centripeta vale ac = v2 / RE essendo RE il raggio di rotazione del punto E che ruota alla
velocità v, la forza centrifuga che ne consegue vale:
Fc = - (P / g) v2 / RE [kg] (14)
essendo P il peso del corpo in movimento e quindi P / g la sua massa. Il segno negativo sta ad
indicare che la forza centrifuga è diretta nel verso opposto dell'accelerazione, cioè dal centro verso
l'esterno della circonferenza percorsa. Esprimendo Fc in funzione della velocità angolare ω e del
numero di giri n si ottiene:
Fc = - (P / g) v2 / RE = - (P / g RE) (2 π R / T)2 = - (P / g RE) (ω R)2 = - P ω2 R / g =
= - (P / g RE) (2 π R n / 60)2 = - (P / g) (4 π2 n2 RE / 3.600) (15)
b) Questa forza centrifuga Fc si sviluppa per ogni particella di massa m. Per ottenere la forza
centrifuga complessiva, occorre tener conto di tutta la massa in movimento, considerando le distanze
dei singoli punti - massa dall'asse di rotazione. Non è qui il caso di fare tutta la trattazione analitica del
problema, complicato anche dal fatto che il fuso descritto da un asse è disturbato dal fuso descritto
dall'asse compagno, cioè quello che porta la ruota ingranata con quella in esame. In pratica si usa la
formula di Dunkerley che pone un limite alla velocità di rotazione, imponendo che essa non superi un
preordinato valore di velocità vc, detta critica, in funzione della somma delle frecce indotte dai carichi
statici. Infatti si dimostra che se v < vc è scongiurato il pericolo che il fuso si apra sempre più sino a
che l'albero si rompe.
Si pone quindi
n ≤ (1 / 2 ÷ 1 / 4) nc (16)
nella quale nc è il numero di giri critico (quindi la velocità critica periferica vale vc = 2 π R nc / 60) dato
dall'espressione
nc = 1.000 / (Σ fi)1/2 (17)
1/2
dove (Σ fi) è appunto la somma delle frecce statiche viste in precedenza.
(*) Dimostriamo la correttezza di questo risultato. Per farlo mettiamo un asse x con origine in A e
orientato verso B. Il carico totale vale Q = q l e lo si può pensare applicato in mezzeria poiché la
distribuzione è uniforme e quindi la mezzeria è il suo baricentro. Le reazioni sono uguali e valgono
ciascuna VA = VB = Q / 2 = q l / 2. Il momento flettente corrente ha l'espressione, da sinistra verso
destra (il momento vale sempre forza per distanza!):
M1x = VA x = q l x / 2
per effetto della reazione VA. Ma tra A e il punto x agisce anche il carico Vx = q x che ha il baricentro
nel punto di ascissa x / 2 e ha braccio ancora x / 2. Il segno del momento è però negativo e quindi
avremo:
M2x = - q x (x / 2) = - q x2 / 2
Il momento flettente totale vale:
Mx = M1x + M2x = q l x / 2 - q x2 / 2
In mezzeria x = l / 2 e quindi sostituendo
Mx = q l x / 2 - q x2 / 2 = (q l / 2) (l / 2) - q (l / 2)2 / 2 = q l2 / 4 - q l2 / 8 = q l2 / 8
(**) Naturalmente si deve aumentare il diametro in modo che la corona circolare rimanente sia in
grado di sopportare tutta l'azione torcente.
Potenza da trasmettere N = 22 CV; materiale per la costruzione acciaio C 40 UNI 5332 con σR = 70 kg
/ mm2; calettamento della ruota con chiavetta; numero di giri ruota motrice n1 = 280 giri / 1'; rapporto di
trasmissione t = 2,5 / 1; diametro ruota motrice D1 = 150 mm; angolo della retta d'azione θ = 20°.
CALCOLO
N.B. in altra sede sono stati svolti i calcoli riguardanti la coppia di ruote dentate che hanno portato a
questi risultati: t = 2,46 / 1; n1 = 280 giri / 1'; n2 = 113,82 giri / 1'; D1 = 156 mm; D2 = 384 mm.
1) Trascurando le perdite di potenza per attriti e altre cause(*), supponiamo che la potenza N si
trasmetta integralmente dall'albero movente a quello cedente. Troviamo subito i momenti torcenti
agenti sui due alberi:
Mt1 = 716.200 N / n1 = 716.200 x 22 / 280 = 56.270 kg mm
Mt2 = 716.200 N / n2 = 716.200 x 22 / 113,82 = 138.400 kg mm
Dai momenti si ricavano le forze tangenziali (poiché la trasmissione della potenza avviene attraverso il
contatto fra un dente della motrice e uno della mossa, il braccio della forza tangenziale è il raggio della
ruota) agenti sulle circonferenze primitive l e λ:
Ft1 = Mt1 / R1 = 56.270 / D1 / 2 = 56.270 / 156 / 2 = 721 kg
Ft2 = Mt2 / R2 = 138.400 / D2 / 2 = 138.400 / 384 / 2 = 721 kg
Il risultato Ft1 = Ft2 = 721 kg è ovvio in quanto l'una non è altro la reazione all'altra sui denti coniugati.
Scomponendo la forza Ft che produce la rotazione è possibile calcolare (per la ruota motrice e il suo
albero che è l'unico che ci interessa):
a) la forza radiale Ff da sommare o sottrarre al peso della ruota: Ff = Ft tangθ = 721 tang20 = 262 kg
b) la forza F agente sulla retta d'azione: F = Ft / cosθ = 721 / cos20 = 767 kg
2) Per quanto riguarda il dimensionamento dell'albero, il suo diametro si ricava facendo alcune
considerazioni sulla condizione di resistenza al momento torcente. Indicando con r1 il raggio
dell'albero motore si ha in prima approssimazione:
τ = Mt1 r1 / Jp1 ≤ τamm
nella quale Jp1 = π r14 / 2 è il momento di inerzia polare dell'albero motore. Ponendo come coefficiente
di sicurezza m = 10 poiché si tratta di un organo meccanico soggetto a sforzi variabili nel tempo, con
urti derivanti dai contatti fra i denti, sarà:
τamm = (4 / 5) σamm = (4 / 5) x 7 / 10 = 5,6 kg / mm2
Sostituendo nell'espressione del momento torcente si ottiene:
τamm = Mt1 r1 / π r14 / 2
Semplificando e riordinando si ottiene in successione:
r13 = 2 Mt1 / π τamm r1 = (2 Mt1 / π τamm)1/3 = (2 x 56.270 / π x 5,6)1/3 = 18,6 mm arrotondato 19
mm.
Questi sono valori di prima approssimazione poiché si è tenuto conto solo del momento torcente.
Partendo però da queste dimensioni è possibile ottenere un primo valore del peso proprio e quindi è
possibile calcolare gli alberi a flessione. Se essi sono in grado di sopportare anche la flessione, il
calcolo è terminato, altrimenti occorre rifare i calcoli tenendo conto del momento flettente.
3) Una via più breve consiste nel fare una speciale somma di flessione e torsione che porta a
definire il "momento flettente ideale" dal quale si trovano i raggi come se l'albero fosse soggetto alla
sola flessione.
Il momento flettente ideale è dato da (usiamo l'espressione generale):
Mfi = 3 / 8 Mf + 5 / 8 (Mf2 + Mt2)1/2 =
nella quale Mf è il momento flettente totale in una sezione dovuto ai diversi carichi (peso proprio, peso
della ruota, forza radiale).
4) Prima però esaminiamo se non convenga fare l'albero cavo, asportando il nocciolo poco
sollecitato sia dalla torsione che dalla flessione. Dovremo poi verificare che la sezione così ridotta sia
in grado di portare le τ. Il vantaggio di una tale operazione consiste nel fatto che diminuendo i pesi
diminuisce l'energia necessaria per mettere in movimento l'albero.
Supponiamo che il risultato ottenuto con il solo momento torcente sia corretto e quindi d1 = 2 r1 = 2 x
19 = 38 mm
Si usa porre di = (0,4 ÷ 0,6) de lasciando uno spessore di parete s = (de - di) / 2
Nel nostro caso poniamo:
di = 0,5 de = 0,5 x 38 = 19 mm e quindi s = (de - di) / 2 = (38 - 19) / 2 = 9,5 mm
5) Come si vede facendo il foro secondo il criterio esposto si risparmia il 25 % di peso di materiale.
A questa buona opportunità si oppone però quanto segue:
a) il lavoro di foratura che fa crescere il costo di produzione dell'albero;
b) la necessità di creare la cava per la chiavetta(***) di collegamento, per cui lo spessore della corona
dovrà essere aumentata per reintegrare la sezione resistente;
Vediamo se la sezione così ridotta è in grado di sopportare la torsione. Il momento di inerzia polare
ora diventa:
Jp1 = π re4 / 2 - π ri4 / 2 = (π / 2) (re4 - ri4) = (π / 2) (194 - 9,54) = 191.800 mm4
per cui si avrà:
τ = Mt1 r1 / Jp1 = 56.270 / 191.800 = 0,29 kg / mm2 < τamm = 5,6 kg / mm2
Come si vede poiché τ è minore di τamm la sezione con il "buco" non è sufficiente: occorre aumentare il
diametro esterno. Non lo facciamo perché il calcolo fatto sin'ora è di prima approssimazione.
di = 0,5 d = 0,5 x 42 = 21 mm
1
9) Calcoliamo ora le frecce statiche dovute ai carichi, in modo da verificare l'albero rispetto alla
velocità critica. Terremo conto solo del peso della ruota dentata: G2 = 18 kg e della forza radiale Ff =
262 kg agenti in mezzeria e quindi secondo le formule già scritte (vedi parte prima formula 3) si
ottiene:
10) Per poter effettuare il foro su tutta la lunghezza conviene che l'albero sia cilindrico anche in
corrispondenza degli appoggi dove il diametro, per altre ragioni, potrebbe essere ridotto.
(*) Il processo non dipende dai "numeri" adoperati: conoscendo le perdite di potenza N' basta rifare i
calcoli per una potenza N + N'.
(**) Il peso specifico dell'acciaio è γ = 7.860 kg / m3 = 0,000007860 kg / mm3 poiché in 1 m3 ci sono
1.000.000.000 = 109 mm3.
(***) Per la chiavetta vedi Progetto di albero motore al punto 5).
(****) Occorre fare molta attenzione su questo punto: a seconda della disposizione spaziale delle ruote
coniugate la forza Ff si può sottrarre o sommare oppure può produrre flessione deviata. Se le ruote
sono una sull'altra, in quella superiore Ff agisce in verso contrario ai pesi, in quella inferiore agisce in
accordo con i pesi. Se le ruote sono affiancate Ff produce una freccia orizzontale, cioè in direzione
perpendicolare a quella prodotta dai pesi.
Volendo in ogni caso il massimo di rigidità conviene sempre sommare Ff ai pesi: l'albero sarà però più
pesante del dovuto.
(*****) E' interessante notare che aumentando di 1 mm il diametro esterno si può eliminare un cilindro
interno di 21 mm di diametro. Per chiarire calcoliamo quanto peso si aggiunge aumentando il diametro
esterno di 1 mm:
δG = γ (π / 4) (de2 - de '2) = γ (π / 4) (422 - 412) = 0,00051 kg / mm
mentre il peso del nocciolo è Ga = 0,0027 kg / mm cioè ben 5 volte di più. L'aumento del momento di
inerzia è invece:
δJ = (π / 64) (de4 - de '4) = (π / 64) (424 - 414) = 14.000 mm4
mentre il momento di inerzia del nocciolo vale
J = (π / 64) di4 = (π / 64) 214 = 9.500 mm4
Concludendo: si toglie un bel pò di peso (da 0,0027 kg / mm a 0,00051 kg / mm) e il momento di
inerzia aumenta (da 9.500 mm4 a 14.000 mm4).
(******) Se la verifica non fosse riuscita, cioè se fosse stato n1 > 0,25 nc, invece di ricominciare il
calcolo, magari per tentativi, si sarebbe proceduto in questo modo:
considerato che la freccia totale f è troppo grande la si può ridurre imponendo che 1.000 / (Σ f)1/2 = 4
n1;
sostituendo i valori in questa espressione l'incognita è J e quindi re; risolvendo l'equazione si trova
quale raggio deve avere l'albero affinché la sua freccia statica non faccia superare il valore desiderato
di nc.
LA LINEA ELASTICA
La linea elastica di una trave deformata da un carico è la "forma" che assume l'asse per effetto dei
carichi applicati. Tale forma è rappresentata da una equazione più o meno complessa che tiene conto
della elasticità e del momento d'inerzia oltre che, ovviamente, dei carichi.
Il calcolo prende le mosse da due definizioni che non dimostreremo:
1) l'inverso del raggio di curvatura della linea elastica vale la derivata seconda della stessa linea
elastica
1 / r = d2η / dx2
2) l'inverso del raggio di curvatura vale la deformazione indotta dal momento flettente
1/r=M/EJ
Se si conosce, come accade quasi sempre, l'equazione del momento flettente corrente, cioè
l'espressione del momento flettente punto per punto della trave, uguagliando le due espressioni scritte
si ha una equazione differenziale spesso integrabile due volte. Il risultato delle integrazioni è appunto
l'equazione della linea elastica. Nelle operazioni di integrazione nascono delle costanti il valore delle
quali dipende dalle condizioni ai limiti, per esempio la conoscenza di valori certi per la curva.
Riprendiamo la situazione illustrata nella pagina precedente alla nota (*) riguardante il solo carico
distribuito (vedi figura):
Mx = M1x + M2x = q l x / 2 - q x2 / 2
Scriveremo quindi:
d2η / dx2 = (q l x / 2 - q x 2
/ 2) / E J = (q / 2 E J) (l x - x2)
nella quale: η è l'ordinata della funzione linea elastica; E è il modulo di Young per l'acciaio; J è il
momento di inerzia della sezione dell'albero calcolato in precedenza.
Integrando una volta si ottiene:
dη / dx = ∫ (q / 2 E J) (l x - x ) dx = (q / 2 E J) (l x / 2 - x / 3) + C
2 2 3
1
nella quale C1 è una costante di integrazione(*). Integrando una seconda volta si ottiene:
η= ∫ [(q / 2 E J) (l x / 2 - x / 3) + C ] dx = (q / 2 E J) (l x / 6 - x / 12) + C x + C =
2 3
1
3 4
1 2
= (q x3 / 12 E J) (l - x / 2) + C1 x + C2
nella quale C2 è un'altra costante di integrazione. Per completare l'equazione della linea elastica
dobbiamo determinare il valore delle costanti. Essendo l'asse x coincidente con l'asse della trave con
origine nel punto A, diremo che la curva elastica deve passare per i punti A e B cioè: per x = 0 deve
essere η = 0 e per x = l deve essere η = 0. Abbiamo quindi due equazioni nelle quali le incognite sono
appunto C1 e C2:
(q x3 / 12 E J) (l - x / 2) + C1 x + C2 = 0 ponendo x = 0 si ha C2 = 0
3
(q x / 12 E J) (l - x / 2) + C1 x = 0 ponendo x = l si ha
(q l3 / 12 E J) (l - l / 2) + C1 l = 0 e quindi C1 = - q l3 / 24 E J
L'equazione(**) della curva elastica diventa quindi:
η = (q x / 12 E J) (l - x / 2) + C x =
3
1
= (q x3 / 12 E J) (l - x / 2) - (q l3 / 24 E J) x
La freccia massima è in mezzeria e vale:
f = ηx = l/2 = (q x 3
/ 12 E J) (l - x / 2) - (q l3 / 24 E J) x = (q l3 / 96 E J) (l - l / 4) - q l4 / 48 E J =
= - 5 q l4 / 384 E J
Il segno negativo dipende soltanto dall'orientamento dell'asse η: nel nostro caso η è orientato verso
l'alto e quindi la freccia è negativa (confronta con quanto riportato nella pagina precedente).
La rotazione corrente delle sezioni è data da dφ = M dx / E J e la rotazione massima è data
dall'integrale di tale rotazione corrente:
Φ = (1 / E J) ∫ (q l x / 2 - q x / 2) dx
2
dalla quale si ricava Φ = (q / E J) (l x2 / 2 - x3 / 3) = (q x2 /
E J) (l / 2 - x / 3) + C
nella quale C si determina dicendo che la rotazione in mezzeria, cioè per x = l / 2, vale zero(***).
Ponendo tale condizione si ottiene:
per x = l / 2 (q x2 / E J) (l / 2 - x / 3) + C = 0 e quindi C=0
e perciò infine:
Φ = (q x2 / E J) (l / 2 - x / 3)
(*) Ricordiamo che eseguendo l'integrale indefinito non si ottiene LA PRIMITIVA ma una famiglia di
primitive distinte fra loro dal valore di una costante da determinare con le condizioni ai limiti.
(**) L'equazione è di quarto grado e quindi ha 4 radici, cioè la curva attraversa l'asse x in 4 punti. Le
+ 0,62 l e x4 = - 0,62 l
(***) Poiché il carico è simmetrico, la mezzeria si deforma abbassandosi ma senza che la sezione
debba ruotare intorno all'asse neutro. Si può dimostrare che la tangente in tale punto è orizzontale
che vuol dire η = cost. L'equazione della tangente, o meglio del fascio di tangenti alla linea elastica, è
data dalla derivata prima η '; il suo coefficiente angolare si ottiene calcolando la derivata prima nel
punto scelto; se la tangente è orizzontale il suo coefficiente angolare vale zero. In successione si ha:
dη / dx = (q / 2 E J) (l x2 / 2 - x3 / 3) + C1 = (q / 2 E J) (l x2 / 2 - x3 / 3) - q l3 / 24 E J
Ponendo x = l / 2
=0
Essendo tangα = 0 la tangente in mezzeria è orizzontale, cioè la sezione non ha ruotato.
La discussione si può condurre anche in modo diretto: determinare in quale punto la tangente è
orizzontale, cioè determinare per quale valore di x la derivata prima vale zero. Per fare ciò scriviamo:
dη / dx = (q / 2 E J) (l x2 / 2 - x3 / 3) - q l3 / 24 E J = 0
Semplificando resta:
x3 / 3 - l x2 / 2 + l3 / 12 = 0 4 x3 - 6 l x2 + l3 = 0
Operando con la regola di Ruffini si ottiene la scomposizione:
(4 x2 - 4 l x - 2 l2) (x - l / 2) = 0
Utilizzando la legge di annullamento del prodotto otteniamo la prima radice (quella che ci interessa):
CALCOLO: la velocità è uniforme cioè costante cioè senza accelerazione cioè con forza totale (la
risultante) uguale a zero(d). La forza Pn è equilibrata dalla reazione S del piano. Resta attiva la forza Pt:
se ci fosse solo Pt il moto sarebbe accelerato verso il basso. Poichè non c'è accelerazione deve esserci
un'altra forza, opposta a Pt. Questa forza è R, forza d'attrito. Avremo quindi
R = Pt
R = Pt = f * Pn
NOTA BENE: f non è uguale a qualunque tgα ma solo a quello che produce il moto uniforme del
corpo appoggiato sul piano. Invece la pendenza è sempre uguale a tgα. In queste condizioni α prende
il nome di angolo d'attrito(e).
(a) La pendenza si calcola con l'espressione i% = (h / L) * 100, oppure con la trigonometria i% = tgα *
100.
(b) Ricordiamo che in questo stato di quiete agisce la forza d'inerzia, non l'attrito.
(c) L'angolo fra P e Pn è uguale ad α perchè essi sono rispettivamente perpendicolari ai lati dell'angolo
α.
(d) Poichè non c'è accelerazione, dalla relazione F = m * a, essendo a = 0 sarà anche F = 0, per la legge
di annullamento del prodotto.
(e) E' facile "vedere" un angolo d'attrito: se si prende della terra e la si lascia cadere formando un cono,
l'angolo d'attrito è quello fra l'orizzontale e il "lato" (generatrice) del cono. Ancora più facile osservare
come si dispone la sabbia in una clessidra.
DEFINIZIONE: il calore a) riduce i limiti di resistenza dei materiali, oppure b) produce deformazioni
che fanno sorgere nuove forze.
a): tutti i solidi al crescere della temperatura fondono; ma, ben prima della fusione (passaggio allo stato
liquido), essi perdono più o meno completamente la capacità di resistere alle forze presenti. Ad
esempio l'acciaio a "soli" 400 °C praticamente si piega su se stesso, perdendo tutte le sue caratteristiche
di resistenza meccanica.
b): la fondamentale deformazione prodotta dal calore è il cambiamento di volume; tuttavia si usa
distinguere anche una deformazione detta allungamento, nella quale si pone in risalto solo il
cambiamento di lunghezza delle travi(a).
1) allungamento: in generale si afferma che, detta l0 la lunghezza iniziale della trave alla temperatura di
riferimento(b), la sua lunghezza alla temperatura t diventa:
lt = l0 + l0 * α * ∆t; ∆l = l0 * α * ∆t
cioè la lunghezza finale è uguale alla lunghezza iniziale più una frazione dipendente dal tipo di
materiale e dal salto di temperatura. Il coefficiente α prende il nome di coefficiente di allungamento
lineare e per l'acciaio vale α = 12*10-6 [m/m°C], cioè: una trave di un metro si allunga di 12
milionesimi di metro per ogni grado di aumento della temperatura (oppure si accorcia quando la
temperatura diminuisce). Questa espressione vale finchè la temperatura è inferiore a 100 °C; per
temperature maggiori, essa è diversa.
2) esempio: supponiamo di avere una trave d'acciaio lunga 10 m, alla temperatura di - 20 °C. Di quanto
si allunga passando alla temperatura di + 50 °C(c)?
l50 = l-20 + l-20 * α * 70 = 10 + 10*12*10-6*70 = 10 + 0,0084 = 10,0084 m, cioè la trave si allunga di 8,4
mm.
3) conseguenza: sotto l'azione di una forza di trazione F = 1.500 [kg], una trave di sezione S = 220
[mm2] e lunghezza l = 10 [m], costruita con un materiale con modulo di elasticità normale E
[kg/mm2](d), si allunga di
Confrontiamo questo risultato con quello ottenuto in precedenza, supponendo che si tratti della stessa
trave. Osserviamo che una trazione di 1.500 kg produce un allungamento di 3,4 mm, mentre il salto di
temperatura ne produce uno di 8,4 mm: concludiamo che il salto di temperatura produce la stessa
deformazione(e) di 1.500*8,4/3,4 = 3.700 kg!
4) rimedio: per evitare che le forze così generate producano danni, occorre fare in modo che le travi
possano allungarsi (e contrarsi) liberamente, preparando opportuni cuscini di scorrimento.
5) variazione di volume: se il materiale è omogeneo e isotropo(f), l'aumento di volume dovuto ad un
aumento di temperatura è dato da:
Vt = V0 + V0 * β * ∆t = V0 * (1 + β * ∆t); ∆V = V0 * β * ∆t
Dimostriamo che β = 3 α. Per semplicità la massa sia un cubo di lato l. Allora V0 = l03 e Vt = lt3 = [l0 +
l0 * α * ∆t]3 = [l0 * (1 + α * ∆t)]3 = [l03*(1 + 3α * ∆t + 3α2 * ∆t2 + α3 * ∆t3)] = V0 * (1 + 3α * ∆t).
Infatti, poichè α è piccolo, il suo quadrato e il suo cubo sono ancora più piccoli, per cui α2 * ∆t2 e α3 *
∆t3 sono trascurabili.
Confrontando le due espressioni Vt = V0 * (1 + β * ∆t) e Vt = V0 * (1 + 3α * ∆t), si ricava che deve
essere β = 3 α.
(a) Si chiama trave un solido che ha una dimensione (lunghezza) molto maggiore delle altre due
(larghezza e spessore).
(b) Solitamente la temperatura di riferimento è 20 °C per i solidi e gli strumenti di misura. Per altre
situazioni è 0 °C.
(c) Questi limiti sono compatibili per l'Italia del nord, fra inverno ed estate.
(d) Per l'acciaio E = 20.000 [kg/mm2].
(e) Il risultato si può ottenere uguagliando fra loro le due espressioni dell'allungamento, lasciando come
incognita la forza F.
(f) Una massa è omogenea quando è della stessa natura in tutti i suoi punti; è isotropa quando ha le
stesse caratteristiche fisiche in tutte le direzioni.
(a) In un discorso meno elementare anche l'orologio non è uno strumento a misura diretta in
quanto noi diciamo che è passato un secondo quando la lancetta dei secondi ha percorso un
angolo di 6 gradi sul quadrante (l'intero giro vale 360 gradi; 1 secondo è la sessantesima
parte dell'intero giro quindi 1 s = 360° / 60 = 6°) e se usiamo una clessidra il secondo equivale
al passaggio per esempio di 1 grammo di sabbia. Ne segue che per noi il tempo è misurato
dal fatto che la lancetta dei secondi ha percorso un angolo di 6°; se però il quadrante è diviso
in 30 parti, un secondo è misurato da un angolo di 12°, ecc.
(b) Il dinamometro è uno strumento basato sulla capacità delle molle di sviluppare delle forze
proporzionali alla deformazione che si ha quando vengono allungate o accorciate. In generale
si ha F = k * ∆X [N] essendo ∆X la variazione di lunghezza della molla e k una costante
caratteristica della molla stessa. Anche in questo caso in realtà misuriamo dei segmenti
anziché direttamente le forze ....
(c) Ciò significa che conosciamo l'accelerazione di gravità.
(d) La scala di uno strumento è la rappresentazione grafica dei multipli o dei sottomultipli di
una unità di misura (per esempio i millimetri o i centimetri su un righello per disegno).
(e) Talvolta può sembrare che si possano fare misure dirette. Se il moto è rotatorio sembra
che la velocità si possa misurare direttamente contando il numero di giri al secondo (o al
minuto) di una ruota appositamente costruita (tachimetro delle automobili). In realtà
l'indicazione del tachimetro (misuratore di ταχυσ tacùs = velocità in greco) dipende dal
numero di giri e dal raggio della ruota.
(f) Il termine "sicurezza" va inteso "nei limiti di portata e di sensibilità dello strumento" nel
senso che se si supera la portata stabilita dal costruttore i meccanismi che costituiscono lo
strumento si deformano in modo diverso dal previsto e quindi la sensibilità risulta alterata. Per
esempio sarebbe sciocco pesare i camion con un bilancino da farmacista: lasciando da parte
le dimensioni, il bilancino è costruito con materiali diversi dai bilancioni per pesare i camion.
(g) Negli strumenti digitali che danno la misura sottoforma di numeri, la sensibilità è
rappresentata dal cambiamento dell'ultima cifra che appare sullo schermo di lettura.
(h) L'aggettivo "preciso" ha un valore assoluto e indica la identità fra due termini. Ciò vale ad
esempio per due sinonimi: adoperare una parola o l'altra è identico, poichè rappresentano la
stessa "cosa". Di conseguenza non ha nessun significato dire che uno strumento è "più
preciso" di un altro. D'altra parte anche se lo strumento fosse "preciso", la "misura" deriva da
una nostra interpretazione della posizione dell'indice strumentale sulla scala e poichè
esistono gli errori casuali è incerta qualunque operazione di misura.
(i) Se si tratta di strumenti digitali, occorre del tempo affinchè l'ultima cifra non cambi oppure
cambi con piccola frequenza.
(l) Le bilance da laboratorio si tengono chiuse nelle vetrine quando si lavora perché basta il
respiro dell'operatore per influenzare la misura.
(m) Qui si ricorre ad unità di misura intuitive.