Queste dispense non sarebbero state realizzate senza l’aiuto di Marco Cecchetti e Manuele
Corradossi, compagni di mille battaglie.
Eseguire una misura comporta avere a disposizione un dispositivo, che può essere semplice o
complicato, ed una procedura, atti a produrre il valore attribuibile in un istante ben preciso alle
grandezze osservabili.
DEFINIZIONE DI MISURA
Possiamo dare due definizioni di misura:
- Una tradizionale: una misura consiste in un confronto fra la grandezza fisica in esame ed
un’altra della stessa specie scelta come unità.
- Una esaustiva: ogni processo che porta ad assegnare dei numeri ad aspetti di oggetto o eventi
in accordo a certe regole non casuali.
Avere in mente un modello è importante anche per sapere cosa influisce su un fenomeno e
dunque come tenere d’occhio l’incertezza. Inoltre conoscendo il modello del nostro fenomeno
si evitano molte misure inutili, i cui valori possono essere dedotti semplicemente dal modello
stesso.
La misura consiste nel prelevare informazioni e poi attribuire numeri a caratteristiche del reale in
modo da descriverle; come abbiamo detto in precedenza è l’insieme dei processi che porta ad
assegnare valori ad aspetti di un fenomeno.
GRANDEZZA FISICA:
Una grandezza fisica è una classe di equivalenza (ossia un insieme di elementi equivalenti) di
proprietà fisiche che possono essere misurate mediante un rapporto reciproco.
Condizione necessaria perché una (classe di equivalenza di) proprietà sia misurabile è
quella di poter stabilire una relazione d’ordine fra quelle proprietà in sistemi diversi, cioè
poter giudicare quale sistema “esibisce più” proprietà dell'altro.
Se tale confronto può essere basato sul rapporto fra le proprietà dei due sistemi, allora la classe di
equivalenza di quelle proprietà costituisce una grandezza fisica.
In questo caso, è possibile scegliere la proprietà di un particolare sistema ed eleggerla a
unità di misura per quella grandezza fisica.
Fissata l'unità di misura, la quantità di tale grandezza potrà essere specificata da un valore
numerico ottenuto dal rapporto con la proprietà scelta come campione di riferimento e un‘unità di
misura.
Si dicono estensive le proprietà fisiche di un materiale che dipendono dalla dimensione del
campione (es: massa, peso, energia…).
Si dicono intensive le proprietà fisiche che non dipendono dalla dimensione del campione
(peso specifico, pressione, temperatura…).
MISURA:
Grandezza—> Catena di misura—> Misura
In pratica ,per misurare, devo prelevare informazioni tramite un dispositivo, con una procedura
definita.
CATENA DI MISURA:
La catena di misura è un sistema composto da una successione di strumenti ed altre
apparecchiature, collegate in modo da poter elaborare il segnale di misura, dalla grandezza
d'ingresso (il misurando) fino all'ottenimento della lettura in uscita (la misura vera e
propria).
La catena inizia quando un elemento sensibile primario entra in contatto con l’azione del
fenomeno che vogliamo misurare e modifica il suo stato fisico secondo un principio fisico ben
preciso (ad esempio la seconda legge di Ohm), fornendo dunque un segnale in uscita.
Quando scegliamo un sensore per una certa applicazione bisogna valutare le sue prestazioni, in
termini di:
- Range
- Sensibilità
- Accuratezza
- Linearità
- Costo
- Stabilità
- Risposta in frequenza
- Resistenza all’influenza dell’ambiente sulla misura
Esempio 1 : TERMOMETRO
Nel termometro l’elemento sensibile è il mercurio che si dilata all’aumentare della temperatura.
L’elemento modificatore è sempre il mercurio, la variazione di volume si traduce in una variazione
dell’altezza del livello (energia termica in energia di deformazione). L’elemento rivelatore è ancora
il mercurio che permette di leggere la temperatura. Il principio fisico è la legge di dilatazione
termica V=V0(1+∆t)
A rigore se non tariamo lo strumento ma utilizziamo solo il principio fisico non consideriamo alcuni
aspetti e commettiamo degli errori.
Riassumendo:
- Sensore - elemento sensibile primario a contatto con il fenomeno, in grado di modificarsi a
seconda della grandezza del fenomeno che vogliamo misurare secondo un principio fisico.
- Trasduttore: elemento di conversione
- Elementi manipolatori: condizionatore e processore
- Elementi di visualizzazione e registrazione.
PRINCIPI FISICI:
- Leggi spostamento-deformazione (Hook, Newton)
- Effetto meccanico-capacitivo (C ∝ ε * A/d) spostando le armature di un condensatore con la
grandezza in entrata si ha in uscita una diversa capacità.
- Effetto meccanico-resistivo (II legge di Ohm) al variare della grandezza in entrata si modifica la
resistenza e si ottiene un valore in uscita.
- Effetto induttivo
STRUMENTO
Indipendentemente dai principi fisici e dagli elementi funzionali presenti, spesso si può usare uno
schema semplificato per descrivere uno strumento
Nel caso dei circuiti elettrici, qualunque strumento inseriamo all’interno del circuito non è
ideale e perciò influisce sul circuito.
Esempio: VOLTMETRO
Inserendo il voltmetro modifico il circuito e quindi il valore di tensione che io vorrei misurare. Per
avere una misura abbastanza accurata devo avere un voltmetro con resistenza più elevata
possibile. Intuitivamente se passasse corrente nel voltmetro avrei una caduta di tensione e
dunque una misura non accurata.
Esempio: AMPEROMETRO
Per quanto riguarda l’amperometro invece, la resistenza deve essere la più piccola possibile
per non influire sulla misura.
Un altro esempio di effetti di carico può essere l’utilizzo di un termometro a mercurio per misurare
la temperatura di un oggetto. Il termometro inevitabilmente influisce sulla temperatura dell’oggetto,
sottraendo o fornendo calore per raggiungere l’equilibrio termico. La rilevanza dell’effetto dipende
dalle capacità termiche.
Infine possiamo citare anche i misuratori di portata che alterano il flusso del fluido.
PARAMETRI CARATTERISTICI
- Range: Intervallo da valore minimo a valore massimo in ingresso e intervallo fra valore minimo
e massimo in uscita.
- Span: differenze Imax- Imin ; Umax- Umin
- Risoluzione: minimo incremento in ingresso cui corrisponde una variazione apprezzabile
in uscita.
La risoluzione è indipendente dall’errore, è possibile che uno strumento con risoluzione 1
micrometro abbia un errore maggiore, magari dovuto al fatto che la scala sia sballata.
- Caratteristica: funzione di trasferimento, detta anche legge di corrispondenza fra Ingresso e
Uscita. Il grafico della funzione nel piano I (ascissa) U (ordinata) è detta curva caratteristica.
- Sensibilità: pendenza della curva
caratteristica, varia nel campo di misura, è
la derivata dell’uscita rispetto
all’ingresso.
La sensibilità non è sinonimo di precisione o
di qualità di uno strumento, tuttavia con
un’alta sensibilità si vedono meglio le
variazioni.
La sensibilità può essere espressa in forma dimensionale (assoluta) o adimensionale (relativa).
La sensibilità assoluta non è modificabile, tipicamente è quella dei trasduttori attivi
(esempio nel
dinamometro a molla).
La sensibilità relativa è tipicamente data rispetto al fondo scala (valore massimo misurabile da
uno strumento di misura) o rispetto all’alimentazione (quantità di energia aggiuntiva che
fornisco) e permette di confrontare strumenti di taglia diversa e diverso fondo scala.
La sensibilità può essere aumentata o tramite amplificatori o, nei trasduttori passivi, tramite
l’aumento dell’energia in entrata.
- Soglia: la soglia è il valore minimo che si riesce a misurare, ossia il valore minimo prima
del quale lo strumento ha sensibilità nulla. Dopo aver superato la soglia, generalmente si ha
un tratto a sensibilità costante; successivamente la sensibilità diminuisce fino ad arrivare alla
saturazione.
- Saturazione: valore oltre il quale lo strumento non ha sensibilità.
Osservazione: Sogli e saturazione sono due concetti diversi, la soglia è un valore unico, la
risoluzione è una caratteristica della risposta dello strumento, presente lungo tutta la curva di
sensibilità.
Oltre alla saturazione bisogna tenere conto anche del valore massimo di rottura, che è in genere
maggiore della saturazione.
Il fondo scala, in generale, dovrebbe essere un valore precedente e più lontano possibile dalla
saturazione.
LINEARITÀ
Data una serie di valori con andamento lineare, possiamo caratterizzare la linearità di questi valori
in tre modi, attraverso due parametri che dipendono da come calcoliamo la retta di
approssimazione.
1) Linearità dei punti estremi: Si caratterizza con da due valori calcolati rispettivamente sulla
successione di ingresso crescente e decrescente. Essi rappresentano la max deviazione
percentuale (sul F.S.) dell’uscita rispetto alla retta passante per i punti “origine” e “F.S.
ISTERESI
La curva caratteristica deve essere valutata "a salire” e
“a scendere”; si nota infatti che vi è differenza nei risultati
delle stesse misure in questi due casi.
La differenza di risposta con ingressi crescenti
(andando in su) e con ingressi decrescenti (andando
in giù) è detta isteresi.
Essa fornisce una indicazione dell'attitudine di un
trasduttore a produrre la stessa uscita sia nel caso che
l’ingresso di riferimento sia raggiunto da valori inferiori
sia che venga raggiunto da valori superiori. L’isteresi è
quantificata come valore massimo della differenza tra l’uscita assunta nella fase crescente
e l’uscita assunta nella fase decrescente in corrispondenza della stessa grandezza in
ingresso.
Le cause dell’isteresi sono dovute al fatto che l’acquisizione della misura non è istantanea e quindi
se l’ingresso varia rapidamente il sensore ritarda nella risposta e dunque è ancora influenzato dalla
grandezza misurata in precedenza.
DERIVA
La deriva è la variazione nel tempo del valore della stessa misura, a parità di tutte le altre
condizioni.
Si ha una deriva dello zero quando lo strumento in assenza di ingressi fornisce un valore in uscita
diverso da zero.
Si ha una deriva di sensibilità quando quest’ultima aumenta diminuisce.
Ad esempio alcuni strumenti per funzionare devono andare a regime termico e nei primi minuti di
funzionamento si può osservare la deriva.
PRECISIONE (Accuracy)
L’unione fra ripetibilità e accuratezza può essere definita precisione.
Uno strumento è tanto più preciso quanto più i singoli valori misurati sono vicini
fra loro e quanto più la loro media è vicina al valore vero della grandezza.
Un indice di uno strumento può essere la deviazione standard, tuttavia tale
indice non tiene conto della grandezza del valore misurato e quindi, preso
singolarmente, non basta per capire la qualità della misura: una stessa
deviazione standard può essere indice di alta o bassa precisione a seconda che i valori misurati
siano più grandi o più piccoli.
Per questo motivo spesso si preferisce ricorrere al coefficiente di variazione, ossia il rapporto
tra deviazione e valore medio.
Si può inoltre definire la classe di precisione dello strumento; essa è indicata dal rapporto (%)
fra l’errore massimo introdotto dallo strumento e la misura massima (fondo scala).
Osservazione: si presti attenzione al fatto che minori sono questi numeri, maggiore è la precisione
dello strumento.
INGRESSI
Ci sono 3 tipi di fattori che influenzano lʼuscita di in uno strumento (ingressi):
- Ingressi desiderati: sono le quantità che lo strumento dovrebbe misurare
- Ingressi interferenti: sono le quantità che lo strumento non dovrebbe
misurare, ovvero quelle a cui è involontariamente sensibile (non ho entrate, leggo lo
stesso unʼuscita)
es. angolo di inclinzione x manometro differenziale (non ho differenze di pressioni ma
leggo lo stesso un dislivello)
es. temperatura x estensimetro (altera resistenza)
es. campo magnetico generato dalle correnti a 50Hz x estensimetro (genera differenze di
potenziale indotto)
- Ingressi modificanti: sono le quantità che modificano le relazioni ingresso-uscita nello
strumento di misura.
es. temperatura x manometro differenziale (altera densità)
es. gravità x manometro differenziale (varia con la quota)
Per correggere gli ingressi “spuri” (interferenti e modificanti) ci sono vari metodi:
3) Ingressi in opposizione
Si introducono volontariamente degli ingressi spuri i cui effetti controbilanciano quelli inevitabili
degli ingressi interferenti e/o modificanti non evitabili (in pratica, introduco un segnale uguale e
opposto).
Abbiamo detto che, quando facciamo una misura, spesso ci è utile avere un modello del fenomeno
per semplificarci la vita.
Tuttavia, dato che i modelli spesso trascurano fenomeni come l’attrito e non idealità, non
possiamo affidarci completamente ad essi per costruire il nostro strumento. Per avere strumenti di
alta precisione bisogna perciò fare una taratura.
La taratura è una procedura che serve per stabilire le caratteristiche metrologiche di uno
strumento. Ossia le caratteristiche che definiscono uno strumento di misura, per esempio i limiti
entro i quali è possibile fare una misurazione e la precisione dello strumento.
Tra le caratteristiche metrologiche la principale è la risposta caratteristica, cioè l’effettiva
funzione di trasferimento tra ingresso e uscita: l’essenza della taratura sta nel determinarla.
Spesso vi è una legge fisica che suggerisce la forma della relazione, ma, come abbiamo detto, per
ottenere il reale comportamento dello strumento, essa non è sufficiente.
Per effettuare una taratura sono necessari degli ingressi campione, o in alternativa degli strumenti
più precisi di quello che stiamo tarando.
Anche se a volte vengono confuse, la taratura va distinta dalla calibrazione, in quanto le due
sono operazioni diverse. La calibrazione infatti è un’operazione che ha come obiettivo quello di
rendere lo strumento più accurato. Può essere considerata una messa a punto.
TARATURA STATICA
Si parla di taratura statica nel caso di ingresso costanti (statici).
Nel caso si abbiano più ingressi se ne fa variare uno solo, mantenendo gli altri costanti.
Il procedimento consiste nel dare vari ingressi campione equispaziati e registrare le uscite
che si ottengono da essi : la relazione tra ingresso e uscita corrisponde alla taratura statica.
Durante la taratura è opportuno coprire tutto il range dello strumento, fino al fondo scala
positivo e negativo.
Arrivati a fondo scala bisogna tornare a 0 in senso opposto, in modo da tarare lo strumento
sia in crescita che in diminuzione, in modo da ottenere una caratteristica che approssima bene
entrambi i comportamenti. Dopo aver registrato tutte le uscite, che devono essere più o meno
equispaziate (per evitare addensamenti che in una media pesano di più), si fa il best fit, ad
esempio coi minimi quadrati.
La taratura deve essere fatta in un tempo non eccessivamente lungo, per impedire ingressi
non voluti come cambiamenti di temperatura, umidità e altre variabili che possono disturbare la
taratura.
Non è corretto affermare che il numero migliore di campioni per la taratura è il maggiore
possibile. Infatti, un numero troppo elevato potrebbe portare ad una taratura tropo lunga nel
tempo, implicando il cambiamento di ingressi. Inoltre dobbiamo considerare che dopo un po’
diventa inutile, i campioni necessari sono 3-4 (max 5) volte i parametri da determinare nella legge
fisica (retta 8-10 campioni, parabola 12-15 campioni ecc.).
TARATURA DINAMICA
La caratterizzazione con la taratura statica va bene solo per certi strumenti (anche che misurano in
maniera dinamica, ad esempio per una cella di carico). In alcuni casi, però, abbiamo a che fare
con dei fenomeni che variano velocemente nel tempo; bisogna perciò ricorrere ad un diverso tipo
di taratura, quella dinamica.
GRANDEZZE TEMPOVARIANTI -
ACQUISIZIONE DEL SEGNALE
Per segnale si intende una
grandezza fisica la cui variazione
nel tempo trasmette
un’informazione. Esso è l’entità
di cui ci serviamo per misurare le
grandezze che mutano nel
tempo.
Nel caso degli strumenti di misura il segnale è generalmente un segnale elettrico. In particolare,
l’ampiezza del segnale è misurata con un amperometro o un voltmetro, la frequenza con un
oscilloscopio.
Dal punto di vista matematico, ogni segnale continuo può essere rappresentato come una
serie di Fourier (combinazione lineare di funzioni trigonometriche).
Dal punto di vista grafico, un segnale può essere rappresentato in funzione del tempo o in
funzione della frequenza. Il primo tipo di visualizzazione permette di vedere ampiezza, massimi e
minimi; il secondo tipo di visualizzazione permette di vedere le frequenze degli addendi della serie
di Fourier. Il dominio della frequenza è detto “spettro”.
La rappresentazione nel dominio della frequenza è visualizzabile con un grafico che ha le
frequenze sull’asse delle ascisse e le ampiezze sull’asse delle ordinate. Se in un segnale sono
presenti più frequenze si riportano per ogni frequenza dei segmenti verticali alti come l’ampiezza di
tale frequenza. Nel caso del “rumore bianco”, ossia del segnale in cui sono presenti tutte le
frequenze alla stessa ampiezza, il grafico è una retta orizzontale.
Per passare dal dominio del tempo a quello della frequenza si utilizza la trasformata di Fourier;
viceversa per passare dal dominio della frequenza a quello del tempo si usa l’antitrasformata di
Fourier.
Diamo un ingresso sinusoidale, se tutto va bene avremo una risposta con stessa ampiezza, stessa
frequenza ma non per forza in fase con l’ingresso.
Possiamo avere anche un segnale in ingresso “a gradino” oppure anche “ a impulso”.
CONVERSIONE ANALOGICO-DIGITALE
I segnali possono essere classificati come analogici (continui nel tempo e nell’ampiezza) e digitali
(discretizzati nel tempo e nell’ampiezza).
Fino a qualche decennio fa la strumentazione era interamente analogica. Il problema con questo
tipo di strumentazione era che bisognava utilizzare degli hardware per poter analizzare le risposte,
cioè per poter agire su di esse bisognava modificare fisicamente gli strumenti di acquisizione. Ad
esempio, per raddoppiare un segnale bisognava costruire un circuito che lo amplificasse. Inoltre,
per poter registrare i dati, bisognava salvarli su un nastro.
Oggi invece siamo passati ad una strumentazione che si basa sul digitale.
Il segnale in ingresso è analogico e continuo ma un convertitore lo converte in digitale,
discretizzandolo e rappresentandolo con un numero finito di digit.
Una volta effettuata la conversione si hanno dei numeri facilmente visualizzabili e
manipolabili.
Un convertitore A/D si compone di un campionatore e di un quantizzatore: il campionatore
discretezza l’acquisizione nel tempo e il quanitzzatore segna le ampiezze.
ALIASING
Il processo di conversione A\D può comportare una perdita di informazione significativa, poiché il
segnale continuo è costituito da un’infinità di punti, ma, quando vado a discretizzarlo, posso
memorizzarne solo un numero finito.
La perdita di informazioni è detta aliasing. L’aliasing è l’errore che si può commettere non
rispettando il teorema di campionamento, che è uno dei teoremi fondamentali per la misura di
segnali variabili nel tempo.
Il teorema di campionamento (o teorema pi greco) afferma che, per campionare correttamente
un segnale analogico, è necessario farlo ad una frequenza maggiore o uguale al doppio
della massima frequenza presente nel segnale.
Ciò significa che bisogna acquisire almeno due valori per ogni semi-periodo del segnale.
Si dice frequenza di Nyquist la frequenza pari a metà della frequenza di campionamento.
Essa deve essere maggiore della massima frequenza del segnale.
Se viene rispettato il teorema del campionamento è allora possibile ricostruire, con l'utilizzo di
apposite funzioni interpolatrici, il segnale analogico, senza perderne alcuna informazione.
Misure Meccaniche Matteo B. 17
Cosa si fa per evitare l’aliasing?
- Bisogna avere una frequenza di campionamento che è almeno doppia rispetto alla
frequenza massima presente nel segnale.
- Si può usare un filtro antialiasing, cioè un filtro passa-basso che fa passare solo frequenze
opportune (ossia camiponabili senza incorrere nell’aliasing), eliminando quelle possibili troppo
alte.
In tal modo siamo sicuri di eliminare l’aliasing ma ciò non comporta la ricostruzione fedele del
segnale analogico, perché si possono comunque perdere alcune informazioni del segnale
originario.
Generalmente per una buona e fedele ricostruzione del livello analogico è richiesta una frequenza
che sia 5-10 volte superiore alla frequenza massima contenuta nel segnale campionato.
CD audio: campionato a 44100 Hz. Una persona può udire al massimo fino a 20 kHz
Applicando l’algoritmo della trasformata discreta di Fourier si vede che lo spettro non ha solo la
parte centrale ma è duplicato con un periodo che dipende dalla frequenza di campionamento.
Se dentro il segnale aumento le frequenze che ci sono, accade che il primo spettro si sovrappone
al secondo e causa una distorsione.
ERRORE DI QUANTIZZAZIONE
L’errore inevitabile associato alla conversione A\D è dovuto alla quanitzzazione.
Durante la digitalizzazione, oltre alla frequenza, dobbiamo discetizzare anche l’ ampiezza,
poiché abbiamo una memoria finita e dobbiamo acquisire un numero finito di dati.
L’ampiezza del nostro segnale può essere divisa al massimo in tanti livelli quanti sono le
configurazioni disponibili in memoria, in base ai bit a disposizione. Ad esempio, se ho una
precisione di 8 bit, l’ampiezza può essere divisa in 2^8 (256) parti e dunque posso avere una scala
in entrata di 256 valori differenti.
Si definisce dinamica di uscita (D) il range di tensione elettrica di uscita.
Si definisce passo di quantizzazione la differenza fra due valori adiacenti della scala in
uscita. Esso sarà tanto minore quanti sono i bit che ho a disposizione.
Il passo di quantizzazione è dato da :
D
p= b
2
L’errore di quantizzazione è associato al fatto che ogni bit rappresenta un intervallo di valori di
ampiezza p. A causa della limitatezza della memoria, non posso memorizzare e distinguere i valori
presenti all’interno dell’intervallo. Per tale motivo ogni misura sarà affetta da un errore q tale che:
q = ± p /2
Esempio:
Ho un sensore con
- Un range 0-1000°C
- Una dinamica di uscita D di 0-10V
- 8 bit a disposizione.
Avendo 256 configurazioni non posso registrare 1000 valori diversi ma la temperatura varierà di
“gradini” di 3,91° C (un bit).
La variazione della dinamica di uscita varierà di 39,06 mV a bit, ogni 3,91° di T.
Il tempo di osservazione del fenomeno deve essere maggiore o uguale alla frequenza più
bassa del segnale.
Il valore vero di una grandezza è un concetto ideale, di cui si può al più effettuare una stima.
Infatti il valore vero è metrologicamente inaccessibile, a causa dell’imperfezione propria delle
realizzazione umane. Il valore vero sarebbe misurabile con una strumentazione ideale, in
condizioni ideali del fenomeno e avrebbe bisogno di un infinito contenuto informativo.
Di conseguenza, si distingue il valore vero xv , misura ideale della grandezza da misurare, dal
valore misurato xm:
xv= xm ± ε ; epsilon è detto errore o scarto.
L’obiettivo è perciò avvicinarsi il più possibile al valore vero della misura.
Dopo aver ottenuto un insieme di misure xi della stessa grandezza, in condizioni nominalmente
uguali, passo ad un valore x0, ottenuto come media delle misure xi.
Definisco poi un Intervallo ∆, che definisce l’insieme che contiene il valore vero.
L’incertezza ∆ è legata alla qualità della misura ed è indice della quantità di informazione
acquisita: più piccolo è il ∆, maggiore è la qualità del mio strumento.
∆ mi va a definire un range di “ignoranza” che è anche un range di indifferenza o equivalenza.
Se io ho due misure all’interno di tale ∆ non posso dire che una è meglio dell’altra. Tuttavia si
possono fare considerazioni probabilistiche.
Il valore vero della misura si troverà, con una certa probabilità dipendente da ∆, all’interno
dell’intervallo [x0 - ∆; x0 +∆].
- Ripetibilità: Gaussiana stretta ma il valore medio non corrisponde con il valore vero della
misura.
- Accuratezza: Valore medio vicino al valore vero ma Gaussiana larga.
- Precisione: Gaussiana stretta e valore medio vicino al valore vero.
Frequenza e probabilità sono legate dalla legge empirica del caso: in una serie di prove,
ripetute un gran numero di volte nelle stesse condizioni (idealmente infinite volte), ciascuno dei
risultati possibili si manifesta con una frequenza relativa che approssima il valore della probabilità.
La frequenza tende alla probabilità se il numero delle prove va all’infinito.
Per questo motivo la frequenza può essere usata per stimare la probabilità. Viceversa posso usare
la probabilità per predire la frequenza.
SERIE DI MISURE
Consideriamo l’insieme di tutti i possibili esiti di una misurazione (ossia l’insieme universo se i
valori sono continui, la popolazione se i valori sono discreti). Effettuando una serie di misure si
ottiene un campione costituito da “n” valori presi dall’universo. La popolazione è definita
tramite i parametri µ,σ,∞, mentre i parametri che caratterizzano il campione sono m, sn-1, n.
La media del campione m, in generale non coincide con µ (media della popolazione), ma
sarà solo un’ approssimazione, la cui bontà di tale approssimazione cresce all’aumentare
del numero di misure fatte n.
Allo stesso modo la deviazione standard del campione non coincide, in generale con σ, tuttavia la
approssima tanto meglio quanto più alto è n.
Volendo una confidenza del 99,7%, possiamo dire che x0+Δ ~= m+3sn-1. Anche in questo caso
l’approssimazione sarà tanto più corretta quanto maggiore sarà n.
In definitiva possiamo affermare che all’aumentare del numero di misure n, l’incertezza
decresce fino al suo limite intrinseco, dovuto alla procedura usata, alla precisione dello
strumento ecc. (in sostanza all’imperfezione dell’uomo). In genere non è conveniente raggiungere
tale limite, per evitare sprechi e costi eccessivi, conviene piuttosto fermarsi ad un’incertezza
appropriata in base al campo di applicazione.
INCERTEZZA ESTESA
Se sono coinvolte più grandezze la distribuzione tende alla gaussiana e s ha il significato di
incertezza "standard" u (y ), con una confidenza del 68,4%. Se vogliamo maggiore certezza si
deve moltiplicare u (y) per un fattore di copertura k:
U(y)=k • u(y)
Il fattore di copertura k dipende dalla distribuzione di probabilità ipotizzata.
DISTRIBUZIONE DI STUDENT
Generalmente sono noti media (m) e scarto (s) del campione. Come posso usare un campione per
stimare la popolazione? Cioè mi trovo a risolvere il problema inverso rispetto al precedente.
Vale la seguente formula:
s s
m−t ≤ μ ≤m+t
n n
t è la variabile di Student, è una distribuzione statistica.
m ed s sono una stima di µ e σ della popolazione.
La media è compresa in un intervallo tanto maggiore quanto più alto è il parametro “t” detto
“parametro di Student”.
Un valore può essere considerato “anomalo” se il suo scostamento rispetto alla media è
tale da avere una probabilità inferiore ad un livello predeterminato.
Uno dei criteri che permette di decidere se valori anomali sono da accettare o meno è il criterio di
Chauvenet, utilizzabile solo nel caso in cui i valori misurati/errori (?) siano distribuiti secondo una
distribuzione Gaussiana.
Esso si basa sul Principio di Chauvenet:
Data una serie di N misure xi,…,xn, disposte con distribuzione Gaussina di media xm , se la
probabilità che si = |xi-xm| sia maggiore di sp = |xs-xm| è 0.5, allora tutti i valori con scostamento
maggiore di si sono da scartare.
In altre parole, nel criterio di Chauvenet non si calcola la probabilità che il valore sospetto xi cada
entro la deviazione standard. Quello che si calcola è di quante deviazioni standard dista dalla
media, attraverso la standardizzazione:
| xs − xm |
z=
sn−1
e, una volta fatto questo calcolo, si trova quale probabilità corrisponde a tale valore. Se la
probabilità è inferiore a 0.5, il valore sospetto si scarta, altrimenti si conserva.
Usando altre parole ancora, dato un valore sospetto xi, all’interno di un campione,
Sia P la probabilità che |xi-xm| < |xs-xm| (cioè che xi ricada nell’intervallo centrato nella media di
raggio |xs-xm|), e (1-P) la probabilità che |xi-xm| > |xs-xm| (xi stia al di fuori dell’intervallo).
Il criterio di Chauvenet stabilisce che il numero limite di valori attesi fuori dall’intervallo
deve essere 0.5, cioè
1
N(1-P)=0.5 —> P =1− P è la probabilità che il valore sia all’interno dell’intervallo di raggio
2N
sp intorno alla media, di valori accettabili.
Per applicare il principio di Chauvenet dal punto di vista pratico è possibile procedere in due modi:
1) Dato Xi sospetto, si esegue la standardizzazione per trovare z, si trova la probabilità P
associata a z; se N*(1-P)>0.5 scarto il valore.
2) Data la numerosità del campione N, trovo la probabilità P limite, imponendo che il valore atteso
N(1-P) sia uguale a 0.5; trovo z associato a tale probabilità (Gaussiana standard), definisco
l’intervallo di accettabilità xm − z * sn−1 ≤ xi ≤ xm + z * sn−1 ; se xi è in tale intervallo è
accettabile, altrimenti da scartare.
A differenza da questi metodi, il criterio di Chauvenet permette di tenere conto dell’influenza della
numerosità del campione. Infatti, se ho un elevato numero di misure ho più probabilità di trovare un
valore anomalo.
Come abbiamo detto, il criterio di Chauvenet si basa sull’assunzione che la distribuzione sia
gaussiana. Nel caso i dati non fossero distribuiti in tal modo potrei usare comunque il teorema del
limite centrale e ricondurmi alla distribuzione Gaussiana.
Le possibili cause di non normalità della distribuzione sono le seguenti:
- Numero di osservazioni insufficiente
- Non omogeneità della popolazione (campioni non provenienti dallo stesso universo)
- Presenza di errori sistematici
- Cause di ordine matematico (se gli errori sulle dimensioni seguono la curva di Gauss, gli errori
sulla massa no, poiché dipendono dal cubo delle dimensioni)
- Effetto di deriva
- Errori con distribuzione uniforme (calibro, errori di quantizzazione)
Ad esempio l’analisi di regressione può essere utile per valutare la relazione fra ingressi e uscite di
uno strumento.
Uno dei metodi più usati per regressione è quello dei minimi quadrati.
Nel metodo ai minimi quadrati si minimizza la somma degli scarti quadratici lungo y, non lungo x,
poiché gli ingressi di solito sono noti e affidabili.
Dopo aver ricavato la funzione “best fit” è possibile valutarla tramite due parametri: il coefficiente di
correlazione e l’errore sulla stima.
Il coefficiente di correlazione R^2 ci dice quanto la funzione scelta per il fitting sia buona per
approssimare entrate e uscite. Esso varia tra 0 e 1, più si avvicina a 1 più è buona la correlazione.
L’errore della stima è dato da:
∑ (Y − Ystim )2
s= ; dove Y è il valore misurato.
N−2
N-2 al denominatore dipende dai gradi di libertà della funzione (ossia i parametri che la definiscono
univocamente) 2 nel caso della retta 3 nel caso della parabola, ecc.
Estrapolare: usare la funzione al di fuori dei punti che ho.
Osservazione: è opportuno tenere conto che il coefficiente di correlazioni non è indice dell’errore
commesso nell’approssimazione. Il valore del coefficiente per cui si può ritenere di avere una
Misure Meccaniche Matteo B. 27
buona correlazione è da valutare caso per caso: ad esempio per una legge fisica sarà molto vicino
a 1,
mentre per una relazione empirica sarà compreso tra 0.70 e 0.85.
Il coefficiente di correlazione rimane invariato se:
• moltiplichiamo tutti i valori di una variabile per una costante positiva;
• sommiamo una costante a tutti i valori di una variabile;
• scambiamo i valori di x con quelli di y
Non è conveniente usare il polinomio di interpolazione perché i punti misurati non sono i punti veri
da cui deve passare la funzione e inoltre maggiore è il numero di punti più alto è l’errore di
interpolazione.
TEST DI IPOTESI
Il test di ipotesi è un confronto tra il modello di comportamento che fornisce gli “eventi previsti” e la
serie di eventi che fornisce gli "eventi osservati”, al fine di verificare l’accettabilità o meno del
nostro modello di comportamento.
Il test più utilizzato è il test del chi-quadro: χ2
Data una serie di eventi, essi possono essere divisi in k classi, tali da raggruppare tutti gli eventi
uguali (k eventi possibili).
Il test consiste nel costruire la funzione χ2 , come somma delle k funzioni χ2 iesime, associate ad
ogni classe.
(oi − ei )2
χi2 = dove oi sono gli eventi osservati appartenenti alla i-esima classe e ei sono gli
ei
eventi attesi/previsti dal modello nella medesima classe.
Se la funzione somma delle χ2 ha un valore basso (idealmente tendente a 0), allora il modello è
corretto, perché quanto osservato è analogo a quanto previsto dal modello. Se invece assume un
valore grande il modello di previsione non era corretto.
INTRODUZIONE
L’estensimetria è una tecnica che consente la misura delle deformazioni superficiali di un
corpo, con l’obiettivo di risalire allo stato tensione presente in esso e eventualmente ad i
carichi applicati.
Le misure sono effettuate mediante l’applicazione sulla superficie di particolari sensori detti
estensimetri.
In passato l’estensimetria costituiva l’unica via per conoscere stati tensionali e deformativi di
strutture reali per cui la trattazione analitica era troppo complicata. Oggi, con lo sviluppo delle
simulazione agli elementi finiti (FEM), gli scopi principali dell’estensimetria sono:
- Monitoraggio di componenti strutturali;
- Prove in laboratorio per la caratterizzazione dei materiali e delle loro proprietà;
- Supporto all’analisi FEM (affinamento dei modelli di calcolo);
- Verifiche e collaudi di strutture.
DEFORMAZIONE
In questo caso quindi, la grandezza da misurare è la deformazione ε. Essa può essere definita
in due modi: con la formulazione di Lagrange o Eulero.
Δl
- Lagrange: ϵL = ;
l0
dl l
∫ l
- Eulero: ϵE = = ln ;
l0
Sviluppando la formulazione di Eulero in un intorno di Δl=0 si vede che, al primo ordine, le due
formulazioni coincidono:
l Δl ϵ2
ϵE = ln = ln[1 + ] = ϵL − L . . .
l0 l0 2
In generale la deformazione è un parametro adimensionale, tuttavia, dato che le deformazioni
misurate sono molto piccole, in estensimetria si usa un’unità di misura particolare, detta
“µε=microepsilon” che vale 1*10^(-6) ε.
Δl
La deformazione è quindi ϵL = , se l’estensimetro è solidale al corpo allora la
l0
deformazione ∆l dell’estensimetro coincide con quella del corpo.
l0 è detta base di misura dell’estensimetro.
La scelta della base di misura è di cruciale importanza, infatti, tanto più essa è piccola, quanto più
si riesce a misurare con precisione la variazione di deformazione εL.
Tuttavia, è anche vero che, tanto più essa è piccola, tanto più piccolo deve essere l’estensimetro
che dunque potrebbe essere della stessa scala dimensionale dei grani e delle imperfezioni
(discontinuità, disomogeneità) del materiale. Infatti, sebbene possa valere in generale l’ipotesi di
omogeneità, nessun materiale può essere perfetto a livello di struttura molecolare; pertanto, con
una base di misura troppo piccola, si rischia che le deformazioni misurate siano influenzate dalle
proprietà della struttura di una specifica parte e che esse differiscano dal resto del corpo.
In altre parole la dimensione dell’estensimetro deve essere piccola ma tale da coprire tutta la
deformazione del materiale in esame.
Inoltre, per quanto detto, è ovvio che la base di misura dell’estensimetro dipende dal materiale del
corpo (metalli, polimeri, legno, calcestruzzo), cioè dalle dimensioni tipiche delle imperfezioni del
materiale.
Oss: fra i materiali più disomogenei troviamo il calcestruzzo, per il quale le imperfezioni sono
dell’ordine del centimetro. Tra quelli più omogenei l’acciaio (1µm).
Le misure di deformazione che si fanno sono misure medie sulla lunghezza dell’estensimetro.
È possibile anche disporre vari estensimetri lungo una superficie, in modo da trovare una serie di
punti e poter interpolare.
COMPOSIZIONE DELL’ESTENSIMETRO
Considerazioni generali: Come si vede dalla formula, maggiore è la resistenza maggiore è la
sensibilità dell’estensimetro. Gli estensimetri più comuni hanno una resistenza di 120 Ω, quelli per i
trasduttori e misure di precisione 350 Ω, mentre quelli per usi speciali possono arrivare fino a
1000Ω.
Generalmente un estensimetro è costituito da 5 componenti:
1) Griglia estensimetrica (che costituisce l’elemento sensibile)
2) Supporto
3) Terminali
4) Adesivo
5) Strato protettivo
1) GRIGLIA
La griglia è l’elemento sensibile dell’estensimetro, tipicamente è costituita da una lega metallica
avente le seguenti caratteristiche:
1. K elevato (alta sensibilità);
2. Resistività ρ elevata (in modo da avere grosse variazioni di resistenza con griglie di dimensioni
contenute);
3. Coefficiente di dilatazione termica λ simile a quella del materiale cui è collegata;
Il miglior compromesso fra queste caratteristiche lo hanno le leghe di Nicromo o Costantana che
2) SUPPORTO
Il supporto ha la funzione di sostenere la griglia e viene posizionato direttamente sul
componente. Deve perciò essere meno rigido possibile per evitare di influire sulla rigidezza del
corpo, alterando la misura (è come se aggiungessimo una molla in parallelo).
Esistono vari tipi di supporto, inizialmente venivano realizzati in carta, ma oggi si realizzano
prevalentemente in resina poliammidica. Ne esistono comunque alcuni di acciaio o ceramica.
3) TERMINALI
I terminali sono gli elementi finali della griglia sulla quale vengono saldati i cavi
dell’alimentazione (mediante saldatura a stagno).
4) ADESIVO
L’adesivo è l’elemento di collegamento fra il supporto e la superficie da misurare, infatti
l’estensimetro deve essere completamente aderente al corpo, in modo che l’equazione di
congruenza sia rispettata e la deformazione sull’estensimetro sia la stessa di quella del
componente.
L’adesivo ovviamente deve essere in grado di resistere alle temperature di esercizio
dell’estensimetro; quando si lavora ad alte temperature le colle devono essere particolari, poiché
devono polimerizzare (cioè solidificare) a caldo.
Inoltre l’adesivo deve deformarsi con la stessa velocità dell’estensimetro, poiché altrimenti
5) PROTETTIVO
L’estensimetro deve essere opportunamente isolato dall’ambiente e protetto dai fattori
esterni, tra i quali il più dannoso è l’umidità che, oltre a modificare le proprietà dell’estensimetro,
tende a far perdere l’adesività alla colla.
La protezione deve essere, oltre che esterna, anche interna, ovvero la griglia deve essere isolata
elettricamente, in modo che tutta la corrente passi nell’estensimetro.
L’isolamento può essere schematizzato con una resistenza elettrica in parallelo
all’estensimetro, idealmente infinita, in modo che non influisca minimamente sulla misura. Il
problema spesso non è tanto la resistenza dell’isolante in sé, quanto il fatto che essa possa variare
in base alle condizioni ambientali.
In laboratorio valori tipici di resistenze sono superiori a 2000 MΩ, per misure all’aperto invece ci
possiamo accontentare di resistenze da 500 MΩ.
SENSIBILITÀ TRASVERSALE
La deformazione misurata dalla griglia dellʼestensimetro è
monoassiale (generalmente in direzione del carico applicato),
tuttavia, anche se lo stato tensionale è monoassiale, lo stato di
deformazione in generale non lo è. Questo significa che,
inevitabilmente, la griglia e il corpo si deformano
contemporaneamente anche nella direzione ortogonale a
quella assiale. Se non fosse contenuta, anche questa
deformazione contribuirebbe additivamente ad una variazione
di resistenza.
La variazione di resistenza totale dell’estensimetro è data cioè da tre contributi:
ΔR
= Kassϵass + Ktr ϵtr + Kt γt
R
Variazione dovuta a deformazione assiale + trasversale + scorrimento a taglio.
(ΔR /R)tr
con: Ktr =[ ]ϵa=0 ,
ϵtr
che quantifica il Gauge Factor in una sola direzione.
La sensibilità trasversale , inoltre può essere quantificata come il rapporto:
Ktrasv
Strasv =
Kass
Per diminuire la sensibilità trasversale, si realizza la griglia in modo che i tratti trasversali siano
molto brevi e con una sezione più ampia (dalla II legge di Ohm è evidente che la resistenza in tale
direzione aumenta e quindi la sensibilità diminuisce).
La sensibilità trasversale ci viene sempre fornita dal costruttore, per poter eventualmente
correggere le misure.
Analizziamo ora i casi di stato tensionale monoassiale e biassiale.
Stato tensionale monoassiale:
Trascurando la sensibilità allo scorrimento a taglio, si ha:
ΔR
= Kaϵa + Kt ϵt = Ka(ϵa + St ϵt )
R
Bisogna però tenere conto che il Gauge Factor K globale viene calcolato tramite taratura,
associando ad una deformazione nota la variazione di resistenza che si legge.
ΔR
= Kϵ
R
Cioè:
K = Ka(1 − νSt )
In questo caso l’errore dovuto alla sensibilità trasversale dipende esclusivamente dal coefficiente
St, in quanto deformazione assiale e deformazione trasversale sono legate fra loro dal coefficiente
di Poisson.
Dunque:
K (1 − St ν)
ϵa = ϵm ϵt = ϵm ϵ
(1 − St ϵ ) (1 − St ϵ t )
a a
FATICA
È possibile che il lʼestensimetro sia montato su pezzi sottoposti a sforzi (e quindi deformazioni)
ciclici.
Se la deformazione massima del pezzo (e quindi dellʼestensimetro) durante il ciclo è superiore ad
una certa soglia, con il passare del tempo si assiste ad una deriva dello zero, ossia una volta
Misure Meccaniche Matteo B. 35
scaricato il pezzo, la resistenza
dellʼestensimetro non torna al valore
originario ma rimane variata. Ovviamente
lʼeffetto è cumulativo, quindi se continuo a
lavorare con un estensimetro con lo zero
errato, questo si sposterà sempre di più.
PONTE DI WHEATSTONE
Gli estensimetri sono sensori passivi, per
poter leggere le variazioni di resistenza è
necessario collegarli ad un circuito elettrico. Il
tipo di circuito che si utilizza è detto “ponte di Wheatstone”; esso
si compone di un generatore di tensione che alimenta due rami
resistivi posti in parallelo:
2) Metodo ad azzeramento: una delle resistenze può essere regolata manualmente, fino a che il
ponte non viene bilanciato.
In entrambi i casi il ponte è alimentato da un generatore che applica una tensione E nota.
Nel metodo ad azzeramento viene posizionato sul ramo centrale del ponte un galvanometro (o
amperometro) che misura il passaggio di corrente fino a quando questo non è nullo. Quando non
viene più segnalato passaggio di corrente, si può ricavare la resistenza dell’estensimetro con una
formula analitica: R1xRx = R2xR3 ;
Nel metodo a deflessione invece viene letta, tramite un voltmetro, la differenza di potenziale ai capi
del ramo centrale DB.
Tale tensione in uscita V, è legata ad E dalla seguente relazione:
E ΔR1 ΔR2 ΔR3 ΔR4
V= ( − + − )
4 R1 R2 R3 R4
Se al posto delle resistenze immaginiamo di mettere quattro estensimetri con lo stesso K si ha:
KE
V= (ϵ − ϵ2 + ϵ3 − ϵ4)
4 1
ΔR
Con = Kϵ
R
Possiamo cioè affermare che, se espressi in termini relativi gli effetti (variazioni di resistenza) sui
lati adiacenti si sottraggono, mentre su lati opposti si sommano.
CATENE ESTENSIMETRICHE
Il circuito a ponte di Wheatstone può essere di tipo:
1) A quarto di ponte
In questa configurazione si ha un solo estensimetro in un lato per misurare la deformazione,
mentre le altre resistenze sono costanti.
In questo caso l’estensimetro deve essere autocompensato per il materiale su cui si incolla,
altrimenti la misurazione sarebbe falsata dall' influenza della temperatura.
2) A mezzo ponte
In questa configurazione si hanno due estensimetri su lati adiacenti, i cui contributi quindi
vanno sottratti.
Questo schema può essere utile per eliminare l’influenza della temperatura, infatti un
estensimetro può misurare la deformazione meccanica mentre lʼaltro, detto “estensimetro
compensatore” ed è semplicemente incollato ad un pezzo dello stesso materiale scarico alla
stessa temperatura. Dal momento che “effetti uguali su lati adiacenti si elidono” lʼestensimetro
compensatore misura sul pezzo scarico la deformazione termica il cui effetto è uguale e
opposto a quello della deformazione termica dellʼestensimetro collegato al pezzo carico. Si
elimina quindi lʼingresso indesiderato dovuto alla temperatura (metodo degli ingressi in
opposizione) e rimane solo quello desiderato dovuto alla deformazione.
3) A ponte intero
In questa configurazione si hanno quattro estensimetri disposti su tutti e quattro i lati. In questo
caso tutti gli estensimetri sono collegati allʼoggetto da misurare (elementi adiacenti nel ponte
collegati a facce opposte dell’oggetto da misurare). Il disturbo della temperatura, supposto
uguale su tutti e quattro gli estensimetri, è compensato sui lati a due a due adiacenti.
Questa configurazione è vantaggiosa anche per un altro motivo. Se il carico non è esattamente
ortogonale all’asse della trave ma leggermente inclinato, allora una componente della forza
provoca uno sforzo di trazione o compressione nella trave, che altererebbe la misura. Tuttavia,
poiché la deformazione causata dallo sforzo normale è uguale sia per l’estensimetro 1 che per
l’estensimetro 2, e poiché la configurazione a mezzo ponte fa sì che tali contributi si elidano, la
misura della deformazione a flessione non viene alterata:
ϵ1 − ϵ2 = (ϵf + ϵn) − (−ϵf + ϵn) = 2ϵf
ϵ1 − ϵ2 + ϵ3 − ϵ4 = (ϵf + ϵapp) − (−νϵf + ϵapp) + (ϵf + ϵapp) − (−νϵf + ϵapp) = 2ϵf (1 + ν)
La cella di carico ha una sensibilità doppia rispetto al caso a mezzo ponte.
Inoltre, nel caso lo sforzo normale fosse decentrato e generasse dunque
una flessione, i contributi alla deformazione si eliderebbero.
RIEPILOGO
Riepilogando il ponte di Wheatstone svolge 4 funzioni principali:
- Permette di leggere le variazioni di resistenza elettrica, generando una differenza di potenziale;
- Aumenta la sensibilità della misura;
- Permette la compensazione automatica dell’influenza della temperatura;
- Permette l’eliminazione dell’effetto di componenti di sforzo non desiderate.
ALIMENTAZIONE
Il ponte, come già detto, deve essere alimentato. La tensione in uscita dal ponte V dipende da E,
che è la tensione imposta dal generatore. In particolare, V ed E sono direttamente proporzionali,
perciò, aumentando E, V aumenta dello stesso fattore.
È dunque conveniente aumentare la tensione di alimentazione, per aumentare la sensibilità dello
strumento di misura (aumentano le uscite, cioè le variazioni di resistenza, a parità di ingressi).
Inoltre, per effettuare la lettura, la tensione deve essere stabile nel tempo.
Tuttavia esiste un limite fisico alla tensione di alimentazione del ponte di Wheatstone. Sappiamo
infatti che P=I2 R=V2/R (effetto Joule), perciò se la differenza di potenziale imposta è troppo
elevata, la potenza termica prodotta riscalda l’estensimetro, alterando la misura o al limite
fondendo lo strumento di misura. Per tale ragione il costruttore fornisce sempre la tensione
massima con cui si può alimentare l’estensimetro, senza danneggiarlo.
Dalla formula dell’effetto Joule possiamo vedere anche che è molto più conveniente una resistenza
degli estensimetri molto elevata, per abbassare la potenza emessa per effetto Joule e, quindi,
poter alimentare gli estensimetri a tensioni più elevate.
AMPLIFICAZIONE O GUADAGNO
Abbiamo detto che, per poter aumentare la tensione in uscita dal ponte di Wheatstone, non
possiamo aumentare a dismisura la tensione con cui lo alimentiamo poiché si incorrerebbe in errori
o danni fisici all’estensimetro. Tuttavia è possibile agire sull’amplificazione.
La tensione V può essere aumentata di un fattore G grande a piacere:
EK
V= Gϵ1
4
CENTRALINA ESTENSIMETRICA
La centralina estensimetri ha la funzione di “leggere” il circuito a ponte di Wheatstone. Comprende:
1. Alimentazione
2. Amplificazione
CAVI DI COLLEGAMENTO
I cavi di collegamento hanno una propria resistenza, che dipende dalla lunghezza, Ad esempio
10m di cavo di rame di diametro 0.7mm e resistività 0.017 hanno una resistenza di circa 1Ω, perciò
anche se la resistenza dell’estensimetro è 120Ω, se collego 10m di cavo posso avere una
resistenza effettiva di 121Ω.
La resistenza dei cavi, inoltre, non è fissa, ma può variare a seconda della temperatura, che
induce una variazione di resistenza dellʼordine del millesimo di Ω ogni grado (quindi attraverso la
formula della variazione di resistenza si può verificare in 10m di cavo ho una deformazione di circa
1.5 µm/oC).
Il tipo di collegamento tra estensimetro e centralina dipende dalla configurazione del ponte di
Wheatstone che sto utilizzando.
1) Ponte intero:
In un ponte intero tutti i cavi, sia di
alimentazione, che di misura sono esterni (cioè
in serie) al ponte. Dato che la centralina che
fornisce la differenza di potenziale in ingresso
può essere lontana dall’estensimetro, può
essere che la tensione effettiva che si ha al
ponte di Wheatsone sia diversa da quella
erogata, a causa di una caduta di tensione. In
particolare:
E 1
Ew = RW = E ;
Rw + 2RL 1+2R
RL
W
1. GAUGE SYSTEM
Gli errori nel sistema del sensore possono provenire da sensore, adesivo, protezione e ambiente.
Esempi di errori sul sensore:
- Incertezza sul gauge factor, che ci viene fornito con un range di errore percentuale.
- Problemi di linearità
- Sensibilità trasversa
- Fatica
- Autoriscaldamento
- Rafforzamento della struttura da parte dell’estensimetro (si può avere su pezzi molto sottili, su
cui l’influenza dell’estensimetro può essere rilevante).
Esempi di errore sull’adesivo:
- Deformazioni troppo grandi
- Creep (problema che si ha per carichi statici, costanti nel tempo, in ambiente ad alta
temperatura).
- Isteresi
- Errore nella procedura di incollaggio
Esempi di errore sulla protezione:
- Isolamento insufficiente
- Effetto rinforzante analogo a quello del sensore
Esempi di errore dell’ambiente:
Misure Meccaniche Matteo B. 42
- Umidità
- Pressione dell’ambiente
- Effetti elettromagnetici
- Variazione del gauge factor a causa della temperatura dell’ambiente
SISTEMA DI LETTURA
Il sistema di lettura è il ponte di Wheatstone
Vanno analizzati completamento del ponte, alimentazione del ponte, condizionamento del segnale,
rumore elettrico.
Esempi di errore sul completamento del ponte:
- Effetto della temperatura sulle resistenze campione, che dunque vanno scelte con bassi
coefficienti di variazione in base alla temperatura
- Effetti di switch
- Linearità del ponte, che è lineare solo per approssimazione.
Esempi di alimentazione del ponte:
- Alimentazione non costante
Esempi di condizionamento del segnale:
- Amplificatori
INTRODUZIONE
Una cella di carico è un dispositivo elettronico che serve a misurare una forza applicata su
un oggetto (in generale un componente meccanico). Essa è generalmente costituta da un
corpo metallico (acciaio o alluminio), su cui vengono applicati uno o più estensimetri, che
“leggono” la deformazione del materiale mediante una variazione di resistenza.
Questa comporta, a sua volta, un segnale elettrico, che viene manipolato e amplificato in
maniera opportuna, in modo da poter essere utilizzato.
Il sistema che si usa per leggere la variazione di resistenza è il ponte di Wheatstone, che
in generale, per amplificare l’intensità del segnale e per compensare i disturbi di origine
termica, viene utilizzato con una configurazione a ponte intero.
La classificazione delle celle di carico si basa di solito sul tipo di sollecitazione agente
nella zona degli estensimetri. Esistono numerose celle di carico:
- A trazione/compressione
- A flessione
- A taglio
- A torsione
Occorre distinguere fra il tipo di sollecitazione agente sulla cella:
In questo caso, l’elemento sensibile è una colonnina a sezione quadrata. Gli estensimetri sono
collegati a ponte intero sulle quattro facce, in modo da massimizzare la variazione di tensione in
uscita.
CELLE A TORSIONE
L’estensimetro in questo caso è montato sul filo di una molla elicoidale. Se sottopongo a
compressione la molla lo sforzo prevalente è a torsione e si misura con gli estensimetri disposti a
45, in modo analogo alla cella di carico a taglio.
RIEPILOGO
1. Per le misure ottiche si usa un encoder. Una sorgente manda un fascioo luminoso che viene
fatto passare attraverso due flange forate che ruotano l’una rispetto all’altra. In base a quanta luce
passa riesco a misurare l’angolo di torsione.
2. (?) Per i contatti striscianti si installano sull’albero
quattro estensimetri opportunamente orientati,
collegati a ponte di Wheatsone.
Sfruttando l’induzione elettromagnetica, attraverso
due trasformatori che sono due statori, riesco a fare
la lettura senza il contatto.
Si ottiene una relazione:
e0(t) = es(t)Kϵ
Dove K è una costante che si ottiene tramite
taratura.
Premessa: se un materiale è ELI bastano due parametri (E, v) per scrivere le equazioni di legame,
che legano deformazioni e sforzi.
ROSETTE PIANE
Come appena spiegato, la doppia griglia si usa quando si conoscono gli assi principali, la tripla
griglia quando abbiamo bisogno di misurare tre deformazioni.
Vi sono due configurazioni possibili per la tripla griglia: a griglie sovrapposte (da usare quando vi è
alto gradiente di deformazione lungo la superficie ma non quando c’è gradiente normale alla
PROCEDURA DI PROVA:
- Inserire punti di misura “di controllo” ossia posizionare gli estensimetri in punti in cui siamo certi
della deformazione.
- Controllare “canale per canale” la identificazione dei punti di misura (ossia bisogna controllare
opportunamente il collegamento dei cavi elettrici.
- Effettuare una verifica “globale” sia della strumentazione che degli apparati di prova, caricando
ad un livello di carico basso. Questo permette di verificare errori che emergono solo quando si
applica un carico e non si vedono a riposo. Ciò non sempre è fattibile.
- Eseguire se possibile alcuni cicli di “allenamento”, controllando gli zeri. Ad esempio questo può
essere utile per controllare l’incollaggio, se dopo una deformazione l’indicatore non torna a zero
è evidente che si hanno problemi di incollaggio.
- Usare procedure di prova collaudate e personale qualificato. Le misure devono essere attendibili
e difendibili, cioè bisogna essere sempre in grado di dimostrare che la procedura utilizzata è
stata corretta.
RELAZIONE TECNICA
Una relazione tecnica deve sempre riportare:
- Tipo di prova e descrizione dell’oggetto provato
- Attrezzatura utilizzata, in modo da poter risalire con certezza alle caratteristiche degli strumenti
usati.
- Strumentazione e catena di misura (ad esempio bisogna segnare i dati della centralina)
1) Estensimetri
– Tipi di estensimetri utilizzati (criteri di scelta)
– Collocazione (motivi della scelta)
Le misure di temperatura sono tra le più importanti dal punto di vista tecnico, in quanto la
temperatura è un parametro fondamentale in ogni processo in cui vi è scambio di calore. In
aggiunta a ciò possiamo dire che le misure di temperatura sono le più economiche. Per questi
motivi, questo tipo di misure sono le misure più comuni.
Esistono vari tipi di termometri, i più comuni sono quelli basati sulla dilatazione di un fluido
(mercurio o alcool) dentro un tubo capillare, in alternativa vi sono quelli a dilatazione metallica.
Un sensore meccanico di temperatura comune è il tubo di Bourdon (già descritto in precedenza).
Vi sono poi dei sensori di temperatura bimetallici. Essi sono dei trasduttori meccanici a
dilatazione termica che si realizzano saldando fra loro due metalli diversi e collocando ad una
estremità una lancetta. A causa del diverso coefficiente di espansione termica, una variazione di
temperatura provoca una curvatura, che permette di leggere la temperatura. Questi sensori sono
economici e non devono essere alimentati, ma sono poco accurati e soffrono di problemi di
isteresi. Hanno inoltre un’inerzia termica piuttosto elevata, poiché devono andare in equilibrio
termico con il misurando.
∫
V = (Sb(T ) − Sa(T ))dT ; dove Sa e Sb sono i coefficienti di Seebeck (Potere Termoelettrico)
[V K-1].
Se i coefficienti sono approssimativamente costanti nell’intervallo di T considerato la tensione
generata è:
V = (Sb − Sa) * ΔT .
Tuttavia, la relazione vera è un’altra, bisogna tenere conto che il coefficiente di Seebeck
dipende a sua volta dalla differenza di temperatura. Perciò la tensione di Seebeck è lineare con
la temperatura solo per piccoli intervalli di temperatura.
Un vantaggio dei sensori di questo tipo è che riescono a tirare fuori un segnale senza bisogno
di energia esterna, cioè senza alimentazione. Le termocoppie rientrano, infatti, tra i trasduttori
attivi.
Sono perciò strumenti pressoché inerti, non generando tensioni molto elevate, possono essere
ovunque in sicurezza, senza rischiare di creare effetti elettrici che perturbino il sistema.
Inoltre le termocoppie hanno un costo piuttosto basso.
Abbiamo visto che, prendendo un filo di materiale omogeneo e imponendo una differenza di
temperatura ai due capi, nasce una differenza di potenziale. Per alcuni materiali si ha una
differenza di potenziale crescente con la temperatura, mentre per altri decrescente. Questa
Misure Meccaniche Matteo B. 52
caratteristica è sfruttabile per incrementare la differenza di potenziale che nasce a parità di
differenza di temperatura, utilizzando, appunto, due materiali con comportamento opposto.
L’effetto Seebeck, infatti, continua ad esistere anche nel caso dell’accoppiamento di due elementi
metallici diversi. In particolare materiali buoni da accoppiare, che reagiscono in maniera opposta
sono: rame/cromo/ferro/platino+rodio con costantana/alluminio. I materiali vengono scelti anche in
base alle temperature di esercizio.
GIUNTO FREDDO
Un giunto freddo è un tipo di termocoppia in cui ci si
riferisce ad una temperatura nota di 0°C, ottenuta con
un bagno termostatico.
Analizzando il grafico vediamo che, attaccando due fili di
rame, le rette della fem hanno la stessa pendenza,
perciò viene “congelato” il ∆V e si porta alla temperatura
di lettura invariato.
Se dopo il bagno termostatico non ci fosse stato ferro, ma ancora costantana, la fem sarebbe
diminuita con la stessa intensità con cui era cresciuta (muovendosi cioè
all’indietro sulla stessa curva), invece in questo modo il segnale è amplificato, come se fossero
utilizzate due termocoppie in serie, che lavorano in senso opposto.
In questo esempio vediamo applicate la legge 2 e la legge 3 alle giunzioni coi fili di rame: infatti il
rame è attaccato al lato ferro con due giunzioni alla stessa temperatura (Jhi-Jlo), perciò per la
legge 2 la differenza di potenziale è invariata, mentre per la legge 3 tutte le temperature nel tratto
rame sono ininfluenti per la ∆V finale.
Vediamo applicate anche la legge 5: Misuriamo Tx-Tref passando attraverso Tamb.
GIUNTO ISOTERMO
In un giunto isotermo le giunzioni sono portate ad una stessa temperatura di riferimento,
che posso tenere sotto controllo con un
resistore, in modo da togliere le
fluttuazioni dell’ambiente.
Qualora non si potesse bucare o fare una giunzione si possono utilizzare delle paste termiche.
Esse proteggono i conduttori da disturbi elettrici ma hanno un’elevata conduzione termica e in tal
modo si portano in equilibrio termico con la parete da misurare. Garantiscono una buona
accuratezza della misura.
La scelta di una termocoppia si fa in base ai limiti di temperatura in cui si deve lavorare e all’inerzia
termica.
K: Cromo-Alluminio (leghe contenenti Ni); hanno un range ampio, (da -270° a oltre 1350° ) e
pertanto sono quelle più utilizzate dal punto di vista industriale. Possono essere utilizzate in
atmosfere ossidanti ma non in atmosfere riducenti. Hanno anche un costo abbastanza contenuto.
Le seconde per popolarità sono le J che però possono lavorare in atmosfere riducenti e non
ossidanti.
Per ogni tipo di termocoppia bisogna tener conto anche della sezione, che influisce sul range di
temperatura.
CAUSE DI ERRORE
La possibilità di errori nelle misure di temperature con termocoppie è frequente, a causa
principalmente delle forze elettromotrici molto deboli (mV) che si misurano e possono
essere dunque facilmente disturbate. I disturbi più frequenti sono dovuti a:
- Collegamento con cavo non adatto:
Tutti i collegamenti tra le termocoppie e gli strumenti di misura devono essere effettuati con cavi
compensati adatti, infatti esistono cavi compensati per ogni tipo di termocoppia, la scelta del tipo
di isolante e delle dimensioni dipendono unicamente dalle condizioni di utilizzo. (Se ad esempio
siamo in un campo magnetico non dobbiamo usare un cavo conduttore, altrimenti alteriamo il
segnale). Per accorgersi di questo tipo di errore in un sistema di più termocoppie basta misurare
a sistema spento, in tal caso le termocoppie dovrebbero misurare tutte la stessa temperatura;
se una misurasse una temperatura diversa, significa che tale termocoppia non è nelle condizioni
opportune di utilizzo.
- Inversioni di polarità nei vari collegamenti.
- Carenze di terra nel circuito: bisogna mettere a terra il circuito
- Disomogeneità di composizione nel cavo della termocoppia: problema che nasce quando non
siamo sicuri di ciò che compriamo e abbiamo materiali non omogenei.
- Estensimetria dei cavi: i cavi possono essere così sottili da deformarsi a causa di vibrazioni.
- Decalibrazione progressiva: in seguito ad ossidazione.
- Disturbi elettrici nel sistema di misura.
Quando misuriamo con una termocoppia, abbiamo sempre un’estremità più fredda dell’altra. Tale
gradiente di temperatura fa sì che una termocoppia non sia mai realmente in equilibrio termico con
il misurando, perché gli sottrae calore (errore di conduzione). Più l/d è grande, meno calore viene
condotto, perciò questo effetto sarà minimizzato. (spiegato in seguito)
In molti casi non è possibile posizionare i termometri direttamente all’interno del fluido ma
è necessario proteggerli. Si utilizzano perciò i pozzetti termometrici. I pozzetti termometrici
servono a proteggere i sensori di temperatura dai danni provocati da pressione eccessiva, velocità
del materiale e corrosione. Oltre a prolungare la vita di servizio del sensore, ne consentono la
sostituzione senza dover svuotare il sistema e riducono la probabilità di contaminazione.
Le termocoppie possono essere usate anche per leggere dei ∆T, invece che dei valori assoluti.
TERMORESISTENZE
Le termoresistenze sono sensori di temperatura costituiti da un filamento di un unico
metallo conduttore (di solito il Platino o il Nichel).
Col tempo sono stati selezionati dei materiali che funzionano meglio di altri, prodotti in massa e
stabiliti gli standard RTD.
La principale differenza dei termometri a resistenza, rispetto alle termocoppie è che sono
sensori passivi, ossia hanno bisogno di essere alimentati per poter funzionare.
Per poter leggere la variazione di resistenza è infatti necessario misurare una corrente e una
differenza di potenziale nel circuito (R=V/I) e queste non possono che essere imposte
dall’esterno.
Per leggere la resistenza si utilizza un circuito a ponte di Wheatstone (spiegato in seguito - vedi
estensimetria).
TERMISTORI
L’ “evoluzione” più recente delle termoresistenze sono i termistori. A differenza delle
termoresistenze che sono costituite da conduttori, essi si basano sui principi dei
semiconduttori.
Sono fatti con delle polveri che, se mescolate opportunamente, garantiscono un comportamento
uniforme del semiconduttore. Sono ottenuti generalmente per sinterizzazione. I primi erano fatti in
manganese e cobalto, mescolati con un legante scelto in base alla temperatura a cui si andava a
lavorare.
RIEPILOGO
ERRORI
Indipendentemente dal tipo di sensore utilizzato tutte le volte che vogliamo misurare la
temperatura stazionaria di un fluido si sommano sostanzialmente tre tipologie di errore:
1) Errore di conduzione:
conduzione del sensore verso pareti o superfici fredde. Supponendo che la temperatura della
sbarra Tr sia funzione solo di x e che il fluido con temperatura Tf costante e uniforme scambi
calore per convezione con la sbarra, l’equazione che lega lo scambio termico sarà:
Come vediamo dobbiamo massimizzare i rapporti l/A e (p/A) per diminuire l’errore. Inoltre è
conveniente avere un coefficiente di convezione h elevato, in modo da incrementare lo scambio
termico con il fluido e coefficiente di conduzione k piccolo in modo da non creare gradienti di
temperatura sullo strumento.
Per diminuire questo errore si può inoltre ricorrere a dei pozzetti (spiegati precedentemente).
E’ inoltre opportuno ricorrere a sensori molto piccoli (fino a 0.5 mm di diametro; purtroppo la
diminuzione di diametro ha riflessi negativi sulla durata dei sensori, che nelle zone ad alta
temperatura può essere anche inferiore alle 1000 ore), che consentono sia di ridurre
l’irraggiamento, sia di minimizzare l’errore per conduzione verso la parete (é sufficiente in genere
far fuoriuscire il sensore circa 10 diametri dalla parete dello schermo), ed anche di conseguire
buone prestazioni nel senso delle misure dinamiche.
Abbiamo già detto che le grandezze che si misurano più frequentemente sono quelle le cui misure
sono più economiche. Dopo le misure di temperatura si hanno le misure di pressione.
Occorre distinguere tra:
- Pressione assoluta (absolute pressure): la misura di pressione é fatta rispetto ad uno zero (in
pratica realizzato mediante una camera ad alto vuoto).
- Pressione relativa (gauge pressure): la pressione é misurata rispetto all’ambiente (per avere la
pressione assoluta é necessario quindi sommare la pressione barometrica).
- Pressione differenziale: si misura una differenza tra due pressioni qualunque.
MANOMETRI
I manometri sono dispositivi adatti per fornire una misura fisica
della pressione che viene letta tramite la legge di Stevino,
misurando uno spostamento.
BANCO A PESI
Serve a generare in laboratorio una pressione nota ed è uno strumento di precisione utilizzato
per tarare gli strumenti primari che lavorano con pressioni medio-alte (decine/centinaia di
bar). Per gli strumenti con pressioni basse si usano micromanometri. Sul piattello vengono posti
pesi noti, il cui peso genera una pressione sul fluido tramite un pistone, il quale è lubrificato e
TRASDUTTORI DI PRESSIONE
I trasduttori di pressione sono strumenti capaci si convertire la pressione applicata in un
segnale elettrico, in tensione o in corrente, facilmente registrabile, trasmissibile ed elaborabile.
In genere la pressione viene fatta agire su una superficie opportuna, generando una forza
che a sua volta produce la deformazione di un elemento elastico: questa risulta essere la
variabile misurata.
Per la misura della deformazione o dello spostamento sono possibili vari metodi (trasduttori
estensimetrici, capacitivi, induttivi, a trasformatore differenziale, ad effetto piezoelettrico con
quarzo o semiconduttori), che influenzano sia la precisione, sia l’elettronica necessaria per
l’alimentazione ed eventuale amplificazione, sia il costo del trasduttore.
Prescindendo dal principio di misura - che può essere relativamente ininfluente per molte
applicazioni - il costo di un trasduttore é fortemente influenzato dalla qualità esecutiva e
dell’elettronica; dalla eventuale compatibilità con liquidi - anche corrosivi - e con flussi carichi
di particolato; dal valore di pressione di linea sopportabile nel caso di esecuzioni differenziali; dal
grado di miniaturizzazione, fondamentale per ottenere come si é visto buone capacità di risposta
dinamica.
I trasduttori di pressione costano relativamente poco, perché sono fatti di componenti elettronici,
che costano molto meno dei componenti meccanici.
Tabella —> Over pressure: può resistere fino a questo valore di pressione senza rompersi
In molte applicazioni industriali si preferisce ad avere un segnale in corrente piuttosto che uno in
tensione. Infatti la corrente rimane la stessa indipendentemente dalla resistenza dei conduttori con
cui collego lo strumento di misura, mentre il potenziale diminuisce e perciò non è affidabile.
Misure Meccaniche Matteo B. 63
L’output minimo in corrente è 4mA e non 0mA, in modo che riesco a riconoscere quando il
collegamento è interrotto da quando il sistema non genera segnale.
TRASDUTTORI ESTENSIMETRICI
I primi ad avere una buona risposta in frequenza
Gli estensimetri sono andati in disuso da quando è subentrata l’elettronica e il digitale.
TRASDUTTORI CAPACITIVI
I trasduttori capacitivi si basano sulla proprietà dei condensatori di variare la capacità in base alla
distanza tra le lastre. La capacità di un condensatore è infatti:
kA
C= c dove k è la costante dielettrica del mezzo, A la superficie delle armature, x la distanza
x
tra le armature e c l costante geometrica.
In seguito all’applicazione di una pressione, tale distanza viene modificata, generando un segnale
elettrico in uscita, proporzionale alla sollecitazione.
Con distanze di piccolo ordine di grandezza tra le armature si ottengono capacità molto ampie, per
tale motivo sono in genere di piccole dimensioni e vengono utilizzati per misure di dettaglio.
I difetti principali sono la facilità di rottura e la bassa resistenza ad alte temperature.
Possono essere assoluti o differenziali: i primi misurano una pressione assoluta mentre i secondi
una differenza di pressione tra due fluidi che premono contro una membrana.
I traduttori differenziali presentano particolari difficoltà di progetto perché devono essere sensibili a
piccole differenze di pressione, spesso con elevate pressioni di linea.
Sono trasduttori passivi, necessitano di essere alimentati per leggere la misura. È tipica una
configurazione a ponte di Wheatstone per amplificare il segnale.
TRASDUTTORI INDUTTIVI
Si basano sulla possibili di variare l’induttanza in un avvolgimento, ossia la capacità di generare
una forza elettromotrice proporzionale al flusso del campo magnetico concatenato.
Si hanno due bobine che, a riposo, hanno la stessa induttanza. In seguito ad una variazione di
pressione un nucleo di materiale magnetico si sposta e modifica l’induttanza in uno dei due. Di
conseguenza si avrà una tensione in uscita che può essere letta.
Sono abbastanza accurati e abbastanza diffusi.
Difetti: attrito primo distacco (parti in movimento), delicatezza.
TRASDUTTORI PIEZOELETTRICI
Utilizzano dei sensori basati sul fatto che alcuni cristalli, se sottoposti ad una sollecitazione
esterna, generano una migrazione di cariche da un lato all’altro. Tale migrazione polarizza le
strutture cristalline ed è tanto maggiore quanto più alta è la pressione. Tale polarizzazione si
traduce in una differenza di potenziale che può essere letta con un circuito ad alta impedenza, per
non alterare lo stato di carica del trasduttore. Poiché non necessitano di alimentazione, sono dei
trasduttori attivi.
Hanno una risposta in frequenza molto veloce, dell’ordine del microsecondo, poiché le
sollecitazioni si trasmettono alla velocità del suono, che è elevata nei solidi; inoltre le cariche si
spostano alla velocità della luce nel mezzo considerato.
In questi trasduttori non si hanno parti meccaniche in movimento, perciò non si hanno problemi
legati all’ attrito.
Data la risposta molto veloce possono essere utilizzati ad esempio per accelerometri, che
necessitano di acquisizioni molto veloci.
TRASDUTTORI PIEZORESISTIVI
I trasduttori piezoresistivi si basano sulla piezoresistività, ossia la proprietà dei materiali di variare
la resistenza elettrica in seguito all’azione di una forza esterna.
Questo effetto è apprezzabile solo in alcuni materiali, in particolare nei cristalli di silicio, e avviene
sia in presenza di forze statiche che dinamiche. Inoltre, è possibile, tramite processi tecnologici di
stratificazione, creare materiali artificiali che massimizzano questo effetto.
Vi è differenza tra questi trasduttori e quelli estensimetrici. I sensori piezoresistivi variano la propria
resistenza principalmente perché varia la resistività del materiale sensibile, mentre gli estensimetri
variano la propria resistenza quasi esclusivamente perché varia la lunghezza e la sezione del
conduttore che realizza il sensore.
Inoltre i trasduttori piezoresistivi sono realizzati con semiconduttori.
Per un semiconduttore la resistività è data da:
1
ρ= dove e è la carica elementare, Ni è il numero di cariche e µ è la mobilità elettrica
eNi μm
media. L’effetto di una forza applicata è quello di cambiare sia il numero di cariche che la mobilità
media; l’ampiezza ed il segno della variazione dipenderà dallo specifico semiconduttore, dalla sua
carica concentrata e dall’orientazione dei cristalli rispetto alla sollecitazione esterna.
Per una semplice tensione o compressione, la variazione relativa di resistività è data da:
Δρ
= πl σ dove π è il coefficiente di piezoresistività longitudinale e σ la tensione.
ρ0
Dato che in seguito alla forza applicata si ha anche una deformazione dimensionale del
semiconduttore, la variazione di resistenza elettrica è quantificata dal Gage Factor che quantifica
la variazione di resistenza data dalla variazione di resistività. Si definisce come il rapporto tra la
variazione di resistenza totale e il prodotto tra deformazione e resistenza iniziale: maggiore sarà il
G.F. e più elevata sarà la variazione di resistenza e quindi il segnale in uscita.
ΔR
G.F. = . Esso dipende in generale dal materiale (E; coefficiente di Poisson). In generale
R0 ϵ
esso dipende dalla temperatura, poiché il coefficiente di Poisson è funzione di essa, ma per alcuni
semiconduttori con elevato numero cariche, il G.F. è costante.
Essendo necessaria un’alimentazione, sono dei trasduttori passivi, al pari delle temroresitenze.
Questi trasduttori sono i migliori per risposta in frequenza, sensibilità, risoluzione e dimensioni.
Sono, pertanto, i più competitivi sul mercato.
Nel caso in cui il fluido sia aria, il foro può essere praticato ovunque, senza alterare il risultato.
Invece, nel caso in cui il fluido di lavoro sia un liquido, devo stare attento perchè, se il condotto non
è rettilineo, il flusso varia, perciò non mi basta una misura sola, ma devo avere una misura media.
Poiché spesso non ho spazio per effettuare fori ad una distanza sufficiente da questo disturbo si
usano dei dispositivi detti “anelli piezometrici”, che attraverso più prese collegate poi fra loro in
modo che il fluido si uniformizzi, mediano fisicamente le grandezze. In questo modo abbiamo
anche il vantaggio di avere una sola catena di misura (1 trasduttore, 1 amplificatore ecc. anziché
una per presa).
Infine ciò permette di ridurre la propagazione degli errori, dato che nel caso di più misure vanno
sommati gli errori.
In questo esempio di anello piezometrico vengono effettuate quattro prese a parete, attraverso le
quali il flusso passa in un condotto esterno comune ad anello, che poi ha un’unica presa di
pressione collegata ad un trasduttore, il quale legge Pring (pressione statica media del flusso
uniformato nell’anello):
P1 + P2 + P3 + P4
Pring =
4
L’accuratezza delle misure di pressione statica utilizzando prese di pressione su corpi aerodinamici
(sonde) dipende dall’accuratezza nel
posizionamento, dalla dimensione dei fori e dalla
direzione del flusso.
Cioè la pressione statica misurata è tanto più
accurata quanto più distante è la presa di pressione
dal “naso della sonda”, mentre tanto più sono vicino,
tanto più sottostimo la pressione statica. Infatti devo
essere certo che lo strato limite sia completamente
sviluppato, affinché sia valido quanto detto
precedentemente (∂p/∂y = 0).
Questa curva, scalata rispetto a diametro e velocità,
è valida per qualsiasi flusso incomprimibile e può
essere utilizzata per la correzione della misura.
Tuttavia il foro non può essere troppo lontano dal naso, perché altrimenti il flusso è perturbato
(fermato) dallo stelo, che è ortogonale ad esso, e porta ad una sovrastima della pressione statica.
SONDA CILINDRICA
La sonda cilindrica è una sonda con due
prese di pressione che permette di misurare
la pressione statica e determinare la
direzione del flusso. Le due prese sono collegate a dei trasduttori
di pressione che leggono, in generale, due valori diversi di
pressione (fornendo quindi un ∆P).
Questa sonda viene ruotata fino a quando la differenza di
pressione letta dalle due prese è nulla. In tale punto allora il flusso
sarà ortogonale alla sonda e le due prese simmetriche rispetto ad
esso. In tale posizione esse leggono la pressione statica.
Se ruotando la sonda il ∆P aumenta significa che ci stiamo
“allontanando” dalla direzione del flusso, infatti una delle due
prese si sta avvicinando al punto di ristagno e tende a misurare la
pressione totale (che viene misurata quando una delle due prese è
esattamente in direzione del flusso.
Chiamando ß l’angolo tra l’asse di simmetria della sonda e la direzione
del flusso, possiamo dire che per un certo rane di ß, possiamo capire,
tramite il ∆P, l’angolazione del flusso.
La forma della sezione della sonda e la posizione relativa delle sonde è molto importante, in
quanto determina la sensibilità della sonda e il range angolare: se la sonda è acuminata e l’angolo
fra le prese è molto piccolo, sarà molto più sensibile. Le sonde a curvatura più dolce sono invece
meno sensibili, ma posseggono un range di letture utili più ampio; esse possono essere pertanto
usate quando non si ha certezza della direzione del flusso.
In realtà è impossibile misurare effettivamente la pressione totale del flusso, in quanto, inserendo
la sonda, esso verrà perturbato; pertanto la sonda dovrà essere significativamente più piccola
rispetto alle dimensioni del flusso.
TUBO DI PITOT
Il tubo di Pitot è la più celebre sonda pneumatica. Esso viene
utilizzato per misurare la velocità di un flusso, tramite la misura di
pressione dinamica.
Esso non ha bisogno di taratura e può essere utilizzato in un flusso
incomprimibile stazionario.
Viene inserito nel flusso (di cui si deve
conoscere la direzione) in modo che della
sonda sia perfettamente allineato alla velocità
locale.
La presa centrale deve essere posizionata in
modo da coincidere con il punto di ristagno, in
modo che venga misurata la pressione totale
del flusso.
In corrispondenza della prese laterali vige la
pressione sulla parete. Essa è una pressione
statica, poiché la pressione dinamica è
annullata dagli sforzi viscosi e in buona
approssimazione coincide con la pressione
statica del flusso prima dell’inserimento della
sonda.
Le due prese sono collegate ad un manometro
differenziale, che, tramite la legge di Stevino,
permette di leggere la differenza tra Ptot e Ps,
cioè la pressione dinamica.
In definitiva, se le dimensioni della sonda sono ridotte rispetto a quelle del campo di moto e
risultano verificate le ipotesi:
1) L’asse del tubo è allineato con la direzione della velocità;
2) Le prese statiche sono poste ad una distanza sufficiente perché in corrispondenza di esse lo
strato limite sia completamente sviluppato;
3) La testa del tubo sia opportunamente profilata in modo da minimizzare le perdite di pressione
per attrito viscoso.
Dunque, sfruttando il teorema di Bernoulli, si può poi risalire alla velocità del flusso:
(Ptot − Ps )
v= 2
ρ
il tubo di Pitot viene usato negli aerei e nelle Formula 1
SONDE DIREZIONALI
Le sonde direzionali sono una tipologia di sonde con la caratteristica di essere ipersensibile a flussi
che hanno un certo angolo di inclinazione, mentre insensibili al resto dei flussi.
Tramite alcune di queste sonde si può risalire all’intero campo di moto medio, poiché possono
misurare pressione totale, pressione statica e angolo del flusso.
Queste sonde sono caratterizzate da una testa con 3 o 5 fori.
Usando 3 fori (centrale, sx, dx) si combinano le letture selettive di
ognuno di essi, portando la sonda a “sentire” solo il flusso
complanare ad essi, con tale soluzione costruttiva si va quindi a
ricostruire un campo di moto bidimensionale.
Usando invece 5 fori (centrale, sx ,dx, basso, alto) -va usata però
un’opportuna geometria- ci si porta nella condizione di poter
ricostruire un campo di moto tridimensionale, dato che si è resa
sensibile la sonda anche al flusso nel piano ortogonale ai 3 fori
originari.
SONDE COBRA
Il principio di funzionamento di questa sonda si basa su quello del tubo di Pitot, sono utilizzate per
misurare la direzione del flusso, ma possono essere utilizzate anche per misure di pressione
totale. Chiamate così per la loro forma, sono costituite da tre tubicini d'acciaio, del diametro non
superiore al millimetro, posti l'uno accanto all'altro (complanari), uniti tra loro per mezzo di una
brasatura, la cui estremità è opportunamente smussata e piegata, tramite una maschera di
piegatura, ad un angolo di 90°.
Il primo coefficiente viene utilizzato per individuare l’angolo: viene calcolato in base a pressione
centrale destra e sinistra e tramite le curve di calibrazione si risale alla direzione del flusso.
A questo punto sono noti anche gli altri due coefficienti; dal terzo coefficiente si ricava la pressione
dinamica (Pt-P) e si mette nella formula del secondo coefficiente per ricavare la pressione totale.
A questo punto si possono ricavare anche la pressione statica e la pressione dinamica.
Nella procedura iterativa si ipotizza una pressione dinamica e grazie agli altri coefficienti si riottiene
un valore per il tentativo successivo. La convergenza è molto veloce.
Per quanto riguarda le sonde a 5 fori, possiamo dire che le curve di calibrazione diventano
superfici e le procedure di taratura sono molto più lunghe e dispendiose.
Ci sono tre diversi tipi di anemometri, a secondo della tecnica usata per ricavare la velocità del
flusso a partire dalla variazione di resistenza:
- CCA: anemometri a corrente costante
- CVA: anemometri a tensione costante
- CTA: anemometri a temperatura costante:
Mantenendo a T costante la resistenza, tramite effetto Joule si ha che, in condizioni stazionarie
vale:
R I 2 = h ⋅ S ⋅ (Tfilo − Tf luido)
Dove h è il coefficiente di scambio termico [W/m^2 K] e S è la superficie bagnata.
La tensione di uscita dal sensore a filo caldo è così il risultato di una sorta di circuito all'interno allo
strumento che tenta di mantenere costante la specifica costante (corrente, tensione o
temperatura).
INTRODUZIONE
I misuratori di portata sono divisi in primo luogo fra:
- Misuratori di tipo volumetrico
- Misuratori di tipo massico
L’idea alla bade della misurazione di portata è quella di determinare la velocità del flusso per
determinare la portata analiticamente.
Queste ipotesi sono necessarie per poter applicare l’equazione di Bernoulli. Tramite tale
equazione, applicata ad un volume di controllo opportuno, tra le sezioni 1 e 2, si ottiene:
· A2 f 2( p1 − p2)
V=
1 − (A2 f /A1f )2 ρ
Le aree A1f e A2f sono le aree della sezione trasversale del flusso, che non coincidono con la
sezione geometrica del tubo o del diaframma.
Tali aree sono praticamente impossibili da conoscere, perciò si utilizzano le aree geometriche e si
introducono dei coefficienti correttivi sperimentali che tengono conto delle variazioni della sezione
trasversale del flusso e delle perdite di carico, introdotte dal dispositivo.
Questi coefficienti sono detti “coefficienti di efflusso” Cd e nel caso di fluidi incomprimibili
dipendono solo dal numero di Reynolds.
Questa proprietà comporta il vantaggio che è possibile tarare questi misuratori con un fluido
qualsiasi (come l’acqua) ed estendere i risultati a qualsiasi fluido.
Per un fluido comprimibile Cd dipende da Reynolds, dal rapporto delle pressioni e dall’esponente
isoentropico del gas (rapporto tra i calori specifici).
Tale dipendenza può essere espressa analiticamente dal prodotto tra numero di Reynolds e un
coefficiente di comprimibilità ε (<1).
I coefficienti di efflusso devono essere aggiornati periodicamente, tenendo conto dell’usura e delle
modifiche sulla geometria che essa comporta.
Il calcolo dei coefficienti di efflusso per i diaframmi si effettua con un procedimento iterativo, che
garantisce una convergenza piuttosto veloce (2-3 iterazioni).
In generale questi strumenti devono essere tarati, a meno che non si faccia riferimento alla norma
nella progettazione dello strumento, in tal caso si utilizzano dei parametri indicati dalla norma e la
taratura è “implicita”.
Osservazione: Nel caso in cui a monte del tubo il flusso abbia delle componenti tangenziali, siamo
costretti a ricorrere all’installazione i raddrizzatori, dispositivi costituiti da tanti piccoli tubi, che
hanno la funzione di omogeneizzare il campo di velocità del fluido e ridurre le perturbazioni.
Il difetto di questo dispositivo è che introduce perdite di carico aggiuntive.
La forma più semplice di un elemento a flusso laminare è un tubo capillare di piccolo diametro,
tuttavia esso può trattare solo piccole portate.
TUBO DI PITOT
È possibile utilizzare il Tubo di Pitot anche per
misurare portate volumetriche.
In laboratorio, l’idea è quella di suddividere il flusso
in diversi anelli di area costante, poi si misurano le
velocità locale del centro delle aree e si sommano
le singole portate.
Il galleggiante viene realizzato in materiali differenti a seconda della densità che si desidera. I tubi
sono in genere realizzati in vetro ad alta resistenza per permettere l’osservazione diretta della
posizione del galleggiante. Quando è necessaria una resistenza maggiore si usano tubi in metallo
e la posizione viene rilevata magneticamente. Se invece si desidera un segnale elettrico correlato
alla posizione del galleggiante si usa un trasduttore di spostamento. Il galleggiante può essere
anche guidato in modo che non faccia movimenti che impediscano la corretta lettura.
Sono di solito usati per medie portate, e necessitano un’installazione verticale (flusso dal basso
verso l’alto). Richiedono una taratura rispetto a pressione e temperatura standard di riferimento,
ma con opportune correzioni possono essere poi usati in condizioni di esercizio differenti.
MISURATORI A TURBINA
I misuratori a turbina si basano sull’inserimento di
una turbina all’interno di un condotto con il fluido
in movimento. La velocità di rotazione della
turbina dipende dalla portata, perciò, riducendo le
perdite al minimo e l’attrito dei cuscinetti, si può
progettare uno strumento in cui la velocità di
rotazione vari linearmente con la portata.
La velocità si misura misurando la frequenza con
cui le palette della turbina passano per un
determinato punto usando un dispositivo
magnetico di prossimità (pick up magnetico).
Se si vuole un segnale analogico in tensione in
uscita gli impulsi possono essere inseriti in un
convertitore frequenza-tensione.
I limiti dei misuratori a turbina sono:
- Range di temperature piuttosto limitato
- Presenza di parti rotanti che possono rovinarsi
I vantaggi sono:
- Costo piuttosto contenuto
- Grande accuratezza e sensibilità
In base alla differenza di potenziale che si genera all’interno del fluido, si misura la portata. Per
farlo uso una condotta con due elettrodi nel punto in cui si ha la massima differenza di potenziale.
Il flusso di corrente attraverso il conduttore mobile, di resistenza R, genera una caduta di
potenziale iR. Ai terminali del conduttore avremo perciò una tensione Blv − i R.
Il segnale in tensione risulta quindi proporzionale alla velocità del fluido.
In particolare, è stato dimostrato che, qualunque sia il profilo di velocità del fluido, se questo è
simmetrico allora la differenza di potenziale rilevata coincide con la velocità media.
La condotta è realizzata con un tratto corto in materiale non conduttore nella zona in cui c’è il
campo magnetico, mentre il resto della tubatura è in materiale metallico.
Questi dispositivi hanno un costo molto elevato, dato che richiedono generatori di campo
magnetico, ma non introducono perdite di carico, non alterano il campo di moto, non hanno parti
rotanti che si possono usurare e/o danneggiare, non introducono dissipazioni meccaniche
(compensano il costo di istallazione con l’affidabilità).
Inoltre, non essendo direttamente esposti al flusso, hanno range di portata e temperatura molto
ampi; sono inoltre molto accurati e hanno alte risposte in frequenza.
MISURATORI A ULTRASUONI
Il principio di funzionamento è basato sulla modalità di propagazione di un’onda ultrasonora
(perturbazione infinitesima di pressione) attraverso un fluido, la cui velocità di propagazione
dipende infatti dalle caratteristiche del fluido e dalla sua velocità.
I difetti sono che si possono utilizzare solo per flussi stazionari e con un determinato numero di
Reynolds.
I vantaggi del misuratore massico ad effetto Coriolis sono che esso non costituisce un ostruzione
al passaggio del fluido, è insensibile alla viscosità, pressione e temperatura e si può usare con
praticamente qualsiasi liquido.
Dimostrazione:
dF ⃗ = d M(2 ω ⃗ ∧ v r⃗ )
La forza di Coriolis agente su un elemento di fluido di massa dM è:
Dal momento che v cambia segno sui due lati, considerando due elementi su ciascun lato si ha
dT ⃗ = d ⃗ ∧ [2(2 ω ⃗ ∧ v r⃗ ) ⋅ d M ]
una coppia torsionale dT:
∫0
dT = 4ωG d d x = 4L dωG
Il sistema torsionale agisce come una molla di rigidezza K_s, si può calcolare l’angolo di torsione.
4L dω
θ= G
Ks
A causa di θ vi è sfasamento tra i segnali inviati dai trasduttori di spostamento:
L ωΔt
θ=
2d
Combinando le ultime due equazioni si ottiene:
Ks
G= Δt
8d 2
La portata è dunque lineare rispetto all’intervallo di tempo.
Il flusso viene misurato tramite un sensore a tubo che si stacca dal condotto principale a formare
un arco. Nel tratto parallelo al tubo principale vi sono due resistenze elettriche che fungono sia da
riscaldatori (sfruttando l’effetto Joule) che da sensori di temperatura (termoresistenze).
Le due resistenze sono collegate ad un circuito a ponte in posizione adiacente. In questo modo:
- Se le due resistenze sono alla stessa temperatura, non osservo segnale in uscita, poiché il
ponte è bilanciato.
- Per un portata nulla il sistema è termicamente simmetrico, ossia la differenza di temperatura fra
i due avvolgimenti è nulla. Tutto il calore fornito dalle residenze elettriche viene disperso dal tubo
verso lo spazio circostante.
Siano:
Ta: la temperatura della portata di fluido
T1: la temperatura della prima resistenza
T2: la temperatura della seconda resistenza
Quando una portata di liquido fluisce all’interno del tubo capillare, essa scambia calore con la
prima resistenza, in quantità: Q = m ⋅ cp ⋅ (T1 − Ta)
Tale scambio di calore fa diminuire la temperatura T1 della prima resistenza, alterando l’equilibrio
del ponte.
T2 rimane invece circa costante, poiché quando la portata fluisce attorno alla seconda resistenza
ha una temperatura simile ad essa, a causa dell’effetto riscaldante della prima resistenza. Occorre
osservare che ciò è valido solo se la portata nel sensore si mantiene abbastanza piccola, altrimenti
l’effetto raffreddante della portata di liquido altererebbe anche T2.
Secondo quanto detto, sembrerebbe bastare una sola resistenza per misurare la portata, poiché la
misura è legata alla temperatura T1, tuttavia è meglio utilizzare il segnale T2-T1 (reso disponibile
dal circuito a ponte) perché dà uscita nulla per portata nulla e rende lo strumento insensibile alla
fluttuazione della temperatura esterna (T1 e T2 risentono allo stesso modo della variazione di Ta).
Vediamo quindi come si fa a sfruttare la differenza di temperatura T2-T1 fra le due termoresistenze
per misurare la portata.
Partiamo dall’analisi delle termoresistenze: la seconda è usata come sensore di temperatura di
riferimento e legge la temperatura del fluido; l’altra funge da “heater”: il fluido le asporta calore
raffreddandola ma, facendo variare la corrente al suo interno, è mantenuta per effetto Joule ad una
differenza di temperatura costante rispetto alla prima.
Quanto maggiore è la portata che fluisce, tanto maggiore è la quantità di calore asportata grazie al
fluido e dunque tanto maggiore è la corrente da far scorrere per mantenere la differenza di
temperatura costante.
Q = m ⋅ c ⋅ ΔT = I 2 R
Misurando la corrente si ottiene quindi la portata massica.
INTRODUZIONE
Il suono è un fenomeno ondulatorio per mezzo del quale l’energia meccanica di vibrazione viene
propagata attraverso un mezzo elastico. Il suono propriamente detto è la propagazione non
stazionaria delle fluttuazioni di pressione in un mezzo elastico.
Esiste, inoltre, uno stretto legame tra suono e percezione del suono: l’orecchio umano è in grado di
rilevare le perturbazioni di pressione che si propagano nel mezzo e dà origine alla sensazione
uditiva.
Poiché il suono ha bisogno di un mezzo per propagarsi, non può esserci suono nel vuoto.
Le grandezze coinvolte nello studio dei fenomeni acustici sono tipicamente pressioni, non statiche
ma in continua variazione. Tali valori sono piccoli rispetto ai valori medi di pressione presenti nel
mezzo.
Si hanno in generale pressioni da 20 µPa a 200 Pa (danno permanente all’orecchio umano).
Il costrutto matematico attraverso il quale si può spiegare la propagazione delle oscillazioni sono le
onde.
Il suono è rappresentato da onde longitudinali, ossia onde in cui l’oscillazione avviene nella stessa
direzione della propagazione.
A seconda della sorgente che origina la perturbazione il suono può essere descritto con onde
piane, sferiche, cilindriche ecc.
ONDE PIANE
Supponiamo di avere un cilindro infinito che
contiene gas, all’estremità del quale è applicato
un manovellismo di spinta, che muove con moto
alternato un pistone. Nel suo movimento in avanti
il pistone comprime le particelle, a causa della
sua inerzia.
In seguito alla forza applicata dal pistone al gas,
localmente aumenta la densità delle particelle e
quindi la pressione del gas.
Le particelle messe in moto dal pistone
tenderanno a superare la loro posizione originale
di equilibrio per poi ritornarci a causa della forza
elastica.
La stessa cosa accade quando il pistone sta
andando indietro, ma in maniera opposta (il gas
viene rarefatto).
La combinazione della forza elastica, che tende a
richiamare le particelle, e l’inerzia, che si oppone
a tale movimento, fa sì che si generi una serie di
fronti di particelle compresse e rarefatte. Questi fronti vengono comunicati alle particelle adiacenti,
perciò è come se questi fronti si propagassero nello spazio. Questo significa che si propagano le
fluttuazioni di pressione.
Ipotesi semplificative:
Nel nostro caso il moto medio del fluido è nullo (come il moto dell’aria in una stanza), ciò comporta
che il vettore velocità media sia nullo, mentre la densità e le pressioni medie siano costanti.
Inoltre facendo il rapporto tra la parte fluttuante e stazionaria si ottiene un valore molto piccolo
rispetto a 1 (ipotesi piccole oscillazioni).
Ciò equivale ad uno sviluppo al primo ordine, che possiamo fare dato che le grandezze sono molto
piccole rispetto a quelle medie.
Un’altra ipotesi è che tutte le trasformazioni siano isoentropiche.
Si possono definire anche dei coefficienti, come il coefficiente adiabatico isoentropico di
comprimibilità.
Devo scrivere f(x-ct). Voglio scegliere come funzione un coseno, perciò ho cos(x-wt).
Introducendo k, scrivo allora cos[1/k( kx-ct)].
Questa scrittura in numeri complessi è
Oss: nella soluzione più generale c’è anche anche la funzione con argomento (x+ct) che descrive
le onde di riflessione, che vanno verso le x negative.
Come ottengo la velocità? Dall’equazioni di quantità di moto linearizzata.
Cosa significa cos(kx-ct) a partire da t=0 incremento t, la curva che otteniamo la curva verde, poi la
curva rossa. Cosa succede alla pressione? La mappa di pressioni si sta spostando verso le
ascisse positive.
Dunque da equazione di moto del fluido, con ipotesi piccole perturbazioni, abbiamo ottenuto che
l’equazione di D’Alambert o equazione delle onde, le cui soluzioni descrivono la propagazione di
fenomeni ondulatori nello spazio e nel tempo con moto uniforme e velocità pari a c. Ogni onda è
caratterizzata da una frequenza, da un’ampiezza e da una lunghezza d’onda.
L’avanzamento dell’onda in un ∆t è uguale a c∆t, dunque è legittimo chiamare c velocità del suono.
Pertanto c determina la velocità con cui si propagano piccoli disturbi nel mezzo.
La propagazione è un fenomeno che implica che un fenomeno generato in un punto lo ritroviamo
dopo un ∆t in un altro punto. Questo si ha solo quando le perturbazioni sono molto più piccole delle
grandezze medie; perturbazioni più grosse non si propagano in questo modo.
ONDE SFERICHE
Possiamo anche immaginare il fenomeno con una sfera che pulsa e spinge avanti e indietro le
particelle del mezzo.
Nel caso del pistone avevamo un’onda piana perché i fronti (con i valori di pressione tutti uguali)
sono superfici perpendicolari alla direzione di propagazione. In questo caso invece i fronti sono
superfici sferiche, che si allontanano dalla sorgente che sta al centro.
Con le onde sferiche la pressione va diminuendo con la distanza dalla sorgente. Questo perché
l’energia deve essere la stessa e, se la superficie aumenta allontanandosi, allora la pressione sarà
più piccola. La riduzione del valore di pressione dunque non è causata da effetti dissipativi ma
dalla conversazione di energia.
GRANDEZZE FONDAMENTALI
Come abbiamo detto, il suono è caratterizzato da fenomeni oscillatori; per descrivere tali fenomeni
non posso ricorrere ai valori istantanei, ma devo far riferimento a dei valori medi. Tuttavia non si
può ricorrere ai valori medi in senso stretto, visto che se le funzioni che descrivono le onde sono
sinusoidali, il valore medio in un periodo è 0. Si ricorre perciò all’RMS (Root Mean Square), cioè la
radice del valore medio del quadrato.
In questo modo si ottiene un valore che non dipende dal tempo e quantifica l’entità di queste
perturbazioni. Ciò trova riscontro anche per quanto riguarda la percezione del suono, poiché la
risposta dell’orecchio è sensibile al valore medio della pressione, non al valore dell’ampiezza
dell’oscillazione.
La pressione media del suono è quindi:
1
T∫
pRMS = p 2(t)dt
Questi disturbi sono piccoli ma hanno una grande intervallo di variazione da 10^-9 W (lieve
sussurro) fino a 10^5 W (aereo turbojet).
Per gestire l’ampiezza della variazione si usa il dB.
Esso è un modo di esprimere una grandezza, non per forza è associato all’acustica. L’idea è quella
che, usando una scala logaritmica, si può gestire meglio l’enorme range di valori.
Il dB è dato da 10 volte il logaritmo del rapporto tra grandezza e grandezza di riferimento.
G
d B = 10log( )
Gref
Con il dB posso definire:
Osservazione: la misura di potenza sonora non dipende dal punto in cui la faccio, ma solo dalla
sorgente da cui proviene l’onda sonora. La pressione sonora invece dipende da dove vado a
misurarla, poiché influiscono le riflessioni e le distanze.
Occorre distinguere tra ambiente libero (es. all’aperto) e ambiente riverberante (es. stanza): Nel
primo il suono non incontra ostacoli nel suo percorso mentre nel secondo il suono viene riflesso
perfettamente dalle pareti, creando un campo in cui non si riesce a distinguere l’origine delle
perturbazioni.
Queste due situazioni sono ideali: nella realtà non ci troveremo mai esattamente in una di queste
due situazioni, bensì in una situazione ibrida.
Vi sono delle formule che permettono di ricavare potenza sonora da pressione sonora. In queste
formule si vede la dipendenza dalla distanza dalla sorgente della pressione sonora.
Oss: vi sono anche onde cilindriche che possono essere usate per descrivere il rumore su una
strada.
SOMMA DI SEGNALI
Per essere precisi matematicamente, quando si sommano due segnali, occorre tenere conto delle
fasi.
Se si conoscono esattamente le fasi, posso effettuare la somma in fase, che dà un risultato in fase
con gli addendi. Posso usare questo metodo se sto utilizzando modelli numerici matematici o
segnali generati da due sorgenti identiche, comandate dallo stesso generatore e disposte
simmetricamente rispetto al piano di misura. Tuttavia è difficile conoscere le fasi perché ciò
richiede la conoscenza di moltissimi fattori.
(P1 + P2)2
LTOT = 10log
P02
Nella tecnica si usa un altro modo, si sommano i contenuti energetici associati. Si parla perciò di
somma incoerente.
P12 + P22
LTOT = 10log
P02
ANALISI IN FREQUENZA
Il rumore è generalmente composto da una sovrapposizione di segnali di frequenza diversa
distribuite all’interno di una certa banda, la distribuzione di ampiezza in funzione delle varie
frequenze viene definita spettro.
Per indagare il contributo di ogni componente armonica alla realizzazione del rumore occorre
effettuare un’analisi in frequenza.
L’analisi in frequenza prevede di scomporre il segnale nelle sue componenti di frequenza.
La strumentazione dedicata alle misure di rumore è dotata di una serie di filtri passa-banda, che
restituiscono solo segnali con frequenze all’interno di un certo range.
CURVE ISOFONICHE
C’è una certa differenza tra percezione acustica e suono, occorre pertanto capire le relazioni tra
suono inteso come fluttuazione di pressione e come percepito dall’orecchio umano.
L’orecchio umano non è sensibile allo stesso modo a tutte le frequenze, ma ce ne sono alcune per
cui è più sensibile di altre: a parità di livello di pressione sonora, per alcune frequenze l’orecchio
percepisce sensazioni più forti.
Ad esempio, per dare la stessa sensazione di fastidio, a 4kHz (frequenza molto fastidiosa) serve
una pressione sonora molto più bassa rispetto ad altre frequenze.
Su queste considerazioni si basano le curve isofoniche. Esse sono costituite dal luogo dei punti
che generano la stessa sensazione di fastidio nell’orecchio umano (ovviamente sono basate su
indagini statistiche, poiché ogni persona reagisce in modo diverso).
CURVE DI PONDERAZIONE
Considerato che la risposta uditiva umana non è lineare in relazione alle frequenze, per ottenere
con adeguata approssimazione l’effettiva sensazione umana, dato un livello di pressione sonora è
indispensabile compensarlo alle diverse frequenze.
Oltre alle curve isofoniche si utilizzano a tale scopo le curve di ponderazione, ricavate da
approssimazioni delle curve isofoniche, che forniscono alle diverse frequenze i valori che devono
essere sommati algebricamente, frequenza per frequenza ai valori misurati.
In altre parole, poiché il valore misurato non coincide con il valore che l’orecchio umano percepisce
e, poiché è necessario adattare i dati misurati a quelli di interesse pratico (cioè quelli percepiti
dall’uomo), occorre sommare algebricamente al valore misurato un valore che tiene conto della
frequenza a cui si effettua la misura, poiché in base ad essa l’orecchio umano reagirà in maniera
diversa dal punto di vista sensibile.
La curva più utilizzata per effettuare tale correzione, è la curva di ponderazione A, ottenuta
all’incirca dall’inversa dell’isofonica a 40 phon. Per tale ragione i valori spesso sono dati in dBA.
FONOMETRO
Il fonometro è un misuratore del livello sonoro equivalente.
La pressione sonora viene tradotta in un segnale elettrico, che a sua volta viene pesato in base
alle curve di ponderazione. Esso è quindi uno strumento elettronico che reagisce al suono in
maniera simile all’orecchio umano.
Integrale nel tempo del quadrato della pressione diviso la pressione sonora emessa, in tal modo
leviamo la dipendenza implicita dal tempo (ad esempio in una strada non abbiamo sempre lo
stesso rumore). È il parametro utilizzato per fornire i limiti sonori da rispettare.
PREMESSA
In questa trattazione si faranno le seguenti ipotesi sul materiale:
1) Continuo
2) Omogeneo
3) Isotropo
4) Lineare
5) Elastico
INTEGRITÀ STRUTTURALE
I materiali, nel tempo, normalmente degradano la loro integrità strutturale, ossia la capacità di
assolvere alla funzione prevista (strutturale + funzionale), nel modo e nelle condizioni stabilite
durante il progetto.
Inoltre, un materiale non è mai perfettamente omogeneo anche al momento di inizio utilizzo;
durante la fabbricazione, infatti, si possono generare dei difetti a causa dei processi di lavorazione.
I controlli non distruttivi (cnd) hanno lo scopo di individuare tali difetti presenti all’interno di una
struttura.
I CnD non sono una semplice misura, ma un processo diagnostico che mira alla valutazione
dell’integrità strutturale.
A seconda del tipo di approccio nella progettazione si può tenere o non tenere conto dei difetti
presenti.
Nel caso della progettazione a vita infinita, ad esempio essi non vengono presi in considerazione
così come per l’approccio safe-life, ossia a vita finita.
Tuttavia, esistono altri approcci che consistono nell’accettazione della presenza di difetti e nella
valutazione dell’influenza sull’integrità strutturale, come ad esempio l’approccio fail-safe o
l’approccio damage tolerant, basato sui parametri della meccanica della frattura.
Questi due metodi, permettono di valutare se in futuro sarà opportuno sostituire o riparare il
componente.
Per rilevare la presenza dei difetti e valutarne l’entità si utilizzano, appunto, i Controlli non
Distruttivi.
Ogni tecnica di controllo è caratterizzata da una minima dimensione del difetto rilevabile.
DIFETTI
Durante le condizioni di esercizio, come abbiamo detto, si ha un progressivo degrado dei materiali,
specialmente a causa di carichi affaticanti. Il degrado si manifesta attraverso un difetto localizzato.
Esso è irreversibile e, se tende a crescere con l’esercizio, allora può essere usato come parametro
di controllo per stabilire il livello di danneggiamento.
Stabilito un massimo livello di danneggiamento accettabile, si confrontano i difetti con tale
standard.
Tali prove vengono eseguite allo scopo di rilevare la presenza di eventuali difetti (rilevazione) e di
identificarne la tipologia (caratterizzazione).
∏
CPD = 1 − PONDi probabilità
i=1
cumulativa di rilevazione.
TECNICHE
Metodo radiografico:
È un controllo attraverso raggi x o raggi gamma. Per avere informazioni sulla profondità del difetto
con questo metodo sono necessarie almeno due lastre.
Metodo ultrasonoro:
È una tecnica che fa impiego di onde acustiche, come una sorta di ecografia. Vengono mandate
onde ultrasonore attraverso il materiale e se ne interpreta l’eco.
Metodo magnetoscopico:
È una tecnica basata sull’attrazione di particelle ferromagnetiche e disperse in liquido da un campo
magnetico. Il pezzo viene inserito in un campo magnetico e cosparso di un fluido magnetico. Le
cricche influenzano il campo magnetico e di conseguenza la disposizione le particelle del fluido (o
della polvere) disposto in superficie. Tale metodo è molto efficace per la rilevazione dei difetti
superficiali.
PRINCIPIO FISICO
- Onde trasversali:
Sono onde in cui l’oscillazione avviene in
direzione perpendicolare alla direzione di
propagazione.
Esse possono propagarsi esclusivamente
nei solidi: infatti, poiché queste onde si
trasmettono tramite sforzi di taglio, non
possono trasmettersi nei fluidi (a meno che non siano molto densi).
TECNICHE DI OSSERVAZIONE
Esistono due tecniche di osservazione:
1) In trasmissione : pulsatore e ricevitore sono
trasduttori differenti
2) Per riflessione: Il medesimo trasduttore funge
sia da trasmettitore che da ricevitore.
Questo metodo si basa sulla capacità del
trasduttore sia di generare sollecitazione
meccanica (se sottoposto a variazione di
tensione), sia di generare tensione (se
sollecitato). Questo metodo è molto più
frequente rispetto a quello in trasmissione ed
ha il grande vantaggio di permettere di
Misure Meccaniche Matteo B. 98
stabilire la posizione di un difetto di grandi dimensioni, tramite l’eco. Con la tecnica in
trasmissione, invece, un difetto troppo grande impedirebbe all’ultrasuono di passare e dunque
non si registrerebbe nessun segnale in uscita, con la conseguenza di sapere la presenza del
difetto ma di non poterne conoscere la posizione.
MISURE DI SPESSORE
Si definisce “tempo di volo” il tempo che impiega l’onda ultrasonora per compiere il percorso
prestabilito.
Nota la velocità di propagazione dell’onda, che dipende dal mezzo in cui si propaga e quindi dal
materiale, è possibile conoscere lo spessore di un componente, misurando proprio il tempo di volo.
s = v * tv ;
Questa misura può essere utile per verificare ad esempio se un componente si è indebolito nel
tempo, a causa di fenomeni di corrosione o erosione.
Si ricorre a questa tecnica quando è impossibile misurare direttamente lo spessore, ad esempio
nel caso di tubi che contengono fluidi petrolchimici, per la cui misura diretta bisognerebbe
interrompere il funzionamento di un impianto. Inoltre questa metodologia permette di ottenere
misure molto precise (al decimo di millimetro).
MISURE DI VELOCITÀ
Tramite gli ultrasuoni si possono anche effettuare delle misure di velocità.
In questo caso lo spessore deve essere noto e la velocità si ottiene sempre mediante la
misurazione del tempo di volo.
E (1 − ν)
Onde longitudinali in fascio largo: V =
- ρ (1 + ν)(1 − 2ν)
G
Onde trasversali: V =
- ρ
Come è evidente da queste formule, la velocità dipende dalle caratteristiche elastiche del
materiale. Per tale ragione, in alternativa alla prova di trazione, il modulo di Young può essere
misurato a partire da una misura di velocità tramite ultrasuoni.
Occorre però tenere conto che la velocità è anche influenzata da temperatura e stato di sforzo.
Esempio: velocità di propagazione nell’acciaio di un’onda longitudinale ≈ 6*10^3 m/s.
Incidenza normale:
L’opposizione che un materiale esercita in un punto al passaggio delle onde sonore è quantificata
dall’impedenza acustica.
Essa si definisce come il rapporto tra la pressione e la velocità dell’onda:
p
z=
v
Si possono inoltre definire due coefficienti che forniscono un indicazione sul comportamento
dell’onda nell’attraversare l’interfaccia:
pr z −z
- Coefficiente di riflessione: R = = 2 1;
pi z2 + z1
pt 2z2
- Coefficiente di trasmissione T = =
pi z1 + z2
Dove il pedice i indica l’onda incidente, il pedice r indica l’onda riflessa e il pedice t l’onda
trasmessa.
Il primo caso mostra che cosa accade se tra il trasduttore e il componente vi è aria: tutta l’onda
viene riflessa dall’aria e non si ha attraversamento all’interno del componente da analizzare. Per
tale ragione è necessario che il trasduttore si in contatto diretto con l’oggetto e sia isolato
completamente dall’aria esterna. Per far sì che ciò avvenga si utilizza dei gel, della glicerina o
dell’olio (come per le ecografie).
Un altro metodo è quello per immersione, ossia immergendo il trasduttore in un liquido. Questa
tecnica permette anche di fare le ispezioni mentre il componente è in movimento, evitando l’usura
della sonda. Infatti se la sonda venisse mantenuta in contatto diretto con il componente, senza
l’interposizione di liquido, il moto relativo causerebbe attrito e dunque usura.
Incidenza obliqua:
In caso di incidenza obliqua si
verifica il fenomeno della rifrazione.
Parte dell’onda viene riflessa con
un angolo uguale a quello di
incidenza e parte dell’onda viene
trasmessa con un angolo detto
appunto angolo di rifrazione.
Le relazioni tra gli angoli sono
regolati dalla legge di Snell, che
Questo fenomeno può essere sfruttato per generare dei tipi particolari tipi di onde: le onde
criticamente rifratte.
Per capire questa tipologia di onde, occorre definire gli angoli critici.
Si definisce primo angolo critico l’angolo di incidenza per cui si genera un’onda longitudinale che
corre parallela alla superficie (ossia l’angolo di rifrazione dell’onda longitudinale è retto). In
corrispondenza di tale angolo nel secondo mezzo rimane esclusivamente un’onda trasversale.
Si definisce secondo angolo critico l’angolo di incidenza per cui si genera un’onda trasversale che
corre parallela alla superficie (ossia l’angolo di rifrazione trasversale è retto).
Superato tale angolo, all’interno del secondo mezzo non si ha più propagazione di onde.
I controlli non distruttivi devono avvenire tra primo e secondo angolo critico, in modo da eliminare
le onde longitudinali e avere nel materiale esclusivamente onde trasversali.
Il materiale, anche se non ci sono difetti grossolani, si comporta come un filtro che modifica
sempre il segnale. A causa delle imperfezioni intrinseche in un componente, l’ampiezza dell’onda
ultrasonora necessariamente si attenua.
Le cause associate all’attenuazione sono:
- Spreading: il fascio ha una leggera divergenza, dunque l’unità di energia per unità di volume
diminuisce durante la propagazione.
- Assorbimento: le particelle assorbono parte dell’energia che viene convertita in calore.
- Scattering: il grano cristallino devia il segnale in varie direzioni, impedendogli di tornare
esattamente alla stessa posizione di partenza.
Si ricorda che la frequenza è indirettamente proporzionale alla lunghezza d’onda ed è legata alla
lunghezza d’onda tramite la formula:
v
λ=
f
APPLICAZIONI DEI CONTROLLI MEDIANTE ULTRASUONI
- Difettoscopia;
- Misure di spessore (in presenza di corrosione, erosione … );
- Verifiche di giunti incollati o brasati;
- Verifica della frazione di vuoto in plastici o compositi;
- Misura della profondità degli strati trattati superficialmente negli acciai;
- Stima della dimensione del grano cristallino;
Ecc.
VANTAGGI
• Possibilità di rilevare difetti superficiali ed interni;
• Possibilità di controllare spessori notevoli;
• Possibilità di eseguire controlli con accessibilità da un solo lato (esempio: i raggi x hanno
bisogno di una lastra dietro per riprendere il segnale);
• Capacità di dimensionare e stabilire la posizione della discontinuità;
• Ridotta preparazione dei pezzi;
• Risultati in tempo reale;
• Rappresentazioni in 2d e 3d;
• Applicazioni spessimetriche;
SVANTAGGI
• Accessibilità diretta della superficie.
All’interno del campo prossimo si hanno forti oscillazioni di pressione e l’onda si propaga
rimanendo all’interno di un cilindro, mantenendo cioè la stessa densità di energia
(energia\volume). All’interno di tale zona, a causa delle oscillazioni, risulta difficile valutare
accuratamente eventuali difetti in prossimità delle superfici dei pezzi da controllare.
Nel campo lontano invece la pressione si stabilizza, variando in maniera regolare e la
propagazione avviene all’interno di un cono. Conseguentemente la densità di energia diminuisce,
poiché la stessa onda si diffonde in un volume maggiore.
Detta N la dimensione del campo prossimo e D il diametro del trasduttore, possiamo scrivere:
D2
N≈
4λ
Inoltre l’angolo di apertura del cono è direttamente proporzionale alla lunghezza d’onda e
inversamente proporzionale al diametro del trasduttore:
λ
sen(α) =
D
1) CALIBRAZIONE
La calibrazione si divide in:
- Calibrazione degli strumenti e
delle sonde;
- Taratura dell’asse dei tempi;
- Verifica della sensibilità/
risoluzione di riferimento.
Per tarare le sonde ad incidenza
normale è sufficiente calibrare
l’offset dello zero e la velocità di
propagazione dell’impulso ultrasonoro. Il primo è il tempo che l’ultrasuono impiega ad uscire dalla
sonda, attraversando tutte le protezioni presenti tra cristallo e componente.
Per conoscere la velocità di propagazione (che dipende da materiale, temperatura e stato di
sollecitazione) si usano solitamente dei blocchi campione, anche se la cosa migliore sarebbe
effettuarla direttamente sul componente da misurare (spesso non possibile).
Bisogna anche tenere conto che il tempo di arrivo del primo eco non è preciso, perché è
influenzato dall’offset di zero. È dunque più conveniente confrontare due echi successivi (ad
esempio primo e secondo o secondo e terzo) piuttosto che impulso iniziale
e primo eco.
Per le sonde ad incidenza obliqua è necessario anche verificare:
- “Bip”: il punto effettivo da dove esce il segnale.
- Angolo rifratto effettivo: ossia l’angolo di inclinazione del segnale.
Questi due parametri sono necessari per calcolare dove arriverà il
segnale di uscita e per sapere dove arriveranno i successivi echi.
I concetti di sensibilità e risoluzione per le sonde da controlli ad
ultrasuoni differiscono da quelli degli strumenti di misura.
La sensibilità è data dalla dimensione del difetto più piccolo che riesco a rilevare.
La risoluzione è correlata alla capacità di distinguere tra due difetti molto vicini fra loro.
Durante la calibrazione delle sonde si effettuano verifiche di queste due caratteristiche, attraverso
dei campioni con difetti noti.
Un altro aspetto di cui bisogna tenere conto è il fatto che in realtà il difetto non è piano e
perpendicolare all’impulso come quello dei blocchetti. Esso ha una forma variabile e
un’inclinazione che fanno sì che un difetto si comporti come un difetto ideale di dimensioni più
piccole.
Per tale ragione si utilizzano spesso delle curve DAC in cui i valori ottenuti dai blocchetti standard
sono ridotti del 50% o 5%.
Osservazione:
esistono sia curve teoriche che sperimentali. Le curve teoriche possono essere usate per tutte le
sonde e tutti i componenti, mentre quelle sperimentali sono relative ad un materiale ed una sonda
specifica e sono ovviamente più accurate.
INTRODUZIONE
Il collaudo, in generale, è una verifica, di consistenza e prestazionale di un impianto o di un edificio
in cui si verificano dei requisiti e delle specifiche che devono essere rispettate.
In molti ambiti il collaudo è obbligatorio per legge. Le responsabilità, in caso di danni, sono prima di
tutto del collaudatore, poi del direttore dei lavori e infine del progettista.
Per diventare collaudatori è necessaria esperienza, generalmente misurata in anni di lavoro in un
determinato ambito. Dopo 8/10 anni di lavoro in un settore, ci si può iscrivere all’albo e diventare
collaudatori.
La nomina del collaudatore può avvenire o al termine del progetto o in corso d’opera, specialmente
se vanno effettuati controlli impossibili da fare a valle della realizzazione (es: verifica dei materiali) .
Una volta che il collaudatore viene nominato dalla committenza, inizia le verifiche. Il compito del
collaudatore è tutelare il committente nei rapporti con i costruttori e garantire che i lavori
rispecchino il progetto.
Può anche accadere che il collaudatore venga interpellato in corso di contratto, cioè durante la
decisione delle specifiche dell’impianto; in questo caso particolare il collaudatore interviene a valle
del progetto.
La specifica di collaudo è una sorta di accordo fra le parti, riguardo a determinate specifiche; essa
è quindi una lista di operazioni da fare, che, se superate, garantiscono il superamento di collaudo.
All’interno di questa lista si trovano ad esempio le descrizioni dei controlli, degli strumenti e delle
procedure.
L’ASME è una società molto importante nel settore delle normative, si avvale dell’aiuto di ingegneri
provenienti da tutto il mondo.
- Metodo input-output:
l’efficienza è definita come rapporto tra il calore in uscita (ossia il calore assorbito dai fluidi di
lavoro) e il calore in entrata.
- Metodo thermal loss:
Il metodo thermal loss definisce l’efficienza come il 100% meno un quoziente espresso in
percentuale. Il quoziente ha al numeratore tutte le perdite di calore e al denominatore il calore in
entrata.
- Metodo effectiveness
Questo metodo definisce le performance dell’HRSG come il rapporto tra il salto di entalpia dei
gas attraverso l’HRSG sul metodo massimo teoricamente possibile. Tale rapporto viene poi
espresso in percentuale. Per usare questo metodo occorre conoscere in più punti le
temperature dei gas e del vapore.