Sei sulla pagina 1di 173

Corso di Misure

Elettroniche
Sbobinature delle lezioni

Fabio Rismino
A13/482
Lezione 2 (28 settembre 2016)

Concetti generali di misura


Il misurando rappresenta l’oggetto dell’indagine che si vuole effettuare. In particolare, con il termine
misurando si individua una qualunque proprietà, fenomeno, oggetto o sostanza che si è interessati a definire
da un punto di vista quantitativo.
La misurazione è, invece, il procedimento sperimentale attraverso il quale si definisce il misurando da un
punto di vista quantitativo.
Per poter definire una grandezza da un punto di vista quantitativo è bene scegliere una quantità omogenea a
quella d’interesse e utilizzare la stessa quantità scelta come unità di misura (ad esempio, se si sta parlando di
lunghezza bisogna prendere in considerazione un oggetto che abbia una dimensione significativa per ciò che
si vuole fare come può essere una semplice bacchetta di legno o altro materiale). In parole povere, per poter
definire una grandezza, oggetto o sostanza da un punto di vista quantitativo bisogna anzitutto definire l’unità
di misura con la quale si intende lavorare. Se, ad esempio, ad una bacchetta di qualsiasi materiale si associa
la lunghezza di un metro, successivamente non bisognerà fare altro che confrontare l’oggetto che si è interessati
a misurare con la bacchetta alla quale si è associata la lunghezza di un metro. Dunque, l’indicazione dell’unità
di misura è una parte essenziale della scrittura di un risultato di misura poiché un numero senza alcuna unità
di misura non ha significato fisico. È lecito quindi chiedersi in che modo bisogna scegliere un’unità di misura,
problematica che nel corso dei secoli è stata affrontata più volte. Dato il crescere del numero di fenomeni reali,
nel corso del tempo si è cercato di definire un sistema di misura che potesse coprire in maniera esaustiva il
maggior numero di fenomeni reali. In particolare, si è cercato di definire un sistema di misura che fosse
coerente, dove per coerente si intende, tutt’oggi, la capacità di passare agevolmente da una grandezza base ad
una derivata senza l’ausilio di fattori correttivi. Si pensi ad esempio alla velocità, definita come spazio diviso
il tempo. La coerenza di questa relazione risiede nel fatto che per poter ricavare lo spazio o il tempo non
bisogna aggiungere alcune fattore moltiplicativo alla relazione presentata pocanzi ma è possibile farlo in modo
diretto semplicemente facendone l’equazione inversa. Questo discorso, banale nel nostro tempo, non lo è stato
in antichità, periodo in cui si tendeva ad introdurre fattori correttivi che consentissero di passare da una
grandezza di base ad una derivata.
Nei secoli scorsi il luogo in cui le unità di misura erano solite trovare concretezza fisica erano i mercati, tant’è
che ancora oggi nelle piazze ben conservate dell’Umbria e della Toscana si trovano, principalmente il metro
perché scalfito sulla pietra, le unità di misura che venivano utilizzate in quel luogo. Questo tipo sistema, ovvero
la possibilità di ogni paese o nazione di avere le proprie unità di misura, creava però molta confusione perché
non consentiva scambi commerciali tra persone di paesi, o nazioni, differenti. Col passare del tempo, e la
commercializzazione sempre più frequente, è stato necessario definire un sistema internazionale di misura,
sistema che va anche sotto il nome di convenzione del metro, ufficialmente definito nel 1875. Esso venne
istituito dai ministri dell’epoca e rappresenta un trattato molto simile a quelli che venivano sottoscritti quando
c’erano guerre o periodi post guerra. Col Sistema Internazionale si sono poste le basi affinché la maggior parte

1
delle nazioni mondiali potessero utilizzare le stesse unità di misura. Oggi, le uniche nazioni che preferiscono
non utilizzare il Sistema Internazionale di misura sono gli Stati Uniti, la Liberia e la Birmania. Il Canada
invece, da qualche anno, utilizza il doppio sistema permettendo ai suoi cittadini di rifarsi sia il Sistema
Internazionale di misura che al sistema adottato negli Stati Uniti.
Una data misura è garantita dalla tracciabilità internazionale la quale è definita attraverso una catena di
riferibilità. Utilizzando la tracciabilità internazionale si ha la certezza di poter acquistare e vendere un
prodotto in tutte le nazioni che adottano il Sistema Internazionale. Per poter arrivare ad un accordo che
permettesse l’utilizzo di una tracciabilità internazionale sono stati dovuti superare due diversi tipi di problemi:
Problema politico: il problema politico riguarda principalmente l’accordo fra le nazioni che hanno
accettato di utilizzare la Convenzione del Metro. Ad oggi, gli unici che non hanno accettato la
tracciabilità internazionale sono i paesi che fanno parte del bacino di utenza anglosassone-americano,
dove esistono ancora resistenze per l’utilizzo di grandezze come i pollici, i galloni, quantità non
riconosciute dal Sistema Internazionale di misura. La mancanza di accordi politici fra le nazioni che
utilizzano diverse unità di misura comportava, fino a qualche tempo fa, protettorati economici dovuti al
fatto che non si riusciva a riprodurre degli oggetti progettati con una data unità di misura (ad esempio il
centimetro) in una unità di misura differente (ad esempio i pollici). Questo tipo di problema è stato oggi
risolto grazie alle macchine a controllo numerico che riescono a fare calcoli precisi così da convertire
dati con diverse unità di misura.
Problema tecnico: esiste anche un problema tecnico dovuto al fatto che bisogna avere la possibilità di
disseminare l’unità di misura in modo che la stessa, una volta definita, possa essere facilmente adoperata
da tutti nel mondo ed in qualsiasi momento. Ciò che si utilizza oggi per risolvere il problema relativo
alla disseminazione è la cosiddetta, già citata sopra, catena di riferibilità internazionale. Per poter
capire, specialmente dal punto di vista pratico, come funziona la catena di referibilità sì supponga di
lavorare con l’unità di misura del peso, il kilogrammo, e si supponga di avere una bilancia che si vuole
testare per poter verificare se il suo funzionamento è corretto o meno. Per poter fare questa prova,
banalmente, basta posizionare il kilogrammo sulla bilancia e leggere il valore che quest’ultima indica.
Un’ indicazione di un kilogrammo garantirebbe il corretto funzionamento della bilancia, un valore
differente indicherebbe un funzionamento errato per la stessa. Questo tipo di procedimento, il confronto
fra un campione d’unità di misura ed uno strumento che consenta di effettuare quella misura, prende il
nome di taratura. Il problema di questa prova, nel caso specifico del kilogrammo, risiede nel fatto che
è praticamente impossibile confrontare una bilancia con il campione materiale di kilogrammo poiché
quest’ultimo è conservato al Museo Internazionale di Parigi. Per poter aggirare il problema sono stati
istituiti dei laboratori regionali e nazionali che hanno delle bilance di qualità superiore rispetto a quelle
commerciali e che servono per verificare se la bilancia che si vuole testare funziona correttamente o
meno. Il confronto lo si fa prendendo un peso e facendo misurare quest’ultimo sia alla bilancia che si
vuole testare, sia alla bilancia di proprietà del laboratorio regionale. Se i risultati prodotti dai due
strumenti sono fra loro coerenti allora la bilancia inviata per il test al laboratorio regionale viene

2
certificata come correttamente funzionante ed il laboratorio che ha effettuato il test emette un cosiddetto
certificato di taratura. Per poter garantire il corretto funzionamento della bilancia di proprietà del
laboratorio regionale, la stessa viene periodicamente inviata a dei laboratori nazionali dove vi sono delle
bilance ancor più precise di quelle presente nei laboratori regionali. Viene così effettuato un confronto,
allo stesso modo fatto tra la bilancia commerciale e la bilancia di proprietà del laboratorio regionale, tra
la bilancia di proprietà del laboratorio nazionale e quella del laboratorio regionale. A loro volta, le bilance
dei laboratori di livello nazionale vengono confrontate con l’unità di misura del kilogrammo, ossia quel
kilogrammo conservato al Museo Internazionale di Parigi. Tutti i confronti effettuati tra le varie bilance,
fatti tra loro fino ad arrivare al confronto fra la bilancia più precisa di tutte, ossia quella presenti in
laboratori nazionali, ed il campione di kilogrammo, garantisce la creazione di una sorta di piramide alla
cui alla base ci sono gli strumenti meno precisi (nel caso delle bilance vi sono quelle tipo commerciale),
fino ad arrivare al vertice, dove è presente il campione materiale dell’unità di misura (nel caso del peso,
il kilogrammo).
Per ognuna delle grandezze fisiche si deve usare un’unica unità di misura. Inoltre il sistema deve essere:
assoluto: deve esservi un preciso numero di unità di misura;
completo: Il sistema deve essere un grado di coprire tutti i fenomeni fisici;
coerente: ampiamente spiegato sopra;
razionalizzato e decimale: risultati di misura del tipo 3π o √2 non sono possibili. I numeri razionali
attengono ad astrazioni matematiche ma non hanno significato in alcun ambito fisico e nell’ambito delle
misure.
Per ognuna delle grandezze è stata definita una scala di multipli ed una scala di sottomultipli.

Definizione delle unità di misura


Tempo addietro, si sono definite le unità di misura attraverso dei campioni materiali, dove per campioni
materiali si intende la migliore realizzazione fisica per una specifica unità di misura. Ciò che solitamente si
faceva era considerare dei materiali stabili e di associare ad essi il concetto di unità di misura. Oggi si sta
cercando di superare il concetto di campione materiale e si sta provando a definire le unità di misura in maniera
differente. Per tale scopo esistono dei comitati internazionali che si occupano di ricercare dei metodi alternativi
alle definizioni materiali delle varie unità di misura. In Italia aderisce a questo comitato l’Istituto Metrologico
Nazionale che ha sede a Torino. Prima di entrare nel dettaglio delle definizioni delle unità di misura, è bene
elencare quelle che sono le unità di misura fondamentali:
1. Lunghezza (metro - m);
2. Massa (kilogrammo – kg);
3. Tempo (secondi – s);
4. Intensità della corrente elettrica (Ampere – A);
5. Temperatura termodinamica (Kelvin – K);
6. Intensità luminosa (candela – cl);

3
7. Quantità di sostanza (mole – mol);
Con le sette grandezze si possono definire tutte le unità di misura di tutti i fenomeni fisici. Esistono anche due
grandezze supplementari relative alle grandezze degli angoli come:
1. Angolo piano (radiante – rad);
2. Angolo solido (steradiante – st);
Per il sistema internazionale ci sono anche delle costanti definite senza incertezza che sono, per definizione:
1. Permeabilità del vuoto 𝜇0 = 4𝜋 ∙ 10−7 𝑚 𝑘𝑔 𝑠 −2 𝐴−2
2. Velocità della luce nel vuoto 𝑐 = 2.99792458 ∙ 108 𝑚 𝑠 −1
3. Permettività del vuoto 𝜀0 = 𝜇0−1 ∙ 𝑐 −2

Definizione di metro
La definizione di metro venne realizzata mediante l’ausilio di una bacchetta di platino iridio. Tra i tanti
materiali disponibili venne scelto proprio il platino iridio poiché esso è difficilmente attaccabile da reagenti e
con una elevata stabilità termica. Si sta cercando di passare ad altri tipi di campioni, lasciando ai campioni
materiali la dicitura di campioni secondari, campioni di qualità leggermente inferiore ma che hanno dei costi
decisamente minori. Oggi un metro è definito come la lunghezza del tragitto compiuto della luce nel vuoto in
un intervallo di tempo di 1/299792458 di secondo. L’osservazione che risalta immediatamente all’occhio è
data dal fatto che la nuova definizione di metro è data da un esperimento fisico e non da un oggetto materiale.
Ciò significa che chiunque sia in grado di svolgere l’esperimento fisico che porta alla definizione di metro
possiede il campione di metro e quindi l’unità di misura. Ovviamente, per far sì che ciò accada, c’è bisogno
della giusta tecnologia che consenta la realizzazione dell’esperimento. In Italia riesce a riprodurre l’unità di
misura del metro l’Istituto Metrico Nazionale, il quale utilizza una coppia di laser che riescono a realizzare
una lunghezza di un metro con una precisione di ±3.4 ∙ 10−10 . La definizione di metro attraverso esperimento
scientifico non è precisa perché quasi mai si riesce a realizzare il vuoto perfetto, perché quasi mai si riesce a
misurare il tempo in modo perfetto. In parole povere la definizione non è perfetta perché non si riesce mai, in
qualsiasi ambito, a svolgere dei compiti in maniera perfetta. Vi sono sempre degli aspetti migliorabili che non
garantiscono mai la perfezione, la cui ricerca comporta degli esperimenti e delle definizioni sempre più precise.
Nel campo delle misure è importante la ricerca della perfezione perché quando si riesce a migliorare la
definizione di una unità di misura allora in cascata ne discende il miglioramento di tutte le misurazioni che ad
esse sono connesse. (Gli sviluppi sulla telecomunicazione sono state possibili perché si è riusciti a misurare il
tempo con precisione stratosferica. Se così non fosse stato, una comunicazione a 3GHz tra satellite e terra,
telefonini e qualunque altra cosa di affine, non avrebbero mai potuto funzionare. Le misure di tempo sono
arrivate ad una precisione garantita fino a 10−13 , 10−14 ). I campioni sviluppati attraverso esperimenti di
laboratorio vengono periodicamente confrontati con il campione secondario (nel caso del metro la bacchetta
di platino eridio) così da garantire sempre la compatibilità della definizione.

4
Definizione di chilogrammo
La definizione di kilogrammo è ancora vecchio stampo, nel senso che non si è ancora riusciti a definirlo
mediante esperimento fisico. Per definizione di kilogrammo si intende il prototipo di massa conservato al
Museo Internazionale di Parigi. Si sta cercando di superare questa definizione arrivando, così come fatto per
il metro, ad un esperimento che consenta a tutti i laboratori di riprodurre il kilogrammo. Per poter svolgere
l’esperimento che consenta di definire il kilogrammo, abbandonando quindi la definizione di campione
materiale, si è alla continua ricerca di leggi di fisica fondamentale e di fenomeni quantistici appropriati,
quest’ultimi favoriti perché capaci di definire grandezze con estrema precisione. Oggi la ricerca internazionale
sta cercando di definire il kilogrammo contando gli atomi: l’approccio è quello di fare un esperimento che
permetta di far passare un certo numero di atomi contati per i quali è possibile affermare che quella certa
quantità di atomi passati rappresenta un kilogrammo.

Definizione di secondo
Il concetto di secondo discende alla funzionalità del pendolo, in particolare l’orologio al pendolo ha
un’oscillazione, la cui frequenza è pari a 9.192631770 GHz, che viene tarata per essere un secondo. Il problema
risiede nel fatto di ricreare un orologio con una frequenza esattamente pari alla frequenza di interesse. È
importante ciò perché lavora con frequenze superiori o inferiori significa misurare poco più o poco meno di
un secondo. Gli orologi che oggi vengono utilizzati per poter definire il secondo sono i cosiddetti orologi
atomici. La discussione relativa al funzionamento dell’orologio atomico è riportata nelle prossime pagine.

Definizione di Ampere
L’unità di misura della corrente elettrica è l’Ampere. Nel tempo ci si è resi conto del fatto che la scelta
dell’ampere come unità di misura relativa all’elettricità fu sbagliata. Questo perché l’Ampere fu definito
attraverso un esperimento impossibile da riprodurre, ossia come l’intensità di corrente che in due fili paralleli
di lunghezza infinita e posti alla distanza di un metro, tramite la forza di Lorentz, producono una forza di 2 ∙
10−7 Newton su ogni metro di lunghezza. È evidente come questo esperimento sia impossibile da realizzare
poiché nella realtà non esistono fili infiniti, non è possibile trascurare la sezione perché trascurare la sezione
significherebbe aumentare il valore della resistenza dei fili ed il passaggio di corrente sarebbe sempre più
difficile; oltre al fatto che i fili si riscalderebbero e si dilaterebbero facendo sì da diminuire la distanza di un
metro tra i fili paralleli. Oggi si preferisce definire il Volt e l’Ohm attraverso degli esperimenti di meccanica
quantistica e di definire la corrente attraverso la legge di Ohm:

𝑉
𝐼=
𝑅

L’esperimento che ha portato alla definizione dell’Ampere si sta superando grazie alla realizzazione di tunnel
quantistici in cui si fanno passano un certo numero di elettroni al secondo attraverso una finestrella che al
passaggio di ogni singolo elettrone si apre e si chiude. In questo modo, siccome l’Ampere è la quantità di

5
carica sul tempo, decidendo il numero di elettroni da far passare si decide, automaticamente, la corrente che si
vuole produrre.

Definizione di Kelvin
Il punto triplo dell’acqua è il punto in cui coesistono la fase solida, liquida e gassosa. Tale punto è una costante
fisica della materia, immutabile. 1⁄273.16 della temperatura presente nel punto triplo prende il nome di grado
Kelvin.

L’orologio atomico
Per poter spiegare al meglio come è fatto un orologio atomico bisogna prendere in considerazione due diversi
concetti. Il primo concetto riguarda le onde elettromagnetiche, le quali vengono prodotte con una certa
frequenza ed hanno un’energia pari a:

𝐸 = ℎ𝑓

Dove ℎ rappresenta la costante di Plank. Quanto detto fa sì che più alta è la frequenza dell’onda, più è alta
l’energia.
Il secondo concetto da considerare è legato al fatto che gli atomi sono organizzati in orbitali. Ciò significa che
un atomo può posizionarsi solo sugli orbitali e non nel mezzo tra un orbitale ed un altro. Questo perché gli
orbitali seguono la meccanica quantistica e sono perciò discreti. Gli elettroni più vicini al nucleo hanno una
maggiore energia, gli elettroni più lontani dal nucleo hanno una minore energia. Se si vuole far salire di un
orbitale un elettrone, non è possibile fornirgli una quantità di energia qualsiasi ma bisogna fornirgli la quantità
di energia necessaria per giungere al nuovo orbitale.
Il discorso introdotto è improntato sulla frequenza ma se introduce il concetto di frequenza allora,
automaticamente, si introduce anche il concetto di tempo. Se si riesce a realizzare un’onda, un segnale, che ha
una frequenza ben determinata allora si riesce a realizzare un segnale che ha anche un periodo ben determinato,
e contando un certo numero di periodi si riesce a realizzare un secondo, che è poi lo scopo dell’orologio
atomico.
Se si genera un’onda elettromagnetica in grado di permettere ad un elettrone di effettuare un salto di orbitale,
allora si genera un’onda elettromagnetica con una precisa frequenza alla quale corrisponde una precisa energia.
Se si riesce a generare una frequenza che consente il salto dell’elettrone allora è possibile generare una precisa
frequenza con cui è possibile ottenere una precisa definizione del tempo. Il dispositivo che permette il salto
dell’orbitale in maniera corretta è proprio l’orologio atomico a fascio di cesio, il cui funzionamento è di seguito
spiegato.

6
Figura 2.1 - Orologio atomico a fascio di cesio

Si prende una quantità di cesio e la si riscalda; surriscaldando il cesio quello che succede è che gli atomi di
cesio fuoriescono dal materiale. Gli atomi che fuoriescono dal materiale vengono accelerati e sparati creando
l’effetto di un piccolo cannoncino (un po' come il tubo catodico). L’idea è quindi quella che, grazie al
riscaldamento degli atomi di cesio, si riesce in qualche modo a spararne un fascetto. Il problema di questi atomi
di cesio è legato al fatto che, siccome riscaldati, alcuni saranno in uno stato neutro, altri invece si troveranno
in uno stato energetico più alto. Per ovviare a questo problema, la prima cosa da fare è quella di dividere gli
atomi neutri dagli atomi agitati mediante un campo magnetico in grado di deviare questi ultimi; in questo modo
si continua a lavorare solo con gli atomi interessati (atomi neutri). Gli atomi di cesio neutri attraversano poi
una cavità risonante in cui si inietta un’onda elettromagnetica, inizialmente errata di proposito e che dunque
non consente agli atomi di saltare da un orbitale ad un altro orbitale. L’operazione si ripete fino a quando non
si giunge alla frequenza giusta che consente di iniettare un’onda elettromagnetica nella cavità risonante tale da
permettere agli atomi di saltare da un orbitale ad un altro. All’uscita della cavità risonante, così come in
ingresso, è presente un deviatore che stavolta, a differenza di prima, consente di conservare gli atomi eccitati
e di mettere da parte di atomi che non hanno subito alcun effetto dall’onda elettromagnetica presente nella
cavità risonante. Nell’istante in cui tutti gli elettroni degli atomi uscenti dalla cavità risonante effettuano il
salto da un orbitale all’altro, l’oscillatore genera quella frequenza prevista come teoria e con la quale è possibile
definire il fluire del tempo. Questo strumento è quello mediante il quale, oggi, si riesce a definire il campione
di tempo. L’oscillatore atomico a fascio di cesio perde un secondo ogni qualche centinaia di secoli, per questo
motivo ne stanno studiando uno nuovo in grado di perdere molto meno rispetto a quello attuale.
Le misure di tempo sono le misure che avvengono in maniera più precisa, nonostante ciò si sta cercando di
andare oltre. Inoltre, siccome le misure di tempo sono quelle più precise, si prova sempre a riportare altre tipi
di misure a delle misure di tempo. Diversi approcci utilizzano questo passaggio indiretto per avere risultati
ottimali.

7
Lezione 3 (30 settembre 2016)

Il campione di tensione e l’effetto Josephson


L’approccio inziale che ha portato alla realizzazione del campione di tensione è dovuto alla realizzazione di
pile, pile molto più sofisticate, realizzate con soluzioni chimiche più sofisticate rispetto a quelle che si trovano
in commercio, che garantissero nel tempo di generare un certo livello di tensione. Il problema di questo genere
di approccio è legato al fatto che la pila disperde la sua tensione fino a raggiungere una differenza di potenziale
pari a 0V (pila scarica); per questo motivo le pile dovevano essere realizzate ed utilizzate senza che ci fosse
erogazione di corrente che consentisse un certo standard di precisione tale da associare a quella stessa pila il
nome di campione materiale. Inoltre, poiché le pile sono sensibili alla temperatura, poiché cambiando la
temperatura allora cambiano anche le proprietà della soluzione presente all’interno della pila, esse venivano
realizzare in opportuni ambienti termostatici che garantissero una temperatura “costante” e quindi un valore di
“tensione” stabile.
Alle pile oggi si preferiscono alimentatori elettronici all’interno dei quali vi è un componente, il diodo Zener,
che utilizzato in maniera inversa consente di ottenere una tensione sufficientemente stabile. Tutti i componenti
elettronici soffrono però d’un problema legato al fatto che essi tendono a cambiare le proprie caratteristiche al
variare della temperatura.
Un campione primario di tensione si ottiene utilizzando un esperimento di meccanica quantistica. Per poter
capire al meglio l’esperimento che ha portato alla realizzazione del campione di tensione è bene introdurre il
concetto di superconduttore, dove per superconduttore si intende un materiale che in particolari condizioni
di temperatura, pressione, corrente, con rispetta la Legge di Ohm. Nei superconduttori il legame tra tensione è
corrente non è 𝑉 = 𝑅 ∙ 𝐼 ma c’è corrente senza che ci sia tensione. La resistenza 𝑅 dei superconduttori è come
se fosse 0Ω, ciò consente agli elettroni di viaggiare attraverso esso in maniera ideale, senza ostacoli. Ad oggi,
anche se si stanno conducendo degli esperimenti che permettano in futuro di utilizzare quanto detto, la teoria
relativa ai superconduttori è valida alle temperature dell’azoto liquido, temperature molto molto rigide.
Uno dei tanti esperimenti che possono essere realizzati è quello che ha permesso la definizione del campione
primario di tensione. Per poter realizzare quest’ultimo, noto come Effetto Joshepson, si prendono due
materiali superconduttori, posti come nella figura presente alla pagina seguente, separati da un sottilissimo
strato di isolante (generalmente ossido che si va a formare sulle facce dei due superconduttori).

8
Figura 3.1 - Campione f.e.m. ad effetto Josephson

In una struttura così fatta, almeno teoricamente, la corrente elettrica dovrebbe arrivare fino alla giunzione e
trovare poi lo strato d’ossido, ostacolo che non dovrebbe consentire il passaggio di corrente. Si utilizza il
condizionale poiché in questo esperimento interviene un fenomeno di meccanica quantistica, che prende il
nome di effetto tunnel, il quale fa passare gli elettroni da uno strato di superconduttore all’altro quando
sull’isolante incide un’onda elettromagnetica. Ciò fa sì da creare una differenza di potenziale tra i due
superconduttori. Tale tensione si comporta come, si si vede dalla figura, come una gradinata. Ciò significa che,
nel momento in cui si pilotano i due superconduttori separati dall’ossido con un certo livello di corrente, allora
è possibile conoscere esattamente qual è il livello di tensione con il quale si sta lavorando, numero intero
dettato dal fatto che l’effetto Josephson pone le sue basi su concetti di meccanica quantistica. Ad oggi il Volt
si ottiene con un esperimento del genere.

Il campione di resistenza e l’effetto Hall quantistico


Così come la tensione, anche la resistenza si riesce a realizzare attraverso un esperimento di meccanica
quantistica. L’effetto che si utilizza per definire la resistenza prende il nome di Effetto Hall quantistico. Se si
fanno viaggiare degli elettroni come in figura, 𝐸𝐻 , e si colpiscono con un campo magnetico B allora questi
ultimi deviano e si spostano a seconda della direzione del campo magnetico.

9
Figura 3.2 - Effetto Hall quantizzato

Per poter realizzare questo esperimento si suppone di avere una piastra di materiale superconduttore e
supponiamo che su di essa viaggino degli elettroni. Se agli elettroni non viene applicato alcun campo
magnetico, essi entrano da una faccia della piastra ed escono dalla faccia opposta della stessa piastra
liberamente. Se, invece, dall’alto viene applicato un campo magnetico, gli elettroni smettono d’avere un
andamento rettilineo iniziando ad andare tutti da un lato a seconda del verso del campo (regola della mano
destra). In questo modo si avrà un lato della piastrina dove ci saranno elettroni ed un lato della piastrina dove
non ci saranno elettroni. Ciò significa che da un lato della piastrina ci sarà un eccesso di cariche negative e
dall’altro lato ci sarà un eccesso di cariche positive così da generare una forza elettromotrice. Se si effettua
questo esperimento su un materiale normale, l’esperimento non è di tipo quantistico, cosa che accade nel
momento in cui lo si effettua su un materiale superconduttore.
La tensione che si genera è pari a:


𝐸𝐻 = 𝐼
𝑛𝑒 2

Dove la frazione ha dimensione di resistenza che prende il nome di resistenza di Hall quantistica e,
attualmente, rappresenta il campione di resistenza che si riesce a realizzare con un’incertezza più bassa. Anche
in questo caso, così come la tensione, il valore di resistenza varia sotto forma di gradinata, gradinata dovuta al
fatto che il fenomeno che consente la realizzazione della Resistenza di Hall è di tipo quantistico.

10
Esempio di resistori
Nei laboratori è possibile trovare diversi tipi di resistori. Uno dei resistori più utilizzati è il resistore a decadi.

Figura 3.3 - Resistore a decadi

Questo particolare resistore è dotato di manopole dove poter impostare valori per le migliaia, le centinaia, le
decine, le unità, i decimi e, se il resistore è davvero di buon livello, i centesimi.
In commercio vi sono resistori con due, tre, quattro e cinque morsetti. Resistori a due morsetti sono tutti quei
resistori di valore medio (resistori solitamente commerciali). Resistori a tre morsetti sono quei resistori dotati
di un morsetto dedicato alla gabbia di Faraday qualora si voglia schermare lo stesso da onde elettromagnetiche
esterne. I resistori a quattro morsetti sono resistori di piccolo valore per cui si preferisce separare la parte di
alimentazione, i due morsetti attraverso i quali si fa passare la corrente elettrica, dai due morsetti attraverso i
quali si esegue la misura. I resistori a cinque morsetti sono invece dei resistori in cui si separano i morsetti di
alimentazione dai morsetti dedicati alla realizzazione di una misura e nei quali è aggiunto anche un morsetto
dedicato alla gabbia di Faraday qualora si volesse schermare il resistore da onde elettromagnetiche esterne.
Tutti i resistori sono limitati in potenza, ciò significa che la realizzazione di un resistore deve avvenire
rispettando le direttive date così da non intaccare in problematiche che potrebbero compromettere il
funzionamento del circuito realizzato con quel determinato resistore. Lo stesso discorso vale per tutti i
componenti elettroni che quindi hanno dei limiti in potenza che, se superati, comporterebbero la rottura di quel
dato componente.

Il campione di corrente, capacità ed induttanza


Il campione di corrente, banalmente, si utilizza sfruttando la Legge di Ohm e quindi il campione di tensione
ed il campione di resistenza.
Per la capacità e l’induttanza si realizzano di campioni materiali molto sofisticati. In particolare, per ottenere
dei condensatori che siano realizzati con una precisione elevatissima vengono utilizzare delle strutture
cilindriche.

11
Per l’induttore si utilizzano particolari materiali, particolari tecniche di avvolgimento e particolari tecniche
costruttive in modo da realizzare campioni materiali dal basso valore di incertezza.
In definita, per la definizione di capacità e d’induttanza non è stato ancora definito alcun esperimento
scientifico e per tal motivo ci si riconduce alla definizione legata alla realizzazione fisica del campione
materiale.

Concetti generali dell’incertezza


Il risultato di una misurazione si compone di un numero decimale e di una unità di misura che consente di
capire cos’è la quantità che si è misurata. In realtà, per rendere un risultato di misura completamente
specificato, bisogna aggiungere al numero ed alla unità di misura un terzo elemento. Per poter capire di cosa
si tratti, si supponga di essere in una stanza avente una temperatura pari a 22°C. È evidente che anche in
condizioni di regime, e senza la possibilità di scambiare del calore con l’esterno, la temperatura presente in un
angolo della stanza sarà diversa dalla temperatura presente in un qualsiasi diverso angolo della stessa stanza.
Ciò significa che fornire un unico numero come risultato di una misurazione è scorretto, è corretto invece
fornire un intervallo di valori all’interno del quale vi saranno dei valori che si ripetono più volte e dei valori
estremi che sono meno probabili. Più propriamente, un unico numero come risultato di una misura non è mai
accettabile, esso deve essere sempre accompagnato con un altro parametro, una fascia di tolleranza, attraverso
il quale si specifica quale intervallo, quale incertezza è possibile attribuire a quel risultato. Questo tipo di
approccio può essere ulteriormente raffinato se si effettua un’analisi relativa alla probabilità con la quale i
valori di un intervallo si presentano. Nella fattispecie, il risultato di una misurazione è una distribuzione, una
sorta di gaussiana, nella quale vi saranno alcuni valori con una maggiore probabilità di essere attribuiti al
misurando ed altri con una probabilità minore di essere attribuiti al misurando. Se, invece, si considerano tutti
valori equiprobabili allora si fa riferimento a quella che viene chiamata distribuzione uniforme. Senza troppi
giri di parole, è possibile affermare che non esiste una misura perfetta e che quando si effettua una misura
bisogna sempre esprimere, accanto al risultato della misurazione, il suo grado di ambiguità poiché senza
quest’ultimo il risultato della stessa misura è inutilizzabile. I tre componenti della misura sono: numero, unità
di misura ed espressione dell’incertezza. L’incertezza di un risultato di misura può essere espressa attraverso
una fascia di valori, come già descritto qualche rigo sopra, oppure può essere espressa in modo più raffinato
attraverso l’espressione della varianza e della deviazione standard, con quest’ultima che fa riferimento a quanto
è larga una distribuzione. Si predilige la definizione attraverso deviazione standard poiché non tutti i valori di
un intervallo di valori hanno lo stesso peso; alcuni potrebbero presentarsi più volte e quindi più rappresentativi
per il misurando. altri potrebbero presentarsi meno volte e quindi avere un peso minore.
Le motivazioni per le quali si effettua una misurazione sono molteplici:
Motivazioni commerciali: bisogna sempre conoscere la quantificazione dei bene che si è interessati ad
acquistare;
Motivazioni tecniche: bisogna essere sempre coscienti della delle capacità tecniche di un oggetto, di un
materiale;

12
Motivazioni scientifiche: oggi sempre più spesso si elaborano delle teorie abbastanza sofisticate su vari
aspetti. Il problema è dato dal fatto che fin quando non si riescono a realizzare degli esperimenti fisici
che vanno a consolidare tali teorie le stesse non possono essere considerate applicabili.
È bene evidenziare come non sia necessario fare sempre la migliore misura possibile poiché il fatto di effettuare
la migliore misura possibile discende da cosa si è interessati a misurare. In pratica, per una misura di poco
conto è inopportuno ricreare tutte le condizioni affinchè per quella misura si riesca a fare la migliore possibile.
È importante quindi relazionare il valore del misurando ed il costo che essa comporta. Ad esempio, la bilancia
di un salumiere può essere meno precisa della bilancia di un orafo poiché quest’ultimo vende dell’oro che ha
un valor molto maggiore rispetto a quello che ha un prodotto alimentare.

Tipi di grandezze da misurare


I tipi di grandezze da misurare sono:
Tipo numerale: grandezze che, ad esempio, contano il numero di abitanti di un paese. Sono grandezze
non di interesse per il corso;
Tipo razionale: sono grandezze che si vanno a rapportare con un’unità di misura.
Tipo complesso: Le grandezze di tipo complesso vengono scomposte nelle tre componenti e le
misurazioni vengono effettuate sulle tre grandezze scalari facendo, in definitiva, tre diverse misure su
grandezze di tipo razionale;

Metodi di misurazione
Esistono due diversi metodi per poter effettuare una misurazione:
Metodo diretto: si confronta direttamente la quantità con una unità di misura. Questo tipo di approccio
è scomodo poiché non sempre si ha la possibilità di fare un confronto fra una quantità ed una unità di
misura. Si pensi, ad esempio, ad una macchina che viaggia ad una data velocità e di voler misurare
quest’ultima in maniera diretta. Ciò è impossibile perché significhrebbe il doversi muovere ad una
velocità esattamente pari a quella della macchina. È molto più semplice indivuduare lo spazio ed il tempo
in cui l’auto si è mossa e definire la velocità attraverso il rapporto fra lo spazio ed il tempo;
Metodo indiretto: è quel metodo attraverso il quale si riesce a definire una grandezza fisica partendo da
altre grandezze fisiche. L’esempio del rapporto fra lo spazio ed il tempo rappresenta il classico esempio
di grandezza misurata indirettamente. Il problema dell’approccio indiretto è dato dal fatto che ogni
qualvolta si utilizza, automaticamente, introduce una funzione. In alcune leggi elementari tale funzioni
non comporta particolari problemi, in altri casi invece è utile ragionare con modelli semplificati così da
evitare complicazioni nel momento in cui si effettua una misurazione.

13
Lezione 4 (3 ottobre 2016)

Espressione dell’incertezza di misura


Il terzo elemento che compone il risultato di una misurazione è l’espressione dell’incertezza del risultato di
misura. Si è già detto che nessuna operazione umana è perfetta, per cui è impossibile svolgere delle
misurazioni in maniera perfetta poiché tutte le misure sono affette da un certo grado di indeterminazione. Il
fatto che ogni misura abbia un certo grado di indeterminazione non è assolutamente un difetto,
l’indeterminazione del risultato di misura è semplicemente un parametro che bisogna quantificare in modo tale
da affermare quanto bravi si è stati nel determinare il misurando. Migliore è la qualità del grado di
indeterminazione allora più si è stati bravi nel determinare il misurando. L’espressione dell’incertezza è quindi
un qualcosa che dà valore all’operazione di misurazione e che richiede molta più riflessione rispetto ad un
singolo valore di misurazione. In altre parole, è molto più semplice determinare un singolo risultato di
misurazione che effettuare un’analisi relativa all’incertezza per quello stesso risultato di misurazione.

Figura 4.1 - Esempio di grafico per la definizione di incertezza

In ambito scientifico, i risultati di misura non sono dei veri e propri valori ma dei grafici come quello riportato
in FIGURA 1. Questo genere di grafico individua la posizione del valore centrale (quadratino nero) e un certo
grado di indeterminazione rappresentato dalla fascia presente attorno al valore centrale (linee). Dalla figura si
evince come A e C siano compatibili, così come lo sono A e D, B e C, B e D, C e D. In definitiva, due risultati
di misura si dicono compatibili se almeno un punto dell’intervallo è in comune. Per lo stesso motivo A e B
non sono compatibili. La proprietà di compatibilità non è transitiva, ciò significa che, seguendo sempre la
figura sopra, seppure A è compatibile con C e B è compatibile con C, A e B non sono compatibili tra loro.
Quindi, nel momento in cui due risultati di misura sono compatibili con un terzo risultato di misura, non è
detto che i primi due risultati siano compatibili tra loro.

14
Il concetto di valore vero ed errore: esistono davvero?
Per poter studiare al bene l’incertezza bisogna sfatare il mito dell’esistenza del valore vero. Il misurando è
caratterizzato da una incertezza che è intrinseca, ovvero che risiede nella definizione stessa di misurando. Ad
esempio, la stanza nella quale si sta in questo momento, è un ambiente che mediamente ha una determinata
temperatura ma che in uno specifico angolo ha una temperatura sicuramente diversa rispetto alla temperatura
presente in un altro angolo. Per dare delle informazioni aggiuntive bisognerebbe fare quella che prende il nome
di perfetta definizione del misurando, dove per perfetta definizione del misurando si intende lo specificare
di tutte le caratteristiche, praticamente un’infinità, che hanno comportato un determinato risultato di
misurazione. Ad ogni modo non è un qualcosa che solitamente viene effettuato tant’è che si preferisce
utilizzare, consciamente, delle approssimazioni circa le caratteristiche che hanno fatto sì di determinare il
risultato di una misurazione. L’effetto della non perfetta definizione fa sì, intrinsecamente, che l’oggetto da
sottoporre ad una misurazione non è compatibile con un unico valore ma sarà compatibile con un intervallo di
valori che, quasi sicuramente, non si verificheranno tutti con la stessa probabilità. In conclusione, non esiste
il valore vero e, di conseguenza, non esiste l’errore. Si fa quindi riferimento all’incertezza del risultato di
misura, all’interno della quale risiede la consapevolezza di non aver considerato le infinite specifiche
utilizzabili per definire un determinato misurando.

Deviazioni sistematiche casuali


Bisogna ora definire quanto detto da un punto di vista analitico. A tal proposito, si supponga di avere una certa
grandezza di interesse e di associare ad essa il nome di 𝑦. Tale grandezza fisica cambierà il suo valore a causa
di tutta una serie di parametri, alcuni dei quali si decide di considerare, altri ancora che si decide di trascurare.
In questo modo, alcune grandezze vengono considerate di primario interesse, quelle il cui effetto è magari più
grande, altre invece vengono messe in un secondo piano e prendono il nome di grandezze d’influenza, le
quali possono produrre un effetto più o meno significativo:

𝑦 = 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑛 , 𝑞1 , 𝑞2 , … , 𝑞𝑚 )

Dove 𝑥1 , 𝑥2 , … , 𝑥𝑛 rappresentano le grandezze primarie e 𝑞1 , 𝑞2 , … , 𝑞𝑚 rappresentano le grandezze


d’influenza. Le grandezze di influenza comportano due diversi tipi di effetti:
Deviazioni sistematiche: le deviazioni sistematiche sono quelle deviazioni che si ripetono nel momento
in cui si effettua sempre la stessa operazione.
Deviazioni casuali (effetti aleatori): le deviazioni casuali sono quelle deviazioni che si ripetono in
maniera differente ogni qualvolta si ripete la stessa operazione di misura.
Tra le due, le deviazioni sistematiche sono le deviazioni più scomode poiché sono le deviazioni che non si
riescono a rilevare se non con l’ausilio di uno strumento di qualità migliore in modo tale da poter effettuare un
confronto tra quest’ultimo e lo strumento che magari è caratterizzato da una deviazione sistematica. Le
deviazioni sistematiche rappresentano il motivo per il quale, periodicamente, uno strumento deve essere
inviato a dei laboratori così da confrontarlo con uno strumento di qualità migliore ed avere un certificato di

15
taratura che certifichi il corretto funzionamento dello strumento inviato. I certificati di taratura vengono
presentati o sotto forma di tabella, nella quale vengono riportati i valori con i quali è stato sollecitato uno
strumento ed i valori misurati dallo strumento stesso, o attraverso dei grafici, dove sono posizionati in ascissa
ed ordinata gli stessi valori riportati in tabella. Aprendo una piccola parentesi, altro fenomeno importante da
considerare è la saturazione, dove per saturazione si intende il massimo valore che uno strumento è un grado
di misurare.
Le deviazioni casuali possono presentarsi con un valor medio diverso da zero; in tal caso bisogna considerare
il valore medio come effetto sistematico ed il resto come effetto aleatorio.
L’operazione corretta di misurazione prevede, anzitutto, la correzione degli effetti sistematici noti.
Possibilmente, tale operazione deve essere effettuata per tutti gli effetti sistematici attraverso la differenza tra
ciascun singolo valore della misurazione ed un determinato fattore di correzione (operazione oggi svolta da
microprocessori). Fatto ciò, restano da correggere eventuali effetti sistematici non corretti e gli effetti aleatori;
gli effetti sistematici bisogna conoscerli almeno dal punto di vista dell’ordine di grandezza, gli effetti aleatori
devono essere corretti attraverso dei mezzi statistici come la varianza e la deviazione standard. Il tutto fornisce
il parametro d’incertezza da riportare assieme al risultato di una misurazione.
Le fonti di incertezza sono moltissime e nascono in tutte le non idealità e sono, molto spesso, di natura
strumentale. In generale, bisogna sempre considerare tutte, o quasi, le fonti in grado di generare incertezza.

Metodi di determinazione dell’incertezza


L’approccio che consente di definire il metodo di determinazione dell’incertezza gode di tre proprietà:
Universale: deve poter essere utilizzato per qualsiasi grandezza fisica;
Coerente: bisogna poter essere definita una grandezza fisica, a partire da un’altra grandezza fisica, senza
introdurre dei fattori moltiplicativi;
Trasferibile: se si ha un risultato con una determinata incertezza e quel determinato risultato deve essere
utilizzato per determinare un ulteriore dato, allora l’incertezza del primo risultato deve essere riportata
anche sul dato che si vuole determinare.
In molte applicazioni industriali, questo metodo ha come risultato la definizione di un intervallo. Ad esempio,
la temperatura della stanza nel quale ci si trova in questo momento ha una temperatura di (22 ± 2) °𝐶. In
risultato mostrato come esempio non è certamente il più raffinato perché non si conosce qual è il valore
presente nell’intervallo che con una maggiore probabilità assume la temperatura.
Un metodo molto più raffinato consente di associare all’intervallo anche una probabilità di copertura, ovvero
un fattore in grado di definire qual è il valore che probabilmente è spesso associato al risultato della
misurazione, escludendo di fatto quei valori estremi tranquillamente trascurabili perché quasi mai di interesse.
Per rendere l’idea, si pensi ad una distribuzione gaussiana e alla sua capacità di tendere asintoticamente a zero.
Il tendere asintoticamente a zero significa che vi è una residua possibilità che il risultato di una misurazione
possa assumere un valore fra uno di quelli dove la gaussiana è tendente a zero.

16
Per poter valutare l’incertezza è stata istituita una normativa, normativa UNI CEI ENV 13005, che prevede
due diversi tipi di metodi:
Approccio di tipo A: l’approccio di tipo A può essere utilizzato solo per deviazioni casuali (effetti
aleatori);
Approccio di tipo B: l’approccio di tipo B è il più semplice e si può utilizzare sia per deviazioni casuali
(effetti aleatori) che per deviazioni sistematiche;
Per comodità, è bene descrivere prima l’approccio di tipo B. L’approccio di tipo B consente di valutare
l’incertezza attraverso i certificati di taratura. Questo è l’approccio più utilizzato per la maggior parte dei
processi. Utilizzare un certificato di taratura significa però inviare periodicamente lo strumento che si utilizza
per effettuare una determinata misura ad un laboratorio in grado di stabilire il suo corretto funzionamento. È
bene chiedersi come sia possibile per i laboratori rilasciare un certificato di taratura e quindi come sia possibile
per loro valutare l’incertezza relativa ad un determinato strumento e/o ad una determinata operazione di
misurazione. La valutazione dell’incertezza viene effettuata dai laboratori attraverso un approccio di tipo A, il
quale avviene mediante mezzi statistici. La prima cosa che solitamente si fa per determinare l’incertezza
attraverso un approccio di tipo A è quella di ripetere più volte la misurazione, in particolare si suppone di
effettuare n osservazioni indipendenti. Successivamente si cerca di determinare il valore più probabile
attraverso il calcolo della media aritmetica:

𝑛
1
𝑞̅ = ∑ 𝑞𝑘
𝑛
𝑘=1

La media aritmetica rappresenta il centro dell’intervallo, ossia il valore centrale col quale si individua il
risultato di una misurazione. Faccio ciò, bisogna ora fornire delle informazioni sulla dispersione dei valori
nell’intorno del valore centrale, ovvero di quanto i risultati si allontano dal valore centrale. Per far ciò è bene
calcolare la varianza per variabili discrete, cioè:

𝑛
1
𝑠 2 (𝑞𝑘 ) = ∑(𝑞𝑘 − 𝑞̅ )2
𝑛−1
𝑘=1

La varianza si effettua prendendo il valor medio calcolato e sottraendo ogni singolo valore col valor medio, il
tutto si eleva poi al quadrato ottenendo lo scarto quadratico ed infine se ne fa una media così da ottenere lo
scarto quadratico medio (espressione alternativa della varianza). Dalla relazione si evince che la media non è
effettuata attraverso un rapporto per 𝑛 ma essa viene definita mediante un rapporto per 𝑛 − 1, questo perché
si ha a che fare con pochi valori che definirebbero la divergenza della funzione per 𝑛 → +∞. Il problema
viene risolto, com’è stato dimostrato da Bessel, mettendo al denominatore 𝑛 − 1 e non 𝑛. La varianza non è
però l’incertezza; per poter calcolare l’incertezza bisogna effettuare la radice quadrata della varianza,
ottenendo così la deviazione standard, e dividere quest’ultima per √𝑛.

𝑠(𝑞𝑘 )
𝑢𝐴 = 𝑠(𝑞̅ ) =
√𝑛
17
𝑢𝐴 rappresenta l’incertezza. Bisogna stare attenti poiché, come detto in precedenza, con questo approccio non
si riescono a valutare deviazioni sistematiche ma solo deviazioni casuali (effetti aleatori). In Figura 2 è riportato
un esempio che chiarisce i passi da seguire per poter realizzare una stima dell’incertezza di un risultato di
misura:

Figura 4.2 - Esempio della stima di incertezza di un risultato di misura

Per poter passare dall’incertezza ad un intervallo di valori bisogna moltiplicare per una costante (si vedrà più
avanti questo cosa significa). È importante osservare che durante i passaggi è possibile utilizzare tutte le cifre
significative che si vogliono. Nel momento in cui si definisce l’incertezza non è più corretto farlo ma bisogna
lavorare con una, al massimo due cifre significative.
Ricapitolando, la valutazione dell’incertezza di tipo B è sicuramente il metodo più semplice da utilizzare
perché consente di sfruttare i certificati di taratura rilasciati da qualche ente e che forniscono tutte le specifiche
relative ad una misurazione ed al suo grado di incertezza. Non sempre però è possibile lavorare con un
approccio di tipo B perché magari possono esserci delle specifiche relative alla misurazione che si sta
effettuando e che in fase di taratura non sono state valutate. Ad esempio, se si ha un voltmetro, con tanto di
certificato di taratura relativo alle specifiche d’incertezza per lo strumento, col quale si vuole effettuare una
misura di tensione ma i valori di alimentazione con i quali si sta lavorando fluttuano, è evidente come non sia
possibile utilizzare un approccio di tipo B per valutare l’incertezza della misurazione poiché essa non discende
solo dal voltmetro che si sta utilizzando ma anche dai valori di alimentazione poco stabili che si stanno
adoperando. In definitiva, per una corretta analisi dell’incertezza bisognerà utilizzare un approccio di tipo A
così da considerare anche una valutazione dell’incertezza relativa ai valori di alimentazioni fluttuanti. Nel
momento in cui accade ciò, bisogna quindi valutare delle incertezze relative a più fenomeni, fra l’altro valutate
con due metodi differenti (approccio di tipo A ed approccio di tipo B). Per poter unire il tutto si sommano
quadraticamente tutte le incertezze relative al fenomeno che si sta studiando:

𝑢𝑐 = √𝑢𝐴2 + 𝑢𝐵1
2 2
+ 𝑢𝐵2 2
+ ⋯ + 𝑢𝐵𝑚

18
Questa rappresenta la stessa legge con cui si combinano le varianze delle variabili gaussiane. Attraverso questa
relazione si evidenzia che se esiste una fonte di incertezza con un ordine di grandezza superiore rispetto alle
altre fonti di incertezza allora le fonti di incertezza con ordini di grandezza più piccolo possono essere
trascurate. Questo accade perché la combinazione è quadratica. In precedenza si è detto che per poter esprimere
l’incertezza come un intervallo bisogna moltiplicare quest’ultima per una costante. Tale costante deriva da
ragionamenti di tipo probabilistico ed è legata alla probabilità di copertura delle variabili aleatorie.

Figura 4.3 - Distribuzione gaussiana

Considerando la Figura 3, in cui è rappresentata una distribuzione gaussiana, si vede come essa sia dotata di
un valore centrale 𝜇. Se si prende il valore centrale è ad esso si aggiunge una quantità ±𝜎 si individua una
certa area, se si prende il valore centrale è ad esso si aggiunge una quantità ±2𝜎 si individua un’altra area, se
si prende il valore centrale e ad esso si aggiunge ±3𝜎 si individua ancora un’altra area, dove l’area, in tutti e
tre i casi descritti, corrisponde alla probabilità. È stato dimostrato che 1𝜎 corrisponde al 68% di probabilità,
2𝜎 corrispondono al 95.45% di copertura, 3𝜎 corrispondono al 99.73% di copertura. Avendo calcolato
l’incertezza, che si è visto essere l’equivalente del rapporto tra la radice quadrata della varianza e la radice
della media, se la si moltiplica per 3 si crea un intervallo in cui, con una probabilità del 99.73%,
ingegneristicamente pari al 100%, è presente il misurando. In questo modo si ottiene quella che prende il nome
di incertezza estesa, la quale consente di definire l’intervallo all’’interno del quale si ha una maggiore
probabilità di trovare il misurando. Nel gergo tecnico, l’incertezza estesa prende il nome di tolleranza.

19
Lezione 5 (5 ottobre 2016)

Si è visto come calcolare l’incertezza, ossia come:


𝑠(𝑥)
𝑢=
√𝑛
Così com’è definita, l’incertezza di misura è un parametro molto simile alla deviazione standard, quest’ultima
che viene utilizzata per poter definire gli intervalli di copertura. Dal punto di vista della teoria della
probabilità, gli intervalli di copertura rappresentano degli intervalli associati ad un certo livello di probabilità
e la cui area della distribuzione vale un certo livello di probabilità. Per questo motivo, moltiplicando il valore
dell’incertezza per un fattore di copertura, si riesce a fornire un certo intervallo all’interno del quale può
essere presente il misurando con una certa probabilità. Tradizionalmente ci si riferisce ad una distribuzione
gaussiana, che con un fattore di copertura pari a 3 permette di dichiarare, dal punto di vista ingegneristico, la
certezza relativa al fatto che nell’intervallo che si sta considerando è presente il misurando.
Dalla Figura 7, si evince quanto valgono i fattori di copertura che solitamente vengono utilizzati in applicazioni
industriali. Con un 𝜎 = 3 si riesce ad ottenere un intervallo molto grande tale da definire una probabilità molto
elevata, pari al 99.73%, che nell’intervallo considerato ci sia il misurando.
L’approccio tradizionale era quello di fornire un intervallo in cui il misurando era certamente contenuto senza
ulteriori informazioni aggiuntive. Normalmente questo approccio non viene chiamato dell’incertezza ma viene
chiamato della tolleranza. Ad esempio, quando si acquista un resistore con una tolleranza di ±5%, significa
che quello stesso resistore ha un valore nominale compreso tra −5% e +5%.
Bisogna essere quindi in grado di passare dal concetto di incertezza a quello di tolleranza. Ad esempio,
considerando la gaussiana rappresentata sopra, se, come precedentemente affermato, una probabilità del
99.73% garantisce la certezza che il misurando si presente nell’intervallo considerato, allora lo stesso
intervallo, ossia 𝜇 ± 3𝜎, rappresenta la tolleranza. Ecco quindi che vale la relazione:

𝑡𝑜𝑙𝑙𝑒𝑟𝑎𝑛𝑧𝑎 = 𝑖𝑛𝑐𝑒𝑟𝑡𝑒𝑧𝑧𝑎 · 𝑓𝑎𝑡𝑡𝑜𝑟𝑒 𝑑𝑖 𝑐𝑜𝑝𝑒𝑟𝑡𝑢𝑟𝑎

Il problema legato alla stretta corrispondenza che lega il concetto di tolleranza con il concetto di incertezza
risiede nel fatto che per poter lavorare agevolmente con entrambi i concetti è necessario considerare delle
distribuzioni. Ad ogni modo è bene affermare che, tranne in casi dove è necessario prendere in considerazione
distribuzioni poco utilizzate, le distribuzioni con le quali si opera maggiormente sono due:
Distribuzione gaussiana: la distribuzione gaussiana è la distribuzione in cui ci sia ragionevolezza per
cui i fenomeni siano di origine naturale, fenomeni aleatori come rumore termico
Distribuzione uniforme: la distribuzione uniforme viene utilizzata quando non si ha alcuna
informazione sul fenomeno che si sta studiando. In questo caso è corretto considerare tutti i valori
equiprobabili. La distribuzione uniforme è definita come la distribuzione dell’ignoranza assoluta poiché
nel suo intervallo caratterizzante può succedere di tutto proprio perché tutti i valori, a differenza della

20
gaussiana dove i valori più vicini alla media hanno una maggiore probabilità di verificarsi, hanno lo
stesso livello di probabilità.
Dalla descrizione delle due distribuzioni si evince che ogni qualvolta non è possibile effettuare delle ipotesi
sulla natura aleatoria dei fenomeni, è più cautelativo considerare una distribuzione uniforme. Nel caso di
distribuzione uniforme, se si vuole passare dal concetto di tolleranza al concetto di incertezza non è possibile
dividere per 3, come fatto invece per la distribuzione gaussiana, ma bisogna dividere per √3. In questo modo
l’incertezza diventa un po' più grande, ciò significa che la distribuzione uniforme, a differenza della
distribuzione gaussiana, presenta un grado di ambiguità più alto.

Figura 5.1 - Distribuzione uniforme

Gli strumenti digitali presentano un’ambiguità sulla lettura relativa al fatto che molto spesso non sono costruire
per misurare valori decimali o centesimali. Per questo motivo, nel momento in cui si ha a che fare con uno
strumento che misura un determinato valore esso presenta un’ambiguità di ± mezzo valore. Ad esempio, una
bilancia che pesa 100𝑔 in realtà non è detto che stia pesando esattamente 100𝑔 ma è più probabile che stia
pesando un valore compreso tra 96𝑔 e 104𝑔. Sorge inoltre il problema relativo al 5, il quale viene
approssimato considerando che in fisica nulla pesa esattamente 𝑥, 5 perché si saranno sempre delle cifre meno
significative tali da far tendere un risultato da uno o dall’altro lato. Non per questo però gli strumenti analogici
sono migliori di quelli digitali, questa considerazione è assolutamente da non prendere in considerazione.
I risultati di misura possono essere espressi in due differenti modi:
Valore ottenuto ed incertezza, senza alcun fattore di copertura (esempio: 𝑚 = 100.02147𝑔 𝑐𝑜𝑛 𝑢 =
0.35𝑔). Questo tipo di approccio quando si lavora con ingegneri;
Fornire un dato con un fattore di copertura sotto forma di tolleranza (esempio: 𝑚 = (100.02147 ±
0.35)𝑔);

21
Propagazione dell’incertezza
L’analisi dell’incertezza finora condotta è valida per le misurazioni effettuate in maniera diretta. Quando una
misurazione viene effettuata prendendo in considerazione altre misurazioni che sono collegate alla misurazione
ci si vuole effettuare, l’analisi dell’incertezza deve essere effettuata attraverso la propagazione dell’incertezza,
ossia quel metodo che consente di determinare in che modo l’incertezza riguardante determinate grandezze
fisiche vengono trasmesse alla grandezza fisica che si vuole misurare. La propagazione dell’incertezza è quindi
un metodo valido quando si effettuano delle misurazioni indirette. Si pensi ad esempio alla misurazione del
valore di un resistore; tale operazione non viene mai effettuata in maniera diretta ma avviene sempre
indirettamente attraverso la misurazione, grazie all’ausilio di un voltmetro e di un amperometro, dei valori di
tensione di corrente. Attraverso la legge di Ohm, si riesce a definire il valore di resistenza, relativo al resistore
che si sta considerando, come:

𝑉
𝑅=
𝐼

Dove i valori di tensione e di corrente sono affetti da incertezza che, inevitabilmente, influenzerà il risultato di
misura della resistenza.
La propagazione dell’incertezza può essere studiata mediante due diversi tipi di approcci, con entrambi che
pongono le proprie basi sul concetto di derivata e differenziale. Per poter capire al meglio ciò che si vuole
spiegare, è bene iniziare a ragionare partendo da funzioni di una sola variabile. Il differenziale di una funzione
di una sola variabile è dato dalla derivata della funzione nel punto di interesse ed il differenziale della variabile
indipendente:

𝑑𝑓
𝑑𝑦 = | ∙ 𝑑𝑥
𝑑𝑥 𝑥=𝑥0

Tale scrittura vuol dire che ci si mette in un certo punto, 𝑥0 , sapendo quanto vale la derivata in tal punto, si
conosce di quanto aumenta la funzione quando si ha un piccolo aumento della variabile indipendente.

Figura 5.2 – Differenziale

Cioè, se la 𝑥 passa da 𝑥0 a 𝑥0 + ∆𝑥 allora la 𝑦 aumenta di ∆𝑦. Il legame si ottiene passando dagli incrementi
infinitesimi agli incrementi finiti.

22
𝑑𝑓
∆𝑦 = | ∙ ∆𝑥
𝑑𝑥 𝑥=𝑥0

La derivata rappresenta una approssimazione rettilinea della curva. Se ∆𝑥 è piccolo, allora la curva che si sta
considerando è in realtà una retta, 𝑦 = 𝑚𝑥, di cui il differenziale ne rappresenta il coefficiente angolare. In
pratica, se la retta è poco pendente allora un piccolo aumento di 𝑥 definirà un piccolo aumento di 𝑦, se la retta
è molto pendente allora piccoli aumenti di 𝑥 definiscono dei grandi aumenti di 𝑦. In termini di incertezza, un
basso coefficiente angolare sta ad indicare che il risultato di misura che si è prodotto è poco significativo a
delle incertezze relative al parametro 𝑥 perché il suo valore risulterà poco alterato. Se invece si ha un
coefficiente elevato allora una piccola incertezza relativa alla 𝑥 si ripercuoterà pesantemente sulla 𝑦.
Se si deve propagare l’incertezza di 𝑥 su 𝑦 allora bisogna verificare quanto vale la derivata nel punto del
risultato di misura, ossia nel punto che si sta considerando.
L’approccio è lo stesso per le funzioni di più variabili, con la differenza che la 𝑦, in questo caso, sarà funzione
di 𝑥1 , 𝑥2 , … , 𝑥𝑛 . Per poter verificare quanto vale l’effetto di 𝑥1 , 𝑥2 , … , 𝑥𝑛 sulla 𝑦 allora è bene scrivere il
differenziale di 𝑦:

𝜕𝑓 𝜕𝑓 𝜕𝑓
d𝑦 = 𝜕𝑥 𝑑𝑥1 + 𝜕𝑥 𝑑𝑥2 + ⋯ + 𝜕𝑥 𝑑𝑥𝑛
1 2 𝑛

Passando agli incrementi finiti si ha:

𝜕𝑓 𝜕𝑓 ∂f
∆𝑦 = ∆𝑥1 + ∆𝑥2 + ⋯ + ∆𝑥
𝜕𝑥1 𝜕𝑥2 𝜕𝑥𝑛 𝑛

Così come scritto c’è però un problema relativo al fatto che, dal punto di vista teorico, le derivate possono
avere sia un valore positivo che un valore negativo. Ciò va bene dal punto di vista matematico ma non dal
punto di vista dell’analisi dell’incertezza perché l’incertezza è una grandezza definita positiva. Bisogna quindi
fare in modo che dalle equazioni sopra scritte vengano fuori delle quantità sicuramente positive. A tal proposito
si utilizzano due diversi tipi di approcci:
1. Approccio deterministico: l’approccio deterministico consiste nell’inserire il valore assoluto a tutte le
derivate così che tutte possano dare solo ed esclusivamente dei valori positivi. Questo è il tipo di
approccio solitamente utilizzato quando si lavora con le tolleranze. Con questo approccio si effettua il
valore assoluto di ogni singola grandezza e poi le si mettono insieme. L’interpretazione fisica di questo
tipo di approccio risiede nel fatto che, se prima lasciando segni positivi e negativi si dava la possibilità
ad alcuni effetti di compensarsi tra loro migliorando così l’ambiguità del risultato di misura, in questo
modo si ha la situazione più catastrofica, quella pessimistica al massimo in cui tutte le fonti di incertezza
vanno a combinarsi per peggiorare la situazione perché comunque vengono tutte sommate senza tener
presente che potrebbero tra loro compensarsi. Questo tipo di approccio prende anche il nome di worst
case (caso peggiore). È un approccio che si rifà al concetto di errore massimo perché sommare tutti i
fattori di incertezza, come già detto, significa considerare la massima incertezza per il risultato di misura
che si sta considerando.
23
Figura 5.3 - Propagazione dell'incertezza di modo deterministico

1. Approccio probabilistico: l’approccio di tipo deterministico non è il più utilizzato perché, in realtà, è
probabile che qualche effetto si compensi così da annullare qualche elemento che invece,
inevitabilmente, è presente nell’approccio di tipo deterministico. L’approccio di tipo probabilistico è
quindi un approccio meno pessimistico del precedente e, tipicamente, viene utilizzato non col le
tolleranze ma con le incertezze, quando si va a ragionare con concetti di probabilità. Nell’approccio di
tipo probabilistico non vengono utilizzati i valori assoluti ma viene utilizzato l’elevamento a potenza 2
poiché anch’esso rappresenta un ottimo metodo per poter eliminare quantità negative (una quantità
negativa elevata al quadrato dà come risultato una quantità positiva). Bisogna tenere presente che il
quadrato che si deve svolgere è il quadrato di una somma, di conseguenza esso si compone del quadrato
del primo, del quadrato del secondo, il quadrato del terzo e di tutti i doppi prodotti che si vanno a formare
tra i termini che compongono l’equazione. I doppi prodotti rappresentano le covarianze, le quali
descrivono come una due grandezze sono tra loro legate dal punto di vista probabilistico. Se le variabili
aleatorie sono tra loro scorrelate allora le covarianze varranno zero (che è poi il caso che spesso capita).

Figura 5.4 - Propagazione dell'incertezza di modo probabilistico

24
Nella Figura 10, è riportata la formula completa relativa al calcolo della probabilità dell’incertezza attraverso
un approccio di tipo probabilistico. Le covarianze è più conveniente definirle come termini di correlazioni
dividendole per la deviazione standard, ossia dividendole per le singole incertezze. La formula che si preferisce
ricordare è la seguente:

Figura 5.5- Equazione finale per approccio di tipo probabilistico

25
Lezione 6 (10 ottobre 2016)

Una strategia da evitare quando si effettua il calcolo di un risultato di misura è quella di fare la differenza tra
quantità che sono tra loro molto vicine perché, in questo caso, i valori che si possono ottenere possono essere
significativamente affetti da ambiguità.

Figura 6.2 - Calcolo dell’incertezza della somma e del prodotto

Prodotto

Figura 6.3 - Calcolo dell'incertezza per una operazione prodotto

26
Quando l’operazione di taratura fornisce un coefficiente di correzione allora lo stesso coefficiente può essere
inquadrato nell’ottica della propagazione dell’incertezza. Questo perché il coefficiente di correzione è il
risultato di una misurazione ed è anch’esso noto con una certa incertezza e quindi anche questo può essere
inquadrato nello stesso ambito. Se si va a correggere allora all’incertezza sul risultato deve essere aggiunto
anche l’incertezza relativa al coefficiente di correzione. Bisogna stare attenti perché può sembrare che
l’incertezza corretta è maggiore rispetto all’incertezza non corretta. In realtà non è così perché se non si
corregge l’effetto sistematico lo si dovrebbe stimare come ordine di grandezza e metterlo dentro il calcolo di
incertezza. Si dovrebbe quindi fare una combinazione dell’incertezza non sul valore esatto ma sull’ordine di
grandezza, si dovrebbe quindi fare una valutazione dell’incertezza molto più ampia il che implicherebbe una
situazione senz’altro peggiore. Di conseguenza, è sempre buona cosa correggere gli effetti sistematici.
Visto il prodotto per una costante, per quanto riguarda il prodotto si ha che la derivata rispetto ad 𝑥2 è uguale
ad 𝑥1 e che, viceversa, la derivata rispetto ad 𝑥1 è uguale ad 𝑥2 . Ciascuna quantità è quindi il coefficiente di
sensibilità dell’altra. In questo caso l’operazione con le tolleranze viene una semplice somma, l’operazione
con le incertezze, invece, è una somma quadratica. Se le quantità si dividono per 𝑦 a destra e per 𝑥1 ed 𝑥2 a
sinistra allora le due equazioni assumono forme particolarmente semplici. In particolare, sia per le tolleranze
che per le incertezze è possibile affermare che in caso di prodotto sono le tolleranze relative che si sommano
e le incertezze relative che si sommano quadraticamente.

Rapporto
Così come per somma e sottrazione si ritrova una simmetria, anche in questo caso si ritrova la stessa simmetria.

Figura 6.4 - Calcolo dell'incertezza di un rapporto

I due coefficienti di sensibilità sono molto differenti. Se si osservano i termini relativi quello che si ha,
dividendo a sinistra per 𝑦 e a destra per 𝑥1 ed 𝑥2 , una notazione molto più semplificata e, in particolare, la
formula di propagazione è esattamente la stessa di quella del prodotto. Quindi, tutte le volte che si ha a che

27
fare con prodotti o rapporti la regola da ricordare è che si sommano le tolleranze relativa e si sommano
quadraticamente le incertezze relative.

Riepilogo
È bene ricordare che quando si lavora con solo somme o solo sottrazioni allora bisogna lavorare con i valori
assoluti. In particolare, tali valori vanno sommati se si lavora solo con le tolleranze, vanno invece sommati
quadraticamente se si lavora con le incertezze.
Tutte le volte che il risultato di misura prevede prodotti e rapporti allora si lavora con i valori relativi. In
particolare, tali valori vanno sommati se si lavora con le tolleranze, vanno invece sommati quadraticamente se
si lavora con le incertezze.
Quando si ha una situazione di questo tipo:

(𝑥1 − 𝑥2 )𝑥3
𝑦=
𝑥4

Quello che si fa è calcolare prima l’incertezza che si ha sulla differenza, magari dare un nome a tale operazione,
ad esempio 𝑥5 , in modo tale da poter poi calcolare l’incertezza della seguente relazione.

𝑥5 ∙ 𝑥3
𝑦=
𝑥4

In questo modo, per il calcolo di tale incertezza, è sufficiente utilizzare le relazioni del prodotto e del rapporto.

Rapporto correlato
Finora si è utilizzata sempre la legge di propagazione dell’incertezza per grandezze scorrelate, per misurare
delle situazioni indipendenti. Serve però almeno un caso in cui si effettuano delle misurazioni tra loro correlate.
Tale correlazione viene sfruttata per avere dei risultati di misura più precisi e quindi con una incertezza più
bassa. Di particolare interesse è il rapporto correlato

Figura 6.5 - Rapporto correlato


28
All’interno della formula è presente il doppio prodotto tra le varie grandezze. Lavorando con valori relativi si
ha una semplificazione della relazione che consente di utilizzare quest’ultima in maniera più semplice. Se in
un rapporto si crea una correlazione positiva si ottiene una incertezza più bassa. L’incertezza di un rapporto
tra due grandezze correlate è più bassa rispetto all’incertezza di un rapporto tra due grandezze scorrelate.

29
Lezione 8 (14 ottobre 2016)
Nota: Lezione 7 svolta in laboratorio (Labview)

Misure di tensione
È bene capire come effettuare per bene delle misure di tensione e di corrente. È bene fin da subito rendersi
conto che per ogni grandezza fisica è possibile ritrovare valori di tensione e di corrente completamente
differenti.
Per quanto rigurda la tensione, si passa a situazione in cui bisogna misurare i nV (ad esempio situazioni in cui
si vanno ad esaminare gli effetti di polarizzazione atomici), i μV, i mV, i V, i kV e tipicamente si raggiunge
un valore massimo pari a qualche milione di Volt (ad esempio le scariche atmosferiche o impianti elettrici
d’altissima tensione). Chiaramente, non esiste nessuno strumento in grado di misurare tutti i differenti valori
di tensione ma, tipicamente, gli strumenti hanno alcune fasce, alcuni intervalli, a cui sono dedicati. Superato
un certo livello di tensione, ad esempio per tensioni superiori ai 1000V, non si effettuano mai delle misure
dirette ma, per motivi di sicurezza, si interpone sempre un trasduttore tra la grandezza fisica e lo strumento di
misura. Nel caso più semplice questi trasduttori possono essere dei trasformatori e l’inserimento di un
trasduttore, pur non migliorando i risultati di misura perchè tra le tante ambiguità bisogna tenere conto anche
di quella introdotta dal trasduttore, viene comunque inserito per ragioni di sicurezza poiché l’energia è talmente
tanta tale da poter distruggere apparecchio ed operatore. Quando si parla di una misura di tensione significa
che, per quanto possa essere complicato il circuito in esame, ad un certo punto si è interessati solamente a due
nodi e si vuole conoscere la differenza di potenziale presente tra loro.

Figura 8.1 - Collegamento del voltmetro a due nodi

Quando si inserisce un voltmetro esso lo si collega in parallelo. Nel momento in cui si collega un voltmetro, il
circuito prima e dopo il collegamento è differente perché l’inserimento del voltmetro genera la formazione di
un nodo in cui, teoricamente, potrebbe definire un partitore di corrente in quanto una certa corrente potrebbe
andare fluire nel ramo ove è presente il voltmetro stesso. Questa situazione per cui collegando il voltmetro il

30
circuito cambia prende il nome di effetto di carico. Bisogna tenere presente che tutti gli strumenti hanno un
effetto di carico nel senso che tutti gli strumenti, per il fatto che si stanno utilizzando, cambiano un po' il
misurando. È proprio la gradazione degli effetti di carico che determina la qualità di uno strumento poiché
strumenti con minore effetto di carico sono migliori rispetto a strumenti con effetti di carico alto. Un voltmetro,
per poter avere un basso effetto di carico, deve mostrare un’impedenza d’ingresso che risulti essere la più alta
possibile. Se s’avesse un voltmetro con un’impedenza d’ingresso infinita allora l’effetto di carico sarebbe
nullo. Siccome, sfortunatamente, non esistono impedenze d’ingresso infinite, si cerca di avere un basso effetto
di carico facendo sì da avere delle impedenze di ingresso al voltmetro (degli ottimi voltmetri) dell’ordine dei
MΩ. La grandezza dell’impedenza di ingresso del voltmetro dipende dall’impedenza in parallelo ad essa,
quella che si vede tra i nodi dove si è collegato il voltmetro e dipende dal circuito col quale si sta lavorando.

Figura 8.2 - Voltmetro ideale e voltmetro reale

Come si evince dalla Figura 2, un voltmetro ideale viene rappresentato senza alcuna impedenza d’ingresso
mentre un voltmetro reale viene rappresentato con una certa impedenza d’ingresso. Quanto più alta è 𝑍𝑖𝑛 , tanto
migliore sarà lo strumento e tanto più basso risulterà essere il suo effetto di carico. L’effetto di carico è un
effetto di tipo sistematico poiché se si ripete una misura un certo numero di volte esso lo si ritroverà tutte le
volte in cui quella misura è stata effettuata. Si può dire che un effetto di carico è trascurabile nel momento in
cui esso è un valore che è più piccolo di almeno un ordine di grandezza rispetto ai restanti valori in gioco.

31
Figura 8.3 - Correzione dell'effetto di carico attraverso equivalente di Thevenin

Siccome l’effetto di carico è un effetto sistematico allora è possibile pensare di correggerlo. Per poter fare
questo bisogna effettuare l’equivalente di Thevenin del circuito in esame così da schematizzare tutta la rete
vista dai due morsetti del voltmetro come un generatore di tensione equivalente ed una impedenza equivalente.
Dato che si sta misurando una tensione allora si vorrebbe un valore misurato pari proprio alla tensione posta
in ingresso, ossia:

𝑉𝑚 = 𝑉

Dalla Figura 3 si evince, calcolando 𝑉𝑚 attraverso la regola del partitore di tensione (in una serie, la tensione
su uno dei componenti si può calcolare considerando la tensione su tutta la serie, dividendola per la somma di
tutte le impedenze e moltiplicandola per l’impedenza d’interesse), che:

𝑍𝑖𝑛 1
𝑉𝑚 = 𝑉 ∙ =𝑉∙
𝑍𝑖𝑛 + 𝑍𝑒𝑞 𝑍𝑒𝑞
𝑍𝑖𝑛 + 1

Da tale relazione si osserva che, rendendo 𝑍𝑖𝑛 molto grande (𝑍𝑖𝑛 ≫ 𝑍𝑒𝑞 ) la frazione tende ad 1 ed il valore
misurato si avvicina sempre più al valore del misurando:

𝑉𝑚 ≅ 𝑉

Il valore tra 𝑉𝑚 e 𝑉 non sarà mai uguale a causa della partizione. Si avrà un effetto sistematico in riduzione. Il
discorso relativo alla grandezza di 𝑍𝑖𝑛 è dunque riduttivo poiché tale impedenza deve essere confrontata con
la 𝑍𝑒𝑞 dell’intero circuito per poter effettivamente capire se il voltmetro che si sta utilizzando ha un’impedenza
grande o piccola. È possibile andare a valutare anche la differenza che c’è tra il valore misurato ed il valore
del misurando:

𝑉𝑚 − 𝑉 𝑍𝑒𝑞
𝑒= =
𝑉 𝑍𝑒𝑞 + 𝑍𝑖𝑛

32
Per situazioni reali la possibilità di compensazione dell’errore che si misura è molto difficile perché è molto
difficile avere delle informazioni riguardo l’impedenza equivalente che caratterizza il circuito a molte del
voltmetro reale che si sta utilizzando. Bisognerebbe risolvere dei circuiti che potrebbero essere molto
complicati come, ad esempio, circuiti non lineari. Quello che si preferisce è conoscerlo e valutarlo dal punto
di vista della trascurabilità.

Misure di corrente
Oltre alla tensione, si è spesso interessati a misurare la corrente. Così come per la tensione, anche per la corrente
gli ordini di grandezza sono moltissimi. Anche in questo caso è possibile utilizzare dei trasduttori per separare
la parte pericolosa da strumenti ed operatori. In questo caso, talune volte, si utilizzano anche accoppiamenti di
tipo elettromagnetico. Quando si parla di correnti bisogna focalizzare l’attenzione sui rami e non sui nodi e
l’approccio base consiste nell’interrompere, spezzare, il rame ed in serie al ramo inserire un amperometro di
modo che, essendo l’amperometro inserito in serie al ramo, allora esso risulterà essere attraversato dalla stessa
corrente che attraversa il ramo a cui si è interessati. Così come il voltmetro, il fatto di aver inserito un
amperometro altera il funzionamento del circuito in esame. In particolare, il fatto di avere uno strumento
attraversato da una certa corrente ed avente una impedenza interna causa la formazione di una piccola
differenza di potenziale tra i nodi dell’amperometro stesso.

Figura 8.4 - Collegamento dell'amperometro su di un ramo

Il fatto di avere una differenza di potenziale fa sì da avere una differente corrente rispetto a quella che si
avrebbe se l’amperometro non fosse inserito. Di fatto si tende a misurare una corrente un po' più piccola rispetto
a quella normalmente presente all’interno del circuito. Così come per un voltmetro, è possibile modellare un
amperometro come un amperometro ideale cui in serie bisogna inserire una impedenza. Più piccola è
l’impedenza che si inserisce e migliore risulterà essere l’amperometro che si utilizza.

33
Figura 8.5 - Amperometro ideale ed amperometro reale

Anche in questo caso la grandezza dell’impedenza che si inserisce va inquadrata rispetto all’impedenza del
circuito col quale si sta lavorando. Modellando tutto il resto del circuito come un generatore di corrente alla
Norton si ha che:

Figura 8.6 - Correzione dell'effetto di carico attraverso equivalente alla Norton

Se 𝑍𝑖𝑛 fosse uguale a zero allora tutta la corrente 𝐼 sarebbe vista dall’amperometro. Viceversa, a causa del fatto
che 𝑍𝑖𝑛 non è uguale a zero allora bisogna effettuare un partitore di corrente per il quale:
𝑍𝑒𝑞 1
𝐼𝑚 = 𝐼 ∙ =𝐼∙
𝑍𝑒𝑞 + 𝑍𝑖𝑛 𝑍
1 + 𝑖𝑛
𝑍𝑒𝑞

Dalla relazione si evince che per 𝑍𝑖𝑛 molto più piccolo di 𝑍𝑒𝑞 (𝑍𝑖𝑛 ≪ 𝑍𝑒𝑞 ) allora la corrente misurata
dall’amperometro risulterà essere:

𝐼𝑚 ≅ 𝐼

34
Anche in questo caso è possibile quantificare l’effetto sistematico calcolando:

𝐼𝑚 − 𝐼 𝑍𝑖𝑛
𝑒= =
𝐼 𝑍𝑖𝑛 + 𝑍𝑒𝑞

Anche in questo caso, per situazioni reali, la possibilità di compensazione dell’errore che si misura è molto
difficile perché è molto difficile avere delle informazioni riguardo l’impedenza equivalente che caratterizza il
circuito a molte del voltmetro reale che si sta utilizzando. Bisognerebbe risolvere dei circuiti che potrebbero
essere molto complicati come, ad esempio, circuiti non lineari. Quello che si preferisce è conoscerlo e valutarlo
dal punto di vista della trascurabilità.

35
Lezione 10 (19/10/2016)
Nota: Lezione 9 svolta in laboratorio (Labview)

Modifica della portata di uno strumento e resistore di Shunt


Tutti gli strumenti hanno un massimo valore misurabile, solitamente chiamato valore massimo misurabile o
valore di fondo scala. Ci che si vuole fare è cercare di capire se uno strumento con un determinato fondo scala
(ad esempio un amperometro con fondo scala pari a 1A) lo si può utilizzare anche per misurare grandezze
superiori rispetto al suo fondo scala (ad esempio una corrente di 100A). Direttamente ciò non è possibile farlo
perché, sfruttando un po' di elettrotecnica sì.

Figura 10.1 – Modifica della portata

Per poter capire di cosa si sta parlando si consideri un amperometro e lo si supponga in serie con una resistenza,
la quale può essere anche la resistenza interna presente all’interno dell’amperometro. In parallelo alla serie
amperometro con resistore si inserisce un ulteriore resistenza, 𝑅𝑠 , che prende il nome di resistenza di Shunt.
Se ci si posiziona su due morsetti (i due morsetti in Figura 7 che ci sono prima del resistore di Shunt) allora
tutto il circuito creato si comporta come un partitore di corrente poiché la corrente si ripartisce in due aliquote
in quanto una corrente attraversa il resistore di Shunt e che, invece, attraversa l’amperometro. Se si sceglie
bene il valore delle resistenze è possibile fare in modo che gran parte della corrente passi nella resistenza di
Shunt e solo una piccola parte passi all’interno dell’amperometro. Se si riesce a fare ciò, conoscendo il rapporto
di resistori si è in grado di conoscere quanta corrente attraversa la resistenza di Shunt così da conoscere la
corrente totale arrivata ai due morsetti.

𝑅𝑆 𝑅𝑆 + 𝑅𝐴
𝐼𝐴 = ∙𝐼 ⟹𝐼 = ∙ 𝐼𝐴
𝑅𝑆 + 𝑅𝐴 𝑅𝑆

In questo modo si ha una relazione che lega la corrente misurata con l’amperometro, 𝐼𝐴 , con la arrivata al nodo,
𝐼, senza dover misurare anche 𝐼𝑆 . Il problema sta nello scegliere i resistori in modo tale che il loro rapporto:

36
𝑅𝑆 + 𝑅𝐴
𝑅𝑆

risulti adatto per amplificare la portata dello strumento. L’incertezza con la quale si lavora non è però la stessa
perché bisogna aggiungere anche l’incertezza relativa alla resistenza di Shunt. Questo è un trucco che può
essere utilizzato tutte le volte in cui si ha a che fare con misure di corrente molto elevate e non si ha a
disposizione un amperometro in grado di misurare tali correnti. Se si vuole calcolare la resistenza da mettere
allora bisogna utilizzare le correnti di fondo scala che si vogliono ottenere. In particolare:

𝑅𝐴 ∙ 𝐼𝐴𝐹𝑆
𝑅𝑆 =
𝐼𝐹𝑆 − 𝐼𝐴𝐹𝑆

È possibile anche avere anche delle particolari configurazioni in cui vi sono diversi resistori di Shunt che
possono essere collegati, attraverso una manopola, solitamente un contatto strisciante, all’amperometro con in
serie la sua resistenza interna, così da avere la possibilità di avere più portate in base alla corrente che si è
interessati a misurare. In questo caso si è in grado di aumentare o diminuire la resistenza di Shunt e quindi di
avere un diverso partitore di corrente.

Figura 10.2 - Amperometro con più resistori di Shunt

Da voltmetro ad amperometro e viceversa


È bene chiedersi se è possibile passare da voltmetro ad amperometro e viceversa. La strada per poter fare ciò
è sempre quella dell’elettrotecnica. A tal proposito si supponga di avere un amperometro con la sua resistenza
serie che, come si è già detto, è piccola. Se in serie all’amperometro si mette una resistenza di elevato valore
nota, e si chiude il tutto in una scatoletta, allora è possibile utilizzare quanto creato come voltmetro. Questo
perché il collegamento in parallelo dell’oggetto creato a qualche parte del circuito determina la circolazione di
una certa corrente 𝐼. Conoscendo il valore della resistenza che si è aggiunta e conoscendo la resistenza interna
dell’amperometro allora si è in grado di conoscere la differenza di potenziale ai capi di due punti di un qualsiasi
circuito. In questo modo è come se si stesse facendo la Legge di Ohm in quanto conoscendo la corrente
misurata e collegando una resistenza allora di riesce a determinare un valore di tensione. Così come è possibile
37
passare da amperometro a voltmetro, è possibile passare anche da voltmetro ad amperometro. Per far ciò
l’operazione da svolgere è quella duale, ovvero al voltmetro con elevata resistenza d’ingresso bisogna
collegare, questa volta in parallelo, un’impedenza di piccolo valore.

Figura 10.3 - Da amperometro a voltmetro e viceversa

Amplificatori operazionali
Gli amplificatori operazionali sono dispositivi che vengono creati attraverso l’ausilio di transistori. Di base
l’amplificatore operazionale si presenta come un dispositivo elettronico a cinque terminali. L’amplificatore
operazionale ha due terminali di alimentazione, la quale può essere unipolare (un terminale a massa ed una
tensione positiva) oppure bipolare (± un certo valore di tensione), due terminali di ingresso ed un terminale di
uscita. Tipicamente il terminale col segno + prende il nome di terminale non invertente ed il terminale col
segno − prende il nome di invertente ed il terminale di uscita viene chiamato terminale di out. A questi
terminali, alcune volte, sono aggiunti degli ulteriori terminali che servono ad azzerare l’offset.

Figura 10.4 - Simbolo dell'amplificatore operazionale

Se utilizzato da solo, in realtà è molto difficile che un amplificatore operazionale venga utilizzato da solo, un
amplificatore operazionale fornisce un’uscita che è uguale ad 𝐴 volte la differenza di potenziale dei terminali

38
di ingresso. Utilizzato da solo, l’amplificatore operazionale si presenta quindi come un amplificatore che
fornisce un guadagno molto molto elevato e l’ordine di grandezza di un guadagno va da 105 a 108 .

𝑉𝑜𝑢𝑡 = 𝐴 ∙ (𝑣2 − 𝑣1 )

È molto molto raro scovare un amplificatore che lavori da solo perché l’elevato guadagno (rapporto tra la
tensione di uscita e la differenza di potenziale presente in ingresso) fa sì che l’uscita di questo dispositivo
risulti essere l’alimentazione. Si dice che l’uscita di un amplificatore operazione che valore da solo è
l’alimentazione poiché, per il principio di non amplificazione, se la fonte di energia è ad un certo valore
prefissato allora in nessun punto di un dato circuito è possibile avere un valore di energia superiore alla fonte
di energia con la quale si sta lavorando. Il dispositivo va dunque in saturazione. Solo in particolari casi
l’amplificatore operazionale viene utilizzato da solo.
Aggiungendo all’amplificatore operazione degli ulteriori componenti si riescono ad ottenere dei circuiti in
grado di effettuare alcune interessanti operazioni. Per fare ciò, ovvero per costruire dei circuiti con degli
amplificatori operazioni, è bene effettuare delle ipotesi semplificative:
1. Si suppone un’impedenza di ingresso infinita. Tale supposizione fa sì che sul terminale invertente e sul
terminale non invertente non circolano correnti verso l’ingresso del dispositivo. L’amplificatore
operazionale si mostrerà quindi, verso i circuiti che sono a monte, come un aperto, ossia come
un’impedenza elevatissima. Nella realtà l’impedenza di ingresso non è infinita ma può avere un valore
compreso tra 106 e 1013 .
2. Quando è configurata una retroazione negativa (si parla di retroazione ogni qual volta l’uscita, in qualche
modo, va ad influenzare l’ingresso) l’uscita è tale che il potenziale sui due terminali è uguale. Ciò
significa che, anche se non sono collegati, il terminale positivo ed il terminale negativo dell’operazionale
si ritroveranno allo stesso potenziale. Proprio perché non sono collegati questo fenomeno prende il nome
di corto circuito virtuale.
3. Ipotesi di banda infinita. Tutti i sistemi fisici non rispondono a tutti i segnali perché essi hanno un
intervallo di frequenze in cui sono sensibili dopo dei quali diventano insensibili. Esiste quindi un minimo
ed un massimo di frequenze che possono analizzare. L’ipotesi che si fa è che gli amplificatori
operazionali hanno una banda illimitata e quindi sono in grado di gestire qualsiasi tipo di segnale senza
avere nessuna attenuazione. In termini di Bode, il diagramma di Bode di un amplificatore operazione
risulta essere, per l’ipotesi di banda infinita, un passa-tutto mentre nella realtà esso è un passa-basso
(considera anche la componente continua ma fino ad una frequenza massima).
Alle ipotesi appena presentate è bene aggiungere che gli amplificatori operazionali sono anche affetti da
rumore aleatorio, presente in ingresso al dispositivo e che si ripercuote sull’uscita, e da un comportamento non
lineare per cui se al suo ingresso è presente una sinusoide in uscita non ci sarà esattamente una sinusoide. Tutte
le informazioni circa i dispositivi elettronici le si ritrovano all’interno dei data scheet, ossia dei fogli che
accompagnano il dispositivo e che forniscono le sue caratteristiche. In generale, la scelta di un componente
non è mai semplice e bisogna sempre guardare più parametri.

39
Comparatore
Alcune volte, nei circuiti di elettronica, serve controllare il raggiungimento di una soglia. L’amplificatore
operazionale, lasciato senza retroazione, ha un comportamento per cui non appena 𝑣2 > 𝑣1 , anche di pochi
millesimi di volt, la tensione va ad un valore di alimentazione positivo, ossia quello che è possibile definire il
valore di tensione logica alta (1 logico, vero). Se 𝑣1 > 𝑣2 , anche di qualche millesimo di volt, si ha quella che
prende il nome di tensione logica bassa (0 logico, falso). Un comparatore può essere quindi utilizzato come
sentinella per poter osservare il verificarsi di una specifica condizione.

Figura 10.5 – Comparatore

Il comparatore rappresenta il principio di funzionamento più semplice per un amplificatore operazionale.

Amplificatore operazionale in configurazione invertente


Aggiungendo all’amplificatore operazione una impedenza in retrazione ed una impedenza sulla linea di
ingresso si ottiene quello che va sotto il nome di amplificatore operazionale in retroazione negativa.

Figura 10.6 - Amplificatore operazionale in retroazione negativa

40
Per poter capire il principio di funzionamento di un dispositivo di questo tipo è bene ricordare le ipotesi
semplificative introdotte per lo studio degli amplificatori operazionali. In particolare si è detto che essi sono
caratterizzati dall’avere una corrente di ingresso nulla, sono caratterizzati dall’avere il potenziale di A uguale
al potenziale di B quando si considera, come in questo caso, una retroazione negativa ed è presente il corto
circuito virtuale tra i due morsetti. Detto ciò, quello che si vuole fare è cercare di calcolare il rapporto tra la
tensione di uscita e la tensione di ingresso (guadagno). Per fare ciò la prima cosa da poter fare è quella di
calcolare la corrente che fluisce nell’impedenza 𝑍𝑖 . Osservando il segno di quest’ultima, si ha che tale corrente
può essere calcolata come:

𝑉𝑖 − 𝑉𝐴
𝐼𝑖 =
𝑍𝑖

È possibile poi calcolare la corrente che passa nell’impedenza 𝑍𝑢 così come si è fatto per la corrente 𝐼𝑖 . In
particolare:

𝑉𝑢 − 𝑉𝐴
𝐼𝑟 =
𝑍𝑟

Ricordando le ipotesi semplificative si ha che le formule appena scritte si semplificano subito poiché 𝑉𝐴 = 𝑉𝐵
ed essendo 𝑉𝐵 collegato a massa allora si ha che 𝑉𝐴 = 𝑉𝐵 = 0. Ciò significa che dalle equazioni per le correnti
scritte sopra è possibile tranquillamente cancellare 𝑉𝐴 . Fatto ciò, concentrando l’attenzione sul nodo A, essendo
la corrente 𝐼𝐴 = 0, per l’ipotesi di corrente d’ingresso nulla, si osserva che la corrente che scorre
nell’impedenza 𝑍𝑖 non è altro che la stessa che scorre nell’impedenza 𝑍𝑟 (sono state prese col segno opposto
solo per poter fare attenzione a quelli che sono i principi dell’elettrotecnica). Per cui, scrivendo l’equazione al
nodo A si ha che:

𝑉𝑖 𝑉𝑢 𝑉𝑢 𝑍𝑟
𝐼𝑖 = −𝐼𝑟 ⟹ =− ⟹ =−
𝑍𝑖 𝑍𝑟 𝑉𝑖 𝑍𝑖

Da tale relazione si evince che il legame che c’è tra la tensione di ingresso e la tensione di uscita è indipendente
dall’operazionale che si sceglie ma dipende sono dalle impedenze utilizzate. Questo perché si è ipotizzato un
amplificatore operazionale ideale. Tale risultato non rappresenta sicuramente la realtà però, in prima
approssimazione, è un buon risultato che può essere utilizzato per approcciarsi con circuiti i cui sono presenti
amplificatori operazionali. Se si scelgono degli opportuni valori per le impedenze introdotte, a meno del segno
negativo, si ha che la tensione di uscita è una versione amplificata o attenuata della tensione di ingresso.
L’amplificazione e l’attenuazione dipende dal rapporto tra i resistori, in particolare se 𝑍𝑟 ≫ 𝑍𝑖 si ha il
fenomeno dell’amplificazione, viceversa si ha il fenomeno dell’attenuazione. Il segno meno, per sinusoidi
come il seno o il coseno, si presenta come una codifica della fase del segnale. In realtà, se da problemi, con un
altro stadio successivo è possibile far diventare il segno negativo un segno positivo oppure è possibile ripotare
l’errore dal punto di vista numerico.

41
Buffer di tensione
Il buffer è un dispositivo molto semplice in cui l’ingresso è portato al terminale non invertente e l’uscita è
cortocircuitata sul terminale invertente. Il guadagno del buffer è unitario perché in uscita è esattamente
riportata la tensione presente in ingresso. Così come costruito, si potrebbe pensare che il buffer sia un oggetto
inutile ma, in realtà, esso è un dispositivo che funziona da copiatore in quanto va a pizzicare la tensione di
ingresso così da riportarla in uscita.

Figura 10.7 - Buffer di tensione

Il vantaggio del buffer di tensione risiede nel fatto che, nel momento in cui esso effettua tale operazione, il
buffer mostra un’impedenza, verso che si trova a monte, infinita poiché l’operazione, in ingresso, ha
un’impedenza infinita. Ciò significa che l’effetto di carico dell’operazionale è nullo. Il buffer preleva quindi
la tensione di un circuito e la riporta ai blocchi a seguire senza dare effetto di carico al circuito a monte. Per
questo motivo è possibile chiamare il buffer di tensione anche disaccoppiatore di stadi proprio perché ciò che
è presente a monte non è influenzato da ciò che è presente a valle.

Modulo sommatore
Il modulo sommatore si ottiene inserendo, in parallelo alla resistenza di ingresso, vari paralleli tra resistenze,
ognuna delle quali caratterizzata da una propria tensione di riferimento. Quando si ha una configurazione di
questo tipo allora, per ogni singola resistenza, è possibile calcolare le correnti che vi circolano. Tutte le correnti
si sommano nel nodo 𝐴 così da attraversare la resistenza 𝑅𝑟 . In questo modo si ha che la tensione di uscita, a
meno del fattore invertente, è dato dalla somma delle tensioni di ingresso, ognuna pesata con un differente
guadagno. Questo tipo di dispositivo può essere schematizzato come un mixer in cui ogni resistenza, avente il
proprio valore di tensione, rappresenta uno strumento musicale che può essere opportunamente attenuato o
amplificato. Più in generale, un modulo sommatore rappresenta un miscelatore di segnali, ognuno equalizzato,
amplificato o attenuato, con dei coefficienti differenti gli uni dagli altri. Un caso particolare è il caso in cui
tutte le resistenze sono uguali. In tal caso l’uscita è, semplicemente, la somma degli ingressi.

42
Figura 10.8 - Modulo sommatore

Modulo integratore
Finora si sono incontrate delle configurazioni che presentavano solo ed esclusivamente dei resistori. Ciò non
vieta di poter verificare il comportamento di alcuni dispositivi che presentano anche dei componenti come, ad
esempio, condensatori. A tal proposito si considera il modulo integratore, ossia un dispositivo che, sulla
retroazione negativa, non presenta un resistore ma un condensatore.

Figura 10.9 - Modulo integratore

Quando si ha un dispositivo di questo tipo ciò che cambia è il calcolo della corrente di retroazione perché, in
questo caso, non avendo un resistore in retroazione allora non bisogna applicare la Legge di Ohm (né
tantomeno servono i fasori). Ricordando il legame tra la tensione e la corrente che è c’è ai capi di un
condensatore:

43
𝑑𝑉
𝐼=𝐶
𝑑𝑡

Questa configurazione prende il nome di modulo integratore e così come è stata presentata essa non funziona
perché, essendo ideale, fornendo in ingresso una tensione costante allora nel momento in cui si ha un po' di
offset, proprio perché la tensione di ingresso è costante, esso satura. Per far sì che ciò non accada si aggiunge
un resistore in parallelo al condensatore il quale fa sì che la componente continua non abbia un guadagno
infinito.
Se si invertono resistenza e capacità si ottiene il modulo derivatore. Il modulo derivatore è un dispositivo che
difficilmente si utilizza perché è caratterizzato da elevate componenti di rumore.

44
Lezione 11 (21.10.2016)

Voltmetro numerico
Un voltmetro, oggi, si implementa utilizzando il seguente diagramma a blocchi:

Figura 11.1 - Schema a blocchi per un voltmetro numerico

In tale schema a blocchi si osservano alcuni diversi “componenti” che è bene analizzare:
1. Condizionamento analogico: La fase di condizionamento analogico è quella che si occupa di adattare il
segnale di ingresso ai blocchi che seguono. L’adattamento può riguardare eventuali attenuazioni, se il
segnale è troppo grande, eventuali amplificazioni, se il segnale è troppo piccolo, eventuale filtraggio nel
caso in cui il segnale sia troppo rumoroso, eventuale adattamento di impedenza nel caso in cui ci sia
bisogno di un certo valore di impedenza. Se tutto va bene, a valle del condizionamento analogico sarà
presente una replica del segnale di ingresso scalato di un fattore 𝑘.
2. ADC: il convertitore analogico-digitale si occupa di prendere un valore di tensione e di farlo diventare
un numero. I convertitori hanno come risultato numeri che sono interi.
3. μP: il microprocessore è il dispositivo in grado di elaborare i numeri ad esso forniti dal convertitore
analogico-digitale. Esso può effettuare delle elaborazioni numeriche in modo da portare poi in
visualizzazione il risultato.
Con questo schema di principio si realizzano moltissimi strumenti come i voltmetri o, generalizzando, i
multimetri, ossia quegli strumenti in grado di misurare più grandezze come, ad esempio, tensione, corrente,
valori di resistenza, etc. I multimetri sono caratterizzati da uno schema fatto nel modo che segue:

45
Figura 11.2 - Schema di un multimetro numerico

Lo schema presentato in Figura 11.2 è lo schema di uno strumento reale. Lo strumento presenta diversi morsetti
di ingresso, in particolare è possibile utilizzare i morsetti 1 e 2 sia per misure di tensione che per misure di
resistenza, i morsetti 2 e 3’ per misure di corrente fino a 100𝑚𝐴 e i morsetti 1 e 3 per correnti fino a 10𝐴.
Si comincia con lo studiare tale schema prendendo in considerazione il percorso che ha una tensione in
ingresso. Il primo dispositivo che si incontra è il multiplexer (switch), ossia una rete logica che presenta più
ingressi e che instrada in uscita qualcuno di essi. In particolare, nella configurazione base, il multiplexer prende
la tensione e la invia all’amplificatore, dopo di che è presente un blocco di conversione analogico-digitale, un
blocco di elaborazione dei dati che porta poi alla visualizzazione. Questo tipo di percorso è unicamente per
tensione di tipo continuo perché se la tensione è tipo alternato c’è un blocco differente che si occupa di
effettuare la conversione da alternata in continua. Questo perché il convertitore che è presente all’interno del
multimetro è un convertitore per la continua. In effetti il blocco presenta in ingresso una sinusoide mentre in
uscita vi è un valore continuo pari al valore efficace della stessa sinusoide.
Un po' diverso è, invece, il percorso della corrente perché, come si è già visto prima, bisogna avere un ingresso
collegato al morsetto 3 oppure al morsetto 3’, ossia dei morsetti differenti rispetto a quelli utilizzati per la
tensione. A tali morsetti sono però presenti dei resistori e sapendo che una corrente che attraversa una
resistenza diventa una tensione allora, conoscendo il valore della resistenza, si effettua una misura di tensione
e ne si deduce quale sia il valore della corrente. In effetti la resistenza che è presente ai terminali dove ci si
collega per poter poi misurare un valore di corrente non è altro che la resistenza che viene utilizzata, come si
è già visto nelle lezioni precedenti, per poter far funzionare un voltmetro anche da amperometro. Le resistenze
si riscaldano in maniera differente a seconda del fatto se sono attraversate da piccole correnti o meno e, per tal
motivo, esse devono avere un livello di dissipazione differente. Il motivo per il quale vi sono due resistori, e
quindi due terminali, è proprio legato al fatto che se si vogliono misurare livelli di corrente più alti allora è
bene utilizzare il resistore più grande, più grande non solo dal punto di vista numerico ma anche da punto di
vista fisico. Alcuni resistori presentano addirittura delle superfici alettate così da aumentare l’area della
superficie di scambio e favorire quindi la dissipazione del calore.
46
Da quanto detto si evince che, indipendentemente dal fatto che si debba effettuare una misura di tensione
oppure una misura di corrente, il principio di funzionamento del multimetro numerico è fondamentalmente
sempre lo stesso.
Questo dispositivo è anche in grado di misurare valori di resistenze misurando sempre e solo tensione. Questo
perché esso presenta, nella parte superiore, un generatore di corrente che, iniettando una corrente contente,
misurando la tensione, di conoscere quanto vale la resistenza collegata e che si intende misurare. Il generatore
di corrente può essere in grado di iniettare sia corrente continua che corrente alternata e, in quest’ultimo caso,
il dispositivo può essere utilizzato anche per misurare valori di impedenza.
Altri ancora presentano dei sensori di luminosità o di temperatura ed a seconda della luminosità e della
temperatura essi sono in grado di generare una certa tensione. C’è quindi un cuore che consente di effettuare
delle misure di tensione in continua grazie alle quali si riescono ad ottenere molte altre prestazioni. Presentato
il multimetro e le scatole che lo rappresentano è bene ora iniziare ad aprire ciascuna di queste scatole in modo
tale da capire come sono fatte all’interno.

Conversione analogico-digitale
I segnali di natura fisica sono di tipo tempo-continui e sono caratterizzati dall’avere anche un’ampiezza di tipo
continua. Questa definizione significa che in tutti gli istanti di tempo è possibile trovare un valore del segnale
e quindi delle informazioni e tali informazioni sono appartenenti all’insieme dei numeri reali. Approfondendo
un attimo questo argomento è possibile affermare come ciò non sia esattamente vero poiché la meccanica
quantistica dimostra che tutte le grandezze sono a piccoli salti però per la percezione umana, e per i sensi di
comune utilizzo, l’essere umano ha una percezione di fluire continuo, sia nel dominio del tempo che nel
dominio delle ampiezze. Un segnale che risulta essere continuo sia dal punto di vista temporale che dal punto
di vista delle ampiezze risulta essere non analizzabile poiché esso presenta infinite informazioni sull’asse dei
tempi ed infinite informazioni sull’asse delle ampiezze. Bisogna quindi cercare di semplificare questo segnale
e la semplificazione è tipicamente frutto di due operazioni: la prima operazione prende il nome di
campionamento e mantenimento, la seconda prende il nome di quantizzazione e, tipicamente, le due operazioni
sono solitamente effettuate da un unico dispositivo, ossia il convertitore analogico-digitale. Tipicamente questi
dispositivi hanno in ingresso una tensione e se questa tensione è continua allora restituiscono un solo valore,
se, invece, questa tensione è fluttuante, tempo-variante, questi forniscono una serie di valori.
Il campionamento ed il mantenimento, anche chiamato sample and hold, consiste nel discretizzare l’asse dei
tempi. Ciò significa che, siccome non si è interessati a tutte le informazioni presenti in tutti gli istanti di tempo
ma solo ad informazioni presenti ogni certo periodo, si catturano delle informazioni solo ogni certo periodo.
Ciò che si fa è dunque prendere un valore e mantenerlo costante fino a quando non si giunge ad un nuovo
valore al quale si è interessati. Tipicamente, gli intervalli di tempo in cui si esegue questa operazione sono tutti
uguali ed il campionamento che si effettua prende il nome di campionamento a passo costante. Non è detto
che il campionamento a passo costante sia il migliore per tutti i tipi di segnale perché, in realtà, se il segnale

47
cambia lentamente è inutile prendere informazioni troppo spesso, se invece un segnale cambia velocemente
allora è necessario prendere in considerazione un passo di campionamento più lungo.

Figura 11.3 - Sampling and hold

In definitiva, il sampling and hold è quindi un dispositivo che, quando viene attivato da un impulso di
campionamento, legge un valore e lo mantiene costante fino al prossimo impulso di campionamento. Nel
momento in cui si effettua il sampling and hold ciò che cambia è la quantità di informazione che si considera
nel senso che, nel momento in cui, lo si effettua si hanno informazioni non più tempo continue ma delle
informazioni ad ogni passo di campionamento. Ciò consente di gestire in maniera sempre più ottimale
l’informazione con la quale si sta lavorando. Dal punto di vista della qualità, tanto più piccolo è il passo di
campionamento e tanto migliore è la qualità dell’informazione, tanto più piccolo è però il passo di
campionamento e più si rischia di prendere in considerazione un numero molto elevato di punti e quindi una
quantità massiccia di informazioni che risulterebbe essere, ancora una volta, difficilmente gestibile. Ci si pone
quindi il problema relativo a con che passo bisogna campionare. Nella fattispecie, attraverso quello che va
sotto il nome di Teorema di Shannon o Criterio di Nyquist, si è stabilito che un corretto campionamento si ha
nel momento in cui si prende in considerazione una frequenza di campionamento uguale o maggiore alla
frequenza del segnale col quale si sta lavorando:

𝑓𝑐 ≥ 2𝑓𝑠

Se si hanno segnali che hanno segnali a bassa frequenza allora è possibile campionare con lentezza, se invece
si hanno dei segnali ad alta frequenza allora bisogna campionare velocemente.
Dopo aver semplificato l’asse dei tempi non rimane altro che semplificare anche l’asse delle ampiezze. Per
poter fare ciò si utilizza lo stesso tipo di approccio utilizzato per l’asse dei tempi, e cioè prendere in
considerazione una serie di valori discreti anche sull’asse delle ampiezze. Questo tipo di azione prende il nome
di quantizzazione e consiste in un’operazione matematica di arrotondamento.

48
Figura 11.4 – Quantizzazione

Quello che si fa è scegliere una quantità minima, che prende il nome di quanto (∆), ed arrotondare le ampiezze
ad un multiplo intero di ∆. Quello che si fa è andare a vedere se i campioni che si prendono in considerazione
sono più vicini a ∆, 2∆, 3∆ e così via. In questo modo l’informazione diventa più facile da gestire perché in
base alla vicinanza ai diversi quanti esse vengono arrotondate a ±1∆. Se, ad esempio, si ha un segnale avente
un campione che ha un’ampiezza vicina a 2∆ allora quest’ultimo viene approssimato proprio a 2∆.
Nel momento in cu si effettuano il campionamento e la quantizzazione è bene chiedersi se si ha una perdita di
informazioni o meno. In generale, se si riesce a progettare un sistema con un opportuno passo di
campionamento e con un opportuno livello di quantizzazione allora l’informazione che si ottengono risultano
essere esattamente le stesse del segnale di partenza. Detto come avviene l’operazione di quantizzazione, è bene
ora andare ad esaminare quest’ultima anche dal punto di vista matematico. Il quantizzatore ipotizza di lavora
con un segnale costante fornitogli dall’operazione di campionamento e mantenimento precedentemente
effettuata sul segnale di partenza. Il quantizzatore è strutturalmente costruito per effettuare la seguente
operazione matematica:

𝑉𝑖𝑛
𝐿 = 𝑟𝑜𝑢𝑛𝑑 ( )

In pratica esso non fa altro che effettuare il rapporto tra la tensione di ingresso ed il quanto, ossia la più piccola
quantità che si intende misurare diversa da zero. In rapporto che se ne ricava è un numero decimale che deve
essere arrotondato così da conservare ciò che è interessante tenere in funzione dell’analisi sul segnale di
partenza che si intende effettuare. Ogni campione della forma d’onda è quindi un numero intero, 𝐿.
L’arrotondamento può essere effettuata in tre differenti modi: per difetto, per eccesso oppure arrotondamento
al più vicino. L’arrotondamento più semplice da fare è sicuramente l’arrotondamento per difetto, essa però
presenta una deviazione sistematica. L’operazione per poter calcolare il ∆ è abbastanza semplice e risiede nel
fatto che, siccome si hanno un certo numero di valori del segnale di ingresso divisi in 𝑛 livelli, ed avendo
ciascuno di essi un’ampiezza pari ad un livello, allora si ottiene un’ampiezza pari al rapporto tra il massimo
valore ed il numero di livelli:

49
𝑉𝐹𝑆
∆=
𝑁𝑀𝐴𝑋

Il calcolo del ∆ è corretto solo nel momento in cui si sta effettuando una quantizzazione di tipo unipolare (molti
dei convertitori economici sono unipolari. Anche il convertitore di Arduino è unipolare). Nel caso di
quantizzazione bipolare, siccome bisogna considerare il doppio della tensione, il calcolo da effettuare è:

2𝑉𝐹𝑆
∆=
𝑁𝑀𝐴𝑋

Questo perché il range è il doppio e cioè va da −𝑉𝐹𝑆 a +𝑉𝐹𝑆 .


Si sono introdotti i concetti di campionamento e mantenimento e di quantizzazione per poter studiare i
convertitori numerici. I convertitori che si studieranno sono:
1. Convertitore a rampa numerica.
2. Convertitore ad integrazione.
3. Convertitore a doppia rampa (o a doppia integrazione).
Alcuni di questi convertitori stanno subendo un’evoluzione tecnologica. I convertitori a rampa numerica non
vengono più utilizzati perché oramai ci sono delle tecnologie più economiche, i convertitori ad integrazione
vengono mediamente utilizzati, i convertitori a doppia rampa sono frequentemente utilizzati. L’idea alla base,
presente in gran parte dei convertitori, è quella di trasformare la tensione in un intervallo di tempo. Questo
perché il tempo è la grandezza fisica per la quale si riescono ad effettuare delle misure con un grado di
precisione, e quindi con una accuratezza, decisamente migliore rispetto alle altre unità di misura. Di
conseguenza, se si riescono ad effettuare delle misure di tempo precisissime si riesce, in seconda battuta, ad
effettuare anche delle misure di tensione precisissime.

Convertitore DAC (Convertitore Digitale-Analogico)


Per poter capire come funziona un convertitore analogico-digitale è bene specificare che tale dispositivo lavora
con in ingresso un numero e che fornisce in un’uscita una tensione continua che risulta essere proporzionale
al numero posto in ingresso. Questo dispositivo presenta in ingresso una tensione di riferimento, presenta un
certo numero di linee, che rappresentano un codice binario (8 linee, 16 linee, …), e presenta un piedino di
uscita sul quale viene riportata una tensione. Quando sulle linee binarie ci sono tutti zero allora l’uscita sarà
zero, quando sulle uscite binarie ci sono tutti uno allora l’uscita risulterà essere pari a 𝑉𝑅𝐼𝐹 , ovvero la tensione
con la quale il convertitore viene fatto funzionare.

50
Figura 11.5 - Convertitore analogico-digitale

I valori intermedi, ossia i valori compresi tra 0 e 𝑉𝑅𝐼𝐹 , è possibile calcolarli facendo riferimento alla seguente
relazione:

𝑉𝑅𝐼𝐹
𝑉𝑂𝑈𝑇 = ∙𝐿
𝐿𝑀𝐴𝑋

Il quanto del convertitore che si sta studiando, che si ricorda essere un convertitore digitale-analogico, è pari
proprio a:

𝑉𝑅𝐼𝐹
𝐿𝑀𝐴𝑋

È possibile immaginare l’interno di un convertitore digitale analogico come un insieme di moduli sommatori

Figura 11.6 - Interno di un convertitore digitale-analogico

In questo modo si ha un dispositivo con una tensione di riferimento che, in base ad un codice numerico, tira
fuori una tensione arbitraria. Se la tensione 𝑉𝑅 è estremamente stabile allora in uscita si otterrà una tensione di
uscita estremamente stabile, viceversa, se la tensione 𝑉𝑅 è estremamente rumorosa, allora si otterrà una
tensione di uscita estremamente rumorosa.
51
Convertitore a rampa digitale
Detto del convertitore digitale-analogico, si supponga ora di collegare tale dispositivo ad un contatore, ossia
un oggetto che ogni qualvolta viene sollecitato, esso incrementa un conteggio, tipicamente in binario. Ciò
significa che, quando inizialmente un contatore è resettato allora esso presenta in uscita un codice binario in
cui ci sono tutti zero ed all’ l’aumentare del numero di sollecitazioni esso presenterà in uscita il numero binario
corrispondente al numero di sollecitazioni avute (1 sollecitazione⇒000…1, 2 sollecitazioni⇒000…10, etc).
Siccome si è ipotizzato di collegare un convertitore digitale-analogico ad un contatore allora il codice in uscita
dal contatore viene posto in ingresso ad un convertitore digitale-analogico il quale 1 quanto quando esso
presenta un codice binario corrispondente ad 1, 2 quanti quando esso presenta un codice binario corrispondente
a 2, e così via. Quello che si ottiene è una rampa digitale caratterizzata da gradini la cui ampiezza risulta essere
pari a:

𝑉𝑅𝐼𝐹
𝑁𝑀𝐴𝑋

Figura 11.7 - Convertitore a rampa numerica

È bene specificare che finora non si è effettuata alcuna misura ma si sono semplicemente messi insieme alcuni
dispositivi elettronici. Si ha uno strumento di misura nel momento in cui si aggiunge una tensione di ingresso
che viene confrontata con la rampa tramite un comparatore e nel momento in cui l’uscita di quest’ultimo viene
inviata ad una logica di controlla che pilota, che instrada, il clock verso il contatore. Ciò che accade è che
avvengono dei continui confronti tra la tensione di ingresso posta sul morsetto positivo del comparatore e
l’uscita del convertitore digitale-analogico che è posta in ingresso al comparatore sul morsetto invertente. La
logica di controllo provvede a verificare se la rampa numerica, che si genera per via dell’incrementarsi del
codice binario del contatore, e che viene poi fornito al comparatore attraverso il convertitore digitale-analogico,
supera il valore della tensione di ingresso fornita. Nel momento in cui ciò accade allora il processo si
interrompe in quanto il superamento della rampa nei confronti della tensione di ingresso significa l’aver trovato
un valore che risulta essere certamente superiore rispetto alla stessa tensione di ingresso. Si è così creato un

52
convertitore a rampa numerica e risulta essere un dispositivo in grado di effettuare delle misure di tensione
approssimando queste ultime per eccesso. È bene tenere presente che il clock che si utilizza per questo
dispositivo non è molto svelto (e non deve esserlo), infatti si è nell’ordine dei 10𝑘𝐻𝑧. Questo perché bisogna
aspettare che il contatore reagisca, che incrementi il risultato, che il convertitore reagisca, che fornisca l’uscita,
che funzioni il comparatore e che il risultato della comparazione arrivi alla logica di controllo. Se prima di
terminare l’intero giro si fornisce un nuovo colpo di clock allora si rende instabile l’intero sistema. Un clock
troppo veloce genere instabilità del sistema. Inoltre il tempo di conversione dipende dal numero di bit del
convertitore digitale-analogico.
Il convertitore presentato è un convertitore molto vecchio perché è estremamente lento e proprio per questo
motivo si è provveduto ad una modifica di tale strumentazione. Quest’ultima è consistita nel prendere un
contatore up-down, ossia un contatore in grado di contare sia all’insù che all’ingiù.

Figura 11.8 - Convertitore a rampa numerica con contatore up-down

Utilizzando questo stratagemma, dopo il transitorio iniziale in cui si impiega del tempo a raggiungere il valore
di ingresso, questo nuovo dispositivo, che prende il nome di Voltmetro ad inseguimento, si comporta come
un inseguitore della tensione. Per piccole variazioni di segnale, il voltmetro ad inseguimento era in grado di
fornire dei valori digitali, dello stesso segnale, in maniera estremamente rapida. Questa variante presentava
comunque dei problemi relativi al fatto di avere dei tempi di conversione variabili a seconda della forma
d’onda.
La versione tutt’ora in utilizzo in alcuni convertitori è quella che viene chiamata SAR (registro ad
approssimazioni successive). Lo schema di un voltmetro SAR è identica ad un voltmetro a rampa, ciò che
cambia è la logica.

53
Figura 11.9 - Voltmetro SAR (registro circolare invece che il contatore)

La prima operazione che si fa effettuare ad un voltmetro SAR è quella di alzare il bit più significativo, logica
diametralmente opposta rispetto a quanto visto finora. Fare questo significa che il primo quanto non sarà pari
ad 1 quanto ma risulterà essere pari a 2𝐵−1 quanti. 2𝐵−1 corrisponde al codice numerico che ha un il bit più
significativo posto ad 1 e se il codice lo si va a calcolare esso corrisponde, circa, a:

𝑁𝑀𝐴𝑋
2

Ciò significa che la tensione di uscita risulterà essere pari a:

𝑉𝑅𝐼𝐹 𝑉𝑅𝐼𝐹 𝑉𝑅𝐼𝐹 𝑉𝑅𝐼𝐹


𝑉𝑂𝑈𝑇 = ∙ 𝐿 ⟹ 𝑉𝑂𝑈𝑇 = 𝐵 ∙ 2𝐵−1 ⟹ 𝑉𝑂𝑈𝑇 = 𝐵 ∙ 2𝐵 ∙ 2−1 ⟹ 𝑉𝑂𝑈𝑇 =
𝐿𝑀𝐴𝑋 2 −1 2 2

In questo modo, al primo passo, si va a confrontare la tensione di ingresso con metà del fondo scala. È come
se si stesse lavorando con un algoritmo di ricerca. A questo punto si possono verificare due cose e cioè o la
tensione di ingresso è ancora più alta oppure la tensione di ingresso è più bassa. Supponendo che la tensione
di ingresso sia ancora più alta allora quello che si fa è lasciare il primo bit ad 1 e si alza il secondo bit. In questo
modo la tensione di uscita risulterà essere:

𝑉𝑅𝐼𝐹 𝑉𝑅𝐼𝐹
𝑉𝑂𝑈𝑇 = +
2 4

Dove il primo addendo è dato dal primo bit più significativo mentre il secondo addendo è dato dal secondo bit
più significativo. A questo punto, se la tensione supera, si azzera l’ultimo bit che si è incrementato (in questo

54
caso il secondo bit più significativo) e si alta il bit successivo (in questo caso il terzo bit più significativo). In
questo modo l’incremento risulterà essere uguale a:

𝑉𝑅𝐼𝐹
8

In pratica la regola è la seguente: si effettua il tentativo di mettere un 1 nella posizione più significativa, se il
valore è troppo alto allora tale bit lo si riporta a zero alzando il bit successivo e se, invece, la tensione è ancora
bassa si lascia il valore del bit alzato ad 1 e si passa ad alzare il bit successivo. Questo cambio di punto di vista
fa sì che cambino anche le prestazioni poiché si riduce il tempo di conversione perché, al più, si effettuano 𝐵
tentativi, ci saranno, al massimo 𝐵 colpi di clock. In questo caso non c’è da salire la rampa con 2𝐵 gradini ma,
in effetti, si ha solo 𝐵 operazioni e che sono sempre le stesse. Si è così aumentata in maniera esponenziale la
velocità con la quale si lavora e il tempo di conversione è sempre lo stesso perché in tutti i casi si effettuano i
𝐵 confronti. La stabilità, sia della tensione di riferimento che della tensione di ingresso è fondamentale perché
se, putacaso, si sbaglia un confronto automaticamente risulteranno essere sbagliati anche gli altri confronti che
si effettueranno con tutti i bit presenti successivamente. La stabilità può essere alterata o perché la tensione di
ingresso non è stabile o perché la tensione in uscita convertitore digitale-analogico si presenta con delle
fluttuazioni. Entrambe le tensioni devono essere mantenute estremamente stabili e tale stabilità può essere
ottenuta con dei sampling and hold, ossia con dei dispositivi in grado di mantenere costante il segnale per tutto
il tempo che serve per poter effettuare la conversione. Il voltmetro SAR è un convertitore semplice perché si
compone di pochi pezzi, è economico ed ha poche parti che portano incertezza. La velocità del voltmetro SAR
dipende dal fatto che, prima di effettuare un nuovo passo, ossia una nuova operazione, tutti i blocchetti devono
arrivare a regime. Ciò significa che bisogna aspettare prima che tutti i dispositivi svolgano il proprio dovere,
dopo di che è possibile inviare un successivo colpo di clock così da effettuare una nuova operazione. Questo
tipo di procedura limita il funzionamento di tale convertitore perché questi dispositivi lavorano con frequenze
dell’ordine dei 𝑀𝐻𝑧 mentre i moderni convertitori lavorano con frequenze che sono dell’ordine dei 𝐺𝐻𝑧. Più
preciso è il convertitore digitale analogico e più preciso risulterà essere il SAR. In realtà i convertitori digitali
analogici non si riescono a fare a più di 16 bit ciò significa gestire 216 livelli.

55
Lezione 12 (24/10/2016)

Voltmetro ad integrazione semplice


Si consideri un segnale di ingresso costante (il segnale può essere anche tempo-variante, in tal caso il voltmetro,
in uscita, fornirà il valor medio del segnale posto in ingresso che, nel caso di una sinusoide, è bene ricordare
che risulta essere pari a zero), un secondo segnale inizialmente nullo e si costruisca un dispositivo in grado di
effettuare la somma tra questi due segnali. Tale dispositivo può essere banalmente costruito attraverso un
operazionale che presenta due resistenze, rispettivamente collegate a 𝑉1 ed a 𝑉2 , ossia attraverso la costruzione
di un modulo sommatore, modulo che, così come il modulo integratore, risulta essere un modulo invertente.
Ricordando che l’integrale di una costane è pari ad una rampa allora quest’ultima, a causa del segno meno
dovuto al fatto che i moduli, il modulo sommatore ed il modulo integratore, che si stanno utilizzando sono
invertenti, inizierà ad assumere dei valori sempre più negativi. Supponendo di aver posto una soglia di
attenzione a −𝑉𝑘 , nel momento in cui la rampa negativa giunge a tal valore allora la tensione 𝑉2 diventa diversa
da zero, in particolare per un intervallo 𝑡1 . Quello che accade è che, se 𝑉2 è scelto opportunamente, e cioè più
grande della tensione di ingresso, allora la somma 𝑉1 + 𝑉2 diventa negativa e col segno meno davanti
dell’integratore allora tutto l’integrale risulterà avere una pendenza rivolta verso l’alto. La durata della rampa
in salita dipenderà da 𝑡1 e da −𝑉𝑝 .

Figura 12.1 - Principio di funzionamento del voltmetro ad integrazione

Dopo che è passato l’intervallo 𝑡1 , il valore 𝑉2 torna a zero e resta soltanto il valore 𝑉1 che, cocciutamente,
riporta nuovamente il valore dell’integrale verso la soglia −𝑉𝑘 . Nel momento in cui si arriva alla soglia scatta
lo stesso meccanismo precedentemente avvenuto e per il quale la rampa risulta essere nuovamente rivolta verso
l’alto e non più verso il basso. Questo tipo di processo consente di verificare quando vale la tensione 𝑉𝑥
effettuando una misura di frequenza. È possibile dimostrare quanto detto focalizzando l’attenzione su uno dei
triangolini che si genera tralasciando la fase inziale e considerando solo il momento in cui comincia il treno di
impulsi dovuto alla tensione 𝑉2 .

56
Figura 12.2 - Principio di funzionamento del voltmetro ad integrazione

I triangolini sono fatti in modo tale che si scende della stessa quantità con la quale si sale. Per tale motivo è
possibile scrivere un’uguaglianza tra l’integrale in salita e l’integrale in discesa chiamando 𝑡1 la durata
dell’impulso negativo, 𝑡2 come il tempo che serve al rimanifestarsi dell’impulso e con 𝑡1 + 𝑡2 il periodo del
treno di impulsi, ossia il periodo dell’onda quadra. Per poter proseguire la dimostrazione è bene ricordare che
𝑉𝑜𝑢𝑡 di un integratore è pari a:

∆𝑡
1
𝑉𝑜𝑢𝑡 =− ∫ 𝑉𝑖𝑛 𝑑𝑡
𝑅𝐶
0

E che il valor medio di un segnale è definito come:

∆𝑇 ∆𝑇
1
̅̅̅̅
𝑉𝑖𝑛 = ∫ 𝑉𝑖𝑛 𝑑𝑡 ⇒ ̅̅̅̅
𝑉𝑖𝑛 ∙ ∆𝑇 = ∫ 𝑉𝑖𝑛 𝑑𝑡
∆𝑇
0 0

È possibile mettere insieme queste due equazioni ottenendo:

1
𝑉𝑜𝑢𝑡 = − ∙ ̅̅̅̅
𝑉 ∙ ∆𝑇
𝑅𝐶 𝑖𝑛

È bene però fare attenzione perché se 𝑉𝑖𝑛 è costante questa la si porta fuori dal segno di integrale ottenendo
così 𝑉𝑖𝑛 ∙ ∆𝑇, ma se 𝑉𝑖𝑛 non è costante, sfruttando la definizione di valor medio, la 𝑉𝑜𝑢𝑡 è ancora uguale a 𝑉𝑖𝑛 ∙
∆𝑇, solo che il 𝑉𝑖𝑛 non sarà un valore istante per istante ma risulterà essere il suo valore medio. Quindi, il
voltmetro ad integrazione restituisce un segnale costante se il segnale di ingresso è costante oppure restituisce
il valor medio del segnale di ingresso se quest’ultimo non è costante. Le relazioni che si ottengono, sfruttando
direttamente la nuova relazione di 𝑉𝑜𝑢𝑡 , rispettivamente per la salita e la discesa, sono:

𝑉𝑝 𝑉𝑥
∆𝑉𝑠 = ∙ 𝑡1 − ∙𝑡
𝑅1 𝐶 𝑅2 𝐶 1

57
In salita si hanno due componenti, sia la 𝑉𝑥 , che spinge verso il basso, sia la 𝑉𝑝 che spinge verso l’alto. Siccome
si è ipotizzato 𝑉𝑝 ≫ 𝑉𝑥 allora vince la fase di rimbalzo e per questo motivo si ha pendenza positiva. Se 𝑉𝑥 è
costante allora va bene scriverlo nel modo in cui si è fatto, in caso contrario bisognerebbe scriverlo col
cappelletto così da indicare il valor medio. È possibile prendere le resistenze con valori differenti e per tal
motivo sono state chiamate 𝑅1 ed 𝑅2 rispettivamente. Per la discesa:

𝑉𝑥
∆𝑉𝑑 = ∙𝑡
𝑅2 𝐶 2

Durante la discesa c’è il solo 𝑉𝑥 per un intervallo di tempo 𝑡2 . Siccome si è sceso della stessa quantità con cui
si è salito allora le due variazioni sono uguali, per cui:

𝑉𝑝 𝑉𝑥 𝑉𝑥
∙ 𝑡1 − ∙ 𝑡1 = ∙𝑡
𝑅1 𝐶 𝑅2 𝐶 𝑅2 𝐶 2

Portando la 𝑉𝑥 tutta da un lato, la 𝑉𝑝 dall’altro e mettendo a fattor comune:

𝑉𝑥 𝑉𝑥 𝑉𝑝 𝑉𝑥 𝑉𝑝
∙ 𝑡2 + ∙ 𝑡1 = ∙ 𝑡1 ⇒ ∙ (𝑡1 + 𝑡2 ) = ∙𝑡
𝑅2 𝐶 𝑅2 𝐶 𝑅1 𝐶 𝑅2 𝑅1 1

(𝑡1 + 𝑡2 ) rappresenta il periodo del treno di impulsi. Risolvendo tutto rispetto a 𝑉𝑥 si ricava che la tensione di
ingresso è data da:

𝑅2 1 𝑅2
𝑉𝑥 = 𝑉𝑝 ∙ 𝑡1 ∙ ∙ ⇒ 𝑉𝑥 = 𝑉𝑝 ∙ 𝑡1 ∙ ∙𝑓
𝑅1 (𝑡1 + 𝑡2 ) 𝑅1

Tale relazione si compone di fattori che vengono tutti progettati dal costruttore, meno della frequenza. Dunque,
siccome si conoscono 𝑉𝑝 , 𝑡1 , 𝑅2 ed 𝑅1 allora è sufficiente misurare 𝑓 per poter avere una misura indiretta di
𝑉𝑥 . Per misurare 𝑓, tipicamente, si prende un intervallo di tempo e si contato, in quello stesso intervallo di
tempo, quanti impulsi sono arrivati. Se, ad esempio, in 1 secondo si contano 50 impulsi allora la frequenza del
segnale col quale si sta lavorando è pari a 50Hz. Il calcolo, in generale, è pari a:

𝑁𝑈𝑀𝐸𝑅𝑂 𝐷𝐼 𝐼𝑀𝑈𝐿𝑆𝐼 𝐿
𝑓= =
𝐼𝑁𝑇𝐸𝑅𝑉𝐴𝐿𝐿𝑂 𝐷𝐼 𝑇𝐸𝑀𝑃𝑂 𝑇𝑜𝑛

È possibile sostituire questa relazione all’interno dell’equazione di 𝑉𝑥 così da ottenere la relazione finale:

𝑅2 𝐿 𝑡1 𝑅2
𝑉𝑥 = 𝑉𝑝 ∙ 𝑡1 ∙ ∙ ⇒ ∆V = 𝑉𝑝 ∙ ∙
𝑅1 𝑇𝑜𝑛 𝑇𝑜𝑛 𝑅1

Contando semplicemente quanti impulsi ci sono nell’intervallo di tempo considerato si riesce a capire quanto
vale 𝑉𝑥 . Questo è uno strumento digitale perché la 𝐿 è un paramento che può variare solo in maniera discreta
(0, 1, 2, 3, …, n). Il più piccolo che si può misurare quindi quello per cui 𝐿 = 1. È quindi possibile progettare
tutti i parametri in modo tale da rendere ∆V, quella che viene genericamente chiamata risoluzione, che si
preferisce. Generalmente sarebbe buona cosa rendere ∆V il più piccolo possibile e per fare questo, è possibile

58
giocare su tutti i parametri progettati. Il problema sta però nel fatto che non tutti i parametri consentono di
ottenere delle buone prestazioni nel momento in cui essi vengono cambiati. Nella fattispecie, per poter rendere
∆V il più piccolo possibile si potrebbe diminuire 𝑉𝑝 ma facendo ciò si limita il fondo scala dello strumento in
quanto precedentemente, per ipotesi, si è assunto 𝑉𝑝 ≫ 𝑉𝑥 . È dunque possibile farlo ma fino ad un certo valore
oltre il quale non è possibile spingersi. Si potrebbe fare 𝑅2 ≫ 𝑅1 ma tale modifica, nel momento in cui i
resistori diventano di ordine di grandezza differenti, comporta un aumento dell’incertezza perdendone quindi
di qualità in termini di risultato. Si potrebbe diminuire 𝑡1 ma una sua modifica molto forte potrebbe comportare
una diminuzione sostanziale della fase di salita tale da non essere poi compensata dalla fase di discesa. Inoltre
non è possibile nemmeno allungare troppo il 𝑇𝑜𝑛 per ragioni di stazionarietà del segnale. Dal confronto di tutti
questi compromessi si riesce ad ottenere la progettazione di un voltmetro ad integrazione semplice. Un
voltmetro ad integrazione semplice è un dispositivo che può lavorare anche fino a 20 bit, ciò significa che esso
è in grado di arrivare fino a 220 come livelli di quantizzazione.
Lo schema circuitale che riesce ad implementare un voltmetro ad integrazione semplice è il seguente:

Figura 12.3 - Schema di un voltmetro ad integrazione semplice

Tale schema è molto semplice e porta nel cuore un integratore con in ingresso una configurazione sommatore.
𝑉𝑥 là si collega ad una resistenza e la 𝑉𝑝 là si collega ad un’altra resistenza. Il nodo lo si dà in ingresso ad una
configurazione integratore. L’uscita la si collega a due comparatori di cui uno ha una soglia su −𝑉𝑘 e l’latro
con una soglia su +𝑉𝑘 . Si considerano −𝑉𝑘 e +𝑉𝑘 perché l’analisi potrebbe essere effettuata non solo
considerando una tensione di ingresso positiva ma potrebbe essere fatta anche considerando una tensione di
ingresso negativa e quindi una rampa rivolta verso l’alto e non verso il basso. All’uscita dei due comparatori
è presente un generatore di impulsi (onda quadra), ossia quelli in grado di produrre 𝑉𝑝 . L’onda quadra è
presente proprio su 𝑉𝑝 e per sapere che frequenza ha si collega un semplice contatore con un intervallo di tempo
prefissato, il 𝑇𝑜𝑛 .
È possibile verificare quanto vale il valore di fondo scala di un voltmetro ad integrazione semplice. Se la
tensione 𝑉𝑝 non è abbastanza non si ottiene il cambio di pendenza, ossia se la tensione di ingresso è troppo
59
elevata rispetto a 𝑉𝑝 allora la tensione non risale e quindi il tutto non funziona. Bisogna quindi essere sicuri del
fatto che il ∆V𝑠 risulti essere effettivamente maggiore di zero (già zero non va bene bene significherebbe avere
un ∆V che si mantiene costante).

𝑉𝑝 𝑉𝑥 𝑅2
∆𝑉𝑠 = ∙ 𝑡1 − ∙ 𝑡1 > 0 ⇒ 𝑉𝑥 < ∙𝑉
𝑅1 𝐶 𝑅2 𝐶 𝑅1 𝑝

Questa condizione rappresenta esattamente il fondo scala dello strumento ed il blocco al secondo membro
rappresenta il massimo valore di 𝑉𝑥 che consente di avere il cambio di pendenza. Rendere 𝑉𝑝 più piccolo fa
quindi si da rendere il fondo scala più piccolo. Anche 𝑅2 non può essere troppo più piccolo di 𝑅1 perché anche
tale condizione comporterebbe un fondo scala molto piccolo. In teoria il fondo scala è anche limitato dal
massimo valore che è possibile contare e questo problema lo si potrebbe avere utilizzando degli intervalli di
tempo estremamente lunghi. Tuttavia, utilizzare dei contatori con molte cifre non rappresenta un grossissimo
problema. Bisogna però tenere presente che una volta scelto un determinato contatore non è possibile aspettare
più di un certo tempo perché altrimenti il contatore si azzererebbe andando così in overflow. Il tempo di
conversione è sempre lo stesso, 𝑇𝑜𝑛 . Tali dispositivi sono dei convertitori lenti, addirittura si parla di poche
conversioni al secondo poiché il 𝑇𝑜𝑛 viene scelto pari a qualche centinaia di millisecondo, ma estremamente
precisi. Un altro grande vantaggio è dato dal fatto che l’informazione, a valle del dispositivo, è nella frequenza
dell’onda quadra. In generale, quando si trasmettono dei segnali, questi sono sempre caratterizzati da
interferenze le quali fanno sì da perdere molta informazione circa l’ampiezza di quest’ultimo. Ad ogni modo,
anche se si perde informazione circa l’ampiezza, proprio perché il voltmetro ad integrazione semplice è un
dispositivo che ha informazioni nella periodicità dell’onda quadra questo fa sì che l’informazione viene
mantenuta. Questa è una buona cosa quando si devono coprire delle lunghe distanze in quanto l’informazione
è contenuta nella periodicità che viene mantenuta, a differenza dell’ampiezza. Il problema si ha nel momento
in cui il rumore diventa talmente forte tanto da non riuscire più a distinguere gli impulsi dal rumore.
C’è ancora un’altra osservazione da fare. In particolare, se il segnale è costante allora il funzionamento è
esattamente quello che si è appena spiegato. Una situazione molto comune di misura è quella in cui ci si trova
con una informazione in continua a cui è sovrapposto del rumore. In alcuni casi tale rumore è completamente
aleatorio, in alcuni altri casi questo rumore ha un’origine precisa, una causa nota, tanto che si conosce la
frequenza di tale oscillazione. Nemico della componente continua è, normalmente, la frequenza industriale, la
50 𝐻𝑧. A causa degli accoppiamenti elettromagnetici, a causa delle varie non idealità, molto spesso si verifica
che su quella che dovrebbe essere una componente continua si ritrova, invece, una fluttuazione a 50 𝐻𝑧. Questo
non è sempre l’unica fonte di problemi ma è, in molti casi, una fonte di problemi abbastanza interessante.
Contro questo tipo di problemi si ha una buona arma che è possibile giocare. Per capire di cosa si tratta è bene
ricordare che si è precedentemente detto come il periodo di integrazione possa essere scelto dal costruttore e
per tal motivo può essere scelto o un valore qualunque oppure, sapendo che ci sono dei problemi relativi alla
50 𝐻𝑧, la scelta più opportuna sarebbe quella di uguagliare il periodo di integrazione ad un multiplo intero del
periodo della 50 𝐻𝑧. In questo modo si ha l’azzeramento della componente a 50 𝐻𝑧. Questa è un’arma

60
fortissima è per tutti gli integratori i progettisti tendono a fare questa scelta. Resta però il problema relativo
agli altri rumori, che sono a frequenze casuali, che non vengono annullati. In realtà, gli altri rumori vengono
comunque attenuati e ciò si ha perchè che nel momento in cui si sceglie un periodo di integrazione pari ad un
multiplo intero del periodo della 50 𝐻𝑧 sì ha un comportamento passa-basso che comunque attenua fortemente
tutte le altre componenti. In definitiva, scegliendo un periodo di integrazione pari ad un multiplo intero della
50 𝐻𝑧 allora la componente a 50 𝐻𝑧 viene cancellata e, in più, tutti i disturbi in alta frequenza sono attenuati
con una pendenza di 20𝑑𝐵/𝑑𝑒𝑐. Tutti i multipli della 50 𝐻𝑧 sì ha un’attenuazione a −∞.
Siccome attraverso il voltmetro ad integrazione semplice si effettua una misurazione indiretta allora per tale
misura è possibile fare un’analisi della propagazione dell’incertezza.

Figura 12.4 - Analisi dell'incertezza per un voltmetro ad integrazione semplice

Questo perché tutti i parametri con i quali si lavora sono dati effetti da una certa incertezza. Le incertezze di
tutti questi termini si propagano sul risultato di misura utilizzando direttamente la notazione semplificata. Non
è infatti conveniente utilizzare le derivate perché, in questo caso, si sta lavorando con prodotti e rapporti che
consentono di semplificare molto l’analisi dell’incertezza. L’unica particolarità sta nel fatto che il rapporto tra
le due resistenze è stato considerato come tale e le due resistenze nono sono state valutate separatamente.
Questo perché, se si riesce, il rapporto tra le resistenze è un rapporto correlato e quindi ci si aspetta che esso
risulti essere trascurabile rispetto agli altri termini della somma. In generale, quindi, 𝑅1 ed 𝑅2 vengono scelti
in modo tale da avere una correlazione tra loro, viene fatto in modo che essi si riscaldino allo stesso modo, etc.
In parole povere si cerca di fare tutto il possibile affinchè considerare il rapporto risulti essere più conveniente
rispetto al considerare le singole resistenze. Riguardo l’incertezza su 𝐿 è bene affermare che, siccome 𝐿
rappresenta un conteggio allora al massimo è possibile sbagliare quest’ultimo di ±1.

61
Lezione 13 (26 ottobre 2016)

Voltmetro a doppia rampa


Il voltmetro a doppia rampa è un dispositivo con il quale si riescono ad ottenere degli elevati livelli di
precisione con dei costi contenuti. Il voltmetro a doppia rampa esegue una doppia integrazione, per questo
motivo esso può essere anche chiamato voltmetro a doppia integrazione. Così come fatto per il voltmetro a
rampa, anche per il voltmetro a doppia rampa si considera come ingresso una costante la quale viene integrata
così da fornire come risultato una rampa. Detto ciò, è facile intuire che per il voltmetro a doppia rampa
bisognerà quindi lavorare con due differenti integrazioni. La prima fase è a tempo prefissato, ciò significa che
è il progettista a decidere quanto tempo deve durare l’integrazione del segnale costante posto in ingresso
(solitamente vengono scelti dei valori come 200ms, 400ms così da riuscire a filtrare i rumori dovuti alla
frequenza domestica pari a 50Hz). Nel momento in cui la rampa, dovuta all’integrazione del segnale costante
posto in ingresso, raggiunge un certo valore, viene staccato il segnale di ingresso costante e viene collegata
una tensione di riferimento avente prestazioni di estrema stazionarietà, ossia una tensione stabile e senza
rumore. Tale tensione viene progettata di segno opposto alla tensione d’ingresso così da avere, nella seconda
fase del lavoro svolto dallo strumento, una rampa opposta rispetto alla rampa ottenuta per mezzo della prima
integrazione. In questo modo, ad esempio, se nella prima fase si è saliti in un certo intervallo di tempo
prefissato, nella seconda fase si scenderà. È lecito chiedersi in che modo si scenderà; in particolare, siccome
la tensione che si utilizza è sempre la stessa, allora la tendenza con cui si scenderà è sempre la stessa.
Chiaramente, a seconda del punto in cui si è arrivati nella prima fase, la fase di discesa sarà caratterizzata da
un intervallo di tempo differente rispetto a quello utilizzato durante la prima fase. L’intervallo di tempo
impiegato dalla rampa per scendere viene misurato e, attraverso tale misura, si ottiene il valore della tensione
posta in ingresso. La fase di discesa termina nel momento in cui la seconda rampa giunge a zero; solo nel
momento in cui ciò accade si effettua la misura. In questo modo, ancora una volta, si è effettuata una misura
di tempo e si è dedotto un valore di tensione.

62
Figura 13.1 - Voltmetro a doppia rampa

Misurando con estrema precisione il tempo impiegato dalla seconda rampa nello scendere (nel nostro caso
scende ma, in generale, essa può anche salire nel caso in cui fosse la prima rampa a scendere) si riesce ad
effettuare una misurazione molto precisa della tensione posta in ingresso allo strumento. È possibile scrivere
le relazioni relative alla fase di salita ed alla fase di discesa:

1
∆𝑉𝑢 = 𝑉̅ 𝑇
𝑅𝐶 𝑥 𝑢

1
∆𝑉𝑑 = 𝑉𝑇
𝑅𝐶 𝑟 𝑑

Nella fase di up, fase di salita, l’unica tensione integrata è quella posta in ingresso, 𝑉𝑥 ; essa viene integrata per
un tempo 𝑇𝑢 . Se 𝑉𝑥 è costante, allora è possibile portare quest’ultima fuori dal segno di integrale; se 𝑉𝑥 non è
costante allora bisogna lavorare col suo valor medio, proprio come fatto nella relazione sopra scritta.
Uguagliando le due relazioni si ottiene che:

1 1 𝑉𝑟 𝑇𝑑
𝑉̅𝑥 𝑇𝑢 = 𝑉𝑟 𝑇𝑑 → 𝑉̅𝑥 =
𝑅𝐶 𝑅𝐶 𝑇𝑢

Da questa nuova equazione si evince come i parametri 𝑅𝐶 si semplificano, il che significa che non è importante
conoscere l’accuratezza relativa al resistore e l’accuratezza relativa al condensatore. Si ottiene una relazione
di misura estremamente scarna in cui la tensione di ingresso, o il suo valore medio 𝑉̅𝑥 , dipende dalla misura di
𝑉𝑟 , la tensione di riferimento che si realizza e che quindi si conosce con una precisione elevata, la misura
dell’intervallo 𝑇𝑑 e la misura dell’intervallo di 𝑇𝑢 , intervallo che si è progettato è del quale si conoscono,
quindi, i minimi dettagli. La misura di 𝑉̅𝑥 dipende quindi da parametri per i quali si conoscono i valori con una
elevata precisione, ciò fa sì che il risultato di misura di 𝑉̅𝑥 risulterà essere estremamente preciso.
Le misure delle quali si è parlato vengono tutte effettuate in maniera digitale attraverso un clock, ciò significa
che il 𝑇𝑢 risulterà essere un certo numero di colpi di clock. Il clock che si utilizza in queste macchine non è lo

63
stesso che si utilizza nei computer, all’interno dei quali vi è un clock estremamente fluttuante, poiché in queste
macchine si ha un clock estremamente stabile che presenta una buona precisione. SI è specificata come la
precisione del clock debba essere buona ma non eccelsa proprio perché per questo tipo di strumento non è
necessario avere un clock con una precisione elevatissima. È bene capire il perché di questa affermazione
definendo la fase di up e la fase di down attraverso il numero di colpi di clock. In particolare, la fase di up, 𝑇𝑢 ,
la si definisce attraverso un certo numero di colpi di clock, la fase di down, 𝑇𝑑 , che non viene progettata, viene
misurata in termini di colpi di clock, colpi di clock che scandiscono il tempo che la rampa in discesa impiega
a raggiungere lo zero (in parole povere, ad ogni colpo di clock sulla fase di down lo strumento si interroga e
verifica se si è raggiunto lo zero o meno; fin quando lo zero non viene raggiunto, ad ogni interrogazione esso
aumenta il numero di colpi di clock).

𝑇𝑢 = 𝑇𝑐 ∙ 𝑁𝑢

𝑇𝑑 ≅ 𝑇𝑐 ∙ 𝑁𝑑

Dalle relazioni si evince che per 𝑇𝑢 c’è l’uguale poiché, siccome il tempo di up viene fornito dal progettista,
esso risulterà essere definito così da lavorare con un numero intero di colpi di clock. La fase di down che, a
differenza della fase di up, viene misurata e non progettata, lavorerà con un numero di colpi di clock che non
è detto che sia un numero intero e, per tal motivo, è bene ipotizzare un arrotondamento (per eccesso o per
difetto) così da essere sicuri di lavorare sempre con un numero intero di colpi di clock, dove l’arrotondamento
corrisponde al meccanismo di quantizzazione del voltmetro a doppia rampa. Utilizzando le relazioni finora
scritte si giunge ad un 𝑉̅𝑥 pari a:

𝑉𝑟 𝑁𝑑
𝑉̅𝑥 =
𝑁𝑢

Il risultato di misura non dipende dal valore del clock e per tal motivo, come detto in precedenza, non è
necessario che quest’ultimo abbia una precisione elevata. La risoluzione di questo strumento è pari a:

𝑉𝑟
𝑁𝑢

Più è piccola tale quantità allora più preciso sarà lo strumento.


Il processo di misurazione di un voltmetro a doppia rampa è estremamente semplice e, allo stesso tempo,
estremamente preciso.
L’unico problema del voltmetro a doppia rampa è legato alla velocità con cui effettua operazioni di
misurazione. Esso è uno strumento molto lento, in grado di effettuare qualche lettura al secondo, e la sua
lentezza deriva dal fatto che per poter completare una misura deve poter eseguire una doppia integrazione.
Questo è quindi uno strumento adatto ad interazioni con l’uomo perché consente, a chi lo utilizza, di poter
prendere appunti circa le misurazioni effettuate.
Anche per i voltmetri a doppia integrazione, una buona scelta del tempo di 𝑇𝑢 è fatta prendendo un multiplo
intero del periodo della frequenza domestica di 50Hz. Così come per il voltmetro a singola rampa, se si va a
64
svolgere l’integrale su un multiplo intero di periodi della 50Hz, l’effetto dell’oscillazione viene cancellato. Ciò
e conveniente e scelte progettistiche si aggirano intorno ai 100ms, 200ms, 400ms. Particolarmente buono è
200ms poiché esso è un multiplo intero sia della 50Hz che della 60Hz; ciò permette di poter commercializzare
uno strumento anche in quei paesi (ed esempio gli Stati Uniti) che utilizzano come frequenza domestica 60Hz
anziché 50Hz.
È bene chiedersi cosa accade alla rappresentazione relativa al voltmetro a doppia rampa (Figura 13.1) nel caso
in cui la tensione di ingresso risultasse essere più piccolo o più grande rispetto a quella rappresentata. Nel caso
in cui la tensione di ingresso fosse maggiore rispetto a quella rappresentata, la pendenza della retta della fase
di up risulterà essere più alta e la fase di up terminerà sempre nello stesso istante poiché essa è definita in un
periodo definito dal progettista. D’altro canto, nel caso in cui la tensione di ingresso risultasse essere più bassa
rispetto a quella rappresentata, allora la pendenza della retta della fase di up risulterà essere minore.

Figura 13.2 - Pendenza della fase di up differente

Nel momento in cui aumenta l’altezza della rampa nella fase di up, aumenta anche il tempo che la rampa nella
fase di down impiega a raggiungere lo zero. Al contrario, nel momento in cui diminuisce l’altezza della rampa
nella fase di down, diminuisce anche il tempo che la rampa nella fase di down impiega a raggiungere lo zero.
In definitiva, il tempo di up è costante, qualunque sia l’ingresso, mentre il valore raggiunto è variabile con
l’ingresso (più è l’ingresso e più sarà alto il valore). La fase di down è invece caratterizzata da una pendenza
costante e da un tempo di discesa più lungo quanto più lungo è il valore dell’ingresso.
È possibile trasformare quanto detto finora in un circuito.

65
Figura 13.3 - Circuito che implementa il voltmetro a doppia rampa

Siccome bisogna fare l’integrale in salita e l’integrale in discesa allora è bene mettere un integratore. In
ingresso all’integratore è bene mettere degli interruttori così da poter permettere all’integratore di vedere in
ingresso la 𝑉𝑥 o la 𝑉𝑟 , a seconda di quale interruttore è aperto e quale è chiuso, così da poter fare sia la fase di
salita che la fase di discesa. Quando si effettua la fase di discesa c’è bisogno di un campanello d’allarme in
grado di segnalare il raggiungimento dello zero da parte della rampa di down. Tale campanello d’allarme può
essere definito attraverso un comparatore in grado di confrontare la tensione che esce dall’integratore con lo
zero. Quando in comparatore segnala l’avvenuta uguaglianza tra la tensione di uscita dell’integratore e lo zero
allora bisogna poter interrompere il conteggio così da poter svolgere la misurazione. L’interruttore in parallelo
al condensatore rappresenta una finezza indispensabile poiché, attraverso la sua chiusura, consente di scaricare
la carica elettrica presente nel condensatore nel momento in cui la rampa della fase di down, nello scendere,
supera lo zero. È importante scaricare la carica residua presente nel condensatore perché se si partisse
immediatamente con una nuova misura, il condensatore contenente una certa carica residua derivante dalla
misura precedentemente effettuata definirebbe un certo errore sistematico che, inevitabilmente, verrebbe
riportato dalla misura che ci si sta apprestando ad effettuare. In definitiva, nel momento in cui si termina una
misurazione, la prima cosa da fare è quella di chiudere l’interruttore in parallelo al condensatore così da evitare
eventuali errori sistematici. Per poter eseguire effettivamente la misurazione, all’architettura finora sviluppata
bisogna aggiungere un qualcosa in grado di effettuare i conteggi per la fase di salita e di discesa. Bisogna
quindi aggiungere un contatore, un clock (in grado di stabilire la tempificazione) ed una logica di controllo
(formato da porte AND, OR e NOT). In particolare, il funzionamento di un voltmetro a doppia rampa può
essere visto come una macchina a stati finiti. Il primo stadio è quello di run up, quello stadio in cui viene chiuso
l’interruttore 𝑉𝑥 , viene chiusa la gate e l’oscillatore interno invia i colpi di clock al contatore che così inizia a
contarli. In queste condizioni, la logica di controllo aspetta che il contatore raggiunga un certo valore e quando
ciò accade essa apre il gate, apre l’interruttore 𝑉𝑥 , chiude l’interruttore 𝑉𝑟 , chiude la gate, azzera il contatore e
riparte in modo tale da contare il numero di colpi di clock della fase di down. Nel momento in cui comparatore
comunica il raggiungimento dello zero da parte della rampa di down, viene nuovamente aperta la gate ed il
66
valore di conteggio viene moltiplicato per il quanto e viene riportato a video in termini di tensione. L’ultima
cosa che fa la logica di controllo è quella di azzerare il condensatore prima di ripartire con un nuovo ciclo. A
causa di tutte le operazioni da fare, il voltmetro a doppia rampa risulta essere uno strumento molto lento.
È bene focalizzarsi su due parametri importanti, non solo per questo convertitore ma per tutti i convertitori
finora incontrati, che sono il fondo scala e la risoluzione. Quello che si vuole fare è cercare di capire quali
parametri è possibile modificare in modo tare da variare tali dati. Per quanto rigurda il fondo scala è bene
ricordare che esso rappresenta il massimo valore che è possibile inserire in ingresso. Per poter avere dei valori
di fondo scala accettabili bisogna far sì che dopo la fase di run-up non venga raggiunta la saturazione. In altre
parole, il termine:

1 𝑅𝐶
∙ 𝑣𝑓𝑠 ∙ 𝑇𝑢 ≤ 𝑉𝑠𝑎𝑡 ⇒ 𝑣𝑓𝑠 ≤ 𝑉𝑠𝑎𝑡 ∙
𝑅𝐶 𝑇𝑢

Invertendo la relazione si è in grado di sapere come progettare i parametri, ossia, acquistato un’operazionale
che presenta una certa saturazione, allora bisogna modifica modificare i valori 𝑅𝐶 in modo tale che più alto è
questo parametro e più alto risulterà essere il fondo scala. Non bisogna però focalizzare l’attenzione solo sul
prodotto 𝑅𝐶 ma bisogna stare attenti anche al 𝑇𝑢 perché più è lungo il periodo di up e più il fondo scala scende.
Una possibile idea potrebbe essere quella di utilizzare un 𝑇𝑢 molto piccolo così da fare un buon fondo scala.
Per poter verificare se tale idea è o meno una buona soluzione è bene andare a verificare ciò che rigurda la
risoluzione, ossia la più piccola quantità che si riesca a misurare:

𝑉𝑟 𝑉𝑟
𝑣𝑥 =
̅̅̅ ∙ 𝑁𝑑 ⇒ ∆𝑉 =
𝑁𝑢 𝑁𝑢

Da tale relazione si evince che, se si fa un 𝑇𝑢 piccolo allora anche 𝑁𝑢 risulterà essere un parametro molto
piccolo e ciò che se ne ricava è una cattiva risoluzione. Attraverso la relazione della risoluzione si evince come
quest’ultima invogli ad allungare il 𝑇𝑢 così da avere un 𝑁𝑢 lungo. Ciò però comporterebbe una risoluzione
molto piccola. Si evince come sia necessario trovare un compromesso tra le due cose ed in particolare, se si
vuole una buona precisione in termini di fondo scala allora le tensioni di ingresso devono essere limitata. Se
invece si desidera un grosso fondo scala deve essere la risoluzione ad essere limitata. È bene però osservare
che, per poter avere una piccola risoluzione, non è solo possibile giocare su 𝑁𝑢 ma è anche possibile modificare
𝑉𝑟 . Difatti, utilizzando un 𝑉𝑟 molto piccolo è possibile avere una piccola risoluzione così da avere un quanto
che meglio va ad approssimare i segnali di ingresso. Esiste però un problema a rendere troppo piccolo 𝑉𝑟 ,
questo perché, nel momento in cui lo si rende molto piccolo (è bene ricordare che 𝑉𝑟 è la pendenza della fase
di down) allora significa avere una pendenza per la fase di down sempre meno pronunciata. Ciò implica che,
anziché scendere in maniera ripida, diminuendo il 𝑉𝑟 si giunge allo zero in maniera più dolce. Supponendo che
ciò possa anche andar bene, difatti non va affatto bene perché ci sarebbero d’aspettare tempi d’attesa molto
lungi prima che termini la fase di down, vi è un ulteriore problema legato al comparatore in quanto il
comparatore con lo zero non è uno strumento perfetto in quanto, in ingresso, presenta del rumore. Per tal
motivo si verifica che, quando la pendenza è poco pronunciata, dei rumori casuali possono determinare
67
l’attraversamento anche se in realtà quest’ultimo non avviene. Si hanno quindi dei problemi in termini di
conteggio in discesa e per tal motivo 𝑉𝑟 deve essere necessariamente scelto in modo tale da avere una pendenza
che è in grado di garantire, con una certa nettezza, l’attraversamento per lo zero. In definitiva, valori troppo
piccoli di 𝑉𝑟 tendono, arrivati ad un certo punto, a dare problemi.
Si è precedentemente visto che:

𝑉𝑟
𝑣𝑥 =
̅̅̅ ∙𝑁
𝑁𝑢 𝑑

Se al posto di ̅̅̅
𝑣𝑥 si sostituisce il valore di fondo scala, allora l’equazione diventa:

𝑉𝑟
𝑣𝑓𝑠 = ∙𝑁 ⇒ 𝑣𝑓𝑠 = ∆𝑉 ∙ 𝑁𝑑,𝑀𝑎𝑥
𝑁𝑢 𝑑,𝑀𝑎𝑥

Dove 𝑁𝑑,𝑀𝑎𝑥 rappresenta il massimo valore che bisogna contare. Tale valore dipenderà da come si è progettato
il tutto ed è un qualcosa che non è possibile conoscere a priori. Tradizionalmente si è soliti scrivere la relazione
sopra come:

∆𝑉 1
=
𝑣𝑓𝑠 𝑁𝑑,𝑀𝑎𝑥

Questa relazione fa sì che più alto è il conteggio massimo e più la risoluzione relativa è piccola, ovvero più è
preciso lo strumento. Certe volte viene fornito semplicemente 𝑁𝑑,𝑀𝑎𝑥 e con tale parametro è possibile calcolare
direttamente la risoluzione relativa.
Anche per il voltmetro ad integrazione è possibile effettuare un’analisi dell’incertezza per il risultato di misura.

Figura 13.4 - Analisi dell'incertezza per un voltmetro a doppia rampa

Siccome la misurazione che si effettua è una misurazione di tipo indiretta allora, attraverso la relazione ridotta,
è possibile determinare con quale incertezza si è in grado di determinare il valore di ̅̅̅.
𝑣𝑥 È bene osservare come
non sia stata presa in considerazione l’incertezza che fa riferimento ad 𝑁𝑢 . Questo perché, siccome 𝑁𝑢 è un

68
parametro scelto dal progettista e siccome si è soliti scegliere un multiplo intero di colpi di clock (𝑇𝑢 ), 𝑁𝑢
risulterà essere almeno un ordine di grandezza più piccolo rispetto a tutte le altre fonti di incertezza.
L’incertezza di 𝑉𝑟 dipende, invece, da quanto è stabile il riferimento temporale che si è scelto. Si è soliti
costruire dei circuiti sofisticati in modo tale da avere una tensione 𝑉𝑟 che risulti essere la più pulita possibile.
L’incertezza su 𝑁𝑑 , siccome quest’ultimo è un conteggio, è in realtà una tolleranza che è pari a ±1 colpi di
clock. Se si vuole passare dalla tolleranza all’incertezza, siccome in questo caso la distribuzione da considerare
è una distribuzione uniforme, allora bisogna dividere per √3. I voltmetri a doppia integrazione sono dei
dispositivi in grado di effettuare delle misurazioni con una precisione fino all’ordine di qualche milionesimo
di Volt.
L’unico difetto di questo strumento sta nel fatto che esso risulta essere letto e più si vuole essere precisi e più
bisogna diminuire la velocità con la quale si lavora. Il problema della velocità si è risolto grazie all’HP che,
intorno agli anni ’80, ha presentò una modifica dell’architettura che consentisse di mantenere inalterate le
prestazioni in termini di precisione e, allo stesso tempo, di valorare in maniera più veloce. La modifica
apportata consiste nell’utilizzare non un’unica rampa di discesa ma più rampe di discesa differenti, ottenendo,
in questo modo, non più un voltmetro a doppia rampa ma un voltmetro a multi rampa.

Voltmetro a multi rampa


L’idea che è alla base di un voltmetro multi rampa sta nel fatto che la precedente uguaglianza scritta per il
voltmetro a doppia rampa circa la fase di salita e la fase di discesa:

1 1
𝑉̅𝑥 𝑇𝑢 = 𝑉𝑇
𝑅𝐶 𝑅𝐶 𝑟 𝑑

È caratterizzata dal fatto che il valore della resistenza utilizzata per la salita è uguale alla resistenza utilizzata
per la fase di discesa. Questo tipo di ragionamento è sicuramente un’idea che semplifica il dispositivo ma non
è certamente l’unica strada che è possibile utilizzare. Utilizzando però per la discesa un resistore più piccolo
rispetto al resistore che si utilizza per la salita allora il tempo di discesa risulterebbe essere più piccolo rispetto
al tempo di salita. Se, ad esempio, per la discesa si utilizzasse un resistore dieci volte più piccolo allora il tempo
di discesa risulterebbe essere dieci volte più piccolo rispetto al tempo di salita. Il problema che si ha con questo
approccio è quello di andare a verificare quanto vale la risoluzione perché con una risoluzione poco consona
si andrebbe a modificare dei parametri solo a discapito della velocità e non sarebbe corretto. Se si utilizzano
due resistori differenti, nel momento in cui si va a calcolare la relazione di misura allora le due resistenze non
si semplificano più e quindi, supponendo di lavorare con un resistore per la fase di discesa dieci volte più
piccolo rispetto alla fase di salita, si ha una risoluzione che è divenuta 10𝑛 volte peggiore. Con questo tipo di
approccio, quindi, si ha quindi un apparente peggioramento delle prestazioni. Il peggioramento è apparente
poiché il discorso finora affrontato è stato fatto considerando un un’unica rampa mentre quello che si intende
fare è quello di utilizzare più rampe per la fase di discesa. Il funzionamento si basa su delle approssimazioni
successive. In particolare, si parte con la rampa a pendenza più alta facendo avendo così una rampa velocissima

69
in discesa ma con una cattiva risoluzione. Quando tale rampa supera lo zero si riparte con una rampa in salita
e successivamente con una rampa in discesa che, stavolta risulterà essere più lenta rispetto alla prima rampa di
discesa. Nel momento in cui anche tale rampa supera lo zero si riparte con lo stesso ragionamento utilizzando
una resistenza ancora più piccolo. Questo tipo di ragionamento lo si itera fino a quando non si riesca ad
effettuare la misura desiderata. Alla fine, se fosse tutto perfetto, ci si ritroverebbe il tempo logaritmicamente
compresso, questo perché si parte con valori di resistenza molto elevati (migliaia) fino a raggiungere valori di
resistenza molto piccole (unità) i quali consentono di effettuare meno colpi di clock, e la precisione
dipenderebbe dall’ultima rampa poiché è l’ultima rampa ad effettuare l’approssimazione finale della
misurazione che si intende effettuare.
Con questo tipo di dispositivo non si riesce comunque ad ottenere la stessa precisione di un voltmetro a doppia
rampa perché il rapporto tra le resistenze deve essere garantito con una certa precisione anche nel momento in
cui queste sono caratterizzate da diversi ordini di grandezza tra loro. Più di quattro rampe non si riescono ad
effettuare e con quattro rampe si perde qualcosa in termini di precisione guadagnando però tantissimo in
termini di velocità. Questa soluzione ha trovato diverso impiego in strumenti di pregio.

Figura 13.5 - Principio di funzionamento di un voltmetro multi rampa

70
Lezione 15 (2 novembre 2016)
Nota: durante la lezione 14 si è svolta una esercitazione in vista della 1a prova intercorso

Finora si sono studiati i voltmetri e si è visto come il voltmetro a doppia rampa risulti essere il cuore del
multimetro e che è in grado di misurare componente continua oppure segnali la cui informazione sia nella
componente continua.

Figura 15.1 - Schema di un multimetro numerico

Quello di cui si vuole ora parlare è l’amplificatore presente all’interno del multimetro numerico. Si è visto che,
utilizzando delle resistenze, attraverso opportuni accorgimenti, si possono ottenere dei partitori che permettono
di utilizzare lo stesso voltmetro ma con più fondi scala. In realtà oggi non si utilizza più questo approccio ma
si è soliti utilizzare un blocco di amplificazione/attenuazione che precede il blocco di conversione. Per poter
capire effettivamente di cosa si sta parlando si supponga di avere a che fare con una tensione di ingresso 𝑉𝑥 =
3𝑉 e si supponga di avere un convertitore analogico-digitale che lavora con una tensione pari a 300𝑚𝑉. Per
i valori che si hanno allora non è possibile collegare direttamente il segnale al convertitore analogico digitale.
È possibile però anteporre un blocco di amplificazione/attenuazione, un’operazione o anche qualcosa di più
sofisticato. L’idea è quella quindi di prendere la tensione 𝑉𝑥 e di moltiplicarla per 𝐺. Quando si effettua questo
tipo di operazione, nel momento in cui si giunge al blocco di conversione analogico-digitale, ciò che si
quantizza non è solamente 𝑉𝑥 ma è il prodotto 𝐺 ∙ 𝑉𝑥 , ciò significa che in numerico bisogna dividere per 𝐺 ed
è come se il quanto fosse 𝐺 volte più piccolo. Nella fattispecie, quando si calcolo il quanto bisogna tenere
conto anche del fattore di attenuazione e conversione. In base a quanto detto, nel momento in cui si prende un
segnale piccolo, che si potrebbe anche convertire direttamente supponendo che quest’ultimo risulti essere più
piccolo rispetto alla tensione con la quale lavora il convertitore analogico-digitale, conviene amplificarlo lo
stesso perché, nel momento in cui si effettua la quantizzazione sul segnale amplificato si ottiene un segnale
che viene misurato meglio. L’idea è quindi quella che quando più il segnale è vicino al fondo scala allora tanto

71
meglio si riescono a sfruttare le proprietà vicino alla quantizzazione e tanto meglio si riesce a sfruttare il
convertitore.

Figura 15.2 - Modifica della portata

Questa operazione fa sì che quando si ha la possibilità di scegliere il fondo scala, magari manualmente, bisogna
sempre scegliere un fondo scala che sia il più vicino possibile al segnale da misurare.

Analisi di Fourier
Un segnale periodico di periodo 𝑇 può essere scomposto nella somma di infinite sinusoidi, la prima sinusoide
a frequenza zero, che fornisce il valore della componente continua, ossia il valore medio, del segnale che si sta
considerando e tutte le altre sinusoidi pari ad un multiplo intero della frequenza fondamentale, pari sempre ad:

1
𝑓=
𝑇

Se, ad esempio, si lavora con una frequenza pari a 50𝐻𝑧 allora si avranno delle componenti a
100𝐻𝑧, 150𝐻𝑧, 200𝐻𝑧, … e così via. Tutto ciò può essere sintetizzato dal punto di vista analitico attraverso la
seguente relazione:

72
Figura 15.3 - Serie di Fourier

Ogni sinusoide è caratterizzata da una propria ampiezza, 𝐶ℎ , ed una propria fase, 𝜙ℎ . Sommando tutti i pezzi
si riesce a ricostruire qualsiasi tipo di segnale. In grandi linee, fare l’analisi spettrale di un segnale significa
determinare quanto valgono 𝐶ℎ e 𝜙ℎ . Normalmente è si è più interessati a conoscere 𝐶ℎ , che porta il contenuto
energetico, rispetto a 𝜙ℎ , che determina la forma del segnale. Quando si ha a che fare con un numero cospicuo
di termini allora quello che si fa è trascurare tutto ciò che si trova al di sotto di un ordine di grandezza della
componente fondamentale.
La significatività dell’analisi di Fourier consiste in un principio fondamentale della teoria dei segnali il quale
stabilisce che sinusoidi a frequenza diversa sono ortogonali in potenza. Ciò significa che se un segnale, con
una certa frequenza, porta una certa potenza allora esso non influenza un altro segnale con un differente
frequenza. Le informazioni viaggiano quindi indipendentemente isolando quindi il contenuto informativo che
è presente ad una determinata frequenza. Se si ragiona in questo modo, rispetto a guardare il segnale nel
dominio del tempo guardando il segnale nel dominio di Fourier si riescono ad ottenere molte più informazioni
perchè si riesce a verificare dove sono contenuti, su quale frequenza, i contenuti energetici. Avere un contenuto
in termini di componenti armoniche consente di sapere anche quanto vale il valore efficace del segnale che si
sta considerando.

73
Figura 15.4 - Valore RMS tramite spettro di Fourier

È importante imparare a leggere i segnali guardandoli anche nel dominio del tempo. Ad esempio, nel momento
in cui si lavora con una sinusoide bisogna essere in grado di capire qual è la sua componente continua e quali
sono le componenti alternate. Per poter andare a verificare quanto vale il valor medio di un segnale è bene
considerare i suoi picchi positivi, i suoi picchi negativa e tracciare una linea al centro in modo tale da
determinare certe porzioni di segnale che sono sopra il livello segnato e certe porzioni sotto il livello segnato.
Se la linea è stata tracciata in maniera corretta allora le due aree sono uguali e la linea rappresenta il livello del
valor medio. Per poter conoscere la frequenza fondamentale, una volta conosciuto il valor medio, è bene andare
a verificare dove il segnale si ripete in modo tale da conoscere quanto vale la periodicità della componente
alternata. In questo modo si è in grado di conoscere quanto vale la frequenza della componente fondamentale
della serie di Fourier. Le altre componenti, come già detto, risultano essere delle multiple della frequenza
fondamentale.

Sistemi LTI
La questione è che molto spesso, nel campo delle misure, ci si ritrova a dover analizzare dei segnali in cui sono
sovrapposte le informazioni dei disturbi, ossia a delle cose poco interessanti. Ci sono alcune situazioni
facilmente gestibili ed altre invece che è un po' più complicato gestire. Uno dei casi semplici da gestire è quello
in cui sono presenti dei disturbi nella componente continua e disturbo in alternata. In questo caso quello che si
vorrebbe fare è cancellare tutte le componenti alternate e lasciare solo la componente continua. Questo tipo di
operazione può essere effettuata attraverso l’utilizzo di un filtro passa-basso, ossia un filtro che, progettato
correttamente, consente di non modificare la bassa frequenza, la componente fondamentale, e di attenuare tutte
le frequenze a cui non si è interessati. Un'altra situazione semplice di misura è quella in cui si hanno
informazioni in alternata e disturbi in continua. In tal caso ciò che bisogna utilizzare un filtro passa-alto, ossia
un dispositivo, che se ben progettato, consente di attenuare la componente continua e di far passare solo i
segnali in alta frequenza. Un’altra situazione è quella in cui l’informazione è ad una certa frequenza e su altre
frequenze ci sono delle informazioni indesiderate. In tal caso ciò che si utilizza è un filtro passa-banda
74
(esempio della sintonizzazione della radio). Quello che si vuole è fare è un’amplificazione, se si può, del
segnale ed un’attenuazione, un’attenuazione, dei disturbi. Per poter fare ciò si parte dalla conoscenza di quelli
che vengono chiamati sistemi LTI, i quali raggruppano tutta una serie di dispositivi il cui comportamento è
lineare e tempo-invariante. Questi sistemi sono particolarmente belli perché se in ingresso presentano una
sinusoide allora essi presenteranno una sinusoide anche in uscita.

Figura 15.5 - Sistemi LTI

Per i sistemi LTI, siccome essi sono dei sistemi lineari, allora è possibile sfruttare il principio di
sovrapposizione degli effetti e per cui, se l’ingresso risulta essere una somma di sinusoidi allora l’uscita
risulterà essere ancora una somma di sinusoidi. I sistemi LTI sono però dei sistemi che non trattano i segnali
tutti allo stesso modo ed il comportamento che tali sistemi hanno nei confronti dei segnali dipende dalla
frequenza di questi ultimi. A seconda della caratteristica del sistema LTI si avrà che, in effetti, le diverse
componenti armoniche avranno dei comportamenti che possono essere diversi tra loro. Per tal motivo, andando
a progettare dei buoni sistemi LTI, si è in grado di far sì che ciò che è l’informazione da conservare resti
inalterata e ciò che invece è superfluo venga attenuato. Ciò che è consente di capire il comportamento dei
sistemi LTI sono i Diagrammi di Bode, ossia un grafico che riporta, in funzione della frequenza, quanto sarà
alterata una sinusoide che si trova a passare per un dato sistema LTI.

75
Figura 15.6 - Diagrammi di Bode

I diagrammi di Bode si leggono affermando che le frequenze che sono nella zona piatta sono tutte trattate alla
stessa maniera, ciò significa che quelle frequenze così come entrano nel sistema LTI allo stesso modo escono,
non subendo, di fatto, alcuna modifica. A partire da una certa frequenza in poi, invece, l’amplificazione
risulterà essere sempre più piccola, ovvero tutte le frequenze a partire da quella frequenza in poi risulteranno
essere attenuate. Quanto più è basso il valore della frequenza oltre la quale l’informazione viene attenuata, tale
frequenza prende il nome di frequenza di taglio, e tanto più efficace risulterà essere l’attenuazione. Nel
momento in cui si conosce come leggere il diagramma di Bode, nel momento in cui si posizionano lungo esso
le componenti spettrali di un qualsiasi segnale, allora si è in grado di capire che tipo di segnale si ottiene in
uscita e nel domino del tempo. Dunque, conoscendo il segnale col quale si sta lavorando e conoscendo il filtro
(diagramma di Bode) che si sta utilizzando, si è in grado di determinare l’uscita nel dominio de tempo.
I filtri che solitamente si utilizzano sono:
Filtro passa-basso: passa la componente continua e tutte le frequenze fino alla frequenza di taglio;
Filtro passa-banda: vengono cancellate la componente continua e le frequenze fino ad una certa
frequenza iniziale. Passano poi le frequenze fino ad una successiva frequenza di taglio e tutte quelle che
sono sopra tale frequenza vengono fortemente attenuate.
Filtro passa-alto: tutte le componenti fino alla frequenza di taglio sono attenuate e le componenti che
sono dopo questa frequenza di taglio vengono alterate.
In termini elettrotecnici, un filtro può essere progettato come segue:

76
Figura 15.7 - Filtri costruiti con componenti passivi

Per poter capire che tali dispositivi sono dei filtri bisogna ragionare in continua e bisogna ragionare in altissima
frequenza. Osservando il primo circuito, mettendo ad esso un ingresso in continua allora un condensatore in
continua si comporta come un aperto e quindi tutta la tensione ingresso la si ritrova in uscita. Il condensatore
in alta frequenza si comporta invece come un corto e quindi la tensione in uscita risulterà essere uguale a zero.
La frequenza di taglio di questo dispositivo è pari a:

1
𝑓𝑡 =
𝑅𝐶

77
Lezione 16 (4 novembre 2016)

Amplificatori Chopper
Esiste una problematica connessa ad amplificazione per valori di tensione di piccolo valore, in continua. Il
problema è dato dal fatto che, quando gli amplificatori lavorano dal punto di vista reale allora essi introducono
sui segnali una tensione di offset. Questa cosa non è un problema quando i segnali sono in alternata ed il
disturbo è in continua perché con un filtraggio passa-alto si elimina la continua lasciando così solo il segnale.
Il problema diventa di difficile soluzione quando il segnale è in continua, lo si va ad amplificare e quest’ultimo
va ad aggiungere un certo offset al segnale originario. Il risultato è che si ha segnale e disturbo entrambi alla
stessa frequenza. Di conseguenza, un’amplificazione diretta, in questo caso, comporta che non si riesce più a
distinguere il segnale da disturbo. Per tal motivo molte volte si ottengono delle misure completamente falsate.
Bisogna quindi trovare una soluzione all’amplificazione di segnali di piccolo valore in continua. Ciò che si
utilizza è quello che prende il nome di amplificatore Chopper. L’amplificatore Chopper è un dispositivo che
rappresenta uno stadio di pre-amplificazione, a cui segue l’effettivo multimetro.

Figura 16.1 - Schema a blocchi di un amplificatore Chopper

L’idea di base è sempre quella che l’uscita risulta essere una versione semplificata dell’ingresso senza però il
problema dell’offset. Un amplificatore a Chopper è caratterizzato da diversi blocchi in cascata e per capire il
suo funzionamento è bene considerare un segnale di ingresso 𝑉𝑥 , con componente continua pari proprio a 𝑉𝑥 ,
che entra all’interno del modulatore. Il modulatore non fa altro che, a periodi di intervalli costanti,
cortocircuitare l’ingresso per cui si ha che per un certo intervallo di tempo si ha 𝑉𝑥 , per un altro intervallo di
tempo si ha zero e così via. Si è così generata, in pratica, un ‘onda quadra, una sequenza di impulsi che si
ripetono indefinitamente e con una componente continua pari alla metà del segnale di partenza e cioè uguale
a 𝑉𝑥 ⁄2. Il secondo segnale ha ora una componente alternata pari a 𝑉𝑥 ⁄2. Si passa poi il segnale all’interno di
un amplificatore la cui uscita, idealmente, risulterà essere 𝐴 volte più grande rispetto al segnale di ingresso. In
realtà ciò non è vero perché l’amplificatore introdurrà anche un certo offset il quale trasla tutta l’onda verso

78
l’alto. Questo segnale passa poi verso un filtro passa-alto che, come si è già visto, serve a cancellare le basse
frequenze. In particolare, progettandolo bene, attraverso un filtro passa-alto si riesce a cancellare la sola
componente continua. Anche se un po' di componente continua è ancora informazione, in realtà c’è il problema
dell’offset. Il segnale ha in continua sia informazione che offset e questi due dati non si riescono in alcun modo
a separare. Si è però trasferita parte dell’informazione in alternata, dove l’offset non ha effetto. Infatti, andando
ad effettuare un filtraggio passa-basso si va ad eliminare 𝑉𝑥 ⁄2 ed anche l’offset e quello che si ottiene è un’onda
quadra centrata introno allo zero perché così il suo valore medio è zero e che presenta quindi solo componente
alternata. E’ stato molto importante quindi spostare parte dell’informazione in alternata perché fare ciò ha reso
parte dell’informazione immune da offset. La parte alternata ha come ampiezza A volte 𝑉𝑥 ⁄2. A questo punto
c’è il blocco di demodulazione, il quale esegue esattamente la stessa operazione precedentemente svolta dal
blocco di modulazione. Dunque, per un certo intervallo di tempo fa passare il segnale e per un altro intervallo
di tempo lo cortocircuita. L’effetto che si ha, se le operazioni sono state effettuate in maniera sincrona, allora
l’effetto sul secondo segnale è solo quello di avere impulsi positivi. In questa maniera si ha di nuovo un segnale
con componente continua diversa da zero e che vale A volte 𝑉𝑥 ⁄4. L’informazione risulterà essere la metà
rispetto a quella precedente, A volte 𝑉𝑥 ⁄4 e non più A volte 𝑉𝑥 ⁄2, ma siccome non si ha nessuna informazione
circa la quantità del segnale allora l’operazione effettuata è lecita e possibile.

Figura 16.2 - Amplificatori a Chopper

Il sistema funziona utilizzando delle frequenze di commutazione pari a qualche decina di 𝑘𝐻𝑧. Questo genere
di dispositivi vengono utilizzati per valori di tensione pari a qualche decine di 𝑛𝑉, valori di tensione che
sarebbero illeggibili senza questi dispositivi.
L’implementazione degli amplificatori a Chopper è riportata in figura sopra. Si ha un ingresso ed aprendo e
chiudendo un interruttore si fa il modo che il blocco amplificatore successivo veda 𝑉𝑥 e zero, 𝑉𝑥 e zero, e così
via, il tutto comandato da un oscillatore. Successivamente si ha un amplificatore in configurazione invertente
che prende il segnale e lo amplifica A volte, a seconda dei valori di 𝑅1 ed 𝑅2 , ed aggiunge a tale segnale
l’offset. Dopo di che vi è un filtro passa alto composta da un condensatore e da una resistenza. Il demodulatore
non è nient’altro che la stessa cosa del modulatore in ingresso. A questo punto ci vuole un filtraggio passa-
basso che non è nient’altro che una resistenza ed un condensatore. Infine si mette un buffer in modo tale da
79
non avere effetti di carico, in modo tale che questo dispositivo non vada a caricare i dispositivi che seguono in
modo tale da disaccoppiare questo dispositivo con i dispositivi che seguono.

80
Lezione 17 (9 novembre 2016)
Nota: lunedì 7 novembre si è fatta la 1a prova intercorso

Raddrizzatori a singola e doppia semionda


Si è visto che il cuore dei multimetri è un voltmetro a doppia rampa che va misurare solo il valor medio dei
segnali di ingresso. Ciò significa che se l’informazione che si ha interessa a misurare è una tensione continua
allora il multimetro funzionerà egregiamente, in caso contrario, ossia nel caso in cui in ingresso non ci sia una
tensione in continua ma, ad esempio, una sinusoide, allora il multimetro si comporterà in maniera differente
rispetto a quanto richiesto. In questi casi ciò che si vorrebbe è che lo strumento misurasse il valore efficace
della forma d’onda d’ingresso. Per poter fare questo si ha bisogno di blocchi che prendono il nome di
convertitori AC/DC. Lo scopo di un convertitore AC/DC è quello di presentare al convertitore analogico-
digitale (al doppia rampa, al SAR o a qualsiasi altro dispositivo tra quelli visti utilizzato come convertitore) un
segnale continuo la cui ampiezza è legata al valore efficace del segnale di ingresso. Serve quindi un blocco in
cui entra il segnale di ingresso e che in uscita presenta un segnale costante e di valore pari al valore efficace
della sinusoide in ingresso di modo che il blocchetto misura la componente continua così da essere in grado di
conoscere quanto vale in valore efficace del segnale in ingresso. Esistono varie implementazioni per i moduli
AC/DC e tali implementazioni si distinguono tra loro per le proprietà di estrazione. Si ricorda che il valore
medio di un segnale è pari a:

𝑡+𝑇
1
𝑥̅ = ∫ 𝑥(𝑡)𝑑𝑡
𝑇
𝑡

Tale valore per una sinusoide è pari a zero. L’informazione legata all’energia del segnale risiede invece nel
valore efficace che, per definizione è pari a:

𝑡+𝑇
1
𝑥𝑟𝑚𝑠 = √ ∫ 𝑥 2 (𝑡)𝑑𝑡
𝑇
𝑡

Per una sinusoide, il valore rms lo si calcola come:

𝐴
𝑥𝑟𝑚𝑠 =
√2

In generale, il legame che c’è tra l’ampiezza di picco ed il valore rms di un segnale non è così immediato come
lo è per una sinusoide.
Molti ambiti dell’elettronica e dell’elettrotecnica i segnali con i quali si lavora sono molto spesso segnali
approssimabili molto bene a delle sinusoidi. Lo stesso vale anche per i segnali di telecomunicazione che, anche
se modulati, hanno una portante che è sinusoidale (la portante rappresenta il grosso della forma d’onda).
Quindi, in diverse situazioni, è possibile approssimare un segnale attraverso l’ipotesi di sinusoidalità,

81
supponendo cioè che esso risulti essere un segnale sinusoidale. È bene tenere presente che una sinusoide
perfetta e che quindi si avranno, giocoforza, delle ipotesi di accuratezza basandosi sull’ipotesi di sinusoidalità.
Più ci si allontana dall’ipotesi di sinusoidalità e peggiori saranno i risultati.
Per poter capire analiticamente di cosa si sta parlando è bene considerare una sinusoide per la quale si utilizza
la sola 𝜃 come variabile in modo tale da poterla disegnare direttamente con l’asse 𝑥 in 𝜃.

Figura 17.1 - Convertitori a valor medio

Il valor medio di questo segnale è zero e se di tale segnale se ne effettua il valore assoluto allora si ha un nuovo
segnale con un valor medio diverso da zero. Il nuovo segnale ha inoltre una periodicità pari alla metà rispetto
alla periodicità del segnale di partenza poiché esso presenta una periodicità pari a 𝜋. Tale segnale ha quindi
una frequenza doppia rispetto al segnale di partenza. Volendo calcolare analiticamente quanto vale il valor
medio del nuovo segnale è bene calcolare l’integrale visto prima tenendo presente che tale segnale ha una
periodicità che va da zero a 𝜋.

𝜋
√2𝐴 2√2𝐴
𝑦̅ = ∫ sin(𝜃) 𝑑𝜃 =
𝜋 𝜋
0

Si è così trovato che, a meno di un coefficiente, misurare il valor medio del segnale che si sta considerando
corrisponde ad avere delle informazioni sul valore efficace del primo segnale. Se si riesce a far diventare il
primo segnale (la sinusoide) un segnale con periodicità 𝜋 allora tale segnale è possibile darlo in pasto ad un
convertitore ad un valore medio (doppia rampa) in grado di restituire il valore medio della forma d’onda. La
forma d’onda può essere utilizzata per fare una rampa di salita del voltmetro a doppia rampa ed in uscita il
valore ottenuto risulterà essere proporzionale al valor medio dell’andamento della seconda forma d’onda che,
come già detto, è proporzionale al valore efficace della prima forma d’onda (sinusoide). In questo modo si è
risolto il problema dal punto di vista analitico, serve ora un qualcosa anche dal punto di vista fisico in modo
tale da ottenere la sinusoide raddrizzata a partire dalla sinusoide. Una prima possibilità è quella di creare un
dispositivo che, in un primo momento, azzeri la gobbetta negativa lasciando così solo le semionde positive.

82
Figura 17.2 - Schema circuitale che consente di creare un convertitore a valore medio

Anche in questo caso il segnale ha un valore medio non nullo perché ha solo valori positivi e per tal motivo è
impossibile che l’integrale fornisca zero come risultato. Il valore medio di un segnale di questo tipo vale:

𝜋
𝐴√2 √2
𝑦̅ = ∫ sin(𝜃) 𝑑𝜃 = 𝐴
2𝜋 𝜋
0

Si è integrato fino a 𝜋 perché si osserva che la seconda parte dell’integrale, quella per cui il segnale è nullo, è
uguale a zero. Anche in questo caso, se si riesce ad ottenere questo segnale allora si ha una forma d’onda il cui
valor medio è proporzionale, tramite il coefficiente √2⁄𝜋, al valore efficace della sinusoide originaria. Quindi
anche attraverso questa forma d’onda si riesce a lavorare sulla proprietà per cui attraverso la misura del valore
medio si ottengono delle informazioni circa il valore efficace. Resta da capire come ottenere questi andamenti,
ossia come costruire dei dispositivi il grado di riuscire a modellare le sinusoidi come in Figura 17.2. In
particolare, se si osserva la stessa si vede che sulla prima forma d’onda è riportato uno schema che prende il
nome di raddrizzatore a singola semionda. Per poter capire il principio di funzionamento di tale dispositivo
è bene richiamare qualche concetto circa i diodi. Il diodo è un componente non lineare, è quindi un dispositivo
per il quale bisogna studiare il suo comportamento in certe ipotesi. Per gli scopi di interesse è possibile
affermare che il diodo è un dispositivo che quando si cerca di far passare una corrente nel verso concorde della
sua freccia allora questo si comporta come un corto circuito. Quando invece si cerca di far passare corrente nel
verso opposto rispetto alla sua freccetta allora il diodo si comporta come un circuito aperto. Il diodo è quindi
un dispositivo che ha una duplicità di comportamento poiché può comportarsi da corto circuito oppure può
comportarsi da circuito aperto. Detto del diodo, si supponga ora di mettere una sinusoide in ingresso al circuito
che si compone del diodo e della resistenza (circuito che si trova sulla prima forma d’onda). Quando si fa ciò,
siccome la tensione è positiva e la corrente va dal potenziale può alto al potenziale più basso, allora vi sarà un
flusso nel verso “diretto” del diodo, ossia un flusso concorde col la freccetta che lo rappresenta (il diodo si

83
comporta come un corto circuito). In questo frangente, quindi, la tensione di uscita risulterà essere uguale alla
tensione di ingresso. Nel momento in cui la tensione prova a diventare negativa allora il potenziale in ingresso
al dispositivo risulterà essere un potenziale più basso rispetto al potenziale di massa presente nel circuito.
Quando accade ciò la corrente vorrebbe quindi passare dal potenziale zero (quello più alto) al potenziale
negativo (quello più basso). Questo però non le è consentito dal diodo il cui verso è discorde rispetto al flusso
della corrente (il diodo si comporta da aperto). Per tal motivo la tensione che si osserverà in uscita risulterà
essere pari a zero. Fin quando la tensione è negativa allora la tensione di uscita risulterà essere nulla. Quando
la tensione di ingresso diviene nuovamente positiva allora il verso della corrente cambia ottenendo quindi
quanto già visto precedentemente (il diodo si comporta nuovamente da corto circuito). I primi caricabatteria
dei cellulari non erano altro che dei raddrizzatori a singola semionda. Con questo tipo di architettura, nel
momento in cui si parla di energia, allora è possibile affermare come per la seconda metà del segnale ci sia
una perdita di energia. Dal punto di vista delle informazioni, per lo stesso pezzo di segnale, si dice che si ha
una non ricezione delle stesse.
Utilizzando qualche altro diodo si è riusciti a realizzare quello che va sotto il nome di raddrizzatore a doppia
semionda. Questo dispositivo produce sul carico che si sta utilizzando, sia con la semionda positiva che con
la semionda negativa, una tensione positiva. Per poter capire come funziona tale dispositivo allora è bene
considerare una semionda d’ingresso positiva la quale cerca di portare corrente verso lo zero. Nel momento in
cui la corrente arriva al primo bivio allora trova difronte a sè due strade completamente diverse poiché il diodo
di sinistra si mostra un corto circuito mentre il diodo di destra risulta essere un circuito aperto. La corrente
quindi scende attraverso il diodo di sinistra. Giunta al secondo bivio, la corrente è costretta a passare attraverso
la resistenza poiché sull’altro ramo è presente un diodo contro polarizzato e che quindi si comporta anch’esso
come un circuito aperto. Arrivata al terzo bivio, la corrente scende verso il basso, fino a raggiungere la massa,
attraverso l’unico diodo polarizzato. La semionda positiva fa quindi passare corrente da sinistra verso destra
all’interno della resistenza. Per quanto rigurda la semionda negativa, si ha che, arrivati a zero tale potenziale
risulterà essere più grande rispetto al potenziale impresso dalla semionda negativa. Per tal motivo la corrente
intende passare dal potenziale zero al potenziale più piccolo (potenziale negativo). Per tal motivo la corrente
fluisce attraverso gli unici due diodi polarizzati direttamente così da attraversare la resistenza, ancora una volta,
da sinistra verso destra. Questo consente di avere, anche per la semionda negativa, una gobba positiva e quindi
il raddrizzamento completo anche di quelle parti di segnale che risultano essere negative. Si ha quindi un
raddoppio del valore medio. Energeticamente si hanno dei concetti molto diversi rispetto al raddrizzatore a
singola semionda perché nel momento in cui c’è bisogno di trasferire una certa quantità di energia, il
raddrizzatore a doppia semionda consente di contare sia sulle semionde positive che sulle semionde negative,
impiegando quindi la metà del tempo rispetto a quello che si è soliti impiegare, a parità di operazione, con un
raddrizzatore a singola semionda. In realtà le cose non sono esattamente come spiegate perché molto spesso si
è soliti associare a tali operazioni anche del filtraggio. In definitiva, i raddrizzatori a singola ed a doppia
semionda sono dei dispositivi che consentono di avere in uscita, partendo da un ingresso sinusoidale, un
segnale che ha un valor medio proporzionale al valore efficace della sinusoide di partenza.

84
Rilevatori di inviluppo
I rilevatori di inviluppo non sono altro che dei dispositivi che derivano, apportandone le dovute modifiche, dai
raddrizzatori a singola semionda.

Figura 17.3 - Rilevatori di inviluppo

La modifica consiste nell’inserire un condensatore in parallelo alla resistenza. L’altro triangolino che si osserva
è un amplificatore operazionale che può servire a correggere quel fattore di guadagno, ossia quella costante
presente tra il valore medio ed il valore efficace. Per poter capire il principio di funzionamento di un rilevatore
di inviluppo la prima cosa che è possibile fare è quella di considerare il dispositivo col solo condensatore,
eliminando quindi, per il momento, la resistenza presente. Concettualmente bisogna effettuare la stessa analisi
svolta finora e cioè si alimenta il tutto con una tensione sinusoidale così da verificare il comportamento del
circuito. Quando la tensione è positiva allora il verso della corrente è concorde col verso del diodo (diodo
polarizzato direttamente) e, per tal motivo, tale corrente va a caricare il condensatore che è presente in parallelo.
Ciò che accade è che, man mano che la tensione aumenta, il condensatore si carica. Nel momento in cui la
tensione di ingresso raggiunge il suo valore massimo (picco della sinusoide) allora quest’ultima tende a
scendere. In tali condizioni il condensatore vorrebbe scaricarsi ma siccome l’unica possibilità per farlo gli è
data dal diodo che però è ora contro polarizzato allora si ha che, raggiunto il picco, si ha un valore costante.
Questo tipo di raddrizzatore prende il nome di raddrizzatore a picco massimo.

85
Figura 17.4 - Rilevatore di picco massimo ideale

Supponendo di riuscire a realizzare la configurazione appena vista si ha che nel momento in cui il segnale è
stazionario allora tutto va bene poiché quello che succede è che si ottiene un valore costante uguale al picco
che consente di conoscere quanto vale il valore efficace. Quando si ha un segnale che cambia il proprio valore
nel tempo, quello che accade è che si raggiunge comunque il picco più alto e lì si rimane nel momento in cui
il segnale inizia a scendere. Questo è l’esempio di un segnale di telecomunicazione trasmesso a pacchetto.
Questo genere di situazioni fa sì che il rilevatore di picco massimo ha il massimo valore che è stato rilevato
ma non consente di seguire l’andamento in discesa. Questa modalità esiste in alcuni strumenti che sono fatti
per il rilievo dell’inquinamento elettromagnetico.
Si è visto cosa accade al dispositivo presentato senza che quest’ultimo fosse caratterizzato da una resistenza in
parallelo. Nel momento in cui si inserisce un resistore in parallelo, quando il diodo si interdice, allora il
condensatore ha la possibilità di scaricarsi lungo il resistore e per cui il valore non resta bloccato ma va un po'
in diminuzione.

Figura 17.5 - Rilevatore di picco massimo reale

Ciò che accade è che, anzitutto, il picco non viene raggiunto esattamente per via del fatto che ai capi del diodo
è sempre presente una differenza di potenziale. Inoltre, quando il diodo viene interdetto, quindi nella fase di
discesa, il condensatore inizia una fase di scarica che termina nel momento in cui l’oscillazione della semionda

86
supera nuovamente il valore del condensatore. Quando avviene il superamento vuol dire che il condensatore
si è scaricato talmente tanto che la tensione di ingresso diviene più grande della tensione presente ai suoi capi.
Si ottiene così quello che prende il nome di andamento a ripple. Il ripple è un parametro che è possibile
trovare sui data-scheet e più piccolo è il ripple e migliore risulterà essere il rilevatore di inviluppo. Per strumenti
di estrema precisione si preferisce non usare dispositivi con un andamento a ripple perché tale andamento
causerebbe dei problemi in termini d’incertezza al risultato di misura. Il fenomeno di ripple può essere risolto
o attraverso delle operazioni di filtraggio o attraverso l’utilizzo di diodi Zener che, anche in caso di oscillazioni
della tensione di alimentazione, forniscono sempre la stessa tensione. Questi dispositivi prendono il nome di
rilevatori di inviluppo perché sono in grado di seguire anche la fase di discesa. In termini di progettazione,
quello che è da modificare sono i parametri relativi alla resistenza ed al condensatore che, insieme, forniscono
informazioni relative alla costante di tempo. Inoltre, se si modifica la frequenza, si ha un periodo più piccolo
e quindi si dà al segnale meno tempo per scendere, ciò significa che il valore medio sale. Esistono quindi delle
problematiche circa la taratura di tali dispositivi così da poter ritornare, a partire dal valore medio misurato, al
valore efficace. Ciò fa sì che, in realtà, i rilevatori a valori di picco si utilizzano quando le misurazioni non
devono essere di elevata accuratezza (multimetri economici o rilievi in cui ci si aspetta una bassa accuratezza
come nel caso di rilievi di campi elettromagnetici).

Convertitore a vero valore efficace


Nel momento in cui si lavora con un multimetro è bene utilizzare un qualcosa di più preciso rispetto ad un
rilevatore di ripple. Inoltre, se si vuole andare al cuore del problema, i dispositivi finora visti sono dei
dispositivi che funzionano solo con segnali sinusoidali. Normalmente i moderni multimetri non utilizzano
l’ipotesi di sinusoidalità ma utilizzano quello che va sotto il nome di convertitore a vero valore efficace
(TRMS). Questo generi di convertitori vanno al cuore di cosa sia il valore efficace. Il valore efficace nasce
con l’esigenza di andare a verificare l’efficacia della corrente alternata rispetto alla corrente continua. Ci si
chiese quale fosse il contributo energetico netto della componente sinusoidale e quale fosse il suo equivalente
in continua. Il valore efficace è quel termine che consente di ragionare in termini di potenza ed energia come
se la sinusoide fosse un segnale continuo. Il valore efficace di una corrente è pari al valore della corrente
continua che, attraversando un resistore, produrrebbe la stessa dissipazione di potenza. In altre parole, si
considera una sinusoide e la si applica ad un resistore che si riscalda e che ha quindi una dissipazione di
potenza. La stessa dissipazione di potenza la si otterrebbe con una componente continua pari al valore efficace.
Tutta la prima serie di convertitori a vero valore efficace si basano proprio su questa equivalenza energetica.
In effetti il valore in continua

87
Figura 17.6 - Convertitori a vero valore efficace

Dalla Figura 17.6 si evince come calcolare la potenza in continua e la potenza in alternata. Energeticamente,
il valore RMS e la continua sono equivalenti.

𝑖𝐷𝐶 = 𝑖𝑅𝑀𝑆

La relazione appena scritta rappresenta la definizione storica di valore efficace.


La cosa buona è data dal fatto che questa definizione può essere utilizzata per qualsiasi tipo di segnale poiché
l’equivalenza energetica può essere fatta comunque. Il problema sta nel fatto che si deve trovare un equivalente
per la dissipazione di potenza e, come è noto, ci si accorge che un resistore dissipa potenza nel momento in
cui quest’ultimo si riscalda. Quindi, più alto è il valore efficace, più potenza dissipa e più il resistore si riscalda.
In una maniera indiretta, andando a guardare le temperature che i dispositivi raggiungono, è possibile
conoscere qual è il livello di potenza dissipata e, automaticamente, conoscere il valore efficace di corrente che
sta attraversando quel determinato resistore. Quello che quindi bisogna fare è riflettere su come fare delle
misure di temperatura. Il primo tentativo di andare a fare questo genere di valutazione è stato quello di
utilizzare una termocoppia. Essi sono strumenti estremamente economici per effettuare misure di temperatura.
Una termocoppia non è altro che due fili, di materiale diverso, collegati tra loro. Questo fatto, ricordano i
concetti che portano alla pila di Volta, quando si mettono due metalli di tipo diverso a contatto allora la
differente elettronegatività fa spostare gli elettroni producendo così una forza elettromotrice (differenza di
potenziale). La tensione che si produce, siccome l’agitazione degli atomi aumenta con la temperatura, cambia
con la temperatura. Il fenomeno non è proprio lineare ma, ad ogni modo, nel momento in cui cambia la
temperatura si ha una data tensione. È possibile dire che il livello di tensione è in qualche maniera
proporzionale alla temperatura. Questo tipo di effetto prendo il nome di effetto Seebeck. E’ bene quindi andare
a vedere come utilizzare una termocoppia per realizzare un convertitore a vero valore efficace. Per poter capire
ciò è bene partire da una corrente incognita, di forma non sinusoidale, della quale si vuole conoscere quanto
vale il suo valore efficace. Tale corrente la si fa passare attraverso un resistore che, a causa dell’effetto Joule,
si riscalda. Più è alto il valore efficace della corrente e più il resistore alza la temperatura. Vicino al resistore
88
si mette una termocoppia. In realtà di termocoppie se ne utilizzano sempre due, di cui viene collegata in modo
tale da conoscere la temperatura dell’ambiente esterno ed una collegata al punto del quale si vuole conoscere
la temperatura. In questo modo si conosce l’incremento di temperatura rispetto all’ambiente. Andando a
leggere la tensione ai capi del resistore si è in grado di sapere di quanto il resistore si è riscaldato rispetto
all’ambiente perché quando non c’è passaggio di corrente la resistenza avrà una temperatura pari alla
temperatura dell’ambiente. Più si riscalda, più cambia la temperatura rispetto all’ambiente e, di conseguenza,
più è il valore efficace.

Figura 17.7 - Convertitore a vero valore efficace

Questo tipo di dispositivo può essere messo a monte di un voltmetro a doppia rampa perché esso è in grado di
misurare la continua. Un dispositivo a vero valore efficace funziona fino a qualche centinaia di 𝑀𝐻𝑧 ma non
oltre.
Un altro modo per poter costruire un convertitore a vero valore efficace è il seguente:

Figura 17.8 - Convertitore a vero valore efficace con stadio differenziale

89
Questo dispositivo presenta una coppia differenziale e viene utilizzato nel modo che segue. Le due basi sono
a massa, le due resistenze sono uguali e si ha anche la stessa alimentazione. In queste condizioni la differenza
di potenziale ai capi dell’amplificatore operazionale è pari a zero. Il punto sta nel fatto che uno dei problemi
più grossi dei bjt, problema che, in questo caso, si sta per fruttare, sta nel fatto che le loro caratteristiche
cambiano in base alla temperatura e solo in maniera ideale possono essere considerati con gli stessi parametri.
Riscaldando uno soltanto dei due bjt, mettendo quest’ultimo sul segnale di ingresso, si ha uno squilibrio dello
stato differenziale e l’equilibrio viene raggiunto solo quando il bjt a destra raggiunge la stessa temperatura del
bjt a sinistra. In questo modo si ha una sensibilità molto migliore e si riescono a raggiungere delle prestazioni
ottimali.

90
Lezione 18 (11 novembre 2016)

Quando si ha un segnale sul quale bisogna effettuare delle osservazioni e/o operazioni, prima di tutto bisogna
enfatizzare la parte di segnale sulla quale non è interessante lavorare. Ciò significa che bisogna filtrare quello
che è rumore, ciò che non è utile, e lasciare ciò che è utile ai fini degli scopi che si vogliono ottenere. Il
filtraggio può essere di tre tipi: filtraggio passa-basso, filtraggio passa-alto o filtraggio passa-banda. Si è soliti
utilizzare un filtraggio passa-banda quando si vogliono effettuare delle operazioni su armoniche ed un
filtraggio passa-basso quando si vuole lavorare con la componente continua del segnale. Quando si termina
l’operazione di filtraggio, qualunque sia il segnale di ingresso assegnato, il segnale che si ricava è una
sinusoide, segnale sul quale è possibile effettuare delle elaborazioni come, ad esempio, il calcolo del valore
medio, il calcolo del valore efficace, il calcolo del picco od il calcolo del picco-picco.
Se si considera come esempio il calcolo del valore efficace della sinusoide, ottenuta dopo il filtraggio del
segnale di partenza assegnato, si sa che esso è pari a:

1 𝑇
𝑥̅ = ∫ 𝑥(𝑡)𝑑𝑡
𝑇 0

Tale equazione corrisponde al calcolo dell’area dell’intera forma d’onda diviso il periodo. Questo calcolo, in
maniera esatta, richiederebbe la conoscenza analitica della forma d’onda, conoscenza analitica che non si ha
poiché, lavorando nel tempo discreto, si ha sono conoscenza dei punti, ossia dei campioni, che caratterizzano
la forma d’onda. Per tal motivo è conveniente calcolare l’area suddividendo quest’ultima con dei rettangoli di
ampiezza pari all’intervallo che c’è tra un campione ed il successivo e sommando l’area di tutti i rettangoli
creati. Così facendo si approssima il calcolo dell’area e nel caso di rettangoli relativamente piccoli si ha un
errore di approssimazione relativamente trascurabile (anche per questo motivo è importante sovradimensionare
il Criterio di Nyquist perché più punti a periodi si prendono e più gli integrali numerici saranno prossimi a
quelli analitici). Il metodo di approssimazione dei rettangoli è quello più semplice, ad ogni modo esistono altri
metodi, come il metodo di integrazione dei trapezi, che consentono di ottenere risultati ancora più accurati.
Essendo la base pari a 𝑇𝑐 e l’altezza pari all’altezza del campione, 𝑥(𝑘), allora l’area di ogni singolo rettangolo
la si può calcolare come:

𝑥(𝑘) ∙ 𝑇𝑐

Per calcolare l’area totale bisogna sommare l’area di tutti i rettangoli:

1
𝑥̅ = ∑ 𝑥(𝑘) ∙ 𝑇𝑐
𝑁 ∙ 𝑇𝑐

Semplificando 𝑇𝑐 si ottiene che il valore medio è uguale alla media aritmetica dei campioni:

1
𝑥̅ = ∑ 𝑥(𝑘)
𝑁

91
Se si vuole calcolare il valore quadratico medio, rms, bisogna semplicemente fare il quadrato dei campioni.
L’algoritmo che si è appena visto non dà dei buoni risultati nel momento in cui si prendono in considerazione
un numero intero di periodi più mezzo periodo. Per poter ovviare questo problema bisogna sempre lavorare
con un numero intero di periodi del segnale così che gli algoritmi forniscano i migliori risultati possibili. Questa
operazione si fa con il blocco che viene chiamato di trigger, blocco che può essere semplicemente
implementato anche il Labview. In effetti il trigger consiste nel trovare in quali punti il segnale che si sta
considerando passa per un determinato livello e con un a determinata pendenza.
Per capire bene di cosa si sta parlando è bene fare riferimento a quelle che vengono comunemente chiamate
misure di tempo e misure di frequenza. Lo strumento che consente di effettuare correttamente questo genere
di misure è il contatore numerico (all’interno dei voltmetri si trovano delle versioni semplificate di contatori
numerici). Il contatore numerico fa diverse operazioni che si basano tutte sullo stesso principio di
funzionamento.

Figura 18.1 - Principio generale di misura di tempo

L’idea che sta alla base del contatore numerico è data dall’esistenza di due segnali, entrambi onde quadre. Il
primo segnale è un segnale di conteggio, ossia un segnale che stabilisce cosa contare ed avente un periodo 𝑇1 .
Il secondo segnale è invece un segnale di abilitazione, avente un periodo 𝑇2 molto più lungo di 𝑇1 e che
permette di capire per quanto tempo bisogna contare. Supponendo di lavorare sui fronti di salita del segnale,
allora, ad ogni fronte di salita, si conteranno gli impulsi 𝑇1 solo se è attivo il segnale di abilitazione. Più sono
i conteggi che si riescono ad effettuare e migliore risulterà essere il risultato di misura. Il segnale che si ottiene,
fatto di un treno di impulsi che si accendono e si spengono il base al valore dell’abilitazione, va direttamente
ad un contatore che, eseguendo un conteggio, fornisce il risultato di misura, ossia quel numero che, nel caso
che si sta studiando, rappresenta il valore del periodo o della frequenza del segnale che si sta analizzando. Solo
quando 𝑇2 ≫ 𝑇1 , cioè solo quando la frequenza del conteggio è molto maggiore della frequenza di abilitazione,
si ottengono dei buoni risultati.

92
Per poter capire se bisogna fare misure di tempo o misure di frequenza bisogna capire chi è il segnale di
abilitazione e chi è il segnale di conteggio.
Lo schema generale di misura è il seguente:

Figura 18.2 - Schema generale di misura

Il segnale di conteggio viene inviato ad una porta logica la quale può essere immaginata come un interruttore
in grado di aprirsi e chiudersi e che è governato dal segnale di abilitazione. Nel caso di segnale di abilitazione
attivo (Start) allora la porta logica consente al segnale di conteggio di giungere al dispositivo di conteggio, nel
caso di segnale di abilitazione disattivo (Stop) la porta logica non fa arrivare il segnale di conteggio al
dispositivo di conteggio. Siccome c’è bisogno di segnali di start e di stop che consentano di capire quando
permettere al segnale di conteggio di arrivare al dispositivo di conteggio allora, a monte della porta logica, è
bene inserire un circuito di controllo in grado di gestire le due situazioni. Il segnale di abilitazione è il segnale
che fornisce il cosiddetto 𝑇𝑜𝑛 , definito come il tempo di misura o come la durata dell’intervallo entro il quale
si va ad effettuare la misura. Durante questo 𝑇𝑜𝑛 , come già detto, un centro numero di segnali di conteggio
giungono al dispositivo di conteggio il quale non fa altro che contarli e fornire un certo valore 𝑁. La relazione
di misura è sempre:

𝑇𝑜𝑛 = 𝑁 ∙ 𝑇𝑐𝑜𝑛𝑡

𝑇𝑐𝑜𝑛𝑡 rappresenta il valore del periodo del segnale di conteggio e 𝑇𝑜𝑛 è la durata dell’abilitazione. La relazione
scritta è di tipo digitale, ossia una relazione quantizzata (incrementi finiti). Si avrà quindi un valore di uscita
quantizzato in base al segnale di conteggio. Il più piccolo intervallo di tempo che si riesce a misurare è 𝑇𝑐𝑜𝑛𝑡 .
Conviene quindi che 𝑇𝑐𝑜𝑛𝑡 sia piccola poiché più piccola è 𝑇𝑐𝑜𝑛𝑡 e migliore sarà l’approssimazione
dell’intervallo 𝑇𝑜𝑛 .
Se si distribuiscono le parti in gioco maniera opportuna allora si riescono ad ottenere o delle misure di tempo
o delle misure di frequenza. Associando il segnale di abilitazione all’uscita del clock interno ed associando
alla variabile di conteggio il segnale di ingresso allora si riescono ad effettuare delle misure di frequenza (Se

93
si invertono i ruoli, ossia se si utilizza l’oscillatore interno come valore di conteggio ed il segnale di ingresso
come abilitazione si ottengono delle misure di intervallo di tempo). Nel fare queste associazioni bisogna però
superare due problemi e per farlo è bene focalizzarsi sul segnale di ingresso. In particolare, siccome il contatore
lavora solo su segnali ad onda quadra e non è interessato alle ampiezze, questo perchè nell’effettuare misure
di tempo e di frequenza l’ampiezza non è un parametro significativo, allora può essere utile inserire un blocco
non lineare in modo che qualunque cosa entri l’uscita risulti essere un’onda quadra. Il circuito che consente di
fare ciò è il circuito di ingresso con trigger. Esso è progettato in modo tale che siano perse tutte le informazioni
sull’ampiezza del segnale di ingresso. In particolare, il trigger che consente di effettuare tale operazione prende
il nome di trigger di Schmitt. Le uniche informazioni che vengono mantenute sono quelle relative al periodo
ed alla frequenza del segnale di ingresso.

Figura 18.3 - Schema a blocchi per misure di tempo e frequenza

L’altro problema è legato al fatto che, siccome si lavora con clock in grado di produrre onde quadre con una
periodicità che si mantiene estremamente stabile allora tali clock non possono lavorare con qualsiasi frequenza
ma sono in grado di lavorare solo con frequenza dell’ordine dei MHz. Ciò significa che vi saranno intervalli
di tempo dedicati al conteggio relativamente piccoli. Questo è però un problema perché per poter contare
abbastanza segnali di conteggio si ha bisogno di intervalli di tempo che siano più lunghi. Per sopperire questo
problema si inserisce una catena di divisori, uno strumento in grado di aumentare la periodicità del segnale
postogli in ingresso. Questa catena consente di generare l’abilitazione e durante l’abilitazione si contano quanti
impulsi ci sono del segnale di conteggio.
Si è così arrivati allo schema a blocchi di un contatore numerico.

94
Figura 18.4 - Schema a blocchi contatore numerico

Ad esso è fornita una tensione di ingresso che passa tramite un circuito d’ingresso e che diventa un’onda
quadra. È presente un oscillatore ed eventualmente, settando la catena di divisori, l’onda quadra finisce al
circuito di controllo il quale cambia le impostazioni a seconda se si vogliono effettuare delle misure di tempo
o di frequenza. A seconda della misura che si vuole effettuare viene pilotata la porta logica dalla quale esce un
treno di impulsi che viene contato ed il valore intero che il contatore registra è quel valore che, tramite un
coefficiente e tramite una moltiplicazione, fornisce il risultato di misura. Questo oggetto è quindi un misuratore
quantizzato di tempo e di frequenza. È bene esaminare singolarmente i blocchetti che compongono lo schema
a blocchi del contatore numerico.

Circuito d’ingresso
Lo scopo del circuito di ingresso è quello di prendere un generico segnale e di renderlo adatto ai circuiti
successivi. Effettua quindi un compito di servizio per i blocchi successivi che hanno bisogno di fronti netti su
cui effettuare i conteggi. Proprio per questo motivo questo blocco ha come uscita sempre un’onda quadra che
presenta lo stesso periodo del segnale di ingresso. L’idea è quella di prendere un segnale qualunque, fissare un
certo livello, che prende il nome di livello di trigger, e:
se il segnale è sopra il livello di trigger allora l’uscita è livella logica.
se l’uscita è sotto il livello di trigger l’uscita è logica bassa.
In questo modo l’uscita sarà sempre normalizzata in termini di valori (logica bassa-logica alta) e bisogna
soltanto controllare se l’ingresso e sopra o sotto il livello di trigger. Valore normale e comune per il livello di
trigger è il livello zero. Se si lavora con una sinusoide e si utilizza un livello di trigger a zero allora la semionda
positiva rappresenta la logica alta mentre la semionda negativa rappresenta la logica bassa. Se si sposta il
livello di trigger allora l’impulso positivo si restringe e l’impulso negativo si allarga ma la periodicità rimane
sempre la stessa.

95
Figura 18.5 - Circuito d'ingresso

Il dispositivo che esegue questo compito non può accettare qualsiasi tipo di ampiezza e per questo motivo è
importante fare prima di tutto operazioni di amplificazione o attenuazione in modo tale da portare il livello di
segnale già ad un livello docile. Con questo approccio esiste però un problema che bisogna affrontare e che è
legato al fatto che non esistono segnali puliti. Per tal motivo, nel momento in cui si utilizzano segnali reali, è
probabile che sullo stesso segnale siano presenti delle componenti di rumore e quindi delle commutazioni
spurie, ovvero degli attraversamenti non voluti del livello di trigger, che il contatore vede come impulsi di
conteggio e che quindi considera come fronti di salita. Per tale motivo non si utilizza una sola soglia ma si
utilizza una doppia soglia (soglia alta e soglia bassa). Tipicamente esse sono una soglia positiva ed una soglia
negativa fra loro simmetriche. In tal caso la commutazione risulterà essere un po' più articolata poiché bisogna
controllare il passaggio per la prima soglia ed il passaggio per la seconda soglia. In particolare, nel momento
in cui si si sta salendo la soglia attiva risulterà essere solo la soglia alta, di conseguenza eventuali passaggi del
segnale per la soglia bassa risulteranno essere ininfluenti. Nel momento in cui viene attraversata la soglia alta
ed il segnale inizia a scendere allora in discesa non viene osservato il passaggio per la soglia alta ma si
considera il passaggio per la soglia bassa. Il passaggio per la soglia alta definisce una transizione 0→1, il
passaggio per la soglia bassa definisce una transizione 1→0. Tutti gli altri attraversamenti risultano essere
ininfluenti e quindi il metodo garantisce una buona limitazione alle commutazioni spurie. L’unico caso in cui
non si riesce a risolvere il problema delle commutazioni spurie si ha nel momento in cui il rumore sovrapposto
al segnale di interesse è tale da far scendere quest’ultimo oltre la soglia bassa. Per ovviare questo problema la
distanza tra la soglia bassa e la soglia alta è un parametro che prende il nome di fascia di isteresi. Tale fascia
si può allargare e ristringere a seconda del valore picco-picco del rumore. Bisogna fare in modo che il valore
picco-picco del rumore non superi la fascia d’isteresi.
Osservando la figura sopra si vede come il circuito d’ingresso sia dotato di un accoppiamento in continua e di
un accoppiamento in alternata. Ciò consente di far passare il segnale di ingresso per due differenti strade. Se
si chiude l’interruttore, allora il segnale di ingresso passa attraverso il corto circuito e così come viene posto
in ingresso allo stesso modo prosegue il suo cammino lungo il circuito. Se invece viene aperto l’interruttore il
96
segnale è costretto a passare attraverso il ramo dove è presente il condensatore che, comportandosi da filtro
passa alto (il condensatore è un dispositivo che si comporta da filtro passa alto poiché alle alte frequenze si
comporta da corto circuito ed alle basse frequenze si comporta come un circuito aperto eliminando così le
componenti continue). Sono inoltre presenti:
una barriera di diodi Zener per evitare sovratensioni
un adattatore di impedenza così da poter collegare questi dispositivi anche ad architetture con elevata
impedenza quali linee di trasmissione ed antenne.
un AGC (Automatic Gain Control) è un blocco in grado di gestire attenuazione ed amplificazione così
da poter lavorare sempre con lo stesso segnale. L’AGC si trova anche nelle autoradio e consente di
ascoltare la radio con un volume che è sempre lo stesso indipendentemente dalla variazione della
frequenza dovuta agli spostamenti. Il circuito di AGC contente al trigger di Schmitt di lavorare nelle
migliori condizioni possibili.
Il trigger di Schmitt presenta in uscita un’onda quadra generata a partire da una sinusoide (anche altri
segnali di ingresso vanno bene) in ingresso e grazie all’utilizzo di un livello di trigger a doppia soglia.

Porta logica
La porta logica non è particolarmente interessante. Essa non è altro che un interruttore che si apre e si chiude
grazie ad un impulso di start ed un impulso di stop. Nel dettaglio essa può essere schematizzata con un flip-
flop RS in cui il comando di set chiude l’interruttore mentre il comando di reset lo apre.

Figura 18.6 - Porta logica

Base dei tempi


La base dei tempi è fatta con un oscillatore, tipicamente con un valore intorno ai 10 MHz. Essi sono fatti al
quarzo e termostatati in modo tale che la loro stabilità risulti estremamente elevata. Ciò che esce dalla base
dei tempi è un’onda quadra con una periodicità estremamente costante (orologi che si mantengono costanti per
parti per milioni o per parti per miliardo).
97
Figura 18.7 - Base dei tempi: divisori

Se si inserisce un contatore modulo 10 (contatore che conta da 0 a 9, si azzera e fornisce un segnale di riporto)
e si guarda il segnale di riporto si ottiene un’onda quadra perché si ha un treno di impulsi con una periodicità
dieci volte più lunga perché ogni dieci colpi di clock il contatore modulo dieci fornisce un impulso di riporto.
A valle di questo contatore modulo dieci è possibile aggiungere un altro contatore modulo dieci così da avere
un impulso di riporto ogni cento colpi di clock. Se si aggiunge un ulteriore contatore modulo dieci allora si
ottiene un impulso di riporto ogni mille colpi di clock. In questo modo si hanno delle onde quadre aventi
periodi diversi l’uno dall’altro ognuno dei quali è possibile scegliere in base all’applicazione che si è interessati
a fare. Se si è interessati ad un’onda quadra con periodicità pari a 1s allora si collega l’uscita corrispondente
ad 1s, se si è interessati ad un’onda quadra con periodicità pari a 100us allora si collega l’uscita corrispondente
a 100us e così via. In definitiva, i contatori modulo 10 servono a moltiplicare per dieci il periodo. Esistono
alcune applicazioni in cui la frequenza deve essere aumentata. Si tratta di applicazioni un po' particolare in cui,
normalmente, si perde in precisione. Per poter aumentare la frequenza di un clock bisogna diminuire il periodo.
Questa operazione la si può fare scomponendo l’onda quadra con la quale si sta lavorando in armoniche e
focalizzandosi sull’armonica di interesse. Fatto ciò, effettuando un filtraggio passa-banda si ottiene una
funzione seno con una frequenza pari a 𝑥 volte la frequenza della componente fondamentale, dove per 𝑥 si
intende in numero dell’armonica (terza armonica, quinta armonica, etc.). Infine, effettuando un’operazione di
trigger si ricava una nuova onda quadra con frequenza 𝑥 volte più grande rispetto alla frequenza dell’onda
quadra di partenza. L’insieme della catena di filtri comporta dei problemi circa la stabilità del clock e, per
quanto possibile, si cerca di evitarli.

Unità di conteggio e visualizzazione


L’unità di conteggio è un semplice contatore che prende come ingresso il segnale di start ed il segnale di stop.
Quando c’è da contare si è soliti sempre considerare una tolleranza di ±1. mentre la visualizzazione è un
semplice display LCD.

98
Lezione 19 (14 novembre 2016)

Misure di frequenza
Lo schema di misura della frequenza è il seguente:

Figura 19.1 - Schema di misura della frequenza

Si supponga di avere un segnale, tipicamente un segnale delle telecomunicazioni, elettrico od elettronico, del
quale si vuole conoscere con estrema precisione la frequenza. Per alcuni scopi di telecomunicazione è
fondamentale sintonizzarsi con la frequenza giusta perché sbagliare, anche di poco, la sintonia significa non
ricevere correttamente la transizione delle informazioni, soprattutto quando si lavora ad elevate velocità. Se si
ha del disallineamento fra chi trasmette e chi riceve, semplicemente non si riceve più nulla perché il
disallineamento in frequenza comporta una differenza che, aumentando sempre più col passare del tempo,
definisce un disallineamento tra chi parla e chi ascolta.
Per poter effettuare questo genere di misurazioni bisogna, prima di tutto, individuare chi è il segnale di
conteggio e chi è il segnale di abilitazione. Per questo genere di misurazioni, il segnale che viene utilizzato per
il conteggio è il segnale incognito che, passato attraverso il trigger, produce un’onda quadra avente
un’ampiezza normalizzata ed una periodicità uguale alla periodicità del segnale in ingresso. Così facendo,
come si è già visto, vengono perse tutte le informazioni relative all’ampiezza del segnale in ingresso e vengono
invece conservate tutte quelle informazioni relative alla sua periodicità. Il segnale triggerato arriva alla gate
che viene aperta e chiusa dal clock interno che, tramite una catena di divisori, è in grado di determinare quando
inizia e quando termina la misurazione. In particolare, l’oscillatore, dopo essere passato per un certo numero
di divisori, produce un segnale che è un sottomultiplo della frequenza del clock. Si utilizza un impulso come
start ed un impulso per lo stop e l’intervallo di tempo tra l’impulso di start e l’impulso di stop dura un certo
numero di clock (un certo numero di periodi dell’oscillatore interno) che è possibile scegliere regolando in
maniera opportuna la catena di divisori. All’interno del 𝑇𝑜𝑛 cadranno un certo numero di impulsi, ovvero un
certo numero di periodi (c’è un periodo per ogni impulso). In effetti, ciò che si conta è il numero di periodi che
sono caduti nell’intervallo 𝑇𝑜𝑛 . A seconda di come comincia e come finisce l’intervallo di 𝑇𝑜𝑛 , è possibile

99
prendere in considerazione ±1 periodo. Fatto ciò la misura è terminata e consiste semplicemente
nell’uguagliare:

𝑇𝑜𝑛 = 𝑁𝑥 ∙ 𝑇𝑥

Dove:
𝑇𝑜𝑛 è un parametro scelto dall’utente e rappresenta il numero di colpi di clock.
𝑁𝑥 è ciò che si è contato.
La misura di frequenza consiste semplicemente nel fare:

1 𝑁𝑥
𝑓𝑥 = =
𝑇𝑥 𝑇𝑜𝑛

Una scelta concettualmente semplice è quella di prendere 𝑇𝑜𝑛 = 1𝑠. Così facendo si ottiene che la frequenza
𝑓𝑥 è proprio uguale al numero di colpi di conteggio 𝑁𝑥 :

𝑓𝑥 = 𝑁𝑥

È molto importante che, nell’intervallo di tempo in cui si sta lavorando, il segnale deve essere stazionario
perché, nel caso di segnale varia la sua frequenza allora di avrà una valutazione media e quindi si definirà la
frequenza media del segnale. Lo strumento considerato, in quanto strumento digitale, ha un numero interno di
colpi contati. La risoluzione dello strumento la si ottiene prendendo la variabile di conteggio e ponendola
uguale ad 1, che è la più piccola quantità che è possibile misurare. In effetti, la risoluzione dello strumento
corrisponde col quanto della misurazione di tempo, corrisponde quindi anche con la tolleranza con la quale si
effettueranno valutazioni, è:

1
∆𝐹 =
𝑇𝑜𝑛

Ad esempio, se si vuole effettuare una misurazione con una risoluzione di 0,1 Hz allora il parametro che
bisogna scegliere è 𝑇𝑜𝑛 . Ciò significa che:

1 1
∆𝐹 = 0,1 𝐻𝑧 ⇒ 𝑇𝑜𝑛 = = = 10𝑠
∆𝐹 0,1

Anche nel caso della misura di frequenza è possibile fare l’analisi di incertezza utilizzando la formulazione
ridotta.
Certe volte non è interessante conoscere il valore della singola frequenza ma si è invece interessati al rapporto
tra frequenze. Questo tipo di analisi consente di verificare su quale armonica si sta lavorando. In questo caso
vengono struttati entrambi gli ingressi del contatore numerico (un contatore numerico è solitamente dotato di
due ingressi) e non si utilizza il clock interno. Uno dei due ingressi, quello sul quale è presente il segnale a
frequenza più bassa, fungerà anche da abilitatore mentre quello a frequenza più alta fornirà gli impulsi da
contare attraverso il trigger.

100
Figura 19.2 - Misure di rapporto di resistenze

La relazione che si scrive è quella per cui un certo numero di periodi del segnale uguagliano un certo numero
di periodi del secondo segnale.

𝑓𝐵 𝑁𝐵
𝑇𝑜𝑛 = 𝑁𝐴 ∙ 𝑇𝐴 = 𝑁𝐵 ∙ 𝑇𝐵 ⇒ =
𝑓𝐴 𝑁𝐴

Si effettua questo tipo di misurazione perché, essendo le grandezze correlate, allora si ottengono dei risultati
migliori.
La misura di frequenza va bene quando la frequenza del segnale è elevata. Quando la frequenza del segnale è
bassa conviene invece fare una misura di periodo. Questo perché avere dei segnali con un’elevata frequenza
significa avere dei tempi di attesa ridotti circa il risultato della misurazione ed una precisione maggiore sul
risultato. Quindi, in definitiva, alle alte frequenza si effettua una misura di frequenza mentre alle basse
frequenze si effettua una misura di periodo.

Misure di periodo
Per le misure di periodo la variabile di conteggio è data dall’oscillatore interno che quindi fornisce un treno di
impulsi che può essere o alla frequenza base dell’oscillatore oppure ad una sua frazione intera. Il segnale di
ingresso, tramite il trigger, è quello che fornisce il 𝑇𝑜𝑛 .

101
Figura 19.3 - Misure di periodo

𝑇𝑜𝑛 = 𝑇𝑥 = 𝑁𝐶 ∙ 𝑇𝐶

In questo caso quello che si fa è approssimare il periodo del segnale in base ai conteggi del clock interno. Se
si ha a disposizione un orologio con una frequenza estremamente alta allora si va a quantizzare il periodo con
un certo numero di colpi di clock, anche estremamente piccoli. La risoluzione di uno strumento in grado di
effettuare delle misurazioni di periodo è pari al periodo del clock.

∆ 𝑇 = 𝑇𝐶

Anche in questo caso è possibile effettuare una propagazione dell’incertezza.

Misure di periodo medio


Se si lavora con un segnale stazionario è possibile effettuare delle misure non solo su un periodo del segnale
ma anche su più periodi. Questo perché, lavorare con un segnale stazionario significa lavorare con un segnale
il cui periodo è sempre lo stesso.
Il vantaggio di effettuare una misura di più periodi sta nel fatto che, se ad esempio si effettua una misura di
dieci periodi, si sbaglia sempre di ±𝑇𝑐 ma stavolta il ±𝑇𝑐 , lavorando su dieci periodi, deve essere diviso per
10 ottenendo così un risultato dieci volte migliore. L’idea è quindi sempre la stessa ed è data dal fatto che
quanto più grande si riesce a rendere la variabile di conteggio allora tanto sarà più preciso il risultato della
misurazione effettuata. Facendo:

𝑇𝑜𝑛 = 𝑁𝑝 ∙ 𝑇𝑥

102
Figura 19.4 - Misure di periodo medio

Così facendo si allunga l’intervallo di misura ottenendo così una stessa risoluzione, la stessa tolleranza, di
conteggio e dei risultati migliori. Per fare questo, concettualmente, il trigger deve passare per una catena di
divisori. Quindi è possibile utilizzare una catena di divisori non solo per il clock ma anche per il segnale di
ingresso. In questo caso si avrà:

𝑁𝐶
𝑁𝑃 ∙ 𝑇𝑋 = 𝑁𝐶 ∙ 𝑇𝐶 ⇒ 𝑇𝑋 = ∙𝑇
𝑁𝑃 𝐶

La risoluzione di questo oggetto è pari a:

𝑇𝐶
∆𝑇 =
𝑁𝑃

Anche in questo caso è possibile effettuare una propagazione dell’incertezza.

Misura di ritardo di fase


Con lo schema della misura di periodo, in generale, si possono ottenere misure in qualunque intervallo di
tempo. L’idea è quella di mettere un segnale sul canale A, che fornisce l’inizio dell’intervallo di tempo, e
mettere un segnale sul canale B, che fornisce la fine dell’intervallo di tempo, utilizzando un trigger per ognuno
dei due canali. In effetti, il canale A fornirà lo start ed il canale B fornirà lo stop.

103
Figura 19.5 - Intervallo di tempo multiplo

Una particolare applicazione di questo tipo di applicazione è quella che viene chiamata misura dell’intervallo
di fase. Quando si fanno due segnali isofrequenziali può essere interessante conoscere quale sia la differenza
di fase tra l’uno e l’altro segnale. Ciò è utile, ad esempio, per tracciare i Diagrammi di Bode, per le misure di
potenza, per le misure di impedenza, etc. L’idea è quella di dare lo start col primo segnale e lo stop col secondo
segnale in modo tale che, all’interno dell’intervallo che si crea tra il primo ed il secondo segnale è possibile
contare quanti colpi di clock ci sono:

∆ 𝑇 = 𝑁𝐶 ∙ 𝑇𝐶

È possibile trasformare l’intervallo di tempo in fase utilizzando la seguente relazione proporzionale:

2𝜋
∆𝜑 = ∆ 𝑇 ∙
𝑇

Quindi, misurare il ∆ 𝑇 significa avere delle informazioni inerenti anche alla differenza di fase ∆𝜑 .

Misure distanziometriche
Si supponga di dover risolvere un problema dato da un cavo rotto, molto lungo, e che quindi non consente il
passaggio di informazioni da una sorgente ad un ricevente. Siccome il cavo è molto lungo non è certamente
conveniente verificare manualmente dov’è la rottura. Per tal motivo bisogna trovare una strada alternativa. Un
metodo può essere quello di propagare un’onda elettromagnetica così che, nel punto in cui è presente la rottura
quest’ultima viene riflessa. Misurando la distanza tra il punto in cui viene inviata l’onda elettromagnetica ed
il punto in cui quest’ultima viene riflessa allora si conosce a quale distanza è presente la rottura del cavo.

∆𝑇
𝑆=𝑉∙
2

104
Per poter effettuare queste misure in maniera corretta bisogna avere delle informazioni circa la velocità di
propagazione dell’onda elettromagnetica nel mezzo. Le misure distanziometriche rappresentano degli esempi
di misure di intervallo di tempo.

Misura dell’impulso
Un’altra applicazione che è interessante è quella di durata dell’impulso. Oggi le comunicazioni vengono
effettuate in maniera digitale per cui si è soliti lavorare con bit (1 e 0). Se l’1, o lo 0, non durano abbastanza
tempo allora essi non vengono riconosciuti come un valore logico alto o valore logico basso dal ricevente.

Figura 19.6 - Misura della durata dell'impulso

In alcuni casi è quindi necessario sapere quanto durano gli impulsi ed è anche in questo caso è possibile fare
ricorso a misure di intervalli di tempo. Si fornisce lo start sul fronte di salita, lo stop sul fronte di discesa e si
contano gli intervalli che ci sono tra lo start e lo stop così da verificare l’intervallo di tempo di un impulso. Un
approccio di questo tipo lo si può fare con un contatore numerico.

Contatori reciproci
Oggi, siccome è scomodo scegliere se effettuare una misura di periodo o una misura di frequenza, i moderni
strumenti sono in grado di svolgere contemporaneamente entrambe le misure. Lo stesso strumento,
analizzando il risultato, è in grado di scoprire quale delle due è stata realizzata con una maggiore accuratezza.
A questo punto, se il risultato con maggiore accuratezza è lo stesso richiesto dall’utente allora quest’ultimo
viene posto in visualizzazione. Se il risultato richiesto è, invece, diverso rispetto al risultato ottenuto con una
maggiore accuratezza, lo strumento non fa altro che effettuarne il reciproco prima di portarlo in
visualizzazione. Ad esempio, se si è chiesta una misura di periodo ma la misura con una maggiore accuratezza
è quella di frequenza allora lo strumento non fa altro che considerare la frequenza calcolata, farne il reciproco
e portarlo in visualizzazione. Questi tipi di contatori prendono il nome di contatori reciproci.

105
Figura 19.7 - Contatori reciproci

Il contatore reciproco è in grado di capire se fornire una misura di periodo o una misura di frequenza
confrontando le due tolleranze relative. Fissando un tempo di misura, 𝑇𝑜𝑛 , si va ad effettuare con quest’ultimo
sia una misura di periodo medio (in questo 𝑇𝑜𝑛 potrebbe capitare più di un periodo del segnale di misura) che
una misura di frequenza. Effettuando una misura di periodo medio si ottiene una tolleranza pari a:

Δ𝑇 𝑇𝐶 1
Γ𝑇 = = =
𝑇𝑋 𝑇𝑜𝑛 𝑇𝑜𝑛 ∙ 𝐹𝐶

Effettuando una misura di frequenza si ottiene una tolleranza pari a:

Δ𝐹 1
Γ𝐹 = =
𝐹𝑋 𝑇𝑜𝑛 ∙ 𝐹𝑋

Tali tolleranze sono uguali solo quando la frequenza del segnale è uguale alla frequenza del clock.

𝐹𝐶 = 𝐹𝑋

In particolare, per frequenze del segnale più piccole della frequenza di clock allora si avrà un’incertezza sulla
frequenza superiore rispetto all’incertezza sul periodo. Invece, per frequenze del segnale più alte della
frequenza di clock si avrà un’incertezza sul periodo maggiore dell’incertezza sulla frequenza. La frequenza
del clock funge quindi da spartiacque. In particolare, per segnali che hanno una frequenza più bassa della
frequenza di clock è conveniente effettuare misure di periodo perché l’incertezza sulla frequenza è più alta di
quella sul periodo. Per segnali che hanno valori di frequenze più alti di quelli della frequenza di clock allora è
conveniente fare misure di frequenze perché l’incertezza sul periodo è maggiore dell’incertezza sulla
frequenza.

106
Lezione 20 (16 novembre 2016)

L’oscilloscopio analogico
L’oscilloscopio è uno strumento di visualizzazione dei segnali elettrici ed elettronici. L’oscilloscopio ha subito,
almeno per una certa parte, la stessa evoluzione subita dai televisori perché da tubi a raggi catodici si è passati
a dispositivi a schermo piatto. Oltre alla tecnologia di visualizzazione, gli oscilloscopi sono anche cambiati
strutturalmente. Oggi, così come non esistono più tester e multimetri analogici, nessuno più costruisce degli
oscilloscopi analogici. Alcuni concetti sono però meglio comprensibili sull’oscilloscopio analogico che non
sull’oscilloscopio digitale. Lo schermo di un oscilloscopio analogico era uno schermo a fosfori i quali sono in
grado di illuminarsi, per un po' di tempo, se colpiti da elettroni. L’idea era quella che, con una sorta di tipo al
bersaglio, si partiva con un cannoncino di elettroni, da dietro si colpivano i fosfori così che essi s’illuminassero
e, in base alla forma d’onda desiderata, si spostava il cannoncino di elettroni in maniera opportuna. La cosa
bella era data dal fatto che sul segnale disegnato era, ed è tutt’ora, possibile effettuare delle misurazioni poiché
lo schermo si presenta come una carta millimetrata i cui quadrettini prendono il nome di divisioni,
tradizionalmente pari ad un centimetro (lo schermo era 10 centimetri orizzontali e 8 centimetri verticali). Se si
riesce a visualizzare una forma d’onda allora è possibile contare quante divisioni occupa e, di conseguenza,
misurare, ad esempio, dei valori picco-picco, un periodo. In definitiva, sull’asse verticale venivano effettuate
delle misurazioni di ampiezza e sull’asse orizzontale delle misurazioni di tempo. Era necessario sapere, però,
una divisione a quanti Volt corrispondesse (in verticale) ed una divisione a quanti secondi, multipli o
sottomultipli corrispondesse (in orizzontale). Lo strumento era estremamente versatile, cioè in grado di
adattarsi a molti utilizzi, ma presentava dei limiti circa la precisione delle misurazioni con esso effettuate. Si è
portati a dire che l’oscilloscopio è uno strumento in grado di fare molte misurazioni ma per tutte le misurazioni
che un oscilloscopio è in grado di effettuare esistono degli opportuni strumenti in grado di effettuare quelle
stesse misure in maniera molto più accurata. Oggi esistono degli oscilloscopi che sono diventati sempre più
precisi e che quindi consentono di effettuare delle misurazioni in maniera molto più accurata rispetto al passato.
Attraverso l’oscilloscopio si è in grado di seguire, in maniera molto flessibile, ciò che accade in diversi punti
del circuito. Di base, l’oscilloscopio è un voltmetro perché ciò che si visualizza sono tensioni. Questo non è
un limite perché esistono alcune sonde che sono in grado di trasformare ciò che si visualizza nella grandezza
fisica d’interesse. Ad esempio, esistono delle sonde che sono in grado di trasformare tensione in corrente così
da avere delle informazioni sia sull’una che sull’altra.
È bene chiedersi come fare a prendere la mira così da colpire il punto giusto col cannoncino di elettroni. L’idea
è quella di mettere due piastre di condensatori in modo tale da creare un campo verticale e due piastre di
condensatori in modo tale da creare un campo orizzontale. In queste condizioni, applicando una tensione in
corrispondenza delle due piastre di condensatori orizzontali allora si riesce ad indirizzare il fascio di elettroni
a destra o a sinistra a seconda del valore di tensione che si applica. Se, invece, si applica una tensione in
corrispondenza delle due piastre di condensatori verticali allora si riesce ad alzare o ad abbassare il punto in
cui l’elettrone deve giungere. Attraverso queste due piastre, si riesce a regolare in verticale ed orizzontale fino

107
a quando non si individua il punto preciso in cui si intende sparare un elettrone. In definitiva, andando a
scegliere due valori, uno per la deflessione orizzontale ed uno per la deflessione verticale, si riesce a piazzare
un elettrone sullo schermo esattamente dove lo si vuole. In tutto viene tarato in modo tale che con un certo
valore di tensione si raggiunge l’estrema sinistra e con un altro valore di tensione l’estrema destra. Con un
valore di tensione si raggiunge l’estremo alto e con un altro ancora l’estremo basso. Anche i televisori, in
passato, erano fatti in questo modo. È bene andare a verificare che cosa accade nel momento in cui si muovono
uno alla volta i parametri appena introdotti. A tal proposito si supponga, inizialmente, di avere una tensione
𝑉𝑥 = 0 ed una tensione 𝑉𝑦 che segue un andamento sinusoidale. Se la deflessione orizzontale è ferma allora
non ci si muove dal centro e quindi, muovendosi solo la deflessione verticale, quello che si ottiene è un
bastoncino. Non è quindi la maniera giusta per poter utilizzare l’oscilloscopio. Fatto ciò, si supponga ora di
mantenere ferma la 𝑉𝑦 e di muovere la 𝑉𝑥 a dente di sega. In questo caso non si ha spostamento verticale ma si
ha, ancora una volta, un bastoncino, stavolta verticale.

Figura 20.1 - Visualizzazione sull'oscilloscopio

Nei casi appena visti non si è avuta la possibilità di disegnare una forma d’onda sullo schermo
dell’oscilloscopio. Per cercare di farlo è bene provare a muovere contemporaneamente sia l’asse verticale che
l’asse orizzontale. Neanche quella di mettere una sinusoide su entrambi gli assi è una buona idea perché si ha
che 𝑉𝑥 = 𝑉𝑦 , si ha quindi l’equazione della bisettrice (𝑥 = 𝑦) e quello che si ottiene è un nuovo bastoncino,
stavolta inclinato di 45°. La cosa corretta è quella di utilizzare una deflessione orizzontale lineare, a dente di
sega, che consente di portare il pennellino dall’estrema sinistra all’estrema destra e contemporaneamente a
questo spostamento, bisogna aggiungere una deflessione verticale con l’effettiva ampiezza del segnale che si
intende rappresentare a video. In questo modo, mentre ci si sta spostando, il segnale alza ed abbassa il
pennellino luminoso in modo che venga tracciato a video l’andamento temporale del segnale che si ha in
ingresso.

108
Figura 20.2 - Visualizzazione a video che si vuole

109
Lezione 21 (18 novembre 2016)

L’oscilloscopio analogico
Si è visto come l’oscilloscopio fosse in grado di risolvere quei problemi relativi alla visualizzazione dei segnali.
In questa maniera ci si rendeva conto dell’andamento qualitativo, della presenza di rumore, della presenza di
transitori. Lo strumento è stato pensato come un visualizzatore sincronizzato di tensione, è quindi uno
strumento di osservazione sul quale è possibile fare anche delle misure ma con una precisione peggiore rispetto
a strumenti dedicati per specifiche misure. L’idea che è stata utilizzata fino agli anni ’80 è stata quella di
utilizzare un tubo a raggi catodici in grado di generare degli elettroni e di accelerarli per poi spararli verso uno
schermo formato da fosfori che, colpiti, si illuminavano. La direzione degli elettroni veniva cambiata grazie a
delle piastre di condensatori che permettevano di deviare la traiettoria degli elettroni grazie alla formazione di
un campo elettrico. La tecnologia del tubo a raggi catodici è ormai superata ma il concetto che oggi viene
utilizzato per illuminare lo schermo di un oscilloscopio è esattamente lo stesso di allora. Se prima la 𝑥 e la 𝑦
erano fornite dai deflettori, rappresentava quindi un gioco balistico in cui bisognava riuscire anche con una
certa precisione, oggi la visualizzazione viene effettuata con una matrice di punti che si accendono in base alle
coordinate. Affinchè il segnale in ingresso all’oscilloscopio venga riprodotto da quest’ultimo devono esserci
due tensioni, la tensione relativa all’asse delle 𝑥 che cresce linearmente in modo tale da portare la penna
luminosa dall’estrema sinistra all’estrema destra dello schermo. La tensione che genera, invece, la deflessione
verticale deve seguire l’andamento del segnale in modo che la tensione a rampa emula il comportamento del
tempo emula il comportamento del tempo che, incessantemente, procede mentre la tensione verticale consente
di verificare, in corrispondenza di un istante di tempo, qual è l’ampiezza. L’incrocio di queste due tensioni
consentono di avere una corretta visualizzazione del segnale in ingresso all’oscilloscopio. Bisogna tenere
presente che la visualizzazione è continua, quindi è come se si disegnasse una forma d’onda su un foglio con
una penna che alla fine del disegno viene alzata dal foglio e riportata al punto di partenza in modo tale da
calcare la stessa forma d’onda. La modalità che si è appena presentata è denominata modalità normale e prende
il nome di base dei tempi, modalità in cui la 𝑥 è la base dei tempi, ossia una rampa generata internamente
dall’oscilloscopio. È possibile anche, in maniera indipendente, sia impostare la tensione per avere la 𝑥 che la
tensione per avere la 𝑦. In questo modo si può disegnare a schermo quello che si vuole. Questo tipo di modalità
prende il nome di modalità 𝒙𝒚. Questo tipo di modalità viene utilizzata nel momento in cui si vuole
visualizzare un segnale in funzione di un altro. In definitiva, la modalità base dei tempi visualizza il segnale in
funzione del tempo mentre la modalità 𝒙𝒚 disegna un segnale rispetto ad un altro. La modalità che in questo
corso si utilizza è la base dei tempi, ovvero quella modalità per cui l’asse delle 𝑥 rappresenta una tensione
proporzionale al tempo e l’asse delle 𝑦 è determinato dal segnale che si vuole visualizzare.
Gli oscilloscopi hanno almeno due canali di ingresso, altri oscilloscopi possono avere quattro od otto canali di
ingresso a seconda della tecnologia. Gli oscilloscopi analogici avevano un massimo di due canali di ingresso.
La porzione di segnale visualizzato è dettato dal tempo che la rampa impiega dal passare dal valore minimo al
valore massimo. Ciò significa che se la rampa è molto pendente si visualizzerà una piccola porzione temporale

110
del segnale, se invece la rampa è poco pendente allora si visualizzerà una porzione temporale di segnale più
lunga. Esiste però un problema nel generare le rampe in una sequenza continua. Prima di affrontare questo
problema è bene dire che il passaggio della rampa da un valore minimo ad un valore massimo prende il nome
di spazzolata.

Figura 21.1 - Visualizzazione errata di un oscilloscopio

Il problema sta nel fatto che nel momento in cui si ha la ripetizione di un segnale andando dall’estrema sinistra
all’estrema destra non è detto che si ha sempre uno stesso punto di inizio. Quando si ha una visualizzazione di
questo tipo significa non saper utilizzare l’oscilloscopio. Il perché è dato dal fatto che del segnale mal
rappresentato non si riesce a capire quant’è il periodo del segnale, inoltre, siccome i fosfori restano accesi solo
per un lasso di tempo, è probabile che le forme d’onda che vengono rappresentate possano spegnersi e di
conseguenza osservare dei segnali che appaiono e scompaiono. Il tutto è dato dal fatto che si comincia a
disegnare sempre in un punto diverso dal precedente. Ciò che invece si vorrebbe è che, dopo la prima
spazzolata, non si iniziasse a disegnare subito ma si vorrebbe aspettare il momento propizio, ossia quel
momento in cui il segnale ripassa per il punto in cui si è cominciato a disegnare la prima volta. Bisogna
aspettare che la forma d’onda si ripresenti nelle stesse condizioni del primo disegno di modo che, quando si
verifica, se il segnale è stazionario, si va a ridisegnare esattamente la stessa forma d’onda. Quello che si vede
a video un solo segnale.

111
Figura 21.2 - Visualizzazione corretta di un oscilloscopio

Questo fa sì che non tutti i segnali sono visualizzabili dall’oscilloscopio analogico ma lo sono solo quei segnali
che si ripetono con una certa periodicità. Ad esempio, un transitorio, ossia un qualcosa che accade solo e
soltanto una sola volta, non è possibile vederlo attraverso un oscilloscopio. La visualizzazione corretta
dell’oscilloscopio mostra quindi una forma d’onda che apparentemente è ferma ma che, invece, è un continuo
ricalcare la stessa linea. Su segnali reali il ricalcare è impossibile perché al segnale bisogna sempre sommare
anche il rumore. Per poter essere sicuri di disegnare sempre a partire dallo stesso valore bisogna effettuare una
sincronizzazione con un certo evento, ossia il trigger, che è dato quando un segnale passa per un determinato
livello e con una determinata pendenza. Il segnale che si utilizza non è, quindi, un vero e proprio dente di sega
ma è un dente di sega con le attese. Il livello di trigger può essere qualunque perché non è detto che si vuole
visualizzare un qualcosa a partire, per forza, dallo zero. Se si sbaglia la condizione di trigger allora
l’oscilloscopio non fa vedere nulla.

Figura 21.3 - Sincronizzazione dell'oscilloscopio

Oggi, con gli oscilloscopi moderni, la condizione di trigger può essere molto più complicata di quella che si
vede sopra. Oggi l’evento di trigger può essere qualunque condizione di interesse affinchè si cominci a
visualizzare.

112
L’oscilloscopio si compone di due comandi principali: la possibilità di modificare i secondi a divisione ed i
volt a divisione. Nel momento in cui si cambiano i secondi a divisione si modifica il tempo di visualizzazione
del segnale e ciò che si cambia è la lunghezza della rampa con la quale si lavora. Una rampa più lenta contente
di avere delle visualizzazioni più lunghe, una rampa più corta consente di avere delle visualizzazioni più corte.

Figura 21.4 - Modifica dei secondi e dei volt a divisione

Un’altra grossa impostazione è data dai volt a divisione che consentono di modificare l’ampiezza del segnale.
Abbassando i volt a divisione, solitamente, si è in grado di avere delle buone visualizzazioni del segnale. È
bene tenere presente che la linea, siccome ha un certo spessore, comporta delle ambiguità che solitamente si
considera pari a 0,2 divisioni. Gli strumenti digitali moderni hanno superato queste limitazioni.
Esteticamente, l’oscilloscopio si compone di due canali e per ognuno dei due canali è possibile settare i
millivolt a divisione così da amplificare o attenuare l’ampiezza. È possibile settare un’amplificazione diversa
per il canale 1 e per il canale 2. Si hanno poi le impostazioni relativi ai secondi a divisione. Tale settaggio è
unico per entrambi i canali perché la porzione visualizzata risulterà essere la stessa. La parte un po' più
complicata è la parte di sincronizzazione, ovvero il trigger. I primi due controlli che si osservano sono quelli
relativi alla pendenza ed al livello coi quali si intende lavorare. Questi quattro controlli consentono di avere
una buona visualizzazione del segnale in ingresso all’oscilloscopio. Se si sposta il livello di trigger ciò che
accade è che cambia il punto di inizio.
Detto questo è bene verificare come si realizza un oscilloscopio. Lo schema è abbastanza semplice e si
compone di sei blocchi.

113
Figura 21.5 - Schema a blocchi di un oscilloscopio

Il segnale di ingresso ha un primo condizionamento analogico che consente di attenuare o amplificare il segnale
a seconda di ciò che si intende fare. Si effettua anche un adattamento di impedenza così da evitare la riflessione.
Gli oscilloscopi hanno due valori di impedenza di ingresso, una è 1𝑀Ω ed è per segnali in bassa frequenza e
viene utilizzata per rendere l’oscilloscopio equivalente ad un voltmetro, la seconda è invece pari a 50Ω e che
viene utilizzata per adattare l’oscilloscopio alle linee di trasmissione e per evitare le riflessioni. Il controllo che
l’utente ha sul blocco di condizionamento analogico sono i volt a divisione, ovvero quei parametri che
consentono proprio di amplificare o di attenuare il segnale. Dopo questo blocco, la linea di deflessione verticale
presenta un blocco di ritardo, ossia un blocco che da un po' di pausa al segnale così da allineare l’asse delle 𝑥
con l’asse delle 𝑦. Attraverso questo blocco si riesce ad allineare il processo così da poter poi osservare a
schermo il segnale in maniera corretta. La linea di ritardo produce il segnale di ingresso ma dopo un certo
tempo.
In contemporanea con la deflessione verticale deve esservi anche una deflessione orizzontale, ossia un qualcosa
in grado di generare la rampa. Tale rampa la si deve generare quando si genera l’evento di trigger. Alcune
volte il segnale di ingresso è molto rumoroso, altre volte il segnale è iso-frequenziale ma molto meno rumoroso.
C’è anche la possibilità di prendere il segnale di trigger dall’esterno. Quando si verifica l’evento di trigger si
ha poi la generazione di impulsi che fanno partire la rampa di visualizzazione. Il generatore di rampa lo si
governa attraverso i secondi a divisione.

Deflessione verticale
La deflessione verticale è fatta di un amplificatore/attenuatore, controllato dai volt a divisione, che è
caratterizzato da tre diverse possibilità: AC, DC, GND. Normalmente queste possibilità sono messe in
prossimità del controllo dei volt a divisione.

114
Figura 21.6 - Blocco di deflessione verticale

AC consente di eliminare la componente continua al segnale, facendo così passare solo la componente alternata
così da avere un segnale che passante sicuramente per lo zero. Il vantaggio di tale modalità sta nel fatto che,
siccome il segnale passa per lo zero, allora, nel momento in cui si deve scegliere il livello di trigger allora è
possibile scegliere proprio lo zero. Segnali generici possono essere invece spostati rispetto allo zero e quindi
c’è bisogno di conoscere dove si trovano esattamente per poter poi prendere il livello di trigger giusto. DC non
effettua alcuna modifica al segnale e permette quindi il passaggio sia della componente continua che della
componente alternata. La terza modalità è invece quella di GND, ossia una modalità di diagnostica in grado di
prendere l’ingresso e di cortocircuitarlo a zero. In tale modalità il segnale di ingresso può anche non starci e
se si riesce a vedere a qualcosa è una semplice linea dritta posata sull’asse delle 𝑥. Questa linea dritta non
attiverebbe mai il trigger e per questo motivo, ossia per i casi in cui non si ha evento di trigger, di azionare il
trigger anche a mano premendo un pulsante presente sull’oscilloscopio.
Un primo parametro importante del blocco di deflessione verticale è quello di banda passante. Siccome lo
stadio di ingresso degli amplificatori si comporta come un filtro passa-basso, ciò fa sì che fino ad una certa
frequenza questi fanno passare dei segnali, dopo di che li attenuano fino a cancellarli. Un parametro di pregio
degli oscilloscopi è la banda analogica passante, ossia quel parametro che è in grado di fornire la frequenza
fino alla quale l’oscilloscopio che si sta utilizzando è in grado di accogliere un segnale. Più della banda analogia
passante un oscilloscopio non è in grado di vedere. Un parametro legato alla banda passante è il tempo di
risposta, anche detto tempo di salita. I sistemi che hanno una grossa banda passante hanno dei piccoli tempi
di salita. La banda passante è un’informazione su segnali di tipo sinusoidale mentre la seconda è
un’informazione relativa ai segnali tipo onda quadra. C’è poi l’amplificazione ed avere diversi livelli di
amplificazione significa riuscire a lavorare con vari range di segnali, da molto piccoli a molto grandi, così da
rendere l’oscilloscopio flessibile.

115
Lezione 22 (21 novembre 2016)
Nota: non ero a lezione e l’ho fatta dagli appunti sbobinati di Francesco Arcadio

Deflessione verticale
È possibile schematizzare il blocco di condizionamento verticale nel modo seguente:

Figura 22.6 - Blocco di condizionamento verticale

Il blocco di condizionamento verticale presenta tre diverse modalità di funzionamento.


La prima modalità, DC, prende il segnale così come è stato posto in ingresso e lo porta ai blocchi
successivi.
La seconda modalità, AC, è caratterizzata dall'avere un condensatore tra l'ingresso ed i blocchi
successivi. Dato che il condensatore alle alte frequenze si comporta come un in corto circuito allora nel
momento in cui si chiude l'interruttore su AC si effettua uno filtraggio di tipo passa-alto con una specifica
frequenza di taglio. Tale metodo di funzionamento viene utilizzato quando è presente un disturbo in
continua.
L'ultima modalità di funzionamento è la GND. In questo caso l'ingresso viene posto a zero e quindi la
deflessione verticale risulta essere nulla. In tal caso si ottiene a schermo una linea orizzontale. Tale
modalità di funzionamento è utilizzata come controllo per diagnosticare eventuali problemi
nell’oscilloscopio.
Il blocco di condizionamento è fondamentale e l'esigenza di disporre di tale blocco è dovuto al fatto che i
segnali che si possono visualizzare con l’oscilloscopio possono essere molto diversi gli uni dagli altri. La linea
di ritardo serve per risolvere problemi di sincronizzazione. L'amplificatore veniva utilizzato solo per portare
l'ingresso a dei livelli adatti al gioco balistico degli elettroni. La banda dell'amplificatore e quella del tubo a
raggi catodici determinano la banda dello strumento, che può essere definita come l'intervallo di frequenze che
lo strumento può trattare senza introdurre distorsione. Altro parametro importante è l'impedenza di ingresso
che può essere adattata (50Ω) oppure infinita (alta impedenza).

116
Deflessione orizzontale
La deflessione orizzontale si occupa della generazione della rampa sincronizzata in modo tale da avere una
visualizzazione stabile. Il blocco di deflessione orizzontale si divide, a sua volta, in tre diversi blocchi: blocco
del trigger, base dei tempi, amplificatore orizzontale. In particolare:
Blocco del trigger: entra un segnale ed esce un treno di impulsi che dice quando far partire la rampa.
Base dei tempi: ha in ingresso gli impulsi provenienti dal trigger e ha il compito di generare un dente di
sega a pendenza variabile
Amplificatore orizzontate: funzionale alle placchette di deflessione.

Blocco del trigger

Figura 22.7 -Blocco del trigger

Il circuito di trigger ha lo scopo di fornire un impulso al passaggio di un segnale per un livello con una data
pendenza prefissata. In ingresso può avere diverse possibilità, in particolare:
INT: la sorgente può essere ricavata dal segnale di ingresso stesso
EXT: la sorgente può essere ricavata da un generico segnale fornito dall'esterno.
LINE: la sorgente può essere ricavata nella dall'alimentazione.
Negli ultimi due casi i segnali devono essere di tipo isofrequenziali. Il circuito riportato in Figura 22.2 preleva
il segnale d'ingresso e ad esso sottrae il livello di trigger scelto in tal modo da traslare il segnale verso il basso
così da centrarlo intorno allo zero. Il blocco squadratore è un comparatore a zero. In particolare, esso fornisce
una uscita maggiore di zero nel momento in cui il segnale centrato intorno allo zero è maggiore di zero e
fornisce una uscita minore di zero nel momento in cui il segnale centrato intorno allo zero e minore di zero.
Per un segnale periodico, il segnale che si ottiene dal blocco squadratore è sempre un’onda quadra di periodo
uguale al periodo del segnale di ingresso e commutazione quando 𝑉𝐿 = 𝑉𝐼 .
Il blocco derivatore effettua la derivata del segnale proveniente dal blocco squadratore. Esso quindi effettua la
derivata di una onda quadra. Si sa che la derivata di una funzione discontinua è uguale a degli impulsi di Dirac.

117
Ciò implica che in corrispondenza della salita si hanno degli impulsi positivi ed in corrispondenza della discesa
si hanno degli impulsi negativi.
Il blocco di Clipper, infine, un blocco dedicato alla cancellazione degli impulsi positivi.

Base dei tempi

Figura 22.8 - Base dei tempi

Lo scopo fondamentale della base dei tempi e quello di generare un dente di sega sincronizzato con il segnale
tramite gli impulsi di trigger. È bene specificare come non tutti gli impulsi devono generare la partenza di una
rampa (si pensi ad esempio al caso in cui ci sia già una rampa in atto). Il blocco di gate è un blocco che
consente di filtrare gli impulsi provenienti dal trigger e corretti con hold off (in particolare, l’hold off aggiunge
una tensione così da rendere nullo l'accesso quando è già presente una rampa in alto in modo tale da scartare
impulsi. Una volta disegnata la rampa, la retroazione non ha più effetto ed è possibile accettare il prossimo
impulso di trigger.). Esso presenta una uscita costante e positiva per un tempo prefissato, 𝑇𝑉𝐼𝐷 , quando in
ingresso ha un impulso negativo. Il blocco di gate presenta tre modalità di funzionamento.

Figura 22.9 - Blocco gate

118
Modalità Normal: nella modalità Normal il gate attende gli impulsi negativi provenienti dal trigger e
corretti con il segnale di hold off. Quando arriva un impulso la tensione di uscita dal gate, 𝑉𝑐 , diventa
positiva avviando la rampa. Insieme alla rampa si attiva il segnale di unbanking che accende il pennellino
luminoso. L'accettazione di eventuali altri impulsi è disabilitata con la rampa retro azionata attraverso la
linea di hold off che, aggiungendosi il trigger, non permette di raggiungere la soglia di attivazione fino a
che non è terminata la visualizzazione.
Modalità Auto: nella modalità Auto, il gate senza tenere conto del fatto se sono presenti o meno impulsi
in ingresso, periodicamente si attiva determinando la partenza della rampa. Questa modalità si usa
quando non si conosce alcune informazioni circa il segnale. Attraverso tramite tale modalità si capiscono
i livelli del segnale così da poter passare poi alla modalità Normal.
Modalità Single: nella modalità single ogni singola spazzolata richiede l'attivazione mediante un
comando esterno come, ad esempio, la pressione di un pulsante.

Base dei tempi ritardata

Figura 22.10 - Base dei tempi ritardata

La base dei tempi ritardata si fonda essenzialmente sull'utilizzo di due basi di tempi. In particolare si ha:
una base dei tempi principali.
una base dei tempi ritardata.
In questo caso si ha una doppia rampa delle quali la prima parte in corrispondenza degli eventi di trigger. Si
imposta poi un secondo evento di trigger non sul segnale ma sulla rampa generata prima causando quindi un
certo ritardo.

Oscilloscopio a doppia traccia


L’oscilloscopio a doppia traccia consente la rappresentazione contemporanea di due segnali differenti,
permettendo così di effettuare confronti diretti di ampiezza frequenza fase ed altre caratteristiche. Vi sono due
diversi sistemi che consentono di ottenere una doppia traccia su un solo tubo a raggi catodici:
119
Utilizzare un tubo a raggi catodici a doppio cannone elettronico.
Munire l’oscilloscopio di due attenuatori e pre-amplificatori verticali ed un commutatore elettronico
avente il compito di inviare alle placche di deflessione verticale i due segnali in tempi diversi.
Il secondo caso è il più diffuso in quanto è economicamente più conveniente.
Si considerino due canali A e B, ambedue con la stessa struttura di un canale verticale, su cui agiscono i
comandi per regolare separatamente la sensibilità verticale e due comandi (position) di posizionamento
verticale. I due segnali vengono applicati ad un unico amplificatore verticale attraverso un commutatore
elettronico, detto commutatore di modo.

Figura 22.11 - Commutatore di modo

Tramite l'apertura e la chiusura degli interruttori il commutatore di modo consente di visualizzare:


soltanto il segnale A.
soltanto il segnale B.
il segnale somma A+B.
i segnali A e B in modalità chopped.
i segnali A e B modalità alternate.

Modalità chopped
Nella modalità chopped la commutazione è effettuata ad una frequenza fissa solitamente abbastanza elevata,
ad esempio 500 kHz. I segnali applicati ai canali A e B vengono forniti alternativamente all'amplificatore
verticale e, quindi, vengono rappresentati a segmenti temporali della stessa lunghezza, ma alternati. Quanto
maggiore è la frequenza di commutazione rispetto alla frequenza dei segnali allora tanto maggiore sarà il
numero di segmenti temporali e quindi tanto minore sarà la loro durata. Si avrà quindi una rappresentazione
con molti segmenti vicini gli uni con gli altri che quindi approssima una figura continua. In questa modalità le
relazioni di fase tra i segmenti sono conservate.

120
Figura 22.12 - Modalità chopped

Modalità alternate
Per segnali a frequenza elevate è preferibile usare la modalità alternate.

Figura 22.13 - Modalità alternate

In questo caso la commutazione tra i canali A e B avviene al termine di ogni scansione orizzontale. Durante
una rampa del dente di sega della base dei tempi viene rappresentato il segnale sul canale A e durante la rampa
successiva viene rappresentato il segnale del canale B e così via in maniera alternata. La sincronizzazione può
avvenire sul segnale A, sul segnale B oppure su entrambi alternativamente. In quest'ultimo caso si prendono
le relazioni di fase tra i due segnali.

Punti deboli dell’oscilloscopio analogico


L’oscilloscopio analogico è dotato di vari punti deboli. In particolare:
visualizza solo segnali ripetitivi, visualizza solo post trigger,
non può memorizzare,
tutti i blocchi funzionali sono in cascata e quindi le prestazioni dello strumento non possono superare
quello del blocco più modesto,

121
il tubo a raggi catodici vettoriale è delicato è costoso.
Sonde per l’oscilloscopio
Per la connessione dell’oscilloscopio al circuito di misura vengono utilizzate delle sonde di tensione, dette
anche puntali, o sonda di corrente, tipicamente a pinza, collegati con cavi coassiali con terminazione a BNC.
L’oscilloscopio ha solitamente un’impedenza di ingresso rappresentabile con il parallelo di una resistenza
(50Ω o dell’ordine dei MΩ) e di una capacità dell’ordine dei 10pF. Il comportamento di una sonda è di tipo
passa basso. Ciò significa che il parametro principale è una capacità fittizia 𝐶𝐶 che è tanto più grande quanto
più è lungo il cavo. Per correggere questi problemi dinamici e quelli relativi al cavo delle sonde si aggiunge
una resistenza 𝑅𝑠 ed un condensatore 𝐶𝑠 (in parallelo) controllabile. Tale blocco prende il nome di blocco di
compensazione.

Figura 22.14 - Sonde per l'oscilloscopio

122
Lezione 23 (23 novembre 2016)

Misure di resistenza
Finora si è visto come effettuare delle misure di tensione e di corrente. Quello che ora si vuole fare è cercare
di mettere insieme i risultati di misura di tensione e di corrente in modo tale da fare una misura di resistenza,
misure di impedenza e misure di potenza. Si focalizzerà l’attenzione sulle misure di resistenza e nel misurare
tali quantità l’alimentazione che si è soliti utilizzare è quella per cui si hanno tensione e corrente in continua
poiché alimentare in sinusoidale per misurare una resistenza è una contorsione mentale che può portare a
perdite di accuratezza. Si lavorerà in bassa frequenza e si farà riferimento all’utilizzo dei multimetri, in
particolare dei voltmetri a doppia rampa consentono di ottenere dei risultati estremamente precisi. L’idea di
base è la seguente:

Figura 23.1 - Schema generale di una misura di resistenza

Nella figura sopra, 𝐸 rappresenta l’alimentatore stabilizzato per la continua in grado di regolare un certo livello
di tensione in modo da fornire l’alimentazione ad altri circuiti. Tale alimentatore può essere regolato, ossia è
possibile cambiare il livello di tensione sulla resistenza 𝑅𝑥 , e l’effetto della regolazione è mostrato attraverso
una resistenza variabile. Nel momento in cui vari la resistenza variabile varia anche il partitore di tensione e
quindi varia la tensione ai capi della resistenza 𝑅𝑥 . Si utilizza questo schema perché, in passato, avere dei
generatori variabili in tensione poteva rappresentare un problema e per tal motivo si preferiva variare il
partitore attraverso l’inserimento di un resistore variabile continuando così ad utilizzare un generatore con
tensione fissa. Siccome la tensione ai capi della resistenza è possibile regolarla, allora è bene sceglierla e per
farlo bisogna cercare di mettere gli strumenti di misura nelle migliori condizioni possibili cosi che tale tensione
possa essere effettivamente misurata. La migliore condizione possibile è data dal fatto che è bene scegliere una
tensione che risulti essere la più vicina possibile al fondo scala perché più si è vicini al fondo scala e migliore
risulterà essere il risultato di misura. I multimetri moderni, essendo caratterizzati da più fondi scala, si possono
adattare per effettuare una certa misura. Altra cosa sulla quale è bene riflettere è che nel momento in cui si fa

123
passare una corrente all’interno di un resistore allora quest’ultimo si riscalda. I resistori, quindi, sono
caratterizzati dall’avere una massima potenza dissipabile che deve essere rispettata, soprattutto per quel che
riguarda i resistori di misura che, nel caso di vincolo relativo alla potenza non rispettato, perdono in termini di
accuratezza. Quindi, prima di fornire tensione e corrente, le cose che bisogna verificare sono:
1. Vincoli di potenze delle resistenze.
2. Vincoli di potenze del generatore.
3. Ricerca di un valore compatibile con entrambi i vincoli.
Solo una volta fatto questo è bene preoccuparsi di avere a disposizione degli strumenti di misura il cui fondo
scala sia il più vicino possibile ai valori attesi (non ai valori precisi ma agli ordini di grandezza). Si effettua
così una valutazione della corrente tramite amperometro e voltmetro e si può poi procedere ad un’analisi
dell’incertezza tramite la formula di propagazione del rapporto oppure della tolleranza tramite la formula di
propagazione delle tolleranze. L’incertezza, o la tolleranza, della tensione e della corrente vengono fornite o
dal certificato di taratura, si utilizza in questo caso un approccio di tipo B, oppure si utilizza un approccio di
tipo A il che significa dover ripetere più misurazioni. La cosa giusta è quella di utilizzare un approccio di tipo
B utilizzando quindi i dati forniti dal costruttore. Una misura di resistenza viene solitamente effettuata
utilizzando due diversi multimetri (se ne potrebbe utilizzare anche uno soltanto ma in due tempi diversi) che
risultano tra loro non correlati.

Inserzione a monte dell’amperometro


Osservate tutte queste caratteristiche preliminari, è bene ora riflettere un po' su quelle che sono le
configurazioni che è possibile utilizzare. Nella fattispecie, partendo dal voltmetro è possibile affermare come
quest’ultimo possa essere collegato sia ai capi della resistenza che ai capi dell’amperometro.

Figura 23.2 - Collegamento del voltmetro

Quando il voltmetro viene collegato ai capi dell’amperometro si ha una configurazione che prende il nome di
inserzione a monte dell’amperometro, quando il voltmetro viene invece collegato ai capi del resistore si ha

124
una configurazione che prende il nome di inserzione a valle dell’amperometro. Se gli strumenti fossero ideali
allora le due configurazioni sarebbero equivalenti ma, in realtà, siccome l’amperometro è caratterizzato da una
resistenza equivalente in serie ed il voltmetro è dotato di una resistenza equivalente in parallelo, bisogna andare
a verificare l’effetto di tali resistenze perché a seconda dell’effetto che hanno conviene una inserzione piuttosto
che un’altra. Bisogna quindi considerare gli effetti di carico dovuti alle due resistenze appena dette.

Figura 23.3 - Inserzione a monte con resistenze che simulano l'effetto di carico

Se si prende la lettura del voltmetro, la lettura dell’amperometro e se ne fa il rapporto allora quello che si
misura è pari alla serie tra 𝑅𝑎 ed 𝑅𝑥 . Il risultato che si ottiene non è quindi quello sperato poiché alla resistenza
che si è interessati a misurare va aggiunta anche la resistenza rappresentante l’effetto di carico dovuto al fatto
che l’amperometro che si sta utilizzando non è uno strumento ideale. L’effetto che si ha è un effetto di tipo
sistematico, che prende il nome di variazione di consumo, poiché, ripetendo l’operazione, l’amperometro
fornisce sempre lo stesso effetto. In particolare, tale effetto è un effetto sistematico in aumento perché si misura
sempre leggermente in più. È possibile pensare di correggere tale effetto sistematico, cosa che non è
semplicissima poiché le resistenze interne dei dispositivi possono essere affetti da fenomeni parassiti che
possono far variare il valore della stessa resistenza man mano che lo strumento invecchia. È possibile
correggere l’effetto nel momento in cui si ha la taratura della resistenza interna dello strumento in questione.
Quello che si preferisce fare è renderlo trascurabile e metterlo al di sotto delle altre fonti di incertezza, ossia
bisogna far sì che 𝑅𝑎 sia molto più piccolo di 𝑅𝑥 in modo che l’incertezza che si ha sul rapporto tra la tensione
e la corrente è in grado di coprire tale effetto. Nella fattispecie, calcolando la resistenza 𝑅𝑥 come:

𝑉
𝑅𝑥 = − 𝑅𝑎
𝐼

Se l’incertezza che si ha sul rapporto tra la tensione e la corrente è maggiore rispetto a quella che si ha sulla
resistenza 𝑅𝑎 allora è possibile trascurare l’incertezza relativa a quest’ultima. Molto spesso si fa in modo che
𝑅𝑎 risulti essere talmente piccolo da poter essere trascurabile. Ciò è possibile farlo nel momento in cui:

125
𝑅𝑎 ≪ 𝑅𝑥

L’inserzione a monte dell’amperometro si utilizza per resistenze molto più grandi della resistenza interna
dell’amperometro.

Inserzione a valle dell’amperometro


Può anche capitare che la resistenza incognita risulti essere piccola tale da non poter più trascurare la resistenza
𝑅𝑎 . Quando accade ciò è conveniente utilizzare l’inserzione a valle dell’amperometro.

Figura 23.4 - Inserzione a valle dell'amperometro con resistori ad effetto di carico

Spostando il voltmetro da monte a valle, nel momento in cui si prende la lettura del voltmetro e si divide per
la lettura dell’amperometro ciò che si misura è il parallelo tra la resistenza incognita, 𝑅𝑥 , e la resistenza interna
del voltmetro, 𝑅𝑣 . In questo caso si misura una resistenza più piccola rispetto alla precedente inserzione poiché
il risultato tra due resistenze in parallelo è sempre più piccolo di una delle due resistenze in gioco. Questa volta
si ha, quindi, un effetto sistematico in diminuzione. Siccome si misura il parallelo allora, invece che ragionare
sulle resistenze, è più comodo ragionare sulle conduttanze perché nel parallelo esse si sommano. Quello che
si fa è rendere trascurabile 𝑅𝑣 rispetto ad 𝑅𝑥 .

1
𝑅𝑥 =
𝐼 ⁄𝑉 − 1⁄𝑅𝑣

In termini relativi, per poter trascurare 𝑅𝑣 allora:

𝑅𝑣 ≫ 𝑅𝑥

In questo modo 1⁄𝑅𝑣 ⟶ 0 ed 𝑅𝑥 è pari proprio al rapporto tra la tensione e la corrente.


Ci si trova quindi di fronte a due regole:
1. Se la resistenza incognita è molto più grande della resistenza dell’amperometro allora si utilizza una
inserzione a monte dell’amperometro.

126
2. Se la resistenza incognita è molto minore della resistenza del voltmetro allora si utilizza una inserzione
a valle.
Le due inserzioni non sono esclusive e per capirne il motivo è bene considerare, ad esempio, un amperometro
con una resistenza interna di 1Ω ed un voltmetro con una resistenza interna di 100𝑘Ω. Supponendo di voler
misurare una resistenza di 1𝑘Ω allora quest’ultima risulta essere sia molto maggiore di 1Ω che molto minore
di 100𝑘Ω. Esiste quindi una fascia intermedia di valori che comprende resistori di valori sia molto più grandi
della resistenza dell’amperometro che molto più piccoli della resistenza del voltmetro. In questi casi si
preferisce, tradizionalmente, una inserzione a valle poiché si preferisce avere a che fare con la resistenza del
voltmetro rispetto alla resistenza dell’amperometro. Questo perché dal punto di vista dell’incertezza del
parametro si riesce a conoscere con una maggiore precisione la resistenza dei voltmetri rispetto alla resistenza
degli amperometri. Il tutto è dovuto al fatto che la resistenza dei voltmetri è senza attraversamento di corrente
e quindi, se viene caratterizzata, non è soggetta alle fluttuazioni termiche.

127
Lezione 24 (25 novembre 2016)

Esistono dei problemi relativi a misure di resistenze estremamente piccole, dove per resistenze estremamente
piccole si intendono resistenze al di sotto di 1Ω, e problemi relativi a misure di resistenze estremamente grandi,
dove per resistenze estremamente grandi si intendono resistenze al di sopra di 1𝑀Ω. Per questi due, casi, per
poter ottenere dei risultati di misura migliori, si utilizzano delle configurazioni leggermente diverse rispetto
all’inserzione a monte ed a valle dell’amperometro. Si preferisce utilizzare metodi alternativi in modo tale da
mitigare, ossia ridurre al minimo, problemi relativi all’analisi dell’incertezza.

Misure di piccole resistenze


Quando si parla di resistori al di sotto di 1Ω significa parlare di conduttori, ossia, ad esempio, di porzioni di
rame o di stagno o, in generale, di qualche metallo per il quale si è interessati a conoscere le sue proprietà di
conducibilità. Tipicamente queste sono le prove di caratterizzazione dei materiali conduttori. In questo caso la
prima cosa da fare è rendersi conto che, siccome si ha a che fare con resistenze molto piccole, di valore al di
sotto di 1Ω, allora ogni parametro può diventare facilmente significativo. In particolare, quando si ragiona su
oggetti fisici, allora tali oggetti bisogna collegarli, in qualche maniera ai circuiti che si considerano. Nella
realtà tutte le linee che su un quaderno vengono utilizzate per collegare i vari componenti così da creare i
circuiti sono delle vere e proprie connessioni. A tal proposito si supponga di avere una barretta di rame e di
voler conoscere il suo valore di resistenza. Quando si mettono a contatto due materiali due conduttori allora è
come se si creasse una certa resistenza, che normalmente è piccola e che prende il nome di resistenza di
contatto. Le resistenze di contatto sono sempre presente solo che vengono trascurate perché sono dell’ordine
di qualche millesimo di Ohm. In parecchi casi le resistenze di contatto dipendono dalle superficie di contatto,
quindi, normalmente, quando si vogliono rendere piccole tali resistenze si è soliti fare dei morsetti molto
grandi, e dalla pressione del contatto che solitamente, per rendere piccolo l’effetto di tali resistenze, viene
applicata con delle viti che consentono di stringere, così da rendere permanente, il contatto. È bene tenere
presente che l’effetto dannoso delle resistenze di contatto è ben evidente quando si lavora con sistemi
caratterizzati da grosse correnti come ad esempio gli elettrotreni. Tutte le volte che si collega un componente
ad un circuito bisogna tenere presente che si è in presenza di una resistenza di contatto che non possono essere
trascurate se bisogna fare delle misure, con una certa accuratezza, su resistori di piccolo valore. La maniera
migliore di gestire le resistenze di contatto è quella di utilizzare una configurazione a quattro morsetti. Per
poter capire il motivo per il quale è conveniente utilizzare una configurazione a quattro morsetti allora è bene
prendere in considerazione, in prima battuta, una configurazione come quella riportata sotto in figura.

128
Figura 24.1 - Resistore a due morsetti

Nel circuito presente in figura si osserva una corrente che si ripartisce nel momento in cui essa entra all’interno
del primo nodo che incontra. Il modo in cui la corrente si ripartisce nei vari rami è dato dalla grandezza delle
resistenze presenti su tali rami. In particolare, siccome la resistenza incognita è, per ipotesi, molto piccola
mentre la resistenza del voltmetro è molto grande allora la corrente, nel ripartirsi, passa tutta nel ramo nel quale
è collegata la resistenza incognita. Il problema è rappresentato dalle due resistenze di contatto in serie col
resistore incognito, ossia le due resistenze chiamate 𝑅𝑝1 . Siccome tali resistenze sono attraversate dalla stessa
corrente che passa sul resistore incognito, allora esse saranno sede di una caduta di potenziale. La tensione che
misura il voltmetro, quindi, non è soltanto la tensione presente sul resistore incognito ma è una misura
comprendente anche le differenze di potenziale presente sui due resistori di contatto. Le restanti resistenze di
contatto, quelle indicate con 𝑅𝑝2 non comportano problemi poiché, siccome la corrente tende a passare tutta
nel ramo del resistore incognito, allora esse non sono sede di una differenza di potenziale ai loro capi e quindi,
in pratica, è come se non ci fossero. È bene specificare come il problema delle resistenze di contatto è sempre
presente, esso inizia a diventare significativo nel momento in cui si lavora con resistori molto piccoli,
dell’ordine di qualche Ohm. La maniera corretta di gestire le resistenze di contatto è quella di considerare un
resistore a quattro morsetti.

129
Figura 24.2 - Resistore a quattro morsetti

La configurazione a quattro morsetti permette di separare i morsetti con cui si va ad alimentare il resistore ed
i morsetti dai quali si va a prelevare la tensione. Tale separazione fa sì che la caduta di potenziale sulle
resistenze di contatto resti fuori dal circuito di misura. In definitiva, tutti i resistori che si vogliono misurare
con una certa precisione sono configurati a quattro morsetti. Dal punto di vista del disegno circuitale, un
resistore a quattro morsetti si compone di due morsetti un po' più spessi, che prendono il nome di morsetti
amperometrici, che servono per poter collegare l’alimentazione del circuito e due morsetti che servono a
prelevare informazioni sulla tensione. Ciò che resta da fare è alimentare il circuito collegando i due resistori,
quello campione, di cui si conosce il certificato di taratura, e la resistenza incognita in serie, aggiungendo una
resistenza variabile ed un amperometro.

Figura 24.3 - Misure di piccole resistenze

Per resistori così piccoli non si utilizza il metodo del voltmetro a valle ma se ne utilizza una modifica così da
avere delle misurazioni migliori. Il metodo che si utilizza prende il nome di metodo del confronto.
Innanzitutto, siccome si lavora con resistenze piccole, le correnti da utilizzare devono essere grandi, dove per
130
grandi significa utilizzare delle correnti fino al punto in cui quest’ultime riescono ad essere sopportate dai due
resistori utilizzati. Il particolare, il limite è fornito dal resistore campione, del quale, attraverso il certificato di
taratura, si ha una accuratezza garantita fino ad un certo limite di corrente. Se, ad esempio, il resistore campione
è un resistore in grado di sopportare al massimo 8𝐴 allora ciò che bisogna fare è modificare la resistenza
variabile così da far circolare all’interno del circuito proprio 8𝐴. L’amperometro collegato serve a verificare
che la corrente circolante nel circuito risulti essere circa uguale alla corrente che il resistore campione è in
grado di sopportare. Dopo tale verifica è anche possibile scollegare l’amperometro. Fatto ciò, si vai poi a
misurare, attraverso il morsetto voltmetrico, la tensione ai capi del resistore campione e successivamente, con
lo stesso voltmetro, si va a misurare la tensione sul resistore incognito. Dalla Legge di Ohm si ha che:

𝑉𝑥 = 𝐼 ∙ 𝑅𝑥

𝑉𝑐 = 𝐼 ∙ 𝑅𝑐

Siccome la corrente è la stessa, allora se si fa il rapporto membro a membro tra le due relazioni si ha che:

𝑉𝑥 𝑅𝑥 𝑉𝑥
= ⟹ 𝑅𝑥 = 𝑅𝑐 ∙
𝑉𝑐 𝑅𝑐 𝑉𝑐

In questo modo si ottiene una valutazione della resistenza basandosi su due letture di voltmetri e sul certificato
di taratura del resistore campione. Si è utilizzato lo stesso voltmetro e non due voltmetri diversi così da ottenere
un rapporto correlato. Quando si propaga l’incertezza che si ha sul resistore 𝑅𝑥 , siccome essa è calcolata
attraverso dei prodotti e rapporti, è possibile utilizzare la relazione ridotta. Questo tipo di misure permette di
avere dei risultati talmente precisi che, normalmente, compaiono anche fenomeni trascurabili, ossia fenomeni
del secondo ordine come fenomeni di accoppiamenti che generano forze elettromotrici. Tali fenomeni, così
come lo era quello relativo alle resistenze di contatto, sono sempre presenti ma per lo più trascurabili. Essi
vengono presi in considerazione solo nel momento in cui si vanno ad effettuare delle misure molto molto
precise. Il fenomeno prende il nome di fenomeno di Seebeck e può essere sintetizzando affermando come
dovunque sia presente un contatto allora, nello stesso punto, è possibile inserire un generatore di forza
elettromotrice. Questo fa sì che la tensione che si misura col voltmetro non è esattamente la tensione ai capi
del resistore campione ma la tensione misurata risulta essere pari all’equazione alla maglia.

131
Figura 24.4 - Effetto Seebeck

In pratica, la tensione su 𝑅𝑐 viene sommata e sottratta di 𝑒3 ed 𝑒4 . La stessa cosa si ha per il resistore 𝑅𝑥 . Le


deviazioni che si hanno, nel momento in cui il circuito viene montato, sono di tipo sistematico e come tutti le
deviazioni sistematiche esse possono essere compensate. Per poter far ciò è bene tenere presente il fatto che le
forze elettromotrici dipendono dal contatto dei metalli ed esse, quindi, non cambiano verso nel caso in cui si
fa girare la corrente in due versi differenti. Lo stesso non si può dire della differenza di potenziale presente ai
capi delle due resistenze e ciò fa sì che è possibile misurare le cadute di tensione su tali resistenze, si cambia
in verso di percorrenza e ciò che accade è un’inversione del verso della corrente avendo così devi valori di
tensione non più positivi ma negativi. Se ora si effettua la sottrazione membro a membro tra le equazioni, la
prima con la prima e la seconda con la seconda, cambiando il verso della corrente si riesce comunque a
compensare gli effetti relativi alle forze elettromotrici. Il metodo appena visto può essere utilizzato per poter
andare a determinare la resistività dei metalli.

Misure di grandi resistenze


Quando si parla di grandi resistenze significa considerare delle resistenze aventi dei valori maggiori di 1𝑀Ω.
In altre parole, col termine grandi resistenze si è soliti caratterizzare gli isolanti (isolamento dei cavi di plastica,
materiali ceramici). Quando si ha a che fare con grandi resistenze è possibile avere a che fare con delle correnti
imprevedibili, ossia con delle correnti che entrano magari nell’isolante con un valore e che escono dallo stesso
con un valore più piccolo. Ovviamente la corrente non scompare ma, in realtà, tutte le masse metalliche che
sono intorno al circuito di interesse, rispetto allo stesso, è come se formassero un accoppiamento di tipo
capacitivo il quale fa sì che è come se ci fossero delle impedenze che fungono da impedenze di dispersione.
Tali effetti, siccome si sta parlando di effetti elettromagnetici in aria, non sono solamente invisibili ma sono
anche di tipo aleatorio.

132
Figura 24.5 - Misura di grandi resistenze

La prima cosa che si fa è rendere sistematico l’effetto di 𝑍1 e di 𝑍2 prendendo il resistore incognito e


chiudendolo in una gabbia di Faraday. Facendo ciò, ci saranno degli accoppiamenti tra il circuito e la gabbia
di Faraday. L’introduzione di una gabbia di Faraday, che è completamente fatta di metallo, peggiora però la
situazione perché il metallo forma degli accoppiamenti elettromagnetici e quindi delle correnti maggiori. Il
tutto può essere gestito supponendo che lo schermo risulti essere un terzo morsetto del resistore incognito. In
effetti, quando i resistori son chiusi in una gabbia di Faraday e si dà accesso a tale gabbia attraverso un terzo
morsetto, allora essi prendono il nome di resistori a tre morsetti, di cui due servono per poter alimentare il
resistore ed il terzo rappresenta il potenziale della gabbia. È bene specificare come la gabbia non tocca il
circuito ma i fili arrivano alla gabbia attraverso i buchi della rete. Non c’è alcun contatto tra il filo che entra e
la gabbia che lo circonda.

Figura 24.6 - Misure di grandi resistenze

La cosa corretta da fare è prendere il potenziale dello schermo e collegarlo in ingresso. In questo modo,
collegando un amperometro come fatto in figura, ai capi di 𝑍1 vi è una differenza di potenziale praticamente
pari a zero perché, in effetti, c’è soltanto la caduta dovuta alla resistenza interna dell’amperometro che è

133
estremamente piccola. Per cui si ha che la corrente che passa lungo 𝑍1 è estremamente nulla. Questo fa sì che
la corrente che attraversa l’amperometro passa tutta attraverso il resistore. Lo stesso non si può dire di 𝑍2
perché la differenza di potenziale ai suoi capi è pari a quasi tutta la tensione di alimentazione. Per tal motivo,
se si sposta l’amperometro da valle a monte si leggono due differenti valori. Ciò però non pregiudica il risultato
di misura perché si è così garantito che la corrente che attraversa l’amperometro è la stessa che passa sul
resistore incognito. L’unica cosa che resta da osservare è data dal fatto che, così come è fatto, lo schermo è
pericoloso perché si trova a tensioni pari a 500/600𝑉. Normalmente si aggiunge un altro schermo di
protezione che viene messo a terra in modo tale da garantire la sicurezza degli operatori. È da osservare come
siano stati schermati anche il cavo di connessione e l’amperometro in modo tale da non permettere alla corrente
di scappare ma di farla passare attraverso il resistore incognito. In definitiva, tutte le parti che sono presenti tra
il resistore incognito e l’amperometro devono essere tutte schermate in modo tale da non avere delle correnti
di dispersione significative.
Fatto ciò, quindi, si ha bisogno quindi di un microamperometro così da andare a misurare la corrente che passa
attraverso il resistore incognito, si inserisce un voltmetro a monte (non a valle perché la resistenza del voltmetro
non è molto maggiore del resistore incognito) e, infine, bisogna stare attenti con la tensione poiché non è
conveniente fornire direttamente un valore elevato. Per tal motivo si tende a seguire una procedura un po' cauta
che è la seguente: in parallelo all’amperometro si inserisce un interruttore che, chiudendosi, crea un corto
circuito in modo tale da far salire piano piano la tensione. Quando l’interruttore è chiuso allora ai capi della
resistenza c’è, effettivamente, tutta la tensione, tensione il cui valore viene gestito muovendo il cursore
presente sulla resistenza. Man mano che il cursore sale allora si ha una tensione che passa da zero ad un valore
man mano sempre più alto fino a raggiungere il valore massimo. Ad ogni scatto di tensione si verifica un
transitorio che, dopo un certo tempo si estingue. Salendo piano piano si arriva ad un valore massimo di tensione
e con valori di corrente a regime, dove a regime significa che il condensatore, essendo l’alimentazione in
continua, è un aperto e quindi è possibile aprire anche l’interruttore presente sopra l’amperometro così da
misurare la corrente. Una volta fatto questo vale sempre la Legge di Ohm.

Ponte di Wheatstone
Il ponte di Wheatstone rappresenta la maniera attraverso la quale oggi molti trasduttori vengono condizionati.
Oggi dispositivi come misuratori di pressioni e misuratori di temperatura non sono altro delle resistenze
variabili con un qualche fenomeno fisico. Quello che si deve fare è cercare di trasformare la variabilità di
resistenza in variabilità di tensione in modo tale da poter misurare quest’ultima e quindi conoscere il fenomeno
fisico di partenza. Bisogna quindi trasformare una variazione di resistenza in una variazione di tensione.

134
Figura 24.7 - Ponte di Wheatstone

Come si evince dalla figura, si hanno quattro resistori di cui 𝑅3 ed 𝑅4 sono due resistori di supporto, noti con
la loro incertezza, che servono a chiudere il ponte, 𝑅1 è il resistore incognito ed 𝑅2 è un resistore variabile,
anch’esso noto con la propria incertezza. Ciò che si deve fare è collegare i due lati del ponte con un
galvanometro, ossia uno strumento in grado di misurare la corrente in modo sensibilissimo (è un misuratore di
corrente piccolissimo). Un ponte si dice in equilibrio se il galvanometro segna zero. Bisogna quindi cambiare
il valore di 𝑅2 fin quando il galvanometro non segna zero. Cambiando il valore di 𝑅2 non si fa altro che spostare
il potenziale di 𝐴. Quando si arriva che il potenziale di 𝐴 è uguale al potenziale di 𝐵 allora la corrente che
passa all’interno del galvanometro sarà pari a zero. Il galvanometro garantisce sia corrente pari a zero che
tensione pari a zero, esso è quindi molto di più di un semplice corto circuito. Quando il ponte è in equilibrio,
siccome la corrente che passa da 𝐴 a 𝐵 attraverso il ramo in cui è presente il galvanometro è uguale a zero,
allora le resistenze 𝑅1 ed 𝑅2 sono collegate in serie così come lo sono anche 𝑅3 ed 𝑅4 . Ciò consente di applicare
la regola del partitore di tensione per tutte e quattro le resistenze (vedi Figura 24.7). Applicando il partitore si
ha, dopo vari passaggi, che:

𝑅1 𝑅3 𝑅3
= ⇒ 𝑅1 = 𝑅2 ∙
𝑅2 𝑅4 𝑅4

Attraverso il ponte di Wheatstone si ottiene una misura indiretta di 𝑅1 senza l’ausilio né di un amperometro,
né di un voltmetro. In questo modo si riesce, solo con resistenze, una propagazione dell’incertezza tra le
resistenze che si conoscono ed il resistore incognito.
Invertendo 𝑅3 ed 𝑅4 di posto, a causa dello scambio di posizioni ci sarà un nuovo valore di 𝑅2 che rende in
equilibrio il ponte.

𝑅4
𝑅1 = 𝑅2 ′ ∙
𝑅3

135
Figura 24.8 - Ponte di Wheatstone con doppia pesata

Se ora si effettua il prodotto membro a membro tra la relazione ottenuta prima dello scambio e quella ottenuta
dopo lo scambio, quello che si ottiene è che:

𝑅12 = 𝑅2 𝑅2′

In questo modo il risultato sulla misura di 𝑅1 dipende solo da 𝑅2 . Con questa tecnica si riesce a trasferire
l’incertezza che si ha su 𝑅2 su 𝑅1 .

136
Lezione 25 (28 novembre 2016)

Misure di potenza
Tutte le fonti rinnovabili dipendono quindi dai continui cambiamenti climatici e tale dipendenza ne limita
fortemente l'utilizzo. Quello che è di interesse puntualizzare sono delle semplici definizioni riguardanti la
potenza elettrica che, innanzitutto, pongono nell'ottica corretta sia situazioni che sono sinusoidali o in continua
sia situazioni che non lo sono. Innanzitutto è bene chiarire la differenza tra l'energia e la potenza, due termini
che non devono essere confusi tra loro. In generale, la potenza rappresenta il lavoro nell'unità di tempo e si
misura in Watt. Solitamente, quando si parla di potenza si tende ad indicare quanto lavoro si è in grado di
effettuare in un secondo. È bene specificare come, dal punto di vista del consumo, la potenza non sia la
grandezza soggetta a tariffazione. La grandezza che è soggetta a tariffazione è invece l'energia, dove per
energia si intende la potenza integrata nel tempo. La tradizionale unità di misura che si utilizza per
caratterizzare l'energia dal punto di vista del sistema internazionale è il Joule. Il Joule è però una grandezza
scomoda per quanto riguarda tutto ciò che concerne l'elettricità poiché quest'ultima risulta essere una grandezza
molto piccola e comunemente, nell'ambito delle tariffazioni, si è soliti utilizzare il kilowatt per un'ora. Il punto
di partenza e quindi quello di conoscere la potenza che, integrata nel tempo, consente di conoscere poi
l’energia.
Quando si lavora in corrente continua la potenza è semplicemente definita come il prodotto tra la tensione e la
corrente.

𝑃 =𝑉∙𝐼

Quando, invece, si lavora in regime non continuo le definizioni relative alla potenza sono molteplici perché
esistono vari tipi di potenza come, ad esempio, la potenza attiva, la potenza reattiva e la potenza apparente. In
base ai vari tipi di potenza è bene quindi introdurre quelle definizioni che valgono sempre, tenendo ben
presente che nel caso di tali definizioni non viene supposto alcun regime sinusoidale. Se si prende la tensione
come andamento temporale e la corrente come andamento temporale e le si moltiplicano tra loro si ottiene
quella che prende il nome di potenza istantanea.

𝑝(𝑡) = 𝑣(𝑡) ∙ 𝑖(𝑡)

Per tale definizione non c'è alcun bisogno che le due forme d'onda, quella relativa alla tensione e quella relativa
alla contraente, risultino essere sinusoidali. Se della potenza istantanea se ne fa il valore medio su un numero
intero di periodi, quello che si ottiene prende il nome di potenza attiva.

𝛼+𝐾𝑇
1
𝑃= ∫ 𝑝(𝑡)𝑑𝑡
𝐾𝑇
𝛼

La potenza attiva e quella che viene pagata nel momento in cui nelle nostre utenze viene fornita energia. Il
contatore dell'Enel non fa altro che campionare la tensione, campionare la corrente, effettuare il prodotto,

137
integrare quest'ultimo ed accumulare il tutto nell’energia. L'equazione appena introdotta è valida per qualsiasi
forma d’onda. Un'altra definizione che può essere data senza supporre il regime sinusoidale è quella relativa
alla potenza apparente definita come il prodotto tra il valore efficace della tensione ed il valore efficace della
corrente.

𝑆 = 𝑉𝑅𝑀𝑆 ∙ 𝐼𝑅𝑀𝑆

Quando esiste una differenza tra potenza apparente e potenza attiva allora si ha della potenza che resta
inutilizzata. Il problema è dato dal fatto che nel momento in cui una centrale elettrica devi fornire energia ad
un utente, e tale centrale elettrica è abbastanza lontano dall'utente stesso, allora ciò che accade è che si ha una
perdita di energia nel momento in cui quest'ultima parte dalla centrale elettrica fino a raggiungere l'utente. Tale
potenza persa rappresenta proprio la differenza che sia tra la potenza apparente e la potenza attiva che viene
poi pagata, in bolletta, dall’utente. Per poter evitare qualsiasi tipo di problema relativo alla differenza che c'è
tra la potenza attiva e la potenza reattiva sono stati introdotte tutte una serie di grandezze utili a quantificare
tutto ciò che non viene calcolato all'interno della potenza attiva. La soluzione a tale problema non si ha per
tutte le forme d'onda ma è stato trovato, soltanto in forma chiusa, per la sinusoide. Per le forme d'onda non
sinusoidali, non tutti sono d'accordo sul come calcolare determinati parametri. Per poter capire bene di cosa si
sta parlando si supponga che la tensione fornita ad una certa utenza non risulti essere soltanto di tipo sinusoidale
ma risulti avere una forma sinusoidale più la sua terza armonica. Ciò significa che all'utenza arriverà sia energia
alla frequenza fondamentale, sia energia alla terza armonica. Supponendo di lavorare con un carico stufa allora
nel momento in cui giunge a tale carico una potenza maggiore rispetto alla potenza che si avrebbe nel caso in
cui quest'ultima fosse inviata solo per la frequenza fondamentale allora lo stesso carico stufa tenderebbe a
lavorare meglio, tenderebbe a riscaldarsi di più. Se invece di un carico stufa si considera un motore allora a
causa di una componente che non è sinusoidale quest’ultimo presenterebbe dei malfunzionamenti. Alla fine,
il fatto di avere o meno delle componenti sinusoidali dipende quindi dall'utente e dal fatto se quest'ultimo
beneficia di tale situazione o meno. Esistono quindi tutta una serie di difficoltà concettuali che non consentono
di capire cosa sia effettivamente utile fare. Onde evitare problemi, quindi, in questa sede si prenderanno in
considerazione una tensione sinusoidale ed è una corrente sinusoidale, con quest'ultima sfasata di un certo
angolo rispetto alla sinusoide rappresentante la tensione. Ovviamente, siccome le definizioni di potenza attiva,
istantanea ed apparente sono delle definizioni che, come già detto, valgono per qualsiasi tipo di forma d'onda
allora è possibile associare alle sinusoidi proprio tali definizioni. Facendo il prodotto tra la tensione e la
corrente quello che si ottiene è una forma particolarmente semplice per la potenza attiva.

𝑃 = 𝑉 ∙ 𝐼 ∙ cos(𝜑)

La formula ottenuta non è normalmente una formula operativa. Ciò significa che per utilizzarla bisogna
misurare la tensione, misurare la corrente e misurare la fase, con tutti i problemi connessi all'incertezza.
Soprattutto quando la fase è molto piccola, prossima allo zero, è presente molta ambiguità che non consente
di utilizzare in mano era corretta la relazione. Un algoritmo che da molti migliori risultati è invece il seguente.

138
𝑆 =𝑉∙𝐼

L'approccio consente anche la definizione della potenza apparente e, in particolare, è possibile ora definire
anche quella che viene chiamata potenza reattiva.

𝑃 = 𝑉 ∙ 𝐼 ∙ sin(𝜑)

Il regime non sinusoidale la potenza reattiva non ha un ben preciso significato fisico. La potenza reattiva,
tramite il famoso triangolo delle potenze, consente di bilanciare la differenza che c'è tra la potenza attiva e la
potenza apparente. Se si è in regime sinusoidale ed esiste una differenza tra ciò che si assorbe come potenza
attiva e ciò che è generato come potenza apparente allora la stessa differenza è catalogata come potenza
reattiva. Su questa base esistono tutte una serie di progettazioni, anche di tipo elettrico, dal punto di vista di
quello che viene comunemente chiamato il rifasamento. Il rifasamento viene effettuato con una serie di
condensatori che, nel caso di carico troppo induttivo, si inseriscono in modo tale da compensare il
comportamento globale. In base al corretto comportamento degli utenti, e quindi in base al valore della potenza
reattiva, l'erogatore di energia, comunemente l'Enel, prevede tutta una serie di penali dipendenti dal cosiddetto
fattore di potenza. Il rapporto tra la potenza attiva, valutata su media mensile, e la potenza reattiva, valutata
anche essa su media mensile, non deve superare certe soglie. Per fortuna, finora, le componenti caratterizzanti
il rapporto erano particolarmente piccole perché i sistemi di produzione erano fatti con delle macchine
meccaniche che presentavano distorsioni. In realtà, con l'avvento delle fonti rinnovabili uno degli effetti è
quello che vengono prodotti tutte una serie di componenti che non sono sinusoidali con un conseguente
aumento dei disturbi. Tutti i dispositivi nuovi possono portare a dei problemi circa l'assorbimento di potenza.

Figura 25.1 - Misure di potenza

Quando si ha una forma d'onda periodica ma non sinusoidale che può essere espressa attraverso lo sviluppo in
serie di Fourier valgono ancora le relazioni viste precedentemente. Sembrerebbe quindi che tutto ciò che è
stato introdotto per le grandezze di tipo sinusoidale possa essere esteso anche per tutte quelle grandezze che
non sono di tipo sinusoidale. Questo perché tutto quello che è stato visto per le componenti sinusoidali non

139
rappresenta altro che tutto ciò che è osservabile per le armoniche costituenti un segnale non sinusoidale. L'unica
cosa che bisogna fare, quindi, è quella di considerare singolarmente la prima armonica, poi la seconda
armonica, poi la terza armonica e così via per poi sommare il tutto in modo tale da poter ottenere ed utilizzare
le stesse relazioni usate per i segnali di tipo sinusoidale. Il concetto potrebbe essere quindi esteso anche al
calcolo della potenza reattiva così da effettuare la somma delle potenze reattive a tutte le armoniche ed ottenere
la potenza reattiva complessiva. Ciò però non è possibile farlo in quanto la potenza reattiva non è uguale:

𝑄 = ∑ 𝑉ℎ 𝐼ℎ sin(𝜑ℎ )

Questo perché i vari termini non quadrano del triangolo delle potenze. In pratica si ha che l'apparente non è
uguale alla potenza attiva al quadrato più la potenza reattiva al quadrato e ciò significa che ci sono dei termini
di potenza che non si stanno valutando. Per poter far quadrare il tutto, con questo approccio, si è costretti ad
introdurre una ulteriore potenza che prende il nome di potenza distorta. Tale potenza rappresenta la potenza
che le varie componenti si scambiano incrociandosi. Questo tipo di approccio prende il nome di approccio di
Budeanu.

Figura 25.2 - Approcci per il calcolo della potenza reattiva

Un approccio più netto è quello di Fryze il quale considera tutto ciò che non è attivo è reattivo. In tal modo si
definisce la potenza non attiva come:

𝑁 = √𝑆 2 − 𝑃2

Il metodo di Fryze è il metodo attualmente utilizzato. Negli Stati Uniti, nel 2012, è stata approvata una nuova
normativa cui, praticamente si effettua l'analisi spettrale così da poter pagare l'energia riferendosi alla
frequenza fondamentale. Ci sono poi delle penali sulle armoniche. Una proposta è quella di andare a guardare
ciò che succede alla fondamentale e di pagare quest’ultima come un sinusoidale, perché effettivamente la
fondamentale è una sinusoide, e tutto ciò che non è fondamentale considerarlo come disturbi così da trattarli
in maniera differente. Questo approccio è stato fortemente criticato nell'ambito europeo per un problema di
140
fondo che è però abbastanza consistente riguardante i transitori. Ciò è dovuto al fatto che l’analisi spettrale si
effettua su un segnale regime e non sui transitori. Il problema non si pone tanto per quel che riguarda gli
interruttori ma per tutti quei dispositivi che lavorano in switching come gli alimentatori dei computer. Gli
alimentatori switching sono dei dispositivi che aprono e chiudono degli interruttori in modo tale da avere lo
stesso trasferimento di potenza che si otterrebbe con un trasformatore. Per adesso, quindi, si continua ad
utilizzare l'approccio che tutto ciò che non è attivo viene catalogato come non reattivo.
Solitamente un wattmetro viene collegato nel modo che segue:

Figura 25.3 – Wattmetri

I wattmetri sono caratterizzati da quattro morsetti, due morsetti vengono utilizzati per la voltmetrica e due
morsetti vengono utilizzati per l’amperometrica. Così come per i misuratori di resistenze, i wattmetri sono
caratterizzati da una inserzione a monte e da una inserzione a valle. Il wattmetro risulta essere un misuratore
di tensione e corrente accoppiato e può essere inserito con la voltmetrica a monte oppure con la voltmetrica a
valle.

Figura 25.4 - Schema a blocchi di un contatore dell'ENEL

141
Il contatore dell'Enel prende la tensione ed ha poi una serie di partitore di resistenze che consentono di portare
la tensione al valore di ingresso di un microcontrollore. Per la corrente è presente, invece, un pezzo di rame
che funziona da shunt resistivo per cui la corrente che lo attraversa definisce una differenza di potenziale che
viene letta come misura di corrente. Internamente è poi caratterizzato da un campionatore, ossia un simple and
hold e da un convertitore, che vengono utilizzati per far diventare la tensione e la corrente dei numeri. C'è poi
un microcontrollore che effettua la moltiplicazione e l’integrale e che porta tutto in visualizzazione. C'è poi
anche dell'elettronica che serve per effettuare delle comunicazioni, ossia il per poter effettuare la lettura e la
telelettura.

Strumentazione elettronica digitale

Figura 25.5 - Schema a blocchi di una strumentazione di elettronica digitale

Il mondo fisico viene trattato utilizzando un approccio unificante che è caratterizzato dal fatto che si ha una
prima acquisizione del dato, che avviene inserendo un elemento che è sensibile al fenomeno fisico a cui si è
interessati, tipicamente chiamato sensore o trasduttore, che trasforma la grandezza fisica di interesse in un
segnale elettrico, tipicamente tensione. I fenomeni fisici sono moltissimi e la ricerca progettuale è sempre
molto attiva. Se si riesce a trovare un fenomeno che poi produce un nuovo segnale elettrico allora quello che
si è fatto è aver prodotto un nuovo sensore. Oggi si riescono a creare molti sensori utilizzando la fibra ottica
perché consente di far viaggiare in maniera agevole le informazioni. Una volta che l’informazione è diventata
tensione si ha quella che prende il nome di fase di condizionamento analogico. Si tratta di una prima
elaborazione del segnale che, tipicamente, quando esce dal sensore non è immediatamente adatto ai blocchi di
conversione analogico-digitale che seguono. Tipicamente c’è bisogno di un po' di amplificazione, attenuazione
o filtraggio, tutte operazioni che possono migliorare il segnale prima che questo venga dato in pasto a
dispositivi di conversione. Esiste però un problema legato al rispetto del criterio di Nyquist. In particolare, il
primo filtraggio che va a fatto è quello che garantisce la validità del Teorema di Shannon.

𝑓𝑐 ≥ 2𝑓𝑠
142
Il fatto di rispettare il Teorema di Shannon consente di evitare tutti i problemi relativi all’aliasing. Fatte tutte
le operazioni preliminari, quello che poi si fa è effettuare la conversione analogico-digitale prendendo le
informazioni tempo continue ed ampiezza discreta facendole diventare delle informazioni tempo discrete ed
ampiezza discreta. Per le elaborazioni delle informazioni vengono poi utilizzati degli algoritmi che possono
essere di diverso tipo in base alle operazioni che si intende effettuare. I risultati forniti dall’algoritmo vengono
poi memorizzati tramite della memoria statica che mantiene in maniera permanente l’informazione. Infine c’è
una fase di distribuzione dell’informazione che può essere locale, come ad esempio un display, oppure la
distribuzione in rete. Esiste quindi la possibilità di avere un vasto campo di sensoristica e di sistemi di misure
in grado di interagire tra loro. Un qualunque strumento è fatto nel modo descritto e si tratta di sviluppare in
maniera esatta le singole parti che lo caratterizzano. Quello che si vorrebbe, almeno dal punto di vista ideale,
è che qualsiasi strumento che si crei non alteri il risultato di misura e che quest’ultimo dipendesse solo dal
misurando. In realtà tutti i misuratori risentono di quelli che prendono il nome di condizioni ambientali che, in
qualche maniera, alterano il risultato di misura. Questi parametri devono essere ben valutati in base al luogo
in cui si installa un sistema di misura perché possono comportare dei malfunzionamenti. Si vorrebbe, inoltre,
che gli strumenti di misura fossero in grado di misurare qualsiasi cosa ma, in realtà, tutti gli strumenti di misura
hanno un range, un minimo ed un massimo, che deve essere rispettato poiché il non rispetto potrebbe
comportare la rottura dello strumento stesso. Infine, ciò che si vorrebbe è un risultato di misura certo ed
istantaneo, ossia senza ambiguità e con delle risposte rapidissime. Ciò ovviamente non è possibile perché, per
quanto riguarda il risultato di misura certo, ciò comporterebbe dei costi elevatissimi e forse degli strumenti
poco utile se poco versatile. Un misuratore certo sarebbe auspicabile ma, in realtà, quello che si fa è progettare
uno strumento con un livello di accuratezza che serve per lo scopo a cui è destinato quello stesso strumento.
Per quanto riguarda invece le risposte rapidissime è possibile affermare come ciò non sia possibile perché tutti
i dispositivi sono caratterizzati da un tempo di risposta, ossia un transitorio.

143
Lezione 26 (30 novembre 2016)

Quando ci si trova difronte all’esigenza di dover comprare una strumentazione di misura bisogna guardare più
fattori fino ad arrivare alle specifiche che consentono di coprire le esigenze mantenendosi nel budget. Quando
si acquista una strumentazione di misura la cosa importante è andare a capire con che principio di
funzionamento quello stesso strumento è in grado di effettuare una misura. È importante focalizzare
l’attenzione sul principio di funzionamento utilizzato perché un principio di funzionamento poco consono agli
scopi può comportare delle errate valutazioni e quindi degli errati risultati di misura. Le caratteristiche si
dividono in due grossi gruppi riportati in seguito.

Le caratteristiche statiche
Le caratteristiche statiche sono quelle caratteristiche che vengono ridotte lasciando allo strumento di misura
tutto il tempo necessario per estinguere tutti i suoi transitori. In effetti si fa in modo che lo stimolo resti costante
fino a quando tutti i suoi transitori non sono estinti. Ad esempio, nel caso di una bilancia nel momento in cui
si posiziona un peso su di essa si fa in modo da aspettare che il valore arrivi a quello di regime per poi non
cambiare più. La maniera corretta di dedurre le caratteristiche statiche è quello di ottenere un certificato di
taratura. Lo scopo è quello di avere, o in forma grafica o in forma tabellare, il legame che c’è tra lo stimolo e
la lettura dello strumento. Tipicamente, nei laboratori di taratura quello che si fa è possedere degli strumenti
con una precisione migliore così da poter pesare una grandezza sia sulla bilancia da laboratorio sia con una
qualsiasi bilancia da dover tarare. Si stimolano, nel caso della bilancia, entrambi gli strumenti con lo stesso
peso in modo tale da verificare il discostamento che c’è tra la bilancia da laboratorio e la bilancia commerciale
che è soggetta a taratura. Tra lo stimolo ed il risultato chi si conosce meglio è lo stimolo (ha più cifre
significative) perché ottenuto con uno strumento di classe, di tipologia, migliore.

Figura 26.1 - Caratteristiche statiche

144
Per poter effettuate una misura, normalmente, è bene partire con l’assenza dello stimolo (zero) e ci si deve
fermare con il massimo valore consentito dallo strumento, ossia col suo fondo scala. Ad esempio, una bilancia
prima la si lascia vuota in modo tale da verificare se essa fornisce zero come risultato e poi gli si aggiungono
dei pesi in modo tale da verificare se essa pesa fino al suo fondo scala. Considerando come esempio sempre la
bilancia è possibile affermare che quando essa arriva al valore di fondo scala, nel momento in cui ci si
aggiungono ulteriori pesi allora si dice che lo strumento giunge in saturazione. Se esistono dei fattori di scala
tra lo stimolo e la lettura questi prendono il nome di sensibilità. La sensibilità è solitamente una grandezza
adimensionale che, nell’ambito della progettazione elettronica, deve essere preso in considerazione dal
progettista. La definizione delle caratteristiche statiche può essere anche molto complicata perché per ogni
misuratore bisogna garantire che vengano coperte tutte le modalità di funzionamento. Ad esempio, la
normativa relativa alla taratura delle bilance è un manuale di molte pagine perché il peso lo si può mettere al
centro, di lato, i pesi possono essere distribuiti o concentrati, etc.
Per le caratteristiche statiche è bene dare alcuni concetti che vengono comunemente utilizzati in sede di misura.
In particolare:
Col termine fondo scala, o portata, si individua il limite superiore assoluto del campo di misura.
Il campo di misura rappresenta invece l’insieme dei valori che sono misurabili con i valori garantiti dal
costruttore. Il campo di misura prende anche il nome di input range o di span (quest’ultimo utilizzato nel
ambito delle frequenze). I campi di misura possono essere unipolari, bipolari simmetrici e possono anche
esserci delle differenti scelte come, ad esempio, bipolare asimmetrico oppure funzionamento nell’intorno
di una fascia di valori.
Le informazioni, quando si va al di fuori del campo di misura prendono il nome di sovracaricabilità. La
sovracaricabilità rappresenta il massimo valore oltre il fondo scala per cui uno strumento ancora
risponde ma non caratteristiche garantite dal costruttore. Se si supera la sovracaricabilità si può anche
determinare la rottura permanente dello stesso strumento. Molti strumenti non hanno un unico range, un
unico fondo scala, ma sono caratterizzati da più portate. Ciò è dovuto al fatto che quest’ultima deve
essere scelta in base al risultato atteso del misurando. Non è mai una buona scelta considerare un range
ampissimo così da essere sicuri di far rientrare il risultato di misura all’interno di tale intervallo.
La sensibilità, già vista prima, dal punto di vista analitico rappresenta la derivata della curva di taratura.
In alcuni casi è possibile che, per tutta una serie di fenomeni fisici, all’interno del suo campo di
funzionamento, lo strumento non mantenga la stessa sensibilità sempre. Possono esserci quindi dei punti
in cui lo strumento è più sensibili ed altri in cui lo è meno. In particolare, lo zero rappresenta una
condizione di riposo dalla quale i sistemi difficilmente si staccano. Per tale motivo può essere
conveniente fornire ad uno strumento un valore iniziale diverso rispetto al risultato di misura che si
attende in modo tale da far muovere lo stesso strumento dalla sua condizione di quiete. Tale fenomeno,
quello per il quale il fenomeno tende a non scostarsi dalla sua posizione di quiete, prende il nome di dead
band, banda morta.

145
La risoluzione rappresenta la più piccola quantità diversa da zero che lo strumento è in grado di
apprezzare. All’epoca delle misure analogiche era presente una lancetta che si muoveva e che andava ad
individuare delle tacchette sulla scala graduata. Questo fatto faceva sì che se la lancetta non raggiungeva
almeno la metà di una tacca quello che bisognava leggere era lo zero. Per gli strumenti analogici si era
soliti considerare come risoluzione la mezza tacca mentre per gli strumenti digitali la risoluzione è un
dato che deve essere letto nei manuali.
La precisione è un dato che deve provenire da laboratori specializzati in modo tale che esso risulti essere
un parametro affidabile. Il valore fornito è lo scostamento massimo atteso tra il valore letto ed il
misurando, ossia la tolleranza. Molto spesso viene chiamata accuraty oppure precision. In particolare,
uno strumento viene spesso fornito con una classe di precisione, ossia una percentuale legata al fondo
scala.
In alcuni ambiti un parametro di interesse è la linearità tanto che per alcuni componenti viene indicato
specificatamente. Esso è un parametro in grado di alterare le forme d’onda di un segnale. La linearità
consente di conoscere la fedeltà che c’è tra lo stimolo ed il risultato di misura.

Figura 26.2 – Linearità

Il problema, considerando la figura sopra, sta nel capire di quanto la curva in grassetto si discosta dalla
retta. La distanza tra la curva in grassetto e la retta può essere espressa in diversi modi e quando si
fornisce l’accuratezza si fornisce anche tale parametro, ossia specifiche relative alla linearità.
Altro fenomeno è l’isteresi. L’isteresi è un fenomeno comune a molti materiale e per comportamento
isteretico si intende l’ottenimento di risultati differenti in presenza di uno stesso stimolo. Il fenomeno
dell’isteresi è dovuto al fatto che uno strumento di misura, anche sottoposto allo stesso stimolo, non è
detto che fornisce sempre lo stesso risultato poiché quest’ultimo dipende dalla storia passata dello
strumento. Ad esempio, può accadere che, partendo dallo zero, si raggiunge un determinato valore
attraverso una curva per poi ritornare indietro attraverso un’ulteriore curva. Uno strumento ben fatto ha
un’isteresi molto piccola.

146
Figura 26.3 – Isteresi

Altra caratteristica importante è la ripetibilità. Molto spesso nei sistemi di controllo qualità non è
interessante la precisione degli strumenti ma la ripetibilità dei loro risultati perché in questo modo si è in
grado di ottenere sempre lo stesso risultato. Non tutti gli strumenti, quando si effettua la stessa
misurazione, ottengono lo stesso risultato.
Nessuno strumento è stabile nel tempo e periodicamente uno strumento deve essere verificato e tarato.
La stabilità è una caratteristica che va ad incidere sull’economicità perché il controllare uno strumento
comporta dei costi di gestione.
Le caratteristiche finora osservate solo delle caratteristiche che valgono per tutte le grandezze di misura.
Quando si lavora principalmente con grandezze elettriche un altro parametro al quale bisogna fare attenzione
è l’impedenza di ingresso. Avere una impedenza d’ingresso diversa rispetto all’impedenza richiesta da un
circuito può comportare il malfunzionamento di quest’ultimo.
Infine, le grandezze ambientali possono cambiare il funzionamento di uno strumento. Quando si vuole
garantire il funzionamento di uno strumento in un ambiente particolare allora la taratura dello stesso strumento
deve essere effettuata in quell’ambiente e non in un altro perché questo può comportare il malfunzionamento
dello strumento. Oggi si parla di taratura di uno strumento nelle condizioni ambientali in cui quest’ultimo deve
funzionare. Ciò è un problema perché non è più lo strumento ad andare in laboratorio ma c’è sempre più
bisogno di laboratori mobili che vadano dove è presente lo strumento. Bisogna quindi avere tutte
apparecchiature trasportabili.
Le principali grandezze che vanno ad inficiare il comportamento di uno strumento sono la temperatura e
l’invecchiamento. Col passare del tempo, infatti, gli strumenti perdono le proprie proprietà e devono quindi
essere sostituite.

Caratteristiche dinamiche
Le caratteristiche viste finora sono le caratteristiche a regime ma, in alcuni casi, si ha la necessità di dover
seguire dei segnali tempo-varianti. Si ha quindi la necessità di valutare quelle che vanno sotto il nome di
147
caratteristiche dinamiche. Le caratteristiche dinamiche possono essere valutate in due differenti modi, ossia
attraverso stimoli standard, come può essere la risposta ad un gradino in modo tale da verificare il tipo di
tipologia del sistema (passa-alto, bassa-basso, etc)

Figura 26.4 - Caratteristiche dinamiche

Particolare interesse è dato dal tempo di risposta. In particolare, se si dà una discontinuità al sistema di misura
non è possibile poi aspettarsi subito una risposta dal sistema di misura che si sta utilizzando ma bisogna
fornirgli un certo tempo in modo tale che lo stesso sistema raggiunga il valore di regime. Ciò limita la
possibilità di letture frequenti con stimoli che cambiano in maniera discontinua.
L’altro modo per poter verificare le caratteristiche dinamiche di un sistema è quello di definire il suo
diagramma di Bode. Conoscere la risposta in frequenza di un sistema significa conoscere gli intervalli di
frequenza nei quali il sistema risponde e gli intervalli di frequenza il sistema o è insensibile oppure risponde
con valori che sono al di sotto dei valori dello stimolo. In realtà, per l’ambito delle misure, le caratteristiche
sono più stringenti dei sistemi tradizionali. Ciò significa che, mentre i sistemi tradizionali hanno una frequenza
di taglio pari a 3𝑑𝐵, i sistemi di misurazioni hanno dei diagrammi di Bode con una frequenza molto inferiore
a quella dei sistemi tradizionali in modo tale da avere una maggiore accuratezza del risultato di misura
(0,1𝑑𝐵, 1𝑑𝐵).
Normalmente, su tutti gli strumenti è presente una targhezza che riassume le principali informazioni che
possono servire per il suo utilizzo. Tale targhetta racchiude quelli che prendono il nome di dati di targa.
Quando si lavora con uno strumento, dopo un certo tempo bisogna controllare che lo stesso lavori sempre nelle
stesse condizioni e per farlo si è soliti inviare lo strumento in appositi laboratori, chiamati laboratori Accredia,
ossia dei laboratori che hanno la possibilità di emettere dei certificati che attestano la funzionalità degli
strumenti ad essi inviati. Essi sono dotati di strumentazioni migliori rispetto alle strumentazioni utilizzata in
ambito industriale e per tal motivo sono in grado di effettuare l’operazione che prende il nome di conferma
metrologica. Il certificato di taratura iscrive lo strumento che si va a tarare nella catena di riferibilità, ossia
una catena che consente di confrontare tra loro strumenti con un grado di precisione sempre maggiore fino a

148
raggiungere il confronto che si ha tra lo strumento più preciso in assoluto ed il campione di misura. La catena
di riferibilità è un qualcosa richiesto da molti utenti e per questo è garantita da molte normative.

Figura 26.5 - Sistema di misura per taratura

Quando si richiede ad un laboratorio l’accuratezza di uno strumento la prima cosa che si fa è quella di prendere
lo strumento e di metterlo in un ambiente controllato. L’ambiente controllato serve per garantire la reperibilità
delle condizioni ambientali e che non vi siano delle alterazioni esterne che vadano ad inficiare il risultato di
misura. Una volta che fatto questo, il passo successivo è quello di confrontare lo strumento con un campione
di laboratorio oppure con un campione fisico. A questo punto, si ripetono tutta una serie di confronti tra il
campione di laboratorio e lo strumento di misura ottenendo così tutta una serie di dati. Possono essere poi
eseguite delle prove statiche e delle prove dinamiche. Dato tutto ciò si ha il certificato di taratura, ossia il report
di tutto ciò che è stato registrato durante la fase di conferma metrologica. Se lo strumento supera tutti i test
allora si emette un certificato, una sorta di bollino blu, che estende la garanzia delle caratteristiche dello
strumento. Se lo strumento non supera i requisiti quello che si fa è riparare lo strumento attraverso la
calibrazione. In pratica si cambiano alcuni parametri in modo da ripristinare le funzionalità perse col tempo.
Finita la calibrazione si effettuano nuovamente tutte le prove in modo tale a verificare se lo strumento, a questo
punto, supera tutti i requisiti richiesti. Se anche in questo caso lo strumento non offre garanzia allora va
dismesso e sostituito da un nuovo strumento.

149
Lezione 27 (2 dicembre 2016)

Sensori e traduttori
Il mondo dei sensori è vastissimo e l’idea è sempre quella di trovare un fenomeno, un dispositivo che si dimostri
sensibile ad un qualche fenomeno di interesse. La sensoristica è molto in voga in termini di nuovi dispositivi,
è quindi un campo per il quale si ha sempre una continua ricerca. Oggi si cerca di sviluppare dei sensori in
MEMS, ossia macchinari che vengono fatti in dimensioni atomiche così da fare delle costruzioni a livelli di
atomi. Un esempio è dato dagli accelerometri presenti negli smartphone. Per poter sviluppare un sensore
bisogna quindi andare a guardare diverse caratteristiche che possono comportare anche delle esose spese
economiche. Normalmente, per essere precisi, è meglio distinguere il sensore dal trasduttore. Comunemente i
due dispositivi sono consideratiti sinonimi l’uno dell’altro ma, in realtà, un sensore è il dispositivo che sente
per primo il fenomeno fisico e lo fa diventare di un’altra natura. Ad esempio, un sensore è un dispositivo che
prende una temperatura e la fa diventare tensione. Siccome l’obiettivo di un sensore è quello di trasformare
una qualunque grandezza fisica in una tensione allora nel momento in cui non si riesce subito si utilizza un
trasduttore, ossia un dispositivo in grado di giungere, entro pochi passi, alla tensione. Sia il trasduttore che il
traduttore sono posizionati su un unico chip. Inoltre, molto spesso nel sensore viene anche messo un
microprocessore così da svolgere conversione analogico-digitale e trasferimento all’esterno di informazione
sottoforma di dati. In tal caso si parla di smart-sensor. Si fa quindi in modo che l’uscita di un sensore risulti
essere già di tipo digitale. Quello che ci interessa verificare è come fare a prendere una qualsiasi grandezza
fisica e farla diventare tensione. La prima cosa da fare è effettuare una distinzione tra sensori attivi e sensori
passivi.
Si parla di sensori attivi quando l’energia viene presa direttamente dal fenomeno fisico. Tali sensori non hanno
quindi bisogno di alimentazione, non hanno richiesta e per tal motivo sono estremamente interessanti. Un
esempio può essere un pannello fotovoltaico attraverso il quale è possibile fare un sensore di luce, oppure tutta
una serie di materiali che se premuti generano una piccola tensione a seconda della pressione. In definitiva,
per questi sensori il fenomeno che si va a misurare fornisce anche l’energia per poter funzionare.
Molti sensori sono invece di tipo passivo, dove per sensori di tipo passivo si intendono dei dispositivi che
possono essere condotti a grandezze di tipo elettrotecnico, capacità, induttanza, il cui valore può cambiare al
variare del fenomeno fisico. Ad esempio, una capacità in grado di cambiare il suo valore con la pressione non
è altro che un sensore di pressione e/o di vibrazione.
La famiglia dei sensori resistivi è vastissima poiché si riescono a fare resistenze variabili con l’umidità,
resistenze variabili con la temperatura, resistenze variabili con la pressione, resistenze variabili con la presenza
di inquinanti, etc. Ogni volta che si trova un dispositivo che cambia in numero di portatori a causa di un certo
agente si è realizzato un sensore resistivo. Questo perché il numero di portatori in aumento cambia la resistenza.
Soprattutto con i materiali semiconduttori si riescono ad effettuare cose particolari. In generale, tutti quelli che
negli altri ambiti sono dei problemi, nell’ambito della sensoristica vengono sfruttati in modo tale da creare un
sensore.

150
Un condensatore piano a facce parallele ha una capacità che è uguale a:

𝐸
𝐶=𝜀∙
𝑑

Allora se trova un qualunque fenomeno che cambia uno dei tre parametri, attraverso un effetto esterno, quello
che si è realizzato è un sensore capacitivo. Con le capacità è possibile creare sensori di vibrazione, sensori di
prossimità.
Attraverso le Leggi di Hopkinson si riescono a realizzare dei sensori induttivi. In particolare, con gli induttori
si è soliti realizzare dei sensori di posizione.

Condizionamento analogico
Il condizionamento analogico ha tutta una serie di compiti. Se l’informazione non è arrivata al livello di
tensione la prima cosa che fa il condizionamento analogico è quella di arrivare ad un segnale che sia di tensione
e che segua l’andamento del fenomeno fisico al quale si è interessati. Ha anche il compito dell’adattamento di
impedenza tutte le volte in cui si hanno problemi di disadattamento. Le due operazioni principali del
condizionamento analogico sono però due:
1. Enfatizzazione del contenuto informativo. L’enfatizzazione del contenuto informativo consiste in
quelle fasi di filtraggio analogico eliminando il rumore già quando il segnale è ancora di tipo analogico
così da eliminare ciò che non è utile e, possibilmente, amplificare ciò che è di interesse. A questo
filtraggio va poi aggiunto del filtraggio anti-aliasing, ovvero un filtraggio che consente di misurare bene
ciò che si vuole senza che esso sia corrotto dal fenomeno dell’aliasing.
2. Armonizzazione in range. L’armonizzazione in range è quell’operazione attraverso la quale si vanno
ad effettuare tutta una serie di operazioni col segnale analogico in modo tale che quest’ultimo possa poi
essere utilizzato per gli scopi stabiliti e ricordando di compensare quanto fatto in analogico nel momento
in cui il segnale diventa di tipo numerico.
Esistono poi altri compiti minori come l’isolamento galvanico che garantisce che non vi sia nessun percorso
che colleghi un segnale a strumenti o all’operatore nel caso di segnale pericolo. Il classico isolamento galvanico
si ottiene con un trasformatore. Oggi si preferisce fare, per parecchi compiti di misura, l’isolamento galvanico
in fibra ottica in modo tale che se succede qualcosa a mone non arriva a valle perché ciò che si trasporta è
semplicemente luce.

Modulo derivatore
Modulo derivatore è un modulo che si ottiene scambiano il condensatore e la resistenza di un modulo
integratore. In questo modo si ha che:

151
Figura 27.1 - Modulo derivatore

Il modulo derivatore è un modulo molto rumoroso che produce degli spike nel caso di segnali con discontinuità.
Questo perché la derivata di una discontinuità è un impulso. Per tal motivo questo tipo di modulo viene
utilizzato per dei segnali dolci come la sinusoide.

Modulo logaritmico ed anti-logaritmico

Figura 27.2 - Modulo logaritmico

Il diodo è un dispositivo che, in polarizzazione diretta, ha un legame tra la tensione e la corrente che è di tipo
esponenziale. Per cui la corrente che attraversa il diodo dipende da una certa corrente 𝐼0 , che è la corrente di
polarizzazione inversa, e poi cresce esponenzialmente con una tensione di polarizzazione. Se si polarizza della
quantità giusta, in modo tale da non spegnere il diodo e non mandarlo in interdizione, si ha che il legame tra
la corrente che passa e la tensione ai suoi capi è un legame di tipo esponenziale (l’1 è possibile anche trascurarlo
così da avere un’analisi più semplici). Quanto detto significa che la corrente di ingresso è uguale alla corrente
di polarizzazione del diodo che, a sua volta, è uguale all’esponenziale dove 𝑉𝑑 rappresenta la tensione di uscita.
Questo fa sì che la tensione di uscita è uguale al logaritmo della tensione di ingresso.
Se si scambi il diodo alla resistenza quello che si ha è un modulo anti-logaritmico, ossia un modulo che effettua
l’operazione di esponenziale.

152
La loro applicazione nasce dalla seguente considerazione. Se si hanno due tensione delle quali se ne fa il
modulo logaritmico, si somma il risultato e si effettua poi il modulo anti-logaritmico allora ciò che si ottiene è
il prodotto tra i due segnali. Quindi questi due moduli consentono di effettuare la moltiplicazione tra due
segnali. Se l’ingresso è lo stesso per entrambi gli ingressi allora quello che si ha è il quadrato del segnale e se
il quadrato del segnale lo si mette in retroazione quello che si ottiene è un modulo in grado di fare la radice
quadrata.

Figura 27.3 - Estrattore di radice quadrata

Mettendo insieme i vari pezzettini visti quello che si ottiene è un misuratore di vero valore efficace.

Figura 27.4 - Misuratore di vero valore efficace

Questi dispositivi sono di difficile realizzazione perché comunque si deve lavorare in regioni della curva del
diodo particolarmente dettagliate ed un minimo discostamento da tali punti può compromettere il
funzionamento del dispositivo.

153
Amplificatore differenziale per strumentazione
L’amplificatore differenziale per strumentazione è un dispositivo in cui si deve amplificare una differenza di
potenziale senza che uno dei due terminali sia a massa.

Figura 27.5 - Amplificatore differenziale per strumentazione

Quello che si vuole fare è amplificare la differenza tra 𝑣1 e 𝑣2 e, se necessario, sommare ad essa anche un
offset in modo tale da adattare il segnale ad uno stadio di ingresso, ad esempio, di un convertitore analogico
digitale. Questi chip hanno quindi due morsetti di ingresso, due morsetti per collegare una resistenza che scegli
il progettista in modo tale da cambiare il guadagno, un morsetto per aggiungere l’offset, l’uscita ed i due
morsetti dell’alimentazione. Questo dispositivo è fatto di tre operazioni di cui due fungono da stadio di ingresso
ad alta impedenza mentre il terzo effettua la differenza. Se si osserva solo l’amplificatore operazionale montato
sopra questo è un amplificatore operazionale montato in configurazione invertente la stessa situazione si ha
con l’amplificatore operazionale montato sotto. Siccome i due operazionali sono entrambi montati in
retroazione negativa allora il potenziale che si ha sul morsetto negativo è esattamente uguale al potenziale che
si ha sul morsetto positivo. La corrente in ingresso ad entrambi gli operazionali è uguale a zero, per cui la
corrente che passa lungo la resistenza 𝑅1 non è altro che:

𝑣1 − 𝑣2
𝑖=
𝑅1

Tale corrente è la stessa che circola sulle due resistenze 𝑅2 . Siccome tale corrente circola quindi sia in 𝑅1 che
nelle due 𝑅2 allora la differenza di potenziale il ingresso al terzo amplificatore operazione è legata alla
differenza tra 𝑣1 e 𝑣2 ed amplificata di un certo fattore:

2𝑅2
(𝑣1 − 𝑣2 ) (1 + )
𝑅1

Il primo stadio fornisce quindi una prima amplificazione. Resta da analizzare il secondo stadio, il quale
trasferisce l’informazione che presente su due morsetti su un unico morsetto aggiungendoci la tensione di

154
offset. Per poter calcolare quanto vale l’uscita è possibile utilizzare il principio di sovrapposizione degli effetti,
il che significa zittire, a turno, uno dei due ingresso dell’operazionale 𝐴3 . La somma delle due uscite che si
ottengono risulterà essere l’uscita definitiva. Supponendo di chiamare il morsetto positivo 𝑣01 ed il morsetto
negativo 𝑣02 , zittendo quest’ultimo allora si ottiene un modulo invertente la cui uscita è pari a:

𝑅4
𝑣𝑢1 = − ∙𝑣
𝑅3 01

Zittendo ora 𝑣01 si ha che:

𝑅4
𝑣𝑢2 = 𝑣𝑎 (1 + )
𝑅3

Dove 𝑣𝑎 è uguale a:

𝑅4
𝑣𝑎 = 𝑣02 ∙ ( )
𝑅3 + 𝑅4

Facendo il minimo comune multiplo alla relazione scritta sopra e sostituendo si ottiene che:

𝑅4
𝑣𝑢2 = ∙𝑣
𝑅3 02

Quindi per la configurazione differenza si ha che:

𝑅4
𝑣𝑢 = 𝑣𝑢1 + 𝑣𝑢2 = (𝑣 − 𝑣𝑢1 )
𝑅3 𝑢2

155
Lezione 28 (5 dicembre 2016)

Riepilogo amplificatore differenziale per strumentazione


Nella precedente equazione si è visto l’amplificatore differenziale per strumentazione.

Figura 28.1 - Amplificatore differenziale per strumentazione

Esso è un dispositivo che consente di acquisire una differenza di potenziale così da farne vari utilizzi. Una su
tutti è sicuramente l’amplificazione di guadagno progettabile scegliendo opportunamente la resistenza 𝑅𝑓 .

Approfondimento sulla conversione analogico-digitale - Aliasing


I segnali dotati di un’ampiezza continua, cioè appartenente all’insieme dei numeri reali, e tempo-continui, in
cui anche il tempo è appartenente all’insieme dei numeri reali, non sono gestibili da un’architettura di calcolo
e per tal motivo è necessario semplificarli passando così da tempo-continuo a tempo-discreto e da ampiezza
continua ad ampiezza discreta. Tale tipo di operazione è stata già osservata attraverso quelle che sono state
definite come operazioni di campionamento e mantenimento (discretizzazione dell’asse delle ascisse e quindi
dell’asse temporale) e, successivamente, la quantizzazione (discretizzazione dell’asse delle ordinate e quindi
delle ampiezze). La memorizzazione di un segnale campionato è quindi quella operazione che fornisce
informazioni circa il passo di campionamento o il suo reciproco, la frequenza di campionamento, che fornisce
informazioni sul quanto e restituisce il risultato sotto forma di vettore di interi. Il genere di informazioni che
vengono gestiti a basso livello dai microcontrollori sono proprio dei vettori di interi. L’operazione è quindi
fatta di tre fasi: campionamento, quantizzazione e codifica. Quest’ultima consente di scrivere le informazioni
che si hanno a disposizione in binario così da poter trasmettere le informazioni ai blocchi successivi presenti
sulla linea.
Finora si è visto il campionamento solo ed esclusivamente dal punto vista temporale. Molto spesso però non
si ha solo bisogno di un campionamento di tipo temporale ma anche di tipo spaziale ed in qualsiasi ambito si
campioni è bene chiedersi se tale operazione è state effettuata correttamente o meno. In realtà, quando si

156
effettua un campionamento, non si è mai certi di aver campionato bene o meno perché non si conosce la rapidità
con cui variano le informazioni. Prima di decidere se un campionamento va bene bisognerebbe controllare
l’omogeneità che c’è tra un campione ed il successivo. Quando un campionamento è errato tanto da dedurre
dei risultati sbagliati si ha quello che prende il nome di fenomeno dell’aliasing. L’unica maniera per rilevare
l’aliasing è quella di cambiare il passo di campionamento ed in particolare si ha che: nel momento in cui,
cambiando il passo di campionamento di un segnale campionato male i dati ottenuti prima che il passo di
campionamento venisse cambiato sono soggetti a variazioni allora ciò significa che si è in presenza di aliasing,
in caso contrario, invece, non si è in presenza di aliasing. Per poter prevenire il fenomeno dell’aliasing è
necessario riflettere un po' di più circa il campionamento. Il campionamento, in effetti, è una operazione che
trasforma un segnale che ha informazioni in tutto il dominio reale in un segnale che ha informazioni sono in
determinati istanti di tempo che hanno una progressività discreta (𝑇𝑐 , 2𝑇𝑐 , 3𝑇𝑐 … ). Una volta che si è stabilito
la cadenza con la quale si vuole catturare informazioni del segnale allora si ha la stessa informazione solo con
multipli interi del passo di campionamento. La cadenza deve essere scelta in modo tale che vengono mantenute
le informazioni del segnale e per poter capire effettivamente come sceglierla è bene ragionare un po' sullo
spettro di un segnale. Un segnale campionato si può guardare direttamente in termini di spettro utilizzando il
teorema del campionamento e, in particolare, un campionamento nel domino del tempo corrisponde ad una
replica nel dominio delle frequenze. In realtà il campionamento in un dominio corrisponde ad una replica
nell’altro dominio, dove per replica si intende la ripetizione dello stesso segnale alle varie frequenze.

Figura 28.2 - Analisi nel dominio delle frequenze di un segnale

Osservando la figura sopra, si ha che il primo segnale si è replicato alle varie frequenze. Se si inserisce ora un
filtro perfetto in grado di annullare tutte le repliche ciò che accade è la cancellazione di tutte le repliche così
da tornare al segnale di partenza. Ciò significa che se si campiona e poi si filtra perfettamente allora si è in
grado di ritornare al segnale di partenza avendo quindi una operazione reversibile, un’operazione che con la
quale non si ha perdita di informazioni. Dall’ultimo segnale si evince che filtri perfetti non esistono e per tal
motivo non è possibile tornare perfettamente al segnale di partenza. Nonostante ciò si ha una buona aspettativa

157
che è quella di non perdere informazioni. Il problema principale è che non è sempre vero che facendo tutte
queste operazioni si riesce poi a tornare al segnale iniziale. Il problema è dato dal fenomeno dell’aliasing e per
inquadrarlo bene è conveniente ragionare sul segnale semplice.

Figura 28.3 - Problema aliasing: ragionamento su segnale semplice

Ciò che si sta cercando di fare è ricercare quali condizioni consentano di ritornare perfettamente al segnale
inziale. Il segnale continuo nel tempo ha come spettro due impulsi. Nel momento in cui tali segnali si
campionano allora per il segnale nel dominio del tempo si ha la formazione di campioncini intervallati di un
passo di campionamento mentre nel dominio delle frequenze ciò che si fa è la copia dei due impulsi. Il
campionamento nel dominio delle frequenze è stato effettuato in maniera ottimale perché i vari campioni sono
distanziati tra loro. Ad ogni modo il campionamento non è sempre così preciso poiché le componenti possono
sia accavallarsi sia spostarsi tra loro sempre più. Quando si campiona bisogna quindi fare in modo che la
replica a frequenza 𝑓𝑠 − 𝑓1 sia più in alto della frequenza 𝑓1. In generale questo vale per la massima frequenza,
ossia quella più lontana dallo zero che è a più a rischio di essere sovrapposta dalle repliche. La condizione da
rispettare è quindi:

𝑓𝑠 > 2𝑓1

Che è posi la stessa condizione da rispettare per il teorema di Shannon. Questo garantisce che lo spettro basi
resti distaccato dalle repliche così che con un filtraggio passa-banda si è in grado di ritornare, almeno
idealmente, al segnale di partenza. Campionando senza rispettare il criterio di Nyquist accade la situazione
riportata nella figura che segue, Figura 28.4.

158
Figura 28.4 - Sovrapposizione della replica con lo spettro base

Quando si campiona senza rispettare il criterio di Nyquist ciò che accade è che appaiono delle componenti che
non esistevano, delle componenti di alias. Nel dominio del tempo succede che il segnale di partenza
campionato male risulta essere indistinguibile rispetto ad un altro segnale.

Figura 28.5 - Aliasing nel dominio del tempo

L’aliasing fa si dà avere anche segnali con una frequenza che è tipicamente più bassa rispetto alla frequenza
reale ma con un’ampiezza pari all’ampiezza del segnale di partenza. Accorgersi del fenomeno dell’aliasing
avendo a disposizione solo i campioni non è facile e per tal motivo, prima del campionamento, va messo un
filtro anti-aliasing. Inserire un filtro anti-aliasing significa mettere prima di campionare, ad esempio ad una
frequenza 𝑓𝑠 , quindi sul segnale continuo, un filtro a 𝑓𝑠 ⁄2 in modo tale che se sono presenti delle componenti
sopra o sotto 𝑓𝑠 ⁄2 allora queste vengono cancellate. Esistono soltanto alcune tecniche, molto sofisticate, con
le quali è possibile già sapere il verificarsi dell’aliasing e quindi si sfrutta tale fenomeno per calcolare la
frequenza giusta. Normalmente la situazione è quella per la quale si sceglie la frequenza di campionamento in
modo tale da misurare tutto bene. Molte volte può capitare che non sia possibile inserire il filtro anti-aliasing
e, in questo caso, per poter verificare la presenza di aliasing si va a modificare leggermente la frequenza di
campionamento. Ciò fa sì che se il segnale è campionato bene significa non avere nessuna alterazione e quindi
159
nessuna sovrapposizione delle componenti, se invece il segnale è campionato male si ha una sovrapposizione
delle componenti.

Approfondimento sul sample and hold


Si è riflettuto un po' meglio sul come fare il campionamento. In realtà a valle del campionamento deve esserci
un organo di tenuta tant’è che si è soliti parlare sempre di sample and hold.

Figura 28.6 - Sample and hold

Dopo il campionamento un valore deve mantenersi costante perché su quel valore costante deve lavorare il
quantizzatore. Quando il quantizzatore ha finito le proprie operazioni si passa poi al campione successivo. Il
quantizzatore è quindi il meccanismo che comanda il campionamento. Il sample and hold è quindi un blocco
al servizio del quantizzatore che preleva e mantiene costante un valore per tutto il tempo di cui il quantizzatore
ha bisogno. Un’architettura semplice di sample and hold è la seguente:

Figura 28.7 - Struttura di sample and hold

160
Esso si compone di un buffer di ingresso che disaccoppia ciò che c’è a monte con ciò che c’è a valle così da
non avere effetti di tutti i circuiti che sono a monte, come ad esempio circuiti di filtraggio, sul campionamento.
Si ha poi anche un buffer in uscita in modo tale che tutto ciò che c’è a valle non influenzi il campionamento.
Il campionamento è semplicemente fatto con un condensatore e con un interruttore che si chiude e si apre. Ciò
che accade è che quando l’interruttore è chiuso l’ingresso è copiato dal primo buffer che carica così il
condensatore e la tensione ai capi del condensatore è copiata in uscita dal buffer successivo. In questo modo
si ha che l’ingresso è uguale all’uscita. Nell’istante in cui si apre l’interruttore accade che il segnale di ingresso
può cambiare ma tale segnale non arriva al condensatore poiché esso rimane bloccato all’ultimo valore che
c’era all’istante prima che si aprisse l’interruttore e viene mantenuto costante in uscita. In effetti, l’istante di
campionamento è l’istante di apertura dell’interruttore ed è quello in cui la tensione del condensatore si stacca
dal segnale. In questo modo il condensatore non si può scaricare da nessuna parte e quindi non può fare altro
che mantenere l’informazione in esso presente. Una volta che si mantiene il segnale costante, si aspetta che il
quantizzatore svolga le sue operazioni, si richiude l’interruttore, si ricopia la nuova tensione e si mantiene il
valore. Quando si chiude l’interruttore si ha il transitorio di carica del condensatore e tale transitorio dipende
dal valore della tensione precedente e dal valore di tensione nuova. Se il condensatore è scarico tale transitorio
è un po' più lungo, se il condensatore è già carico e si ha un valore di tensione vicino al prossimo valore di
tensione allora il transitorio è più corto. Il fatto di avere dei transitori significa che il quantizzatore non può
lavorare subito dopo la fine di un processo di campionamento ma deve aspettare la fine di tutti i transitori. Si
ha quindi bisogno di un po' di tempo e bisogna quindi sfalsare la fase di campionamento col la fase di
quantizzazione. Ciò è necessario perché altrimenti si rischia di lavorare su transitori.

Figura 28.8 - Procedura del sample and hold

Il tempo di transitorio viene chiamato acquisition time ed è il tempo che il campionatore impiega per allinearsi
al segnale di ingresso. Bisogna quindi aspettare un tempo di acquisizione, dovuto al transitorio, più un tempo
di conversione ogni volta che si va a fare un nuovo campione. Tali tempistiche rappresentano la frequenza con

161
la quale si preleva un campione, tali tempistiche stabiliscono quindi il passo di campionamento il cui reciproco
è la frequenza di campionamento.

Approfondimento sulla quantizzazione


La quantizzazione è sicuramente una approssimazione poiché attraverso essa si trasforma un segnale con
ampiezza continua in un segnale ad ampiezza discreta. A differenza del campionamento, l’operazione di
quantizzazione è irreversibile perché anche un segnale quantizzato perfettamente non può essere riscostruito
così da ritornare al segnale originario di partenza. Per tale motivo l’operazione di quantizzazione deve essere
bene pensata in modo tale che l’alterazione che si introduce risulti essere trascurabile rispetto agli scopi di
interesse. Per poter capire se un segnale è quantizzato bene o meno bisogna approfondire un po' quello che è
il processo di quantizzazione e per fare questo si introduce il concetto di rumore (errore) di quantizzazione.
Il rumore di quantizzazione è la differenza tra il segnale originario e il segnale quantizzato.

𝐸𝑞 = 𝑉𝑞 − 𝑉𝑖𝑛

È possibile verificare l legame ingresso-uscita di un quantizzatore. In effetti, supponendo di utilizzare un


quantizzatore unipolare, su un asse (asse delle x) si mette la tensione di ingresso allora significa che tale
tensione di ingresso può assumere dei valori che partono da zero e che arrivano fino al valore di fondo scala e
su un altro asse (asse delle y) si mettono i livelli di quantizzazione che si ottengono in uscita. Ipotizzando un
arrotondamento per difetto, allora se l’ingresso è zero anche l’uscita risulterà essere uguale a zero ed anche se
l’ingresso è un po' più di zero l’uscita risulterà essere anche pari a zero. L’uscita diventa pari ad 1 nel momento
in cui l’uscita diventa ∆ e così via.

Figura 28.9 - Processo di quantizzazione

La gradinata a pedate costanti rappresenta il legame ingresso-uscita che c’è tra il segnale originario e il segnale
quantizzato. In base a quanto detto, si capisce che l’operazione è irreversibile poiché, ad esempio, se si sa che
la tensione di uscita è pari al codice binario 000 si è in grado di dire che il valore originario è compreso tra 0 e
∆ ma non si è in grado di esprimere quanto valeva esattamente quello stesso valore. L’errore di quantizzazione
162
è un valore compreso tra zero e −∆ e, in particolare, esso risulta essere pari a zero nel momento il cui il segnale
di partenza ed il segnale quantizzato sono uguali. Per l’errore si ha quindi un andamento a dente di sega ed il
massimo scostamento che si ottiene, in massimo errore, è proprio pari a −∆. Osservando i risultati ottenuti si
evince come se ci fosse un errore medio sempre presente e la ragione sta nel fatto che si è scelto un
arrotondamento sempre per difetto. Ciò polarizza la scelta di sottostimare la tensione di ingresso in maniera
sistematica. Se invece si sceglie l’arrotondamento al più vicino si ha una gradinata che si sposta un po' più
avanti di mezzo quanto. Ciò è dato dal fatto che tra 0 e ∆⁄2 si arrotonda per difetto mentre tra ∆⁄2 e 1 si
arrotonda per eccesso a 1.

Figura 28.10 - Arrotondamento al più vicino

Da un punto di vista concettuale, utilizzare questo tipo di approccio significa avere una quantizzazione con
una saturazione che avviene un po' prima poiché si è avanzata la gradinata di mezzo quanto in avanti. La
gradinata comporta ora un errore che è centrato rispetto allo zero e solo per l’ultimo quanto si ha un
comportamento asimmetrico.
La quantizzazione la si può fare unipolare, come visto, ma bipolare.

Figura 28.11 - Quantizzazione bipolare

163
Questo genere di quantizzazione è stata però abbandonata perché rumorosa. La ragione sta nel fatto che quando
c’è il silenzio il valore dovrebbe essere zero. Se però si guarda lo zero in ingresso esso si trova esattamente su
una transizione, tra il livello 0 ed il livello −∆ il che voleva dire che un po' di rumore faceva saltare l’uscita tra
questi due valori. Questo genere di quantizzatori è stato silenziato spostando di mezzo quanto più avanti la
forma d’onda quadra, passando cioè da un arrotondamento per difetto ad un arrotondamento al più vicino. In
questo caso si ha un unico livello centrato intorno allo zero, il che significa che se il rumore non supera mezzo
quanto allora il quantizzatore risponde col silenzio, se il quantizzatore supera il mezzo quanto allora esso inizia
a ronzare. Per piccoli livelli di rumore lo spostamento di mezzo quanto ha reso più silenzioso il quantizzatore
fino a quando non si è aumentato il numero di bit e così che la pedata intorno allo zero è divenuta sempre più
piccola così che la rumorosità dell’elettronica ha superato la rumorosità del quantizzatore. Oggi la maggior
parte dei dispositivi lavora con quantizzatori a 12 bit, 16 bit. Dispositivi con una qualità tale consentono di
conservare l’informazione così bene da poter essere sicuri che quello che si ottiene è sicuramente nell’intorno
del valore del segnale originario. Ciò permette di spostare tutto il discorso relativo alle fonti di incertezza su
altri parametri. Ad ogni modo, siccome alle volte c’è la necessità di rispettare alcuni vincoli, è bene definire
anche delle relazioni quantitative che consentano di definire il rumore di quantizzazione che è legato
all’utilizzo di un certo numero di bit ed il rumore proveniente da altre fonti. Per fare ciò, se si fanno delle
ipotesi, è possibile sfruttare alcuni risultati provenienti dalla teoria dei segnali. In particolare bisogna ipotizzare
che il segnale sia ben campionato, che quest’ultimo non mandi il convertitore in saturazione e che si accendano
semplicemente causalmente i vari livelli di quantizzazione allora si può ipotizzare che l’effetto della
quantizzazione sia quello di un rumore bianco che si aggiunge al segnale cambiandone quindi un po'
l’ampiezza. Al massimo l’errore di quantizzazione è pari a:

1
|𝐸𝑞 | ≤
2

In queste ipotesi è possibile ipotizzare che l’alterazione che si produce sul segnale che si introduce sul segnale
sia un rumore bianco con una distribuzione uniforme compresa tra −∆⁄2 e +∆⁄2. Rumore bianco e rumore
uniforme significa che se si va a guardare la distribuzione di probabilità, tra −∆⁄2 e +∆⁄2 i valori sono tutti
equiprobabili. Si suppone quindi che il rumore assume uno dei valori compresi in tale intervallo, non uno in
particolari ma tutti quanti e mediamente con la stessa probabilità. Se la distribuzione è tra −∆⁄2 e +∆⁄2,
ampiezza, siccome il tutto deve fare 1, allora l’altezza della stessa distribuzione è pari a 1⁄∆.

164
Figura 28.12 - Rumore di quantizzazione

Questo è segnale bianco a media nulla e con distribuzione uniforme. Energeticamente i segnali si caratterizzano
col valore efficace che, in quest’ambito, prendono il nome di valore quadratico medio. Se la media è zero allora
il valore quadratico medio coincide con la varianza. È bene quindi calcolare la variazione della distribuzione
in figura. Quella calcolata rappresenta la potenza del rumore di quantizzazione. Per capire se tale rumore è
inefficace o meno si confronta la potenza del segnale con la potenza del rumore di quantizzazione. Se si ha un
segnale e si vuole che il suo rumore diventi trascurabile allora bisogna cambiare i suoi parametri fino a quando
la sua potenza non diventi minore rispetto alla potenza del segnale di interesse.

165
Lezione 29 (7 dicembre 2016)

Convertitore a sovra-campionamento
Per quanto visto nella precedente lezione, lo spettro di un segnale quantizzato si può vedere come se si fosse
sommato del rumore al segnale di riferimento. Lo spettro del segnale non quantizzato è caratterizzato
dall’avere due impulsi e nel momento in cui si introduce la quantizzazione bisogna aggiungere a tale spettro
anche lo spettro del rumore bianco che è uniforme su tutto lo spettro e quindi rappresentabile come un
rettangolo.

Figura 29.1 – Sovra-campionamento

L’area di questo rettangolo è pari a, per il teorema di Parsefal, all’energia del segnale, cioè ∆2 ⁄12. In pratica
l’energia di un segnale si può esaminare sia nel dominio del tempo che nel dominio ella frequenza e nel
momento in cui si va ad analizzare lo spettro quello che si deve avere è la potenza o energia del segnale.
Essendo la base tale rettangolo uguale alla frequenza di campionamento ed essendo l’area totale pari all’energia
del segnale considerato, ossia ∆2 ⁄12, allora l’altezza dello stesso rettangolo è pari a:

∆2
ℎ=
12𝑓𝑐

Ciò significa che nel momento in cui aumenta la frequenza di campionamento, a parità di area, che continua
sempre ad essere uguale a ∆2 ⁄12, il rettangolo viene schiacciato. Alzare la frequenza di campionamento
consente quindi di abbassare il rumore presente su un segnale quantizzato. Da tale discorso non si trae alcun
beneficio circa il rapporto segnale-rumore, che continua ad essere una quantità costante poiché la potenza del
rumore è rimasta costante. È possibile però giocare una carta riguardo e, a tal proposito, si supponga di voler
lavorare con un segnale fino ad una frequenza di 3𝑘𝐻𝑧. Siccome si è interessati a lavorare con tale segnale
allora si potrebbe effettuare un campionamento fino a 6𝑘𝐻𝑧, ossia fino al doppio della frequenza massima di
interesse del segnale considerato. Supponendo di effettuare tale campionamento con un quantizzatore di qualità
mediocre quello che si ottiene è un segnale con una elevata quantità di rumore. Per poter far scomparire tale
166
rumore è possibile pensare di campionare lo stesso segnale non ad una frequenza pari a 6𝑘𝐻𝑧 ma ad una
frequenza pari a 30𝑘𝐻𝑧 in modo tale da avere un livello di rumore pari ad un decimo. Siccome si avevano
informazione fino ad una frequenza pari a 3𝑘𝐻𝑧 allora dopo il campionamento è possibile inserire un filtro
numerico in grado di tagliare il segnale a 3𝑘𝐻𝑧 così da eliminare tutto ciò che non è d’interesse. Nel momento
in cui si effettua tale operazione si ottiene quello che prende il nome di convertitore a sovra-campionamento.
In effetti, quello che si fa è sovra-campionare in modo tale da diminuire l’effetto della potenza del rumore e
poi tagliare tutta quella parte di segnale alla quale non si è interessati in digitale attraverso un filtro. Grazie a
questo processo, sovra-campionamento, filtraggio e decimazione, si ottengono delle prestazioni migliori per
convertitori mediocri. Ad esempio in questo modo è possibile far lavorare un convertitore a 10 bit come un
convertitore a 12 bit. Oggi questa tecnica si è spinta talmente tanto che si parte col lavorare con quantizzatori
ad 1 bit, sovra-campionando in maniera mostruosa e tagliando tutto ciò che non è d’interesse in digitale. Ad
ogni modo è bene specificare come questa procedura determini dei peggioramenti sotto alcuni punti di vista.
Quello che può succedere è che, mentre per un quantizzatore fatto bene la gradinata presenta tutte pedate
uguali, inclinazione della retta della bisettrice, per un quantizzatore equivalente tutte queste caratteristiche
vengono perse.

Figura 29.2 - Non idealità dei quantizzatori equivalenti

Questo fenomeno, ovviamente, può accadere anche per tutti quei quantizzatori che pur essendo standard
mostrano dei difetti costruttivi. Esistono tutta una serie di procedure, di prove, che servono per passare dalle
dichiarazioni del costruttore ai bit certificati, ossia per verificare le effettive prestazioni dei convertitori.

167
Blocchi di convertitori in parallelo (flash converter)

Figura 29.3 - Blocchi di convertitori in parallelo

L’idea che sta alla base dei blocchi di convertitore in parallelo è molto semplice. In prima battuta si ha una
catena di resistori che fungono da partitori come che su ogni resistenza ci sia una caduta di tensione pari ad 1
quanto. In realtà la prima caduta di tensione si fa di mezzo quanto e l’ultimo di un quanto e mezzo in modo
tale da rispettare la linearità relativa all’errore. Con la catena di resistori si creano una serie di livelli di tensione,
che sono la soglia del primo gradino, la soglia del secondo gradino, la soglia del terzo gradino e così via. Questi
livelli di tensione li si crea in maniera statica con una serie di resistori il cui numero dipende dal numero di bit
che si vogliono gestire. (2𝐵 − 1). Di base tali convertitori si progettano fino ad 8 bit poiché la complessità
aumenta in maniera esponenziale. Lavorare con 8 bit significa quindi lavorare con 255 resistori che forniscono
255 livelli di soglia per la quantizzazione. Tali resistori vengono poi pizzicati e portati a dei comparatori ai
quali è collegato anche il segnale di ingresso. Quello che si fa è confrontare, in un colpo solo, il segnale di
ingresso con tutti i livelli soglia e, a seconda dell’ingresso, un certo numero di comparatori restituirà 1 ed un
altro certo numero di comparatori restituirà 0. In base al numero di 1 è possibile risalire al livello di
quantizzazione (un solo 1 ⇒ livello di quantizzazione pari a 1). Il numero binario è dato dal circuito di codifica
formato da porte AND, OR e NOT. Il tempo che il circuito di codifica impiega a fare la conversione dipende
dal tempo di propagazione del segnale nella rete di codifica. Con questo convertitore si arriva fino a centinaia
di 𝑀𝐻𝑧 come velocità di conversione. L’unico problema è dato dal fatto che con questo dispositivo non è
possibile lavorare con più di 8 bit. Il valore delle resistenze devono essere tutte uguali perché altrimenti si
ottengono delle pedate diverse. Siccome la complessità di questo dispositivo è abbastanza elevata allora si è
pensato di ricreare quest’ultimo con 4 bit in modo tale da poterne far funzionare due insieme riducendo la
complessità ed avendo comunque lo stesso risultato finale. Si ricorda che il legame è di tipo esponenziale, ciò
significa lavorare con:
2 ∙ 24 = 2 5

168
Figura 29.4 - Convertitore a due stadi

Quello che succede è che, inizialmente, si utilizza un convertitore a 4 bit. Quello che si ha è una
rappresentazione con una precisione di:

𝑉𝐹𝑆
24

Se ci si fermasse qui si avrebbe una sola quantizzazione a 4 bit. Quello che si fa è considerare il codice ottenuto
e ripassarlo in analogico attraverso un convertitore digitale-analogico. In questo modo si ha una tensione
quantizzata. Se ora si prende l’ingresso e se ne fa la differenza dei due quello che si ottiene è l’errore di
quantizzazione. È possibile ora utilizzare un nuovo quantizzatore a 4 bit con un fondo scala diverso dal fondo
scala diverso rispetto al fondo scala del primo quantizzatore perché in questo caso si è già a conoscenza che il
valore massimo risulterà essere uguale al quanto del precedente. In questo caso, quindi, il fondo scala risulterà
essere uguale a:
𝑉𝐹𝑆
2𝐵

Il secondo convertitore deve convertire dei valori che sono molto più piccoli perché si tratta dei residui di
quantizzazione del primo stadio. Il codice che si ottiene è lo stesso che si ottiene se si utilizzasse un convertitore
ad 8 bit. Se tutto va bene si sono mantenute le precisioni ma, siccome il convertitore a due stadi deve fare due
conversioni, è più lento del precedente. E perlomeno il doppio più lento. Ciò non è però un problema perché i
convertitori flash sono velocissimi e molto spesso eccessiva velocità non è richiesta. L’unica scocciatura sta
nel fatto che i due convertitori hanno un fondo scala diverso e ciò implica la necessità di avere due diverse
tensioni di riferimento. Piccole differenze sui fondi scala possono incidere sulla precisione. Sarebbe meglio,
quindi, avere lo stesso fondo scala. Il quanto che esce dalla differenza è molto più piccolo, è più piccolo di 2𝐵 .
Per poter avere lo stesso fondo scala, allora, si è pensato di amplificare l’uscita del sommatore di 2𝐵 prima che
essa venga immessa in ingresso al secondo convertitore. Analiticamente, così facendo, si ottengono gli stessi
risultati. Questa tecnica introduce però un altro componente ed un altro elemento di ritardo. La strumentazione
appena vista è in grado di funzionare bene al massimo con 1 bit, per tal motivo si è soliti progettare una struttura
a cascata.
169
Figura 29.5 - Convertitore a più stadi

La procedura è la seguente: viene effettuata una conversione analogico-digitale ad un solo bit in modo tale da
avere in uscita un solo numero binario. Viene poi effettuata una conversione digitale-analogico ad 1 bit, se ne
ottiene una tensione, a quest’ultima si sottrae l’ingresso, la si moltiplica per 2 e la si passa allo stadio
successivo, con quest’ultimo che svolge le stesse operazioni dello stadio precedente. È quindi un convertitore
a B bit. Il problema è sempre dato dalla velocità perché più sono gli stadi più si hanno dei rallentamenti. Per
poter ovviare questo tipo di problema è stato introdotto il concetto della pipeline.

Convertitori pipeline
Oggi tutti i processori moderni ed i sistemi di telecomunicazione lavorano in pipeline. È bene quindi chiedersi
cosa sia la pipeline. Per poter capire bene di cosa si tratti si immagini un tubo idraulico all’interno del quale si
inserisce una pallina da un lato, poi una seconda pallina, poi una terza pallina e così via fino a riempiere il
tubo. Quello che accade è che, a tubo pieno, nel momento in cui si inserisce una nuova pallina la prima pallina
cade dall’altro lato del tubo.

Figura 29.6 - Convertitori pipeline

Per capire bene bene, si supponga di avere tre stadi, si acquisisce il primo campione al primo stadio che
quest’ultimo elabora con un certo tempo. Nello stesso tempo il secondo ed il terzo stadio aspettano. Nel

170
momento in cui il primo stadio ha terminato passa il campione al secondo stadio che in certo tempo lo elabora
In questo tempo il primo stadio ed il terzo stadio aspettano. Lo stesso discorso vale nel momento in cui il
campione viene passato al terzo stadio. Finito il primo campione si comincia col secondo campione. Questa
non è una maniera efficiente di gestire le risorse poiché nel momento in cui il secondo stadio lavora sul primo
campione, il primo stadio deve iniziare a lavorare sul secondo campione in modo tale che quando il secondo
stadio ha finito di lavorare sul primo campione allora passa quest’ultimo al terzo così come il primo stadio
passa il secondo campione al secondo stadio e così via. In questo modo ogni nuovo campione determina una
uscita. In questo modo si lavora alla velocità di un solo stadio ed il numero di stadi presenti aumenta solo il
tempo del transitorio iniziale, ossia il tempo che bisogna aspettare affinchè tutti gli stadi lavorino con un
campione differente ma simultaneamente. Questo dispositivo è molto utilizzato per i processori. Questo genere
di approccio va bene fin quando le istruzioni sono poste l’una sotto l’altra. Si ha invece un problema nel
momento in cui si hanno dei salti, ossia quando ci sono degli if.
La realizzazione del pipeline avviene nel momento in cui nei vari stadi si permette di scollegare lo stadio
aggiungendo dei sample and hold. Ogni stadio, avendo in ingresso un sample and hold, blocca il campione e
lavora su quello senza interessarsi di ciò che sta facendo lo stadio precedente. Inserendo un sample and hold
all’inizio di ogni stadio è possibile disaccoppiare gli stadi così che ognuno lavora su un valore differente.

Figura 29.7 - Tecnica in pipeline

Per tale architettura esiste un limite sul numero di stadi, ciò significa che oltre un certo livello si perde
precisione. Si riescono a fare architetture a 16 bit o 20 bit.

171
172