Sei sulla pagina 1di 9

STATISTICA

Esistono due tipi di analisi, l’analisi qualitativa, necessaria per conoscere l’identità della specie presente in
un campione; l’analisi quantitativa, necessaria per conoscere la quantità di queste specie presenti nel
campione. Ovviamente, l’analisi qualitativa deve precedere quella quantitativa.

E’ impossibile eseguire delle analisi chimiche che ci diano risultati privi di errori, possiamo quindi dire che il
valore reale sia sempre sconosciuto, ma comunque possiamo avvicinarci in qualche modo a questo valore.
Possiamo conoscere dei valori che si avvicinano a quello reale tramite l’utilizzo di alcune formule:
N

- La media aritmetica è la somma dei valori calcolati diviso in numero totale dei valori;
∑ xi
i=1
x=
N
- La mediana, è il risultato centrale dei dati ottenuti, nel caso di dati dispari, o, nel caso di dati pari, la
media dei due dati centrali ottenuti;
- Meno utilizzata è la moda, che prende come riferimento il dato che esce fuori più spesso dalle diverse
misurazioni fatte.

Una volta che abbiamo ottenuto dei dati dall’analisi fatta, c’è il bisogno di stimare la precisione e
l’accuratezza di questi, poiché se questi dati ottenuti non sono precisi e accurati, non sono utili.

Quanto più i dati ottenuti sono simili tra di loro, più sono precisi. Un’analisi precisa però non è sinonimo di
analisi corretta, poiché può comunque non essere accurata, e quindi i dati ottenuti sono lontani dal dato
reale. In particolare, la precisione indica la riproducibilità delle misurazioni, ossia quanto i dati trovati
siano simili tra loro. Effettuiamo un’analisi chimica e otteniamo un risultato, come possiamo dire che è
preciso? Tramite l’utilizzo di alcune formule:

Deviazione dalla media: ci sta ad indicare quanto il dato che abbiamo trovato è distante dalla media degli
altri risultati; d =|x i−x|

Deviazione standard: esprime la tendenza dei dati a variare tra loro. Una deviazione standard bassa sta a
significare che abbiamo dei valori che tra di loro variano di poco. Se avessimo dei valori molto dispersi tra
loro ma che comunque ci danno come media un valore vicino a quello reale, senza la deviazione standard

√∑
N
non saremmo in grado di dire se l’analisi da noi effettuata sia effettivamente precisa; σ = ¿¿¿¿
x=i

Varianza: è il quadrato della deviazione standard, esprime anch’essa come variano i dati tra loro e quanto
N
sono lontani dalla media, ma quadraticamente; σ =∑ ¿ ¿ ¿
2

x=i

¿
Coefficiente di varianza: ci indica quanto i dati che abbiamo ottenuto sono dispersi tra loro. σ =σ / x

L’accuratezza indica quanto il valore che abbiamo ottenuto si trova lontano dal valore reale. Se un analisi è
molto accurata, vuol dire che abbiamo effettuato una serie di misurazioni che sono molto vicine al valore
reale, ma comunque, se non precisi, questi dati non sono molto simili tra di loro. Come possiamo dire se
l’analisi che abbiamo effettuato è accurata? Calcolando tali errori:

Errore assoluto: (E): x i−μ

xi −μ
Errore relativo: ( Er ¿ :
μ
xi −μ
Errore percentuale: (E%): ∗100
μ
σ
Errore standard: (per indicare la precisione)
√N

Calcolare gli errori di un’analisi è importante poiché è impossibile che i risultati ottenuti ne siano privi. Il
nostro compito è proprio quello di minimizzare il più possibile gli errori per ottenere dei risultati che si
avvicinino il più possibile a quello reale. Esistono 3 tipologie di errori:

Un errore grossolano si verifica occasionalmente e spesso provoca un significativo scostamento di un


singolo dato (o più) dalla media di tutti gli altri dati. Viene per questo definito outlier, in quanto è anomalo.
Per capire se questo errore debba essere considerato o scartato, utilizziamo la regola del 2.5d e il test Q.

La regola del 2.5d consiste nel calcolare la deviazione media dell’outlier, e la media aritmetica, senza
comprendere però l’outlier. Se la deviazione media del valore sospetto differisce dalla media per più di
2,5 ∙ media delle dev . media dei dati, allora l’oulier viene scartato; se invece deviazione media del valore
sospetto differisce dalla media per meno di 2,5 ∙ media delle dev . media, allora l’oulier viene considerato.

Gli errori sistematici, chiamati così poiché generano, su analisi eseguite sempre allo stesso modo, un errore
dello stesso ordine di grandezza. Anche se siamo precisi, errori sistematici dovuti ad esempio a degli
strumenti calibrati male, possono influenzare in modo significativo l’accuratezza delle analisi. Tale errore
provoca uno scostamento unidirezionale dei dati, andando a modificarne la media e facendoci quindi
allontanare dal valore reale. Esistono 3 tipi di errori sistematici:

- Errori strumentali, dovuti a strumenti come pipette e burette, che ci segnano volumi differenti da quelli
reali, o strumenti elettronici, eventualmente danneggiati o tarati male;
- Errori di metodo, ovvero l’utilizzo di reazioni non ideali per quell’analisi, reazioni che ad esempio non
vanno a completezza, o l’insorgere di reazioni secondarie che non avevamo previsto;
- Errori personali, poiché a volte capita di affidarci a giudizi personali, come quando ad esempio la
buretta segna un volume tra due tacche di divisione.

Una volta che individuiamo l’errore sistematico, lo andiamo a correggere tramite metodologie opportune
quali: standardizzazione del nostro campione, variazione della quantità di campione utilizzato o
calibrazione degli strumenti.

Gli errori casuali non possono essere eliminati, in quanto sono causati da tante variabili che non possiamo
controllare, come ad esempio l’umidità dell’ambiente in cui svolgiamo le analisi, la temperatura ecc. Tali
errori provocano una dispersione dei dati intorno al valore medio in maniera simmetrica, e sono la
principale fonte di incertezza.
Quando effettuiamo delle analisi bisogna chiedersi quale sia l’oggetto in questione, infatti distinguiamo:

La popolazione, ovvero l’insieme di tutte le misure, e il campione, che rappresenta una parte della
popolazione, che deve essere in grado di metterci in condizioni tali da poter effettuare un’analisi valida per
l’intera popolazione, proprio perché delle volte non siamo in grado di analizzare l’intera popolazione.

PROPRIETA’ DI UNA CURVA GAUSSIANA


Alla curva gaussiana è legata l’idea di “curva per descrivere i dati”. Quando si effettuano tante misurazioni
di una stessa grandezza con un certo strumento, si avranno risultati differenti dovuti all’inevitabile
imprecisione sia dello strumento sia dell’operato della persona che utilizza lo strumento. Se si
rappresentano le misure ottenute su un grafico, e se il numero di misurazioni è molto elevato, la curva che
si ottiene è proprio la curva di Gauss. La curva ha un massimo attorno alla media dei valori misurati ed è più
o meno stretta a seconda della dispersione dei valori attorno alla media. La dispersione si misura con la
deviazione standard. Una curva di gauss possiede delle proprietà generali: la media si trova nel punto
centrale, in corrispondenza della massima frequenza. Intorno al valore massimo abbiamo una deviazione
positiva ed una negativa di valori, dove all’aumentare delle deviazioni, si verifica una decrescita
esponenziale della frequenza con cui registriamo tali dati. Quindi possiamo assumere che le incertezze
casuali piccole sono osservate molto più spesso delle grandi.

Una curva gaussiana può essere descritta attraverso due parametri, la media della popolazione (μ), e la
deviazione standard della popolazione (σ).

Facciamo attenzione però a distinguere quella che è la media della popolazione, dove N indica il numero
totale di misurazione presenti in tutta la popolazione, e la media del campione, dove N indica il numero di
misurazioni comprese nel campione ( x ). In molti casi non è possibile conoscere la media della popolazione,
e quindi utilizziamo quella del campione, che coincide alla media della popolazione se effettuiamo almeno
20/30 misurazioni, ma comunque, la media del campione rimane solo una stima statistica della media della
popolazione.

Una volta che otteniamo il valore medio della popolazione (μ), o per approssimazione quello del campione,
dobbiamo capire se questo dato è preciso. Per fare ciò, andiamo a calcolare la deviazione standard della


N

popolazione. ∑ ( xi −μ )2
i=1
σ=
N

Per verificare se un certo valore si discosta dalla media in modo significativo o meno, utilizziamo la variabile
z, attraverso la quale possiamo effettuare il test z che confronta z calcolata con z tabulata. Prendiamo un
esempio dove la media della distribuzione è 50 e il nostro punteggio è 62, ciò significa che esso si trova 12
punti sopra la media. Ma ciò non è sufficiente senza avere altri elementi di riferimento. Questa distanza è
notevole, tenendo conto dei punteggi presi dagli altri, oppure è poco significativa? Per interpretare un
punteggio è necessario collocarlo in una data posizione, cioè assegnargli un posto preciso rispetto agli altri
punteggi. Per fare questo in maniera precisa una strada abbastanza agevole consiste nel considerare la
distanza tra il nostro punteggio e la media e dividere tale distanza per la deviazione standard. In altre
parole si tratta di misurare la distanza tra il punteggio 62 quello della media 50 usando come unità di
( x−μ )
misura la deviazione standard. z=
σ
Nel caso in cui le misurazioni effettuate non siano abbastanza da poter calcolare la deviazione standard
della popolazione, utilizziamo la deviazione standard del campione, dove N viene sostituito con N-1,
ovvero i gradi di libertà. Il valore della deviazione standard del campione (s), può differire di molto rispetto
alla deviazione standard della popolazione (σ).


N

∑ ( x i−x )2
i=1
s=
N−1

LIVELLI DI FIDUCIA
Gli intervalli di confidenza misurano il grado di incertezza o certezza in un metodo di campionamento. Il
livello di confidenza più comune è tra il 95% /99%. Gli intervalli di confidenza vengono condotti utilizzando
metodi statistici, come un t-test.

Il livello di fiducia è inversamente proporzionale al numero delle misurazioni, poiché più misurazioni
facciamo, più piccolo sarà l’intervallo di fiducia, e quindi saremo più precisi; allo stesso modo, è
direttamente proporzionale alla deviazione standard della popolazione (σ), o alla deviazione standard del
campione (s), e quindi minore sarà la deviazione standard, più saremo precisi.

µ=x ±
( √zσN )
TEST STATISTICI
I test statistici servono a valutare se un’ipotesi sia vera o falsa. Per fare ciò si parte da un ipotesi nulla
(H0). L’ipotesi nulla (H0) è un'affermazione riguardo alla popolazione che si assume essere vera fino a che
non ci sia una prova evidente del contrario. In altre parole, con l’ipotesi nulla affermo che la differenza che
vedo è solo ipotesi del caso. Se si rifiuta un'ipotesi nulla che nella realtà è vera, allora si dice che si è
commesso un errore di prima specie (o falso negativo). Accettando invece un'ipotesi nulla falsa si commette
un errore di seconda specie (o falso positivo).

Un modo per verificare l’ipotesi è tramite il TEST T, il quale misura se la media del campione ( x ¿, si discosta
in modo significativo da un certo valore di riferimento. Il risultato del test t produce il valore t. Questo
valore t calcolato viene quindi confrontato con un valore ottenuto da una tabella dei valori critici (chiamata
tabella di distribuzione T). Se t calcolata<t tabellare, allora l’ipotesi è verificata. La tabella di distribuzione a
T è disponibile nei formati a una coda e due code. Il primo (una coda) viene utilizzato per valutare i casi che
hanno un valore o intervallo fisso con una direzione chiara (positiva o negativa). Ad esempio, qual è la
probabilità che il valore di output rimanga al di sotto di -3 o che ne ottenga più di sette quando si lancia una
coppia di dadi? A due code invece viene utilizzato per l’analisi del limite di intervallo, ad esempio per
chiedere se le coordinate sono comprese tra -2 e +2.

Il TEST T si divide in 3 tipologie:

Test T semplice: si valuta se un campione di dati possa rappresentare l’intera popolazione di dati. Se t
calcolata<t tabellare, allora l’ipotesi è verificata.

Test T appaiato (di tipo omoschedastico): si valuta se due set di dati sono compatibili, ma il metodo
analitico per effettuare le misurazioni devono essere le stesse. Prima di effettuare questo però bisogna
verificare che i due set abbiano una precisione simile, e per fare ciò si usa il test F. Se t calcolata<t tabellare,
allora i due set sono paragonabili e la differenza è dovuta solo ad errori casuali.
Test T per campioni multipli (di tipo eteroschedastico): si valuta se due set di dati, ottenuti con metodi
analitici differenti, siano compatibili, ossia se hanno una distribuzione dei dati simile. Se t calcolata<t
tabellare, allora i due set sono paragonabili e la differenza è dovuta solo ad errori casuali.

Il TEST F stabilisce se due set di misurazioni abbiano una precisione simile o meno. Per fare questo si
rapportano le due deviazioni dei campioni, 𝑠1 ed 𝑠2:
2
s1
F= 2
s2

Se F calcolata < F tabellare, allora le deviazioni standard dei due campioni sono simili; se invece F calcolata
> F tabellare, allora le deviazioni standard dei due set sono diversi e quindi i due metodi forniscono risultati
significativamente diversi.

RIGETTO OUTLIER (TEST Q e TEST G)


Il test Q viene utilizzato per valutare se è possibile escludere un outlier (valore anomalo) all’interno di una
serie di dati. Ciò è possibile solo quando il numero di misurazioni è inferiore a 10. Per fare ciò si rapporta il
divario, ovvero la differenza tra outlier e il valore più vicino ad esso, con l’intervallo, ovvero la differenza tra
il valore più grande e quello più piccolo, outlier incluso. Q calcolata < Q tabellare, allora l’outlier è incluso;
se invece Q calcolata > Q tabellare allora l’outlier è escluso. Il test G ha la stessa funzione. Se la G calcolata >
G tabulata allora il dato sospetto potrebbe essere eliminato con il livello di confidenza utilizzato nella scelta
del valore critico (rigetto ipotesi nulla).

divario
Q=
intervallo

|valore sospetto−x|
G=
s

CALIBRAZIONE
COSTRUZIONE DI UNA CURVA DI CALIBRAZIONE
La maggior parte dei metodi analitici sono basati su una curva o una retta di calibrazione ricavata
sperimentalmente, dove vengono messi in relazione il segnale misurato sull’asse delle y e la
concentrazione sull’asse delle x. Il problema che sorge è che il grafico, approssima una linea retta, ma a
causa degli errori associati alla misurazione, i punti del grafico che abbiamo trovato non ricadono
perfettamente sulla retta. E’ necessario quindi trovare la migliore retta possibile in modo da ottenere una
serie di dati più regolare. Per fare ciò si considera la regressione lineare R2, che rappresenta un metodo di
stima del valore. Per costruire una curva di calibrazione lineare bisogna assumere che ci sia una relazione
tra la concentrazione dell’analita e il segnale misurato: questa relazione viene indicata con y=mx+q; dove 𝑚
(coefficiente angolare) e 𝑞 (intercetta dell’asse y). La deviazione di ciascun punto dalla linea retta viene
chiamata residuo: in questo modo, col metodo dei minimi quadrati andiamo a minimizzare la somma dei
quadrati dei residui di tutti i punti. Oltre a fornire la migliore retta interpolante tra i punti trovati, il metodo
fornisce la deviazione standard di m (coefficiente angolare), e di q (intercetta dell’asse y), ma anche la
deviazione standard per i risultati ottenuti dalla curva di calibrazione. Quando un rilevatore va in
saturazione, c’è una zona di plateau detta zona di saturazione.

Si costruisce quindi il grafico dall’equazione della retta più probabile detta curva di calibrazione.

Nel campione da analizzare vi sono in genere, oltre all’analita, anche altre sostanze che sono chiamate
matrice. Esse contengono, ad esempio, il solvente e altre sostanze che possono influenzare la risposta
strumentale. La presenza di eventuali sostanze interferenti che possono portare alla complessazione
dell’analita, alla formazione di composti mascheranti, all’alterazione del pH ecc. costituiscono l’effetto
matrice che è una fonte di errore per la determinazione quantitativa dell’analita.

Per minimizzare l’errore non si utilizza generalmente il segnale misurato. Esso è corretto sottraendogli il
segnale del “bianco”, ovvero il segnale misurato dal nostro rivelatore prima dell’aggiunta dell’analita.

Alcune definizioni importanti.


SELETTIVITÀ. È la capacità di un metodo analitico di non risentire della presenza di interferenti o di
altri componenti diversi dall’analita in esame.

SENSIBILITÀ. È la capacità di discriminare tra piccole differenze di concentrazione di analita. A livello


puramente matematico rappresenta la pendenza della curva di calibrazione in corrispondenza della
concentrazione a cui si sta lavorando. La maggior parte delle curve di calibrazione in chimica è lineare, in
questi casi la sensibilità risulta uguale al coefficiente angolare, 𝑚 , ed è indipendente dalla concentrazione
dell’analita.

Limiti di rilevabilità e quantificazione


Il limite di rilevabilità ed il limite di quantificazione identificano il limite inferiore di concentrazione sotto il
quale il campione non può essere rilevato o quantificato con sufficiente probabilità statistica.

Il limite di rilevabilità (indicato comunemente con gli acronimi inglesi Dl e Lod), è il valore misurato,
ottenuto con una procedura di misura assegnata, per il quale la probabilità di dichiarare erroneamente
l'assenza di una sostanza all’interno dell’analita è β, e la probabilità α di dichiarare erroneamente la sua
presenza; la Iupac raccomanda valori di α e β uguali a 0,05. Quando un segnale è maggiore del limite di
rilevabilità possiamo dire che l’analita è presente nel campione, ma per stabilire il limite oltre il quale è
legittimo eseguire misure quantitative è necessario definire il limite di quantificazione, pari a 33σ.

Significatività
La significatività è la probabilità di sbagliare rigettando l’ipotesi nulla. E’ necessario scegliere a priori quale
è il livello di significatività alpha. In altre parole, quanto deve essere grande la differenza tra i due
punteggi medi perché il risultato sia statisticamente significativo.

Alpha ed errore di primo tipo


In statistica, il livello di significatività viene indicato con alpha (α). In termini un po’ più tecnici, alpha
rappresenta la probabilità che l’analisi produca risultati statisticamente significativi quando in realtà è vera
l’ipotesi nulla, ovvero che quello che ho affermato è solo ipotesi del caso.

Rifiutare un’ipotesi nulla che in realtà è vera significa commettere un errore di primo tipo. E, il livello di
significatività alpha è proprio l’indicatore di quanto al massimo può essere grande questo errore. O, detto
in altri termini, è la probabilità massima che si è disposti ad accettare di incorrere in un falso positivo.
Ovviamente questa probabilità deve essere piccola, in quanto è la probabilità di un errore. Il livello in
assoluto più utilizzato è α=0.05.

Alpha=0,05: cosa significa?

Impostare α=0.05 significa che le tue analisi hanno il 5% di probabilità di restituire un risultato
significativo (e quindi portarti a rifiutare l’ipotesi nulla) quando in realtà l’ipotesi nulla è vera.

Metodi di calibrazione
STANDARD ESTERNO. Il metodo dello standard esterno è il più semplice e rapido metodo di
calibrazione; generalmente viene utilizzato per calibrare uno spettrofotometro. Questo metodo prevede
l’utilizzo di soluzioni standard dell’analita (a concentrazione nota) che hanno valori di concentrazioni man
mano crescenti (per disporsi già in ordine crescente lungo la retta). Queste soluzioni standard vanno
preparate separatamente dal campione. Il metodo dello standard esterno presuppone, quindi, che la
risposta tra titolante e analita nello standard, sia identica a quella tra titolante e analita nel campione.

STANDARD INTERNO. Nel metodo dello standard interno si utilizza una sostanza di riferimento detta
standard interno, la quale viene aggiunta in quantità nota sia alle soluzioni standard di analita, sia alla
soluzione incognita di analita, sia al bianco. Questo metodo generalmente si applica per calibrare i
cromatografi o i gascromatografi. Praticamente si deve costruire la curva di calibrazione, utilizzando
anzitutto le soluzioni standard, come nel metodo precedente (però stavolta in queste soluzioni oltre
l'analita a concentrazione nota, è contenuto anche lo standard interno che deve essere una specie in grado
di comportarsi, durante l'analisi, allo stesso modo dell'analita). Per ciascuna soluzione standard sarà quindi
riportato un segnale come nel metodo precedente, però in questo caso il segnale sarà dato dal rapporto tra
il segnale della sola soluzione standard e il segnale dello standard interno. Costruita la curva, a questo
punto, si analizza la soluzione incognita di analita (contenente anch'essa lo standard interno) per registrare
il suo segnale (dato sempre dal rapporto tra il segnale della soluzione contenente soltanto l'analita e il
segnale del solo standard interno) e risalire quindi alla concentrazione dell'analita. Questo metodo è
strettamente correlato con l’uso di analiti marcati con isotopi stabili, mediante diluizione isotopica. Un
tipico errore corretto con uno standard interno (dev’essere aggiunto prima delle operazioni di trattamento
del campione) è quello del recupero incompleto, che può verificarsi durante le fasi preanalitiche. Questo
consiste essenzialmente nella perdita di analita, ma l’eventuale aggiunta di standard interno sopperisce a
questa perdita (la perdita di analita sarà uguale alla perdita di standard interno, e viceversa, tale che la
concentrazione rimarrà uguale nel caso dell’eventuale perdita di uno dei due). La risposta dei segnali di 𝑋
(analita) ed 𝑆 (standard interno) permettono l’analisi quantitativa dell’analita:

segnale x segnale s
= F
concentrazione x concentrazione s
F è il fattore di risposta del composto.

AGGIUNTA MULTIPLA E
SINGOLA. Il metodo dell’aggiunta,
sia singola che multipla, rappresenta
il miglior metodo di calibrazione che
può essere adoperato per un’analisi
spettrofotometrica (in sostituzione a
quello con standard esterno). Nel
metodo dell’aggiunta singola, si
utilizza dapprima una soluzione
contenente una certa quantità di
analita (concentrazione incognita) che restituirà un determinato valore di assorbanza. Se questo valore
rientra all’interno dell’intervallo di linearità definito in precedenza, è possibile riportare la seguente
equazione generale:

S0 =k C x

S0 è il segnale, k è il coefficiente di estinzione molare e C x è la concentrazione incognita di analita. A


questo punto a tale soluzione si addiziona una certa quantità nota di analita (indicata con 𝐶1) e si misura
nuovamente allo spettrofotometro, dove si otterrà la seguente equazione:

𝑆1 = 𝑘(𝐶𝑥 + 𝐶1)

Mettendo a sistema le due equazioni è possibile ricavare 𝐶𝑥. Dalla prima equazione si ricava 𝑘 (𝐶1 è una
quantità nota di analita aggiunto, 𝑆0 ed 𝑆1 sono riportati dallo spettrofotometro); da cui diciamo che:

S0
C x= C
S 1−S0 1

Nel metodo dell’aggiunta multipla, invece, si può procedere in due modi diversi: mediante metodo grafico
oppure attraverso aggiunte sequenziali. Nel primo caso il metodo si svolge in maniera molto simile a quello
dell’aggiunta singola, però utilizzando più aliquote di analita: una prima aliquota di analita è a
concentrazione incognita e le successive invece presenteranno l’analita a concentrazione incognita insieme
ad una quantità di analita noto; per ciascuna di queste aliquote sarà aggiunta una quantità crescente di
analita noto; in tal modo, riportando sul grafico concentrazione-segnale i valori di assorbanza registrati per
ciascuna aliquota in funzione della concentrazione di analita noto che è stato aggiunto in ciascuna provetta,
si ottiene una retta, attraverso la quale è possibile ricavare la concentrazione di analita incognita mediante
interpolazione della retta con l’asse delle x: si ottiene un valore negativo che, cambiato di segno, permette
di ottenere la concentrazione desiderata (Crescenzi non ti chiede mai di svolgere le equazioni che permettono,
attraverso l’interpolazione della retta con l’asse, di arrivare alla concentrazione di analita). Infine, nel caso delle
aggiunte sequenziali il metodo di svolgimento è lo stesso, ma in questo caso si utilizza una sola provetta,
che inizialmente conterrà solo l’analita incognito. Dopodiché si aggiunge una certa quantità nota di analita
in maniera sequenziale, utilizzando quindi sempre la stessa aliquota per ciascuna aggiunta effettuata;
quest’ultimo caso si può utilizzare soltanto quando la sostanza che si vuole analizzare non si altera per
aggiunte sequenziali effettuate in successione.

*si è parlato di bianco. Che cos’è? Si prenda per esempio il caso delle titolazioni; dato che l’indicatore
mostra il punto finale ma non il punto equivalente, bisogna sottrare il volume di fine titolazione con il
volume di titolazione con bianco. Il bianco, infatti, è una soluzione di analita… ma senza analita, ossia
solvente e indicatore. Si aggiunge titolante al bianco, e il volume di titolante usato affinché si abbia un
cambiamento fisico da parte dell’indicatore sarà proprio il volume di titolante in eccesso nella titolazione
iniziale. Sottraendo quindi al volume di fine titolazione (punto equivalente più eccesso di titolante) il
volume di titolazione col bianco (l’eccesso di titolante) si avrà il punto equivalente. In generale, in una
misurazione, diciamo che il bianco è il segnale misurato dal nostro rivelatore prima dell’aggiunta
dell’analita. Similmente alle titolazioni, in un’analisi strumentale non si utilizza direttamente il segnale
misurato, ma lo si corregge sottraendogli il segnale del bianco. Il bianco viene misurato prima di tutti gli altri
campioni, poiché una volta misurato terrà anche conto di tutti i fattori interferenziali, sia chimici che
strumentali. Esistono due tipologie di bianco: Bianco del solvente, cioè il segnale rivelato dal solvente senza
l’analita; Bianco dei reagenti, cioè il segnale rivelato dal solvente più tutti i reagenti utilizzati nella
preparazione del campione da analizzare. *

Potrebbero piacerti anche