Sei sulla pagina 1di 132

CHIMICA ANALITICA

STRUMENTALE

1
INTRODUZIONE
Tradizionalmente la chimica analitica strumentale viene classificata in base ai metodi impiegati:
• Metodi ottici
• Metodi elettrochimici
• Metodi cromatografici
• Altre metodiche(spettrometria di massa, ecc.)
Tali metodiche, rispetto a quelle classiche, presentano i seguenti vantaggi e svantaggi:
• Vantaggi: velocità di esecuzione, alta sensibilità e specificità
• Svantaggi:trattamenti premilitari del campione, necessità di standard primari puri per la taratura dello
strumento.

Analisi strumentali qualitative e/o quantitative


Le metodiche strumentali permettono di eseguire analisi qualitative su di un campione confrontando il
segnale ottenuto dal campione in studio con quello fornito, nelle stesse condizioni, da una sostanza di
riferimento. Informazioni quantitative possono essere ottenute facendo precedere all’analisi quantitativa sul
campione un’opportuna procedura di calibrazione. I metodi generalmente più utilizzati sono:

1.1: Metodo della curva standard: è la tecnica più comune per quanto concerne l’analisi quantitativa. Esso
consiste nella diagrammazione di una curva utilizzando una soluzione di composizione simile a quella del
campione oggetto di analisi. Generalmente, nelle procedure di calibrazione, ogni componente della miscela
(ioni disciolti, altre sostanze) crea un’interferenza.
Tale metodo risulta essere tanto più efficiente quanto più simile è la composizione della soluzione utilizzata
per la calibrazione a quella in analisi. A tal riguardo può essere fatto il seguente esempio: si supponga di
voler determinare la concentrazione di ferro contenuto in un campione di acqua di mare. La curva di
calibrazione deve essere costruita utilizzando acqua di mare, in quanto mettendo 1ppm di ferro nell’acqua di
mare si ottiene dallo strumento una risposta che corrisponde esattamente al segnale di 1ppm di ferro in acqua
di mare. Questo risultato non si otterrebbe se si utilizzasse acqua pura.

1.2: Metodo delle aggiunte standard: tale metodo prevede che alla soluzione da analizzare vengano
aggiunte quantità note dell’analita in studio e si misura l’aumento del segnale così ottenuto. La tecnica
operativa prevede che ciascuna soluzione, dopo l’aggiunta dello standard, venga diluita allo stesso volume
finale; in questo caso tutte le altre specie che costituiscono il campione, ad eccezione dell’analita, si
mantengono alla stessa concentrazione. Se indichiamo con [X] la concentrazione incognita e con [S] la
concentrazione dello standard allora possiamo dire:

[X] = concentrazione incognita


[S] = concentrazione dello standard
Ax = risposta strumentale associata all’incognito
AS = risposta strumentale data dallo standard

I migliori risultati, da un punto di vista statistico, si ottengono quando le aggiunte standard eseguite
aumentano la concentrazione dell’analita da 1,5 a 3 volte la concentrazione iniziale. Il vantaggio principale,
di questa metodica, è che la matrice rimane invariata per tutti i campioni.
Supponiamo di avere 4 matracci da 10 ml, ciascuno dei quali contenente 5 ml della soluzione da analizzare.
A questi matracci vengono aggiunte le aliquote di soluzione standard da analizzare e vengono portate a
volume. Le 4 soluzioni vengono analizzate e i dati vengono riportati su un grafico:

2
La retta in alto è quella che si otterrebbe se riuscissimo a togliere il contributo dell’analita; infatti con
un’aggiunta di 0 ml si avrebbe una risposta pari a 0. Si può eliminare questo contributo tracciando
l’intercetta con l’asse delle ascisse della parte negativa. L’intercetta nel punto (negativo) delle ascisse può
essere estrapolato o calcolato matematicamente.
Il volume (negativo) per arrivare all’intercetta delle ascisse (partendo dallo zero degli assi cartesiani)
moltiplicato Cs, rappresenta analiticamente Cx.
Si assume che alcune aliquote Vx della soluzione incognita a concentrazione C X sono trasferiti in matracci di
volume Vt. Ad ognuno di questi si aggiunge un volume variabile V S di una soluzione standard dell’analita a
concentrazione nota CS. Tutte le soluzioni vengono portate a volume, per ciascuna di queste viene effettuata
la misura strumentale e la correzione del bianco in modo da avere la risposta strumentale corretta S. Si è
precedentemente assunto che la risposta strumentale è proporzionale alla concentrazione quindi si ha che:
S=(KVsCs/Vt)+ (KVxCx/Vt)
Con K = costante di proporzionalità ( es, epsilon in UV-VIS)
Ponendo m=(KCs)/Vt e ponendo b= (KVxCx)/Vt ;
si ricava la seguente diretta proporzionalità :
S=mVs+b
ovvero l’equazione di una retta con diretta proporzionalità fra Vs e S in accordo con la procedura
sperimentale.
Analiticamente ricaviamo Cx :
b/m = (KVxCx)Vt / KCsVt → da cui b/m = VxCx/ CS
e quindi infine si ha Cx dall’ultima :
Cx = bCs / mVx

Nonostante il metodo appena descritto è un procedimento generale valido per tutte le tecniche, strumentali,
deve, tuttavia, essere caratterizzato in base alla tecnica che si utilizza.
Il metodo delle aggiunte standard viene di solito preferito quando vi è una certa difficoltà nel riprodurre la
matrice. Avendo a che fare con matrici complesse è sconsigliabile, per esempio, il metodo della retta di
calibrazione. L’effetto matrice, infatti, potrebbe essere talmente marcato che, nell’eseguire la stessa analisi
con entrambe le metodiche, la pendenza della retta di calibrazione e della retta ottenuta con le aggiunte
standard siano significativamente differenti.
La pendenza della curva di calibrazione è, quindi, correlabile alla sensibilità del metodo e che, fra una retta
di calibrazione e una retta ottenuta con le aggiunte standard, va esclusa la retta di calibrazione perché
l’effetto matrice è talmente importante che interferisce significativamente sul risultato dell’analisi. Infine, i
dati sperimentali possono essere controllati mediante la R di Hamilton che ci dice quanto i dati ottenuti si
attengano alla funzione che abbiamo utilizzato. Tanto più vicino R è a 1, tanto più vicini sono i dati ottenuti
alla funzione utilizzata. Non necessariamente la funzione è una retta, quindi un R circa 1 non significa che
necessariamente i nostri dati descrivono una retta.
1.3: Metodo dello standard interno: tale metodo consiste nell’aggiungere un elemento totalmente assente
nella matrice in studio. La metodica si basa sulla preparazione di miscele note di standard e analita x allo
scopo di costruire una curva standard. Dopo aver diagrammato i risultati ottenuti e aver costruito la curva è
possibile determinare la concentrazione di un campione incognito semplicemente aggiungendo allo stesso
una quantità nota di standard. Questa metodica è particolarmente indicata quando si prevedono perdite di
campione. Infatti, aggiungendo subito dopo il campionamento lo standard, è possibile risalire alla perdita del
campione controllando la concentrazione dello standard aggiunto.

Si supponga di avere manganese come standard interno per assorbimento atomico del ferro
Una miscela contenente Manganese e ferro nel rapporto delle seguenti concentrazioni : Mn/Fe = 2/2,5
(microgrammi/ per millilitro o espressi pure come ppm)
La quale restituisce un rapporto di risposta strumentale, SFe / SMn pari a 1,05
Una volta esaminata la risposta strumentale degli standard si passa a preparare una soluzione con con volume
finale di 6 ml nel seguente modo :
5 ml di soluzione incognita di Fe + 1 ml di soluzione di standard al manganese (13,5ppb) = 6 ml di
volume finale
Il rapporto di risposta strumentale per il suddetto esempio vale 0,128 misurato alla lunghezza del manganese

3
e 0,185 alla lunghezza d’onda del ferro.
Considerando che sono stati portati a volume 1 ml di manganese (13,5ppm) a 6 ml finali della miscela il
valore del concentrazione finale del nostro standard al manganese vale :
[Mn2+] = 13,5 / 6 =2.25 ppm
per cui è possibile impostare l’equazione [1,05:(2,5/2)] = [0.185/0.128: (CFe/2.25)]
rapporto strumentale degli std sta al rapporto delle concentrazioni STD = rapporto strumentale
dell’incognito sta al suo rapporto di concentrazioni con il manganese ,ovvero:
[Fe2+] = 3,87 ppm e tenendo conto del rapporto di diluizione e cioè che la risposta strumentale è stata
misurata da un campione che possedeva un volume iniziale di 5 ml ma che per essere analizzato è stato
diluito a 6ml,in conclusione la sua concentrazione iniziale del campione prima della prova, doveva essere
maggiore e cioè 3,87ppb x 6/5 = 4.644ppm.
Da cui questi 4.644 ppb corrispondono a 8.316 x10-8 moli presenti in un millilitro. Rispettando le
proprietà estensive di questi valori di materia, la concentrazione molare finale del campione deve essere
mille volte il valore 4.644ppm dato che la concentazione molare viene misurato su un volume di 1
litro,ovvero 1000 millilitri :
[Fe2+] =( 8.316 x 10-8 ) x ( 1000ml) = 0.0000831 mol/litro
RICHIAMI RADIAZIONI ELETTROMAGNETICHE
La spettroscopia si occupa delle interazioni di vari tipi di radiazione con la materia. Storicamente le
interazioni di interesse avvenivano tra la radiazione elettromagnetica e la materia, mentre attualmente la
spettroscopia è stata estesa includendo altre forme di energia, per esempio i fasci di particelle quali onde ed
elettroni.
L’intervallo di energie delle radiazioni elettromagnetiche è molto ampio e ogni spettroscopia sfrutta
radiazioni elettromagnetiche in diversi intervalli di frequenza. Ad esempio, la spettroscopia UV sfrutta la
zona dello spettro che va da 200 a 400 nm, mentre per quanto riguarda lo spettro Vis la zona che va da 400 a
800 nm.
Cenni teorici sulla radiazione elettromagnetica
Per la maggior parte degli scopi la radiazione elettromagnetica può essere descritta come un fenomeno
ondulatorio dato dalla propagazione in fase del campo elettrico e del campo magnetico, oscillanti in piani tra
loro ortogonali e ortogonali alla direzione di propagazione. Tale fenomeno è descritto matematicamente
come soluzione dell'equazione delle onde.

Generalmente, nella trattazione più semplice, si considera esclusivamente la componente elettrica in quanto è
la parte che trasporta l’energia di una onda elettromagnetica, quindi è la vera responsabile dei fenomeni di
interazione con la materia. Tuttavia è necessario sottolineare che la componente magnetica non può essere
trascurata nel caso della spettroscopia a risonanza magnetica nucleare.

4
Una onda elettromagnetica presenta taluni parametri fondamentali

• L'ampiezza A dell'onda sinusoidale è definita come la lunghezza del vettore elettrico al massimo
dell'onda. Il tempo richiesto per il passaggio di massimi (o minimi) successivi attraverso un punto fisso
nello spazio è chiamato periodo p della radiazione.

• La frequenza  è il numero di oscillazioni del campo per secondo ed è uguale ad 1/p. È importante
tenere presente che la frequenza è determinata dalla sorgente e rimane costante indipendentemente dal
mezzo attraversato dalla radiazione.

• Di contro, la velocità di propagazione, vi del fronte d'onda attraverso un mezzo è dipendente sia dal
mezzo che dalla frequenza; il pedice i è impiegato per indicare questa dipendenza dalla frequenza.

• La lunghezza d'onda i è la distanza lineare fra massimi o minimi successivi di un'onda. Il prodotto
della frequenza in onde per secondo per la lunghezza d'onda in centimetri dà la velocità v i di
propagazione in centimetri per secondo: vi = .i

• La velocità con la quale le radiazioni elettromagnetiche si propagano nel vuoto, c, è indipendente dalla
lunghezza d'onda ed è massima: c = 2,99792  1010 cm/s. La velocità nell'aria differisce solo leggermente
da c (è circa lo 0,03% in meno). Nel vuoto o nell'aria la velocità della luce è convenientemente
arrotondata a 3.00  1010 cm/s = 3,00  108 m/s . In un mezzo contenente materia, la radiazione si propaga
ad una velocità minore di c perché il campo elettromagnetico della radiazione, interagendo con gli
elettroni degli atomi o molecole del mezzo, si propaga meno rapidamente. Dal momento che la
frequenza della radiazione è invariante ed è fissata dalla sorgente, la lunghezza d'onda della radiazione
deve diminuire nel passare dal vuoto ad un mezzo contenente materia: vi = .i

• Il numero d'onda, è definito come il numero di onde per centimetro, ed è uguale a 1/. Per
definizione, ha le unità di cm-1.

• La potenza, P, è l'energia di radiazione che raggiunge una data area per secondo.

• L'intensità, I, Esprime la quantità di energia luminosa emessa in una specifica direzione. Si definisce
intensità luminosa (I) il rapporto tra la potenza radiante emessa da una sorgente entro un angolo solido e
lo stesso angolo solido. È dimensionalmente omogeneo ad una potenza per unità di angolo solido
(steradiante) ed è quindi una densità di potenza angolare. La sua unità di misura è la candela (cd) pari al
lm/sr. Sebbene non sia strettamente corretto, potenza e intensità sono frequentemente usate
indifferentemente.

Lo spettro elettromagnetico racchiude un intervallo molto esteso di lunghezze d’onda e frequenze, e quindi
energie, da richiedere una scala logaritmica per la sua rappresentazione. Le divisioni sono basate sui metodi
impiegati per generare e rivelare i vari tipi di radiazione.
E importante sottolineare come la porzione visibile dello spettro, quella a cui il nostro occhio è sensibile, sia
piccola rispetto alle altre regione spettrali.
Il modello ondulatorio fallisce nel rendere conto di fenomeni associati all'assorbimento e all'emissione di
energia radiante. Per questi processi, la radiazione elettromagnetica deve essere trattata come una
corrente di particelle discrete o pacchetti d'onda chiamati fotoni o quanti.
L'energia di un fotone è proporzionale alla frequenza della radiazione,secondo la seguente relazione
quantomeccanica :
E = hv
h(costante di Plank)= 6,624*10-34 (joule*sec) v= frequenza della radiazione elettromagnetica

SPETTROFOTOMETRIA UV-VIS
Principio teorico del metodo
La spettroscopia di “assorbimento molecolare” nelle regioni spettrali dell’ultravioletto e del visibile è
ampiamente usata per la determinazione quantitativa di numerose specie organiche, inorganiche e
biologiche.

5
Tale metodo sfrutta l’interazione della luce con la materia per ottenere informazioni sulle concentrazioni
delle soluzioni o l’identità degli analiti in soluzione.

Questi due aspetti della radiazione, la natura ondulatoria e quella corpuscolare sono complementari.
I metodi spettrofotometrici UV-Vis utilizzano l'interazione della luce visibile/UV con la materia per ottenere
informazioni sulle concentrazioni delle soluzioni; una delle tecniche più utilizzate a questo scopo è
rappresentata dalla spettroscopia UV-visibile.
Quando un fotone di adeguata energia colpisce una molecola, questa può assorbire l’energia della particella
luminosa. Prima della stimolazione, l’analita si trova prevalentemente nel suo livello di energia più basso o
stato fondamentale. Dopo la stimolazione l’analita passa a uno stato energetico più alto o stato eccitato. Il
processo in cui si promuove l’eccitazione dell’elettrone prende il nome di assorbimento. La particella
eccitata si diseccita “normalmente” riemettendo una radiazione elettromagnetica la cui frequenza o
lunghezza d’onda dipende dalla differenza di energia tra gli stati secondo l’equazione:
∆E = becc - bfond = hν = h (c/λ)

Quindi la frequenza della radiazione elettromagnetica assorbita ,sarà funzione della differenza energetica
degli stati elettronici permessi dalle regole di selezione descritti dalla meccanica quantistica.
L'interazione di radiazioni con lunghezze d'onda comprese fra 200 e 750 nm con molecole
poliatomiche causano transizioni elettroniche degli orbitali dei gusci di valenza. La spettroscopia UV-
visibile fa uso di queste transizioni a fini analitici.
Gli orbitali molecolari
E’ noto che i legami covalenti sono dovuti alla messa in comune di due elettroni spaiati e possono essere
descritti in termini di sovrapposizione di coppie di orbitali atomici: dalla combinazione lineare delle due
funzioni d’onda, indicate con Ψa e Ψb si ottengono due orbitali molecolari, indicati con Ψ (psi), estesi cioè
alla coppia di atomi interessata dal legame, secondo il metodo LCAO (Linear Combination of Atomic
Orbitals):
- un orbitale legante a minore energia, in cui si ha addensamento di carica tra i due atomi: Ψ = Ψa + Ψb
- un orbitale antilegante a maggiore energia in cui si ha separazione di carica tra i due atomi: Ψ = Ψa - Ψb
la coppia di elettroni si dispone nell’orbitale legante ed in tal modo si realizza un guadagno energetico che
giustifica la formazione del legame covalente. In generale dalla combinazione di 2n orbitali atomici si
ottengono 2n orbitali molecolari: n orbitali leganti ed n antileganti.
La teoria dell’orbitale molecolare (MO) è quindi in grado di spiegare la natura e le proprietà dei legami
covalenti.
A seconda del tipo di sovrapposizione si possono avere:
- orbitali σ derivanti dalla sovrapposizione frontale di orbitali atomici, ovvero orbitali molecolari in cui la
massima densità di carica, cioè la sovrapposizione degli orbitali atomici, si trova lungo la congiungente i due
nuclei atomici
- orbitali π in cui la massima densità di carica non si trova lungo la congiungente i due nuclei.
Nel caso di un atomo monoelettronico come l’H che forma la molecola H2 la situazione è semplice :

I segni che compaiono nel disegno si riferiscono al segno della funzione d’onda Ψ e non hanno niente a che
vedere con la carica elettrica, poiché gli orbitali contengono sempre gli elettroni che hanno ovviamente
carica negativa. Nella molecola dell’ H2, si formano due orbitali σ, uno legante e l’altro antilegante in seguito
alla sovrapposizione frontale dei due orbitali 1s degli atomi di idrogeno; gli elettroni di legame si dispongono
entrambi nell’orbitale legante σ mentre quello antilegante σ*, a maggiore energia, rimane disponibile per
transizioni elettroniche provocate dall’assorbimento di radiazioni aventi un’energia pari alla differenza di
energia dei due orbitali: ΔE = h·ν. In tal modo si spiega la capacità di H 2 di assorbire radiazioni
elettromagnetiche; infatti assorbe in UV a causa della suddetta transizione elettronica tra orbitali molecolari.

6
Quando si legano atomi polielettronici la situazione è più complessa, in quanto vi sono non solo orbitali s
ma anche orbitali p, che si possono sovrapporre frontalmente o lateralmente ed orbitali contenenti doppietti
spaiati, che rimangono tali anche nella molecola; questi sono detti orbitali n (non leganti) :

Sopra è riportato l’esempio della molecola biatomica O 2 (diversa sarebbe la situazione per atomi a diversa
elettronegatività, in cui gli orbitali atomici puri non avrebbero avuto la stessa energia).
L’O ha numero atomico pari a 8 ed ha la seguente configurazione atomica: 1s2 2s2 2p4.
Gli 8 elettroni di ciascun atomo di O si accoppiano con quelli dell’altro e si dispongono nei vari orbitali
molecolari. Come si vede nel livello di valenza si trovano due doppietti che formano i due legami covalenti e
due doppietti spaiati che si trovano in orbitali n non leganti. Anche in questo caso vi sono degli orbitali
molecolari non leganti disponibili ad accettare elettroni promossi in quell’orbitale per effetto
dell’assorbimento di una radiazione di adatta energia e ciò spiega la capacità di O 2 di assorbire radiazioni
elettromagnetiche di adatta energia. L’O2 può dare più transizioni elettroniche rispetto a H 2 per cui è in grado
di assorbire diverse radiazioni.
Nei disegni seguenti sono riportate le possibili sovrapposizioni di orbitali atomici p con formazione dei
relativi orbitali molecolari leganti ed antileganti:

(SOVRAPPOSIZIONE FRONTALE DEGLI ORBITALI p)

(LATERALE)

Dalla combinazione lineare (cioè dalla sovrapposizione) di due orbitali atomici si ottengono sempre due
orbitali molecolari, con opportuna simmetria, uno legante e l’altro antilegante. L’insieme degli orbitali
molecolari viene quindi riempito con gli elettroni derivanti dai singoli atomi, facendo attenzione alla
presenza di eventuali doppietti spaiati che rimangono in orbitali n non leganti, utilizzando le regole di
riempimento previste per gli orbitali atomici. In tal modo si costruisce la struttura elettronica dell’intera
molecola.

7
In generale le bande di assorbimento elettronico prodotte dall’assorbimento di luce di sufficiente
energia sono generalmente molto allargate; infatti, essendo disponibili diversi livelli vibrazionali e
rotazionali situati ad energie leggermente diverse, passando dallo stato elettronico fondamentale ad un
particolare stato elettronico eccitato, una molecola può assorbire fotoni con una gamma di energia piuttosto
ampia.

Per quanto detto in precedenza, lo spettro di assorbimento di una molecola nel campo UV-VS dovrebbe
essere a righe: ogni riga corrisponde ad una transizione elettronica tra due livelli elettronici (l.e.); in realtà i
livelli elettronici contengono al loro interno vari livelli vibrazionali (l.v.) con energie molto simili e quindi lo
spettro di assorbimento dovrebbe presentare un insieme di righe molto vicine, che sono effettivamente
registrabili solo con particolari strumenti ad alta risoluzione e con campioni in fase vapore; con gli
strumenti ordinari e lavorando con soluzioni, le righe non sono separabili ma si registra il loro
inviluppo (cioè il loro contorno) e quindi si ottengono spettri a bande, con picchi allargati in cui non
sono più visibili i dettagli vibrazionali.
Le transizioni più interessanti e studiate sono quelle π → π* e n → π*; sono caratteristiche di sistemi insaturi
le prime e di eteroatomi con doppietti liberi le seconde. Sistemi aventi queste caratteristiche sono detti
cromofori (in origine il nome indicava i sistemi che assorbivano nel VIS, cioè erano colorati, ma oggi si
intendono anche sistemi che assorbono in UV non troppo lontano). I principali cromofori saranno quindi
gruppi atomici con doppi e tripli legami (elettroni π) e con atomi con doppietti liberi come N, O, S, ecc.
(elettroni n):
C=C C=N C=O C=S N=N N=O polieni, aromatici, ecc.

Effetto dei sostituenti


Il comportamento di un cromoforo, che interagisce con la radiazione incidente assorbendola se questa ha una
energia adatta, può essere modificato dall’interazione con i sostituenti, cioè con l’intorno del cromoforo
(auxocromi): si può modificare sia la λ che il coefficiente molare di assorbimento ε.
Gli effetti dei sostituenti sono:
- effetto batocromo: diminuisce il ΔE della transizione aumentando la relativa λ assorbita (vedi equazione di
Plank); può essere causato da sostituenti che aumentano l’E dell’orbitale legante o diminuisce quella
dell’orbitale antilegante o entrambe (es, l’effetto di risonanza degli alcheni coniugati)
- effetto ipsocromo: è opposto al batocromo; aumenta il ΔE della transizione e quindi si riduce la λ richiesta
per la transizione elettronica

8
- effetto ipercromico: si ha quando viene aumentato il coefficiente ε sia per un aumento della probabilità
della transizione che per un aumento della superficie del cromoforo; aumenta quindi l’assorbanza ma rimane
costante λ assorbita
- effetto ipocromico: è opposto all’ipercromico e provoca una diminuzione di ε ed una corrispondente
diminuzione dell’assorbanza.

L’EFFETTO DELLA CONIUGAZIONE

9
ASPETTO QUANTITATIVO DELLA SPETTROFOTOMETRIA UV-VIS
La spettrofotometria di assorbimento molecolare nel campo del visibile e nell’ultravioletto è impiegata
soprattutto per misurazioni quantitative. Proprio per questo è necessario introdurre alcune grandezze
funzionali, cioè il potere radiante, la trasmittanza e l’assorbanza.

Il potere radiante è l’energia caratterizzante una radiazione elettromagnetica che raggiunge una
determinata superficie per unità di tempo.
Dimensionalmente, il potere radiante viene misurato in Watt.
Se si indica con “I0” il potere radiante prima che la radiazione attraversi l’analita, e con “I” il potere radiante
in uscita dall’analita, in virtù del fatto che l’analita potrà assorbire parte della radiazione, si avrà che :

I ≤ I0

Si definisce trasmittanza il rapporto T = I/I0, il quale rappresenta la frazione di radiazione incidente


trasmessa dal mezzo.
Sperimentalmente si è notato che T decresce esponenzialmente all’aumentare del cammino ottico, indicato
con b, cioè quella parte del campione che viene attraversato dalla radiazione elettromagnetica.

La relazione tra la trasmittanza e il cammino ottico è espressa dalla legge di Bougert : T = e-kb

Legge di Beer :
Beer notò che la l’intensità della radiazione elettromagnetica all’uscita del cammino ottico diminuiva
all’aumentare della concentrazione della soluzione posta in esame. Si evince che vi era un rapporto di inversa
proporzionalità fra concentrazione e trasmittanza, la quale venne integrata nella già presente relazione di
Bougert :
T = e-k b C

Legge di Lambert-Beer :
Riarrangiando l’equazione di Beer è possibile correlare la funzione esponenziale ad una logaritmica, infatti :
log T = -K b C

Si definisce a tal proposito una grandezza analitica , ovvero l’assorbanza “ A ” :

A = - log T = log (1/T) = log (Io/I)

Si arriva quindi a definire l’equazione cardine della spettrometria quantitativa di assorbimento molecolare
UV-VIS, ovvero la legge di Lambert-Beer :
A= ɛʎ x b x C
Notare che K è stato sostituito volutamente con ɛʎ, se nel caso ad assorbire fosse una soluzione la cui
concentrazione viene espressa in concentrazione molare (mol/l).
Dalla definizione data di assorbanza , implicitamente, si ricava il significato discreto di ɛʎ , dato che nel caso
in cui il cammino ottico è pari ad 1 cm e la soluzione è concentrata 1 M, il valore di ɛ ʎ risulta univocamente
definito.
Il valore di ελ è considerato costante per una data sostanza ad una data lunghezza d'onda (da qui il pedice λ ),
benché possa subire lievi variazioni con la temperatura. Inoltre, la sua costanza è garantita solo all'interno di
un dato intervallo di concentrazioni, al di sopra delle quali la linearità tra assorbanza e concentrazione può
essere inficiata da fenomeni chimico-fisici

10
La legge di Lambert-Beer è una relazione empirica che correla la quantità di luce assorbita da un
mezzo alla natura chimica, alla concentrazione ed allo spessore del mezzo attraversato.

La legge di Lambert-Beer viene dimostrata tramite integrazione definita da in estremi P e Po, dalla seguente
eq. differenziale :
-dP = K * P * C * db
(-dP/P) = K*C*db
Integrando con P e Po ovvero tra potenza trasmessa ed assorbita dal campione in esame e tra 0 e b:

e risolvendo gli integrali , si ottiene :


ln( P/Po) = -K*b*C
- ln (P/Po) = ln (Po/P) ;

Quindi,
ln (Po/P) = K*b*C ;
se pongo ɛ =K/ln10 dove, ln10 è il fattore di conversione in base logaritmica decimale, ottengo:
Log(Po/P) = ɛ * b * C
e ricordando ,infine, che
A = -log T = log (Po/P) : A = ɛ * b * C

La legge di Lambert-Beer può essere applicata anche a un mezzo contenente più di una sostanza assorbente a
patto che non sussistano interazioni fra le varie specie. L’assorbanza totale sarà data da:
A= A1+A2+A3+…An = Atot

LIMITAZIONE DELLA LEGGE DI LAMBERT-BEER

Numerosi fattori portano a deviazioni della


legge di Beer. Tale legge stabilisce una
dipendenza lineare dell’assorbanza dalla
concentrazione. Quindi, riportando in
diagramma l’assorbanza in funzione della
concentrazione, si dovrebbe ottenere una linea
retta passante per l’origine con pendenza
uguale a l. Quello prima presentato è il caso
auspicabile, tuttavia, talvolta si osservano
delle deviazioni dalla proporzionalità diretta
fra l’assorbanza e la concentrazione. Le
deviazioni della legge di Beer possono essere
dovute a fattori strumentali e fattori chimici.
Queste deviazioni possono portare a
un’incurvatura verso l’alto (deviazione positiva) o verso il basso (deviazione negativa).
Ciò dimostra come la legge di Beer si configuri come una legge limite.

Limitazioni chimiche:
la legge di Beer descrive l’assorbimento di soluzioni contenenti concentrazioni di analita relativamente
basse. Questo perché a concentrazioni elevate, le interazioni soluto-solvente, soluto-soluto e legame a
idrogeno possono influenzare l’intorno dell’analita e la sua assorbività.

11
1. Per esempio, ad alte concentrazioni, la distanza media fra le molecole e gli ioni responsabili
dell’assorbimento diminuisce al punto che ogni specie influenza la distribuzione di carica di quella
vicina. Queste interazioni soluto-soluto possono alterare la capacità della specie di assorbire una
radiazione di una data lunghezza d’onda.
2. Si riscontra talvolta un effetto simile nelle soluzioni contenenti concentrazioni basse di assorbente, ma
alte concentrazioni di altre specie, in modo particolare elettroliti. La vicinanza di ioni all’assorbente
altera l’assorbività molare di quest’ultimo per interazione elettrostatica; questo effetto può essere
attenuato dalla diluizione.
3. Si verificano, inoltre, deviazioni marcate dalla legge di Beer quando un analita si dissocia, si associa o
reagisce col solvente dando un prodotto con uno spettro di assorbimento diverso da quello dell’analita.
Un esempio può essere considerato il comportamento di un opportuno indicatore in funzione del pH. Il
cambiamento di colore associato al generico indicatore HIn è dovuto allo spostamento dell’equilibrio:

HIn H+ + In-

Variando il pH, cambierà la concentrazione delle specie presenti in soluzione, quindi in presenza di
indicatori acido/base è preferibile eseguire le misure in ambiente tamponato.
Esistono punti detti “isosbestici” in prossimità di lunghezze d’onda alle quali l’assorbanza è indipendente
dalla concentrazione delle specie chimiche. In altri termini il punto isosbestico è il punto in cui due specie
chimiche in equilibrio tra loro hanno uguale ε.

4. Si può verificare lo spostamento del massimo di assorbimento, quando aumentando la concentrazione


dell’analita, quest’ultimo dimerizza o forma aggregati polimerici. Si devono conoscere, quindi, le
relative costanti di formazione secondarie dei composti in esame.
5. Le deviazioni dalla legge di Beer possono essere causate anche da una variazione di rifrazione nel
mezzo.

Limitazioni strumentali:

1. per quanto riguarda lo strumento si possono avere delle fluttuazioni dell’alimentazione elettrica;
2. sorgenti poco stabili;
3. una risposta non lineare del sistema rivelatore – amplificatore;
4. cambio di assorbività molare :








A

Conc

5. L’effetto di una radiazione policromatica.


12
Si può considerare, comunque, qual è l’effetto che la radiazione policromatica ha sulla relazione fra la
concentrazione e l’assorbanza. Se la radiazione consiste di due lunghezze d’onda λ e λ’ e se la legge di Beer
è applicabile ad entrambe le radiazioni, si avrà che:

(Po/P) = 10 ɛbC e (Po’/P’) = 10 ɛ’bC


da cui P = Po * 10 -ɛbC e P’ = Po’ * 10 -ɛ’bC

Se dobbiamo calcolare l’assorbanza combinata delle due radiazioni elettromagnetiche a lunghezze d’onda
diverse( λ e λ’) ,dobbiamo considerare la potenza incidente sulla cuvetta pari a Pi=Po+Po’ e quella trasmessa
pari a Pt =P +P’,per cui scriveremo :

Acombinata = (Po+Po’) / (P +P’), e sostituendo :


Acombinata = (Po+Po’) / [( P = Po * 10 -ɛbC ) + ( Po’ * 10 -ɛ’bC )]


Dall’ultima equazione si evince che se ɛ = ɛ’ allora l’equazione combinata delle assorbanze ritorna
ad essere il caso limite Lambert-Beer. (caso C)

Se ɛ < ɛ’ allora la deviazione sarà positiva (caso A)

Se ɛ > ɛ’ allora la deviazione sarà negativa (caso B)

Affinché un sistema assorbente segua strettamente la legge di Beer, è necessario che la radiazione sia
monocromatica. In generale, tuttavia, un monocromatore non riesce a isolare un’unica lunghezza d’onda, ma
si ha a che fare con una banda di lunghezza d’onda .
Nel caso in cui ε = ε’, l’equazione si riduce alla legge di Beer. Nel caso in cui , la relazione non sarà
lineare. Lo scostamento dalla linearità sarà tanto maggiore quanto maggiore è la differenza fra ε e ε’.

6. Deviazioni strumentali date da luce diffusa o dispersa, questi fenomeni si incontrano tutte quelle volte
che sono presenti bolle d’aria nel cammino ottico o se il comparto d’analisi in cui risiedono le cuvette,
non è accuratamente oscurato.
Il fenomeno risultante è quello di aggiungere una potenza radiante costante “Ps” ai due termini (num. e
dem.) della funzione logaritmica dell’assorbanza: A=log[(Po+Ps)/(P+Ps)]
E’ bene precisare, che se la concentrazione del campione tende ad assumere valori molto grandi,
proporzionalmente la luce trasmessa dalla soluzione tende a 0. In accordo con quanto appena detto, a
concentrazioni molto elevate l’assorbanza assume la seguente funzione :
A=log[(Po+Ps)/(Ps)] , ovvero una deviazione positiva dalla legge limite di Lambert-Beer.
STRUMENTAZIONE
Uno spettrofotometro è composto da 5 componenti tipici:

• Sorgente
• Selezionatore di lunghezza d’onda (monocromatore)
• Cella contenente il campione
• Rivelatore
• Sistema di elaborazione dati
SORGENTE

Una sorgente, per essere adatta a studi spettroscopici quantitativi, deve generare un fascio di radiazioni di
potenza sufficiente perché siano facili sia la rivelazione che la misurazione. Inoltre, una sorgente ideale
dovrebbe avere la stessa potenza di emissione a tutte le lunghezze d’onda.
Tuttavia non esistono sorgenti di questo tipo e il potere emissivo di una sorgente varia al variare della
lunghezza d’onda. Generalmente, è possibile suddividere le sorgenti di radiazioni in due grandi categorie:
• Sorgenti continue: emettono radiazioni la cui intensità varia lentamente in funzione della lunghezza
d’onda. Tali sorgenti trovano largo impiego nella spettroscopia di assorbimento molecolare, atomica e di
fluorescenza.

13
• Sorgenti a righe: emettono un numero limitato di righe o bande di radiazioni, ciascuna delle quali
abbraccia un intervallo limitato di lunghezze d’onda (es,assorbimento atomico).

In generale una sorgente deve produrre una radiazione elettromagnetica in un ampio intervallo di lunghezza
d’onda e avere una intensità di emissione il più possibile ideale, cioè costante e senza variazione.

Le più importanti sorgenti possono essere considerate:

Lampada ad arco di deuterio: in questo dispositivo uno spettro continuo nell’ultravioletto (da 160 a 400nm)
viene ottenuto mediante eccitazione elettrica di idrogeno o deuterio a bassa pressione . I due elettrodi
contenuti all’interno della lampada vengono sottoposti ad un’elevata differenza di potenziale, fino a che
avviene la scarica. L’arco così prodotto ionizza il D 2 che successivamente si dissocia dando due specie
atomiche più un fotone ultravioletto, provocando un’intensa emissione quasi continua nella regione UV dello
spettro .

La reazione è: D2 +Ee → D2* → D’+D’’ + h


Fornendo energia elettrica, non tutte le molecole assorbiranno la stessa quantità di energia. Infatti, una volta
formatosi la molecola eccitata, si dissocerà in due atomi più un fotone.
Il bilancio energetico del processo globale è rappresentato dall’equazione:
Ee= ED2* = ED’+ED’’ + h
La somma delle energie dei due atomi più quella del fotone dovrà corrispondere all’energia totale fornita alla
molecola che si eccita, ma gli atomi fra di loro avranno energie sempre diverse e emetteranno energie diverse
per tornare allo stato fondamentale. Il risultato sarà uno spettro a banda e non a righe.
Nelle lampade a idrogeno e a deuterio si devono impiegare le finestre di quarzo, perché il vetro assorbe
fortemente a lunghezze d’onda inferiori a circa 350 nm. Sebbene lo spettro continuo della lampada a
deuterio si estenda a lunghezze d’onda al di sotto dei 160 nm, il limite utile più basso è di 190 nm a causa
dell’assorbimento da parte delle finestre di quarzo.
Inoltre si assistente ad un calo della potenza emissiva al di sopra dei 200nm per poi arrivare a 0 watt oltre i
400 nm

Lampada a filamento di tungsteno: è la sorgente più comune di radiazioni nel visibile e nel vicino
infrarosso in quanto permette di emettere radiazioni con lunghezza d’onda tra i 350 e i 2500 nm.
Si sceglie il tungsteno come metallo in quanto presenta una elevata temperatura di fusione. Le lampade a
tungsteno sono soggette ad un particolare tipo di deterioramento a causa di un processo di sineresi che
avviene sulla superficie del filamento. Avvengono, infatti, delle microfusioni superficiali per affetto Joule, a
causa delle elevate temperature. Se si fa passare corrente all’interno della sezione del filo, una parte di
energia verrà dispersa sotto forma di energia termica, mentre un’altra verrà dispersa come radiazione
elettromagnetica. Tuttavia, man mano che fluisce corrente, parte del filo comincia a fondere; ciò provoca la
diminuzione della sezione del filo di tungsteno, che provoca una diminuzione di resistività, che produce
l’aumento di calore prodotto. Poiché per il principio di conservazione dell’energia, l’energia non si crea ne si
distrugge, la radiazione elettromagnetica tende progressivamente a scemare.
In quasi tutti gli strumenti la temperatura a cui opera il filamento è 2870 K e la maggior parte
dell’energia è emessa nella regione dell’infrarosso.

14
Nelle lampade a tungsteno/alogeno, chiamate anche lampade al quarzo alogeno, è presente una piccola
quantità di iodio rarefatto all’interno del bulbo di quarzo che contiene il filamento di tungsteno.
L’introduzione del quarzo permette al filamento di poter raggiungere temperature di circa 3500 K. Se
viene applicata una differenza di potenziale ai capi del filo di tungsteno, fluisce all’interno una corrente
elettrica, che produce calore e radiazione elettromagnetica.
Durante tale processo si forma ioduro di tungsteno, il quale per l’elevata temperatura, si dissocia e si deposita
nuovamente sulla superficie del filamento.

Proprio per questo le lampade a tungsteno/alogeno sono molto più efficienti e di vita più lunga.

Diodi emettitori di luce: I LED sono un particolare tipo di diodi a giunzione p-n, formati da un sottile strato
di materiale semiconduttore. Gli elettroni e le lacune vengono iniettati in una zona di ricombinazione
attraverso due regioni del diodo ricoperto con impurità di tipo diverso, e cioè di tipo n per gli elettroni e p per
le lacune.
Quando sono sottoposti ad una tensione diretta per ridurre la barriera di potenziale della giunzione, gli
elettroni della banda di conduzione del semiconduttore si ricombinano con le lacune della banda di
valenza rilasciando energia sufficiente sotto forma di fotoni. A causa dello spessore ridotto del chip un
ragionevole numero di questi fotoni può abbandonarlo ed essere emesso come luce ovvero fotoni ottici. Può
essere visto quindi anche come un trasduttore elettro-ottico.
Il colore o frequenza della radiazione emessa è definito dalla distanza in energia tra i livelli energetici di
elettroni e lacune e corrisponde tipicamente al valore della banda proibita del semiconduttore in questione.
L'esatta scelta dei semiconduttori determina dunque la lunghezza d'onda dell'emissione di picco dei fotoni,
l'efficienza nella conversione elettro-ottica e quindi l'intensità.
Sono disponibili diodi costituiti da arseniuro di alluminio-gallio (λm= 900 nm), fosfuro di arsenico e
gallio (λm=650 nm). Questi dispositivi presentano il vantaggio di una lunga durata e un minore impatto
ambientale rispetto alla lampade a filamento di tungsteno.
SELETTORI DI LUNGHEZZA D’ONDA

Per la maggior parte delle analisi spettroscopiche si richiede un fascio di radiazioni costituito da un gruppo
continuo, stretto e limitato di lunghezza d’onda chiamato banda.
Una banda stretta tende a esaltare la sensibilità di misure delle assorbanza, consente di avere una selettività
più elevata sia nei metodi di assorbimento che di emissione ed aumento la probabilità di una relazione lineare
tra il segnale ottico e la concentrazione dell’analita.
Idealmente, il segnale in uscita da un selettore di lunghezze d’onda dovrebbe essere una radiazione
monocromatica, ma nella realtà non esiste un selettore di lunghezza d’onda che si avvicina a questo limite.
Infatti si riescono ad ottenere solo distribuzioni di lunghezze d’onda.

I selettori di lunghezza d’onda possono essere suddivisi in due categorie:


• Filtri: tali dispositivi bloccano una parte di luce e lasciano passare un ben preciso intervallo di lunghezza
d’onda. Offrono il vantaggio di semplicità, robustezza e basso costo, anche se la principale limitazione è
che l’intervallo di lunghezza d’onda è fisso
• Monocromatori: tali dispositivi separano le varie componenti della radiazione e ne permettono la
successiva selezione della banda desiderata. Hanno il vantaggio, quindi, che la lunghezza d’onda può
essere variata continuamente in un intervallo spettrale considerevole.

15
ALCUNI PARAMETRI CHE DESCRIVONO LA BANDA PASSANTE

- lunghezza d’onda nominale (λn): è la λ corrispondente al massimo di intensità di luce trasmessa, cioè in
corrispondenza di Imax (coincide approssimativamente con il colore del filtro nel caso di filtri colorati per il
VIS)

- ampiezza della banda passante (SBW = Spectral Band Width): definita come l’intervallo di lunghezze
d’onda che emerge dalla fenditura con un’energia superiore al 50% della radiazione nominale; è quindi la
larghezza della banda di trasmissione del monocromatore misurata a Imax/2

FILTRI
I filtri sono i più semplici selettori di lunghezza d’onda. Si distinguono in:
• Filtri di assorbimento o ottici: sono usati per selezionare le bande nella regione del visibile. Essi
contengono opportune sostanze che assorbono gran parte delle radiazioni visibili lasciando solo la banda
desiderata. Di solito, sono i filtri meno costosi e il tipo più comune è costituito da un vetro colorato o da
un colorante disperso in una gelatina e posto fra due lamine di vetro. I filtri di assorbimento hanno
SBW da 30 fino a 250 nm. I filtri con larghezza di banda inferiori assorbono una frazione significativa
della radiazione desiderata e possono avere una trasmittanza del 10% o meno al punto di massimo della
banda. Sono disponibili commercialmente filtri di vetro con massimi di trasmittanza per l’intera regione
del visibile.

• Filtri ad interferenza (SBW circa 10nm): sfruttano l’interferenza ottica per fornire bande
relativamente strette di radiazioni. Un filtro ad interferenza è costituito da un materiale dielettrico
trasparente, generalmente CaF2 o MgF2 , che occupa lo spazio tra due pellicole metalliche
semitrasparenti. Lo spessore dello strato di dielettrico è accuratamente calibrato e determina la lunghezza
d’onda della radiazione trasmessa:

L’interferenza costruttiva della radiazione elettromagnetica uscente sarà possibile solo quando la differenza
dei cammini ottici dei raggi luminosi sarà pari ad un numero interno di lunghezze d’onda (nʎ), solo allora
solo alcune lunghezze d’onda funzione dello spessore “d” verranno intensificate.

16
MONOCROMATORI
I monocromatori sono dei particolari dispositivi i quali permettono di variare in modo continuo la lunghezza
d’onda della radiazione elettromagnetica in una particolare finestra. Questo processo è detto scansione dello
spettro.
Generalmente, un monocromatore è costituito da alcuni elementi:

• Una fenditura di entrata: dove arriva la radiazione policromatica emessa dalla sorgete
• Un collimatore: che può essere una lente o uno specchio, che rende parallelo il fascio di radiazioni
• Un prisma o un reticolo: che disperde la radiazione nelle sue lunghezze d’onda componenti e quindi
permette di variare la lunghezza d’onda
• Un focalizzatore: che riforma l’immagine della fenditura in entrata e la mette a fuoco su una superficie
piana detta piano focale
• Una fenditura di uscita: che isola la banda spettrale desiderata e determina la sua larghezza. In
particolare, più stretta è la fenditura d’uscita e più precisa sarà la lunghezza d’onda selezionata, ma allo
stesso tempo sarà minore il potere radiante che uscirà dal monocromatore. Nel caso di indagini
qualitative si preferisce una fenditura stretta, in modo da poter selezionare con precisione la lunghezza
d’onda. Nel caso di una analisi quantitativa si preferisce una fenditura un po’ più larga che faccia
arrivare più energie al rivelatore e che quindi abbia maggiore sensibilità.
La maggior parte dei monocromatori ha inoltre finestre di entrata e di uscita, previste per proteggere i
componenti dalla polvere e dai vapori corrosivi del laboratorio.
I monocromatori vengono classificati in funzione dell’elemento disperdente, ossia reticoli a riflessione o
prismi, che ne caratterizza il fenomeno della dispersione vera e propria.
Per il monocromatore a reticolo, la dispersione angolare delle lunghezze d’onda è dovuta alla diffrazione,
che avviene sulla superficie riflettente.
Per il monocromatore a prisma, invece, la rifrazione avviene sulle due facce del prisma e provoca la
dispersione angolare della radiazione.
La maggior parte dei monocromatori di ultima generazione è a reticolo di riflessione, poiché sono meno
costosi da fabbricare e forniscono una migliore separazione delle lunghezze d’onda.
MONOCROMATORE A RETICOLO

Il reticolo è una superficie dura, otticamente piana e lucida sulla quale è stato inciso con una punta di
diamante di forma apposita un numero elevato di scanalature parallele e molto ravvicinate.
Un reticolo per la regione ultravioletta e visibile presenta da 300 a 2000 scanalature/nm; il valore più comune
e da 1200 a 1400. Per la ragione infrarossa sono richieste da 10 a 200 scanalature/nm.
Le scanalature devono essere di dimensioni identiche ed equidistanti per tutta la lunghezza del reticolo.
I reticoli più usati nella maggior parte dei monocromatori sono copie di un reticolo modello originale. Le
copie vengono ottenute dal reticolo modello per colata di una resina liquida, riproducendo sulla superficie
della resina, l’accuratezza ottica originale. La superficie della resina è resa riflettente mediante un
rivestimento di alluminio, oro o platino.
Questa superficie presenta delle facce relativamente estese sulle quali avviene la riflessione ed altre facce
non utilizzante; tale geometria consente una diffrazione molto efficiente della radiazione, mentre il ruolo
delle scanalature è quello di concentrare la radiazione lungo una direzione preferenziale.
Il monocromatore a reticolo si basa sulla differenza di cammini percorsi dai raggi incidenti. I raggi riflessi
interferiranno tra loro in maniera costruttiva o distruttiva, in modo da ottenere determinate lunghezza d’onda.
L’interferenza costruttiva si ha quando la differenza di cammino ottico dei due raggi è pari ad un numero
intero di lunghezza d’onda del raggio incidente. Studiamo nel dettaglio questo fenomeno.

17
• ab= passo del reticolo
• p,q= semirette normali al piano
delle superfici più estese
• ac= differenza di cammino tra il
1°ed il 2° raggio
• bd= differenza di cammino tra il
2° ed il 1° raggio

I fasci paralleli di radiazioni monocromatiche 1 e 2 giungono sul reticolo con un angolo di incidenza, î,
rispetto alla perpendicolare della superficie più estesa.
L’interferenza costruttiva massima si verifica per l’angolo di riflessione, ȓ. E’ evidente che il raggio 2
percorre una distanza maggiore del raggio 1 e che questa differenza corrisponde ad AC-CD; e affinché si
verifichi un’interferenza costruttiva, questa deve essere uguale a nλ, cioè:
nλ=(AC-BD)
dove n è un numero intero chiamato ordine della diffrazione.
Si noti, comunque, che l’angolo DÂB è uguale al’angolo î , e che l’angolo CΒˆA è uguale all’angolo ȓ. Di
conseguenza dalla trigonometria potremo scrivere:
AC= d senDÂB = dsen î
Dove d è la distanza tra due superfici riflettenti; e che:
BD= d senCΒˆA= dsen ȓ
In definitive, presa nota di queste identità, sostituendo queste due ultime espressioni nella prima, otteniamo
la condizione per l’inteferenza costruttiva:
nλ=d (sen î- sen ȓ)
MONOCROMATORE A PRISMA
Sfrutta il fenomeno fisico della rifrazione, che permette la separazione angolare delle varie radiazioni che
compongono la luce policromatica. Un raggio di luce monocromatica, quando cambia il mezzo di
propagazione, incidendo sulla superficie di separazione con un angolo i, subisce una rifrazione, cioè una
deviazione, a causa della leggera differenza di velocità di propagazione delle luce nei due mezzi; l’angolo di
rifrazione viene detto r, è diverso da i e dipende dalla λ incidente.

Se sulla superficie del prisma incide un raggio di luce policromatica, ogni radiazione verrà deviata di un
angolo diverso e quindi le varie radiazioni subiranno una separazione angolare, definita da Δθ/Δλ, detta
anche dispersione del prisma. La dispersione di un prisma non è costante in funzione di λ, cioè non è
lineare ma aumenta progressivamente dal rosso al violetto: le radiazioni rosse vengono cioè separate
meno di quelle violette; ciò costituisce un problema in quanto sarebbe necessario variare l’apertura della
fenditura di uscita, restringendola, verso la zona rossa della spettro VIS, per isolare le radiazioni
monocromatiche e mantenere all’incirca costante l’ampiezza di banda passante; ciò comporta però una
perdita di energia della radiazione incidente, proprio per le radiazioni di per sé meno energetiche. In seguito
a tale inconveniente oggi i prismi non sono più utilizzati. Di seguito è mostrato uno schema ottico tipico di
montaggio di un monocromatore a prisma:

CELLA CONTENENTE IL CAMPIONE


Le celle o cuvette che contengono il campione ed il solvente devono essere costruiti con materiali trasparenti
alla radiazione nella regione spettrale interessata.

18
Per esempio, per lavorare nella regione dell’ultravioletto vengono utilizzate delle cuvette in silice o
quarzo fuso. Nella regione del visibile sono utilizzati anche dei contenitori di plastica.
Le celle migliori hanno le finestre perfettamente perpendicolari alla direzione del fascio, così da minimizzare
l’effetto dovuto alla riflessione. La lunghezza della cuvetta oscilla da 1 a 2,5 cm; generalmente le cuvette
vengono vendute in coppia, una per il bianco e una per il campione.
La qualità dei dati di assorbanza dipende fortemente dal modo in cui sono usate e tenute le celle accoppiate;
infatti, i depositi sulle pareti alterano profondamente le caratteristiche di trasmissione delle celle. E’
necessario una perfetta pulizia prima e dopo l’uso, inoltre le celle accoppiate non dovrebbero mai venire
asciugate riscaldandole in stufa o alla fiamma, al fine di non deteriorarle o causare un cambiamento della
lunghezza del cammino ottico.
TRASDUTTORE
Nei primi spettrometri i rivelatori erano le lastre o le pellicole fotografiche. Questi dispositivi sono stati
ampiamente soppiantati dai trasduttori, i quali sono grado di convertire l’energia radiante in un segnale
elettrico.
Proprietà del trasduttore ideale
• Il trasduttore ideale dovrebbe avere una alta sensibilità;
• un alto rapporto segnale/rumore;
• una risposta costante in un intervallo considerevole di lunghezze d’onda;
• dovrebbe possedere un tempo di risposta minimo;
• fornire un segnale nullo in uscita in assenza di illuminazione;
Il segnale elettrico, quindi, dovrebbe essere direttamente proporzionale alla potenza radiante P, secondo la
relazione:
S = kP

In realtà, molti trasduttori forniscono, in assenza di radiazione, una piccola risposta costante, detta corrente
di buio; in questo caso la risposta è descritta dalla relazione:
S = kP+kd
Generalmente i trasduttori possono suddividersi in due grandi categorie:

• Trasduttore sensibile ai fotoni


• Trasduttore sensibile al calore
Fototubi a vuoto:
un fototubo a vuoto è costituito da un catodo semicilindrico e da un anodo a filamento, sigillati sottovuoto
all’interno di un involucro trasparente. La superficie concava dell’elettrodo è rivestita da un materiale
fotosensibile, caricato negativamente che emette elettroni quando è colpito da luce visibile o ultravioletta.
Applicando tra gli elettrodi una ddp, gli elettroni emessi, fluendo attraverso il vuoto raggiungono il
collettore carico positivamente (anodo), generando una fotocorrente che è proporzionale all’intensità della
radiazione. All’aumentare del potenziale applicato tra due elettrodi, aumenta la frazione di elettroni emessi
che raggiunge l’anodo. Quando si raggiunge il potenziale di saturazione, praticamente tutti gli elettroni
sono raccolti all’anodo; la corrente diventa indipendente dal potenziale e direttamente proporzionale alla
potenza radiante. I fototubi operano a un potenziale di 90 V.

Tubo fotomoltiplicatore:
un tubo fotomoltiplicatore è un dispositivo più sofisticato e sensibile di un fototubo e riesce a misurare
potenze radianti basse. La superficie del catodo ha una composizione simile a quella dei fototubi( lega Cs-
Sb ), in virtù del fatto che il principio di funzionamento è lo stesso. Entrambi sono basati sull’effetto

19
fotoelettrico, che consiste nell’emissione di elettroni da parte di un materiale quando viene colpito da una
radiazione luminosa.
A differenza dei fototubi, nei tubi fotomoltiplicatori sono presenti degli elettrodi addizionali chiamati
dinodi, che vengono mantenuti a potenziali più positivi rispetto a quelli del catodo, in modo da accelerare gli
elettroni verso di essi. Quindi, gli elettroni emessi dalla superficie fotosensibile, quando è colpita da luce
visibile o UV, colpiscono una seconda superficie, il dinodo, con energia superiore all’ energia cinetica
iniziale, causando per ogni fotoelettrone l’emissione di parecchi elettroni; questi vengono a loro volta
accelerati verso un altro a potenziale più positivo (in genere vi è una differenza di potenziale di 90V),
causando l’emissione di altri elettroni. Si ha quindi un sistema a cascata che porta all’emissione di circa 107
elettroni per fotone, che vengono raccolti infine all’anodo finale e la corrente risultante è convertita in
tensione misurata.
Generalmente la serie di dinodi è caratterizzata per la presenza di un sistema di Feed-Back, con il quale si
tende a mantenere costante il guadagno elettronico finale, variando per retroattività la tensione ai capi dei
dinodi.

Trasduttore di fotoni
Celle fotovoltaiche: le celle fotovoltaiche sono costituite da un elettrodo piatto di rame o di ferro sul quale è
depositato uno strato di materiale semiconduttore come il selenio. La superficie esterna del semiconduttore è
ricoperta da una pellicola d’oro o d’argento sottile e trasparente, che funge da secondo elettrodo. L’intero
sistema è protetto da un rivestimento trasparente.
In questi dispositivi l’energia radiante genera una corrente elettrica all’interfaccia tra uno strato di
semiconduttore ed uno metallico. Infatti, quando una radiazione di energia sufficiente raggiunge il
semiconduttore, si originano degli elettroni e delle lacune. Gli elettroni che sono stati promossi nella banda
di conduzione migrano verso la lamina metallica generando una corrente elettrica la cui intensità risulta
essere proporzionale al numero di fotoni che colpisce la superficie del semiconduttore.
Serie di fotodiodi: un fotodiodo è un dispositivo costituito da una giunzione n-p di due semielementi drogati
in modo diverso. I semiconduttori di tipo p(silicico e germanio) sono ricchi di cariche positive, mentre un
semiconduttore di tipo n è drogato con un eccesso di elettroni di conduzione. Quando si applica un
opportuno potenziale a un cristallo di silicio drogato si ottengono due aree: n e p. In condizioni di riposo non
si ha passaggio di corrente. Quando il fotodiodo viene esposto alla luce, la variazione incidente produce
nuove coppie di cariche positive o negative all’interno del materiale, permettendo il passaggio di corrente. I
fotodiodi possono essere a polarizzazione diretta oppure inversa. I più usati sono i secondi, un esempio è il
fotodiodo di silicio che è più sensibile di un fotodiodo e meno costoso di un fotomoltiplicatore. L’intervallo
spettrale dei fotodiodi va da 190 a 1100 nm.
Diode array: il diode array è un rivelatore costituito da una serie di fotodiodi, ricavati ad intervalli di spazio
regolari su di un microchip. Tale dispositivo risulta essere molto più veloce rispetto ai precedenti e
permette, inoltre, di acquisire tutto lo spettro istantaneamente. Esso risulta essere costituito da singoli
fotodiodi di silicio che fanno parte di un complesso circuito integrato ricavato su un’unica piastrina di silicio.
Ogni diodo è posizionato in modo da ricevere sempre la stessa lunghezza d’onda. I diodi non sono selettivi
per la lunghezza d’onda, ma le radiazioni che ricevono dipendono solo dalla posizione. Ogni fotodiodo
funziona come un interruttore: è in ON quando viene colpito dalla radiazione, è in OFF quando la luce
smette di colpirlo. Tutti i diodi sono collegati a dei condensatori di capacità nota, che all’inizio
dell’esperimento sono tutti carichi. Quando il diodo è colpito dalla luce, invia un segnale al condensatore
mediante un transistor. Il condensatore si scarica per tutto il lasso di tempo in cui arriva il segnale. A questo
punto i condensatori saranno più o meno carichi. Un dispositivo operazionale ricarica tutti i condensatori.
Sottraendo alla carica totale del condensatore, la carica utilizzata per ricaricarlo, si ottiene una quantità di
carica elettrica proporzionale al potere radiante che ha colpito il diodo. Mediante queste informazioni è
possibile risalire allo spettro. Il diode array ha il grande vantaggio di essere veloce, ma lo svantaggio di
fornire l’energia al campione in un unico step. Questo potrebbe far si che le molecole instabili o fotosensibili
si decompongano.

20
SISTEMA DI ELABORAZIONE DATI

Il segnale proveniente dal rivelatore viene opportunamente amplificato e trasmesso a:


• indicatore (digitale o analogico) di A e/o T;
• eventuale registratore su carta;
• eventuale sistema computerizzato di elaborazione dati.
L'elettronica di uno spettrofotometro deve inoltre controllare i movimenti dell'apparato monocromatore e,
per gli strumenti a doppio raggio, del sistema di sdoppiamento del raggio incidente. Ovviamente, l'avvento
dell'informatica ha fortemente ampliato le possibilità di gestione automatica dei dati raccolti, fino ad arrivare
a veri e propri computer interfacciati con lo strumento che ne permettono sia il controllo delle impostazioni
sia l'elaborazione e memorizzazione dei risultati, nonché il confronto degli spettri ottenuti con basi di dati su
supporto digitale.
STRUMENTI A SINGOLO E DOPPIO RAGGIO

I primi strumenti di analisi spettrometrica erano i colorimetri. Questi erano degli strumenti dove il rivelatore
era l’occhio umano e che quindi in realtà erano dei semplici comparatori ottici. Infatti veniva comparato il
colore della soluzione, con una forma presente nel colorimetro.
Gli strumenti moderni si chiamano spettrofotometri e possono essere a singolo raggio o a doppio raggio;
quest’ultimi possono essere a loro volta risolti nel tempo o nello spazio.

Uno strumento a singolo raggio è uno strumento nel quale il segnale della sorgente non viene splittato e
viene mandato direttamente sulla cuvetta.
Prima di eseguire l’analisi :
1. si pone il bianco nello strumento e si setta, mediante un potenziometro, la trasmittanza al 100%;
2. poi viene posto uno schermo davanti alla sorgente e si setta la trasmittanza a zero;
3. dopodiché si sostituisce il bianco con la cuvetta contenente l’analita e si misura la trasmittanza.

Uno spettrofotometro a doppio raggio con configurazione risolto nello spazio prevede che la radiazione
proveniente dalla sorgente venga fatta passare attraverso uno specchio riflettente e in seguito splittata da uno
beam splitter. Le due radiazioni arriveranno rispettivamente alla cuvetta del bianco e alla cuvetta del
campione e giungeranno infine a due rivelatori differenti. Il segnale elettrico proveniente dai due rivelatori
sarà amplificato (dall’amplificatore della differenza) e l’assorbanza sarà calcolata sottraendo quelle del
bianco e quella del campione.

In uno spettrofotometro a doppio raggio con configurazione risolto nel tempo viene interposto un chopper
fra la radiazione uscente dal monocromatore e le cuvette. Il chopper è un dispositivo circolare con 4 facce,
due trasparenti e due riflettenti, che si alternano l’uno con l’altro. Il chopper viene fatto girare da un
motorino elettrico che devierà la radiazione quando quest’ultima inciderà sulla parte riflettente, mentre la
lascerà passare quando inciderà sulla parte trasparente.

• Quando la radiazione oltrepassa il chopper giunge alla cuvetta contenente il campione.


21
• Quando la radiazione viene riflessa, raggiunge la cuvetta del bianco che si trova su un altro banco ottico.
• Le due radiazioni provenienti dalle due cuvette passeranno attraverso uno specchio semiriflettente
interposto fra la cuvetta e il rivelatore.
• Quando il sistema di chopper è interlacciato, ovvero quando è nota la frequenza di rotazione del chopper
e quando il chopper e lo specchio riflettente hanno la stessa frequenza, ma sono sfasati di 120°, può
essere calcolata la differenza di segnale fra il bianco e il campione.

Il cuneo ottico è un dispositivo che influisce sul sistema diminuendo la potenza radiante in modo da
bilanciare perfettamente i due segnali provenienti dal bianco e dall’analita; questo permette di ottenere
misurazioni più precise.

La differenza sostanziale fra strumenti a doppio raggio e a singolo raggio sta nel fatto che il bianco
viene analizzato una sola volta per lo strumento a singolo raggio, e centinaia di volte al secondo per lo
strumento a doppio raggio. Dato che le sorgenti possono subire nel tempo delle variazioni di potere emissivo,
è preferibile uno strumento a doppio raggio che confronta il bianco e il campione di continuo, piuttosto che
uno strumento a singolo raggio che confronta il bianco una sola volta e continua ad analizzare i campioni
successivi mentre la sorgente può subire un calo di potere emissivo.

CORREZIONE DEL BIANCO


La cuvetta contenente il campione dà luogo ad un assorbimento proprio e ad un assorbimento dovuto alla
riflessione. Entrambi i fenomeni avvengono sulle pareti delle cuvette. Queste riflessioni hanno luogo ogni
qual volta varia l’indice di rifrazione del mezzo. E’ facile intuire che quest’ultimo cambia quando la
radiazione esce dalla sorgente e arriva alle pareti delle cuvette, quando la radiazione oltrepassa la parete della
cuvetta e incontra la soluzione, quando transita attraverso la seconda parete della cuvetta e infine quando
esce fuori e si diparte verso il rivelatore.

A questo punto viene messo in dubbio l’effettivo valore del potere radiante in uscita dal campione, in quanto
non tutte le diminuzioni di potenza sono dovute all’analita. Per ovviare a questo problema si segue un
particolare iter. Si utilizzano cuvette accoppiate per eseguire la misura, ovvero due cuvette che danno
risposte identiche, o quasi, in relazione all’analisi spettrale.
Prima di eseguire l’analisi sul campione vero e proprio, viene effettuata un’analisi spettrale su una cuvetta
contenente solo solvente puro. Questa cuvetta rappresenterà il cosiddetto bianco che verrà sottratto al valore
di assorbanza ottenuto con l’analisi dell’analita vero e proprio. A questo punto risulta conveniente utilizzare

al posto dell’equazione: , un’equazione del tipo ,ove Pr è la potenza radiante


della cuvetta di riferimento e Ps è la potenza radiante misurata dal rivelatore quando è presente anche
l’analita. Tuttavia non è sempre possibile riprodurre la matrice per ottenere il bianco. E’ un esempio perfetto
l’acqua di mare, o comunque una matrice complessa che non si conosce completamente. Quando si effettua
22
un’analisi, infatti, si preferisce ricorrere al termine “assorbanza apparente”, per sottolineare il fatto che
l’effetto della matrice potrebbe influire sul risultato.

CAUSE DI ERRORE IN SPETROSCOPIA


Esistono diverse cause di errore in spettroscopia. Una di queste può essere imputata alla somma di tutti gli
errori casuali nella trasmittanza, che ovviamente saranno connessi alla concentrazione e all’assorbanza.
L’errore si verifica quando, prima di effettuare una misura, si aggiusta il valore della trasmittanza fra lo 0% e
il 100% con il bianco del cammino ottico. I moderni strumenti lo fanno in automatico.
La relazione fra la deviazione standard sulla concentrazione e trasmittanza ( di conseguenza pure su A) è
data da:

Piccoli errori sulla misura della trasmittanza causano errori considerevoli sulla concentrazione calcolata a
bassi e alti valori di T, a causa della relazione logaritmica che intercorre fra T e C.
In virtù di ciò converrebbe sempre progettare l’esperimento in modo da ottenere misure con valori di
trasmittanza compresi tra il 20% e l’80% in modo da minimizzare l’errore.

APPLICAZIONI DELLA SPETTROFOTOMETRIA

Determinazione della concentrazione di un analita in soluzione


Un analita da determinare mediante spettrofotometria deve assorbire luce e tale assorbimento deve essere
distinguibile da quello dovuto ad altre specie chimiche presenti nel campione. Nel caso in cui un analita non
assorba nella zona dell’UV-visibile è possibile farlo reagire per formare un addotto che risulti in grado di
assorbire una radiazione di una ben determinata lunghezza d’onda. In questo caso il bianco deve essere
preparato utilizzando sia il solvente, sia il reagente usato per formare il composto assorbente.
L’assorbanza del campione incognito dovrebbe essere sempre compresa all’interno del range della
curva di taratura. Una misura che non rientra all’interno del range coperto dagli standard non può essere
considerata valida, in quanto non si ha la certezza che in quel determinato intervallo di concentrazione
l’analita segua perfettamente la legge di Beer.

ANALISI DI MISCELE

L’assorbanza di una miscela è data dalla sommatoria delle assorbanze dei singoli componenti. La miscela è
contenuta di solito nella stessa cuvetta, quindi si può considerare l’espressione in funzione semplicemente di
ε e della concentrazione.

Consideriamo una miscela costituita dei due composti X e Y che presentano il massimo di assorbimento
rispettivamente a λ’ e λ’’. Una miscela di X e Y darà uno spettro che risulta essere la somma degli spettri di
X e Y.

23
Si effettuano due misure di assorbanza alle rispettive lunghezze d’onda λ’ e λ’’ a cui corrisponderanno due
segnagli strumentali A’ e A’’ ,per cui potremmo costruire un sistema di equazioni , date le precedenti
componenti

ε’ e ε’’ per X e Y , devono essere determinati utilizzando soluzioni contenenti i due componenti da soli.
Combinando le ultime due equazioni si possono calcolare le concentrazioni delle specie X e Y senza doverle
separare. Il criterio per scegliere le due lunghezze d’onda operative in una miscela a due componenti è:

λ’ si sceglie quando è massimo

λ’’ si sceglie quando è minimo

In altre parole si scelgono le lunghezze d’onda dove il dislivello di assorbanza fra le due specie è massimo.

SPETTROSCOPIA ATOMICA
La spettroscopia atomica è una delle tecniche più utilizzate nella chimica analitica per la determinazione
quantitativa di specie inorganiche. Gli elementi presenti in un campione vengono trasformati in atomi
gassosi o ioni elementari, mediante un processo che prende il nome di atomizzazione. Quando un atomo
viene posto nelle condizioni di acquistare energia elettromagnetica di intensità adeguata, uno o più elettroni
posso infatti abbandonare gli orbitali in cui abitualmente si trovano, per venire promossi ad orbitali più ricchi
di energia. Di conseguenza l’atomo, che si trovava nella sua configurazione elettronica normale (o stato
energetico fondamentale) raggiunge un livello energetico più ricco di energia e quindi meno stabile (stato
eccitato).
Da questo stato eccitato l’atomo decade rapidamente, tornando allo stato fondamentale e restituendo
all’ambiente l’energia appena acquistata. Quindi, si misura l’assorbimento, l’emissione o la fluorescenza nel
campo visibile-ultravioletto delle specie atomiche presenti nello stato vapore.
A differenza della spettroscopia molecolare, in cui l’oggetto della nostra determinazione erano delle
molecole, in questa tecnica l’analita è presente sotto forma di nube atomica. Essendo impossibili
vibrazioni e rotazioni, lo spettro atomico è a righe, non a bande.
La spettroscopia atomica può essere suddivisa in due categorie, in funzione del tipo di interazione che
subisce il vapore atomico:
• Spettroscopia atomica a assorbimento: in questo caso il vapore atomico è irraggiato da una radiazione
monocromatica di una opportuna lunghezza d’onda assorbibile solo da una particolare specie chimica.
• Spettroscopia a emissione atomica: in questo caso il vapore atomico viene ulteriormente riscaldato e gli
atomi emettono il surplus di energia acquisito sotto forma di radiazione elettromagnetica.

ASSORBIMENTO ATOMICO IN QUANTITATIVA

L’entità dell’assorbimento della radiazione caratteristica che provoca l’eccitazione dell’atomo è ovviamente
proporzionale alla quantità di atomi che assorbono e che si trovano inizialmente allo stato fondamentale. Da
qui nasce l’idea dell’assorbimento atomico come tecnica per l’analisi quantitativa in analogia con
l’assorbimento molecolare nell’UV-VS e nell’IR.
L’analita è di solito presente in soluzione ed in forma molecolare: è quindi necessaria una fase di
vaporizzazione per l’eliminazione del solvente, seguita da una fase di atomizzazione in cui si disgrega la
molecola e si producono atomi allo stato fondamentale; entrambe possono essere realizzate mediante per
esempio una fiamma avente opportune caratteristiche. Successivamente si farà arrivare sul vapore atomico
una radiazione in grado di provocare l’eccitazione, che sarà parzialmente assorbita; tale radiazione dovrà
essere particolarmente monocromatica (molto di più rispetto a quelle utilizzate nelle altre tecniche in
assorbimento), in teoria formata da una sola λ, tale da soddisfare l’equazione: ΔE = h·ν = h·C/λ dove ΔE
corrisponde al salto energetico (E2-E1) compiuto dall’elettrone eccitato. Questa radiazione è in pratica la λ
analitica o riga analitica e verrà prodotta in modo diverso rispetto all’UV-VS o all’IR.
E’ importante valutare la percentuale di eccitazione degli atomi che si trovano nel sistema di
atomizzazione prima dell’arrivo della radiazione di eccitazione: lavorando infatti ad alta temperatura (per es.
con una fiamma), alcuni atomi poterebbero già essere eccitati per via termica e quindi non assorbirebbero la
24
radiazione elettromagnetica: Tale parametro è definito mediante la percentuale di eccitazione di una
popolazione di atomi (Ne/No)·100, dove Ne è il numero di atomi allo stato eccitato ed No è il numero di
atomi allo stato fondamentale.

Come si vede dalla tabella, a parte i metalli alcalini, il 99,9% degli atomi prodotti dalla disgregazione della
molecola si trova allo stato fondamentale, cioè si può dire che il numero di atomi prodotto è uguale al
numero di atomi allo stato fondamentale e quindi ci sarà una relazione lineare tra assorbimento della
radiazione e quantità di atomi, cioè concentrazione di analita. Inoltre questo metodo avrà una elevata
sensibilità che si riflette in limiti di rivelabilità molto bassi, tipici delle analisi di elementi in tracce: infatti se
praticamente tutti gli atomi sono allo stato fondamentale tutti saranno in grado di assorbire la radiazione
luminosa incidente e quindi produrre il segnale analitico.
Per quanto detto, varrà anche per l’assorbimento atomico una relazione simile a Lambert-Beer:
A=x*b*N
dove A è l’assorbanza, x è detto coefficiente di assorbimento atomico e dipende dalla lunghezza d’onda di
eccitazione, b è lo spessore del mezzo, N è il numero totale di atomi liberi ovviamente proporzionale alla
concentrazione del campione esaminato. Questa relazione può essere sfruttata per fini analitici con diverse
metodiche analitiche: retta di taratura, aggiunte standard, ecc.
EMISSIONE ATOMICA IN QUANTITATIVA

25
LARGHEZZA DELLA RIGA ATOMICA

La larghezza della riga dello spettro atomico acquista una


fondamentale importanza nella buona riuscita di questa metodica
analitica. Le righe strette sono infatti molto auspicabili per gli
studi sia in emissione che in assorbimento, in quanto, più le
righe sono strette e più la possibilità di interferenza dovuta alla
sovrapposizione di spettri diminuisce.
Dal punto di vista teorico, ciò che un operatore si aspetta è che lo
spettro sia costituito da righe; tuttavia, praticamente, non si
osserveranno mai delle righe strette, bensì delle righe che
presentano una certa larghezza. Ciò che generalmente si osserva
è la presenza di un profilo caratterizzato da una distribuzione
simmetrica di lunghezze d’onda centrate attorno a una
lunghezza d’onda media λ0, che è la lunghezza d’onda di
massima assorbanza per la radiazione assorbita o di intensità
massima per la radiazione emessa.
FATTORI CHE CONCCORRONO ALL’ALLARGAMENTO DELLA RIGA ATOMICA

Effetto di indeterminazione:
il primo fattore ci dice che la misura della larghezza della riga spettrale è influenzata dalla durata media delle
popolazioni nei vari livelli energetici.
Prendendo in considerazione il principio di indeterminazione di Heisenberg, espresso nel seguente modo :

Esso ci da due informazioni fondamentali , ovvero che se,


• la differenza

Ciò significa che il sistema permane un tempo finito allo stato eccitato e un tempo approssimabile ad in
un stato fondamentale. Quindi l’allargamento della riga è data dal fatto che la vita media di uno o di
entrambi gli stati delle transizioni sono finite, il che porta ad avere un intrinseca indeterminazione sulla
durata delle stesse e come conseguenza l’allargamento della riga.
L’ allargamento della riga dovuto al principio intrinseco di indeterminazione è chiamato “Allargamento di
riga naturale” e lo stesso vale in genere circa 10-5nm. Il che porta ad avere righe la cui misura della
larghezza non può scendere al di sotto di questo valore fisico.
Effetto Doppler
l'effetto Doppler è un fenomeno fisico che consiste nel
cambiamento apparente della frequenza o della
lunghezza d'onda di un'onda percepita da un osservatore
che si trova in movimento o in quiete rispetto alla
sorgente delle onde, anch'essa in movimento o in quiete.
Riportando tale effetto al nostro caso, quando un atomo
si muove verso un rivelatore di fotoni ed emette
radiazioni, il rilevatore vede più spesso le creste d’onda
e rivela le radiazioni a frequenza più alta. Invece,
quando un atomo si allontana da un rivelatore, il
rivelatore vede le creste meno spesso e rivela le radiazioni ad una frequenza più bassa. Il risultato in un
mezzo energetico è una distribuzione statistica delle frequenze e quindi un allargamento delle linee spettrali.
L’entità di tale spostamento è direttamente proporzionale alla velocità con la quale la specie assorbente o
emittente si avvicina o si allontana dal rivelatore ed è regolata da tale legge:

In genere l’effetto Doppler è due volte di grandezza maggiori dell’effetto di riga naturale

26
Effetto collisionale:
l’effetto di pressione o collisionale è funzione delle collisioni della specie emittente o assorbente con altri
atomi o ioni nella miscela gassosa calda. Queste collisioni causano dei piccoli cambiamenti nei livelli di
energia e ciò provoca una dispersione delle lunghezze d’onda assorbite o emesse. In una fiamma, per
esempio, le collisioni avvengono principalmente tra gli atomi dell’analita ed i vari prodotti di combustione
del carburante; questo comporta un allargamento che è di due o tre ordini di grandezza maggiore della
larghezza di riga naturale.

Effetto termico
la temperatura esercita un effetto profondo sul rapporto tra il numero di particelle atomiche eccitate e non
eccitate in un atomizzatore. L’equazione di Boltzmann ci permette di calcolare questo rapporto. Si può
dimostrare che un aumento di soli 10°K comporta un aumento del 4% nella popolazione degli atomi eccitati
di sodio, il che porta ad un aumento della potenza emessa dalle due righe del sodio. E’ quindi di notevole
importanza poter controllare la temperatura nelle metodiche analitiche basate sull’emissione. I metodi di
fluorescenza ed i metodi di assorbimento non subiscono variazione dai cambi di temperatura perché in
ambedue i casi le misure riguardano gli atomi inizialmente non eccitati. In realtà le fluttuazioni della
temperatura influenzano in maniera indiretta anche queste metodiche analitiche, infatti
all’aumentare della temperatura aumenta l’efficienza del processo di atomizzazione che dà luogo ad
un incremento dell’effetto doppler che causa un allargamento del picco e una diminuzione della sua
altezza.
STRUMENTAZIONE
Gli strumenti per gli studi di assorbimento atomico possono essere sia a singolo raggio che a doppio raggio.
Le differenze strutturali fra questi due dispositivi si ripercuotono sia sulla loro funzionalità, la quale presenta
delle leggere differenze, e sia sul loro costo.
In linea generale, entrambi questi due dispositivi devono soddisfare talune caratteristiche; in primis, devono
assicurare una larghezza di banda sufficientemente ridotta, al fine di isolare la riga scelta per la misurazione
dalle altre che possano interferire con l’analisi, diminuendo in tal senso la sensibilità dello strumento.

SORGENTI
A differenza della spettroscopia molecolare UV/VIS, la sorgente non può dare origine a una radiazione
policromatica, bensì deve essere una sorgente monocromatica, a causa della specificità richiesta da questa
metodica. Infatti le righe di assorbimento atomico sono molto strette ( 0,002 a 0,005 nm). L’esiguità della
larghezza di riga genera dei problemi che non si riscontrano nella spettroscopia molecolare. Per ottenere

27
una correlazione lineare tra l’assorbanza e la concentrazione, è necessario che la lunghezza d’onda
della radiazione emessa dalla sorgente sia inferiore a quella della banda di assorbimento.

Sarebbe infatti impossibile produrre luce con un tale grado di monocromaticità partendo da uno spettro
continuo ed utilizzando un monocromatore: la fenditura di uscita dovrebbe essere così stretta da provocare
fenomeni di diffrazione ed interferenza che altererebbero le caratteristiche della radiazione prodotta.
Nello spettro a righe prodotto dalla sorgente viene scelta la riga analitica: di solito una delle righe più intense
e non troppo vicina ad altre righe; la riga viene facilmente isolata da un monocromatore a reticolo, che ha
l’adatta SBW e quindi permette il passaggio sul campione della sola riga analitica scelta.

Generalmente è possibile suddividere le sorgenti in tre grandi categorie:

• Lampada a catodo cavo


• Lampada a scarica elettrodica
• Lampada a scarica in radiofrequenza
Lampada a catodo cavo: (ASSORBIMENTO ATOMICO)
indicata con l'acronimo HCL, dall'inglese hollow cathode lamp, è la sorgente più comune per le misurazioni
dell’assorbimento atomico.
La sua peculiarità principale consiste nel fornire una radiazione elettromagnetica di lunghezza d'onda precisa
e dall'ampiezza di banda molto ristretta, necessaria per ottenere lo spettro di assorbimento a righe tipico degli
atomi.
Può essere di due tipi: monoelemento o multielemento. Le lampade monoelemento sono costruite
utilizzando un catodo formato dallo stesso elemento che si intende analizzare, mentre quelle multielemento
consentono l'analisi simultanea di più elementi chimici.

28
Tale dispositivo è costituito da un cilindro di vetro, al cui interno è presente un gas inerte generalmente
argon, alla pressione di 1 KPa. All’interno sono presenti un anodo di tungsteno e un catodo cilindrico
costituito dallo stesso metallo di cui si vuole ottenere lo spettro. La ionizzazione del gas si verifica quando
viene applicata fra gli elettrodi una opportuna ddp di 300 V, e la produzione fra i due elettrodi di una
corrente di circa 15 mA. Se il potenziale è sufficientemente alto, i cationi gassosi acquistano energia cinetica
tale da rimuovere alcuni degli atomi dalla superficie metallica del catodo; tale processo prende il nome di
sputtering o erosione catodica.
Una parte di questi atomi di metallo è in stato eccitato e quindi emette la sua radiazione caratteristica
ritornando allo stato fondamentale. Infine, gli atomi del metallo ritornano per diffusione verso la superficie
del catodo o verso le pareti del tubo per poi ridepositarsi.
La forma cilindrica dello strumento sovrintende a un duplice scopo; infatti non solo tende a concentrare la
radiazione in una regione limitata del tubo, ma aumenta la probabilità che la rideposizione avvengo sul
catodo piuttosto che sulle pareti.
L’efficienza della lampada a catodo cavo risulta essere funzione della sua geometria e del potenziale lavoro a
cui essa viene soggetta. Infatti, potenziali lavoro elevati, coincidono con correnti elevate a cui il sistema è
soggetto. Elevate correnti comportano maggiori entità di emissione, ma questo vantaggio è in parte
controbilanciato da un allargamento della riga spettrale causata dall’effetto Doppler. Ad una maggiore di
intensità della corrente aumenta inoltre il numero di atomi non eccitati che vengono strappati dalla superficie
del metallo. Quest’ultimi sono in grado di assorbire la radiazione emessa dagli atomi eccitati. Questo
fenomeno di auto-assorbimento provoca una diminuzione di intensità, in particolare, al centro della banda di
emissione.
Lampada a scarica in radiofrequenza: ( ASSORBIMENTO ATOMICO E FLUORESCENZA)
comunemente indicata come EDL, dall'acronimo inglese electrodeless discharge lamps. La sua peculiarità
principale consiste nel fornire una radiazione elettromagnetica di lunghezza d'onda precisa e dall'ampiezza di
banda molto ristretta, necessaria per ottenere lo spettro di assorbimento a righe tipico degli atomi.
La lampada è costituita da un tubo di quarzo sigillato, contenente un gas inerte come l’argo alla pressione di
pochi torr ed una piccola quantità del metallo, o di un sale di cui interessa lo spettro.
L'emissione della lampada non viene causata da elettrodi, bensì da una spirale metallica (RF coil). La spirale
genera un campo elettrico a radiofrequenza. Il gas contenuto nel bulbo si ionizza e cede il suo contenuto
energetico all'elemento eccitandolo. Questo, ritornando allo stato fondamentale, emette successivamente
fotoni di lunghezza d'onda caratteristica.
L'emissione che si ottiene è circa 10 volte più intensa rispetto ad una lampada a catodo cavo. La lampada a
scarica senza elettrodi è però utilizzabile solo con 15 elementi.

Sorgente al plasma accoppiata induttivamente:


questo tipo di sorgente viene generalmente utilizzata per la spettroscopia di emissione atomica. Tale
dispositivo prende anche il nome di “torcia” ed è costituito da tre tubi di quarzo concentrici, all’interno dei
quali viene fatto scorrere dell’Argon. Nel tubo più grande sono collocate due bobine. Una bobina di
induzione alimentata da un generatore di radiofrequenza a una bobina di Tesla che produce una scintilla in
grado di far avvenire la ionizzazione dell’Argon. La bobina di induzione produce un campo magnetico
(tramite il generatore di radiofrequenza) che costringe gli ioni a percorrere un percorso anulare in cima alla
torcia; la conseguenza della loro resistenza a questo movimento (ovvero il loro continuo urtarsi l’un l’altro) è
un riscaldamento del plasma. Si possono ottenere temperature prossime ai 10.000 K, per cui queste sorgenti
vanno opportunamente isolate (tramite lo stesso argon) e raffreddate. Vengono spesso utilizzate a corredo
degli spettrometri di massa, chiamati appunto ICP-MS.

29
Si distinguono tre zone:

A: zona di eccitazione-osservazione
B: zona del plasma concentrato
C: zona cava
Attraverso il tubo centrale il campione “buca” l’anello toroidale di plasma prodotto dal gas ionizzato e forma
il
pennacchio luminoso, in cui si possono distinguere 3 zone:
- zona cava, in cui arriva il campione (6500-8000 K)
- zona del plasma concentrato (circa 10000 K)

INTRODUZIONE DEL CAMPIONE


I dispositivi di atomizzazione si dividono in due classi: atomizzatori continui e atomizzatori discreti. Con
gli atomizzatori continui, come i plasmi e le fiamme, il campione viene introdotto in maniera continua. Con
gli atomizzatori discreti, i campioni vengono introdotti in maniera discreta mediante un dispositivo ad hoc
come una siringa o un auto campionatore. I più importanti nebulizzatori possono essere suddivisi:

Nebulizzatori pneumatici: sono i tipi più comuni nebulizzatori. In questo tipo di dispositivo l’aliquota di
campione liquido viene aspirato attraverso un tubo capillare mediante un flusso di gas ad alta pressione che
scorre attorno alla bocca del tubo. Tale effetto fisico prende il nome di effetto Venturi. Questo processo
prende il nome di aspirazione. Il gas ad alta velocità scinde il liquido in goccioline di varie dimensioni, che
sono quindi trasportate all’atomizzatore.

Nebulizzatori ad ultrasuoni: in questi dispositivi l’aliquota di campione viene pompata sulla superficie di un
cristallo piezoelettrico che vibra a frequenze dell’ordine dei 20 KHz. I nebulizzatori ad ultrasuoni producono
aerosol più densi ed omogenei rispetto ai nebulizzatori pneumatici. Tuttavia presentano bassa efficienza con
soluzioni viscose o contenenti particelle.

Vaporizzatori termoelettrici: è un evaporatore posizionato in una camera attraverso la quale fluisce un gas
inerte, per esempio argo, per trasportare il campione vaporizzato all’interno dell’atomizzatore. Una piccola
quantità di campione liquido o solido viene posta su un conduttore, per esempio un tubo di carbonio o un
filamento di tantalio. Il campione viene rapidamente evaporato nel flusso di argo mediante una corrente
elettrica.
SISTEMA DI ATOMIZZAZIONE
I metodi di atomizzazione più usati sono sostanzialmente due: l’atomizzazione in fiamma e l’atomizzazione
termoelettrica. Inoltre si possono distinguere metodi continui, in cui l’atomizzazione avviene a velocità
costante e senza interruzioni, e metodi discontinui, dove il segnale spettrale avrà un andamento del tipo:
segnale zero, segnale crescente, segnale massimo, segnale decrescente, segnale zero.
Atomizzazione in fiamma: l’atomizzazione in fiamma può avvenire per esempio mediante un bruciatore a
flusso laminare.

1. Un capillare preleva il campione, che viene spruzzato nella fiamma da un nebulizzatore per effetto
Venturi,
2. miscelato con un opportuno combustibile gassoso,
3. trasferito nella fiamma ove avviane il processo di atomizzazione.

30
4. L’aerosol deve oltrepassare una serie di deflettori la cui funzione è quella di lasciare passare le
goccioline più piccole ed eliminare quelle più grandi. La maggior parte del campione quindi si raccoglie
sul fondo della camera di miscelazione, dalla quale defluisce in un contenitore di scarico.
L’aerosol, l’ossidante e il combustibile vengono inviati in un bruciatore a fenditura che da una fiamma lunga
da 5 a 10 cm.
In questo tipo di bruciatore, la camera di miscelazione contiene una miscela potenzialmente esplosiva, la
quale può essere innescata da un ritorno di fiamma se la velocità dei flussi non è sufficientemente alta;
ragion per cui il bruciatore è provvisto di un sistema di fori atto allo sfogo della pressione.
Tali flussi sono normalmente regolati all’erogazione, per mezzo di riduttori di pressione a due stadi e poi
mediante valvole a spillo incorporate nello strumento. Un dispositivo di uso generale per misurare il flusso è
il rotametro, costituito da un tubo trasparente conico e graduato, montato con l’apertura più piccola verso il
basso. Il flusso del gas solleva un galleggiante sferico o conico, la cui posizione verticale indica il valore del
flusso.

PROCESSI CONSEQUENZIALI DI ATOMIZZAZIONE


1. il primo prende il nome di desolvatazione, durante il quale si osserva l’evaporazione del solvente con
conseguente formazione di un aerosol molecolare solido finemente suddiviso. L’aerosol viene
volatilizzato per formare molecole gassose.
2. Fornendo ancora energia, ciò che si ottiene è la rottura dei legami molecolari e la formazione di specie
atomiche.
3. Tali specie vengono ulteriormente eccitate e passano dal loro stato fondamentale a quello eccitato. Non
rimangono a lungo in tali condizioni, e riemettono il quantitativo di energia precedentemente acquisito
mediante radiazione elettromagnetica di opportuna lunghezza d’onda. E’ importante sottolineare
l’importanza di questa fase, infatti a causa del gran numero e della complessità dei processi che
avvengono, l’atomizzazione costituisce lo stadio più critico nella spettroscopia di fiamma, e condiziona
pesantemente la sensibilità di questa metodica analitica. L’obiettivo ultimo di questa fase è la
formazione di atomi, ragion per cui deve essere assolutamente evitato la formazione di specie
molecolari o ioniche.
Nell’atomizzazione del campione è possibile utilizzare una vasta gamma di combinazioni di combustibili e
ossidanti, scelta di volta in volta, in funzione delle caratteristiche proprie del sistema oggetto del nostro
studio. Queste combinazioni vengono scelte in funzione di taluni parametri fra cui possiamo ricordare la
temperatura e la velocità massima di combustione.

• temperature da 1700 a 2400°C si ottengono con i vari combustibili quando viene utilizzato come
ossidante l’aria. A queste temperature vengono decomposte solo le specie termolabili,

• mentre per specie chimiche più refrattarie devono essere utilizzati come ossidanti l’ossigeno e il
protossido di azoto, con cui è possibile raggiungere temperature che oscillano fra 2500 e 3100 °C.

31
• fiamma aria-acetilene: è la più usata in AA(2300°C) perché è adatta per molti elementi e viene
utilizzata per i seguenti elementi: metalli alcalini, Mg, Ca, Ag, Fe, Cu, Zn, Ni, Co, Mn, Cr, Pb, Sn e
molti altri.
• fiamma aria-idrogeno: permette di raggiungere i 2045°C; viene usata per i metalli alcalini perché
consente di ridurre notevolmente la loro ionizzazione termica; per questa fiamma si usa una testata da 5
cm.

STRUTTURA DELLA FIAMMA IN ASSORBIMENTO ATOMICO


Una fiamma, dal punto di vista strutturale, può essere suddivisa in tre zone: zona di combustione primaria,
zona di combustione secondaria, zona intermedia.

E’ bene sottolineare che l’aspetto e le dimensioni relative di queste regioni sono funzione del rapporto
combustibile/ossidante che della tipologia di sostanze impiegate.
La zona di combustione primaria in una fiamma di idrocarburi è riconoscibile dalla sua luminosità blu
(cono interno colorato in grigio scuro), dovuta alla banda di emissione dei radicali. A causa
dall’impossibilità che ha questa zona di raggiungere l’equilibrio termico, tale zona viene raramente usata per
scopi analitici.
La zone intermedia è caratterizzata dalla presenza di numerosissimi atomi liberi e per questo è la parte più
utilizzata nella spettroscopia (la zona nera del disegno ,detta anche zona inteconale)
La zona di combustione secondaria è caratterizzata dalla presenza di ossidi molecolari stabili che si
disperdono nell’ambiente circostante.

Atomizzazione termoelettrica: gli atomizzatori termoelettrici assicurano una maggiore sensibilità rispetto
agli atomizzatori a fiamma in quanto tutto il campione viene atomizzato in un lasso di tempo breve e il
tempo medio di permanenza degli atomi nel cammino ottico è di circa un secondo.
Negli atomizzatori termoelettrici pochi microlitri di campione vengono prima evaporati a bassa temperatura
e poi inceneriti per riscaldamento elettrico a una temperatura più alta in un tubo di grafite. Dopo
l’incenerimento, la corrente viene rapidamente aumentata; ciò provoca l’atomizzazione del campione che
avviene in pochi secondi. L’assorbimento o la fluorescenza delle particelle atomizzate viene misurato nella
zona immediatamente al di sopra della superficie riscaldata.
• L’atomizzazione avviene in un tubo di grafite cilindrico, aperto ad entrambe le estremità e con un foro
centrale per l’introduzione del campione mediante una micro pipetta. Il tubo è lungo circa 5 cm e ha un
diametro interno di 1 cm.
• Le estremità del tubo si inseriscono perfettamente in una coppia di contatti elettrici cilindrici di grafite,
posti all’interno di un alloggiamento di metallo raffreddato ad acqua. Inoltre, sono presenti due flussi di
gas inerte. Quello più esterno impedisce il contatto con l’aria dell’ambiente e quindi la combustione del
tubo. Il flusso interno sovrintende, invece, a una duplice funzione, infatti non esclude solamente l’aria,
ma asporta i gas prodotti dalla matrice del campione durante i primi due stadi del riscaldamento.

32
All’interno del dispositivo è presenta la cosiddetta piattaforma di L’vov, situata al di sotto dell’apertura
dell’introduzione del campione, la quale funge da superficie su cui viene evaporato e incenerito il campione.
Il riscaldamento avviene grazie agli elettrodi per effetto Joule.

E stato verificato sperimentalmente che, durante l’atomizzazione, in parte l’analita e la matrice diffondono
verso la superficie del tubo; il processo di atomizzazione viene rallentato e si ottengono segnali inferiori per
l’analita. Per eliminare questo inconveniente, deve essere ridotta la porosità naturale dei tubi di grafite. A tal
proposito la superficie interna del dispositivo viene ricoperta da grafite pirolitica. La grafite pirolitica è un
particolare tipo di grafite ottenuto per deposizione di strati successivi in un ambiente estremamente
omogeneo; si forma facendo passare nel tubo riscaldato ad alte temperature, una miscela di un gas inerte e di
un idrocarburo, per esempio metano.

Durante il riscaldamento avvengono le seguenti trasformazioni :


- essiccamento: è la rimozione del solvente che avviene a temperature di 120-130°C
- incenerimento (pirolisi): ad alcune centinaia di gradi, si ha la disgregazione della matrice del campione e
l’atomizzazione delle impurezze, che vengono allontanate dalla corrente di Ar
- atomizzazione : a 2000-3000°C per alcuni secondi si ha la disgregazione dell’analita con formazione del
suo vapore atomico. In questa fase viene interrotta la corrente di Ar, viene chiuso il foro di ingresso del
campione e viene fatta passare la radiazione proveniente dalla sorgente che, attraversando il vapore atomico,
subisce l’assorbimento misurato dal rilevatore.

Nella GFAAS è molto importante il profilo di riscaldamento utilizzato ed in particolare sono importanti la
temperatura di incenerimento e la temperatura di atomizzazione; infatti se la T di incenerimento fosse troppo
alta si avrebbe già parziale atomizzazione con perdita di sostanza (che verrebbe allontanata dal fornetto
dall’Ar) e quindi diminuzione di sensibilità ; d’altra parte una T di atomizzazione troppo bassa
provocherebbe incompleta atomizzazione, una troppo alta causerebbe pericolosi surriscaldamenti.
Di seguito è riportato un tipico profilo termico per analisi in assorbimento atomico, dove si vede la
variazione della temperatura T in funzione del tempo: i tratti inclinati sono detti rampe, i tratti orizzontali
sono detti isoterme. La pendenza e l’altezza delle rampe e la durata delle isoterme sono definite
dall’operatore che può quindi adattare l’atomizzatore alle caratteristiche del campione analizzato.

Te: temperatura di essiccamento


Ti: temperatura di incenerimento
Ta: temperatura di atomizzazione

VANTAGGI ATOMIZZAZIONE TERMOELETTRICA


• Si possono determinare basse concentrazioni di analiti, in quanto il campione rimane sulla
piattaforma per un lasso di tempo tale (anche un secondo) e quindi la radiazione
elettromagnetica ha l’opportunità di incontrare tutti gli ioni
• consente l’esame diretto di campioni solidi
• Non è un metodo altamente distruttivo, infatti occorre poco campione per l’analisi
• ha una sensibilità molto elevata, anche 1000 volte maggiore rispetto alla fiamma.

33
VANTAGGI ATOMIZZAZIONE IN FIAMMA
• L’atomizzazione in fiamma è superiore per quanto riguarda la riproducibilità ;

Atomizzazione a vapori freddi costituisce un metodo di atomizzazione applicabile solo per la


determinazione del mercurio, poiché è l’unico elemento metallico che presenta a temperatura ambiente un
elevata tensione di vapore.
Per eseguire una determinazione di questo tipo :
1. il mercurio viene convertito in Hg2+ trattando il campione con una miscela ossidante costituita da acido
solfidrico e nitrico,
2. per poi essere ridotto a metallo con cloruro di stagno o sodio boro idruro.
3. successivamente viene fatto gorgogliare nella miscela di reazione un gas inerte, in modo da inviare il
mercurio elementare in un lungo tubo di assorbimento di uno spettrofotometro attraversato dalla
radiazione.
SISTEMI DI RIVELAZIONE
Come rivelatori vengono utilizzati dei tubi fotomoltiplicatori del tutto analoghi a quelli usati per la
spettroscopia UV.
INTERFERENZE IN SPETTROSCOPIA ATOMICA
Interferenze
L’AA è una tecnica notevolmente specifica in quanto si utilizzano righe
analitiche molto strette, ma può essere caratterizzato da numerose
interferenze, cioè da disturbi che alterano il valore del segnale rilevato. I
risultati ottenuti sono quindi significativi solo a condizione di adottare una
procedura analitica accuratamente standardizzata.
Tali interferenze si possono manifestare in qualsiasi fase del processo
analitico, come mostrato nello schema seguente, riferito ad un atomizzatore
a fiamma laminare: Si supponga di avere un campione formato dall’analita
MA sotto forma di sale, dove M è il metallo che si vuole dosare ed A è
l’anione del sale.
Inizialmente si ha una soluzione in cui l’analita è dissociato in ioni M + ed
A-. Il campione viene nebulizzato dal sistema di atomizzazione producendo
l’aerosol e quando inizia il riscaldamento nella fiamma si ha innanzitutto la
desolvatazione, cioè l’allontanamento del solvente, con formazione di MA
solido. In seguito, nella stessa fiamma, in pochi millesimi di secondo, al
crescere della temperatura MA prima fonde e quindi vaporizza, formando
MA allo stato gassoso.
Un ulteriore riscaldamento provoca la disgregazione della molecola con
formazione del vapore atomico, costituito da atomi di metallo M 0 nel loro
stato fondamentale che, quando vengono colpiti dalla radiazione hν emessa
dalla sorgente si eccitano assorbendo la medesima, diventando M*.
Un ulteriore riscaldamento potrebbe provocare ionizzazione con perdita di
1 o più elettroni e formazione dello ione M+ ma questo è un fenomeno da
evitare perché diminuisce il numero di atomi in grado di assorbire.
Analoghe interferenze possono manifestarsi nel fornetto di grafite anche se
in misura minore, infatti qui non vi è il processo di nebulizzazione ed i
prodotti di desolvatazione e disgregazione della matrice son allontanati
prima di misurare l’assorbanza del campione.
Nella spettroscopia atomica si possono avere due tipi di interferenze: spettrali, dovute allo strumento, e
chimiche, dovute alla natura chimica del sistema in analisi.

INTERFERENZE SPETTRALI
1. Le interferenze spettrali si verificano quando l’assorbimento della specie interferente si sovrappone, o
è molto vicino a quello dell’analita, tanto da rendere impossibile la risoluzione mediante il
monocromatore.

Questo problema può essere ovviato spostando il monocromatore su una zona in cui sono presenti altre

34
righe dell’analita, ma non dell’interferente. Una classica interferenza si ha nella determinazione del
vanadio , il quale presenta a 3092 A una riga molto vicina a una riga dell’alluminio.
2. Si osservano interferenze spettrali anche in presenza di prodotti di combustione con assorbimenti a
banda larga,ovvero assorbono in tutto lo spettro. Il problema quindi non può essere risolto
semplicemente selezionando la lunghezza d’onda al monocromatore.
3. Particelle in grado di diffondere la radiazione, questo fenomeno comporta la diminuzione del potere
radiante in arrivo al rivelatore, che viene erroneamente attribuita a una maggiore concentrazione
dell’analita. Se l’origine di questi prodotti è attribuibile solo alla miscela del combustibile e
dell’ossidante, la correzione è facilmente ottenibile da una misurazione dell’assorbanza, quando viene
fatto il bianco. L’interferenza spettrale viene riscontrata sovente quando si aspirano alla fiamma
soluzioni di titanio, tungsteno i quali formano degli ossidi refrattari. Si ritiene che si formino delle
particelle di ossido del metallo con diametri maggiori della lunghezza d’onda della radiazione che queste
provochino la diffusione del fascio incidente.
4. Il problema presenta più insidie quando il fenomeno di assorbimento “collaterale” è dovuto alla
matrice del campione in analisi. In questi casi si riscontrano bande larghe dovute a composti di altri
metalli, formatisi alla fiamma, che coprono le righe dell’analita e diffondono le radiazioni. Questo causa
problemi del tutto analoghi a quelli dati dai prodotti di combustione, che non possono essere eliminati
mediante una semplice lettura del bianco. Un tipico esempio è dato dalla formazione di specie CaOH
nell’analisi del bario contenuto in miscele di metalli alcalino-terrosi. In questo caso si forma una banda
di assorbimento del CaOH che copre completamente la riga del bario. Nello specifico caso del calcio si
può agire utilizzando come ossidante il protossido di azoto, al posto dell’aria, in modo da decomporre
il CaOH, arrivando a temperature più alte.

5. L’interferenza dovuta alla diffusione può costituire un problema anche quando il campione contenga
delle specie organiche come quando vengano impiegati dei solventi organici per dissolvere il campione;
in questo caso la combustione incompleta della matrice organica lascia delle particelle che sono in grado
di diffondere la luce.

Nel caso in cui si conosca la causa dell’interferenza può essere applicato il metodo del tampone di
radiazione; si aggiunge un eccesso della sostanza interferente sia al campione che agli standard, purché
l’eccesso sia grande rispetto alla concentrazione del campione della matrice, facendo si che il contributo di
quest’ultimo sia insignificante.
INTERFERENZE CHIMICHE
Le interferenze chimiche sono più frequenti di quelle spettrali, ma spesso possono essere minimizzate con
una scelta opportuna delle condizioni operative. I processi che avvengono in un fiamma possono essere
considerati approssimativamente all’equilibrio, quindi modulando opportunamente alcuni parametri
termodinamici è possibile ridurre tali interferenze.

1. Formazione di composti a bassa volatilità: la formazione di tali composti riduce la frazione di analita
che viene atomizzata; si ottengono di conseguenza dei risultati inferiori a quelli attesi. Alcuni esempi di
questo fenomeno possono essere considerati la diminuzione dell’assorbanza del calcio
all’aumentare della concentrazione di solfati e fosfati. Infatti, tali anioni formano con il calcio
composti difficili da volatilizzare.
Le interferenze di questo genere possono venire eliminate o ridotte operando a temperatura più elevata.
In alternativa possono essere utilizzati degli agenti rilascianti, cioè dei cationi che reagiscono
preferenzialmente con la specie interferente e ne impediscono l’interazione con l’analita. Per esempio un
eccesso di ioni stronzio o lantanio rende minima l’interferenza dei fosfati nella determinazione del
calcio.
Inoltre, possono essere utilizzati dei cosiddetti agenti protettivi i quali prevengono l’interferenza
formando con l’analita delle specie stabili, ma volatili. Tra queste specie chimiche possiamo annoverare
l’EDTA, che minimizza l’interferenza di fosfati e solfati, e l’8-idrossichinolina, la quale riduce
l’interferenza dell’alluminio nella determinazione del calcio e del magnesio.
2. Equilibri di dissociazione: considerando che nelle condizioni utilizzate sia nella fiamma che nel fornetto
possono verificarsi un gran numero di reazioni (associazione-dissociazione), il sistema in studio può

35
essere visto come un sistema all’equilibrio è quindi possibile scrivere le equazioni di equilibrio almeno
per le specie più importanti:

MO M+O
M(OH) M + 2OH-
NaCl Na+ + Cl-

• E’ possibile spostare l’equilibrio agendo sul rapporto combustibile/comburente in modo da variare la


quantità di ossigeno.
• Oppure è possibile far variare la temperatura in funzione delle difficoltà a dissociarsi che hanno i
diversi composti del metallo.

3. Equilibri di ionizzazione: questo tipo di interferenza è direttamente correlabile alla composizione della
miscela di combustione. Infatti, miscele contenente aria come mezzo ossidante producono effetti di
ionizzazioni relativamente modesti. La presenza di ossigeno e/o protossido di azoto incrementano la
ionizzazione dell’analita:
M→M+ + e-
Questo equilibrio può essere retrocesso fornendo elettroni al sistema, ovvero immettendo all’interno del
sistema una specie che si ionizza più facilmente dell’analita. Questi agenti vengono chiamati
“soppressori di ionizzazione”.

METODI DI CORREZZIONE SPETTRALI


Nel corso degli anni, sono stati sviluppati diversi metodi di correzione delle interferenze spettrali dovuti ai
prodotti della matrice.
Metodo della correzione a due righe: tale procedura richiede la presenza di una riga di riferimento emessa
dalla sorgente che sia il più possibile vicina alla riga dell’analita, senza essere assorbita dall’analita stesso.
Se queste condizioni sono soddisfatte, allora si assume che ogni diminuzione della potenza della riga di
riferimento, rispetto al valore osservato durante la calibrazione, sia dovuta all’assorbimento o alla diffusione
da parte dei prodotti della matrice del campione. Questa diminuzione viene successivamente sfruttata per
correggere l’assorbanza della riga dell’analita.
La riga di riferimento è quella di una impurezza presente all’interno del catodo della lampada. Molto spesso
però non è possibile avere a disposizione una riga di riferimento adatta.

Metodo di correzione a sorgente continua: in questo metodo la radiazione prodotta da una sorgente
continua, costituita da una lampada a deuterio, viene inviata, alternativamente, alla radiazione emessa dalla
lampada a catodo cavo, mediante un chopper al tubo di grafite utilizzando per questa sorgente una fenditura
molto ampia in modo da rendere trascurabile la frazione di questa radiazione assorbita dal campione.

L’iter è il seguente:

1) viene selezionata una finestra spettrale contenente la riga dell’analita e si attivano le sorgenti
2) La lampada a catodo cavo emetterà solo la riga dell’analita e al rivelatore arriverà il segnale della riga
dovuto all’analita e al fondo.
3) La lampada a deuterio emetterà, invece, una banda che coprirà tutto l’intervallo spettrale selezionato e
che quindi sarà assorbita per gran parte dal fondo.
4) A questo punto verrà sottratto il contributo del fondo (proveniente dalla lampada a deuterio) al
contributo analita più fondo (proveniente dalla lampada a catodo cavo). Ovviamente le due lampade
devono essere alimentate con la stessa potenza e i due valori di assorbanza ottenuti devono essere
36
ridimensionati in base alla proporzione in cui sono reciprocamente. In questo metodo viene fatta
un’approssimazione, ovvero che la banda emessa dalla sorgente continua venga assorbita solo dal
fondo. In realtà è presente anche il contributo dell’analita che però può essere trascurato in confronto a
quello del fondo. Per testare il funzionamento di un dispositivo del genere (che arriva a correggere fino
a 400 nm) può essere utile eseguire uno spettro del rame, che assorbe più o meno nella zona limite.

Metodo di correzione del fondo basata sull’autoinversione della sorgente: il metodo di correzione di
Smith-Hieftje sfrutta il comportamento di autoinversione o auto-assorbimento delle radiazioni emesse dalle
lampade a catodo cavo quando vengono fatte funzionare a intensità di corrente elevate.
Infatti, correnti più intense producono concentrazioni maggiori di atomi non eccitati in grado di assorbire la
radiazione riemessa dalle specie eccitate.
Se analizziamo come varia l’emissione all’aumentare della corrente, vedremo che:
1) man mano aumenta la concentrazione di fotoni emessi, il picco si alzerà e si allargherà per effetto
collisionale.
2) Continuando ad aumentare la corrente, si formerà un minimo esattamente al centro del picco quindi sulla
riga dell’analita che è dovuto all’autoassorbimento degli atomi non eccitati . In questo punto l’analita
non assorbe radiazione, quindi tutto l’assorbimento è dato dal fondo. A corrente bassa, invece,
l’assorbimento è dato dal fondo e dall’analita.
3) Facendo funzionare alternativamente a corrente bassa e alta, si può sottrarre il contributo del fondo a
quello del fondo più analita. Purtroppo questo metodo presenta lo svantaggio di stressare
eccessivamente la lampada e di limitarne la vita.

Metodo di correzione basato sull’effetto Zeeman: la correzione del fondo basata sull’effetto Zeeman sfrutta
l’effetto dei campi magnetici sulla nuvola atomica. Applicando un campo magnetico si osserva la
separazione dei livelli energetici e si avrà una riga per ogni transizione. La somma dei loro livelli di
assorbanza risulta essere proporzionale alla singola riga che si otterrebbe senza applicare il campo
magnetico.
Applicando un campo magnetico cambia la direzione di oscillazione del vettore campo elettrico.
Il campo magnetico può essere applicato sia sulla sorgente che sull’atomizzatore.
Supponiamo di applicarlo al fornetto di grafite.
• La lampada catodo cavo emette dei fotoni con un vettore campo elettrico non polarizzato i quali
arriveranno sugli atomi prodotti dal fornetto. Possiamo a questo punto lavorare in due condizioni: con
campo magnetico spento e con campo magnetico accesso.
• Con campo magnetico spento, fra i tanti fotoni con vettore campo elettrico non polarizzato ci saranno
quelli collineari a quello dell’analita, i quali saranno assorbiti sia dall’analita che dal fondo.
• Con campo magnetico accesso, il vettore campo elettrico oscillerà solo in una direzione, se abbiamo
modo di dirigere il campo elettrico dei fotoni provenienti dalla lampada, possiamo fare in modo di fare
assorbire tutto tranne che l’analita, perché l’analita assorbe solo nel caso in cui il campo elettrico è
collineare al suo.

37
Si può così sottrarre il contributo del fondo dall’assorbimento analita più fondo che si ha con il campo
magnetico spento. Questo è il metodo più efficace ma anche quello più costoso.

SPETTROSCOPIA IR

La spettroscopia infrarossa ci da, rispetto alle altre tecniche ottiche, meno informazioni quantitative.
Tuttavia, dal punto di vista qualitativo è molto efficiente perché grazie alla molteplicità dei segnali che si
ottengono è possibile identificare quasi tutti i composti organici, si possono verificare assorbimenti identici
solo per isomeri ottici.
SUDDIVISIONE QUALITATIVA DELLE FREQUENZE IR

La regione infrarossa dello spettro comprende le radiazione con un numero d’onda che va da 12.800 cm -1 a
10 cm-1, ovvero da 0,79µm a 1000µm. La zona IR può essere suddivisa in:


Vicino IR 12.800-4000 cm-1 Medio IR 4000-200cm-1 Lontano IR 200-10cm-1

• La zona del vicino IR presenta affinità con UV-vis, quindi li strumenti impiegati sono gli
spettrofotometri e i fotometri. Le applicazioni più importanti di questa regione spettrale sono l’analisi
quantitativa di materiali per l’industria e l’agricoltura, nonché nel controllo di processo e di analisi
di routine di composti come l’acqua, proteine e idrocarburi a basso peso molecolare.

• La regione medio IR è quella più importante perché vi sono le giuste energie affinché si realizzino le
transizioni vibrazionali sulle molecole organiche. Infatti, questa regione spettrale è utilizzata dai
chimici organici per l’identificazione dei composti organici e la determinazione delle strutture
molecolari basandosi sugli spettri di assorbimento.

• La regione del lontano infrarosso è utile per lo studio dei composti inorganici, perché le transizioni
vibrazionali tra atomi metallici e leganti inorganici o organici si verificano a frequenze più basse di
650 cm-1.
PRINCIPI FISICI
Le energie associate alla radiazione infrarossa vanno da 2 a 10 Kcal/mol e se trasferita ad una
molecola si convertono in energia rotazionale e vibrazionale; tali energie, infatti, non sono sufficienti per
dare i tipi di transizioni elettroniche della radiazione UV-visibile. L’assorbimento di una radiazione
infrarossa è pertanto limitato a specie molecolari che presentano piccole differenze di energia tra i diversi
stati vibrazionali e rotazionali.
Per assorbire una radiazione infrarossa la molecola deve subire un netto cambiamento dipolare in seguito
ad un moto vibrazionale o rotazionale. Solo a queste condizioni infatti il campo elettrico alternato della
radiazione può interagire con la molecola e causare cambiamenti dell’ampiezza di uno dei suoi due moti.

• L’energia richiesta per causare un cambiamento di livello rotazionale è piccola e corrisponde a


radiazioni di 100 cm-1 o meno. Essendo i livelli rotazionali quantizzati, l’assorbimento da parte di un
gas in questa regione dell’infrarosso lontano è caratterizzato da righe discrete ben definite, mentre nei
liquidi o nei solidi le collisioni intermolecolari causano l’allargamento delle righe fino a un continuo.

• Anche i livelli vibrazionali sono quantizzati e per la maggior parte delle molecole le differenze di
energia tra gli stati quantizzati corrispondono alla regione del medio IR.
Lo spettro infrarosso di un gas è normalmente costituito da una serie di linee ravvicinate, poiché
esistono numerosi stati energetici rotazionali per ogni stato energetico vibrazionale. Nei solidi e nei
liquidi invece spesso le rotazioni sono praticamente impedite e quindi le righe rotazionali\vibrazionali
scompaiono e si hanno picchi vibrazionali piuttosto allargati.
Le radiazioni IR inviate ad una molecola fanno variare la frequenza di vibrazione del sistema, che possiamo
considerare approssimativamente un oscillatore armonico.
Tramite la legge di Hook si possono ricavare le informazioni su queste variazioni di frequenza:

38
ν = lunghezza d’onda espressa in numero d’onda (cm -1)
k = costante di forza del legame
m*= massa ridotta (m1 *m2/ m1 + m2)

Nell’equazione della legge di Hook il primo termine è costante, e sono solo i termini sotto radice che
influiscono sulla frequenza delle vibrazioni.
La costante di forza del legame può essere ricavata misurando la quantità di energia necessaria per rompere
o formare il legame; la massa ridotta si può facilmente calcolare conoscendo i pesi molecolari delle sostanze
prese in esame.
Tuttavia nella realtà il sistema si non avvicina molto al comportamento di un oscillatore anarmonico, in
quanto somministrando troppa energia si ottiene il cosiddetto asintoto di dissociazione, oltre che ad una
variazione della regola di selezione.

1) Le regole di selezione della teoria quantistica ci dicono che le uniche transizioni possibili sono quelle in
cui il numero quantico vibrazionale varia di un’unità, ossia ΔV=±1 per tanto si dovrebbe osservare una
banda di assorbimento per ogni transizione, considerando che i livelli sono ugualmente spaziati.

2) Questo non avviene per sistemi più complessi che presentano una certa anarmonicità. Infatti possono
esserci transizioni molto deboli dovute a ΔV=±2 o ΔV=±3 date dal fatto che per numeri quantici più
grandi ΔE diventa sempre più piccolo.
3) Inoltre gli spettri possono essere complicati dal fatto che due differenti vibrazioni di una molecola
possono interagire dando bande di assorbimento che sono approssimativamente la somma o la
differenza delle loro frequenze fondamentali, le armoniche.

DEFINIZIONE DEL NUMERO DI GRADI DI LIBERTA’


Di solito è possibile dedurre il numero e i tipi di vibrazioni in molecole semplici biatomiche e triatomiche e
se queste vibrazioni danno luogo ad assorbimento.

Il numero possibile di vibrazioni può essere calcolato nel seguente modo:


• Per localizzare un punto nello spazio sono necessarie 3 coordinate;
• Per definire N punti si richiedono quindi 3N coordinate, ciascuno di queste corrisponde a un grado di
liberta di ognuno degli atomi della molecola.

Nel definire il movimento di una molecola dobbiamo considerare:


1. Il movimento dell’intera molecola nello spazio, cioè il movimento traslazionale del suo centro di
gravità;
2. Il movimento rotazionale dell’intera molecola attorno al suo centro di gravità;
3. Il movimento di ciascuno dei suoi atomi rispetto agli altri(momenti vibrazionali).
4. Poiché tutti gli atomi di una molecola si muovono assieme per definire il movimento traslazionale si
richiedono tre coordinate e si usano tre gradi di libertà.
5. Altri tre gradi di libertà sono necessari per descrivere la rotazione di una molecola nel suo complesso.
6. I rimanenti (3n-6) gradi di libertà riguardano il numero di possibili vibrazioni all’interno della molecola.
7. Una molecola lineare costituisce un’eccezione in quanto per definizione tutti gli atomi si trovano sulla
stessa linea retta e la rotazione attorno all’asse di legame non è significativa e sono sufficienti solo due
gradi di libertà per descrivere il movimento rotazionale, quindi per una molecola lineare i gradi di libertà
che riguardano i moti vibrazionali sono 3N-5.

39
FATTORI CHE CONCORRONO A DIMINUIRE LE BANDE DI ASSORBIMENTO
Tutta via ci sono dei fattori che tendono a produrre meno bande di quelle che ci si aspetterebbe dal calcolo
del numero di modi normali. Si ha un minor numero di bande quando:
• La simmetria delle molecole è tale per cui non vi è variazione di dipolo per una particolare
vibrazione;
• Le energie di due o più vibrazioni sono paragonabili;
• L’intensità dell’assorbimento è così piccola da non poter essere rivelata con lo strumento utilizzato;
• L’energia vibrazionale corrisponde ad una lunghezza d’onda non accessibile allo strumento.

Armoniche: Talvolta sono possibili delle bande di combinazione (armoniche), quando un fotone eccita
simultaneamente due modi vibrazionali; la frequenza di una banda di combinazione può essere la somma o
la differenza delle due frequenze fondamentali, questo avviene quando un quanto di energia viene assorbito
da due legami piuttosto che uno. Si possono individuare alcuni fattori che influenzano l’entità di tale
accoppiamento:
• Si hanno forti accoppiamenti tra le vibrazioni solo quando vi sia un atomo in comune a due vibrazioni;
• L’interazione tra le vibrazioni di deformazione richiede un legame in comune tra i due gruppi che
vibrano;
• L’accoppiamento tra una vibrazione di stiramento e una di deformazione può avvenire solo se il legame
interessato dallo stiramento è un lato dell’angolo interessato dalla deformazione;
• L’interazione è maggiore quando i gruppi accoppiati hanno energie simili;
• Si ha una interazione piccola o nulla se i gruppi sono separati da due o piu legami;
• L’accoppiamento richiede che le vibrazioni siano della stessa classe di simmetria.

ESEMPIO DI ACCOPPIAMENTO DELLA CO 2


Come esempio degli effetti di accoppiamento possiamo considerare la molecola di biossido di carbonio , la
CO2. Se non ci fosse accoppiamento tra i due legami doppi carbonio ossigeno ci si dovrebbe aspettare una
banda di assorbimento alla stessa lunghezza d’onda dello stiramento del legame doppio carbonio ossigeno di
un chetone alifatico, sperimentalmente invece si osservano due bande di assorbimento diverse. Il biossido di
carbonio è una molecola lineare e quindi ha (3*3-5) e quindi ha 4 modi normali, due vibrazioni di
stiramento, tra le quali si instaurano delle interazioni poiché i legami hanno in comune un atomo di carbonio,
e due di deformazione.
Una delle due vibrazioni di stretching è simmetrica quindi IR inattiva, mentre le due vibrazioni di bending
sono energeticamente uguali pertanto danno una sola banda di assorbimento .

TIPI DI VIBRAZIONE
Le vibrazioni molecolari possono dipendere dal numero di atomi della molecola, dalla massa degli atomi e
dal tipo di legame.
Le vibrazioni vengono suddivise in due categorie principale:
• Stiramento(stretching)
• Deformazione (bending)
Lo stiramento consiste nella variazione continua della distanza interatomica lungo l’asse di legame, la
deformazione consiste nella variazione dell’angolo tra due legami.
Lo stretching può essere simmetrico, se i due atomi si muovono nello stesso verso o asimmetrico se si
muovono in direzioni diverse.
Il bending, invece, può essere simmetrico (scissoring) o asimmetrico (rocking) nello stesso piano, e
simmetrico (wagging) e asimmetrico fuori dal piano (twisting).

Inoltre ogni vibrazione dà luogo ad una banda di assorbimento, queste si dividono in:
• forti (strong),
• medie (medium),
• deboli (weak),

40
• strette (sharp)
• larghe (bread).

La regione più importante della radiazione infrarossa è il medio IR, il quale può essere a sua volta suddiviso
in due regioni:
• Regione dei gruppi funzionali: compresa fra 3600 e 1250 cm-1, dove si individuano gli assorbimenti
relativi alle vibrazioni di stiramento dei gruppi funzionali contenti legami semplici e multipli

• Regione delle impronte digitali: compresa fra 1200 e 600 cm-1, dove si individuano le vibrazioni dello
scheletro(bending). E’ una regione molto complessa, in cui gli spettri relativi agli assorbimenti relativi
alle molecole sono unici per ognuna di esse, quindi non si possono avere spettri uguali di due composti
diversi. Infatti, piccole differenze nella struttura e costituzione della molecola danno luogo a notevoli
cambiamenti nella distribuzione delle bande di assorbimento. Questa regione è indicata per la
determinazione dei composti organici basandosi sul confronto spettrale.

STRUMENTAZIONE

Esistono sostanzialmente quattro principali tipologie di spettrofotometri per IR:


1. Spettrofotometro a reticolo di dispersione (analisi qualitativa);
2. Spettrofotometro a trasformata di fourier (analisi qualitativa\quantitativa);
3. Fotometri non dispersivi (analisi di sostanze organiche nell’atmosfera);
4. Fotometri a riflettanza (usati in agricoltura, per analisi dei solidi, e per la restaurazione e conservazione
dei dipinti).

S1, S2, S3 = specchi piani S4 = specchio riflettente concavo


SO = sorgente RC= raggio campione
RR = raggio riferimento C = portacampione
CH = chopper F1 = fenditura di ingresso
F2 = fenditura di uscita M = monocromatore
RI = rivelatore I = interfaccia
MI = microprocessore DI = display
VI = video ST = stampante
MO = motore

Il funzionamento di questo spettrofotometro, basato sullo sdoppiamento del raggio nel tempo mediante un
chopper, è analogo all’apparecchio per l’UV-VS; nel caso di liquidi o solidi puri il riferimento è l’aria
mentre per le soluzioni si utilizza il consueto bianco, interposto lungo il cammino di RR. Da notare che in
questo caso, al contrario di uno spettrofotometro per UV-VIS, il monocromatore è posto dopo il campione,
perché in IR le energie delle radiazioni sono più basse e quindi si deve evitare un eccessivo assorbimento da
parte del monocromatore prima che la radiazione stessa passi sul campione. Il segnale prodotto deriva dal
rapporto tra RR ed RC. Sono inoltre presenti i soliti dispositivi per l’elaborazione del segnale e la
presentazione dei dati
SORGENTI
Le sorgenti per IR sono generalmente costituite da un solido inerte riscaldato elettricamente ad una
temperatura tra 1500 e 2200 K. La radiazione continua così prodotta si avvicina a quella di un corpo nero.

41
La massima potenza radiante si ha per lunghezza d’onda tra 5900 e 5000 cm -1, per lunghezza d’onda
maggiori o minori si hanno repentini cali di potenza.

Le sorgenti da noi studiate sono le seguenti:


Filamento di Nerst: è costituito da ossidi di terre rare ( scandio, ittrio ): è un cilindretto del diametro dai 1 a
3 mm e lungo da 2 a 5 cm,alle cui estremità sono saldati dei conduttori di platino per permettere il passaggio
di corrente ed il raggiungimento di temperature tra i 1200 e 2200 K.
Poiché il filamento di Nerst ha un coefficiente di temperatura per la resistenza elettrica molto negativo
(il coefficiente di temperatura esprime in che modo si realizza la dipendenza dalla resistività del materiale e
rappresenta la variazione relativa di quest’ultima per ogni grado di temperatura), deve essere prima
riscaldato dall’esterno al color rosso affinché la corrente possa mantenere la temperatura desiderata.
Poiché la resistenza diminuisce all’aumentare della temperatura, l’alimentatore della sorgente deve prevedere
un dispositivo che limiti la corrente, altrimenti il filamento diventa rapidamente così caldo da deteriorarsi;
Sorgente Globar: è una candela di carburo di Silicio (SiC ed esiste in natura come il minerale di
moissanite) lunga 5 cm e con un diametro di 5 mm, riscaldata elettricamente a circa 1500 K.
Presenta il vantaggio di avere un coefficiente di resistenza positivo. È però necessario raffreddare con
acqua i contatti elettrici per evitare la formazione di un arco voltaico.
Lo spettro è simile a quello prodotto dal filamento di Nerst, ma ha una maggiore efficienza a λ< 5 mm;

Sorgenti a filamento incandescente: sono costituite da una spirale di Ni-Cr riscaldata elettricamente a 1100
K. Producono radiazioni a intensità inferiore rispetto al filamento di Nernst e alla Globar, ma sono più
resistenti.
Un'altra sorgente a filamento incandescente e con proprietà simili ma piu costosa è costituita da un
filamento di rodio incorporato in un cilindro ceramico e riscaldato elettricamente;

Arco a mercurio: nella regione spettrale del lontano infrarosso nessuna delle sorgenti finora descritte
fornisce l’energia sufficiente per una adeguata rivelazione degli assorbimenti.
Si deve invece usare un arco ad alta pressione di mercurio, costituito da un tubo rivestito di quarzo
contenente vapori di mercurio a pressione maggiore di 1 atm. Il passaggio di corrente attraverso i vapori
produce una sorgente interna a plasma che fornisce una radiazione continua nella zona del lontano
infrarosso;

Lampada a filamento di tungsteno: una comune lampada a filamento di tungsteno fornisce una radiazione
continua nella regione del vicino infrarosso tra 4000 e 12.800 cm-1 (2,5 -0,78 µm);

Sorgente laser al biossido di carbonio: è una sorgente sintonizzabile che viene impiegata per il controllo
della concentrazione di inquinanti atmosferici, oppure per composti che possono dare assorbimento ma sono
in soluzioni acquose.
La sorgente fornisce circa 100 righe collocate tra 900 e 1100 cm-1, e nonostante la regione spettrale coperta
sia esigua, è di importanza rilevante in quanto proprio in questa regione assorbono sostanze come:
ammoniaca, butadiene, benzene, etanolo, ecc.

RIVELATORI

Rivelatori termici: sono in grado di rivelate tutte le lunghezze d’onda dell’IR, ad eccezione di quelle più
corte.
Il principio di funzionamento di questi dispositivi si basa sull’assorbimento della radiazione da parte di un
piccolo corpo nero. Allo scopo di tenere conto della variazione termica dell’intorno del dispositivo, tali

42
rivelatori sono incapsulati e schermati dalle emissioni provenienti da sorgenti di calore estranee. Per ridurre
ulteriormente tali effetti, il fascio di radiazioni viene ridotto ciclicamente da un chopper in modo che il
segnale dell’analita ha, dopo la trasduzione, la stessa frequenza del modulatore meccanico del fascio
(chopper) e può essere separato elettronicamente con facilità da segnali estranei che di solito sono presenti
sotto forma di bande larghe o che variano molto poco nel tempo.

Rivelatori a termocoppie : sono costituiti da una coppia di giunzioni ottenute unendo per fusione due pezzi
di un metallo (bismuto, antimonio..) alle estremità di uno diverso.
Tra le due giunzioni si stabilisce una differenza di potenziale che dipende dalla temperatura.
La giunzione viene annerita e sigillata in un contenitore sotto vuoto, provvisto di una finestra di materiale
trasparente alla radiazione infrarossa.
Il tempo di risposta è solitamente circa 30ms.
La giunzione di rifermento è generalmente collocata nello stesso contenitore della giunzione di misura è
deve essere totalmente schermata dalla radiazione incidente. Per aumentare la sensibilità del sistema si
possono collegare in serie più termocoppie ottenendo così una termopila

Il bolometro: è un termometro a resistenza costruito con delle strisce di nichel, platino o con
semiconduttori.
Questi materiali presentano una grande variazione della resistenza in funzione della temperatura. Nonostante
non siano dispositivi molto diffusi, un bolometro a germanio che lavora a 1,5K è il rivelatore ideale per
radiazioni comprese fra 5 e 400 cm-1 (LONTANO IR);

Rivelatore piroelettrico: vengono ottenuti da fette di monocristalli di materiale piroelettrico (materiali


isolanti con proprietà termiche ed elettriche particolari). Il solfato di triglicina deuterato è il materiale
maggiormente utilizzato.
Il suo funzionamento può essere ricondotto al funzionamento del condensatore nel quale la capacità dipende
dalla temperatura. Applicando un campo elettrico ai capi di un materiale dielettrico, si ha una
polarizzazione elettrica il cui valore è funzione della costante dielettrica del materiale; mentre per la
maggior parte delle sostanze questa polarizzazione indotta si annulla rapidamente rimuovendo il campo
elettrico esterno, le sostanze piroelettriche mantengono una polarizzazione elevata e dipende dalla
temperatura.
Pertanto interponendo un cristallo piroelettrico tra due elettrodi uno dei quali trasparente alla radiazione IR si
ottiene un condensatore che varia con la temperatura, se ora si varia la temperatura irradiandolo con una
radiazione infrarossa, si altera la distribuzione di carica attraverso il cristallo, e questa viene rivelata come
una corrente in un circuito esterno che collega le due armature.
Il valore di questa corrente è proporzionale all’area superficiale del cristallo e alla velocità della
variazione di polarizzazione con la temperatura.
I cristalli piroelettrici perdono la polarizzazione quando sono riscaldati alla temperatura della punto di
Curie, per il solfato di triglicina è 47°C;

Rivelatori a fotoconducibilità: sono costituiti da un film si solfuro di piombo (PbS) , o tellurio di cadmio e
mercurio (MCT e la formula è HgCdTe) sono sigillati in un involucro sotto vuoto per proteggere il
semiconduttore dall’aria.
L’assorbimento della radiazione da parte di questi materiali promuove degli elettroni di valenza ad una di
conduzione a più alta energia, diminuendo così la resistenza elettrica del semiconduttore.
Nel dispositivo il fotoconduttore è collegato in serie con un generatore ed una resistenza e la caduta di
tensione ai capi della resistenza è la misura della potenza del fascio di elettroni;

PREPARAZIONE DEL CAMPIONE


Nella spettroscopia IR la preparazione del campione è forse lo step più complicato a causa del fatto che molti
solventi assorbono nella zona IR e rendono difficile la variazione del cammino ottico e dell’assorbanza.

• Campioni gassosi: lo spettro di un liquido basso-bollente o di un gas può essere ottenuto facendo
espandere il campione in una cella cilindrica in cui sia stato fatto il vuoto, provvista di opportune

43
finestre. Dato che le concentrazioni in gioco sono molto basse, esistono celle riflettenti che fanno
percorrere alle radiazioni diversi passaggi nel campione prima di uscire dalla cella;
• Soluzioni: si possono preparare soluzioni a concentrazione nota dell’analita, tuttavia l’applicazione di
tale tecnica risulta piuttosto limitata dalla disponibilità di solventi trasparenti per ampi intervalli della
ragione infrarossa;
• Solventi: l’acqua e gli alcoli vengono usati raramente come solventi nella spettrometria infrarossa.
L’acqua presenta diverse bande di assorbimento intense nella regione infrarossa, l’acqua e gli alcoli
sciolgono anche gli alogenuri dei metalli alcalini di cui sono costituite le finestre della maggior parte
delle celle comuni, pertanto i solventi adatti per la spettrometria IR devono essere essiccati con molta
cura prima di essere usati con le celle comuni;
• Celle: poiché il solvente in genere assorbe, le celle per analisi di liquidi nell’IR hanno uno spessore
molto ridotto (0,01-1 mm), normalmente è richiesta una concentrazione relativamente alta a causa dei
bassi valori sia del cammino ottico delle celle che dell’assorbività molare della bande IR;

• Liquidi: si utilizzano celle costituite da un telaio metallico in cui si inseriscono 2 finestre (KCl o NaCl
per es.) trasparenti all’IR; un distanziatore di teflon produce una intercapedine sottile che viene riempita,
quando il telaio è serrato, mediante una siringa con pochi microlitri di soluzione o di sospensione. I
liquidi molto viscosi possono essere depositati come strato sottile direttamente sulle 2 finestre. Le
finestre di alogenuri alcalini non si possono utilizzare con solventi polari, che li scioglierebbero;
in questi casi si possono usare finestre di BaF2 o di AgCl, insolubili

Questa tecnica da buoni risultati qualitativi e non quantitativi a causa dell’irriproducibilità della misura;

• Solidi: i solidi non solubili vengono normalmente dispersi in un altro solido. Si può creare una pasticca
di KBr in un mortaio con pestello.
I Sali di alogenuri hanno caratteristiche di un flusso freddo in quanto mostrano trasparenza simile al
vetro o proprietà di traslucenza quando si applica una pressione sufficiente ai materiali finemente
polverizzati.
Questa tecnica prevede l’aggiunta di un milligrammo o meno del campione finemente suddiviso a
circa 100mg di KBr essiccato. Il mescolamento viene effettuato con un pestello in un mortaio e la
miscela ottenuta viene infine pressata in uno stampo speciale a 10.000 - 15.000 libbre per pollice
quadrato ottenendo così un dischetto trasparente.
Un altro metodo prevede l’utilizzo del cosiddetto mull; si tratta di disperdere il campione in un olio
minerale o in un idrocarburo fluorurato. I mull sono preparati macinando 2-5 g del campione finemente
polverizzato assieme a una o due gocce di un idrocarburo alifatico pesante come l’olio di vasellina
(NUJOL), alternativamente si può usare un polimero fluorurato. In entrambi i casi il mull ottenuto viene
esaminato dopo averlo pressato tra due dischetti di alogenuro alcalino.

44
SPETTROFOTOMETRO A TRASFORMATA DI FOURIER

La spettroscopia a trasformata di Fourier fu sviluppata dagli astronomi nel 1950 per studiare gli spettri
infrarossi provenienti dalle stelle lontane infatti, solo con la tecnica di Fourier si potevano isolare i segnali
dal rumore di fondo.

Gli strumenti in trasformata di Fourier presentano tre vantaggi:


1. Vantaggio di Jacquinot o di energia passante, dovuto al fatto che questi strumenti hanno pochi
strumenti ottici e nessuna fenditura che attenui le radiazioni, di conseguenza, la potenza di radiazione
che raggiungono il rivelatore è molto maggiore che negli strumenti dispersivi e si hanno dei rapporti
segnale rumore molti elevati.
2. Estrema accuratezza e precisione nella individuazione della lunghezza d’onda;
3. Vantaggio di Fellgett o di multiplex, che rappresenta la conseguenza dell’arrivo simultaneo al
rivelatore di tutte le radiazioni emesse dalla sorgente. Questa è una caratteristica importante perché
permette di ottenere l’intero spettro in un tempo molto piccolo , minore di 1 secondo.

Allo scopo di rendere più semplice questo argomento, supponiamo di acquisire uno spettro da 5000 a 500
cm-1 se acquisiamo ogni 3 cm-1 sarebbero necessarie 1500 acquisizioni per avere uno spettro. Se pensiamo
che per acquisire 3cm-1 servono 0.5 secondi si deduce che per lo spettro ne sono necessari 750 s (ovvero 12.5
minuti). Se volessimo più dettagli sullo spettro dovremmo acquisire ogni 1.5 cm-1, ma in questo caso il
tempo di acquisizione dell’intero spettro raddoppierebbe. Ma il problema non sarebbe solo questo, perche
questa riduzione porterebbe alla diminuzione del rapporto segnale rumore (dovuto all’uso di fenditure più
strette e quindi arrivo di segnali più deboli al trasduttore).

Sappiamo che il dove Sx e Nx sono il segnale e il rumore medi , infine n il numero di misure.
Da qui si deduce che per migliore il rapporto di un fattore 2 bisognerebbe mediare 4 spettri il che in
condizioni normali vuol dire impiegare 50 minuti.
La spettroscopia in trasformata di Fourier differisce dalle altre per il fatto che tutto lo spettro viene
acquisito contemporaneamente. Nei fatti l’intero spettro può essere registrato in 0.5 secondi e quindi nei 750
secondi richiesti per registrare uno spettro è possibile registrane circa 1500 in trasformata di Fourier, il che in
teoria porterebbe ad un miglioramento del rapporto segnale rumore di circa 39 volte.

Spettroscopia nel dominio delle frequenze: la spettroscopia comune può essere definita come spettroscopia
nel dominio delle frequenze, nel senso che i valori di potenza radiante sono registrati in funzione delle
frequenza.
Spettroscopia nel dominio del tempo: la spettroscopia nel dominio del tempo, che può essere ottenuta con la
trasformata di Fourier, è invece connessa ai cambiamenti della potenza radiante con il tempo. Quando una
sorgente emette diverse frequenze, lo spettro nel dominio del tempo registrerà le interferenze e si potranno
notare dei battimenti dovuti al fatto che le frequenze sono fuori fase. In generale la potenza del segnale
diminuisce nel tempo col susseguirsi dei cicli e quindi con il progressivo sfasamento.
Per ovviare a questo problema si può convertire lo spettro nel dominio del tempo in uno spettro nel dominio
delle frequenze tramite la seguente equazione:

P(t) = Kcos (2πν1t) + K cos(2πν2t)


Con K = cost t= tempo
Di solito si incorre anche in un altro problema cioè gli spettri nel dominio del tempo per radiazioni
nell’intervallo di frequenze da 1012 a 1015 Hz non possono essere acquisiti perché non esistono trasduttori in
grado di rispondere a variazioni di potenza a queste frequenze elevate. Allo scopo di ottenere degli spettri nel
dominio del tempo si rende necessaria una conversione (o modulazione ) del segnale ad altissima frequenza
in uno a frequenza misurabile senza alterare la relazione dell’energia con il tempo contenuta nel segnale.
Diverse sono le procedure impiegate per ottenere questo scopo nella “zona ottica” ad esempio viene
impiegato l’interferometro di Michelson.

45
INTERFEROMETERO DI MICHELSON

Si tratta di un dispositivo costituito da 2 specchi che suddivide un raggio di luce in 2 raggi diversi che, dopo
aver percorso cammini ottici diversi, vengono ricombinati e danno luogo a fenomeni di interferenza. Quando
la differenza di cammino ottico è pari ad un numero intero di λ allora l’interferenza è costruttiva, negli altri
casi è parzialmente o totalmente distruttiva. La figura di interferenza prodotta verrà inviata al campione dove
verrà selettivamente assorbita.
Lo schema seguente si riferisce ad un tipico spettrofotometro FT-IR equipaggiato con un interferometro di
Michelson; esistono anche altri sistemi interferometrici, più complessi:

Il raggio proveniente dalla sorgente colpisce uno specchio semitrasparente (un cristallo di KBr rivestito di
Ge), in modo che circa il 50% viene trasmesso allo specchio mobile 1 (che corre avanti indietro a velocità
costante) e circa il 50% viene riflesso allo specchio fisso 2. I raggi riflessi dai 2 specchi ritornano indietro,
intercettano di nuovo lo specchio semitrasparente e qui si ricombinano interferendo tra loro. La luce così
prodotta viene inviata attraverso il campione e quindi al rivelatore, dove viene trasformata in segnale
elettrico, che passa al sistema di elaborazione del segnale.
E’ abbastanza complesso comprendere il tipo di segnale prodotto. Infatti:
• se i 2 raggi percorrono la stessa distanza, la differenza di cammino ottico, detta ritardo δ (in sigla OPD,
Optical Path Difference), è zero e quindi si ha interferenza costruttiva, cioè i due raggi sono in fase. Si
verifica certamente quando lo specchio mobile si trova nella posizione iniziale (identica distanza di 1 e 2
dallo specchio semitrasparente 3)
• lo specchio 1 oscilla intorno alla posizione iniziale, accorciando o allungando con velocità costante la
distanza dallo specchio 3. Se i cammini dei due raggi differiscono di un numero intero di λ (δ = n·λ con n
= 0, 1, 2, ecc.) si ha nuovamente interferenza costruttiva e i due raggi si sommano
• se δ = (n + ½)·λ allora si ha interferenza totalmente distruttiva e i due raggi si annullano. In tutti gli altri
casi si ha interferenza parzialmente distruttiva.
Supponendo che il raggio di luce iniziale sia monocromatico ed immaginando per un momento di fare
arrivare la luce prodotta dalla interferenza direttamente al rivelatore, senza la presenza del campione, si
otterrebbe una figura di interferenza di tipo cosinusoidale, detta interferogramma, la cui intensità I(δ)
dipende dal ritardo δ ed in definitiva dalla posizione dello specchio nel tempo.
L’interferogramma ottenuto è correlato alla frequenza della luce monocromatica incidente sugli specchi
mediante la relazione:
dove: I(δ) è l’intensità della radiazione che giunge al rivelatore in funzione del ritardo ottico, δ è il ritardo
ottico, B(ν) è l’intensità luminosa della sorgente in funzione della frequenza emessa ν.
Pertanto, se lo spettro emesso dalla sorgente è rigorosamente monocromatico, cioè contiene una sola
frequenza ν1 (grafico a) la sua trasformazione in un interferogramma tramite il dispositivo di Michelson
produce una curva con l’andamento di una cosinusoide simmetrica rispetto al punto δ = 0, dove δ = 0 si ha
un massimo (interferenza costruttiva) che si ripete per δ = n·λ, cioè quando lo specchio mobile, durante il suo
continuo movimento, fa si che il ritardo corrisponda ad un numero intero di λ; negli altri casi si ha
interferenza distruttiva più o meno completa. La funzione cosinusoidale si ripete con un periodo pari a τ1.

46
Se invece viene emessa la frequenza ν2 (caso b) l’interferogramma conserva la forma cosinusoidale ma
cambia il periodo τ2 della funzione coseno e quindi l’interferogramma si presenta più stretto o più largo.
Se lo spettro di emissione della sorgente contiene due diverse frequenze ν1 e ν2 (caso c) si ottiene un
interferogramma più complesso e distorto a causa dell’interazione tra le due diverse radiazioni. Ogni
frequenza produce un diverso interferogramma, che differisce dall’altro per la distanza tra i massimi della
figura di interferenza. Il segnale che raggiunge il rivelatore è la somma delle due figure di interferenza
prodotte da ogni radiazione monocromatica.
Se infine la sorgente emette luce policromatica con frequenze comprese tra ν3 e ν4 (caso d) si ottiene un
interferogramma ancora più complesso poiché ogni frequenza produce un diverso interferogramma, che
differisce dagli altri per la distanza tra i massimi della figura di interferenza. Il segnale che raggiunge il
rivelatore è la somma di tutte le figure di interferenza prodotte da ogni radiazione monocromatica. Poiché nel
caso della sorgente policromatica l’interferogramma che si ottiene è la somma di tutte le figure di
interferenza prodotte dalla singole frequenze, l’interferogramma ottenuto è caratterizzato da un massimo
centrale, dove δ = 0, e quindi tutte le radiazioni interferiscono costruttivamente; tale massimo è detto
“centerburst”. Man mano che lo specchio mobile si allontana dalla posizione δ = 0 la differenza di cammino
ottico, cioè il ritardo δ aumenta e quindi le frange di interferenza diminuiscono di numero e di intensità.
Pertanto i massimi originati dall’interferenza costruttiva sono sempre meno intensi e si ottiene una figura
simile ad una oscillazione meccanica smorzata.
E’ importante comunque sottolineare che in qualsiasi caso la forma dell’interferogramma dipende dal
tipo di spettro di emissione: una singola frequenza produce la cosinusoide che costituisce
l’interferogramma e quindi si può dire che la figura di interferenza contiene tutte le “informazioni”
necessarie per ricostruire lo spettro della luce che l’ha prodotta.
Come nel caso della sorgente monocromatica, anche nel caso di sorgente policromatica la forma
dell’interferogramma è correlata alla forma dello spettro di emissione, cioè contiene tutte le informazioni
relative a quest’ultimo; ogni spettro policromatico emesso produce un proprio interferogramma.
Pertanto, come è possibile ottenere sperimentalmente un interferogramma dallo spettro di emissione della
sorgente, è possibile, mediante una opportuna elaborazione matematica, ricostruire lo spettro della sorgente a
partire dal suo interferogramma.

TRASFORMATA DI FOURIER
Se viene inserito il campione e la figura di interferenza prodotta dallo sorgente policromatica lo attraversa,
alcune frequenze verranno assorbite (quelle che sono in grado di provocare gli stretching ed i bending dei
legami molecolari); quindi l’interferogramma che arriva al rivelatore viene distorto ma la sua forma conserva
tutte le “informazioni” sia dello spettro emesso dalla sorgente sia dello spettro di assorbimento originato
nell’attraversamento del campione, e quindi permetterebbe l’analisi qualitativa del campione stesso.
Tuttavia gli interferogrammi sono molto difficili da interpretare. Per questo si utilizza la trasformata di
Fourier (FT - Fourier Trasformate): si tratta di un algoritmo, cioè di una sequenza di operazioni

47
matematiche, che permette la conversione di un interferogramma nel corrispondente spettro, tramite la
funzione:

dove B(ν) è l’intensità del segnale in funzione della frequenza ν. In pratica la FT permette di trasformare
l’interferogramma, che descrive la variazione di intensità del segnale in funzione del tempo (perché δ
dipende dalla velocità con cui oscilla lo specchio mobile) nel corrispondente spettro, che descrive la
variazione del segnale in funzione della frequenza o della lunghezza d’onda. Riassumendo:
• interferogramma: descrive come varia il segnale in funzione del tempo
• spettro: descrive come varia il segnale in funzione della frequenza della radiazione
La funzione integrale B(ν) relativa alla FT è complementare alla sua funzione integrale inversa I(δ) che
descrive l’interferogramma della luce policromatica; insieme costituiscono una coppia di Fourier.
Per registrare uno spettro con un apparecchio FT-IR si procede nel modo seguente:
• si registra prima l’interferogramma della sorgente, quindi l’apparecchio lo converte in spettro di
emissione della sorgente tramite la FT e lo memorizza
• si registra in seguito l’interferogramma del campione, quindi l’apparecchio lo converte in spettro di
assorbimento tramite la FT e lo memorizza
• infine l’apparecchio fa il rapporto tra lo spettro del campione e quello della sorgente, producendo il vero
e proprio spettro IR (trasmittanza in funzione del numero d’onda), lo stesso che si sarebbe potuto
registrare con un tradizionale apparecchio a dispersione

Tutto ciò è possibile solo mediante calcolatori piuttosto veloci e potenti,

SPETTROFOTOMETRI FT-IR
In ultima analisi un apparecchio FT-IR produce come risultato lo spettro IR del campione, esattamente come
è in grado di fare un apparecchio a dispersione. Tuttavia gli apparecchi FT-IR hanno quasi del tutto sostituito
quelli a dispersione, grazie ai seguenti vantaggi:
• l’acquisizione dei dati è molto rapida poiché un singolo spettro è rilevato in modo quasi istantaneo; in
pochi secondi l’apparecchio rileva 10-20 spettri e presenta come risultato la media dei valori, con
evidenti vantaggi riguardo all’eliminazione delle fluttuazioni casuali del segnale
• l’energia in arrivo al rivelatore è maggiore e quindi aumentano precisione ed accuratezza degli spettri
• non vi è luce diffusa
• non si verifica alcun effetto di riscaldamento del campione perché la sorgente è lontana

Gli apparecchi FT-IR sono più costosi degli apparecchi tradizionali, perché devono possedere:

48
• un sistema evoluto di elaborazione del segnale (un vero e proprio PC dedicato ed incorporato)
• un sistema laser che controlla con grande precisione in ogni momento la posizione dello specchio mobile
• un sistema che mantiene il perfetto allineamento dello specchio mobile, evitando vibrazioni o
basculamenti, cioè oscillazioni laterali dello specchio mobile

ANALISI QUALITATIVA IN IR
Lo spettro IR, molto ricco di bande, è particolarmente adatto all’analisi qualitativa di sostanze organiche,
cioè permette di fare delle ipotesi sulla struttura di un composto; è comunque da sottolineare che spesso
queste informazioni non sono conclusive ma devono essere abbinate ad altre fonti di indagine. Inoltre
permette di indagare la purezza di una sostanza: ogni molecola ha uno spettro IR che nel suo complesso non
è sovrapponibile con nessun altro.
3.1.18.1 - Identificazione dei gruppi funzionali
Il primo atto di questa indagine è la ricerca dei gruppi funzionali: lo stesso gruppo funzionale (per es. il
gruppo -O-H alcolico) presenta lo stesso tipo di bande indipendentemente dalla molecola in cui è inserito e la
loro posizione cambia poco a seconda dell’intorno chimico: è chiaro quindi che, dopo una preventiva analisi
per la determinazione della formula bruta, l’esame dello spettro IR della sostanza può subito confermare o
smentire la presenza di determinati gruppi funzionali. Ogni gruppo funzionale possiede quindi delle
frequenze caratteristiche, dette frequenze di gruppo. Si utilizzano apposite tabelle numeriche o grafiche
dove sono indicati gli assorbimenti caratteristici e di solito è anche specificata la forma e l’intensità dei
picchi corrispondenti alle frequenze di gruppo. In questa analisi è comodo suddividere la regione dello
spettro IR in varie zone:

• zona degli overtones: 4000-1500 cm-1 (2,5-6,6 μm) - bande deboli: in questo largo intervallo sono
presenti gli assorbimenti di “sovratono”, cioè le armoniche superiori di frequenze associate a legami che
assorbono in modo molto intenso (aromatici, gruppi carbonilici, ecc.); sono bande che hanno un’intensità
circa 1/10 di quella fondamentale e si trovano a circa il doppio della frequenza fondamentale
• zona A: stretching del legame H-X (X = N, O, C) - 3650-2500 cm-1 (2,74-4 μm) questo tipo di
vibrazione, poiché richiede energie elevate, rivela una costante di forza piuttosto elevata per questo tipo
di legame
• zona B: stretching dei legami tripli (C,C e C,N) - 2300-2100 cm-1 (4,35-4,76 μm) è la zona tipica di
assorbimento degli alchini (purché non simmetrici!) e dei nitrili
• zona C: stretching dei legami doppi (C=C, C= O, C=N, N=O) - 1800-1500 cm-1 (5,5-6,6 μm) assorbono
in questa zona anche gli aromatici, anche se alle frequenze più basse perché non si tratta di veri doppi
legami
• zona D: bending nel piano dei legami H-X - 1650-1300 cm-1 (6,06-7,7 μm) ovviamente per il bending è
richiesta una energia inferiore agli stretching
• zona E: stretching dei legami semplici X-Y diversi dall’idrogeno (sia X che Y possono essere N, O, C) -
1300- 700 cm-1 (7,7-14,3 μm). Come si vede, l’energia richiesta per lo stiramento dei legami diminuisce
dai tripli ai doppi a quelli semplici

49
• zona F: bending fuori dal piano dei legami H-X - da 100 cm-1 in giù (>10 μm). Si nota che il bending
fuori dal piano richiede energia minore di quello nel piano poiché vi è minor interazione col resto della
molecola
• zona dell’impronta digitale (fingerprint) - 1300-700 cm-1 (7,7-14,3 μm) in questa zona vi sono insiemi
di bande dovute alle “vibrazione dello scheletro molecolare”, tipici quindi di ogni molecola: permette
quindi di caratterizzare ulteriormente il tipo di composto presente nel campione.

INTERPRETAZIONE DI UNO SPETTRO IR


Non esiste una “ricetta” vera e propria, valida in tutte le situazioni, anche perché l’approccio al problema
dipende dall’esperienza di ciascuno. Verranno quindi fornite alcune indicazioni di base, anche perché lo
spettro IR è una delle tecniche per l’individuazione della sostanza ma spesso non è del tutto sufficiente:
permette di restringere il campo delle possibili ipotesi ma non sempre è conclusivo.
Informazioni preliminari: di solito è sbagliato esaminare subito le varie bande dello spettro IR perché si corre
il rischio di errori notevoli; è bene prima raccogliere il maggior numero possibile di informazioni
preliminari, tra cui:
• natura del campione: se è una miscela: in questo caso si rilevano tutti i gruppi funzionali; se la miscela è
formata da più di 2 sostanze, l’IR non può dare informazioni ulteriori, perché l’intensità delle bande
dipende dalle relative concentrazioni; se è di natura biologica è interessante conoscere la provenienza. Se
è una sostanza pura è opportuno conoscere il grado di purezza e gli eventuali inquinanti
• stato fisico: se il campione è liquido occorre tener presente che a causa della mobilità delle molecole,
non vengono registrate le possibili conformazioni singole della molecola e nello spettro compare una
media (per es. nel caso di tautomeria cheto-enolica, nello spettro compaiono le bande di entrambi i
tautomeri). Se è una soluzione occorre conoscere la situazione IR del solvente, perché anche lavorando
con un doppio raggio, alcune bande intense del solvente potrebbero essere egualmente registrate. Se è un
solido occorre tener presente che lo spettro IR potrebbe dipendere dalla forma cristallina e quindi
dall’eventuale polimorfismo. Se è gassoso lo spettro apparirà molto complesso, a causa della comparsa
delle bande vibrorotazionali. Se è colorato, significa che assorbe anche nel VS e quindi si può ipotizzare
la presenza di quei cromofori insaturi e coniugati caratteristici di questo assorbimento
• formula bruta e numero di insaturazioni: l’analisi elementare permette di stabilire la formula bruta del
composto. Da qui si può calcolare il numero di insaturazioni n.i. mediante:

dove C, N, H, X (alogeno) indicano il numero di atomi del rispettivo elemento. Per insaturazione si intende
ogni legame multiplo o anello presente nella molecola. Consideriamo alcuni esempi:
metanolo: CH4O n.i. = (1 - 4/2 + 1) = 0
benzene: C6H6 n.i. = (6 - 6/2 + 1) = 4 infatti vi sono 3 legami multipli più l’anello, ecc.
Questa informazione è utile per fare delle ipotesi sulla struttura della molecola, in abbinamento alle formula
bruta.
L’analisi dello spettro viene effettuato per l’individuazione dei gruppi funzionali presenti: ogni gruppo
funzionale infatti presenta bande a frequenze caratteristiche (frequenze di gruppo), indipendentemente
dall’intorno molecolare. Conoscendo l’analisi elementare del composto e quindi la sua formula bruta si
possono considerare solo le ipotesi significative.
L’esame dello spettro deve essere condotto in modo logico; si suggerisce questo approccio:
• esame orientativo per zone: si cercano sullo spettro le bande più intense caratteristiche dei vari gruppi
funzionali, partendo da sinistra a destra e suddividendo lo spettro nelle zone citate in precedenza. E’ da
rilevare che l’assenza di una banda è un forte indizio dell’assenza del relativo gruppo funzionale. In
questa analisi il parametro più importante è la posizione, mentre la forma e l’intensità sono meno
importanti perché possono variare in relazione alle condizioni di registrazione dello spettro (velocità
della carta, ecc.). L’individuazione delle bande principali nelle varie zone viene fatta mediante tabelle
numeriche o grafiche.
• esame dettagliato dello spettro: con le informazioni raccolte dall’esame orientativo dello spettro e quelle
preliminari, si è ormai abbastanza vicini alla struttura del composto; si cercano a questo punto bande
singole o sistemi di bande che diano conferma alle ipotesi, sempre seguendo le indicazioni in letteratura.
• conclusioni: è il momento di assemblare tutte le informazioni, giungendo a 2 o 3 ipotesi strutturali: a
questo punto conviene fare lo spettro IR dei composti ipotizzati puri e confrontarli nella loro globalità

50
(specie nella zona dell’impronta digitale) con quello del campione, individuando quello che si
sovrappone totalmente; eventuali ulteriori bande potrebbero indicare una impurezza nel campione.
Come esempio si riportano due spettri IR di composti chimici simili: il n-esano e l’1-esanolo:
lo spettro del n-esano mostra forti bande di assorbimento a 2900 cm -1 che sono il risultato dei movimenti di
stiramento (stretching) dei legami C-H. A 1460 cm-1 abbiamo il bending

Lo spettro infrarosso dell’1-esanolo illustra il caratteristico assorbimento di stretching O-H dell’alcol che
forma legami a idrogeno (una banda forte e larga a 3330 cm -1), e mostra inoltre l’assorbimento C-O a 1060
cm-1. A poco meno di 3000 cm-1 cade l’assorbimento di stretching del legane C-H. Si noti la presenza delle
bande a 1378 e a circa 1470 cm-1 già analizzate in precedenza.

APPLICAZIONI SPETTOFOTOMETRICHE IN IR
A titolo esemplificativo vengono citate alcune possibili applicazioni di questa tecnica:
• riconoscimento qualitativo di una sostanza organica e sua caratterizzazione strutturale
• determinazione quantitativa del benzene in una benzina (metodo delle aggiunte)
• ricerca qualitativa degli idrocarburi presenti nelle acque superficiali, preventivamente estratti con CCl4
• determinazione qualitativa dei detergenti nei detersivi commerciali
• caratterizzazione di polimeri e materie plastiche di ogni genere .

SPETTROMETRIA DI MASSA

La spettrometria di massa è una tecnica analitica estremamente versatile ed ampiamente utilizzata sia per
l’identificazione degli elementi presenti all’interno dei campioni che per la determinazione delle loro
concentrazioni.
Tale tecnica è basata sulla ionizzazione di una molecola e sulla sua successiva frammentazione in ioni di
diverso rapporto massa/carica (M/Z). Poiché nella spettrometria di massa la maggior parte degli ioni presenta
carica unitaria, il termine rapporto massa/carica viene semplicemente abbreviato in massa, anche se,
formalmente, questa asserzione risulta scorretta.

51
La spettrometria di massa ha acquisito, nel corso degli anni, una grande risonanza in quanto è in grado di
fornire informazioni riguardanti un grande numero di problemi analitici, fra i quali ricordiamo:
• La massa atomica ed i rapporti isotopici degli atomi di un elemento
• La composizione qualitativa e quantitativa di analiti in miscele complesse
• La struttura di specie molecolari complesse (polimeri, proteine, ormoni, ecc.)
• La struttura e la composizione di superfici solide
Nonostante ciò, la spettrometria di massa presenza taluni inconvenienti fra i quali ricordiamo:
• il metodo d’analisi è distruttivo;
• i costi strumentali elevati se paragonati alla strumentazione ottica;
• la deriva dello strumento che può essere il 5-10% l’ora.
PRINCIPI GENERALI
Il principio su cui si basa la spettrometria di massa coinvolge le seguenti fasi:
1) l’atomizzazione,
2) la formazione degli ioni (solitamente cationi monovalenti),
3) la loro analisi in funzione del rapporto massa/carica,
4) la loro rivelazione.
Il risultato dell’esperimento è lo spettro di massa, il quale può essere considerato un grafico in cui nelle
ascisse sono riportati i valori m/z e nelle ordinate le abbondanze, generalmente espresse in unità di
conversione analogico-digitale, o in sottomultipli di ampere, o in intensità relative al picco abbondante.
E’ importante ricordare alcune definizioni:
• Unità di massa atomica (u): è definita come la 12 parte (1/12) dalla massa di un atomo di 12C, al quale
viene assegnata una massa di 12 Da oppure 12 uma. Si indica talvolta con il simbolo Da (Dalton) oppure
in uma(unità di massa atomica).
• Numero di carica (z): è un numero intero che esprime il rapporto tra la carica dello ione e la carica
dell’elettrone (e).
• Massa molecolare relativa (Mr): il rapporto della massa di una molecola con l’unità di massa atomica u.
• Rapporto massa/carica (m/z): il rapporto tra la massa atomica o molecolare (m) di uno ione e la sua
carica elettrica (z). Si esprime di solito come massa molecolare relativa divisa per il numero di carica. È
la grandezza misurata in spettrometria di massa. Si indica talvolta con il simbolo Th (Thomson).
• Massa nominale: la massa molecolare di quella molecola calcolata prendendo per ogni elemento il peso
dell'isotopo più abbondante in natura, approssimato alla cifra intera più vicina.

MOTO DEGLI IONI IN UN CAMPO MAGNETICO (Principio Fisico)


1
T = zeV = mv 2
Energia traslazione di uno ione di massa m e di carica : En.Cin= 2 dove z
rappresenta la carica dello ione, e quella dell’elettrone ,mentre V
rappresenta il potenziale applicato tra due punti in cui è immersa la carica e “v” rappresenta infine la velocità
quest’ultima.
Avendo supposto che in precedenza la totalità degli ioni, sono accelerati dal campo zeV allo stesso modo è
possibile calcolare il bilancio di forze che insiste, punto per punto, sul settore magnetico, luogo dove
vengono separati gli ioni aventi rapporti m/z diversi.
FM = Bzev
La forza magnetica generata dal magnete, ortogonale al piano del settore è pari a
dove con B si intende il valore del campo magnetico; 2
Alla forza magnetica si contrappone, punto per punto, la forza centrifuga pari FC = mv a dove con
“r” indichiamo il raggio di curvatura che compie la carica . r

Per cui in condizioni di equilibrio potremmo dire che le due forze appena elencate siano alla uguali:
Fc = Fm
Dal confronto di quest’ultima con l’energia cinetica è possibile ricavare il valore di m/z, su cui noi basiamo i
principi di separazione degli ioni analizzati ,ovvero :
mv 2 Bzer B 2 r 2e
Bzev =  v=  m z=
r m 2V
52
STRUMENTAZIONE
Uno spettrometro di massa è uno strumento che produce ioni e li separa in base al rapporto
massa/carica, m/z. La maggior parte degli ioni dei quali ci occuperemo è a singola carica. Per cui tale
rapporto è uguale al numero di massa dello ione.
Sebbene i principi su cui si basa la spettrometria di massa sono semplici e facilmente comprensibili, non
altrettanto semplice e comprensibile risulta lo strumento, infatti uno spettrometro di massa è uno strumento
complesso, sia nella meccanica e sia nell’elettronica di gestione, e anche molto costoso.
Un generico spettrometro di massa può essere così schematizzato:
• Sistema di introduzione del campione: la funzione di tale sistema è quella di immettere in una sorgente
di ioni una quantità di campione estremamente piccola, i cui componenti verranno trasformati dal suo
stato originario (solido, liquido o gas) in ioni gassosi per bombardamento con elettroni, fotoni, ioni o
molecole; la ionizzazione può anche essere effettuata termicamente o elettricamente.

• Camera di ionizzazione: il campione viene ionizzato in ioni gassosi, in cui il fascio di elettroni viene
prodotto da una sorgente ionica che varia a seconda della tecnica utilizzata.

• Analizzatore di massa: è un dispositivo che separa gli ioni gassosi in base al loro rapporto m/z, nello
spazio (ossia deviandoli su diverse traiettorie) o nel tempo (ossia facendo loro percorrere la stessa
traiettoria in tempi diversi).

• Trasduttore (rivelatore): è un dispositivo che consente di misurare la quantità di ioni che emergono
dall’analizzatore di massa, convertendone l’energia cinetica in corrente elettrica.

• Sistema di controllo e di acquisizione del segnale: controlla l’introduzione del campione, le modalità di
ionizzazione, i parametri di lavoro dell’analizzatore e registra il segnale acquisito dal rivelatore.

• Sistema da vuoto: deve avere un’efficienza sufficiente a ridurre la pressione del campione in ingresso da
1 atm a quella richiesta nell’analizzatore. Infatti, una caratteristica importante degli spettrometri di massa
è la necessità di un sistema ad alto vuoto che mantenga bassi valori di pressione in tutte le componenti
del sistema. La pressione che deve essere mantenuta è dell’ordine di 10-6/10-8 Torr, la quale
assicura sia che le collisioni nello spettrometro di massa siano rare in modo da produrre e
mantenere ioni liberi.

53
SISTEMA DI INTRODUZIONE DEL CAMPIONE
Lo scopo del sistema di introduzione è di consentire di immettere nella sorgente di ioni la minima quantità
necessaria di campione senza causare perdite significative di vuoto. La maggior parte degli spettrometri si
basa sui seguenti metodi:
• Sistemi di introduzione a carica
• Introduzione diretta a sonda
• Sistema di introduzione cromatografica e di elettroforesi capillare
Sistemi di introduzione a carica (liquidi e gassosi con punti di ebollizione fino a circa 500°C) :
Nel caso di campioni gassosi si riempie di gas un piccolo volume all’interno di un zona di misura compresa
fra due valvole e lo si fa espandere nel serbatoio.
Nel caso di campioni liquidi, quest’ultimi vengono introdotti nel serbatoio mediante una micro siringa. Il
campione viene successivamente vaporizzato e immesso nella zona di ionizzazione attraverso uno o più fori
microscopici praticati in un diaframma di vetro o di metallo. Il sistema di introduzione è spesso rivestito
internamente in vetro per evitare perdite di analiti polari per adsorbimento.
In generale quindi, il campione segue i seguenti trattamenti :
1) il campione viene dapprima volatilizzato
2) quindi inviato nella zona ad alto vuoto, dove subirà il processo di ionizzazione.

Si possono distinguere due diverse possibilità di introduzione del campione in funzione del metodo di
vaporizzazione:
• la prima prevede di gassificare il campione liquido in un opportuno forno;
• la seconda prevede tramite un serbatoio ed opportune valvole di introdurre il campione gassoso nel
sistema di ionizzazione. E’ interessante osservare che in ogni caso il sistema di vuoto dello strumento
deve ridurre la pressione del campione da 10 -4 a 10-5 torr. E’ ovvio che nel caso in cui il punto di
ebollizione fosse maggiore di 150°C, allora si renderebbe necessario riscaldare serbatoio e tubazioni
utilizzando dei forni e dei nastri riscaldanti.
Sistemi di introduzione a sonda diretta in sorgente (solidi e liquidi non volatili):
Il campione viene inserito all’interno di un portacampione o di una sonda, che viene inserita attraverso una
apertura a tenuta di vuoto. Ovviamente il sistema di chiusura è progettato in modo da ridurre al minimo il
volume di aria che deve essere evacuato dopo l’introduzione del campione. Il campione viene caricato sulla
sonda ponendolo sulla superficie di un tubo capillare in vetro o in alluminio, oppure caricato su un filo sottile
o ancora in una barchetta, il quale poi viene inserito all’interno della camera di ionizzazione. Da un
confronto dei due sistemi illustrati si evince che questo secondo utilizza minori quantità di campione.

54
Sistemi di introduzione cromatografici e di elettroforesi capillare:
gli spettrometri di massa vengono spesso abbinati a sistemi cromatografici come GC, HPLC oppure a unità
di elettroforesi capillare per consentire la separazione e determinazione dei componenti di una miscela
complessa.
Le caratteristiche di un rivelatore ms per cromatografia sono:
1. Non alterare la risoluzione cromatografica, ossia non produrre nel rivelatore una miscela dei composti
separati.
2. Avere la massima sensibilità possibile.
3. Essere universale, cioè rivelare tutti i composti eluiti.
4. Fornire quante più informazioni possibile sulla struttura dei composti eluiti, per permetterne
l’identificazione.
5. Essere selettivo, cioè consentire l’identificazione dell’analita in miscela.
6. Dare un segnale proporzionale alla concentrazione.
7. Avere un fattore di risposta costante, o quantomeno prevedibile.
8. Non danneggiare i prodotti.
9. Non produrre artefatti.
10. Consentire la deconvoluzione dei picchi cromatografici, ossia la scomposizione dei picchi non risolti nei
solo componenti.
11. Avere il più basso rapporto costi/prestazioni possibile.
GC/MS a iniezione diretta

IONIZZAZIONE DEL CAMPIONE

La ionizzazione del campione rappresenta il punto di partenza di un’analisi spettrometrica. L’aspetto dello
spettro di massa ottenuto relativo ad una data specie molecolare dipende in modo significativo dal metodo
impiegato per la formazione degli ioni. Da un punto di vista storico gli ioni necessari per le analisi di massa
venivano prodotti per bombardamento con elettroni ad alta energia. Nonostante alcuni svantaggi questa
tecnica è ancora la più importante, visto che con essa sono stati ottenuti la maggior parte degli spettri di
massa presenti in letteratura.
In funzione delle modalità di ionizzazione è possibile suddividere le sorgenti ioniche in due grandi categorie:

• Sorgenti a fase gassosa: il campione viene prima vaporizzato e poi ionizzato. Rientrano all’interno di
questa categoria:
1. l’impatto elettronico (EI),
2. la ionizzazione chimica (CI)
3. la ionizzazione di campo(FI)
Le sorgenti a fase gassosa sono limitate alla ionizzazione di campioni termicamente stabili che hanno punti
di ebollizione al di sotto di 500°. Nella maggior parte dei casi, questo requisito limita l’uso delle sorgenti
gassose a composti con masse molecolari minori di 103 Da

• Sorgenti a desorbimento: il campione allo stato solido o allo stato liquido, viene convertito direttamente
in ioni gassosi. Rientrano all’interno di questa categoria:
1. il desorbimento di campo (FD)
2. la ionizzazione per elettrospray (ESI)
3. desorbimento a plasma (PD),
4. il bombardamento con atomi veloci (FAB).
55
Un vantaggio di queste sorgenti, consiste nel fatto che esse sono applicabili a campioni non volatili e
termicamente instabili.
Le sorgenti di desorbimento, che non richiedono la volatilizzazione della molecola dell’analita, sono
applicabili ad analiti aventi masse molecolari fino a 105 Da.
Le sorgenti ioniche sono classificate, in funzione dell’energia che quest’ultime impartiscono alle molecole,
in:
• Sorgenti hard: forniscono un’energia sufficiente a lasciarle in uno stato fortemente eccitato; il
rilassamento, quindi, implica la rottura di legami e la produzione di ioni frammento con rapporti m/z
minori rispetto allo ione molecolare (EI);
• Sorgenti soft: producono una piccola frammentazione, per cui lo spettro di massa che ne deriva spesso è
formato dal picco dello ione molecolare, mentre gli altri picchi sono pochi o assenti. (CI,
FD,PD,MALDI,ESI,Fotoionizzazione).
Entrambi i tipi di spettri sono utili per l’analisi. I numerosi picchi di uno spettro a sorgenti hard
forniscono informazioni riguardo i tipi di gruppi funzionali che formano una molecola, mentre gli spettri
a sorgente soft forniscono una accurata informazione sulla massa molecolare della molecola o delle
molecole dell’analita.
SORGENTE AD IMPATTO ELETTRONICO (EI)

In questo processo, il campione viene portato a temperatura elevata da produrre un vapore molecolare, che
viene poi ionizzato bombardando le molecole risultanti mediante un fascio di elettroni energetici. Gli
elettroni vengono emessi da un filamento riscaldato di tungsteno o renio, ed accelerati da un potenziale di
circa 70 V applicato tra il filamento e l’anodo. Come mostrato in figura, i cammini degli elettroni e delle
molecole sono ad angolo retto tra loro e si intersecano al centro della sorgente, dove hanno luogo le
collisioni e la ionizzazione. I prodotti primari della ionizzazione sono ioni positivi a carica unitaria, che si
formano quando gli elettroni ad alta energia si avvicinano alle molecole tanto da causare la perdita degli
elettroni per repulsione elettrostatica. La ionizzazione a impatto elettronico non è un processo molto
efficiente e solo una molecola su un milione subisce la reazione primaria:
M + e- → M•+ + 2e-
Dove M rappresenta la molecola dell’analita e M•+ il suo ione radicale molto instabile (ha un numero dispari
di elettroni) e può dare reazioni di decomposizione che danno origine agli ioni frammento.
Gli ioni generati per impatto con gli elettroni vengono attirati, da una piccola d.d.p. (5V), attraverso la
fenditura della prima lamina nella zona di accelerazione, dove sono soggetti ad un potenziale di 10 3-104 V
per raggiungere le loro velocità finali prima di entrare nell’analizzatore di massa.
Per ottenere un numero significativo di ioni gassosi ad una velocità riproducibile è necessario accelerare gli
elettroni, provenienti dal filamento e diretti in sorgente, impiegando un potenziale maggiore di circa 50V. A
causa della piccola massa e della notevole energia cinetica degli elettroni, si osserverà un piccolo aumento
dell’energia traslazionale delle molecole colpite, che però vengono promosse a stati vibrazionali e
rotazionali eccitati. Il rilassamento da questi stati eccitati produce una estesa frammentazione. (ioni figli
di carica positiva).

56
Queste sorgenti sono comode da usare perché danno origine ad elevate correnti ioniche, permettendo così di
ottenere una buona sensibilità.
L’estesa frammentazione costituisce un innegabile vantaggio, perché permette di individuare i possibili
analiti, però nei fatti si traduce in un svantaggio in quanto non è possibile avere il picco molecolare, cosicché
risulta impossibile determinare il peso molecolare del campione.
Un’altra limitazione di queste sorgenti è legata alla necessità di avere il campione allo stato gassoso,
l’aumento di temperatura richiesto per questa operazione potrebbe portare alla degradazione termica di
alcuni analiti, prima che gli stessi siano ionizzati. Questi problemi possono essere minimizzati utilizzando
una sonda riscaldata posta in prossimità della fenditura di entrata dello spettrometro. Con
quest’accorgimento considerando la pressione bassa presente nello strumento, la volatilizzazione avviene a
temperatura più bassa e il sistema ha minor tempo per decomporsi. Questa tipologia di sorgente va bene
per analiti aventi masse inferiori a 1000 Dalton.

SORGENTE A IONIZZAZIONE CHIMICA (CI)

Nella ionizzazione chimica le molecole gassose del campione, provenienti da un sistema di introduzione a
carica o a sonda, vengono fatte collidere con ioni ottenuti bombardando con degli elettroni un gas presente
in grande quantità nella sorgente. In questo modo questi ioni vengono fatti collidere con le molecole di
nostro interesse per produrre gli ioni necessari per la loro rivelazione.
Allo scopo di avere una buona ionizzazione chimica è importante che nella zona di ionizzazione :
• la pressione del gas sia di circa 1 torr
• mentre nell’analizzatore la pressione deve essere inferiore a 10 -5 torr.
Sebbene siano generalmente impiegati ioni positivi, si utilizza talvolta la ionizzazione chimica con ioni
negativi nel caso di campioni che contengano atomi molto elettronegativi.
Uno dei reagenti più comuni è il metano, che reagisce con elettroni ad alta energia per dare numerosi ioni,
secondo le seguenti reazioni:
CH4+ + CH4 → CH5+ + CH3 (IL GAS DA SE PRODUCE QUESTI TIPI DI IONI)
CH3+ + CH4 → C2H5+ + H2
CH5+ + MH → MH2+ + CH4 (IL GAS POSITIVO TRASFERISCE GRUPPI CARICHI)
C2H5+ + MH → MH2+ + C2H4
C2H5+ + MH → M+ + C2H6 (O ESTRAE IONI IDRURO DALL’ANALITA)

Lo ione generato può avere massa MH+1, MH-1(trasferimento Idruro) o anche M+29 (+C2H5).
Il rapporto realizzato dal metano nella zona di ionizzazione è tale che :
• reagente /campione = 103-104, cosicché il fascio di elettroni reagisca quasi esclusivamente con le
molecole del reagente.

57
Per la ionizzazione chimica si utilizzano anche numerosi altri reagenti, tra cui il propano, l’isobutano e
l’ammoniaca ognuno dei quali fornisce uno spettro caratteristico, leggermente diverso per un dato analita.

La maggior parte degli strumenti commerciali è costruita in modo da poter effettuare sia la ionizzazione per
impatto elettronico sia la ionizzazione chimica. Tali sorgenti sono chiamate sorgenti EI-CI.

SORGENTE A IONIZZAZIONE DI CAMPO (FI)

Nelle sorgenti a ionizzazione di campo, gli ioni vengono prodotti per azione di un intenso campo elettrico
(106 V/cm), applicando potenziali elevati, da 10 a 20 KV, a particolari emettitori costituiti da aghi di
diametro di 1micrometro. Ciascun emettitore è costituito da un filo di tungsteno (10micrometri) sul quale
sono stati fatti crescere, per pirolisi del benzonitrile in un elevato campo elettrico, microscopici dendriti o
baffi di carbonio, aventi diametro inferiore al mm. Il campo elettrico è concentrato attorno le punte
dell’emettitore e la ionizzazione procede attraverso effetto tunnel, con l’estrazione degli elettroni dai
microaghi dell’anodo. Poiché all’analita viene impartita una piccola energia rotazionale e vibrazionale,
viene prodotta una piccola frammentazione.
• Una limitazione della ionizzazione di campo è la sua sensibilità, che è almeno di un ordine di grandezza
inferiore a quella delle sorgenti a impatto elettronico;
• le correnti massime sono dell’ordine di 10-11 A.
SORGENTE A DESORBIMENTO DI CAMPO (FD):

Nel desorbimento di campo viene utilizzato un emettitore ad aghi


multipli simile a quello utilizzato nella ionizzazione di campo. In
questo caso l’elettrodo viene montato su una sonda che può essere
rimossa dallo scomparto porta campione e rivestita con uno strato
di soluzione del campione.
La ionizzazione viene prodotta per mezzo dell’applicazione a
questo elettrodo di un potenziale elevato. Con alcuni campioni è
necessario riscaldare l’emettitore facendolo attraversare da una
corrente, nel qual caso potrebbe verificarsi una degradazione termica prima che la ionizzazione sia
completa.
IONIZZAZIONE PER DESORBIMENTO LASER ASSISTITA SU MATRICE (MALDI)

E’ un metodo di ionizzazione che può essere usato per ottenere informazioni sulla massa molecolare di
biopolimeri polari ad alto peso molecolare.
1) Una bassa concentrazione di analita viene dispersa uniformante in una matrice solida o liquida depositata
sull’estremità di una sonda di acciaio inox o su un piatto metallico.
La matrice deve possedere determinate caratteristiche chimico-fisiche, tra le quali:

58
• deve essere facilmente evaporabile, ma tale evaporazione non deve essere significativa durante la
preparazione del campione o prima dell'effettuazione delle misurazioni;
• deve avere un certo carattere acido in modo da fungere da fonte di protoni incoraggiando la
ionizzazione dell'analita;
• possedere un forte assorbimento ottico nella regione UV, tale che le permetta di assorbire la
radiazione laser in modo efficiente;
• deve infine possedere gruppi polari ed essere idrosolubile.
2) Il piatto viene poi messo in una camera sottovuoto e si focalizza sul campione un fascio laser. La matrice
e l’analita vengono poi desorbiti e ionizzati, originando un “pennacchio” di ioni.
Sebbene non sia completamente chiaro il meccanismo di formazione del pennacchio, si pensa che esso
implichi l’assorbimento del fascio laser da parte della matrice, seguita dal trasferimento di energia
dalla matrice all’analita. In seguito si verifica il desorbimento dell’analita e della matrice. Si pensa che
l’analita desorba come molecola neutra e poi venga ionizzato da reazioni di trasferimento protonico con
gli ioni della matrice protonata in una fase densa della superficie contenete la matrice. Gli ioni della
matrice protonata possono essere prodotti da una serie di reazioni fotochimiche. I laser usati sono:
azoto (337nm), eccimero (308 nm).
La tecnica MALDI è normalmente condotta sotto vuoto (10-3 torr o meno di pressione), ma è possibile anche
lavorare a pressione ambiente (AP-MALDI) perdendo però sensibilità e restringendo l'intervallo di
rilevabilità.

IONIZZAZIONE PER ELETTROSPRAY (ESI)


Avviene a temperature e pressioni atmosferiche;
1. la soluzione di analita viene pompata attraverso un ago capillare di acciaio inox ad una velocità di
pochi microlitri al minuto. L’ago viene mantenuto a vari KV rispetto ad un elettrodo cilindrico che
circonda l’ago.
2. Contemporaneamente la soluzione di analita incontra un flusso di gas; la combinazione delle forze
di taglio generate dal gas e dal campo elettrico presente consente alla soluzione di uscire
attraverso un capillare sottoforma di minutissime goccioline. Si ottiene così uno spray fine di
goccioline cariche sulla superficie per azione dei campi elettrostatici.
3. Successivamente lo spray viene fatto passare attraverso un capillare desolvatante, in cui avvengono
l’evaporazione del solvente e l’attaccamento della carica alle molecole di analita. Quando le
goccioline diventano più piccole, per effetto dell’evaporazione del solvente, la loro densità di carica
superficiale diventa maggiore fino a che, ad un punto detto limite di Raylegh, la tensione
superficiale non riesce più a sopportare la carica, e si verifica la cosiddetta esplosione
coulombiana e ogni goccia si squarcia suddividendosi in goccioline più piccole.
Un vantaggio di tale sorgente è la ridotta frammentazione di biomolecole grandi e termicamente labili, che si
verifica come conseguenza della scarsa energia supplementare trattenuta dall’analita.

SORGENTI A BOMBARDAMENTO CON ATOMI VELOCI (FAB)


Specie ad alto peso molecolare e poco stabili termicamente, possono essere studiati con questo tipo di
sorgente.
1. I campioni allo stato condensato, spesso inseriti all’interno di una matrice costituita da una soluzione
viscosa (glicerina),
59
2. Il fascio di atomi veloci viene ottenuto facendo passare ioni accelerati di argo o xeno, provenienti da un
cannone di ioni o sorgente, attraverso una camera contenente argo a pressione di circa 10 -5 torr. In questo
modo, gli ioni accelerati subiscono una reazione di scambio elettronico di risonanza con gli atomi senza
perdita di energia traslazionale.
Con questo sistema si ottiene un fascio di atomi energetici. Infatti, gli ioni di più bassa energia prodotti
durante la reazione di scambio vengono rimossi impiegando un deflettore elettrostatico.
3. vengono ionizzati per bombardamento con atomi ad alta energia (parecchi KeV) di xeno e argo. Nel
processo di desorbimento vengono espulsi dalla superficie ioni sia positivi che negativi .

Questa tecnica consente un riscaldamento del campione estremamente rapido, riducendone la


frammentazione. La matrice liquida nei fatti, aiuta a ridurre l’energia reticolare l’ottenimento dello ione
dalla fase condensata. Tra le matrici più adoperate ricordiamo il glicerolo, il tioglicerolo, l’alcol
nitrobenzilico, gli eteri corona, il solforano ecc.
ANALIZZATORI DI MASSA

Gli analizzatori di massa sono dei dispositivi in grado di separare ioni con rapporti massa/carica differenti.
In linea teorica un analizzatore di massa dovrebbe essere in grado di distinguere anche differenze minime di
massa e di consentire il passaggio ad un numero di ioni sufficiente a fornire correnti ioniche facilmente
misurabili. Tuttavia questi due requisiti non sono del tutto compatibili, ragion per cui nella progettazione
devono essere raggiunti dei compromessi.
Le caratteristiche di un analizzatore di massa sono:
• Intervallo di m/z: Stabilisce la massa più piccola e la massa più grande (m/z ) degli ioni che
l’analizzatore è in grado di selezionare (Stabilisce l’applicabilità della metodica ad un determinato
problema analitico).

• Potere risolutivo: indica la capacità di un analizzatore di distinguere due ioni con rapporti m/z simili tra
loro (determina le prestazioni nell’analisi qualitativa).
• Efficienza di trasmissione: percentuale degli ioni selezionati che raggiungono il rivelatore dopo avere
attraversato l’analizzatore, senza venire dispersi (determina le prestazioni nell’analisi quantitativa).

• Risoluzione : La capacità di uno spettrometro di massa di differenziare le masse è espressa in termini di


risoluzione R, definita come:
R = m/Δm
dove Δm è la differenza di massa tra due picchi adiacenti risolti e m è la massa nominale del primo
picco (o la media delle masse dei due picchi).
Due picchi si considerano risolti se l’altezza della valle tra di essi è inferiore ad una certa percentuale
dell’altezza del picco meno intenso (di solito il 10%).
Uno spettrometro con una risoluzione di 4 000 risolverà due picchi con valori di m/z 400,0 e 400,1 (o di
40,00 e 40,01). Gli spettrometri commerciali hanno R che variano circa tra 500 e 500 000.

60
Gli analizzatori di massa vengono classificati in:
• A settore magnetico
• A doppia focalizzazione
• A quadrupolo (lineare)
• Trappola ionica a quadrupolo
• A tempo di volo
Analizzatore a settore magnetico (focalizzazione semplice)
Gli analizzatori a settore magnetico impiegano un magnete
permanente o un elettromagnete per deviare il fascio di ioni
provenienti dalla sorgente lungo una traiettoria circolare di 180°,
90° o 60°.
Gli ioni di masse differenti possono essere selezionati alla
fenditura di uscita variando opportunamente l’intensità del
campo magnetico e del potenziale di accelerazione elettrico tra le
due fenditure.
Di conseguenza, per un certo valore della coppia B e V esisterà
un solo valore di massa m, per cui il raggio di deflessione r
coincide con il raggio di curvatura del tubo r'.
B 2 r 2e
Gli ioni che hanno questo valore di massa escono dal tubo, gli m z=
altri no. 2V
Taratura strumento: gli strumenti sono tarati (si usano dei perfluorocheroseni) in modo che a ciascun valore
di campo corrisponda un certo valore di massa. In questo modo la corrente ionica è registrata in funzione non
del campo B, ma della massa m.
1. a potenziale V costante
2. effettuando una scansione di campo B è possibile fare uscire dal tubo gli ioni a diversa massa in tempi
diversi.
3. Gli ioni che escono dal tubo vengono raccolti da un fotomoltiplicatore, che traduce l’intensità degli ioni
in corrente elettrica.
4. Si ottiene così lo spettro di massa, che è un istogramma che riporta in ascisse i valori di massa crescente
(gli strumenti sono tarati in genere da 30 a 1000 uma) e in ordinate la corrente ionica.
Gli strumenti a settore magnetico sono denominati anche a focalizzazione semplice. Si utilizza questa
terminologia, poiché il campo magnetico agisce sul fascio di ioni, che emergono dalla sorgente con lo stesso
rapporto m/z, ma con una distribuzione delle energie traslazionali leggermente diversa. Questa
distribuzione delle energie è funzione della distribuzione di Maxwell- Boltzmann delle energie cinetiche
delle molecole, dalle quali derivano gli ioni e dalla disomogeneità del campo nella sorgente. La
dispersione delle energie cinetiche produce un allargamento del fascio che raggiunge il rivelatore e quindi
una diminuzione della risoluzione. Per potere attraversare la fenditura, gli ioni devono avere una
determinata velocità.
Quindi, per aumentare la risoluzione si può accoppiare un analizzatore elettrostatico, che non è un
analizzatore di massa, ma un filtro di velocità.

61
Analizzatori a doppia focalizzazione:
Per ovviare ai problemi di sensibilità di analisi dell’analizzatore a focalizzazione semplice, è stato introdotto
l’analizzatore a doppia focalizzazione. In questi dispositivi vengono minimizzati simultaneamente le
aberrazioni direzionali e energetiche di una popolazioni di ioni.
Negli strumenti a doppia focalizzazione il fascio ionico viene fatto passare attraverso un analizzatore
elettrostatico, costituito da due lamine metalliche curve e lisce alle quali viene applicato un potenziale a
corrente continua. Questo potenziale ha la funzione di circoscrivere l’energia cinetica degli ioni che
raggiungono il settore magnetico entro un determinato intervallo, infatti, gli ioni con energie minori o
maggiori colpiscono, rispettivamente, la lamina superiore e la lamina inferiore, venendo scaricati
E’ importante sottolineare che l’analizzatore elettrostatico non è un analizzatore di massa, ma un filtro
di velocità, per cui viene utilizzato in combinazione con un analizzatore di massa per aumentarne la
risoluzione.
Esempi di applicazione degli analizzatori a focalizzazione sono:
• lo spettrometro di Nier-Johnson (Figura 1)
• lo spettrometro di Mattauch-Herzog (Figura 2).

Figura 1

Figura 2

A causa della particolare geometria, unica


in questo strumento, i piani focali delle
energie e delle direzioni coincidono. In
questo caso è possibile registrare
simultaneamente su una lastra fotografica
tutte le masse.

Analizzatore a quadrupolo:
L’analizzatore a quadrupolo è quello più utilizzato nei più moderni spettrometri massa. Tale dispositivo è più
compatto, meno costoso e più robusto rispetto alla maggior parte degli altri tipi di analizzatori. Inoltre
presenta il vantaggio di elevate velocità di scansione che permettono di ottenere un intero spettro di
massa in tempi brevi.

L’analizzatore è costituito da quattro barre cilindriche parallele che fungono da elettrodi.


• Le barre opposte sono collegate elettricamente tra loro, una coppia al polo positivo di un generatore
variabile in corrente continua e l’altra coppia al polo negativo;
• inoltre, ad ogni coppia di barre è applicato un potenziale variabile in corrente alternata a radiofrequenze,
con uno sfasamento di 180°.
Gli ioni vengono accelerati all’interno dello spazio delimitato dalle 4 barre applicando una d.d.p. da 5 a 10V,
mentre i potenziali sulle barre, in corrente continua e in corrente alternata, vengono aumentati
simultaneamente mantenendo costante il loro rapporto. In un determinato istante si avrà che tutti gli ioni,
62
tranne quelli con un cero valore m/z, colpiranno le barre e verranno convertiti in molecole neutre; pertanto,
solo gli ioni il ci valore m/z è compreso in un ristretto intervallo raggiungeranno il rivelatore.

Il campo elettrico all’interno del quadrupolo


Al centro del quadrupolo lo ione si trova in un potenziale elettrico a
sella, che ruota alla frequenza del campo a RF. L’energia dello ione
viene continuamente convertita da cinetica a potenziale e viceversa. Lo
ione assume quindi un moto oscillatorio attorno alla posizione di
equilibrio (sull’asse del quadrupolo), con una frequenza ed un
ampiezza di oscillazione che dipendono dalla frequenza e ampiezza del
campo, dalla massa e dalla carica dello ione.
Gli analizzatori a quadrupolo hanno intervalli di analisi che si
estendono fino a 3000-4000 unità di m/z, in grado di risolvere ioni che
differiscono di una sola unità di massa. Sono strumenti a bassa
risoluzione (3000) e facili da accoppiare alla gascromatografia
Analizzatore a trappola ionica:
è un dispositivo in cui anioni e cationi gassosi possono essere trattenuti per prolungati periodi mediate campi
elettrici e magnetici. La trappola ionica a quadrupolo fu introdotta per la prima volta da Paul nel 1953.
La trappola è costituita da un elettrodo centrale ad anello di sezione semicircolare e da una coppia di elettrodi
a calotta; all’elettrodo ad anello viene applicato un potenziale variabile a radiofrequenza, mentre gli elettrodi
a calotta sono collegati a terra.

All’interno della cavità delimitata dall’anello circolano, su orbite stabili, gli ioni con un opportuno valore di
m/z. All’aumentare del potenziale di radiofrequenza, le orbite degli ioni più pesanti vengono stabilizzate,
mentre quelle degli ioni più leggere vengono destabilizzate, provocandone la collisione con le pareti
dell’elettrodo ad anello. Gli ioni vengono intrappolati forzandoli su traiettorie chiuse stabili all’interno della
trappola. Quando la traiettoria di uno ione diventa instabile, questo esce dalla trappola e viene rivelato.
Per evitare che i frammenti collidano fra di loro è inserito dell’elio.
Inoltre, mediante questo analizzatore, è possibile trattenere un singola massa e bombardarla successivamente
per ottenere frammenti che possono essere analizzati per ottenere ulteriori informazioni.

63
Analizzatore a tempo di volo (TOF)
E’ basato sul fatto che ioni con carica e massa diversa, accelerati dallo stesso potenziale percorreranno uno
spazio uguale in tempi diversi
1. Ioni positivi vengono periodicamente prodotti bombardando il campione con brevi impulsi di elettroni,
ioni secondari o fotoni laser.
2. Gli ioni così prodotti vengono accelerati in un tubo di deriva, privo di campo, mediante un impulso di
campo elettrico compreso fra 10 3 e 104 V.
3. La separazione degli ioni in base alla massa avviene durante il loro passaggio nel rivelatore posto
all’estremità del tubo. Dal momento che tutti gli ioni che entrano nel tubo possiedono la stessa energia
cinetica, le loro velocità nel tubo variano in modo inversamente proporzionale alle loro masse, quindi le
particelle più leggere arrivano al rivelatore prima di quelle più pesanti.
Il tempo di volo tf è dato da:
L L
t = = Dove L è la distanza della sorgente dal rivelatore.
v 2eV0
m z

Per correggere la distribuzione di velocità, viene utilizzato il TOF reflectron, o TOF reflector, un insieme
di lenti ioniche (specchio ionico) che fanno in modo che gli ioni quando arrivano in fondo al cammino
tornino indietro.
Dopo il cammino dell'analizzatore gli ioni entrano in una zona chiamata riflettore elettrostatico che li fa
tornare indietro; più gli ioni sono veloci, più in profondità entrano in questa zona e quindi percorrono un
cammino maggiore.
In questo modo ioni di massa uguale ma velocità diversa, arrivano al rivelatore allo stesso tempo, questo
serve a ristabilire la separazione degli ioni in base all'm/z che può non essere riuscita come desiderato a
causa della lunghezza dell'impulso di partenza.

RIVELATORI
Coppa di Faraday

1. La coppa di Faraday viene allineata in modo tale che gli ioni uscenti dall’analizzatore colpiscano
l’elettrodo collettore, il quale è circondato da una gabbia che impedisce la fuga di ioni riflessi ed elettroni
secondari emessi.
2. L’elettrodo collettore è inclinato rispetto alla traiettoria degli ioni entranti, cosicché le particelle che
colpiscono o che lasciano l’elettrodo non vengano riflesse verso l’entrata della coppa.
3. L’elettrodo collettore e la gabbia sono collegati a terra mediante una elevata resistenza di carico; in
questo modo la carica positiva degli ioni che colpiscono l’elettrodo è neutralizzata da un flusso di
elettroni provenienti dalla terra attraverso la resistenza, la cui caduta di potenziale viene amplificata con
un amplificatore ad alta impedenza.
4. La risposta di questo rivelatore è indipendente dall’energia, dalla massa e dalla natura chimica dello
ione.
5. La coppa di Faraday è poco costosa e semplice sia dal punto di vista meccanico che elettrico;

64
6. il suo principale svantaggio è la presenza di un amplificatore ad alta impedenza, che limita la velocità
alla quale lo spettro può essere ottenuto.
7. Inoltre, è meno sensibile rispetto ai moltiplicatori di elettroni, perché non produce alcuna amplificazione
interna.

Moltiplicatore di elettroni a dinodi separati


Questo dispositivo è molto simile a un tubo fotomoltiplicatore per la rivelazione di radiazione visibile e
ultravioletta, nel quale i dinodi vengono mantenuti a potenziali progressivamente crescenti.
• Il catodo e i dinodi presentano superfici costituite da rame o berillio, dalle quali vengono emessi
elettroni a valanga in seguito a collisioni con ioni o elettroni ad alta energia. Gli elettroni vengono,
quindi, attratti dal dinodo successivo della catena, cosicché per ciascuno ione che colpisce il catodo si ha
sull’ultimo dinodo un elevato numero di elettroni. Sono disponibili moltiplicatori aventi fino a 20
dinodi e un guadagno di corrente dell’ordine di 10 7.

Moltiplicatore di elettroni a dinodo continuo


E’ un dispositivo a forma di cono, in vetro, drogato con un elevato tenore di piombo, che conferisce al
materiale bassa conducibilità.
1. Applicando un potenziale di 1,8-2 kV lungo il trasduttore, si produce un gradiente di tensione tra le due
estremità

2. Gli ioni che colpiscono la superficie interna in prossimità dell’entrata causano l’emissione di elettroni,
che sono quindi attratti dai punti del tubo a più alto potenziale.
3. Questi elettroni secondari a loro volta incidono sulla superficie con un ulteriore aumento di elettroni
emessi a ogni impatto.

4. Questi rivelatori hanno guadagni di corrente dell’ordine di 105, ma si può arrivare in alcune applicazioni
fino a 108.
5. I moltiplicatori di elettroni sono dispositivi robusti e affidabili, con un elevato guadagno di corrente e
tempi di risposta dell’ordine dei nanosecondi.
6. Essi possono essere collegati direttamente dietro la fenditura di uscita di uno spettrometro di massa a
settore magnetico, poiché gli ioni che raggiungono il rivelatore generalmente possiedono energia
cinetica sufficiente per causare l’emissione di elettroni dal primo stadio del dispositivo.

65
7. Possono essere usati anche come analizzatori di massa che usano fasci di ioni con bassa energia cinetica
(ovvero i quadrupoli), ma in questo caso il fascio di ioni uscente dall’analizzatore viene accelerato a
parecchi migliaia di eV prima di colpire il primo stadio.

Lastre fotografiche
Le emulsioni fotografiche, che ricoprono le suddette lastre, furono impiegate per molti anni come sistemi di
rivelazione, in virtù della loro sensibilità agli ioni ad alta energia.

Trasuddore a sintillazione
Sono costituiti da fosforo cristallino disperso su un sottile foglio di alluminio montato sulla finestra di un
tubo fotomoltiplicatore; quando gli ioni incidono sul fosforo producono una luminescenza che viene
rivelata dal fotomoltiplicatore.
METODI ELETTROCHIMICI
Si basano sulle proprietà elettriche della materia, che derivano dalla capacità degli atomi di acquistare o
cedere elettroni in particolari condizioni. In tutti i metodi elettrochimici viene stabilito un contatto elettrico
tra la materia costituente il campione (generalmente una soluzione) ed un apposito circuito elettrico di
misura: misurando alcune proprietà elettriche del circuito, dipendenti dal contatto sopraddetto (come
tensione, corrente, resistenza, carica elettrica, ecc.), si ricavano informazioni qualitative e quantitative sul
campione esaminato.
Nei metodi elettrochimici (o elettroanalitici) il campione viene inserito in un sistema elettrochimico, ovvero
un insieme, opportunamente strutturato, di conduttori; i conduttori si distinguono in:
• Conduttori di prima specie: sono i metalli ed i semiconduttori, in cui il passaggio di corrente elettrica
avviene tramite un flusso di elettroni all'interno del materiale. Vale la prima legge di Ohm:
V=Ri
Dove V è la differenza di potenziale, o tensione (d.d.p.) applicata ai capi del conduttore (in Volt - V), R è
la resistenza elettrica (in Ohm - Ω) ed i è l'intensità di corrente (in Ampère - A)

• Conduttori di seconda specie: sono i sali fusi e le soluzioni di elettroliti (acidi, basi e sali); in questo
conduttore il passaggio di corrente elettrica è dovuto alla migrazione degli ioni, in presenza di un campo
elettrico, all'elettrodo di segno opposto. Per essi la prima legge di Ohm assume un'espressione
modificata:
V=Ri+Ew
Dove Ew è una d.d.p. supplementare da applicare al conduttore perché si stabilisca la corrente i. Infatti
nei conduttori di seconda specie è presente una forza controelettromotrice, pari a Ew, che tende a
generare una corrente opposta ad i e che perciò va controbilanciata

Un sistema elettrochimico, utilizzabile per fini analitici, è schematizzabile nel modo seguente:

Il circuito esterno (formato da tutti conduttori di prima specie), trasmette impulsi elettrici alla soluzione in
esame e/o riceve e misura i segnali da essa prodotta; gli elettrodi sono elementi sensibili (generalmente
conduttori di prima specie), immersi nella soluzione in esame e fanno da tramite tra soluzione e circuito
esterno; la soluzione contiene l'analita che si vuole analizzare. L'insieme degli elettrodi e della soluzione
costituisce la cella elettrochimica. Tutti i metodi elettrochimici di analisi si basano su questo schema; ve ne
sono di vari tipi a seconda del parametro elettrico che viene misurato. Nelle tecniche analitiche
elettrochimiche si possono compiere misure assolute delle proprietà elettriche oppure misure relative delle

66
stesse, quando è richiesto di valutare solo la variazione del parametro elettrico. In ogni caso i parametri
elettrochimici che si possono misurare sono i seguenti:
• differenza di potenziale tra due elettrodi immersi nella soluzione di misura (potenziometria)
• quantità di carica elettrica che si ottiene applicando una differenza di potenziale a due elettrodi
(coulombometria e elettrogravimetria)
• intensità di corrente che passa tra gli elettrodi immersi nella soluzione analitica al variare del potenziale
elettrico applicato ad uno di essi (voltammetria, polarografia)
• resistenza o conducibilità (conduttimetria)
Di seguito è riportato un quadro di insieme dei metodi elettroanalitici, dove vengono utilizzati i seguenti
simboli:
- i: corrente elettrica
- C: conducibilità elettrica
- R: resistenza
- E: potenziale elettrochimico
- Q: quantità di carica elettrica
- t: tempo
- p: peso

Consideriamo un sistema solido-liquido costituito da un metallo (M) a contatto con una soluzione molto
diluita contenente i suoi ioni (M+); inizialmente sia il metallo che la soluzione sono neutri ma, subito dopo il
contatto, si può osservare un trasferimento di materia dal metallo alla soluzione tramite la reazione redox:
M →M+ + e-
cioè alcuni atomi di metallo si ossidano passando in soluzione, ma il processo si arresta quasi
immediatamente quando si raggiunge l’equilibrio. La lamina metallica si carica (-) in quanto trattiene gli
elettroni, mentre la soluzione attorno si carica (+). Si è così formato un doppio strato elettrico cioè una
separazione di carica all'interfaccia metallo-soluzione, che comporta una differenza di potenziale tra le due
fasi a contatto.

Un sistema di questo genere è detto semicella (galvanica) o elettrodo e la d.d.p. (differenza di potenziale)
all’interfaccia metallo-soluzione viene detta semplicemente potenziale di elettrodo o potenziale di
semicella. Occorre precisare che il potenziale di elettrodo è in realtà una d.d.p. tra le due fasi a contatto.
Pertanto un elettrodo (in senso elettrochimico) è una coppia redox in equilibrio.
67
Il significato fisico del potenziale diventa evidente immaginando di voler trasferire un elettrone dalla
soluzione all’elettrodo, attraverso l’interfaccia: è il lavoro che occorrerebbe compiere per vincere la
repulsione della superficie dell’elettrodo caricata negativamente.
Poiché si tratta di un lavoro sia elettrico che chimico, spesso si parla di potenziale elettrochimico.
Il potenziale di elettrodo è tanto maggiore in valore assoluto quanto maggiore è la differenza di carica nel
doppio strato. Il segno di tale potenziale dipende da come viene scritta la redox che si stabilisce
all’interfaccia: la IUPAC raccomanda sempre di scrivere tali reazioni nel senso della riduzione.
Si consideri l'equilibrio per una generica semireazione di elettrodo, scritto nel senso della riduzione come
raccomandato dalla IUPAC: a ox + b B + n e- →c red + d D
dove ox e red sono due forme a diverso stato di ossidazione dello stesso elemento (per es. Fe 2+/Fe3+) in
equilibrio (sono cioè una semicella galvanica, ovvero un elettrodo) e B e D sono sostanze che non
partecipano direttamente all'equilibrio elettrochimico ma sono essenziali per lo svolgersi della reazione (per
es. H+ se in ambiente acido, H2O, ecc.). All'equilibrio, il potenziale dell'elettrodo, che è in realtà la d.d.p. tra
metallo e soluzione è espresso dalla legge di Nernst:

dove: E è il potenziale di elettrodo (V), R è la costante dei gas (8,314 j/mole·K), T è la temperatura assoluta
(K), F è la costante di Faraday (96458 Coulomb), n è il numero di elettroni scambiati nella redox. E° è detto
potenziale standard della coppia redox ox/red ed è costante per ogni coppia, al 298 K e 1 atm; in pratica E
ed E° coincidono quando tutte le specie sono presenti in concentrazione unitaria (1 M). I valori degli E° per
le diverse coppie redox sono raccolti in una tabella detta serie elettrochimica.
Da notare che nell'equazione di Nernst dovrebbero comparire le attività e non le concentrazioni molari;
poiché generalmente si lavora in soluzione diluita, questa approssimazione è lecita.
Sostituendo i valori di R di F e ricordando che:

dove S* è pari a (0,1984·10-3)T. Alla temperatura di 25°C (298 K), S* vale 0,05916 V per cui la legge di
Nernst assume la sua forma più usata nei calcoli:

Naturalmente se nell'equilibrio redox compaiono solo le forme red e ox e sono assenti le specie chimiche B e
D, anche nell'equazione di Nernst mancano le relative concentrazioni. Per esempio per la semireazione:
Cu2+ + 2 e- →Cu la legge di Nernst assume la forma seguente:

Non compare la concentrazione della forma ridotta Cu perché l'attività (e quindi anche la concentrazione) di
un solido o di un liquido puro è costante e pari a 1.
E’ da sottolineare una cosa importante: il potenziale E di un elettrodo non è misurabile in assoluto:
sarebbe necessario introdurre un conduttore metallico all’interno del doppio strato ma ciò causerebbe la
formazione di un nuovo doppio strato, ecc. Si può misurare solo la d.d.p. tra 2 elettrodi accoppiati, che
costituiscono una pila, ovvero la cella di misura, della quale si potrà valutare la d.d.p. agli elettrodi.
Ovviamente, se uno dei due avrà E costante, allora la d.d.p. misurata dipenderà solo dal E dell’elettrodo
incognito. Con questo artificio è possibile risalire al E del singolo elemento elettrochimico.
Infine la legge di Nernst vale solo all'equilibrio cioè quando la corrente che passa nella cella di misura è
nulla; se l'elettrodo non è all'equilibrio (perché viene imposto dall'esterno un potenziale arbitrario e/o viene
attraversato da un intenso flusso di corrente) allora il potenziale risulta diverso da quello calcolabile con la

68
legge di Nernst. Si dice in questo caso che l'elettrodo è polarizzato: in particolare se la concentrazione degli
ioni alla superficie dell'elettrodo è diversa da quella di equilibrio, si ha una polarizzazione di concentrazione.

POTENZIOMETRIA

La potenziometria è una tecnica mediante la quale viene misurata la differenza di potenziale che si stabilisce
all’interno di una cella elettrochimica in condizione di sostanziale assenza di corrente.
Inizialmente le tecniche potenziometriche sono state usate per localizzare il punto di fine delle titolazioni, Il
punto finale di una reazione di titolazione si può quindi definire come quella variazione di un qualche
parametro fisico o chimico che ti permette di rilevare il completamento della titolazione dell'analita.
In tempi recenti, le concentrazioni ioniche sono state misurate direttamente dal potenziale di un elettrodo a
membrana iono-selettivo(es, elettrodo a vetro per il pH).
Una tipica cella per analisi potenziometriche è composta da:
Elettrodo di riferimento | ponte salino | soluzione di analita | elettrodo indicatore

• Elettrodo di riferimento (Erif): una semicella con un potenziale elettrodico Erif esattamente noto e
indipendente dalla concentrazione (costante) dell’analita o di altri ioni eventualmente presenti in
soluzione.
• Elettrodo di misura o indicatore (Eindi): una semicella immersa nella soluzione di analita che è in
grado di fornire una risposta(variazione di potenziale elettrodico) che dipende dall’attività della specie in
soluzione;
• Ponte salino (Ej): evita che i componenti della soluzione analitica si mescolino con quelli dell’elettrodo
di riferimento; a ciascuna estremità del ponte salino si sviluppa un potenziale lungo le giunzioni
liquide. Questi due potenziali tendono ad eliminarsi se la mobilità del catione e dell’anione nella
soluzione del ponte sono piu o meno le stesse. In tal senso il cloruro di potassio è un ottimo elettrolita
per il ponte salino in quanto la mobilita degli ioni K + e Cl- sono quasi uguali. Nella maggior parte dei
metodi analitici il potenziale di giunzione è abbastanza piccolo da poter essere trascurato.

Il potenziale della cella considerato è dato da: Ecella= (Eindi - Erif) + Ej

Elettrodi indicatori metallici


L’elettrodo indicatore ideale risponde in modo rapido e riproducibile alla variazione di attività degli ioni di
analita.
Esistono due tipi di elettrodi indicatori:
• metallici
• a membrana.

I primi vengo a sua volta suddivisi in elettrodi :


• di prima specie,
• di seconda specie,
• di terza specie
• ed elettrodi redox inerti.

ELETTRODI DI PRIMA SPECIE

L’elettrodo metallico di prima specie è un elettrodo di metallo puro in equilibrio diretto con il suo catione in
soluzione. In questo caso, è implicata una singola reazione, per esempio, per un elettrodo indicatore di rame
(zinco nel caso della figura), possiamo scrivere:
Cu2+ + 2e- Cu(s)

69
Il potenziale Eind di tale elettrodo è dato da:
0.0592 [1]
Eind = E  − log
2 acu 2 + =

pCu è il logaritmo negativo dell’attività dello ione rame(II), aCu2+. Pertanto, l’elettrodo di rame fornisce la
misura diretta del pCu della soluzione.
• Questi sistemi, tuttavia, sono poco usati in quanto non sono molto selettivi
• rispondono non solo ai propri cationi, ma anche ad altri cationi più facilmente ridotti,
• molti elettrodi di metallo come zinco e cadmio, possono essere usati solo in soluzioni neutre o basiche
perché si sciolgono in presenza di acidi.
• alcuni metalli sono così ossidabili che il loro uso è limitato a soluzioni che sono state deareate.
• Gli unici sistemi di elettrodi di prima specie che trovano utilizzo sono: Ag-Ag+, Hg- nelle soluzioni
neutre, Cu Cu2+, Zn-Zn2+, Cd-Cd2+, Bi-Bi3+, Tl-Tl+ e Pb-Pb2+ in quelle aerate.

ELETTRODI DI SECONDA SPECIE

Con il termine elettrodo di seconda specie può essere considerato un elettrodo metallico (Ag) capace di
rispondere all’attività di un anione (Cl-) con cui lo ione forma un precipitato o uno ione complesso stabile
(AgCl). Per esempio l’argento può servire come elettrodo di seconda specie per gli ioni alogenuro o degli
alogenuro simili.
Gli elettrodi di seconda specie di uso comune sono costituiti da un metallo ricoperto da un suo sale poco
solubile ed immerso nella soluzione di un elettrolita avente l’anione in comune con il sale che ricopre il
metallo.
Elettrodo Ag/AgCl
Secondo tale definizione per determinare il cloruro, bisogna ricoprire il filamento di argento con cloruro di
argento e immergerlo nella soluzione con il cloruro.

La reazione in questione è:
AgCl (s) + e- Ag(s) + Cl- E°=0,222 V

Applicando l’equazione di Nerst si ottiene:

Eind= 0,222 - 0,0592 log aCl- = 0,222 + 0,0592 pCl

Elettrodo ad Hg con complesso stabile EDTA


Un importante elettrodo di seconda specie per misurare l’attività dello ione Y4- dell’acido
etilendiamminotetracetico (EDTA) si basa sulla risposta di un elettrodo di mercurio in presenza di una
piccola concentrazione del complesso stabile tra Mercurio (II) ed EDTA. La semireazione del processo
elettrodico è:
OX RED
2- -
HgY + 2e H g(l) + Y4- E°=0,21V
Per cui:
0.0592 ay 4 −
Eind = 0,021− log
2 aHgY 4 −
Per utilizzare un sistema di elettrodi è necessario introdurre all’inizio una piccola concentrazione di HgY 2-
nella soluzione di analita. Il complesso è talmente stabile (per HgY 2-, Kf = 6,3 x 1021) che la sua attività
rimane praticamente la stessa per un ampio intervallo di attività di Y 4-. Pertanto, l’equazione del potenziale si
può scrivere nella forma:

70
0.0592 0.0592
Eind = K − log aY 4 − = K + pY
2 2
In cui K è:
0.0592 1
K = 0,21 − log
2 aHgY 2 −

Questo elettrodo è utile per localizzare i punti di fine delle titolazioni con EDTA.

ELETTRODI DI TERZA SPECIE

Un elettrodo di terza specie è un elettrodo di metallo costruito in maniera tale da rispondere a un catione
differente rispetto al metallo costituente l’elettrodo.

ELETTRODI INDICATORI PER EQUILIBRI DI METALLI REDOX

Tali elettrodi sono costituiti da platino, oro, palladio ed altri metalli inerti. In tali applicazioni l’elettrodo
inerte agisce come sorgente o ricettacolo di elettroni trasferiti da un sistema redox alla soluzione.

Per esempio, il potenziale di un elettrodo di platino in una soluzione contenente ioni Ce(III) e Ce(IV) è dato
da:
aCe3+
Eind = E  − 0,059 log
ace 4+
Per cui, l’elettrodo di Platino può servire da elettrodo indicatore in una titolazione in cui il Ce(IV) serve da
reagente standard.
Va sottolineato che il processo di trasferimento degli elettroni dall’elettrodo alla soluzione è influenzato da
parametri di natura cinetica che sono diversi da sostanza a sostanza, quindi non tutti i metalli vanno bene per
una determinata soluzione.

Elettrodo ad Hg/EDTA(come base)


Per esempio si può utilizzare un elettrodo a mercurio per la determinazione del pCa in soluzioni contenenti
Ca. Come nell’esempio precedente viene aggiunta nella soluzione una piccola concentrazione del complesso
tra EDTA e Hg(II), il potenziale di un elettrodo a mercurio in questa soluzione è dato da:
0.0592
Eind = K − log aY 4
2
Se inoltre si introduce un piccolo volume di una soluzione contenente il complesso tra EDTA e calcio, si
stabilisce un nuovo equilibrio:
aca 2 + ay 4 −
CaY2- Ca2+ + Y4- Kf =
aCaY 2 −
Combinando l’espressione della costante di formazione per CaY4-(Kf) con l’espressione del potenziale (Eind)
si ottiene:
0.0592 KfaCaY 2 −
Eind = K − log
2 aCa 2 +

che può essere scritta nella forma:


0.0592 0.0592 1
Eind = K − log KfaCaY 2 − − log
2 2 aCa 2 +

71
Se nella soluzione dell’analita e nelle soluzioni per la standardizzazione si utilizza una quantità costante di
CaY2-, possiamo scrivere:
0.0592
Eind = K '− pCa
2
In cui K’, è:
K’= K − 0.0592 log K a f CaY 2
2
quindi l’elettrodo a mercurio si comporta come un elettrodo di terza specie per lo ione calcio.

ELETTRODI DI QUARTA SPECIE

Sono gli elettrodi a gas, in cui un metallo inerte e poroso (di solito il Pt) , saturato con una specie gassosa,
viene messo a contatto con una soluzione contenente una forma ionica dell'elemento gassoso; tipico esempio
è l'elettrodo ad idrogeno, formato dalla coppia H +/H2:

Il termine E0 è il potenziale standard della coppia H+/H2, convenzionalmente posto uguale a zero nella serie
elettrochimica degli elementi.
CELLA GALVANICA (Pila)
Collegando elettricamente tra loro due semicelle (elettrodi) si realizza un dispositivo detto cella galvanica o
pila, in grado di erogare spontaneamente corrente elettrica. Infatti una pila è un dispositivo che converte
energia chimica in energia elettrica.
Nella potenziometria si realizza una pila accoppiando 2 elettrodi: uno a potenziale costante (di riferimento),
l’altro a potenziale variabile (di misura) in relazione alla concentrazione della specie chimica analizzata.
In questo caso lo scopo non è quello di produrre corrente elettrica ma misurare la d.d.p. della pila e quindi il
potenziale dell’elettrodo di misura. Infatti la legge di Nernst vale solo all’equilibrio cioè a circuito aperto,
ovvero senza passaggio di corrente tra i due elettrodi. Una pila tipica è quella schematizzata di seguito:

le due semicelle sono separate da un setto poroso (ceramica porosa) o un ponte salino (gelatina satura di una
soluzione salina), che hanno lo scopo di impedire il mescolamento rapido delle soluzioni ma assicurare il
contatto elettrico tra i due scomparti. Poiché ogni elettrodo ha il suo potenziale di elettrodo, diverso da quello
dell'altro, si crea una d.d.p. che provoca un passaggio di elettroni sul circuito esterno, dove possono essere
utilizzati da apparecchiature elettriche.

La d.d.p. misurata agli elettrodi è detta tensione (o potenziale di cella); il valore massimo raggiunto da tale
tensione è detto f.e.m. (forza elettromotrice); la f.e.m. è il lavoro elettrico necessario per mantenere costante
la d.d.p. tra i due elettrodi.
L'elettrodo più ricco di elettroni, con segno (-), è detto anodo: qui avverranno sempre reazioni di
ossidazione; l'elettrodo meno ricco di elettroni, con segno (+), è detto catodo: qui avverranno sempre
reazioni di riduzione. In pratica in una pila avviene spontaneamente una redox tra un ossidante (che si
riduce e che quindi costituisce il catodo) ed un riducente (che si ossida e quindi costituisce l'anodo) ma gli
elettroni necessari non vengono scambiati direttamente ma attraverso il circuito esterno.

72
La f.e.m. di una pila, indicata con Ecella, è calcolabile mediante:

Ecella = Ec - Ea
dove Ec è il potenziale assunto dal catodo ed Ea è il potenziale assunto dall'anodo, ovvero:
Ecella = Emaggiore - Eminore
perché la f.e.m. di una pila deve sempre essere un valore positivo.
ELETTODI DI RIFERIMENTO

La misura assoluta del potenziale di elettrodo è impossibile, in quanto l'introduzione di una nuova superficie
metallica (l'elemento sensibile di misura) comporterebbe la formazione di nuove interfacce e quindi di nuovi
potenziali. La misura del E di un elettrodo viene fatta indirettamente, costruendo una pila o cella
elettrochimica in cui uno degli elettrodi ha potenziale costante, mentre l’altro ha un potenziale che dipende
dalla specie chimica che si vuole studiare. In questo caso la pila non ha lo scopo di produrre corrente elettrica
ma solo quello di permettere la misura del potenziale di elettrodo. E’ noto che:

Ecella = Ecatodo - Eanodo


Se uno dei due potenziali è costante, è evidente che l’E cella misurato dipende solo dalla variazione del
potenziale dell’altro elettrodo. Vi sono vari tipi di elettrodi a potenziale costante, detti elettrodi di
riferimento.
L’elettrodo di riferimento ideale ha un potenziale noto, costante e assolutamente insensibile alla
composizione della soluzione in esame. Inoltre, dovrebbe essere resistente, di facile assemblaggio e
dovrebbe mantenere un potenziale costante anche se nella cella è presente una corrente netta.

Gli elettrodi di riferimento più utilizzati sono:

ELETTRODO AD IDROGENO (SHE)


E’ l’elettrodo di riferimento per eccellenza, quello utilizzato per costruire la serie elettrochimica degli
elementi, dove viene abbinato agli elementi di cui si vuole misurare il potenziale normale E 0. E' anche
indicato con la sigla SHE (Standard Hydrogen Electrode). E’ schematizzato dalla seguente catena elettrodica
(successione di conduttori a contatto): H+|H2||Pt

E’ formato da un filo di Pt immerso in una soluzione acida con attività unitaria degli ioni H +, cioè in pratica
una concentrazione 1 M in cui gorgoglia H 2 gassoso alla pressione di 1 atm; la redox è la seguente:

Poiché [H+] = 1 M allora E = E0 a cui viene attribuito, in queste condizioni e convenzionalmente , un


potenziale uguale a zero.
Si ricorda che nella serie elettrochimica, gli elementi con potenziale (+) saranno ossidanti rispetto all’H, cioè
tendono più di lui a ridursi e quindi ad acquistare elettroni; al contrario quelli con potenziali (-) saranno
riducenti cioè tenderanno ad ossidarsi e quindi più dell’H tenderanno a cedere elettroni
Questo tipo di elettrodo è poco pratico da usare, perché occorre controllare con grande precisione, e non è
facile, la P di afflusso dell’H2 gassoso, per cui ad esso si preferiscono normalmente altri elettrodi.

ELETTRODO A CALOMELANO
In questo elettrodo l’interfaccia è costituita da una pasta di Hg e Hg 2Cl2 a contatto con una soluzione satura
di KCl, in presenza di corpo di fondo; un filo di Pt garantisce il contatto elettrico con l’esterno; un setto
poroso mette l’ambiente dell’elettrodo in contatto con la soluzione in cui sarà immerso.
73
Il tipo più usato è quello a calomelano saturo SCE (Satured Calomel Electrode)
Le semicelle a calomelano possono essere rappresentate come segue:
Hg|Hg2Cl2 (sat),KCl (xM)||
Dove x rappresenta la concentrazione molare del cloruro di potassio nella soluzione.
Il potenziale elettrodico per questa semicella è dato dalla reazione
Hg2CL2 (s) + 2e- 2Hg(l) + 2Cl-

1 = setto poroso 5 = pasta di Hg e Hg2Cl2


2 = cristalli di KCl 6 = bocchetta di rabbocco
3 = sostegno poroso 7 = filo di platino
4 = soluzione di KCl 8 = cavo schermato

dato che il calomelano ed il mercurio sono rispettivamente solidi e liquido insolubili e quindi hanno attività
unitaria ovvero concentrazione costante. Il potenziale dell’elettrodo dipende pertanto solo dalla
concentrazione degli ioni Cl- che, essendo in soluzione satura, si può ritenere costante, come l’E totale, che
risulta essere:
E = 0,2444 V (a 25°C)
L’elettrodo a calomelano saturo trova largo impiego grazie alla facilità con cui può essere preparato.
Tuttavia presenta taluni svantaggi in quanto presenta un coefficiente di temperatura notevolmente più alto
rispetto agli altri elettrodi.
Un ulteriore svantaggio è che una variazione della temperatura, modifica sensibilmente il potenziale, il quale
raggiunge il nuovo valore con estrema lentezza, a causa del tempo necessario a ristabilire l’equilibrio di
solubilità del cloruro di potassio e calomelano.
ELETTRODO ARGENTO –CLORURO D’ARGENTO (SSC)

è costituito da un filo di Ag rivestito da un deposito insolubile di AgCl, il tutto immerso in una soluzione di
KCl satura oppure 1 N. Nella sua versione con la soluzione satura di KCl viene indicato con la sigla SSC
(Satured Silver-Silver Chloride Electrode).
Questo elettrodo è descritto dalla seguente catena galvanica:
Ag|AgCl (sat), KCl(xM)||
Il potenziale elettrodico è determinato dalla semireazione
AgCl(s) + e- Ag(s) + Cl-

1 = setto poroso 4 = bocchetta di rabbocco


2 = rivestimento di AgCl 5 = soluzione di KCl 1 N
3 = filo di Ag 6 = cavo schermato

74
Come nel caso precedente, anche in questo elettrodo il potenziale dipende dalla specie anionica che si trova a
concentrazione costante (satura o 1 N), periodicamente rinnovata tramite la bocchetta di aggiunta laterale
dell’elettrodo.
E = 0,239 V.
Normalmente, questo elettrodo si prepara con una soluzione satura oppure con una soluzione 3,5 M di
cloruro di potassio.
Strutturalmente, l’elettrodo si configura come un tubo di vetro che ha una sottile apertura all’estremità
connessa al tappo di Vycor per stabilire il contatto con la soluzione di analita. Il tubo contiene un filo
d’argento rivestito con uno strato di cloruro d’argento, immerso in una soluzione di cloruro di potassio
saturata con cloruro d’argento.
Gli elettrodi ad argento-cloruro di argento hanno il vantaggio di poter essere usati a temperature superiori
60°, contrariamente agli elettrodi a calomelano.
Tuttavia è presente un forte svantaggio dovuto all’inerzia chimica dello ione argento.
Nell’utilizzare gli elettrodi di riferimento bisognerebbe sempre mantenere il livello del liquido interno al di
sopra di quello della soluzione del campione, al fine di evitare la contaminazione della soluzione
dell’elettrodo e l’occlusione della giunzione dovuta alla reazione della soluzione dell’analita con gli ioni
argento o mercurio provenienti dalla soluzione interna. L’occlusione, infatti, è probabilmente la causa più
comune del comportamento erratico della cella nelle misure potenziometriche.

ELETTRODI INDICATORI A MEMBRANA


Un elettrodo a membrana è caratterizzato da una membrana, generalmente un polimero poroso la quale
permette lo scambio ionico. Questi dispositivi permettono la determinazione rapida e selettiva di numerosi
cationi e anioni mediante misure potenziometriche dirette
Il meccanismo generale mediante il quale in questi dispositivi si sviluppa un potenziale iono- selettivo
dipende dalla natura dalla membrana. Quest’ultimo, può essere considerato una sorta di potenziale di
giunzione che si sviluppa attraverso la membrana che separa la soluzione di analita da una soluzione di
riferimento.
Proprietà delle membrane iono-selettive
• Solubilità minima: indispensabile proprietà di un mezzo iono-selettivo è che la sua solubilità nelle
soluzioni di analita si avvicini a zero;
• Conducibilità elettrica: una membrana deve mostrare una certa conducibilità elettrica, per quanto
piccola. In genere tale conducibilità è dovuta alla migrazione di ioni a carica singola all’interno della
membrana.
• Reattività selettiva con l’analita: una membrana o alcune specie contenute all’interno della matrice della
membrana devono essere in grado di legare selettivamente lo ione di analita.
ELETTRODO A VETRO PER LA MISURA DEL PH
L’elettrodo indicatore è costituito da una sottile membrana in vetro sensibile al pH saldata all’estremità di un
tubo di vetro resistente. La membrana ionosensibile termina in un bulbo di silacato di sodio
Nel bulbo più interno è contenuto un piccolo volume di soluzione tampone a pH costante (generalmente a
pH=7). All’interno della stessa soluzione vi è un elettrodo di riferimento interno generalmente ad
argento/AgCl o calomelano.

Questo elettrodo interno servirà a rendere misurabile la differenza di potenziale istauratasi ,tra le due facce
del bulbo ionosensibile con l’aggiunta di un elettrodo di riferimento esterno all’elettrodo a vetro, che può
essere anche lui, per esempio, un altro elettrodo Ag/AgCl
Ricapitolando, la cella galvanica completa di elettrodo a vetro più il riferimento:
• Elettrodo di riferimento esterno ad Ag/AgCl per misurare la ddp della cella completa
• Elettrodo interno ad Ag/AgCl per rendere misurabile il valore di ddp della semicella a vetro ,la quale è in
ultima analisi sensibile agli ioni H+ di una soluzione esterna.

75
Sebbene l’elettrodo di riferimento interno sia una parte dell’elettrodo a vetro, esso non è sensibile alla
variazione di pH, è invece la sottile membrana di vetro alla punta che risponde alla variazione di pH tramite
lo scambio di ioni carichi superficiali in un fase gel delimitata con le soluzioni interne ed esterne al vetro.
Esistono in commercio degli elettrodi a sonda unica (elettrodi a vetro combinato) nei quali l’elettrodo a
vetro e il suo elettrodo di riferimento ad Ag\AgCL sono collocati al centro di una sonda cilindrica.
In questo caso la presenza di un elettrodo di rifermento esterno non è necessaria, perché a differenza del
dispositivo a doppia sonda illustrato precedentemente, è presente in esso il secondo elettrodo di riferimento
ad Ag\AgCl.

All'interno di questi elettrodi è presente una soluzione contenente lo ione ad attività costante (soluzione
tampone) e all'esterno si trova un campione di soluzione contenente lo ione ad attività incognita (campione
esterno da analizzare).
La differenza di potenziale attraverso la membrana dipende dalla differenza di attività dello ione nella
soluzione all'interno dell'elettrodo e nel campione.

Nell'elettrodo a vetro è proprio la sottile membrana di vetro ad essere sensibile alla concentrazione degli ioni
idrogeno. Il reticolo di silicato di sodio di cui è costituito il vetro, infatti, contiene atomi di ossigeno carichi
negativamente disponibili per coordinare cationi metallici di appropriate dimensioni (es, H+ di soluzioni
incognite) . I cationi monovalenti, in particolare Na+, sono mobili in tale struttura e sono responsabili della
conduzione elettrica attraverso la membrana. Le due superfici esposte alla soluzione acquosa della
membrana di vetro assorbono una certa quantità di acqua e si rigonfiano. Il sistema sopradescritto potrebbe
essere così schematizzato.

Il vetro può essere suddiviso in una parte interna non idratata i cui siti sono occupati da ioni Na+ e una parte
esterna in cui i siti sono occupati sia da ioni Na+ che ioni H+. I siti occupati da H+ saranno un numero diverso
se consideriamo la parte rivolta verso l’esterno e la parte verso la soluzione interna. I siti occupati nella parte
rivolta alla soluzione interna saranno costanti in quanto [H +] nella soluzione interna è costante, mentre i siti
occupati nella parte esterna saranno funzione della concentrazione di H + esterna.
Queste interfacce avranno un potenziale V2 per l’interfaccia membrana-soluzione interna e V1 per
l’interfaccia membrana-soluzione esterna. La differenza di potenziale è data:

E=V1-V2

Dato che l’idratazione avviene per mezzo dell’H + che sposta l’Na+ dal gel verso il vetro non idratato, si
deduce che lo spostamento di carica è ad opera del sodio e che quindi il sodio colleghi le due interfacce in
modo da ritenere i fenomeni che accadono dentro e fuori l’elettrodo correlabili.

76
I potenziali V1 e V2 possono essere calcolati come segue:
59,161 a1 59,161 a
V1 = J 1 + log ' V2 = J 2 + log 2'
1 a1 1 a2
a1 = attività H+ nella soluzione esterna
a1' = attività H+ nello strato di gel esterno
a2 = attività H+ nella soluzione interna
a 2' = attività H+ nello strato di gel interno

J1 e J2 sono costanti che tengono conto del numero di siti presenti nel gel. Per approssimazione si
considerano uguali anche se le due membrane non possono avere mai lo stesso numero di siti.
Per poter considerare J1 = J2 si effettua una calibrazione del potenziometro con un tampone per annullare il
potenziale di asimmetria dovuto appunto al diverso numero di siti fra le due facce del gel. Infatti, quando si
pongono soluzioni identiche ai due lati di una membrana di vetro, il potenziale di interfase dovrebbe
all’inizio essere zero. In realtà, di frequente si incontra un piccolo potenziale di asimmetria che varia
gradualmente nel tempo. L’origine di tale potenziale risulta incerta, talvolta è imputata a motivazioni quali
differenza di tensione sulle due superfici della membrana createsi durante la sua preparazione o abrasioni
meccaniche sulla superficie esterna dell’elettrodo. Proprio per questo gli elettrodi vengono calibrati con dei
tamponi.

Avere lo stesso numero di siti significa avere la stessa possibilità che hanno gli ioni H+ di occupare la
membrana interna ed esterna, quindi anche a1' = a 2' per cui :
59,161 a
E=V1-V2 = log 1
1 a2

E = 59,161 log a1 - 59,16 1 log a2


Dato che non siamo interessati al valore di a1 poniamo E° = (59,161 log a2)
E = E° + 59,161 log a1
Cioè il potenziale di membrana è funzione esclusivamente di a1, ovvero degli ioni H+ presenti nella soluzione
esterna.
Potremmo a questo punto formalizzare, con buona approssimazione, l’ultima equazione considerando che :
pHesterno = -log[H+]esterno = - log (a1)

E = E° + 59,161 p(a1)
A questo punto ciò che è importante misurare è la ddp (generata dall’influenza degli ioni H + della soluzione
esterna) che si instaura fra l’elettrodo a vetro (con rifermento interno di AgCl) e l’elettrodo esterno di
riferimento.
In ultima analisi ,quindi, affinché possa essere misurato il potenziale di membrana è necessario un elettrodo
di riferimento interno che possa quantificare il potenziale di semicella generato. Ma non in valore assoluto.
Infatti si ricorda che la differenza di potenziale di una cella è sempre una misura relativa di una ddp di
semicella , con un’altra semicella il cui valore di potenziale rimane costante.
Nel nostro caso è il secondo elettrodo di riferimento esterno ad Ag/AgCl posto nella soluzione da analizzare.
Ag/AgCl || H3O+(x) | membrana di vetro(x=costante) | Ag/AgCl
Esterno Interno

77
SONDE SENSIBILI AI GAS

La membrana può essere costituita da due tipi di materiali:


• Microporosi: sono ottenuti da polimeri idrofobi, quali il politetrafluoroelilene(teflon) o il
polipropilene. A causa delle proprietà non polari e idrorepellenti del film, le molecole di acqua e gli ioni
degli elettroliti non passano attraverso i pori, le molecole gassose, d’altro canto, sono libere di muoversi
dentro e fuori dei pori per effusione e attraversare tale barriera. Lo spessore delle membrane
microporose è di circa 0,1 mm
• Omogenei: sono ottenute da sostanze polimeriche solide attraverso le quali i gas da analizzare passano
per discioglimento nella membrana, diffondono e si desolvatano nella soluzione interna. Il materiale più
diffuso per queste membrane è la gomma di silicone. I film omogenei sono in genere più sottili delle
membrane microporose( da 0,01 a 0,03 mm), che consente una maggiore velocità di trasporto del gas, e
quindi di risposta, del sistema.
CONDUTTIMETRIA
La conduttimetria è una tecnica analitica basata sulla misura della conducibilità elettrica delle soluzioni
elettrolitiche (cioè contenenti elettroliti, ovvero soluti dissociati in ioni). Non offre una grande gamma di
applicazioni analitiche, ma è usata in campo industriale (per esempio nel controllo della purezza dell'acqua
demineralizzata) e per studi teorici (ad esempio nella determinazione delle K di dissociazione).

La conduttimetria è una tecnica basata sulla conducibilità degli ioni presenti in soluzione. Si definisce
conducibilità la capacità propria di un corpo di condurre corrente elettrica.
Proprio per questa sua definizione, la conducibilità può essere considerata l’inverso della resistenza.

Le soluzioni di elettroliti conducono la corrente elettrica: immergendo due elettrodi inerti in una soluzione
elettrolitica e sottoponendoli ad una opportuna d.d.p. si nota nel galvanometro G passaggio di corrente;

78
mentre nei conduttori solidi come i metalli (conduttori di 1 a classe) la corrente viene trasportata dagli
elettroni che fluiscono liberamente nel materiale, nelle soluzioni elettrolitiche (conduttori di 2 a classe) sono
gli ioni che, migrando all'elettrodo di segno opposto, trasferiscono la carica in soluzione, chiudendo di fatto il
circuito elettrico. Infatti all’ catodo (-) migrano i cationi (c), mentre al catodo (+) migrano gli anioni (a). Il
fenomeno della migrazione ionica giustifica la conducibilità elettrica delle soluzioni di elettroliti.
E’ noto che l’elevata conducibilità elettrica dei metalli è dovuta al legame metallico presente in tali materiali:
gli elettroni di legame non sono vincolati in legami direzionali tra due atomi ma sono liberi di muoversi
all’interno del reticolo cristallino, costituendo una specie di “gas di elettroni” che può facilmente migrare in
seguito all’applicazione di una differenza di potenziale elettrico. La conducibilità elettrica delle soluzioni di
elettroliti sarà invece legata alla capacità di migrazione degli ioni e quindi anche le leggi che descrivono il
fenomeno saranno diverse. Infatti vi sono:

• Conduttori elettronici (1a. specie), nei quali sono presenti elettroni liberi (elettroni di conduzione), che
sotto l'azione di un campo elettrico, anche molto debole, vengono convogliati in un flusso ordinato
unidirezionale: sono i metalli puri, molte leghe, la grafite, alcuni ossidi e qualche sale con le
caratteristiche di semiconduttori; all’aumentare della temperatura di solito diminuisce la capacità di
condurre la corrente elettrica .

• Conduttori elettrolitici (2a. specie), nei quali il passaggio dell'elettricità è dovuto a un duplice flusso, in
direzioni opposte, di ioni positivi e negativi, ed è quindi accompagnato da trasporto di materia: sono le
soluzioni di acidi, basi e sali in solventi polari, alcuni liquidi puri (come i sali fusi, l'acqua, gli alcoli,
ecc.), ed anche alcuni solidi cristallini (come gli alogenuri d'argento); nei conduttori elettrolitici
all’aumentare della temperatura di solito aumenta la capacità di condurre la corrente elettrica perché
aumenta l’energia cinetica degli ioni e quindi la loro mobilità all’interno della soluzione .

• Conduttori gassosi, nei quali il flusso di elettricità è dovuto al moto di ioni gassosi o anche di elettroni
liberi: gli uni e gli altri si formano in condizioni particolari, per esempio per l'azione di scariche
elettriche o di radiazioni ovvero per ionizzazione di atomi o molecole a temperatura molto alta.
In certi particolari sistemi la conduzione può anche avvenire con meccanismo misto, elettronico e ionico
insieme: è il caso delle soluzioni di metalli alcalini o alcalino-terrosi in ammoniaca liquida e di alcune
leghe fuse.

Conducibilità (o conduttanza)
La conducibilità (o conduttanza) di una soluzione di elettroliti viene indicata con C ed è l'inverso della sua
resistenza elettrica R:
C=1/R
dove C è espressa in ohm-1 (Ω-1), detti Siemens (S), essendo 1S = 1 Ω-1.
Spesso si usano i sottomultipli come il milliSiemens (1 mS = 10-3 S) ed il microSiemens (1 μS = 10-6 S)

Conducibilità specifica

79
• Pressione: la conducibilità delle soluzioni varia molto poco con la pressione; in particolare, un
aumento di P diminuisce la conducibilità in quanto fa aumentare la viscosità della soluzione.

80
• Viscosità del solvente: se la dimensione di uno ione è indipendente dalla natura del solvente, si può
applicare la legge di Stokes (uno ione che si muove in un mezzo di viscosità η incontra una
resistenza R proporzionale a η , alla velocità v e al raggio dello ione):
R = 6 π η v r.
Se lo ione (a simmetria sferica) si muove in un campo elettrico determinato, all'inizio il suo moto è
uniformemente accelerato, poi quando la forza del campo uguaglia la resistenza del mezzo, il moto
diventa uniforma.
All'equilibrio: R = 6πηvr = Fη v = F / 6 π r = cost. essendo F e 6 π r costanti. Per soluzioni diluite: v
= f (Λ0) e quindi
Λ0 η = cost.
Questa regola, dedotta empiricamente da Walden, è solo grossolanamente approssimativa in quanto
è condizionata in larga misura dalla supposta invarianza delle dimensioni degli ioni solvatati.
Aspetti microscopici della conduttività
La conduttività specifica (Ω-1cm-1) rappresenta le proprietà di trasporto globali dello ione stesso.

Essa è definita anche come :


La conduttività è una grandezza integrale perché dipende dal prodotto di tutti gli ioni liberi nella soluzione
studiata. Il moto degli ioni all’interno di una soluzione elettrolitica non è il medesimo per tutti. E possibile
annoverare due modelli di trasporto:
• Moto a salto(Grotthus): è un moto quasi istantaneo relativo allo ione idrogeno. Lo ione H + ha una
mobilità ionica elevata, non tanto perché ha piccole dimensioni e, quindi, incontra minore resistenza, ma
a causa del particolare meccanismo di trasporto a cui in acqua tale ione è interessato: lo ione H + subisce
una sorta di effetto rimbalzo per cui, sotto l'influenza del campo elettrico, si muove e urta contro la
molecola d'acqua vicina provocando il rilascio di un altro H+ molto più lontano.
• Moto viscoso(Stokes): è un moto lento relativo alla stragrande maggioranza degli ioni. Tale
movimento decresce con la viscosità del solvente.

81
Le misure conduttometriche sono di due tipi

• Misure dirette di conducibilità specifica (χ);


• Misure indirette (titolazioni e studio della cinetica di reazione).

Si lavora in corrente alternata a circa 2000 Hz per evitare l’elettrolisi, in modo che la rapida inversione di
polarità agli elettrodi faccia sì che le reazioni di elettrodo si invertano di continuo e impedisca che le
concentrazioni delle specie coinvolte nel passaggio di corrente cambi in modo significativo. Tale corrente
viene poi raddrizzata e amplificata per poter avere un valore di conducibilità. La corrente, resa continua e
amplificata, viene misurata da un galvanometro.

82
L’elettrodo che viene utilizzato è un tubo di vetro con due placche di platino, fra le quali transiterà la
soluzione. Lo spazio fra le due placche è funzione della costante di cella, la quale deve mantenersi
costante nel tempo affinché i risultati dello strumento possano essere considerati affidabili. Un
moderno conduttimetro si può schematizzare con il seguente schema a blocchi:

• Oscillatore di frequenza: trasforma la corrente di alimentazione del conduttimetro in corrente alternata


di opportuna frequenza (in genere, 2000 Hz);

• Cella conduttometrica: hanno costanti di cella da 0,1 a 10 cm e possono avere elettrodi orizzontali o
verticali (da preferire per le reazioni di ppt); è opportuno scegliere una cella con una K che permetta allo
strumento di lavorare con valori intermedi e non agli estremi della scala:
• per soluzioni a bassa conducibilità, solventi organici e acqua distillata, occorrono celle con K elevata
(10-100 cm),
• per soluzioni a elevata conducibilità, soluzioni saline, occorrono celle con K piccola (0,05-0,1 cm);
• Nelle titolazioni si lavora con soluzioni non eccessivamente diluite, perciò sono consigliabili celle
con k = 0.1 cm.
• Commutatore di fondo scala: il segnale in uscita dalla cella viene attenuato prima di essere inviato allo
strumento indicatore;

• Raddrizzatore: trasforma la c.a. in corrente continua per facilitare il funzionamento dello strumento
indicatore;

• Comando per la costante di cella: occorre impostare il valore di K per leggere in uscita dallo strumento
il valore della conducibilità specifica, χ;

• Compensatore di temperatura: si devono impostare i valori della Temperatura della soluzione (Ts),
della Temperatura di riferimento (Tr, in genere 18, 20 e 25°C) e del coefficiente di temperatura, β, che
esprime la variazione % della χ per ogni grado centigrado: in questo modo il conduttimetro fornisce il
valore di conducibilità a una T diversa da quella a cui si trova la cella.

83
Titolazioni conduttimetriche

84
METODI ELETTROCHIMICI CON PASSAGGIO DÌ CORRENTE

I metodi elettrochimici con passaggio di corrente possono essere messi in relazione con l’ossidazione o la
riduzione dell’analita. Il modo più diretto per ottenere informazioni quantitative relative a ioni metallici
presenti in soluzione è la loro “rimozione” dalla soluzione mediante una tecnica che prende il nome di
elettrogravimetria o elettrodeposizione. L’esperimento (elettrogravimetrico) viene condotto pesando
l’elettrodo sul quale si ha la riduzione del metallo, prima e dopo che la reazione sia avvenuta. In questo modo
è possibile risalire alla concentrazione analitica della soluzione. La tecnica applicata in condizioni ottimali
fornisce risultati accurati e una precisione elevata (più dello 0.02%). Alternativamente si può misurare per
tempi relativamente brevi (secondi) la corrente che ossida o riduce le specie in studio utilizzando dei metodi
amperometrici. Un metodo diverso consiste nell’ossidare o ridurre per un tempo abbastanza lungo tutto
l’analita presente e nel misurare la carica totale con il metodo coulombometrico.

ELETTROGRAVIMETRIA
L’elettrogravimetria è la tecnica elettrochimica più antica basata sull’elettrolisi. Quando a due elettrodi
immersi in soluzione vengono fatti assumere determinati valori di potenziale diverso, si assiste alla scarica
(ovvero all’ossidazione su un elettrodo e alla riduzione sull’altro) delle specie chimiche, presenti nel
campione, che poi vengono determinate per via gravimetrica.

VOLTAMMETRIA
La voltammetria é una tecnica di analisi basata sulla misura della corrente che passa attraverso un elettrodo
immerso in una soluzione contenente specie chimiche elettroattive (che si possono cioè ossidare o ridurre),
quando esso é sottoposto ad una variazione di potenziale.

• L’elettrodo, chiamato elettrodo di lavoro, può essere costituito da materiali di vario tipo e possiede
generalmente una superficie molto piccola per poter assumere velocemente il potenziale imposto in
modo accurato. Può essere solido (in oro, platino o grafite vetrosa), oppure può essere costituito da una
goccia di mercurio che pende da un capillare.
Se l’elettrodo é costituito da una goccia di mercurio che cade ritmicamente dal capillare, si parla più
propriamente di polarografia. Storicamente, quest’ultima é stata la prima tecnica messa a punto, ma
attualmente é poco usata. Ovviamente la misura viene eseguita in condizioni tali da favorire la
polarizzazione dell’elettrodo di lavoro o dell’elettrodo di riferimento.

La cella voltammetrico/polarografica contiene la soluzione analitica ed al suo interno sono presenti di


norma 3 elettrodi: l’elettrodo di lavoro, un controelettrodo, per la chiusura del circuito ed un elettrodo di
riferimento, collegati da un potenziostato che può controllare con estrema precisione il potenziale assunto
dall’elettrodo di lavoro

1) La sollecitazione elettrica proveniente dal circuito esterno (il potenziale E) fornisce come risposta un
segnale elettrico proveniente dalla soluzione (la corrente i).
2) La scansione (cioè la variazione nel tempo) del potenziale E applicato fa in modo che vengono
successivamente raggiunti i potenziali di scarica delle varie specie elettroattive presenti nella soluzione e
quindi una variazione corrispondente della corrente i che attraversa il circuito. Ovviamente si tratta di

85
una elettrolisi parziale della soluzione, una specie di “assaggio” che permette tuttavia di ricavare
parametri analitici sia qualitativi che quantitativi.
3) Riportando in diagramma, dopo eventuale elaborazione, la corrente i in funzione del potenziale E si
possono ricavare svariati tipi di tracciato corrente/tensione, che differiscono a seconda della tecnica
impiegate (le varianti sono numerose anche se basate tutte sullo stesso principio!).
Le varianti si possono raggruppare in 3 categorie fondamentali:
• voltammetria,
• voltammetria idrodinamica,
• polarografia;

DIFFERENZA OPERATIVA NELLE METODICHE VOLTAMMETRICHE


Nella voltammetria si ha un microelettrodo stazionario (solido o goccia di Hg) e la soluzione è quiescente,
cioè è a riposo. Si registrano dei tracciati i/E detti voltammogrammi con la forma di picchi più o meno
simmetrici (tracciato A)
Nella voltammetria idrodinamica il microelettrodo è solido, stazionario in una soluzione agitata
meccanicamente oppure rotante nella soluzione, per garantire il continuo ricambio delle specie che si
scaricano; il corrispondente voltammogramma ha la forma di un’onda sigmoidale (tracciato B)
Nella polarografia il microelettrodo è una goccia di Hg che si rinnova continuamente (ad esempio cade
ritmicamente dall’estremità di un capillare); si ottiene un tracciato detto polarogramma (o onda
polarografica) con un andamento sigmoidale (tracciato B)
Questi tracciati possono dare informazioni sia qualitative che quantitative; oggi soprattutto alcune varianti
voltammetriche permettono di competere con le tecniche spettroscopiche (come l’AA) in termini di limite di
rivelabilità, tenendo presente che una tecnica come l’AA spesso risulta costosa (apparecchio, consumo gas,
ecc.).

• Mediante voltammetria o polarografia possono essere dosati per riduzione catodica quasi tutti i metalli,
determinati come cationi, e molti altri elementi (C, N, O, ecc.) dosati come anioni.
• Possono essere dosate anche le sostanze organiche purché elettroattive, cioè riducibili o ossidabili; molte
sostanze organiche non lo sono ma possono essere derivatizzate, cioè “agganciate” in rapporto
equimolecolare a molecole dotate di gruppi funzionali elettroattivi e quindi diventano dosabili.
• Le analisi voltammetrico/polarografiche hanno numerose applicazioni, tra cui: analisi delle acque e dei
rifiuti (dosaggio dei metalli),
• analisi dei materiali,
• analisi di farmaci e di alimenti (per es. il dosaggio della vitamina C nella frutta e nella verdura, in
presenza cioè di una matrice molto complessa che rende vano l’uso di altri metodi).
• Occorre infine tener presente che gli apparecchi sono altamente automatizzati per cui si prestano anche a
rapide analisi di routine.
Esperimento fondamentale : potenziale costante
Tutte le tecniche voltammetriche possono essere ricondotte ad un unico esperimento fondamentale, che nella
sua versione più elementare consiste nel registrare la corrente i che attraversa un elettrodo di superficie piana
quando viene applicato un potenziale E costante nel tempo, in grado di scaricare una specie elettroattiva (che
può cioè ridursi o ossidarsi) presente nella soluzione analitica. L’elettrodo su cui avviene la scarica verrà
chiamato da questo momento elettrodo di lavoro.
1) Si supponga di avere in soluzione la specie elettroattiva Aox (forma ossidata di A)

86
2) e di applicare all’elettrodo di lavoro un potenziale nettamente più riducente rispetto a quello di scarica di
Aox; avverrà la riduzione seguente:
Aox + ne- ↔ Ared
dove Ared è la forma ridotta di A
3) Si supponga di registrare la corrente i che attraversa l’elettrodo di lavoro quando Aox si riduce. Perché
avvenga la scarica è necessario che Aox raggiunga la superficie dell’elettrodo e prenda elettroni da
quest’ultimo;

quindi il processo di scarica è governato da 2 diversi fattori cinetici:


• la velocità di migrazione v1 con cui la specie chimica arriva sulla superficie dell’elettrodo di lavoro
• la velocità di scambio v2 con cui gli elettroni passano dall’elettrodo alla soluzione

Si supponga che lo scambio di elettroni sull’elettrodo sia praticamente istantaneo: in questo caso v1<<v2 per
cui la scarica dipende quasi esclusivamente da v1 (cioè dal processo più lento) e quindi dai meccanismi con i
quali Aox raggiunge l’elettrodo.
In questa situazione le condizioni sono identiche a quelle di una soluzione sottoposta ad elettrolisi e quindi la
corrente che passa nel circuito dipende dagli stessi fenomeni: convezione, migrazione, diffusione.

Convenzione: è lo spostamento dell’analita insieme al solvente dovuto all’agitazione della soluzione. Nel
corpo della soluzione si manifesta un moto turbolento che diventa laminare nei pressi dell’elettrodo; su
quest’ultimo, lo strato di liquido è praticamente stazionario.
Oltre all’agitazione meccanica, possono provocare moti convettivi in soluzione anche gradienti di
temperatura e di densità, che generano un flusso di materia che tende a ristabilire l’equilibrio in tutta la
soluzione. Il movimento delle cariche elettriche associate agli ioni a causa della convezione genera una
corrente elettrica all’interno della cella voltammetrica

Migrazione: è il movimento degli ioni dovuto alla forza di attrazione del campo elettrico generato
dall’elettrodo di segno opposto: i cationi migrano al catodo che ha segno (-), gli anioni migrano all’anodo
che ha segno (+).
Anche la migrazione degli ioni, producendo uno spostamento di cariche, genera una corrente elettrica
all’interno della cella voltammetrica. Nell’esempio considerato la specie elettroattiva è un catione e migra
verso il catodo, che ha segno (-), dove potrà ridursi.

Diffusione (detta depolarizzante): è il movimento spontaneo originato da gradienti di concentrazione; con


la diffusione il sistema tende a ripristinare la condizione di omogeneità.
In seguito alla scarica, nei pressi dell’elettrodo la concentrazione della specie elettroattiva diminuisce e
quindi si crea un gradiente di concentrazione (C0<C1<C2.. ecc.) che “richiama” la specie che si sta
scaricando dal corpo della soluzione, con una velocità di diffusione che risulta direttamente proporzionale al
gradiente di concentrazione.
Pertanto anche la corrente elettrica generata dalla diffusione è proporzionale al gradiente di concentrazione :
ΔC = (C – C0)

87
essendo C la concentrazione della specie elettroattiva nel corpo della soluzione, C0 la concentrazione della
stessa specie in prossimità dell’elettrodo di lavoro.

Ma C0 è praticamente zero per cui la corrente prodotta dalla diffusione è direttamente proporzionale alla
concentrazione di analita C presente in soluzione. Questo segnale elettrico può quindi essere correlato alla
concentrazione dell’analita e quindi permette di effettuare un’analisi quantitativa.

ELETTROLITI DI SUPPORTO
La corrente totale che si registra nel circuito in seguito alla scarica sull’elettrodo di lavoro di Aox segue le
leggi di Faraday e pertanto è detta corrente faradica (iF).

Fra tutti i fenomeni che producono tale corrente (convezione, migrazione, diffusione), solo la corrente di
diffusione è direttamene proporzionale al gradiente di concentrazione e quindi solo la corrente prodotta
dalla diffusione può essere correlata alla concentrazione dell’analita. E’ necessario quindi fare in modo che
la scarica avvenga esclusivamente in regime di diffusione.

• Per eliminare la convezione e la relativa corrente elettrica che produce si possono adottare vari
accorgimenti:
1. mantenere costante la temperatura in tutti i punti della soluzione (in pratica, tuttavia, non è
necessario ricorrere a celle termostatate)
2. in voltammetria e in polarografia non si agita la soluzione per tutta la durata dell’analisi
3. in voltammetria idrodinamica si agita la soluzione in modo omogeneo per evitare eccessive
turbolenze e realizzare un flusso laminare in cui lo strato di liquido a contatto dell’elettrodo di
lavoro è praticamente in quiete

• Per eliminare la migrazione e quindi la relativa corrente elettrica si cerca di “schermare” il campo
elettrico generato dall’elettrodo, utilizzando particolari elettroliti, detti elettroliti di supporto i cui ioni,
che non si scaricano nelle condizioni di lavoro, aggiunti alla soluzione analitica in concentrazioni
relativamente grandi migrano in modo prevalente rispetto agli ioni dell’analita.
Possono essere utilizzati come elettroliti di supporto varie soluzioni: sali (KCl), acidi (CH3COOH o
HCl), basi (KOH), complessanti (EDTA), tamponi (NH 3/NH4Cl).

L’elettrolita di supporto circonda con i suoi ioni l’elettrodo di lavoro ed in questo modo scherma il campo
elettrico, riducendo al minimo la migrazione dell’analita.
Un elettrolita di supporto deve possedere varie caratteristiche:
• deve essere chimicamente inerte specie nei confronti dell’analita
• non deve ostacolare la diffusione dell’analita e neppure lo scambio di elettroni sull’elettrodo
• deve avere un potenziale di scarica molto diverso (almeno 100-200 mV) rispetto alla specie che si
scarica (che viene detta anche depolarizzante)
• deve avere un’elevata conducibilità elettrica, per garantire una bassa resistenza al passaggio di corrente

L’uso dell’elettrolita di supporto, necessario per rendere la corrente misurata in una cella voltammetrica
dipendente solo dalla diffusione degli ioni, esalta purtroppo un problema di fondo insito nelle tecniche
voltammetriche/polarografiche: la presenza della corrente capacitativa.

CORRENTE CAPACITIVA
Quando ad un elettrodo viene applicato un potenziale elettrico esterno per provocare una redox (ad esempio
un potenziale negativo per provocare una riduzione), l’elettrodo assume un segno (in questo caso negativo).

88
In questo modo attira gli ioni di segno opposto presenti in soluzione e quindi si forma un doppio strato
elettrico, che si comporta come un microcondensatore, di capacità molto elevata perché molto piccolo.

La formazione del doppio strato genera un flusso di cariche elettriche detto corrente capacitativa (iC) o
corrente di carica, che costituisce un’interferenza di fondo (e quindi aspecifica, cioè indipendente
dall’analita) che si somma alla corrente faradica iF, che costituisce il segnale correlabile alla
concentrazione dell’analita presente in soluzione.
Il problema è che iC può falsare il valore di iF e quindi il risultato dell’analisi; se la specie da dosare che si
scarica sull’elettrodo di lavoro è presente in concentrazione molto piccola, iC può essere addirittura
superiore a iF, impedendo quindi una corretta misurazione del segnale.
Il problema della corrente capacitativa è esaltato dall’elettrolita di supporto che, circondando l’elettrodo con i
suoi ioni per schermare il campo elettrico, aumenta enormemente le cariche attorno allo stesso, ingrandendo
il condensatore formato e quindi amplificando ic.

• L’esistenza di iC innalza in modo sensibile il limite di rivelabilità di queste tecniche, che comunque non
può scendere al di sotto di 10-5–10-6 M, mentre in teoria potrebbe essere molto più basso, a meno di
adottare complessi accorgimento strumentali di tipo elettronico.

• Tutti i miglioramenti che si sono avuti nel corso degli anni a partire dal 1922, anno in cui Heyrowsky
propose la prima tecnica polarografica, hanno avuto come obiettivo il superamento di iC.

DIGRESSIONE SUL PROCESSO DI SCARICA


Le tecniche statiche e dinamiche sono equivalenti da punto di vista dei risultati ma diversi nelle metodiche
Ritorniamo all’esperimento fondamentale; si applica un opportuno potenziale elettrico E1 ad un elettrodo
immerso in una soluzione contenente la specie elettroattiva, cioè l’analita che si vuole dosare, ad esempio
nella sua forma ossidata Aox, che verrà ridotta sull’elettrodo di lavoro e l’elettrolita di supporto in eccesso.
In queste condizioni si registra come varia la corrente che passa nel circuito, dovuta al processo di scarica, in
funzione del tempo: si otterranno segnali diversi a seconda che la soluzione sia in quiete o agitata.
• soluzione quiescente: se non si agita la soluzione, la scarica di Aox riduce immediatamente la sua
concentrazione nei pressi dell’elettrodo (sulla sua superficie in pochi millisecondi la concentrazione si
riduce a zero) e quindi si forma un gradiente di concentrazione ΔC = (C – C0), che innesca la diffusione
di Aox dal corpo della soluzione (a concentrazione C) fino alla superficie dell’elettrodo (a
concentrazione C0).
Nel tempo (pochi secondi) il gradiente di concentrazione si estende, fino a stabilizzarsi a circa 30 μm
dalla superficie dell’elettrodo, e quindi Aox deve diffondere da distanze sempre maggiori: ciò provoca
una diminuzione di iF rispetto al valore iniziale; in modo analogo decresce nel tempo la corrente
capacitativa iC.

89
Il fenomeno diffusivo che si verifica è descritto dalla legge di Cottrell

• soluzione agitata: se la soluzione viene agitata vigorosamente ma senza eccessive turbolenze, la specie
Aox affluisce con continuità all’elettrodo e quindi iF rimane costante nel tempo.
Ciò sembra strano, perché i moti convettivi dovuti all’agitazione dovrebbero favorire la convezione e la
migrazione rispetto alla diffusione. In realtà, a causa degli attriti tra la soluzione e l’elettrodo, mano a
mano che ci si avvicina a quest’ultimo, il moto tende a farsi laminare: il flusso laminare che si produce è
dovuto ad una serie di straterelli di liquido adiacenti che scorrono l’uno sull’altro parallelamente alla
superficie dell’elettrodo. La velocità dello strato a contatto dell’elettrodo è praticamente nulla: tale
strato, di spessore variabile da 10 a 100 μm, mediamente di circa 50 μm, è detto strato di Nernst ed
al suo interno il trasporto di Aox verso l’elettrodo avviene unicamente per diffusione, proprio come nel
caso della soluzione in quiete.

90
ESPERIMENTO FONDAMENTALE : LA SCANSIONE
L’esperimento fondamentale elementare (a potenziale costante) descritto in precedenza permette di
raccogliere segnali che possono essere sfruttati per l’analisi quantitativa. In realtà i metodi voltammetrici
utilizzano una scansione di potenziale, cioè una variazione del potenziale applicato all’elettrodo di lavoro
(crescente o decrescente) in funzione del tempo: ciò permette di ottenere maggiori informazioni.
Se si utilizza un sistema con potenziale variabile nel tempo diventano importanti gli aspetti cinetici legati ai
processi di scarica.

Supponendo di applicare un potenziale adatto a processi di riduzione, chiamando Aox la specie elettroattiva
ossidata che verrà ridotta all’elettrodo di lavoro, indicando con v1 la velocità di diffusione di Aox e v2 la
velocità di scarica all’elettrodo, si possono avere vari casi:
- lo scambio elettronico è più veloce della variazione del potenziale e della diffusione, cioè v2 > v1. In
questo caso, sulla superficie dell’elettrodo, le concentrazioni delle forma ossidata e ridotta che
costituiscono la coppia redox elettroattiva sono correlate in ogni istante al potenziale dell’elettrodo
mediante la legge di Nernst, cioè la realizzazione cinetica del processo si adegua alla previsione
termodinamica (equilibrio).
Il sistema redox è reversibile e la velocità dei processi di elettrodo è regolata unicamente dalla diffusione.
E’ ovviamente il caso ottimale per applicazioni analitiche
- la velocità di trasferimento degli elettroni è minore della velocità di diffusione, cioè v2 < v1. Il sistema è
“lento” cioè irreversibile e la sua cinetica è “in ritardo” a quella prevista dalla legge di Nernst
- la velocità di trasferimento degli elettroni è paragonabile alla velocità di diffusione, cioè v2 ≈ v1. Il
sistema ha caratteristiche intermedie ai due casi limite precedenti e la cinetica dei processi di elettrodo è
regolata sia dalla diffusione che dal trasferimento di elettroni.

IL VOLTAMMOGRAMMA
Si supponga di utilizzare un sistema ideale (ipotesi abbastanza vicina alla realtà nei casi di interesse
analitico): il sistema risulta così rapido da obbedire completamente alla legge di Nernst, quindi è totalmente
reversibile; inoltre si supponga che non vi siano interferenze in seguito a fenomeni di adsorbimento
sull’elettrodo o reazioni chimiche collaterali.
In queste condizioni la risposta del sistema, cioè la corrente che si registra al variare del potenziale
dell’elettrodo di lavoro, è descritto dalle curve tensione/corrente tipiche dell’elettrolisi.
Applicando una scansione di potenziale lineare e non eccessivamente rapida, registrando la variazione della
corrente faradica prodotta nel sistema in funzione del tempo, si ottiene una curva sigmoidale.

• Si supponga di effettuare una scansione catodica (riduzione) di un’unica specie riducibile Aox, partendo
da un potenziale molto maggiore (più positivo ovvero meno negativo) della coppia redox e imponendo
potenziali via via decrescenti, fino a raggiungere condizioni nettamente riducenti.
• Si adotta la convenzione che la corrente catodica sia positiva e i potenziali decrescono da sinistra verso
destra sull’asse delle ascisse del grafico i/E.

Per illustrare nei dettagli il fenomeno si consideri un caso concreto: la riduzione della specie Pb 2+ in una
soluzione con KCl 0,1 M come elettrolita di supporto, sottoposta a scansione catodica lenta, ad esempio da -
100 mV a -400 mV su elettrodo fisso a goccia di Hg. In queste condizioni si ha la seguente coppia redox:

Pb2+ + 2e- →Pb(Hg) amalgama E0 = -0,365 V


la coppia obbedisce in ogni istante alla legge di Nernst per cui il potenziale che assume l’elettrodo di lavoro è
correlato alle concentrazioni dalla relazione:

91
La curva sigmoidale che si ottiene (voltammogramma) si può dividere in 3 diversi tratti
caratteristici:

1) Corrente residua (tratto A): in questo tratto il potenziale applicato non è sufficiente a provocare la
scarica di Pb2+ e quindi la corrente che si misura nel circuito è molto bassa ed è detta corrente residua.
• E’ dovuta a cause diverse: la caduta ohmica del circuito
• la scarica di impurezze o tracce di ossigeno,
• corrente capacitativa
• rumore di fondo del sistema di misura

2) Onda (tratto B):


• quando, durante la scansione, il potenziale si avvicina a quello della coppia redox in analisi, la
corrente comincia ad innalzarsi bruscamente a causa dell’inizio della riduzione degli ioni Pb 2+ a Pb
metallico, che si scioglie nell’elettrodo a goccia di Hg formando l’amalgama.
• Sulla superficie dell’elettrodo si crea il gradiente di concentrazione che in pochi millisecondi si
allontana dalla superficie dello stesso fino a stabilizzarsi, creando lo strato attraverso il quale avviene
la diffusione degli ioni Pb2+ dal corpo della soluzione. In questo tratto la velocità di diffusione è
direttamente proporzionale al gradiente di concentrazione.
• Mano a mano che il potenziale diminuisce (cioè diventa più riducente), cresce il numero di ioni che
si scaricano, perché, essendo il sistema totalmente reversibile, il potenziale di equilibrio deve seguire
la legge di Nernst, che impone una diminuzione della concentrazione della specie ossidata rispetto a
quella ridotta. Di conseguenza il gradiente di concentrazione aumenta insieme alla velocità di
diffusione e con essi la corrente faradica.
• Ad un certo punto la concentrazione di Pb2+ è ridotta alla metà del valore iniziale e la corrente che
attraversa il circuito è la metà di quella massima: il potenziale corrispondente è detto potenziale di
mezz’onda (o semionda) e viene indicato con E1/2. Il valore di E1/2 è abbastanza vicino, tenendo
conto dell’ambiente ionico ed in particolare dell’elettrolita di supporto, al valore di E0 per la coppia
redox analizzata: quindi E1/2 costituisce il parametro qualitativo dell’analisi
voltammetrico/polarografica, cioè quello che permette di riconoscere la specie elettroattiva
3) Corrente limite di diffusione (tratto C):
• superato il punto di flesso della curva, corrispondente a E1/2, la corrente sale più lentamente, fino a
raggiungere un “plateau” (cioè un gradino), che corrisponde ad una situazione stazionaria in cui i
non aumenta più al variare di E.
• A potenziali così riducenti, gli ioni Pb 2+ diffondono alla massima velocità e tutti quelli che
raggiungono l’elettrodo vengono immediatamente scaricati. La loro concentrazione attorno

92
all’elettrodo è praticamente zero ed il gradiente di concentrazione ha raggiunto il suo valore
massimo, che dipende solo dalla concentrazione iniziale dell’analita.
• La concentrazione dell’analita si può infatti supporre che non cambi durante la scansione, in quanto
sia le piccole dimensioni dell’elettrodo che la breve durata dell’analisi fanno si che la quantità di ioni
Pb2+ scaricata sia trascurabile.
La corrente che fluisce in queste condizioni è detta corrente limite o di diffusione (il o id) e, sia per
soluzioni quiescenti che agitate, vale: il = K·[Aox] conglobando nella costante K tutte le variabili
che assumono valore costante nel corso dell’analisi.
• Questa relazione permette l’analisi quantitativa: ad esempio si può costruire una retta di lavoro
riportando il in funzione della concentrazione C di vari standard, sottoposti a scansione di potenziale
nelle stesse condizioni, utilizzando in seguito tale grafico per ricavare la concentrazione incognita di
un campione

• Elaborando matematicamente il segnale si può trasformare la curva sigmoidale nella sua derivata
prima, che permette di misurare meglio i parametri qualitativi e quantitativi:

• E1/2 diventa il potenziale corrispondente al massimo della derivata prima e perciò detto potenziale
di picco Ep
• L’altezza del picco è proporzionale a il ed è quindi facilmente valutabile

Tutti i moderni apparecchi voltammmetrici e polarografici pemettono di ottenere picchi in derivata rispetto
al segnale originale.
Se vi sono due o più specie elettroattive che si scaricano a potenziali diversi possono essere rilevate e
daranno origine a più curve sigmoidali (nel caso della voltammetria idrodinamica e della polarografia) o più
picchi (nel caso della voltammetria) in successione:

Se il sistema analizzato non è ideale si hanno distorsioni ed asimmetrie nella formazione dell’onda
sigmoidale e del picco corrispondente, che non permettono di correlare in modo soddisfacente il segnale
elettrico e la concentrazione ionica (come ad esempio il sistema Ni2+/Ni) e quindi in questi casi occorre
utilizzare particolari tecniche analitiche.

Elettrodo di lavoro
La gamma di tensioni con le quali è possibile lavorare con le tecniche voltammetrico/polarografiche dipende
da vari fattori:
- solvente in cui si effettua l’analisi
- natura chimica e caratteristiche di superficie dell’elettrodo di lavoro

93
- elettrolita di supporto
- sensibilità dello strumento di misura

In ambiente acquoso, caratteristico della maggior parte dei campioni che si possono analizzare, per un
processo di riduzione catodica il campo di utilizzo è limitato dalla scarica dell’idrogeno:
2H+ + 2e- H2(g)
Viceversa per una ossidazione anodica la limitazione è dovuta di solito all’ossidazione dell’acqua:
H2O O2(g) + 4H+ + 4e-
Queste due reazioni delimitano la “finestra” di potenziale che si può utilizzare nella scansione. La natura
chimica dell’elettrodo di lavoro svolge un ruolo essenziale a causa delle sovratensioni di scarica che può
determinare, favorendo o sfavorendo determinati processi di scarica.
ELETTRODO A MERCURIO

Il mercurio rappresenta un ottimo materiale per riduzioni catodiche, a causa della sua elevata
sovratensione di scarica per l’H2, che non si verifica fino a -1 V in ambiente acido e -2 V in ambiente basico,
contro un potenziale di scarica teorico (riferito al SSC) di -0,2 V. Questo fenomeno permette di utilizzare un
elettrodo a goccia pendente di Hg per il dosaggio di quasi tutti i metalli, che su di esso riescono a ridursi
prima dell’idrogeno
Il mercurio non è molto adatto, al contrario, per ossidazioni anodiche, a causa della sua tendenza ad
ossidarsi:
2Hg Hg22+ + 2e- Hg Hg2+ + 2e-

ELETTRODO A GOCCIA DI MERCURIO

L’elettrodo a goccia pendente di Hg può essere facilmente rinnovato al termine di ogni scansione (basta fare
cadere la goccia!) oppure durante la scansione stessa (polarografia) e quindi non richiede complesse
operazioni di pulizia per allontanare gli analiti già scaricati.
Nel caso di riduzioni catodiche, molti metalli formano amalgame col Hg e ciò ne favorisce il processo di
scarica.
Tuttavia vi è anche uno svantaggio: Hg è tossico, anche se i moderni apparecchi sono perfettamente sigillati;
inoltre evapora lentamente anche se conservato sotto battente di acqua e quindi vaporizzandosi nell’aria la
inquina

ELETTRODI SOLIDI

Utilizzati soprattutto per voltammetrie anodiche si utilizzano microelettrodi di :


• Pt, Au e C vetroso, che sono limitati a potenziali maggiori di 1 V dall’ossidazione dell’acqua.
• Hanno lo svantaggio di richiedere, tra un’analisi e l’altra, lenti e complessi processi di pulizia per
allontanare dalla loro superficie le sostanze dovute alla scarica dell’analita.
• Tuttavia si prestano ad essere modellati secondo opportune geometrie ed usati in sistemi rotanti in
voltammetria idrodinamica.

METODI VOLTAMMETRICI
1. voltammetria: si opera in condizioni di quiescenza della soluzione; la scansione di potenziale è più o
meno rapida e si registra in vari modi la corrente che passa nel circuito. Si utilizza un elettrodo
stazionario (a goccia pendente di Hg o solido) e si può attuare un’opportuna elaborazione del segnale
rilevato
2. voltammetria idrodinamica: si effettua una scansione di potenziale relativamente lenta, facendo in modo
che la concentrazione di depolarizzante (cioè dell’analita, ovvero della sostanza elettroattiva destinata
alla scarica) rimanga costante vicino all’elettrodo in vari modi: mediante agitazione meccanica della
soluzione o rotazione dello stesso elettrodo

3. Polarografia: si effettua una scansione lenta di potenziale su un elettrodo a goccia di Hg che cade
ritmicamente da un capillare (elettrodo di Hg a goccia battente), in modo da assicurare il rimescolamento
della soluzione ed il rinnovo dell’interfaccia tra elettrodo e soluzione analitica

94
Le numerose varianti di queste 3 tecniche fondamentali differiscono tra loro per diversi fattori:
• tipo di elettrodo,
• modo di scansione del potenziale,
• modo di raccolta del segnale
ma possono essere comparate considerando i seguenti parametri analitici:
• risoluzione: minima differenza (in mV) tra due potenziali di mezz’onda E1/2 o di picco Ep adiacenti che
permette di usare i tracciati a scopo analitico, cioè di distinguere tra due analiti diversi (USATA PER
QUALITATIVA)
• separabilità: massimo rapporto tra le concentrazioni di due specie i cui segnali adiacenti (onde o picchi)
possono essere risolti uno dall’altro. Per esempio una separabilità 1 a 100 significa che se la
concentrazione di una specie è 100 volte più grande dell’altra, non si possono ottenere picchi separabili
tra di loro
• limite di rivelabilità: minima concentrazione che può essere determinata

I metodi voltammetrici hanno, rispetto a quelli polarografici, :


• migliori limiti di rilevabilità (cioè sono più bassi),
• maggiore precisione
• tempi di lavoro spesso molto rapidi.
• Hanno applicazioni soprattutto quantitative ma vengono anche usati per vari studi teorici sulle coppie
redox.
• La scarica dell’analita inquina la superficie dell’elettrodo che deve essere pulita prima di una successiva
scansione, operazione facilissima se si tratta di un elettrodo a goccia di Hg.
• La possibilità di automatizzare il metodo ha condotto a realizzare metodi per l’analisi a flusso continuo,
utilizzate nel controllo di processi produttivi, e di rivelatori per HPLC.
ASPETTI TEORICI DELLA VOLTAMMETRIA
Al fine di comprendere i principi di base delle tecniche in oggetto, è opportuno considerare in dettaglio la
struttura dell'interfase elettrodo/soluzione.
Si consideri un elettrodo immerso in una soluzione contenente le concentrazioni [R] b e [O]b (il pedice b
indica il bulk della soluzione e cioè l’intera massa) delle specie ridotta ed ossidata, Rid ed Oss,
rispettivamente, di una coppia d’ossidoriduzione.
In base alla semireazione Oss + ne = Rid, possiamo scrivere l’Equazione di Nernst:
0,059 a
Voc = V  + log Oss
n aRid
in cui Voc è il potenziale dell’elettrodo a circuito aperto.
Nei limiti dell'approssimazione, ovvero che la forza ionica sia bassa e che quindi i coefficienti di attività non
siano significativamente diversi dall'unità, possiamo riscrivere l’equazione di Nernst come segue:
0,059 [Oss ]
Voc = V  + log
n [ Rid ]

Nel caso l’elettrodo, per esempio un elettrodo a goccia di mercurio, sia immerso in una soluzione di ioni
cadmio a concentrazione 810-3 M, è facile verificare che il potenziale elettrodico a circuito aperto è uguale a:
0,059
Voc = −0,403 + log(8.10 −3 ) = −0,465 V
2
Quando all’elettrodo è applicato un potenziale V app minore di Voc, per esempio Vapp = -0,483 V, la
concentrazione degli ioni cadmio nel sottile strato di soluzione a contatto con la superficie elettrodica, cioè
all’interfase elettrodo soluzione, deve ridursi in accordo all’eq. di Nernst
0,059
Vapp = −0,403 + log(C) = −0,483 V
2
C = 2,0.10 −3 M

95
Da questo esempio si può evincere che, se è possibile variare la concentrazione, facendo variare il potenziale,
è anche possibile ricavare la concentrazione facendo variare il potenziale.
L’andamento della concentrazione del cadmio in seguito alla variazione del potenziale applicato all’elettrodo
viene evidenziata in figura:
0.01
0.008
0.008

0.006
[Cd]/M

0.004
0.002
0.002

0
0.45 0.5 0.55 0.6
Potenziale/V

VOLTAMMETRIA A SCANSIONE LINEARE (RSV)

E’ indicata come Rapid Scan Voltammetry - RSV o Linear-Sweep Voltammetry - LSV.


• E’ la più semplice tra le tecniche voltammetriche e consiste nell’applicare a un microelettrodo
stazionario (a goccia pendente di Hg o allo stato solido) un potenziale che varia in modo lineare e molto
rapido nel tempo (20-100 mV/s),
• partendo da valori a cui non avviene la scarica della specie che si vuole analizzare presente in soluzione.

Si ottiene il seguente grafico:

SPIEGAZIONE DEL PERCHE’ UN CURVA ASIMMETRICA E NON SIGMOIDALE


In questo caso non si ottiene la classica onda ma un picco asimmetrico la cui altezza, detta corrente di picco
ip, è nettamente più elevata rispetto a quella dell’onda che si otterrebbe con una scansione lenta.
Infatti in caso di scansione lenta la corrente che si registra dipende solo dalla diffusione della specie che si
scarica mentre con la scansione rapida il trasferimento di elettroni, nei pressi del potenziale di scarica,
diventa così rapido da determinare il veloce richiamo e la scarica istantanea di tutti gli ioni che si trovano
vicino all’elettrodo di lavoro, determinando un valore di corrente di picco elevato.
Di conseguenza la soluzione circostante si impoverisce di ioni e quindi la corrente, dopo un determinato
valore di potenziale detto potenziale di picco Ep, invece di rimanere al valore di plateau tipico dell’onda
sigmoidale, diminuisce e quindi il ramo superiore dell’onda “collassa” e forma il picco asimmetrico.
1. Il potenziale di semionda E1/2 si legge in corrispondenza di 0,85·ip, data l’asimmetria del picco prodotto
dalla scansione di potenziale ed è il parametro qualitativo.
2. Il valore di ip, è il parametro quantitativo;
3. si producono vari standard a concentrazione nota dell’analita,
4. si registrano altrettanti voltammogrammi nelle stesse condizioni,
5. ed infine si riportano i relativi valori di ip in una retta di lavoro oppure si possono utilizzare altri metodi
di correlazione del segnale strumentale con la concentrazione (aggiunte standard, ecc.)

96
In questa metodica vi è la presenza contemporanea di corrente faradica e corrente non faradica (dovuta al
doppio strato) detta anche corrente capacitiva. La metodica per eliminare il contributo della corrente non
faradica è basata sulla tipologia di campionamento. Considerando che le correnti capacitive sono tanto
maggiori quanto più veloce è la variazione di potenziale e che dopo la variazione del potenziale
diminuiscono molto più rapidamente rispetto alle correnti faradiche. Il campionamento per la corrente totale
viene effettuato appena prima dell’impulso e quasi alla fine dell’impulso stesso. Il primo campionamento
fornisce la linea di base e il secondo viene eseguito quando le correnti capacitive sono praticamente assenti.
Ovviamente la gestione dell’elettrodo di lavoro e la raccolta dei dati viene eseguita elettronicamente.

• Il metodo è molto sensibile ma il limite di rilevabilità non è particolarmente basso (qualche mg/l), perché
la corrente capacitativa aumenta con l’aumentare della velocità di scansione del potenziale e non può
essere del tutto eliminata con accorgimenti elettronici.
• La risoluzione è di circa 40 mV, la separabilità di circa 1 a 400.
ASPETTI CARATTERISTICI DELLA CORRENTE CAPACITIVA
La corrente capacitiva originata dal caricamento elettrostatico della goccia di mercurio all’atto
dell’applicazione o variazione del potenziale. Questo processo comporta il caricamento del doppio strato alla
superficie elettrodica.
La corrente capacitiva è massima all’atto dell’applicazione del potenziale e decresce esponenzialmente nel
tempo. La corrente capacitiva costituisce quindi una interferenza di fondo aspecifica della corrente faradica
e, a volte, può risultare superiore a quest’ultima quando il depolarizzante é in concentrazioni molto basse.
Di conseguenza la misura della corrente faradica risulta piuttosto difficoltosa, a meno di non adottare
opportuni accorgimenti elettronici. Ecco perché la polarografia (e quindi la voltammetria) ha potuto
espandersi come tecnica analitica solo in seguito ai progressi dell’elettronica, tanto é vero che si può
affermare che la sua evoluzione é stata legata (e lo é tuttora) ai tentativi di superare elettronicamente i
problemi dovuti alla corrente capacitiva.
VOLTAMMETRIA DIFFERENZIALE AD IMPULSI
Viene indicata come Differential Pulse Voltammetry - DPV.

1. In questo caso al microelettrodo di Hg si applicano sia una scansione lineare di potenziale


2. sia una serie periodica (ogni 0,5-5 secondi) di impulsi di tensione sovraimposti, di durata e ampiezza
costanti
3. Registrando la corrente che passa nel circuito si ottiene il seguente grafico e riportando come varia Δi
dopo ogni impulso in funzione della scansione di potenziale:

• L’applicazione degli impulsi di potenziale permette un netto miglioramento dei risultati ottenuti nella
LSV; in particolare diminuisce la corrente capacitativa,
• aumenta la sensibilità;
• pertanto si formano picchi molto simmetrici, in cui la misura dell’altezza (o anche dell’area), che
costituisce il parametro quantitativo, non comporta problemi.
• risoluzione di circa 40 mV ed una separabilità di 1 a 10.000.

97
VOLTAMMETRIA AD ONDA QUADRA

Questa metodica costituisce un ulteriore sviluppo della


PULSATA.
1. All’elettrodo viene applicata una tensione che varia
rapidamente a scalini, su questi viene applicata un’onda
quadra di elevata frequenza (20 – 100 Hz).

2. La corrente viene campionata due volte: alla fine


dell’impulso diretto e alla fine di quello di ritorno.
3. Se la durata dell’impulso é molto veloce e la coppia
redox analizzata é reversibile, nella prima fase la specie
elettroattiva si scarica (ad es. si riduce), mentre nella
seconda fase i prodotti di reazione subiscono il processo
inverso (nell’esempio si ossidano).
4. Le due correnti vengono poi sommate realizzando così una tecnica differenziale molto più sensibile della
DPV.
La sensibilità della tecnica può essere aumentata aumentando l’ampiezza dell’onda quadra o la frequenza: il
limite, naturalmente é posto dalla cinetica del sistema redox, che non deve essere più lento della velocità di
scansione.
Anche in questo caso l’interferenza della corrente capacitiva é ridotta al minimo perché la corrente viene
campionata alla fine dell’impulso, quando cioè la corrente di carica del doppio strato elettrico é minima.I
limiti di rivelabilità sono dell’ordine dei 5 – 50 g/l.
VOLTAMMETRIA CICLICA (CV)

E’ una tecnica voltammetrica destinata allo studio del comportamento teorico delle coppie redox. Si tratta di
una particolare tecnica che prevede di applicare all’elettrodo di misura una forma d’onda di potenziale
triangolare, in modo da indurre prima l’ossidazione (o viceversa) e poi la riduzione (o viceversa) di una
specie elettroattiva.
Gli estremi dell’intervallo di potenziale applicato prendono il nome di potenziali di commutazione, i quali
vengono scelti in modo tale che l’intervallo comprenda l’ossidazione o riduzione, a diffusione controllata di
uno o più analiti.
La scansione ciclica deve avvenire rispettando alcune semplici regole di base:
1. per una scansione che parte in senso catodico il potenziale finale della scansione deve essere inferiore di
almeno 100 mV rispetto al potenziale di picco,
2. per una scansione che parte in senso anodico invece il potenziale finale della scansione deve essere
superiore di almeno 100 mV rispetto al potenziale di mezz’onda.
3. In alternativa si può far passare un minuto tra la scansione di andata e quella di ritorno.

98
VOLTAMMETRIA CON SCANSIONE A GRADINI
• E’ una variante della voltammetria ciclica che consiste nell’effettuare una scansione a gradini,
aumentando cioè il potenziale bruscamente ad intervalli di tempo regolari.
• La corrente viene poi campionata negli ultimi istanti, prima del gradino successivi
• Si ottiene così un segnale meno affetto dall’interferenza da corrente capacitiva.

POLAROGRAFIA
La polarografia è simile ai metodi voltammetrici: opera in soluzione agitata e, nella versione classica, utilizza
un elettrodo a goccia di Hg cadente. Lo schema di una cella polarografica è il seguente:

• elettrodo di lavoro: costituito da un capillare collegato ad una riserva di Hg; al termine del capillare si
forma una goccia di Hg che si stacca con regolarità per opera della gravità oppure grazie all’azione di un
martelletto meccanico. In questo modo si rinnova continuamente la superficie dell’elettrodo di lavoro
• controelettrodo: di solito un filo di Pt necessario per la chiusura del circuito
• elettrodo di riferimento: di solito un elettrodo a calomelano saturo (SCE) a potenziale costante
• Gli elettrodi sono collegati ad un potenziostato e ad un sistema di scansione del potenziale elettrico, che
consentono di imporre con grande precisione ad ogni istante il potenziale desiderato all’elettrodo di
lavoro.
• I segnali prodotti dalla cella vengono raccolti ed elaborati mediante un PC che regola l’intero sistema e
registra la corrente che passa nella cella.
• Tramite un tubicino si insuffla N2 con continuità per allontanare l’O2 che potrebbe dare interferenze e
quindi asimmetrie nelle onde polarografiche registrate.
• Oltreché dall’ingresso del gas, la soluzione viene agitata mediante un’ancoretta magnetica posta sul
fondo della cella polarografica.

99
• Data la tossicità del Hg e la sua volatilità, oggi si preferiscono elettrodi di nuova concezione, come ad
esempio l’elettrodo a C vetroso: un disco di grafite dispersa in una matrice vetrosa, inserita a sua volta
in un cilindro di Teflon

• Nella polarografia si ottiene una curva sigmoidale dalla quale si possono misurare i noti valori di E1/2
per l’analisi qualitativa
• e di il per l’analisi quantitativa.
• Come per la voltammetria, anche in questo caso si utilizza un adatto elettrolita di supporto per ridurre la
corrente di migrazione ionica.
• Il campo di applicazione della polarografia e piuttosto vasto: principalmente riduzioni catodiche di vari
metalli presenti in diversi campioni (leghe metalliche, acque, reflui, ecc.)
• ed in misura minore riduzione di alcune sostanze organiche riducibili, come la vitamina C in vari
alimenti, o derivabili chimicamente in prodotti riducibili.

La costante di proporzionalità tra corrente limite di diffusione e concentrazione è esplicitata dall’equazione


di Ilkovic:

(id )max = 708n D  3 m 2  6 t  c

• il primo membro rappresenta la corrente massima di diffusione espressa in ;


• al secondo membro t il tempo di gocciolamento espresso in secondi;
• m la velocità di flusso del mercurio attraverso il capillare in mg/s;
• D il coefficiente di diffusione dell’analita in cm2/s;
• c la concentrazione in mM.
CROMATOGRAFIA
La cromatografia si configura come un potente metodo di separazione e analisi che trova applicazione in
tutte le branche della scienza. Tale tecnica comprende un variegato e importante novero di metodi che
permettono la separazione, l’identificazione e la determinazione di componenti strettamente correlati alle
miscele complesse.
La cromatografia è stata descritta come tecnica di separazione per la prima volta da Mikhail Tswett. (1906),
il quale la utilizzò per separare pigmenti colorati delle piante usando un tubo riempito di CaCO 3; la
formazione di bande colorate indusse lo studioso russo a battezzare questa tecnica cromatografia dal greco
“chroma” = colore e “graphein” = scrivere.
La realizzazione di un processo cromatografico richiede la presenza di due tipi di fase ossia la fase mobile e
la fase stazionaria. Il campione da analizzare viene solubilizzato nella fase mobile, che può essere un
liquido, un gas o un fluido supercritico. Tale fase mobile viene forzata attraverso la fase stazionaria
immiscibile, la quale viene mantenuta ferma in una colonna o su una superficie solida.
Il principio generale su cui si basano tutte le tecniche cromatografiche è la differenza di affinità dei
composti da analizzare nei confronti della fase stazionaria e della fase mobile. Infatti, le due fasi vengono
scelte in modo che i componenti del campione si distribuiscano tra le due fasi a gradi variabili.

100
I componenti che vengono più fortemente trattenuti dalla fase stazionaria si muovono lentamente con il
flusso della fase mobile. Al contrario, i componenti che vengono trattenuti debolmente dalla fase stazionaria
viaggiano in modo più rapido.
Risulta semplice comprendere che la differenza di velocità risulta essere funzione della diversa interazione e
affinità chimica fra gli analiti e le due fasi. In seguito a queste diverse velocità di migrazione, i componenti
del campione si separano in bande o zone discrete, che possono essere analizzate sia qualitativamente che
quantitativamente.
Le bande formate, escono mano a mano dalla colonna ove è posto un rivelatore. Quest’ultimo diagrammerà
la concentrazione del soluto in funzione del tempo, ottenendo così una serie di picchi. Tale diagramma,
chiamato cromatogramma, è utile sia per l’analisi qualitativa e sia per l’analisi quantitativa.
• la posizione dei picchi sull’asse del tempo può essere utilizzata per identificare i componenti del
campione,
• le aree sotto i picchi forniscono informazioni di tipo quantitativo sul campione.

Analizzando accuratamente un cromatogramma ciò che si nota a prima vista è un piccolo picco molto vicino
allo zero della coordinata temporale e dei picchi più grandi sulla destra. Il primo rappresenta il segnale del
solvente, delle impurezze che non sono state separate o aria, mentre gli altri picchi più grandi
rappresentano i componenti della miscela.

Principi teorici della cromatografia


Costanti di distribuzione
L’efficacia di un processo cromatografico nel separare due soluti dipende in parte dalle velocità relative alle
quali le due specie vengono eluite. Tali velocità vengono determinate dalla grandezza delle costanti di
equilibrio delle reazioni con cui i soluti si distribuiscono tra la fase mobile e quella stazionaria.
Gli equilibri di distribuzione implicati nelle tecniche cromatografiche vengono descritti mediante semplici
equazioni che implicano il trasferimento di un analita tra la fase mobile e quella stazionaria:
Il rapporto tra la concentrazione di un componente nella fase stazionaria e nella fase mobile prende il nome
di costante di distribuzione ( o coefficiente di ripartizione):

Tale coefficiente risulta essere di fondamentale importanza in quanto influenza la distribuzione dei
componenti tra le fasi e perciò le separazioni. Modulando opportunamente la fase mobile, la fase stazionaria
o entrambe, la costante di distribuzione può essere manipolata entro certi limiti.
A rigor di logica al posto delle concentrazioni sarebbe necessario apporre le attività dei diversi componenti.
Tuttavia, quando le concentrazioni sono basse o quando sono implicate specie non ioniche, i coefficienti di
attività sono quasi uguali a 1, per cui concentrazione e attività coincidono.
Di conseguenza ogni componente della miscela da separare avrà una sua isoterma di ripartizione ed un suo
coefficiente di distribuzione.
L’esistenza di un coefficiente di ripartizione proprio, per ogni componente della matrice oggetto della nostra
determinazione, implica che ogni analita presenterà un proprio tempo di permanenza nel sistema, che
dipenderà, di volta in volta, dai parametri sperimentali. Sebbene la costante di distribuzione sia fondamentale
per le separazioni cromatografiche, essa non è semplice da misurare. Risulta essere più agevole misurare due
funzioni del coefficiente di ripartizione che prendono il nome di tempo di ritenzione e tempo morto. Per
evidenziare queste due grandezze si consideri il seguente cromatogramma:

101
• Il picco più piccolo è relativo a una specie che non è trattenuta dalla fase stazionaria. Spesso il campione
o la fase mobile contengono una specie di questo tipo. Se ciò non accade si può aggiungere tale specie
per facilitare l’identificazione del picco. Il tempo impiegato tm impiegato dalla specie non trattenuta per
raggiungere il rivelatore è chiamato tempo morto. Questa quantità fornisce informazioni sulla velocità
media di migrazione della fase mobile.
Si definisce volume morto (VM) ossia il volume di ritenzione di un composto che non è trattenuto
(corrisponde al volume di fase mobile che occupa la colonna).

• Relativamente al secondo picco è possibile definire un ulteriore parametro che prende il nome di tempo
di ritenzione. Tale quantità coincide con il tempo necessario alla sostanza iniettata per essere eluita
dall’inizio, all’uscita della colonna.
Ovviamente è possibile definire i corrispettivi volumi; si definisce volume di ritenzione (VR) il volume
di fase mobile necessario ad eluire l’analita dall’inizio all’uscita della colonna.
TEORIE SULLA CROMATOGRAFIA
Per spiegare, dal punto di vista teorico, i processi cromatografici è possibile utilizzare due diversi approcci, i
quali, ovviamente, presentano punti a favore e punti contro. Dal punto di vista storico, la teoria più datata è
quella dei piatti teorici, proposta nel 1941 da Martin e Synge, la quale si basa sull’analogia con la
distillazione e l’estrazione in controcorrente.
La seconda teoria è detta teoria della velocità, la quale tiene conto della dinamica della separazione ed è
dovuta a J.J. van Deemter a partire dal 1956.
TEORIA DEI PIATTI TEORICI
Secondo tale modello, un sistema cromatografico contiene idealmente un numero di strati sottili separati,
detti appunto piatti teorici, ortogonali alla direzione di spostamento della fase mobile, in cui possono essere
riscontrati equilibri fra l’analita, fase stazionaria e fase mobile.
Il concetto di piatto teorico deriva dalla teoria della distillazione, dove si considera che su ogni piatto di cui
è costituita una colonna di distillazione si realizza una condizione dinamica di equilibrio liquido/vapore nei
vari stati di evaporazione e condensazione.
Trasportando questi concetti alla teoria cromatografica, i piatti si configurano come una rappresentazione
teorica nella quale si ipotizza una situazione di equilibrio dinamico dell’analita con la fase mobile e
stazionaria.
Maggiore è il numero degli equilibri che si instaurano durante il passaggio dell’analita sulla fase
stazionaria, più alto sarà il numero dei piatti teorici e quindi maggiore sarà l’efficienza cromatografica
E’ bene sottolineare che in un sistema cromatografico i piatti teorici non sono materialmente isolati l’uno
dall’altro e la condizione di uniforme concentrazione di equilibrio nelle due fasi è realizzata in essenza di
fenomeni di diffusione, i quali vengono trascurati nella trattazione teorica.
Risulta evidente, quindi, che il concetto di piatto teorico acquista fondamentale importanza nella definizione
quantitativa dell’efficienza di un sistema cromatografico.
L’efficienza di un sistema cromatografico è direttamente proporzionale al numero di piatti teorici, definito
come
• N=L/H, in cui N è il numero di piatti teorici, L è la lunghezza dell’impaccamento della colonna e H è
l’altezza del singolo piatto.
Tenendo presente questo, è possibile definire l’altezza equivalente di un piatto teorico che può essere
anche definito come HETP (height equivalent theoretical plate).
L’HETP è determinata da numerosi fattori tra cui : le caratteristiche della fase stazionaria (es. diametro
delle particelle, velocità di flusso della fase mobile, natura del supporto della fase stazionaria).
Generalmente si assume che le bande cromatografiche presentino una forma molto simile a una curva
gaussiana. L’ampiezza di una curva a campana è descritta della sua deviazione standard σ o dalla sua
varianza σ2. L’altezza del piatto teorico viene, quindi, definita come HETP = σ2/L.

102
La valutazione sperimentale di H e N può essere fatta direttamente sul cromatogramma. La varianza del
picco può essere espressa anche in funzione del tempo, mediante questa relazione:

( in cm2 ; il denominatore rappresenta la velocità media del soluto)


Per analogia a rappresenta la deviazione standard misurata nel picco in unità di tempo (secondi)
A questo punto bisogna estrapolare dal cromatogramma la base del picco:

Le tangenti ai flessi nei due lati del picco vengono prolungate fino a formare un triangolo con la linea di
base del cromatogramma.
Dalla statistica si apprende che il 96% dell’area di una grandezza è compresa fra due deviazioni standard,
per cui si ha che la linea di base W varia fra 4 deviazioni standard in unità di tempo:

Sostituendo all’equazione precedente e tenendo conto che Tau vale w/4 :

e ricordando che, l’espressione di H data in precedenza si ha che :


si ha che:

Da questa equazione è possibile ottenere l’efficienza della colonna da due misure di tempo. Tuttavia va
ricordato che l’efficienza di una colonna varia in funzione della specie di soluto e di fase mobile e stazionaria
che si utilizza.

103
Sebbene la teoria dei piatti spieghi in maniera esaustiva la forma gaussiana dei picchi cromatografici e la loro
velocità di movimento nella colonna, quest’ultima è stata soppianta dalla teoria della velocità, in quanto
riesce a spiegare in modo esauriente l’allargamento dei picchi all’interno del cromatogramma.
TEORIA DELLA VELOCITA’
La teoria della velocità assume che durante la separazione, a causa della dinamica del processo di eluizione,
uno stato di equilibrio non può essere mai presente.

La differenza principale tra le due teorie sta nel fatto che :

• nella teoria del piatto teorico si assume che, da un capo all’altro della colonna, si instauri uno stato di
equilibrio istantaneo nella distribuzione delle molecole del campione tra la fase mobile e la fase
stazionaria;
• mentre la teoria della velocità afferma che ciò non è possibile. Inoltre, alcune particelle viaggiano più
velocemente perché sono state accidentalmente incluse all’interno della fase mobile per più tempo,
mentre altre ritardano perché causalmente rimangono incorporate nella fase stazionaria per più tempo.
Ragion per cui l’ampiezza di un dato picco aumenta mentre esso prosegue lungo la colonna, in quanto
viene concesso più tempo per il verificarsi di tali fenomeni.
La conseguenza di questi singoli processi aleatori è che le velocità si disperdono simmetricamente attorno
un valore centrale, che rappresenta il comportamento delle molecole medio dell’analita in questione. Questo
si traduce graficamente nel fatto che i picchi del cromatogramma siano in realtà delle gaussiane.
VARIABILI CHE INFLUENZANO L’EFFICIENZA DI UNA COLONNA CROMATOGRAFICA
L’allargamento di banda riflette una perdita di efficienza della colonna. Più bassa è la velocità dei processi
di trasferimento di massa che avvengono durante la migrazione del soluto lungo la colonna, più larga è la
banda all’uscita della colonna.

Alcune delle variabili che influenzano le velocità del trasporto di massa sono verificabili e possono essere
sfruttate per migliorare le separazioni.
Il grado di allargamento delle bande dipende dal lasso di tempo in cui la fase mobile è a contatto con la
fase stazionaria, che è a sua volta funzione della velocità del flusso della fase mobile.
Per questo motivo gli studi sull’efficienza di una colonna sono stati eseguiti determinando H in funzione
della velocità della fase mobile.
Diagrammando H in funzione di u, si nota subito una grande differenza tra la GC e LC:

Si nota subito che si ha un minimo di H in entrambe le tecniche e quel minimo è senz’altro la


condizione ottimale da ricercare. Tuttavia, il minimo nella GC si ha a velocità molto maggiori
rispetto a quello per LC. Questo potrà essere spiegato mediante l’equazione di Van Deemter.
Si evince, comunque, che la GC, oltre a essere più veloce è anche più efficiente per via del fatto che
le colonne per GC sono lunghe anche più di 50 cm a differenza dei 25 cm delle colonne per LC.
TEORIA DELL’ALLARGAMENTO DELLE BANDE ED EQUAZIONE DI VAN DEEMTER

Dal punto di vista matematico l’efficienza delle colonne cromatografiche può essere descritta
mediante l’equazione di Van Deemter, la quale è in grado di fornire una misura dei fattori cinetici
che concorrono ad aumentare l’HETP :

104
In cui H è l’altezza del piatto espresso in cm e u è la velocità lineare della fase mobile in cm per
secondo. La quantità A è un coefficiente che descrive gli effetti del percorso multiplo, cioè della
diffusione turbolenta. B è il coefficiente di diffusione longitudinale. Cs e Cm sono, rispettivamente, i
coefficienti di trasferimento di massa per la fase stazionaria e per quella mobile.
• Termine A relativo ai percorsi multipli: l’allargamento nella fase mobile è dovuto in gran parte
alla molteplicità di percorsi attraverso i quali una molecola può trovare la sua strada all’interno
della colonna impaccata. La lunghezza di tali percorsi può essere notevolmente diversa;
pertanto, è anche variabile il tempo di permanenza all’interno della colonna di molecole della
stessa specie. Le molecole di soluto raggiungono poi l’estremità della colonna in un intervallo di
tempo, il che porta a un allargamento della banda.
• Il processo di diffusione longitudinale B/u: la diffusione longitudinale ha come effetto la
migrazione del soluto dal centro più concentrato di una banda alle regioni più diluite presenti su
entrambi gli estremi.
La diffusione longitudinale in GC rappresenta una comune causa di allargamento della banda,
perché le molecole gassose diffondono a velocità relativamente elevate. Il fenomeno è invece
poco significativo in LC, in cui le velocità di diffusione sono molto piccole.
Il contributo della diffusione longitudinale all’altezza del piatto è inversamente proporzionale
alla velocità lineare dell’eluente. Infatti, quando la velocità del flusso è elevata, l’analita resta
nella colonna per un periodo di tempo relativamente breve. Pertanto c’è meno tempo affinché
avvenga la diffusione dal centro della banda verso le parti laterali.
• Il termine Csu di trasferimento di massa in fase stazionaria: quando la fase stazionaria è un
liquido immobilizzato, il coefficiente di trasferimento di massa è direttamente proporzionale al
quadrato dello spessore del film sulle particelle di supporto, df 2, e inversamente proporzionale al
coefficiente di diffusione Ds del soluto nel film. La combinazione di questi due effetti riduce la
frequenza media alla quale molecole di analita raggiungono l’interfaccia liquido-liquido, dove
può avvenire il trasferimento verso la fase mobile. Ragion per cui, se i film sono spessi, le
molecole devono viaggiare in media molto di più per raggiungere la superficie e, con
coefficienti di diffusione più piccoli, esse si spostano più lentamente. La conseguenza è una
minore velocità del trasferimento di massa e un incremento dell’altezza di piatto.
Quando la fase stazionaria è una superficie solida, il coefficiente è direttamente proporzionale
al tempo necessario perché una specie venga adsorbita o desorbita, che a sua volta è
inversamente proporzionale alla costante di velocità del primo ordine dei processi.
• Il termine CMu di trasferimento di massa in fase mobile: i processi di trasferimento di massa
che avvengono nella fase mobile hanno una complessità tale che ancora non esiste una
descrizione quantitativa esaustiva.
L’unica cosa che è possibile affermare è che il coefficiente di trasferimento di massa in fase
mobile è inversamente proporzionale al coefficiente di diffusione dell’analita in fase mobile.
Per le colonne impaccate CM è proporzionale al quadrato del diametro delle particelle del
materiale impaccato, d2p.
Per le colonne tubolari aperte, CM è proporzionale al quadrato del diametro della colonna, d 2c.
OTTIMIZZAZIONE DELLA RISOLUZIONE DELLA COLONNA

Una separazione ottimale è quella in cui i componenti vengono separati in modo netto e nel minor tempo
possibile. Le condizioni operative devono essere modulate in maniera opportuna in modo da ridurre
l’allargamento di banda(operando sulle variabili critiche cinetiche) o modificando la velocità di migrazione
dei vari componenti (agendo sui fattori di capacità e selettività).

105
DEFINIZIONI

TEMPO MORTO = Tm
TEMPO DI RITENZIONE = Tr
Concentrazione analita nella fase stazionaria =Cs
Concentrazione analita nella fase mobile = Cm
Costante di Distribuzione = Ka = Cs/Cm
Velocità media delle molecole del soluto attraverso la colonna = V = L / Tr
Velocità media della fase mobile attraverso la colonna = u = L/Tm

Volendo correlare il tempo di ritenzione alla costante di distribuzione :


V = u * (frazione di tempo trascorsa dal soluto nella fase mobile)
V =u * (moli di soluto nella fase mobile/ moli totali di soluto)
V = u * [ (CmVm ) / ( CmVm+CsVs)]
V = u * [1 / (1 + (Ka Vs/Vm))]
Definisco ora il Fattore di ritenzione K’a= Ka * ( Vs/Vm), quindi V ,sarà uguale a :
V= u * (1/(1+K’a))
e sostituente il valore di V ed u come da definizione :
L/Tr = L/Tm * (1/(1+K’a)) , e operando le opportune semplificazioni :

K’a = [(Tr-Tm)/Tm]
• Dalle definizioni appena presentate,si evince che il fattore di ritenzione risulta indipendente dalle
geometrie delle colonne.
• E’ vero pure che se noi volessimo sapere la velocità dei flussi in colonna, avendo i fattori di ritenzione è
possibile risalire a quest’ultimi,
• dato che, per qualsiasi geometria della colonna e qualunque sia la natura del sistema cromatografico
messo a punto (natura delle fasi), indipendentemente dai flussi della fase mobile, il fattore di ritenzione
K’a resta invariato.
• Avere un fattore di ritenzione inferiore all’unità ,vuol dire che il tempo di ritenzione si avvicina al tempo
morto della fase mobile. Se il fattore di ritenzione è circa 20-30 ,l’analisi risulta essere inutilmente
lunga.
VALORI OTTIMALI DI K’a SI AGGIRANO A CIRCA 10
Si può prevedere se una colonna possa separare qualitativamente due analiti, indagando la sua stessa
selettività che ha per A o per B in funzione dei tempi di ritenzione. Ovvero il rapporto matematico dei fattori
di ritenzione, calcolati separatamente, vengono chiamati fattore di selettività :
FATTORE DI SELETTIVITA’ = α = ( K’b/K’a )

106
con K’b > K’a (vero sempre)

1) Nel primo cromatogramma si nota una sovrapposizione delle bande che rende molto difficile
l’interpretazione del diagramma ( bassa selettività e risoluzione)

2) Nel secondo cromatogramma si è operato per modificare le velocità di migrazione di A e B, ma


nonostante ciò è presente un alloggiamento che rende i due picchi irrilevabili.(buona efficienza ma bassa
risoluzione)
3) Il terzo caso è quello ottimale, in cui i due picchi sono distanti e più stretti. (buona risoluzione e
selettività altrettanto)
La risoluzione di una colonna cromatografica è una misura di quanto siano ben distinte siano due bande
relativamente alle loro ampiezze.
Il termine dell’efficienza ingloba sia la selettività di un sistema cromatografico, ovvero la capacità che ha lo
stesso di distanziare le macchie (o picchi) tra di loro all’uscita (quindi ad influenzarla sono i cinetici e di
natura delle specie analitiche e costruttive componenti il sistema), che il suo potere risolutivo. Da notare che
gli stessi parametri di efficienza facciano parte della trattazione di HTPE,in quanto, minore è l’altezza di
HTPE, maggiore sarà l’efficienza nel complesso.

IL CASO 3 è TIPICO DI UN SISTEMA AD ALTA EFFICIENZA INFATTI PRESENTA ALTA, SIA


RISOLUZIONE CHE SELETTIVITA’.
La risoluzione si può estrapolare dal cromatogramma tramite questa equazione :

• Generalmente si può aumentare la risoluzione allungando la colonna, in modo da avere più piatti teorici.
Questo però comporta anche lo svantaggio di aumentare il tempo della separazione.
• Si possono ,invece, variare più o meno indipendentemente i termini N, H, KA, e α.
• In particolare la variazione del fattore di capacità produce effetti molto significativi; infatti, ponendo:

Si ottiene, dall’equazione precedente:

Nella quale si evidenzia la dipendenza di R da K’a. L’andamento di R/Q rispetto a K A’ può essere
diagrammato per trarre informazioni molto utili mirate a variare K’ A fino a ottenere la risoluzione ottimale
nel minor tempo di eluizione.

107
Solitamente si incorre nel problema generale dell’eluizione, ovvero si ottengono buone risoluzioni
per alcuni picchi e cattive o pessime risoluzioni per altri picchi presenti dello stesso
cromatogramma.
Come già introdotto prima in discussione, una buona valutazione dei parametri di selettività α,
possono concorrere a migliorare la separazione cromatografica .
Ma si può agire sugli stessi parametri di selettività tramite dei metodi artificiosi di eluizione a
gradiente (nel caso di LC) a temperatura (nel caso di GC)

Infatti si definisce isocratica un’eluzione continuativa in un unico stadio (e mono eluente).


Nell’eluizione gradiente, invece, due o più solventi di differenti polarità vengono mescolati in
proporzioni variabili grazie ad un sistema di pompe automatiche, che variano di continuo (sotto
specifica programmazione) la percentuale di ogni solvente da immettere nella eluente, es. :
• 2 solventi A(poco polare) e B(molto polare) e quattro analiti (1,2,3,4)
1) Si comincia con 100% di A e 0 % di B
2) Si passa a 75% di A e 25%B
3) Si passa a 25% di A e 75%B
4) Si finisce con 0% di A e 100% di B

L’esempio con i solventi A e B è riferito a quest’ultimo grafico ,in gradiente di eluizione.


CLASSIFICAZIONE DELLE TECNICHE CROMATOGRAFICHE
(per principio di separazione)
I parametri mediante i quali è possibile categorizzare le tecniche cromatografiche sono molteplici. In base al
tipo di fase mobile e alle caratteristiche dell’equilibrio di ripartizione si distinguono tre tipi di cromatografia:

• Cromatografia liquida (liquid cromatography, LC): in cui la fase mobile, detta anche eluente, è un
liquido. Una variante molto importante di tale tecnica è l’HPLC ( High pressure liquid cromatography) la

108
quale richiede strumentazioni in grado di operare a pressioni elevate comprimendo la fase liquida su
colonne impaccate con una fase stazionaria finemente suddivisa.

• Gas cromatografia (gas cromatography, GC:) in cui la fase mobile è un gas e la fase stazionaria è un
solido o un liquido posto all’interno di una colonna.

• Cromatografia supercritica (supercritical fluid cromatography, SFC:) in cui la separazione è effettuata


in presenza di un fluido supercritico, mentre la fase stazionaria può essere costituita indifferentemente da
un solido o un liquido.
Un’altra classificazione dei metodi cromatografici si basa sul principio chimico-fisico che determina
l’interazione fra l’analita e le due fasi. Su questa base si distinguono:

• Cromatografia di adsorbimento, in cui la fase stazionaria è costituita da un solido adsorbente finemente


suddiviso, e la separazione avviene in funzione della diversa tendenza dei soluti ad adsorbirsi sulla
superficie attiva dell’adsorbente.

• Cromatografia di ripartizione, in cui la fase stazionaria è un liquido immiscibile con la fase mobile,
depositato su una fase inerte di supporto (solida), la separazione è determinata dalla differente solubilità
dell’analita nelle due fasi.
.
• Cromatografia a scambio ionico, in cui la fase stazionaria è una resina a scambio ionico, l’analita è uno
ione o una sostanza ionizzabile, e la separazione è effettuata in base alle interazioni di tipo elettrostatico
che si instaurano tra l’analita e la fase stazionaria.

• Cromatografia a setaccio molecolare, o di esclusione, in cui la fase stazionaria consiste di particelle


porose inerti (setaccio molecolare) e la separazione avviene in base alla dimensione del soluto e alla sua
tendenza ad essere trattenuto all’interno delle particelle (es. ,GPC).
Infine, in base alle modalità di supporto della fase stazionaria, si distinguono due diverse tecniche
cromatografiche:
• Cromatografia su colonna (column cromatography), in cui la fase stazionaria è posta all’interno di una
colonna, o con riempimento totale dello spazio interno o per rivestimento delle pareti interne.
• Cromatografia su strato sottile (thin layer cromatography), in cui la fase stazionaria è disposta come
strato sottile su di una lastra di vetro, alluminio o di plastica.

CROMATOGRAFIA LIQUIDA (HPLC)


Le prime cromatografie liquide sono state eseguite in colonne di vetro che avevano un diametro interno
variabile da 10 a 50 mm. Le colonne erano impaccate con 50-500 cm di particelle solide rivestite con un
liquido adsorbente che formava la fase stazionaria.
Per aumentare in modo notevole la velocità di flusso di permeazione di questo tipo di fase stazionaria, la
grandezza della particella del solido era di 150-200 μm. Comunque nella migliore delle ipotesi il flusso
massimo non superava i 10 ml/minuto.
Tentativi portati avanti per aumentare la velocità di flusso, come l’applicazione di pompe a vuoto o di alte
pressioni in testa alla colonna, modificando la cromatografia classica, non portarono a risultati perché
insieme all’aumento del flusso si otteneva un aumento della larghezza del piatto teorico.
I primi sviluppi positivi nella cromatografia liquida furono fatti dopo che si ipotizzò e si costatò che la
diminuzione dello spessore del piatto teorico si poteva ottenere impaccando la colonna con particelle di
diametro più piccolo. Solo alla fine degli anni ’60 è stata sviluppata una tecnologia adatta alla fabbricazione
di particelle di grandezza variabile dai 5 ai 10 μm per impaccare le colonne. Il nome di High Performance
Liquid Chromatography (HPLC) servì quindi a distinguere questa nuova tecnologia cromatografica dalla
cromatografia classica, ormai usata quasi esclusivamente per scopi preparativi. Attualmente, tutta la LC
viene eseguita con flusso pressurizzato, e le abbreviazioni LC e HPLC si usano in modo interscambiabile.

109
STRUMENTAZIONE

Nella HPLC sono richieste pressioni di pompaggio di diverse centinaia di atmosfere, per raggiungere
velocità di flusso sufficienti a permettere una buona separazione in colonne impaccate con particelle di
diametro variabile dai 3 ai 10 μm. Come conseguenza l’equipaggiamento di una moderna apparecchiatura
per HPLC è notevolmente più costoso rispetto a quello della cromatografia classica

Contenitori per la fase mobile e sistemi di trattamento dei solventi


• Un moderno apparato per HPLC è equipaggiato con uno o più contenitori in vetro o acciaio,
generalmente bottiglie, contenenti 500 ml o più di solvente.
• In genere sono presenti dei dispositivi per degassare i solventi e le soluzioni eluenti ed eliminare
eventuali particelle indisciolte. I gas disciolti possono portare a velocità di flusso non riproducibili e ad
allargamento della banda; inoltre, sia le bolle di gas che la polvere interferiscono con la maggior parte
dei rivelatori.
I sistemi di degassamento possono consistere in una pompa a vuoto, un sistema di distillazione, un
sistema per il riscaldamento. Spesso, i sistemi contengono anche degli strumenti di filtrazione della
polvere e del materiale particolato sospesi nel solvente

• L’eluizione del solvente può essere effettuata in due diversa modalità:


• Eluizione isocratica: si ottiene con un singolo solvente o miscela di solvente di composizione costante.
• Eluizione a gradiente: si ottiene utilizzando due o più sistemi solventi a polarità molto diversa, che
variano di composizione durante la separazione. Il rapporto fra i due solventi viene fatto variare durante
l’eluizione, a volte in modo continuo, a volte attraverso una serie di step, durante i quali la percentuale
dei solventi rimane costante per un certo periodo di tempo, per poi cambiare nuovamente. L’eluizione in
gradiente generalmente aumenta l’efficienza della separazione, così come la variazione della temperatura
influisce sulla gas cromatografia. Le apparecchiature più moderne sono spesso equipaggiate con valvole
proporzionali, che introducono i liquidi in colonna con rapporti che variano in maniera continua.
SISTEMA DI POMPAGGIO
Le caratteristiche cui devono soddisfare le pompe impiegate per l’HPLC sono molto restrittive e includono:
• Generazione di pressioni maggiori di 6000 psi (1 lb/in^2 = 0.07 Atm fisiche)
• Non generare un pressione pulsatile in uscita
• Velocità di flusso variabili in un range di 0.1-10 ml/min
• La riproducibilità del flusso non deve variare più dello 0.5%
• Resistenza alla corrosione verso una grande varietà di solventi

110
Sono impiegati due tipi di pompe meccaniche: una del tipo a siringa guidata a vite , una pompa alternativa (o
a pistone), e una pompa pneumatica.

• Pompa a siringa:
• produce un flusso senza pulsazione e la velocità del flusso è facilmente controllabile;
• ha però lo svantaggio di un alto volume di riempimento, che diventa un problema quando devono
essere sostituiti i solventi.
• Pompa a pistone :
• sono quelle più comunemente usate e sono costituite da una piccola camera cilindrica che è riempita
e svuotata dal movimento di un pistone.
• Il pompaggio produce un flusso pulsatile che deve essere successivamente linearizzato.
• I vantaggi delle pompe a pistone sono un piccolo volume interno,
• la capacità di generare alte pressioni in uscita (superiori a 10000 psi),
• rapida adattabilità al cambiamento dei gradienti nel corso dell’analisi,
• flusso costante
• inoltre sono molto poco sensibili alla viscosità del solvente e alla pressione in testa alla colonna.
• Pompa pneumatica:
• consiste in un contenitore di solvente collassabile su se stesso contenuto in un recipiente che può
essere riempito di gas compresso.
• Il gas spinge le pareti del contenitore collassabile che spreme il solvente in colonna.
• Le pompe di questo tipo sono semplici, poco costose
• danno un flusso costante e lineare,
• hanno però come inconveniente che la velocità del flusso è molto influenzata dalla viscosità della
fase mobile.
• Inoltre non sono adatte ad analisi in gradiente.
Si deve notare che le alte pressioni generate dalle pompe per la cromatografia in fase liquida, non sono a
rischio di esplosione, poiché i liquidi non sono molto comprimibili. Quindi la rottura di un componente può
solo provocare una perdita di solvente e soltanto se esso è infiammabile ci può essere l’eventuale pericolo di
incendi.
SISTEMA DI INTRODUZIONE DEL CAMPIONE
Il fattore che limita la precisione delle misure ottenute con LC è la riproducibilità con cui i campioni possono
essere introdotti sull’impaccamento della colonna. Il problema è acuito dall’allargamento della banda, che
accompagna il tappo provocato da un’introduzione del campione troppo lunga. Ragion per cui i volumi di
campioni devono essere piccoli, da 10 a 500 µl.
Il metodo di caricamento più usato in HPLC è quello che usa il sampling loop.
Tale dispositivo si configura come una valvola campionatrice caratterizzate da delle posizioni che possono
essere commutate.
1. In una posizione il sistema è a pressione atmosferica, nella quale viene introdotto il campione;
2. successivamente viene commutato il loop e il solvente proveniente dalla pompa verrà spinto in avanti nel
posto che prima occupava il campione, facendolo arrivare alla colonna.

111
Il loop è inoltre in grado di campionare quantità piccole e precise perché, il campione che verrà
inserito, verrà contenuto in parte nel loop, che è un dispositivo metallico di capacità ben definita e il
resto andrà allo scarico. Questi dispositivi sono equipaggiati di loop intercambiabili di capacità
variabile dai 5 ai 500 μl.
COLONNE PER HPLC
Le colonne per HPLC sono di solito costruite da tubi in acciaio inox, ma talvolta si usano tubi di vetro a
parete spessa e tubi di polimeri come il PEEK, impiegate soprattutto quando si lavora a pressioni
inferiori a 600 psi. La lunghezza delle colonne varia da 10 a 30 cm il diametro interno da 4 a 10 mm. Le
colonne sono generalmente impaccate con particelle di diametro variabile dai 5 ai 10 μm. Colonne di questo
tipo arrivano generalmente a contenere dai 40000 ai 60000 piatti/metro

Microcolonne:
Recentemente sono state introdotte sul mercato microcolonne
• lunghe dai 3 ai 6.5 cm e aventi un
• diametro interno variabile da 1 a 4.6 mm.
• impaccate con particelle di diametro variabile dai 3 ai 5 μm,
• contengono più di 100000/m
• hanno il vantaggio di una maggiore velocità operativa
• minore consumo di solvente. Quest’ultima proprietà è di notevole importanza perché i solventi ad alta
purezza richiesti per questo tipo di cromatografia sono molto costosi.

Con questo tipo di colonne vi sono esempi di separazione di 8 composti in un tempo di 15 secondi con una
colonna lunga 4 cm con un diametro interno di 4 mm e impaccata con particelle di 3 μm di diametro.
Il più comune materiale usato per impaccare le colonne per HPLC è la silice, preparata per
agglomerazione di particelle di diametro inferiore al micron sotto condizioni che portano a particelle
più grandi con diametri altamente uniformi. Le particelle risultanti sono spesso rivestite con sottili
film di composti organici, che sono legati alla superficie tramite legami chimici o fisici.
Altri materiali usati per impaccare le colonne sono le particelle di albumina, di polimeri microporosi e resine
a scambio ionico.
Colonna di guardia:
Spesso, per aumentare la vita di una colonna analitica, in testa ad essa è applicata una colonna di guardia
che rimuove dai solventi non solo il materiale particolato e i contaminanti dei solventi, ma anche quei
componenti del campione che si legano irreversibilmente alla fase stazionaria. Inoltre nella cromatografia
liquido-liquido, la colonna di guardia serve a saturare la fase mobile con la fase stazionaria così che sia
minimizzata la perdita di fase stazionaria dalla colonna analitica. La composizione di una colonna di
guardia dovrebbe essere simile a quella della colonna analitica; la grandezza delle particelle è
comunque maggiore per minimizzare la caduta di pressione agli estremi.
In cromatografia liquida si usano due tipi principali di impaccamento: a particelle pellicolari e a particelle
porose.
1. Le particelle pellicolari in origine erano granuli sferici, non porosi, di vetro o polimeri con diametri
tipici compresi tra 30 e 40 µm. Sulla superficie di questi granuli si deposita un sottile strato poroso di
silice, allumina, una resina sintetica o a scambio ionico. Queste grandi particelle pellicolari sono state
sostituite da piccole micro particelle porose. Negli ultimi anni, piccoli impaccamenti pellicolari sono
stati reintrodotti per separare proteine e grandi biomolecole.
2. Le particelle porose presentano diametro compreso fra 3 e 10 µm. Sono composte da silice, allumina o
resina sintetica.
Per molte applicazioni non è necessario il controllo preciso della temperatura e le colonne vengono fatte
operare a temperatura ambiente. Spesso comunque i migliori cromatogrammi si ottengono mantenendo
la temperatura della colonna costante e vicina alla temperatura ambiente. I moderni strumenti sono
equipaggiati con riscaldatori di colonne che possono mantenere la temperatura in un range variabile da
qualche decina di gradi a 150°C.

112
RIVELATORI

Per l’HPLC non sono disponibili rivelatori universali ed altamente sensibili come quelli impiegati per la gas
cromatografia. Quindi il sistema di rivelazione usato dipende dalle esigenze dettate dalla natura del
campione.
Esistono due tipi principali di rivelatori per cromatografia liquida:
1) Rivelatori delle proprietà di massa: che rispondono ad una proprietà fisica globale della fase mobile,
come:
• l’indice di rifrazione,
• la costante dielettrica
• la densità, proprietà che vengono modulate dalla presenza di soluti.
2) Rivelatori delle proprietà del soluto: che rispondono ad alcune proprietà dei soluti,
• l’assorbanza UV,
• la fluorescenza o la corrente di diffusione, proprietà che non sono possedute dalla fase mobile.

I rivelatori più ampiamente usati per la cromatografia liquida si basano sulla misura dell’assorbimento
della luce ultravioletta o della luce visibile da parte del campione. Generalmente vengono indagate
lunghezze d’onda che vanno dai 200 ai 280 nm poiché molti gruppi funzionali dei composti organici
assorbono in questa regione.
Rivelatore con sorgente luminosa:
Le sorgenti che posso essere usate sono quella al mercurio, filamenti in tungsteno o deuterio equipaggiati con
filtri di interferenza che eliminano le radiazioni indesiderate.
• I rivelatori spettrofotometrici sono molto più versatili di quelli fotometrici e sono quelli più usati negli
strumenti a più alte prestazioni.
• Spesso sono strumenti detti a diode array che possono mostrare l’intero spettro di assorbimento di un
analita che entra in colonna.
Un altro tipo di rivelatore che ha trovato molte applicazioni si basa sul cambiamento dell’indice di
rifrazione del solvente causato dalle molecole di analita. In contrasto con la maggior parte dei rivelatori
precedentemente indicati, questo è meno selettivo perché l’indice di rifrazione è in generale meno specifico
per le varie sostanze e può essere influenzato anche da soluti presenti nella fase mobile.
Lo svantaggio di questo tipo di rivelatore è inoltre una limitata sensibilità, oltre che la poca selettività.
Rivelatore basato sulle misure elettriche:
• Altri tipi di rivelatori, usati comunque raramente, sono quelli che si basano sulla misura della
conducibilità della fase mobile,
• quelli che eseguono misure potenziometriche
• amperometriche.
CROMATOGRAFIA DI ADSORBIMENTO

La cromatografia di adsorbimento rappresenta uno dei metodi più antichi e più usati per la determinazione di
analiti in una matrice complessa.
Questa tecnica prende anche il nome di cromatografia liquido-solido in quanto al processo separativo
prendono parte un liquido, che costituisce la fase mobile, e un solido attivo finemente suddiviso, che funge
da fase stazionaria. Il solido prende anche il nome di adsorbente, mentre il solvente della fase mobile
prende il nome di eluente.
La separazione si basa sull’adsorbimento selettivo dei vari componenti della miscela sui centri attivi della
superficie della fase stazionaria e dipende sostanzialmente da due fattori:
• La forza con cui ciascun composto è adsorbito sulla fase stazionaria
• La solubilità relativa ai componenti della matrice nell’eluente
Generalmente la cromatografia di adsorbimento viene effettuata in due modalità distinte: su colonna e su
strato sottile.
1) Nella cromatografia su strato sottile ( Thin Layer Chromatography, TLC) la fase stazionaria è depositata
sotto forma di uno strato sottile su un supporto inerte e la fase mobile viene fatta salire dal basso verso
l’alto per capillarità.

113
2) Nella cromatografia su colonna, invece, la fase stazionaria è posta all’interno di una colonna in vetro o
alluminio.
PRINCIPI GENERALI
Il fenomeno dell’adsorbimento nella cromatografia dipende dalla particolare affinità di un soluto disciolto
in una fase liquida in relazione ad una fase adsorbente.
Poiché il processo di adsorbimento avviene sulla superficie dell’adsorbente, la sua efficacia è direttamente
proporzionale all’estensione superficiale dell’adsorbente a parità di volume.
Le interazioni in gioco tra adsorbente e componenti della miscela da separare sono molteplici e determinate
da legami tipo di van der Waas, dipolo - dipolo, ad idrogeno, ionici e da equilibri di complessazione.
FASE STAZIONARIA

Le caratteristiche che deve possedere una fase stazionaria ideale sono:


• Non reagire con il soluto né catalizzare reazioni di decomposizione, polimerizzazione, idrolisi.
• Non adsorbire irreversibilmente il soluto.
• Non solubilizzarsi nell’eluente né interagire con il solvente.
• Riuscire ad adsorbire un gran numero di sostanze in maniera selettiva e riproducibile.
• Permettere un facile percolamento dell’eluente.
Gli adsorbenti che più si avvicinano alle caratteristiche ideali, e che sono quindi più utilizzati, sono la silice e
l’allumina.
• L’allumina è l’ossido di alluminio e presenta un alto potere adsorbente. E’ commercialmente disponibile
in tre forme, acida, neutra e basica.
• Altri adsorbenti utilizzati per la separazione di composti organici sono il carbone attivo, il carbonato di
calcio, il silicato di magnesio, l’amido e il saccarosio.
FASE MOBILE

Le caratteristiche che deve possedere una fase mobile ideale sono:


• Non deve reagire né con l’adsorbente né con i prodotti da separare.
• Non deve solubilizzare l’adsorbente.
• Deve far migrare i componenti della miscela da separare.
• Deve avere basso punto di ebollizione per essere facilmente allontanabile.
• In una separazione cromatografica la scelta del solvente è effettuata su basi empiriche.
CROMATOGRAFIA SU STRATO SOTTILE (TLC)
Nella TLC la fase stazionaria è costituita da un sottile strato di adsorbente. Questo viene mescolato con un
opportuno legante quale gesso, amido, che ha lo scopo di conferire al materiale adsorbente particolare
compattezza, e viene fatto aderire su una lastra di vetro, di alluminio o poliestere. Il campione viene
caricato su un punto o una linea stretta e viene eluito dalla fase mobile che sale per capillarità lungo la lastra
cromatografica.
1. Si applica in un punto preciso della lastra cromatografica(a circa 7-8 mm dal fondo) una goccia della
soluzione della miscela da separare mediante un capillare di vetro. La deposizione risulta essere uno step
di fondamentale importanza, in quanto, da questo, dipende la buona riuscita dell’analisi; essa viene
effettuata toccando col capillare lo strato di adsorbente facendo attenzione a non far slargare
eccessivamente la zone di caricamento.
2. La lastra è posta in una camera di eluizione, ovvero un contenitore chiuso sul fondo nel quale vi è la fase
mobile. E’ importante che la zona di caricamento sia al di sopra del livello del solvente.
3. Durante il processo di eluizione, i vari componenti della miscela migrano con velocità diverse, a causa
della diversa affinità chimica, e si separano lungo il percorso del solvente.
4. Quando il fronte del solvente è arrivato a pochi mm dalla sommità della lastra, si estrae la lastra dalla
camera, e si segna la posizione del fronte del solvente,
5. si asciuga evidenziano i vari componenti separati durante il processo cromatografico.
6. E’ possibile determinare il fattore di ritenzione Rf, dato dal rapporto tra la distanza percorsa dalla
sostanza e quella percorsa dal solvente.

114
Il valore di Rf è compreso tra 0(il composto non è migrato ed è rimasto al punto di caricamento in virtù
della forte affinità chimica con la fase stazionaria) a 1(il composto non è trattenuto per nulla dalla fase
stazionaria e migra con il fronte del solvente) e si calcola fino alla seconda cifra decimale.
Tale fattore è costante per ogni sistema cromatografico ed è una caratteristica della sostanza esaminata. La
determinazione dell’Rf può essere adoperata per il riconoscimento di una sostanza incognita.
Tuttavia, poiché il fattore di ritenzione dipende da taluni fattori sperimentali come :
• dimensione delle particelle della fase stazionaria,
• stato di conservazione della lastra,
• composizione dell’eluente,
• grado di saturazione della camera,
• può variare leggermente da un’analisi all’altra.
Pertanto è opportuno effettuare un’analisi TLC caricando su un’unica lastra in tre punti il composto da
identificare, il campione di riferimento e una miscela dei due caricati. Il perfetto allineamento delle tre
macchie o bande per lo sviluppo e l’omogeneità della macchia o banda nella miscela dei due composti
confermerà la loro identità.

Il fattore di ritenzione è associabile alla selettività del processo cromatografico che si esprime con il fatto
che le macchie sono distanziate le une dalle altre; vi sono altri due parametri da considerare ossia l’efficienza
e la risoluzione.
• L’efficienza esprime la capacità del sistema di mantenere compatta la macchia fino al termine
dell’eluizione. Maggiore è il numero dei piatti teorici della lastrina e tanto più compatta risulterà la
macchia alla fine della corsa dell’eluente. Il numero dei piatti teorici è dato da:
N = 16*(di /wi)^2 dove di è la distanza percorsa e w è il diametro della macchia i-esima.

• La risoluzione è un fattore che incorpora sia la selettività che l’efficienza. Si osserva maggiore
risoluzione quando le macchie sono ben differenziabili rispetto alle loro posizioni e dimensione. Il
fattore di risoluzione è dato da:
R = d/ [wa+wb/2] dove d è la distanza fra i centri delle due macchie e W A e WB sono i diametri delle
rispettive macchie misurati lungo la direzione della corsa dell’eluente.
L’ottimizzazione della selettività e dell’efficienza, e di conseguenza della risoluzione, è possibile
determinando particolari proporzioni della miscela eluente. Effettuando alcune prove è possibile ottenere una
nuova miscela eluente che dia luogo a una buona risoluzione.
METODI DI RIVELAZIONE PER TLC
I metodi più comunemente utilizzati per la rivelazione dei composti sono i seguenti:
• Si espone la lastra asciutta ad una lampada ultravioletta ( lunghezza d’onda o 254 o 366 nm) per
evidenziare le sostanze fluorescenti e i composti che contengono gruppi funzionali in grado di assorbire
all’UV quali sistemi aromatici, coniugati ecc. Questa sistema di rivelazione viene facilitato utilizzando
lastre in cui l’adsorbente è impregnato con indicatori di fluorescenza. Per esposizione alle radiazioni UV
la lastra mostrerà intensa fluorescenza tranne che nelle zone dove sono presenti sostanze che assorbono
nell’UV: in tali zone la radiazione non riesce a raggiungere l’indicatore e non si osserverà fluorescenza
ma una banda o macchia scura.
• Si spruzza la lastra con soluzioni di acido solforico concentrato, da solo o insieme a acido nitrico o
bicromato di potassio. La lastra viene posta in stufa e riscaldata a 110-120° C. In questo modo tutte le
sostanze organiche saranno ossidate e carbonizzate per dare macchie o bande scure.
• Composti organici che posseggono almeno un legame insaturo formano complessi scuri a
trasferimento di carica in presenza di vapori di iodio. Per rivelare tali composti si asciuga
accuratamente la lastra dopo lo sviluppo e la si pone in un recipiente chiuso sul fondo del quale sono
posti dei cristalli di iodio. Dopo qualche minuto si osserva la formazione del complesso bruno in
corrispondenza delle zone dove sono migrate le sostanze insature.
• E’ possibile utilizzare dei reattivi che prendono il nome di reattivi cromogeni che danno luogo a
prodotti colorati per reazione selettiva con determinati gruppi funzionali. Tale sistema di rivelazione può
anche essere applicato utilizzando soluzioni di iodio in metanolo o etanolo da spruzzare sulla lastra

115
ROTAZIONE A 90° DELLA LASTRINA TLC

In alcuni casi, soprattutto in presenza di miscele molto complesse, si fa ricorso a questa tecnica la quale
presuppone che dopo la normale TLC ascendente o discendente, si ruota di 90° la lastrina e si ripete il
processo di eluizione.
Questo processo evita che alcune macchie possono nascondersi sotto altre per effetto di un trascinamento.
CROMATOGRAFIA SU COLONNA

Si tratta di un processo cromatografico cu colonna in condizione di pressione atmosferica. Per tale processo
si utilizzano si utilizzano colonne in vetro.
L’impaccamento della colonna con la fase stazionaria è un’operazione estremamente delicata, per cui se non
viene eseguita correttamente, si creano delle zone di disomogeneità attraverso le quali la fase mobile si
muove più rapidamente senza entrare in contatto con la fase stazionaria, diminuendo così l’efficienza della
separazione.
I metodi di riempimento sono sostanzialmente due:
• Impaccamento a umido: si sospende la fase stazionaria dell’eluente e si versa il tutto nella colonna,
vuota o precedentemente riempita di eluente, lasciando sedimentare lentamente e agevolando
l’impaccamento battendo delicatamente la colonna con un oggetto di gomma.
• Impaccamento a secco: si introduce la fase stazionaria secca a piccole porzioni nella colonna vuota o
contenente l’eluente.
Il primo metodo è generalmente utilizzato per introdurre la silice, il secondo per l’allumina.

• La grandezza delle particelle influisce molto sulla velocità di percolamento e quindi sull’efficienza della
colonna.
• Inoltre , se le particelle sono suddivise molto finemente, eserciteranno sul solvente una contropressione
che non potrà essere controbilanciata dalla sola pressione atmosferica, per cui si dovrà ricorrere a un
sistema che aumenti la pressione, ovvero l’HPLC.
CROMATOGRAFIA DI RIPARTIZIONE
Nella cromatografia di ripartizione la fase stazionaria è generalmente un sottile strato adsorbito sulla
superficie di un supporto inerte, mentre la fase mobile può essere un liquido o un gas.

In questo caso le molecole di soluto si distribuiscono fra le due fasi fluide immiscibili, in funzione delle loro
solubilità relative.
Nella cromatografia di ripartizione la separazione può essere relazionata al coefficiente di ripartizione ovvero
il rapporto delle attività di una specie nelle due fasi in condizioni di equilibrio. I due liquidi tra cui si
ripartiscono i componenti di una miscela devono essere immiscibili o solo parzialmente miscibili, e devono
differire in polarità.
Tuttavia non è sempre possibile razionalizzare la separazione della cromatografia di ripartizione
esclusivamente in termini di fenomeni di ripartizione, ma vanno considerati anche fenomeni legati alla
tensione superficiale e fenomeni di adsorbimento secondario, in cui sono coinvolti il materiale di
supporto inerte ed i composti sottoposti alla separazione.

• La fase stazionaria è costituito da un supporto ad elevata tensione meccanica ricoperto da un film


liquido.
• I materiali di supporto più comuni sono il gel di silice, silicati di magnesio e polvere di cellulosa.
• La fase stazionaria è costituita da acqua o soluzioni acquose tamponate, acido cloridrico o acido
solforico diluito, metanolo ecc.
• Come fase mobile si utilizzano solventi meno polari quali miscele di butanolo-cloroformio, butanolo-
benzene, acetato di etile, esano. Questo tipo di procedimento prende il nome di cromatografia di
ripartizione in fase diretta in cui la fase stazionaria è più polare della fase mobile.

116
Cromatografia a esclusione dimensionale
La cromatografia ad esclusione dimensionale, o gel-cromatografia, è una tecnica particolarmente adatta a
separare specie aventi alta massa molecolare (GPC per i polimeri).
Diversamente dalle altre tecniche cromatografiche la permeazione non dipende dalle interazioni chimiche tra
soluto, fase stazionaria e fase mobile, ma esclusivamente dalle dimensioni molecolari del soluto e dalla
porosità della fase stazionaria.

• La fase stazionaria è generalmente costituita da piccole particelle di silice o di un polimero contenente


una rete di pori uniformi in cui possono diffondere le molecole di solvente e soluto.
• Il grado di ritenzione dipende dalle dimensioni del soluto solvatato rispetto a quelle dei pori.
• Le molecole di grandi dimensioni non riescono a permeare completamente i pori e vengono totalmente
escluse. Esse, quindi passeranno più rapidamente attraverso la fase stazionaria ed “eluiranno” per prime
dalla colonna.
• Le molecole di dimensioni medie permeano solo una parte dei pori,
• mentre le molecole più piccole permeano i pori più piccoli.
Il cammino delle molecole viene quindi rallentato in modo diverso in funzione delle loro dimensioni.

Cromatografia di affinità
La cromatografia per affinità è una tecnica di “filtrazione” selettiva delle macromolecole che utilizza
reazioni biochimiche reversibili altamente specifiche.

• La fase stazionaria è una matrice polimerica attivata costituita da gruppi, attaccati alla matrice mediante
legami covalenti, aventi proprietà leganti.
• Questi gruppi sono normalmente enzimi o antigeni, mentre le molecole di interesse,
• gli analiti, sono inibitori di enzimi o anticorpi presenti in un sistema biologico complesso.
Solitamente l’enzima immobilizzato o l’antigene viene posto in colonna, mentre il campione viene introdotto
con un’opportuna soluzione tampone. Le sostanze che non presentano affinità vengono eluite, mentre
l’inibitore o l’anticorpo resta adsorbito sulla colonna.
Cambiando il tampone con un altro, che ne sfavorisce le interazioni con la fase stazionaria, è possibile eluire
l’analita in studio.
Cromatografia a scambio ionico
La cromatografia ionica è una tecnica cromatografica in fase liquida mediante la quale è possibile separare e
determinare ioni su colonne con capacità di scambio ionico relativamente basse.

Tale metodica si basa sull’impiego di scambiatori ionici ovvero sostanze capaci di scambiare reversibilmente
i propri ioni costituzionali con specie ioniche esterne che portano la stessa carica. Gli scambiatori ionici sono
insolubili nei solventi contenenti gli ioni da scambiare e sono resistenti ad agenti chimici.

• La fase mobile è generalmente una soluzione acquosa tamponata contenente un controione con la stessa
carica del soluto ed in equilibrio con la resina sotto forma di coppia ionica.
• I processi di scambio ionico si basano sugli equilibri di scambio tra gli ioni in soluzione e gli ioni di
segno analogo sulla superficie di un solido insolubile ad elevata massa molecolare.
Per diversi decenni sono stati scoperti e utilizzati gli scambiatori ionici naturali, come le argille e le zeoliti.
Le resine sintetiche a scambio ionico furono prodotte per la prima volta intorno agli anni 30 per
l’ammorbidimento dell’acqua, la ionizzazione dell’acqua e la purificazione delle soluzioni.
I più comuni siti attivi delle resine a scambio cationico sono :
• il gruppo acido solfonico,
• il gruppo acido carbossilico
• le resine più diffuse sono le resine costituite da polimeri stirenici. Per ottenere determinati polimeri con
un determinato grado di legami incrociati, detti cross linking, i monomeri di stirene vengono
polimerizzati per dare catene lineari di polistirene, che vengono legate covalentemente fra loro mediante
ponti divinilbenzenici formando una matrice tridimensionale.
• mentre gli scambiatori anionici contengono gruppi amminici.

117
• La maggior parte delle resine commerciali hanno particelle sferiche. Le dimensioni variano da 1µm a
1nm di diametro.

Lo strumento per IC è analogo a quello per HPLC. L’unica differenza fra le due tecniche sta nella pressione
di esercizio.

• Per quanto concerne la rivelazione, vengono utilizzati generalmente rivelatori a conducibilità termica,
che misura appunto la conducibilità nel flusso di uscita. Tuttavia si incorre nel problema che anche la
fase mobile conduce e anzi è maggiormente conduttrice rispetto all’analita, perché è generalmente un
acido o una base, quindi un elettrolita forte.
• Il dispositivo che elimina il contributo della conducibilità proveniente dalla fase mobile prende il nome
di soppressore, il quale è in grado di neutralizzare gli ioni della fase mobile. Tale dispositivo è basato su
uno scambio ionico attraverso una membrana semipermeabile.
Normalmente se la fase mobile è un acido o una base, produrrà ioni H + o OH-. Per neutralizzarli si fa
avvenire l’elettrolisi dell’acqua in un comparto separato e si permette lo scambio ionico fra i comparti
mediante membrana semipermeabile. Lo scambio ionico neutralizzerà la conducibilità termica
proveniente da questi ioni e gli analiti potranno essere rivelati.

GAS CROMATOGRAFIA
Nella gascromatografia, i componenti di un campione vaporizzato vengono separati in seguito alla loro
ripartizione tra una fase mobile gassosa ed una fase stazionaria liquida o solida contenuta in una colonna.
Già nel 1941 Martin e Synge avevano intuito che separazioni cromatografiche potevano essere ottenute
anche utilizzando un gas come fase mobile. Ciò nonostante occorsero dieci anni, ed il conferimento di un
Nobel ai due studiosi, perché si cominciasse a parlare di gas-cromatografia. Lo sviluppo che la gas-
cromatografia ha avuto negli ultimi 50 anni è stato enorme. Adesso la tecnica viene utilizzata in molti campi
della ricerca scientifica; il controllo della qualità dell’aria, o l’analisi dei fumi nei forni a carbone,
costituiscono un esempio rappresentativo di analisi industriale dell’ambiente.
Da un punto di vista legale l’analisi gas-cromatografica viene comunemente impiegata per la determinazione
di sostanze stupefacenti, mentre l’industria farmaceutica impiega questa tecnica analitica per monitorare le
concentrazione dei farmaci e dei corrispondenti metaboliti nei fluidi biologici.
La GC basa il suo successo su:
• velocità di analisi,
• semplicità operativa,
• bassi costi di esercizio,
• accettabili costi strumentali,
• elevata efficienza separativa ed identificativa,
• bassa quantità di campione.
Esistono due tipi di gascromatografia: la cromatografia gas liquido(GLC) e la cromatografia gas
solido(GSC).
In GLC l’analita viene ripartito tra una fase mobile gassosa e una fase stazionaria liquida immobilizzata
sulla superficie di un impaccamento solido inerte o sulle pareti di un tubo capillare.
La GSC si basa su una fase stazionaria solida nella quale si verifica la ritenzione degli analiti per
adsorbimento fisico. La GSC ha applicazione limitata a causa della ritenzione semipermanente delle
molecole attive o polari e dall’accentuato tailing dei picchi di eluizione. Questo fenomeno è frutto della
natura non lineare del processo di adsorbimento.
Pertanto, questa tecnica presenta un utilizzo circoscritto e viene utilizzata per separare alcune specie gassose
di basso peso molecolare.

CARATTERISTICHE GENERALI

Nella GC la fase mobile è costituita da un gas di trasporto inerte che prende il nome di gas carrier, mentre la
fase stazionaria è un solido o un liquido. Il campione da analizzare giunge già vaporizzato in colonna
118
attraverso un iniettore, ed è miscelato in maniera omogenea con la fase mobile che lo trasporta nella colonna
con un flusso ben preciso. Gli analiti sono ritenuti nella fase stazionaria in misura diversa a seconda dei
rispettivi coefficienti di distribuzione e di ripartizione fra le due fasi. All’uscita della colonna, la presenza dei
vari componenti viene indicata da un rivelatore sensibile a piccole variazioni chimico-fisiche dell’effluente;
tali differenze sono convertite in segnale elettrico, poi amplificato e registrato per dare vita a un
cromatogramma.

STRUMENTAZIONE

Sistema del gas di trasporto :


Il gas di trasporto, carrier, rappresenta la fase mobile nel processo cromatografico.

• Si utilizzano gas chimicamente inerti, i quali non interagiscono ne con la fase stazionaria ne con il
campione in esame.
• Il tipo di gas, la sua purezza ed il flusso condizionano pesantemente sia il processo di separazione
cromatografico e sia l’efficienza della risposta del rivelatore.
• I più comuni gas impiegati sono l’H2, l’He, l’Ar e l’N2. Tali gas devono essere anidri, privi di ossigeno
e qualsiasi altro contaminante, che potrebbero degradare velocemente la colonna. Ragion per cui è
consigliabile l’impiego di trappole con setacci molecolari e carbone attivo sulla linea di passaggio del
gas carrier.
• I gas sono disponibili in bombole sotto pressione. Le velocità di flusso vengono controllate da un
regolatore di pressione a due fasi all’uscita della bombola di gas e da un regolatore di pressione o di
flusso inserito nel cromatografo.
• Tali velocità possono essere stabilite da un rotametro posto all’apice della colonna;
• tale strumento, tuttavia, non è accurato quanto il semplice flussometro a bolla di sapone. In questo
dispositivo, quando viene premuta la peretta di gomma contenente la soluzione saponata, si forma un
film di acqua saponata lungo il percorso del gas; il tempo impiegato da questo film a muoversi tra due
tacche della buretta viene misurato e convertito in velocità del flusso volumetrico.

I moderni generatori di idrogeno ad acqua deionizzata permettono di usare questo gas riducendone i
rischi ed evitando l’uso di bombole. Il generatore si basa sul principio della dissociazione elettrolitica
dell’acqua; l’elevato grado di purezza è ottenuto mediante diffusione attraverso una membrana al palladio
che riduce il contenuto di ossigeno, il quale porterebbe a fenomeni ossidativi durante l’analisi e la rottura
dei legami carbonio-silicio della fase stazionaria.
SISTEMA DI INTRODUZIONE DEL CAMPIONE

L’operazione di introduzione del campione può avvenire sia attraverso un sistema di iniezione a caldo,
caratterizzata da una vaporizzazione istantanea del campione, che a freddo, metodo estremamente utile
quando gli analiti sono termolabili.
Allo scopo di ottimizzare l’efficienza in una separazione è necessario utilizzare la giusta quantità di
campione e fare in modo che lo stesso venga introdotto velocemente e formi un tappo di vapore in
testa alla colonna; infatti una iniezione troppo lenta o una quantità eccessiva di campione possono causare
un allargamento delle bande e una scarsa risoluzione.

119
L’iniezione avviene mediante una microsiringa direttamente nella camera di iniziazione, o iniettore, che nel
caso dell’iniezione a caldo avviene in un ambiente che è termostatato ad almeno 50°C al di sopra del punto
di ebollizione del componente più altobollente presente nella miscela.
Essa prevede al suo interno una guida tubolare in vetro che prende il nome di liner, la cui superficie è del
tutto inerte. Attraverso il liner, il gas carrier spinge rapidamente il campione in colonna(Fig.A).

Fig.A
Esistono tre modalità principali di iniezione:
1. Iniezione in split: il materiale vaporizzato nell’iniettore è inviato solamente in parte in colonna(l’altra
allo scarico); la percentuale di campione introdotta in colonna è regolata da una valvola a spillo che
prende il nome di valvola di campionamento o splitter. Tale metodo è impiegato nel caricamento di
colonne capillari.
2. Iniezione in splitless: Quando il sistema viene usato in modo splitless (eliminazione di una parte del
carrier in modo da ridurre i volumi iniettati in colonna) la valvola di split è quasi sempre aperta e scarica
all’esterno la maggior parte del carrier; all’atto dell’iniezione del campione la valvola di split viene
chiusa e riaperta solo dopo qualche secondo. In questo modo l’intero campione entra in colonna che però
è praticamente vuota, essendo attivo il modo split fino all’iniezione stessa. In questa maniera esso passa
per intero nella colonna., che essendo fredda condensa tutti i vapori in arrivo, fungendo da trappola. Il
metodo è idoneo all’analisi di tracce, che andrebbero perse con quello precedente. Solo dopo
l’eluizione del solvente si aumenta la temperatura della colonna dando l’inizio della separazione
cromatografica vera e propria.
3. Iniezione on-column: il campione è direttamente introdotto in colonna a basse temperature(40°-60°);
solo il successivo riscaldamento provoca la vaporizzazione dei componenti in esame.

COLONNA
In gascromatografia si utilizzano due tipi generali di colonne.:
Colonne impaccate:
• sono costituite da tubi di vetro o metallo,
• presentano una lunghezza media di 2-3 m
• diametri interni di 2-4 mm.
Tali tubi sono densamente impaccati con un materiale uniforme finemente suddiviso, o supporto solido,
rivestito con un sottile film di fase stazionaria liquida. I tubi sono di solito disposti a formare spirali del
diametro di 15 cm per consentire la termostatazione in forno.
Il supporto ideale è costituito da particelle sferiche piccole e uniformi aventi una buona resistenza
meccanica. Inoltre il materiale dovrebbe risultare inerte ad alte temperature ed uniformemente bagnato dalla
fase liquida.

120
I primi, e ancor oggi ampiamente usati, impaccamenti preparati con terra di diatomee presente in natura,
formata dallo scheletro di organismi unicellulari.
Un problema che ha afflitto la gascromatografia sin dalle origini è quello dell’adsorbimento fisico delle
specie analitiche polari o polarizzabili, sulle superfici dei silicati degli impaccamenti. L’adsorbimento
provoca dei picchi distorti, che sono allargati e spesso esibiscono una coda.
E’ stato dimostrato che l’adsorbimento è dovuto ai gruppi silanolici presenti sulla superficie dei silicati :

• I gruppi Si-OH sono quelli che manifestano grande affinità per le molecole organiche polari. Il
materiale di supporto può essere deattivato per silanizzazione con dimetilclorosilano. (DMCS).
Successivamente per lavaggio con alcool si elimina il secondo cloruro. Le superfici così trattate possono
ancora mostrare un adsorbimento residuo che può essere eliminato se prima del processo di
silanizzazione si tratta con acido.
• Ovviamente le colonne in silice fusa presentano meno questi problemi in quanto la presenza di ossidi
metallici in esse è più difficile.
Le proprietà auspicabili per la fase immobilizzata liquida di una colonna cromatografica sono:

1. Bassa volatilità (idealmente, il punto di ebollizione del liquido dovrebbe essere almeno 100° C superiore
alla temperatura di operatività massima della colonna).
2. Stabilità termica
3. Inerzia chimica
Fasi stazionarie legate e/o reticolate, permettono il lavaggio con solvente allo scopo di pulire la
colonna, quando avvengono dei fenomeni di adsorbimento irreversibili.
E’ noto infatti che colonne non trattate danno luogo al cosiddetto “spurgo” che nei fatti rappresenta la perdita
della fase stazionaria.
• I procedimenti utilizzati per creare una fase legata sono coperti da segreto industriale, ma si basano
ovviamente sulla formazione di un legame chimico tra la silice e uno strato monomolecolare della fase
stazionaria.
• La reticolazione invece viene condotta in situ, dopo aver rivestito la colonna con uno dei polimeri
della famiglia dei polidimetilsilossani, incorporando dei perossidi nel liquido originario. Per
riscaldamento della pellicola avvengono delle reazioni radicaliche tra i gruppi metilici presenti nella
catena polimerica. In questo modo si ottengono molecole di polimero con legami reticolati tra carbonio e
carbonio.
Un cenno meritano le fasi stazionarie chirali che negli ultimi tempi hanno portato ad un grosso sviluppo di
metodi in grado di separare enantiomeri sia in GC sia in HPLC.

Colonne capillari:
• presentano una maggiore efficienza cromatografica rispetto alle colonne impaccate. Questa stima può
essere fatta analizzando il numero di piatti teorici costituenti i due tipi di dispositivi. Le colonne capillari
sono costituite da 200.000 piatti teorici mentre sono solo 10.000 nel caso delle colonne impaccate. Le
colonne capillari utilizzate vengono suddivise in due categorie, in funzione del metodo utilizzato per
immobilizzare la fase stazionaria all’interno del capillare.
• Sono lunghe 15-100 m
• Hanno un diametro di 0,1-0,75 mm, vuoto all'interno,
• Rivestite con un sottile film di liquido (0,1-5 μm)

Queste sono:
• WCOT (Wall Coated Open Tubular): sono dei semplici tubi capillari ricoperti da un sottile strato di fase
stazionaria. Le prime colonne WCOT erano fatte in acciaio inossidabile, alluminio, rame o plastica.
In seguito si utilizzarono colonne in vetro. Spesso il vetro era trattato con acido cloridrico gassoso, o con
acido fluoridrico per ottenere una superficie scabra, capace di legare la fase stazionaria più saldamente.
• SCOT (Support Coated Open Tubular): sono dei tubi capillari in cui la superficie interna è rivestita da
un sottile film di materiale di supporto, come la terra di diatomee. Questo tipo di colonna contiene una
quantità di fase stazionaria molto maggiore rispetto ad una colonna a parete rivestita, e ha quindi una
maggiore capacità di campione, però presenta una minore efficienza.
121
• PLOT (Porous Layer Open Tubular): in cui si osserva una superficie ancora maggiore perché la fase
stazionaria è un polimero poroso.
• (FSWC) colonne tubolari aperte a pareti rivestite di silice fusa: I capillari di silice fusa sono ricavati da
una silice purificata in modo speciale che contiene minime quantità di ossidi metallici. Tali capillari
possiedono pareti più sottili delle colonne in vetro. I tubi vengono ulteriormente rinforzati con un
rivestimento esterno protettivo di polimmide. Le colonne che ne risultano sono flessibili e possono
essere avvolte in matasse.

SISTEMA DI RIVELAZIONE
I rivelatori segnalano il passaggio di sostanze diverse dal gas carrier con segnali elettrici di intensità in
genere proporzionale alla concentrazione. I rivelatori possono essere di due tipi:
1. rivelatori che misurano una caratteristica tipica del campione.
2. rivelatori che misurano piccole variazioni di una determinata proprietà fisica dell’eluente in uscita dalla
colonna, dovute ai diversi componenti presenti nella miscela.
Il rivelatore ideale per gascromatografia dovrebbe presentare le seguenti caratteristiche:
1. Adeguata sensibilità
2. Buona stabilità e riproducibilità
3. Risposta lineare ai soluti
4. Un intervallo di temperature compreso tra la temperatura ambiente e almeno 400° C
5. Breve tempo di risposta indipendente dalla velocità del flusso
6. Elevata attendibilità e facilità d’uso
7. Il rivelatore non dovrebbe essere distruttivo
8. Similarità di risposta verso tutti i soluti o una risposta selettiva e specifica verso uno o più classi di soluti

Rivelatore a ionizzazione di fiamma (FID – Flame Ionization Detector): è il rivelatore più diffuso e di più
generale applicabilità.
Nel FID (Flame Ionization Detector) i gas in uscita dalla colonna vengono miscelati con aria e H 2 e quindi
sottoposti a combustione in un microbruciatore di quarzo, in cui sono immersi due elettrodi; nella
combustione si producono ioni che trasferendosi sugli elettrodi producono un segnale elettrico, in grado di
azionare il registratore grafico.
Tra i due elettrodi viene applicata una d.d.p. di circa 300 V, quindi si alimenta il bruciatore con i due gas e,
mediante un filamento di ignizione, si accende la fiamma.
Quando passa solo il carrier (in genere N 2), si registra solo una debole corrente di fondo; quando esce un
componente eluito (di solito di natura organica), viene immediatamente bruciato all'interno della fiamma e
gli ioni prodotti nella combustione producono un netto aumento della corrente circolante tra i due elettrodi;
la variazione viene trasmessa al sistema di registrazione che traccia il gascromatogramma.

• Le prestazioni del FID dipendono soprattutto dal rendimento del processo di ionizzazione e dal flusso dei
gas combustibile e comburente.
• Il FID è un rivelatore di tipo distruttivo, poco selettivo, quasi universale,
• Vi sono poche sostanze che non vengono rivelate, e tra queste l'acqua; il FID è quindi adatto all'analisi di
soluzioni acquose e, nel caso di gas, non risente della presenza di umidità.

122
• E' un rivelatore molto sensibile (ha un limite di rivelabilità intorno a 10 -9-10-12g) con un elevato campo di
risposta lineare;
• E' molto robusto e può sopportare un esercizio continuo per tempi lunghi, garantendo prestazioni
soddisfacenti.
La ionizzazione, nel FID, dei composti del carbonio presenta ancora dei tratti poco chiari, sebbene è
possibile affermare che il numero di specie ioniche prodotte sia , in linea generale, proporzionale al numero
di atomi di carbonio ridotti nella fiamma. Poiché il FID risponde al numero di atomi di carbonio possiamo
dire che è uno strumento sensibile alla massa più che alla concentrazione.
Il rivelatore è insensibile nei confronti di gas non combustibili il monossido di carbonio (CO), l'anidride
carbonica (CO2) e gli ossidi di azoto (NOx).

+ -

Rivelatore a termoconducibilità (HWD)


L'HWD (Hot Wire Detector) è un rivelatore universale basato sul ponte di Wheatstone, e quindi fa parte dei
TCD,ovvero i rivelatori a conduttività termica (TCD).
• formato da 2 filamenti sottili di leghe speciali (Ni-W, Pt-W) immersi nel flusso del carrier: uno è posto
prima della colonna, l'altro è posto all'uscita:
Il ponte è costituito da 4 rami, su cui sono presenti altrettante resistenze: uno di riferimento (R1+R3) e
l'altro di misura (R2+R4); il ponte è equilibrato, cioè non si ha passaggio di corrente elettrica quando:
(R1/R3) = (R2/R4).

Inizialmente passa solo il carrier: il ponte viene equilibrato mediante la resistenza variabile R2 per produrre
la linea di base del gascromatogramma. I valori di R3 ed R4 dipendono dalla temperatura del filamento, che
a sua volta dipende dalla conducibilità termica del carrier (quando il suo flusso rimane costante); quando
esce un componente dalla colonna cromatografica, la miscela di gas che lambisce R4 ha una composizione
diversa dal solo carrier e quindi varia la sua conducibilità termica e di conseguenza il valore di R4: ciò
provoca uno sbilanciamento del ponte e la corrente elettrica prodotta, opportunamente amplificata, azionerà
il registratore grafico producendo il corrispondente picco.
PROPRIETA’ DEL RIVELATORE
• Questo rivelatore è totalmente aspecifico e quindi è di impiego generale;
123
• richiede tuttavia l'uso, come carrier, di H2 o He, che hanno una elevata conducibilità termica, nettamente
diversa da quella di quasi tutte le altre sostanze chimiche, in modo da garantire una buona sensibilità al
rivelatore;
• è inoltre richiesta una termostatizzazione molto accurata del rivelatore, di solito separata da quella della
colonna.
• Il limite di rivelabilità dell'HWD è modesto e difficilmente scende al disotto della p.p.m.
• la linearità della risposta è abbastanza buona;
• i tempi di risposta sono medio lunghi ma si tratta di un rivelatore robusto e preciso se ben tarato;
• il consumo di carrier è piuttosto rilevante ma la necessità di manutenzione è ridotta.
• Questo rivelatore non è distruttivo

Rivelatore a cattura di elettroni (ECD – Electron Capture Detector)


contiene al suo interno una sorgente radioattiva di particelle β (elettroni veloci) che può essere costituita da:
• una lamina di acciaio rivestita di triziuro di titanio TiT 4 che può essere usata fino a 220°C
• una lamina di oro rivestita di 63Ni che può essere usata fino a 350°C
1. La sorgente radioattiva costituisce il catodo di una coppia di elettrodi: gli elettroni emessi ionizzano il
carrier (di solito N2):
N2 + β → N2+ + e-

2. Gli ioni prodotti chiudono il circuito, producendo una linea di base caratterizzata da un elevata
corrente di fondo; in questo caso la linea di base del cromatogramma si troverà in alto nel
grafico.
3. Quando escono dalla colonna dei componenti eluiti con elevata elettroaffinità (per esempio
alogenuri alchilici indicati genericamente con X), provocano una diminuzione del numero di
ioni:
X + β → X-
N2+ + X- → N2X

e quindi una diminuzione della corrente, che produce il segnale corrispondente al picco. Il
gascromatogramma, in questo caso, risulta capovolto, con la linea di base in alto ed i vertici dei picchi in
basso.

• E' un rivelatore non distruttivo altamente specifico e selettivo (per gli alogenoderivati ed i composti
metallo-organici);
• non è sensibile alla maggior parte delle sostanze organiche;
• ha una linearità limitata, che dipende anche dalla temperatura di funzionamento
• sensibilità maggiore del FID;

Rivelatore termoionico: è selettivo nei confronti di composti organici contenenti fosforo ed azoto. Rispetto
al FID è circa 50 volte più sensibile per molecole che contengono atomi di azoto e circa 500 volte più
sensibile per molecole che contengono atomi di fosforo; quest’ultimo dato lo rende particolarmente utile
nella determinazione dei pesticidi, contenenti atomi di fosforo.
Da un punto di vista strutturale è simile al FID, con la differenza che il gas riscaldato incontra la perla di
rubidio riscaldata elettricamente e forma un plasma a 600-800°C. Non è noto con quale meccanismo
124
all’interno del plasma si generi, a partire dagli atomi di N e P, un numero elevato di ioni; questo comunque
porta ad una elevata corrente ionica, che permette la determinazione dei composti che contengono questi due
elementi.

Rivelatore a emissione atomica: si basa sulla spettroscopia di emissione atomica. L’eluito è un plasma di
elio, alimentato a microonde, accoppiato con uno spettrometro di emissione atomica avente come rivelatore
un “diode array” . Il plasma formato ha energia a sufficienza per atomizzare ed eccitare gli elementi presenti
nel campione, in modo da ottenere gli spettri di emissione atomica che come è ovvio sono caratteristici di
ciascun elemento. Gli spettri vengono osservati mediante un software che permette, spostando la superficie
contenente il “diode array 170-780 nm”, di identificare da due a quattro elementi simultaneamente.

Rivelatore a fotoionizzazione: in questo dispositivo le molecole che fluiscono dalla colonna GC vengono
foto ionizzate da una radiazione ultravioletta proveniente da una lampada a idrogeno di 10,2 eV o ad argo di
11,7 eV. Tale sorgente ionizza le specie che hanno un potenziale di ionizzazione al di sotto dell’energia della
lampada. I composti con potenziale di ionizzazione più alto non assorbono l’energia e perciò non vengono
rivelati. Questa radiazione provoca la ionizzazione delle molecole; applicando opportunamente una
differenza di potenziale alla cella, gli ioni formati danno luogo ad una corrente ionica che può essere
amplificata e registrata. Il rivelatore è più sensibile nei confronti degli idrocarburi e degli organosolfuri
aromatici.
Rivelatore fotometrico a fiamma: è un rivelatore molto sensibile ai composti contenenti zolfo e fosforo;
proprio per questo è stato usato per l’analisi degli inquinanti dell’aria, acqua, pesticidi e dei prodotti di
idrogenazione del carbone. L’eluito viene fatto passare attraverso una fiamma aria idrogeno a bassa

125
temperatura che converte il fosforo presente in HPO (emette a 510-526) e lo zolfo in S2 (emette a 394). E’
possibile, con l’ausilio di opportuni filtri, isolare queste emissioni e misurarne l’intensità con metodi
fotometrici. Sono anche rivelabili alogeni, azoto e metalli (stagno, cromo, selenio, germanio).

Rivelatori a spettrometria di massa: lo spettrometro di massa può anche essere utilizzato alla stregua di
rivelatore. La velocità di flusso dalle colonne capillari è, in genere, bassa abbastanza perché l’eluito dalla
colonna possa essere alimentato direttamente nella camera di ionizzazione dello spettrometro di massa.
Prima dell’avvento delle colonne capillari in GC, quando si usavano solo colonne impaccate, era necessario
ridurre al minimo i grandi volumi del gas di trasporto che eluivano dalla GC. A tal scopo, si usavano vari
getti, membrane e separatori ad effusione :
In chimica fisica, l'effusione è il processo tramite il quale le molecole gassose attraversano un foro sottile
senza collidere fra loro. Ciò avviene quando il diametro del foro è considerevolmente più piccolo
del cammino libero medio delle molecole.[1] Questo fenomeno è governato dalla legge di Graham, che
afferma che le velocità di effusione di due gas diversi sono inversamente proporzionali ai loro rispettivi pesi
molecolari:

In molti casi tali dispositivi eliminavano anche una notevole quantità di analita, risultando perciò abbastanza
privi di efficacia.

Una problematica di questo tipo di strumenti può essere la degradazione termica dei componenti. Tale
problema può essere ovviato abbassando la temperatura di esercizio in modo da ridurre al minimo la
degradazione.

In GC/MS, lo spettrometro di massa scansiona ripetutamente le masse durante l’analisi cromatografica. Se la


corsa cromatografica dura 10 minuti, ad esempio, e viene fatta una scansione al secondo, si registreranno 600
spettri.

L’analisi dei suddetti dati può essere effettuata in vari modi.


• si possono sommare le quantità di ioni di ciascuno spettro e diagrammarle in funzione del tempo,
ottenendo così il cromatogramma degli ioni totali. Questo diagramma è simile a un cromatogramma
convenzionale;
• si può evidenziare lo spettro di massa in un particolare momento del cromatogramma per identificare le
specie che eluiscono in quel momento;
• si può selezionare un singolo valore di m/z e monitorarlo per tutta la analisi cromatografica, tecnica
conosciuta come monitoraggio di uno ione selezionato. Gli spettri di massa di ioni selezionati che si
ottengono durante un esperimento di cromatografia sono noti come cromatogrammi di massa.

126
127
128
129
130
131
132

Potrebbero piacerti anche